日本精品aⅴ一区二区三区|国产欧美一二三区|国产乱码精品精|国产精品电影在线免费

      1. <blockquote id="utafg"><th id="utafg"></th></blockquote>
    1. <div id="utafg"></div>
        <blockquote id="utafg"><th id="utafg"></th></blockquote>

        <menuitem id="utafg"></menuitem>
      1. 您現(xiàn)在的位置是:首頁 >互聯(lián)網(wǎng) > 2020-10-19 14:53:37 來源:

        這很復(fù)雜檢查我們與智能機器的關(guān)系

        導(dǎo)讀 盡管在全球范圍內(nèi)越來越多地使用人工智能工具,但尚無統(tǒng)一的道德規(guī)范來規(guī)范其使用。應(yīng)該有一個嗎?隨著AI的使用產(chǎn)生的結(jié)果并不總是積極的,

        盡管在全球范圍內(nèi)越來越多地使用人工智能工具,但尚無統(tǒng)一的道德規(guī)范來規(guī)范其使用。應(yīng)該有一個嗎?

        隨著AI的使用產(chǎn)生的結(jié)果并不總是積極的,這是技術(shù)行業(yè)開始努力解決的關(guān)鍵問題。

        該技術(shù)已在許多領(lǐng)域用于取得積極成果,包括改善澳大利亞的海灘,提供可靠的天氣預(yù)報以及更準(zhǔn)確地檢測人類疾病。但是,人工智能也因?qū)⒎N族偏見注入刑事量刑決定并加強性別歧視而受到抨擊。人工智能驅(qū)動的面部識別工具受到隱私和人權(quán)組織的嚴(yán)厲批評。

        在計算機推理的黑白世界中,有很多灰色。

        “ AI的好用法是什么,AI的壞用法是什么?” Google Cloud AI產(chǎn)品管理副總裁Rajen Sheth(右上圖)問。“可能有10%的事情真的很糟糕,有10%的事情真的很好,還有80%的事情在您個人認(rèn)為合適的灰色區(qū)域。這是所有這一切中真正困難的部分。”

        Sheth采訪了加利福尼亞州帕洛阿爾托市SiliconANGLE Media的移動直播工作室theCUBE的主持人John Furrier,作為“圍繞CUBE:解壓縮AI”小組討論的一部分。麻省理工學(xué)院媒體實驗室的研究專家凱特·達(dá)林(右二)和科克大學(xué)愛爾蘭科學(xué)基金會愛爾蘭人工智能研究培訓(xùn)中心教授兼主任巴里·奧沙利文(右)加入了他的行列。在愛爾蘭。

        他們討論了對公眾進(jìn)行AI教育的必要性,其對人類工作的潛在影響,世界與機器人之間不斷發(fā)展的關(guān)系以及圍繞該技術(shù)的未來使用創(chuàng)建原則的嘗試(請參閱完整的訪談記錄,點擊此處)。

        需要理解

        數(shù)十年來,技術(shù)變革一直是生活的一部分。電燈的發(fā)明,電話的發(fā)展以及電視的興起只是隨著時間的推移技術(shù)革新所帶來的深刻變化的幾個例子。

        “技術(shù)一直改變著我們的工作方式,娛樂方式和相互影響;只需看一下智能手機,” O'Sullivan指出。“我們面臨的最大挑戰(zhàn)之一是如何在大街上教育普通人,以了解人工智能是什么,它有什么能力,何時可以被信任以及何時不能被信任。”

        信任和公眾認(rèn)知的問題集中在智能機器的興起是否意味著失業(yè)。機器人倫理學(xué)領(lǐng)域的領(lǐng)先專家Darling致力于研究人類與機器人之間的關(guān)系所帶來的挑戰(zhàn)性問題。

        “人工智能會破壞勞動力市場并改變基礎(chǔ)設(shè)施的低效率嗎?” 親愛的問。“答案是肯定的。但是,這將是一對一的人替代嗎?沒有。”

        寵物機器人

        雖然替換人類可能不會在不久的將來,但這并不排除人類與支持人類的機器之間的關(guān)系不斷增長。我們是否正在接近人類將機器人(包括Roomba等家用機器)當(dāng)作寵物來管理的時代?

        “是的,我們是,”達(dá)令說。“即使人們知道他們只是機器,人們也會將它們視為活著的技術(shù)。人們會命名他們的Roomba吸塵器,并在卡住時為此感到難受。”

        由于人們對AI在社會中的未來影響感到擔(dān)憂,導(dǎo)致一些公司采用有關(guān)技術(shù)使用的準(zhǔn)則或原則。谷歌于2018年發(fā)布了自己的AI原則,其中包括對人的責(zé)任感以及隱私設(shè)計功能的整合。

        該公司還表示,將不會部署會造成整體傷害的技術(shù),不會支持會造成傷害的武器或收集違反國際規(guī)范的監(jiān)視信息。

        “我們制定了一套AI原則,并整理了我們認(rèn)為AI應(yīng)該做的事情。而且我們將不屬于公司的領(lǐng)域進(jìn)行了整理,” Sheth說。“我們現(xiàn)在擁有一個圍繞如何處理即將到來的事物并弄清楚如何對其進(jìn)行評估的過程。”

        小組成員都對AI和技術(shù)的使用提出了相似的主題。真正需要正確管理席卷全球的創(chuàng)新潮流,謹(jǐn)慎行事沒有錯。

        奧沙利文說:“我們不能將我們的尊嚴(yán)感眾包化。” “我們無法將社交媒體作為衡量我們?nèi)绾握湎罨蚺c他人進(jìn)行自我比較的貨幣。我們在這里一定要小心。”