日本精品aⅴ一区二区三区|国产欧美一二三区|国产乱码精品精|国产精品电影在线免费

      1. <blockquote id="utafg"><th id="utafg"></th></blockquote>
    1. <div id="utafg"></div>
        <blockquote id="utafg"><th id="utafg"></th></blockquote>

        <menuitem id="utafg"></menuitem>
      1. 您現(xiàn)在的位置是:首頁(yè) >互聯(lián)網(wǎng) > 2020-10-22 11:10:51 來(lái)源:

        如果您的自動(dòng)駕駛汽車必須選擇擊中誰(shuí)倫理學(xué)質(zhì)疑人工智能

        導(dǎo)讀 公眾陷入與大數(shù)據(jù)和人工智能的混亂,愛恨交織的關(guān)系。新聞中令人興奮的新技術(shù)和數(shù)據(jù)輕重磅秤在兩個(gè)方面都很沉重。隨著有關(guān)道德和軟件自主性

        公眾陷入與大數(shù)據(jù)和人工智能的混亂,愛恨交織的關(guān)系。新聞中令人興奮的新技術(shù)和數(shù)據(jù)輕重磅秤在兩個(gè)方面都很沉重。隨著有關(guān)道德和軟件自主性的難題日益迫切,共識(shí)仍然難以捉摸。

        麻省理工學(xué)院工程系統(tǒng)教授斯圖爾特·馬德尼克(Stuart Madnick)(如圖)說(shuō):“道德問(wèn)題的麻煩在于,他們往往沒(méi)有一個(gè)很好的明確答案 。” 那是因?yàn)閹缀鯖](méi)有玫瑰在AI中沒(méi)有刺,沒(méi)有潛在的陷阱也沒(méi)有回報(bào)。我們都喜歡預(yù)期下一個(gè)問(wèn)題的應(yīng)用程序中的智能算法。他們需要大量的數(shù)據(jù)集進(jìn)行訓(xùn)練。普通消費(fèi)者認(rèn)為,這對(duì)我來(lái)說(shuō)很好,只要它不是我的數(shù)據(jù)即可。

        Madnick采訪過(guò) 戴夫Vellante表示 和保羅·吉林,theCUBE,SiliconANGLE Media的移動(dòng)即時(shí)串流工作室共同主辦的MIT CDOIQ研討會(huì)在劍橋期間。他們討論了AI的制造者和消費(fèi)者所面臨的嚴(yán)峻的道德問(wèn)題(請(qǐng)參閱完整的訪談?dòng)涗?,點(diǎn)擊此處)。

        最糟糕的人工智能

        事實(shí)是,根據(jù)Madnick的說(shuō)法,沒(méi)有大數(shù)據(jù)或AI不會(huì)損害數(shù)據(jù)隱私或主權(quán)。我們?nèi)匀粵](méi)有經(jīng)驗(yàn)來(lái)判斷可接受的成本效益比。

        麥德尼克說(shuō):“幾乎我們所做的每項(xiàng)研究都涉及到此類[道德]問(wèn)題,而且人們都在投票,幾乎總是將其分散在各個(gè)方面,因?yàn)槠渲腥魏我粋€(gè)都是錯(cuò)誤的決定。” “那么哪個(gè)錯(cuò)誤的決定最不糟糕?”

        Madnick指出,除了隱私問(wèn)題之外,有關(guān)自動(dòng)駕駛?cè)斯ぶ悄艿膯?wèn)題也越來(lái)越多地涉及自動(dòng)駕駛汽車的方法。在麻省理工學(xué)院,Madnick向?qū)W生講授技術(shù)倫理學(xué)。自動(dòng)駕駛的主題提出了一些難題。

        例如,效用理論指出,如果汽車必須撞到一個(gè)人或多個(gè)人,則最好撞到最少的人。以自動(dòng)駕駛汽車中的駕駛員面對(duì)可能發(fā)生的碰撞為例。可以對(duì)汽車進(jìn)行編程,使其撞到墻上,可能會(huì)殺死駕駛員,一名帶嬰兒車過(guò)馬路的婦女或成群的三名男子。第一個(gè)選擇是殺死汽車駕駛員,第二個(gè)選擇是女人和嬰兒,最后一個(gè)是三個(gè)男人。

        Madnick解釋說(shuō),班上的學(xué)生通常對(duì)這種安排并不滿意。顯然,在AI中仍有許多道德方面的問(wèn)題需要解決。