日本精品aⅴ一区二区三区|国产欧美一二三区|国产乱码精品精|国产精品电影在线免费

      1. <blockquote id="utafg"><th id="utafg"></th></blockquote>
    1. <div id="utafg"></div>
        <blockquote id="utafg"><th id="utafg"></th></blockquote>

        <menuitem id="utafg"></menuitem>
      1. 您現(xiàn)在的位置是:首頁(yè) >每日動(dòng)態(tài) > 2021-05-02 16:55:14 來(lái)源:

        AI研究人員討論了分享可能有害的程序的道德規(guī)范

        導(dǎo)讀 研究實(shí)驗(yàn)室OpenAI最近決定限制新算法的發(fā)布,這引起了AI社區(qū)的爭(zhēng)議。該非營(yíng)利組織表示,由于對(duì)惡意應(yīng)用程序的擔(dān)憂,它決定不分享該程序的完

        研究實(shí)驗(yàn)室OpenAI最近決定限制新算法的發(fā)布,這引起了AI社區(qū)的爭(zhēng)議。該非營(yíng)利組織表示,由于對(duì)“惡意應(yīng)用程序”的擔(dān)憂,它決定不分享該程序的完整版本,這是一種名為GPT-2的文本生成算法。但許多人工智能研究人員批評(píng)了這一決定,指責(zé)實(shí)驗(yàn)室夸大危險(xiǎn)這項(xiàng)工作構(gòu)成了無(wú)意中引發(fā)了人工智能的“大規(guī)模歇斯底里”。

        AI研究人員討論了分享可能有害的程序的道德規(guī)范

        辯論范圍廣泛,有時(shí)甚至引起爭(zhēng)議。它甚至在人工智能研究人員中變成了一種模因,他們開玩笑說(shuō)他們?cè)趯?shí)驗(yàn)室中取得了驚人的突破,但目前的結(jié)果太危險(xiǎn)了。更重要的是,它突出了整個(gè)社區(qū)面臨的一系列挑戰(zhàn),包括難以與新聞界溝通新技術(shù),以及平衡開放與負(fù)責(zé)任披露的問(wèn)題。

        所有大驚小怪的中心程序相對(duì)簡(jiǎn)單。GPT-2是一類新的文本生成算法的最新例子,預(yù)計(jì)將在未來(lái)產(chǎn)生重大影響。當(dāng)提供類似標(biāo)題或故事的第一行的提示時(shí),GPT-2會(huì)生成與輸入匹配的文本。結(jié)果多種多樣,但往往令人驚訝地連貫。例如,制作的新聞報(bào)道非常模仿真實(shí)文章的基調(diào)和結(jié)構(gòu),完成發(fā)明的統(tǒng)計(jì)數(shù)據(jù)和來(lái)自制作來(lái)源的報(bào)價(jià)。

        從許多方面來(lái)說(shuō),它是一種有趣的工具,具有令人愉悅和驚喜的能力。但它并沒(méi)有人類理解和產(chǎn)生文本的能力。它生成文本但不理解它。OpenAI和外部專家一致認(rèn)為,這本身并不是一個(gè)突破,而是一個(gè)前沿文本生成可以做的出色執(zhí)行的例子。

        OpenAI限制發(fā)布的原因包括GPT-2等程序可能會(huì)制作“誤導(dǎo)新聞文章”以及自動(dòng)化垃圾郵件和濫用行為。出于這個(gè)原因,雖然他們發(fā)表了一篇描述該項(xiàng)工作的論文以及該項(xiàng)目的“小得多”版本,但研究人員仍保留了培訓(xùn)數(shù)據(jù)和完整模型。在通常默認(rèn)開放的人工智能研究領(lǐng)域,代碼,數(shù)據(jù)和模型被廣泛分享和討論,此舉和OpenAI的推理引起了很多關(guān)注。

        反對(duì)OPENAI決定的論點(diǎn)

        批評(píng)主要圍繞幾個(gè)關(guān)鍵點(diǎn)。首先,通過(guò)隱瞞模型,OpenAI阻止其他研究人員復(fù)制他們的工作。其次,模型本身并不像OpenAI所說(shuō)的那樣構(gòu)成威脅。第三,OpenAI沒(méi)有采取足夠的措施來(lái)抵制媒體炒作和歪曲這種AI新聞的傾向。

        第一點(diǎn)非常簡(jiǎn)單。雖然機(jī)器學(xué)習(xí)是一個(gè)相對(duì)民主的領(lǐng)域,但近年來(lái),只有研究人員能夠提供驚人的突破,但人們?cè)絹?lái)越重視資源密集型研究。像GPT-2這樣的算法是使用大量的計(jì)算能力和大數(shù)據(jù)集創(chuàng)建的,兩者都很昂貴。有人認(rèn)為,如果像OpenAI這樣資金充足的實(shí)驗(yàn)室不會(huì)分享他們的結(jié)果,那么社區(qū)的其他人就會(huì)變得貧窮。

        加州理工學(xué)院的人工智能教授兼Nvidia機(jī)器學(xué)習(xí)研究主任Anima Anandkumar告訴The Verge說(shuō): “這會(huì)讓學(xué)者處于極大的劣勢(shì)。” 在博客文章中,Anandkumar表示,OpenAI有效地利用其影響力“使ML研究更加封閉和無(wú)法訪問(wèn)。”(在回復(fù)OpenAI宣布的推文中,她更坦誠(chéng),稱該決定為“惡意BS”。)

        該領(lǐng)域的其他人對(duì)這一批評(píng)表示贊同,認(rèn)為在可能有害的研究中,公開發(fā)表更為重要,因?yàn)槠渌芯咳藛T可以在工作中尋找錯(cuò)誤并提出對(duì)策。

        說(shuō)起邊緣,OpenAI科學(xué)家萬(wàn)里布倫戴奇,誰(shuí)在人工智能的社會(huì)影響的作品,說(shuō)實(shí)驗(yàn)室是這種權(quán)衡的“敏銳地意識(shí)到”。他通過(guò)電子郵件說(shuō),實(shí)驗(yàn)室正在考慮通過(guò)邀請(qǐng)更多人來(lái)測(cè)試模型來(lái)“緩解”訪問(wèn)受限的問(wèn)題。

        強(qiáng)調(diào)她以個(gè)人身份發(fā)言的Anandkumar也表示,OpenAI隱瞞該模式的理由并未加起來(lái)。雖然重新創(chuàng)建作品所需的計(jì)算能力超出了大多數(shù)學(xué)者的能力范圍,但任何有決心或資金充足的團(tuán)隊(duì)都可以相對(duì)容易地獲得。這將包括那些可能從濫用算法中受益的人,比如民族國(guó)家組織在線宣傳活動(dòng)。

        Anandkumar表示,人工智能被用于自動(dòng)化垃圾郵件和錯(cuò)誤信息創(chuàng)建的威脅是一個(gè)真正的威脅,“但我不認(rèn)為限制訪問(wèn)這一特定模型將解決問(wèn)題。”

        Delip Rao是一名文本生成專家,曾參與使用AI檢測(cè)假新聞和錯(cuò)誤信息的項(xiàng)目,他同意OpenAI所描述的威脅被夸大了。他指出,例如,假冒新聞,文本的質(zhì)量很少成為障礙,因?yàn)檫@種錯(cuò)誤信息的大部分都是通過(guò)復(fù)制和粘貼其他故事來(lái)實(shí)現(xiàn)的。“你不需要花哨的機(jī)器學(xué)習(xí),”Rao說(shuō)。他說(shuō),當(dāng)涉及到逃避垃圾郵件過(guò)濾器時(shí),大多數(shù)系統(tǒng)依賴于一系列信號(hào),包括用戶的IP地址和最近的活動(dòng) - 而不只是檢查垃圾郵件發(fā)送者是否正在寫作。“我知道像[GPT-2]這樣的模型可以用于不健康的目的,但可以說(shuō)是迄今為止發(fā)布的任何類似模型,”Rao說(shuō),他還寫了一篇關(guān)于這個(gè)主題的博客文章。“過(guò)于危險(xiǎn)”這個(gè)詞在沒(méi)有經(jīng)過(guò)深思熟慮或?qū)嶒?yàn)的情況下隨便扔掉了。我不認(rèn)為[OpenAI]花了足夠的時(shí)間證明它實(shí)際上是危險(xiǎn)的。“

        布倫戴奇說(shuō),實(shí)驗(yàn)室咨詢外部專家以評(píng)估風(fēng)險(xiǎn),但他強(qiáng)調(diào)OpenAI正在為日益復(fù)雜的文本生成系統(tǒng)的危險(xiǎn)提供更廣泛的案例,而不僅僅是關(guān)于GPT-2。

        “我們理解為什么有些人認(rèn)為我們的聲明被夸大了,盡管區(qū)分我們所說(shuō)的與其他人所說(shuō)的很重要,”他寫道。“我們?cè)噲D突出GPT-2的當(dāng)前能力以及更廣泛的系統(tǒng)類別的風(fēng)險(xiǎn),我們應(yīng)該更加精確地區(qū)分這種區(qū)別。”

        布倫戴奇還指出,OpenAI希望在謹(jǐn)慎方面犯錯(cuò)誤,他說(shuō)發(fā)布完整模型將是一個(gè)“不可逆轉(zhuǎn)”的舉動(dòng)。在上周接受The Verge 采訪時(shí),OpenAI的政策主管將該技術(shù)與用于創(chuàng)建深度偽造的面部交換算法進(jìn)行了比較。這些作為開源項(xiàng)目發(fā)布,很快就被世界各地的個(gè)人用于自己的用途,包括創(chuàng)建非自愿的色情內(nèi)容。

        AI媒體炒作的難度

        研究人員說(shuō),雖然關(guān)于文本生成模型和學(xué)術(shù)訪問(wèn)的危險(xiǎn)性的爭(zhēng)論沒(méi)有明顯的結(jié)論,但與公眾溝通新技術(shù)的問(wèn)題甚至更加棘手。

        對(duì)OpenAI方法的批評(píng)者指出,“太危險(xiǎn)而無(wú)法釋放”的角度成為大量報(bào)道的焦點(diǎn),提供了一個(gè)多汁的標(biāo)題,掩蓋了該技術(shù)帶來(lái)的實(shí)際威脅。像“Elon Musk的OpenAI構(gòu)建的人工智能如此強(qiáng)大以至于必須為人類的利益而被鎖定”的頭條新聞很常見(jiàn)。(Elon Musk與OpenAI的關(guān)系是該實(shí)驗(yàn)室長(zhǎng)期存在的問(wèn)題。他在2015年共同創(chuàng)立了該組織,但據(jù)報(bào)道,該組織去年幾乎沒(méi)有直接參與并辭去董事會(huì)職務(wù)。)

        雖然對(duì)于他們的領(lǐng)域的不良報(bào)道感到沮喪對(duì)于科學(xué)家來(lái)說(shuō)并不是一種新的經(jīng)歷,但在人工智能研究方面,風(fēng)險(xiǎn)尤其高。這部分是因?yàn)楣妼?duì)人工智能的看法與實(shí)際能力不相符,但這也是因?yàn)樵擃I(lǐng)域正在努力解決資金和監(jiān)管等問(wèn)題。如果普通公眾對(duì)AI過(guò)度擔(dān)心,是否會(huì)導(dǎo)致研究不那么有意義?

        最新文章