您現(xiàn)在的位置是:首頁 >要聞 > 2020-12-17 07:57:20 來源:
建立更好地理解人類目標的機器
在心理學家費利克斯·沃納肯(Felix Warneken)和邁克爾·托馬塞洛(Michael Tomasello)進行的一項關(guān)于人類社會智能的經(jīng)典實驗中,一個18個月大的小孩看著一個人將一books書帶到一個未打開的櫥柜中。該名男子到達柜子時,笨拙地將書撞在柜子的門上幾次,然后發(fā)出困惑的聲音。
接下來發(fā)生了一些非凡的事情:幼兒愿意提供幫助。推斷出該人的目標后,學步兒童走到柜子上,打開門,讓該人將書本放進去。但是,生活經(jīng)驗如此有限的幼兒如何做出這種推斷呢?
最近,計算機科學家將這個問題重定向到計算機上:機器如何做同樣的事情?
進行這種類型的理解的關(guān)鍵因素可以說是使我們成為最人類的東西:我們的錯誤。就像幼兒只能從失敗中推斷出男人的目標一樣,推斷我們目標的機器也需要考慮到我們錯誤的行動和計劃。
為了在機器中捕獲這種社會智能,麻省理工學院計算機科學與人工智能實驗室(CSAIL)以及腦與認知科學系的研究人員創(chuàng)建了一種能夠推論目標和計劃的算法,即使這些計劃可能會失敗。
這種類型的研究最終可用于改進一系列輔助技術(shù),協(xié)作或看護機器人以及Siri和Alexa等數(shù)字助理。
譚志軒博士說:“這種能夠解決錯誤的能力對于制造能夠可靠地推斷出我們的利益并采取行動的機器至關(guān)重要。” 麻省理工學院電氣工程與計算機科學系(EECS)的學生,也是該研究的新論文的主要作者。“否則,人工智能系統(tǒng)可能會錯誤地推斷出,由于我們未能實現(xiàn)更高的目標,這些目標畢竟是不希望的。我們已經(jīng)看到了算法以自反和無計劃地使用社交媒體為基礎(chǔ)時會發(fā)生什么,我們將走上依賴和兩極分化的道路。理想情況下,未來的算法將能夠識別我們的錯誤,不良習慣和非理性,并幫助我們避免而不是加深它們。”
為了創(chuàng)建他們的模型,團隊使用Gen(最近在麻省理工學院開發(fā)的一種新的AI編程平臺)將符號AI規(guī)劃與貝葉斯推理相結(jié)合。貝葉斯推理提供了一種將不確定的信念與新數(shù)據(jù)相結(jié)合的最佳方法,被廣泛用于金融風險評估,診斷測試和選舉預測。
該團隊的模型比稱為貝葉斯逆向強化學習(BIRL)的現(xiàn)有基準方法的執(zhí)行速度快20到150倍,后者通過觀察代理的行為來了解代理的目標,價值或回報,并嘗試預先計算完整的策略或計劃。新模型在推斷目標中有75%的時間是準確的。
加州大學伯克利分校的Smith-Zadeh工程學教授Stuart Russell說:“ AI正在放棄將標準的固定目標賦予機器的'標準模型'。“相反,機器知道它不知道我們想要什么,這意味著關(guān)于如何從人類行為推斷目標和偏好的研究成為AI的中心主題。本文認真地對待了這一目標;特別是,這是一個邁向建模并進而顛倒人類根據(jù)目標和偏好產(chǎn)生行為的實際過程。”