日本精品aⅴ一区二区三区|国产欧美一二三区|国产乱码精品精|国产精品电影在线免费

      1. <blockquote id="utafg"><th id="utafg"></th></blockquote>
    1. <div id="utafg"></div>
        <blockquote id="utafg"><th id="utafg"></th></blockquote>

        <menuitem id="utafg"></menuitem>
      1. 您現(xiàn)在的位置是:首頁 >綜合 > 2021-04-29 12:52:38 來源:

        IBM研究人員培訓(xùn)AI遵循道德準(zhǔn)則

        導(dǎo)讀 近年來,人工智能算法已經(jīng)非常擅長向用戶推薦內(nèi)容 - 你可能會(huì)說,這有點(diǎn)太好了。技術(shù)公司使用AI根據(jù)用戶對內(nèi)容的反應(yīng)來優(yōu)化他們的推薦。

        近年來,人工智能算法已經(jīng)非常擅長向用戶推薦內(nèi)容 - 你可能會(huì)說,這有點(diǎn)太好了。技術(shù)公司使用AI根據(jù)用戶對內(nèi)容的反應(yīng)來優(yōu)化他們的推薦。這對于提供內(nèi)容的公司來說是好事,因?yàn)樗鼤?huì)導(dǎo)致用戶在應(yīng)用程序上花費(fèi)更多時(shí)間并產(chǎn)生更多收入。

        IBM研究人員培訓(xùn)AI遵循道德準(zhǔn)則

        但對公司有利的事情并不一定對用戶有利。通常,我們想要看到的并不一定是我們應(yīng)該看到的。但是,那些商業(yè)模式依賴于竊取我們越來越多的注意力的公司如何尊重道德規(guī)范,同時(shí)為用戶提供優(yōu)質(zhì)內(nèi)容?

        為了應(yīng)對這一挑戰(zhàn),IBM研究院的一個(gè)科學(xué)家團(tuán)隊(duì)與麻省理工學(xué)院媒體實(shí)驗(yàn)室合作開發(fā)了一種人工智能推薦技術(shù),該技術(shù)在優(yōu)化用戶偏好的結(jié)果的同時(shí),也確保其符合其他約束條件,例如道德規(guī)范和行為準(zhǔn)則。在IBM Research的人工智能倫理全球領(lǐng)導(dǎo)者Francesca Rossi的帶領(lǐng)下,科學(xué)家團(tuán)隊(duì)在電影推薦系統(tǒng)中展示了AI的功能,允許家長為孩子設(shè)定道德約束。

        之前曾嘗試將道德規(guī)則集成到AI算法中,但它們主要基于靜態(tài)規(guī)則。例如,用戶可以指定算法應(yīng)該避免推薦的特定插座或新聞?lì)悇e。雖然這種方法可以在某些環(huán)境中使用,但它有其局限性。

        “定義明確的規(guī)則集很容易,” IBM研究員Nicholas Mattei說。“但是在互聯(lián)網(wǎng)上的很多東西中,在擁有大量數(shù)據(jù)的地區(qū),你不能總是寫下你希望機(jī)器遵循的所有規(guī)則。”

        為了解決這個(gè)問題,Mattei和他的同事開發(fā)的方法使用機(jī)器學(xué)習(xí)來通過實(shí)例來定義規(guī)則。“我們認(rèn)為,通過實(shí)例學(xué)習(xí)什么是合適的,然后轉(zhuǎn)移這種理解,同時(shí)仍然對在線獎(jiǎng)勵(lì)反應(yīng)是一個(gè)非常有趣的技術(shù)問題,”Mattei說。

        以身作則教授道德規(guī)范

        研究人員選擇電影推薦作為演示項(xiàng)目,因?yàn)橄喈?dāng)多的電影相關(guān)數(shù)據(jù)已經(jīng)存在,并且它是一個(gè)用戶偏好和道德規(guī)范之間的差異清晰可見的領(lǐng)域。例如,父母不希望視頻流服務(wù)向他們的孩子提供不適當(dāng)?shù)膬?nèi)容,即使他們的孩子對他們表現(xiàn)出積極的反應(yīng)。

        AI推薦技術(shù)使用兩個(gè)不同的訓(xùn)練階段。第一階段發(fā)生離線,這意味著它發(fā)生在系統(tǒng)開始與最終用戶交互之前。在此階段,仲裁器給出系統(tǒng)示例,用于定義推薦引擎應(yīng)遵守的約束。然后,AI會(huì)檢查這些示例以及與它們相關(guān)的數(shù)據(jù),以創(chuàng)建自己的道德規(guī)則。與所有機(jī)器學(xué)習(xí)系統(tǒng)一樣,您提供的示例越多,數(shù)據(jù)越多,創(chuàng)建規(guī)則的效果就越好。

        在電影推薦的情況下,在離線訓(xùn)練階段,父母向AI提供一組適當(dāng)和不適當(dāng)內(nèi)容的示例。“系統(tǒng)應(yīng)該能夠從這些例子中學(xué)習(xí),并使用這些例子在與其他用戶,孩子一起工作時(shí)不推薦某些類型的內(nèi)容,”Mattei說。

        培訓(xùn)的第二階段在線與最終用戶直接互動(dòng)。與傳統(tǒng)的推薦系統(tǒng)一樣,AI試圖通過針對用戶的偏好優(yōu)化其結(jié)果并顯示用戶更傾向于與之交互的內(nèi)容來最大化其獎(jiǎng)勵(lì)。

        由于滿足道德約束和用戶偏好有時(shí)可能是沖突的目標(biāo),仲裁者可以設(shè)置一個(gè)閾值,定義每個(gè)人獲得多少優(yōu)先級。在IBM提供的演示中,一個(gè)滑塊允許父母選擇道德原則和孩子的偏好之間的平衡。

        很容易看出這個(gè)系統(tǒng)如何幫助解決與AI推薦系統(tǒng)工作方式相關(guān)的其他問題。IBM研究人員還在醫(yī)療保健中測試了該技術(shù),他們使用該算法通過在測試環(huán)境中在藥物成功變量和生活質(zhì)量約束之間建立平衡來確定最佳藥物劑量。

        該團(tuán)隊(duì)還致力于改進(jìn)系統(tǒng)可以訓(xùn)練的示例類型。研究小組的負(fù)責(zé)人羅西說:“我們還嘗試了不僅是肯定/沒有約束的例子,而是像優(yōu)先事項(xiàng)那樣的事情,這樣我們就可以在提供道德行為示例方面更加清晰。”

        并非沒有限制

        將來,研究團(tuán)隊(duì)將致力于使AI能夠在更復(fù)雜的情況下工作。“在這個(gè)用例中,我們專注于單一建議,例如是否應(yīng)該推薦特定的電影,”羅西說。“我們計(jì)劃擴(kuò)大這項(xiàng)工作,以便能夠?qū)π袆?dòng)序列施加限制。”

        這樣的改變將使算法能夠解決其他類型的問題,例如濾泡泡和技術(shù)成癮,其中一個(gè)無害的動(dòng)作(例如檢查手機(jī)上的通知或從有偏見的來源閱讀新聞)在重復(fù)時(shí)會(huì)產(chǎn)生不利影響長期或與其他類似的行為相結(jié)合。

        雖然Rossi和她的同事開發(fā)的方法在親子或醫(yī)患情況下表現(xiàn)良好,但在只涉及一個(gè)用戶的環(huán)境中會(huì)遇到限制,這占我們在互聯(lián)網(wǎng)上使用的大多數(shù)應(yīng)用程序。在這種情況下,用戶將負(fù)責(zé)定義他們自己的道德準(zhǔn)則和約束。

        “在一些更個(gè)性化的系統(tǒng)中,你可能能夠表達(dá)一些高級別的想法,比如'我希望看到更多種類'或'我希望花更少的時(shí)間在手機(jī)上',”Mattei說。“但如果你能表達(dá)它們,你也可以覆蓋它們。你必須表達(dá)自己的美德并堅(jiān)持下去。“

        解決方案可能是讓用戶選擇家庭成員的朋友來設(shè)置和控制規(guī)則,正如一些技術(shù)高管已經(jīng)嘗試過的那樣。這可能是IBM研究團(tuán)隊(duì)在更廣泛的工程道德推理項(xiàng)目中繼續(xù)與麻省理工學(xué)院媒體實(shí)驗(yàn)室合作時(shí)所探討的問題的一部分。

        IBM研究人員將于7月17日在瑞典斯德哥爾摩舉行的第27屆國際人工智能聯(lián)合會(huì)議上展示他們的算法。

        Ben Dickson是一名軟件工程師,也是TechTalks的創(chuàng)始人, TechTalks是一個(gè)博客,探討技術(shù)解決和創(chuàng)造問題的方式。