您現(xiàn)在的位置是:首頁 >綜合 > 2020-12-02 08:53:37 來源:
即使是來自機器人的垃圾談話也很傷人
亂說垃圾話語長期困擾著游戲對手,現(xiàn)在,卡內(nèi)基梅隆大學的研究人員已經(jīng)證明,令人沮喪的單詞即使被機器人說出來也會受到干擾。該研究中的垃圾言論絕對是溫和的,諸如“我必須說你是一個糟糕的球員”和“在比賽過程中,你的比賽變得混亂”之類的話。即便如此,使用機器人玩游戲的人(一種市售的人形機器人,稱為Pepper)在勸阻他們時表現(xiàn)較差,而在鼓勵他們時則表現(xiàn)更好。
主要作者亞倫·羅斯(Aaron M. Roth)說,參加研究的40名參與者中有一些技術上很熟練,并且完全理解機器是造成不適的原因。
羅斯說:“一位參與者說,'我不喜歡機器人在說什么,但這是它被編程的方式,所以我不能怪它。'機器人學院。
但是研究人員發(fā)現(xiàn),總體而言,無論技術水平如何,人類的表現(xiàn)都會減弱。
這項研究于上個月在印度新德里舉行的IEEE國際機器人與人機交互通信國際會議(RO-MAN)上提出,它偏離了典型的人機交互研究,后者著重于研究人類和機器人如何做到最佳。一起工作。
“這是在不合作的環(huán)境中進行人機交互的首批研究之一,”合著者,軟件研究所副教授費芳說。它有一個地方的機器人數(shù)量和世界產(chǎn)生巨大影響的物聯(lián)網(wǎng)(IOT)具有人工智能功能的設備預計將成倍增長。她說:“我們可以期望家庭助理能夠合作,但是在諸如在線購物之類的情況下,他們的目標可能與我們的目標不同。”
這項研究是方方正教授的“社會方法AI方法”中一個學生項目的產(chǎn)物。這些學生想探索機器人理論中博弈論和有限理性的用途,因此他們設計了一項研究,人類將在名為“守衛(wèi)與寶藏”的游戲中與機器人競爭。研究人員使用所謂的Stackelberg游戲來研究理性。這是一個典型的游戲,用于在安全游戲的研究中研究防御者與攻擊者的互動,F(xiàn)ang在該領域進行了大量工作。
每個參與者都在機器人上玩了35次游戲,既可以聽從機器人的鼓勵性話,也可以用不屑一顧的話讓他們的耳朵歌唱。盡管隨著玩游戲次數(shù)的增加,人類玩家的合理性有所提高,但受到機器人批評的人得分卻不及受到贊揚的人。