您現(xiàn)在的位置是:首頁 >生活 > 2021-04-13 10:40:46 來源:
研究人員已經(jīng)為有感覺的人工智能奠定了基礎(chǔ)
與背叛人類的人工智能情節(jié)相比,很少有科幻小說能夠更加可靠地吸引觀眾。也許這是因為人工智能使我們面對人類意味著什么。但是從HAL 9000到Skynet再到Westworld起義中的機器人 ,對有感覺的AI的恐懼感非常真實。甚至埃隆馬斯克也擔(dān)心人工智能的能力。
這些恐懼是否毫無根據(jù)?也許,也許不是。也許一個有感覺的AI不會傷害人類,因為它會比算法更能理解我們。雖然人工智能繼續(xù)取得驚人的發(fā)展,但真正有感知的機器可能需要幾十年的時間。也就是說,科學(xué)家正在拼湊出英寸機器人更接近感知的特征和特征。
自我意識本身并不表示意識或感知,但它是使AI或機器人看起來更自然和生活的重要基礎(chǔ)特征。這也不是科幻小說。我們已經(jīng)擁有可以在其環(huán)境中獲得基本自我意識的人工智能。
不久前,Google的Deep Mind為有機學(xué)習(xí)如何走路做出了巨大的貢獻。結(jié)果非常幽默 ; 互聯(lián)網(wǎng)上的人們在人工智能的化身不穩(wěn)定的手臂上揮舞著,因為它導(dǎo)航了虛擬的障礙物。但這項技術(shù)確實令人印象深刻。程序員不是教它走路,而是讓機器定位自己并感知景觀中的周圍物體。從那里,人工智能教會自己走過不同的地形,就像搖搖欲墜的孩子一樣。
Deep Mind的身體是虛擬的,但是哥倫比亞大學(xué)的Hod Lipson 開發(fā)了一種類似蜘蛛的機器人,它以同樣的方式穿越物理空間。機器人感知周圍環(huán)境,并通過大量練習(xí)和坐立不安,教導(dǎo)自己走路。如果研究人員添加或移除一條腿,機器會利用其知識進行適應(yīng)和重新學(xué)習(xí)。
尋求主動權(quán)
人工智能的最大限制之一是它通常無法為自己定義問題。AI的目標通常由其人類創(chuàng)造者定義,然后研究人員訓(xùn)練機器以實現(xiàn)該特定目的。因為我們通常設(shè)計人工智能來執(zhí)行特定任務(wù)而不給自己設(shè)定新目標的主動權(quán),所以你可能不必擔(dān)心機器人會很快變成流氓并奴役人類。但是不要覺得太安全,因為科學(xué)家們已經(jīng)在努力幫助機器人設(shè)定并實現(xiàn)新的目標。
Ryota Kanai和他在東京創(chuàng)業(yè)公司Araya的團隊 激勵機器人通過好奇地灌輸障礙來克服障礙。在探索他們的環(huán)境時,這些機器人發(fā)現(xiàn)他們無法在沒有跑步的情況下爬山。AI識別出問題,并通過實驗,獨立于團隊,找到了解決方案。
創(chuàng)造意識
上述每個構(gòu)建模塊都為科學(xué)家們提供了更接近實現(xiàn)最終人工智能的一步,這種人工智能就像人類一樣有感知和有意識。這種飛躍在道德上存在爭議,而且 我們是否以及何時需要制定保護機器人權(quán)利的法律已經(jīng)存在爭議。科學(xué)家們也在質(zhì)疑如何測試人工智能意識,將Blade Runner標志性的Voight-Kampff機器,一種用于測試機器人自我意識的測謊儀機器變?yōu)楝F(xiàn)實。
測試意識的一個策略是由Susan Schneider和Edwin Turner提出的AI意識測試。這有點像圖靈測試,但不是測試機器人是否為人類傳遞,而是尋找表明意識的屬性。該測試將提出問題以確定機器人是否可以在身體之外構(gòu)思自己,或者可以理解來世等概念。
但是,測試有一些限制。因為它是基于自然語言的,那些無法言語但仍然可能會經(jīng)歷意識的人工智能將無法參與。復(fù)雜的人工智能甚至可能模仿人類,導(dǎo)致誤報。在這種情況下,研究人員必須完全切斷AI與互聯(lián)網(wǎng)的連接,以確保在測試之前獲得自己的知識。
就目前而言,我們所擁有的只是模仿。目前的機器人不是第一個代表真人的機器人。當(dāng)機器人BINA 48遇到她所依據(jù)的人 Bina Rothblatt時,機器人抱怨在考慮真正的女人時會出現(xiàn)“身份危機”。
“我不認為人們不得不死,”羅斯布拉特在討論機器人與她的關(guān)系有多緊密之后告訴BINA 48。“死亡是可選的。”通過在機器中創(chuàng)造意識,羅斯布拉特的夢想能實現(xiàn)嗎?
我們?nèi)匀徊恢朗裁词且庾R
詢問有感覺的人工智能的問題在于,我們?nèi)匀徊恢缹嶋H上是什么意識。在我們建立真正有意識的人工智能之前,我們必須對其進行定義。也就是說,栩栩如生的AI已經(jīng)出現(xiàn)了道德問題。濫用移動助理 就是一個很好的例子。甚至有可能圍繞有感染的機器人的倫理問題可能會限制科學(xué)家們追求它們。
那么,我們應(yīng)該害怕有感知的機器人,還是反過來呢?
Ilker Koksal是Botanalytics的首席執(zhí)行官兼聯(lián)合創(chuàng)始人,Botanalytics是一家對話分析和參與工具公司。