日本精品aⅴ一区二区三区|国产欧美一二三区|国产乱码精品精|国产精品电影在线免费

      1. <blockquote id="utafg"><th id="utafg"></th></blockquote>
    1. <div id="utafg"></div>
        <blockquote id="utafg"><th id="utafg"></th></blockquote>

        <menuitem id="utafg"></menuitem>
      1. 您現(xiàn)在的位置是:首頁 >人工智能 > 2022-03-21 14:40:16 來源:

        人工智能正在幫助科學(xué)家解釋我們的大腦

        導(dǎo)讀 大腦通常被稱為黑匣子,但任何研究過內(nèi)部的神經(jīng)科學(xué)家都知道這是一種令人清醒的輕描淡寫。技術(shù)進步使我們的神經(jīng)回路越來越容易接近,使我們

        大腦通常被稱為黑匣子,但任何研究過內(nèi)部的神經(jīng)科學(xué)家都知道這是一種令人清醒的輕描淡寫。技術(shù)進步使我們的神經(jīng)回路越來越容易接近,使我們能夠密切觀察任何數(shù)量的神經(jīng)元的活動。

        大腦以多種方式對信息進行編碼。冷泉港實驗室助理教授TatianaEngel是一名物理學(xué)家,后來成為計算神經(jīng)科學(xué)家,她正在開發(fā)數(shù)學(xué)模型來了解神經(jīng)元協(xié)作做出決策的不同方式。圖片來源:PublicDomainPicturesviaPixabay,免費許可

        然而,大腦的奧秘只會加深。尖峰神經(jīng)元的集體合唱中嵌入的含義是什么?他們的活動如何將光和聲波轉(zhuǎn)化為我們對視覺和聽覺的主觀體驗?神經(jīng)元執(zhí)行哪些計算,它們遵循哪些廣泛的管理原則?大腦不是一個黑匣子——它是一個陌生的世界,語言和地方法律尚未破解,直覺會消亡。

        人工智能可以為我們解決這個問題嗎?可能。但最近的一個認識是,即使是我們在人工智能技術(shù)方面取得巨大成功的最新、最強大的工具,在解碼大腦方面也步履蹣跚。

        機器學(xué)習(xí)算法,例如人工神經(jīng)網(wǎng)絡(luò),已經(jīng)解決了許多復(fù)雜的任務(wù)。他們可以預(yù)測天氣和股市,或者識別物體和面孔,而且至關(guān)重要的是,他們可以在沒有我們告訴他們規(guī)則的情況下做到這一點。至少在理論上,他們應(yīng)該能夠自己學(xué)習(xí)大腦活動數(shù)據(jù)中隱藏的模式,并向我們講述大腦如何運作的故事。他們確實講了一個故事。只是,正如一些科學(xué)家發(fā)現(xiàn)的那樣,這個故事不一定來自我們的大腦。

        這就是冷泉港實驗室(CSHL)助理教授TatianaEngel最近在研究大腦決策時發(fā)現(xiàn)的。從物理學(xué)家轉(zhuǎn)為計算神經(jīng)科學(xué)家,恩格爾致力于開發(fā)數(shù)學(xué)模型,以幫助解釋神經(jīng)元在我們做出決定時的作用。

        雖然神經(jīng)科學(xué)家有一些理論,但他們還沒有就決策,即使是最簡單的決策,是如何在大腦中實施達成一致的解釋。為了探索更廣泛的可能性,Engel轉(zhuǎn)向了機器學(xué)習(xí):她沒有從特定的假設(shè)著手對神經(jīng)活動進行建模,而是從靈活的模型開始,這些模型可以根據(jù)數(shù)據(jù)塑造自己,并在他們的模型中計算出方程的參數(shù)。自己的。

        在這種方法中,然后根據(jù)生成的模型預(yù)測一組他們以前從未見過的新大腦測量值的能力來判斷它們。但在此過程中,恩格爾想知道,我們有多確定得分最高的模型反映了大腦的潛在邏輯?

        “現(xiàn)在在神經(jīng)科學(xué)以及其他領(lǐng)域越來越普遍,使用這種類型的靈活模型作為了解真實物理、生物系統(tǒng)的工具,”恩格爾說。“所以我們建立了一個模型,它可以很好地預(yù)測來自系統(tǒng)的數(shù)據(jù)。然后有這樣一種假設(shè),即這樣的模型應(yīng)該以類似于真實系統(tǒng)的方式運行,因此,通過研究模型的工作原理,我們將了解系統(tǒng)的工作原理。”

        通常情況下,這種假設(shè)可能是沒有根據(jù)的。在2020年的一項研究中,Engel和她的同事、CSHL的博士后MikhailGenkin研究了靈活模型在合成數(shù)據(jù)上的效果,研究人員知道合成數(shù)據(jù)的內(nèi)部動態(tài)。他們發(fā)現(xiàn),與直覺相反,有時被評為最強預(yù)測變量的模型與生成數(shù)據(jù)的原始系統(tǒng)的核心特征相距甚遠。

        “它們可能具有系統(tǒng)中根本不存在的特征或?qū)傩裕?rdquo;恩格爾說。“一個模型可以對數(shù)據(jù)做出很好的預(yù)測,但仍然是錯誤的。”換句話說,預(yù)測能力(機器學(xué)習(xí)算法的黃金標準)在神經(jīng)科學(xué)應(yīng)用方面可能是一個誤導(dǎo)性指標。

        如果沒有有效的計算模型,科學(xué)家們可能很難理解海量的大腦數(shù)據(jù)并解釋神經(jīng)活動如何產(chǎn)生大腦功能。恩格爾的發(fā)現(xiàn)和其他研究人員的發(fā)現(xiàn)可能會讓人覺得對人工智能幫助大腦建模的能力的高度吹捧的承諾是一個打擊。

        然而,這些問題并非無法克服,Engel說。她和其他人已經(jīng)想出了避免這些陷阱的想法。他們正在開發(fā)方法,使他們能夠繼續(xù)使用AI的強大工具,而不會陷入誤導(dǎo)性故事。

        冰山一角

        描述神經(jīng)元行為的計算嘗試總是會帶來一些微不足道的教訓(xùn),即使這些嘗試是成功的。1952年,艾倫·霍奇金(AlanHodgkin)和安德魯·赫胥黎(AndrewHuxley)將神經(jīng)元想象成一個電路,其精心布置的電阻器和電容器可以產(chǎn)生類似于神經(jīng)元特征尖峰的電流,這是大腦中通信的基石。

        該模型被證明是一項關(guān)鍵成就,但僅通過查看方程式就知道這一點遠非簡單。赫胥黎花了數(shù)天時間煞費苦心地將電壓數(shù)字輸入機械計算器,以查看電路的結(jié)果是否與真正的神經(jīng)元相匹配,他對這個相對簡單的模型的復(fù)雜行為感到驚訝。

        “很多時候,我的期望被證明是錯誤的,”他在十年后的諾貝爾獎演講中回憶道。“我從這些手動計算中學(xué)到的一個重要教訓(xùn)是,在嘗試處理這種復(fù)雜程度的系統(tǒng)時,一個人的直覺完全不足。”

        神經(jīng)科學(xué)家現(xiàn)在面臨著更高數(shù)量級的復(fù)雜性,因為他們已經(jīng)開始研究活體動物和人的神經(jīng)元種群。即使只有100個神經(jīng)元,數(shù)據(jù)也大得令人眼花繚亂。它動態(tài)變化,沒有明顯的韻律和原因。而且很少清楚其中哪些部分與正在研究的大腦功能真正相關(guān)。這些因素使得提出模型、概念或數(shù)學(xué)模型來描述神經(jīng)活動變得更加困難。

        更難的是弄清楚哪個提出的模型解釋了神經(jīng)元的真實情況,以及哪個模型是數(shù)據(jù)的幸運數(shù)學(xué)匹配。在不了解大腦的基本規(guī)則的情況下,科學(xué)家們能做的最好的事情就是看看這些模型是如何相互疊加的。

        “就好像我們所看到的只是一輛移動的汽車,我們必須通過對引擎蓋下發(fā)生的事情做出假設(shè)來找出它是如何移動的,”與Engel合作制定決策的波士頓大學(xué)神經(jīng)科學(xué)家ChandramouliChandrasekaran說研究。“然后,我們試圖找出提出的想法,比如模型A和模型B,在匹配我們對汽車運動的測量方面做得更好。”

        Chandrasekaran說,盡管這種方法越來越流行,但這種方法仍然可能在一些重要方面失敗。作為直接從事大腦測量工作的混合計算和實驗研究人員,Chandrasekaran直接知道神經(jīng)活動與平穩(wěn)行駛的汽車完全不同——它自然過于復(fù)雜,無法完全融入我們粗略勾畫的模型的線條中。

        “實驗數(shù)據(jù)通常更加復(fù)雜和異構(gòu)。就是這樣。它并不像你想象的那么簡單和精美,”他說。Chandrasekaran表明,這在實踐中意味著,神經(jīng)活動的切向變化有時會導(dǎo)致它被歸類為模型A,而實際上它遵循模型B,反之亦然。這就是為什么不能保證直接比較兩個模型來識別正確模型的原因之一。

        最近在決策領(lǐng)域爆發(fā)的激烈辯論凸顯了這些困難。它始于2015年《科學(xué)》雜志上一篇有爭議的發(fā)現(xiàn),該論文比較了大腦如何做出決定的兩種模型,特別是感知模型。感知決策涉及大腦對其接收到的感官信息做出判斷:它是紅色還是綠色?它是向右移動還是向左移動?

        簡單的決定,但如果您在交通站點,后果會很嚴重。為了研究大腦如何制造它們,研究人員幾十年來一直在記錄動物神經(jīng)元組的活動。當繪制神經(jīng)元的放電率并在試驗中取平均值時,它會呈現(xiàn)出逐漸上升的信號,“加速”做出決定。

        在基于自1990年代以來一直存在的有影響力的模型的標準敘述中,斜坡反映了神經(jīng)元逐漸積累的證據(jù)。換句話說,這就是神經(jīng)元發(fā)出決定信號的方式:通過增加它們的放電率,因為它們收集有利于一種或另一種選擇的證據(jù),直到它們滿意為止。

        然而,2015年的研究詢問了斜坡上升是否是平均試驗的產(chǎn)物。分析單一試驗的凌亂有限數(shù)據(jù)要困難得多,但其中會發(fā)生什么?神經(jīng)元的放電率真的會增加還是會發(fā)生離散的跳躍?這種區(qū)別可能指向不同的決策策略。他們的分析表明,神經(jīng)元的反應(yīng)比跳躍模型更好地匹配跳躍模型。幾年和許多研究之后,科學(xué)家們?nèi)匀粵]有確定哪種模型是正確的。

        情況可能更糟:這兩種模式都可能不正確。“如果有C型怎么辦?還是D?”恩格爾說。如果她可以測試連續(xù)模型而不是兩個模型怎么辦?這就是靈活建模最有用的地方,因為它不會將她限制在少數(shù)幾個場景中。但恩格爾發(fā)現(xiàn),這種方法還可以選擇與引擎蓋下的物理現(xiàn)實沒有太多共同點的場景。首先,她必須想辦法解決這個問題。

        反映現(xiàn)實

        靈活模型的開發(fā)考慮了機器學(xué)習(xí)的目標:優(yōu)化預(yù)測能力。通過這種方式,他們可以將他們從一組數(shù)據(jù)中學(xué)到的知識應(yīng)用到他們以前從未見過的新數(shù)據(jù)中。例如,當構(gòu)建一個分類器來區(qū)分貓和狗時,目標是在現(xiàn)實世界中它仍然可以區(qū)分貓和狗。算法是否使用與我們的大腦相同的策略來實現(xiàn)這一點并不重要。事實上,在這種情況下,它肯定不會。

        另一方面,神經(jīng)科學(xué)家有一個根本不同的目標:他們不想僅僅為數(shù)據(jù)擬合模型,而是從數(shù)據(jù)中發(fā)現(xiàn)假設(shè)。他們希望有一個模型,可以從神經(jīng)活動中學(xué)習(xí)如何像神經(jīng)元一樣。

        “我們不得不放棄優(yōu)化預(yù)測模型的想法,并提出一種新的方法來提出不同的目標,”恩格爾說。她與Genkin一起關(guān)注的事實是,在不同的數(shù)據(jù)樣本中,真實特征是相同的,但噪聲是不同的。

        因此,他們開發(fā)了一種新程序,可以在不同的數(shù)據(jù)樣本上發(fā)現(xiàn)模型,并提取它們的共同特征。這種新方法確定了合成數(shù)據(jù)的正確模型。當應(yīng)用于真實的大腦數(shù)據(jù)時,它為每個樣本得出了相似的模型,這表明與傳統(tǒng)方法的瘋狂猜測不同,這些模型捕捉到了系統(tǒng)的一些真實特征。

        該解決方案發(fā)表在NatureMachineIntelligence上,將使靈活的模型在其原始目的之外更具可擴展性,并且對生物科學(xué)更有用。Engel說,它可能不是針對神經(jīng)科學(xué)中使用的所有AI工具案例的解決方案,但它可以改進靈活模型的應(yīng)用,神經(jīng)科學(xué)家廣泛使用這種模型。

        對于恩格爾本人來說,它已經(jīng)開始對決策產(chǎn)生新的見解。與Chandrasekaran合作,該團隊正在探索他們最初的問題:什么樣的模型最能描述決策過程中的神經(jīng)活動?到目前為止,他們看到的既不是斜坡也不是跳躍。他們的發(fā)現(xiàn)會解決爭論嗎?還是將其踢進另一輪?希望我們很快就會知道。