轉(zhuǎn)載聲明:除調(diào)整格式外,不得對原文做改寫、改編。原創(chuàng)不易,謝謝!E-mail:yellow@aliyun.com
?聲明:本文為原創(chuàng)文本,非生成式,轉(zhuǎn)載請注明出處!
商務(wù)咨詢/顧問/請@yellowscholar?作者:黃先生斜杠青年
#認知與智能#計算和人工智能#意識和改變的狀態(tài)#神經(jīng)
![]()
圖片通過AI生成
我們可以建造一個相信自己有意識的人造大腦。這是否意味著我們已經(jīng)解決了難題?
大腦是一臺機器:一種處理信息的設(shè)備。這是根據(jù)過去 100 年的神經(jīng)科學得出的。然而,不知何故,它也至少對其中一些信息有主觀體驗。無論我們是在談?wù)搩?nèi)部盤旋的思想和記憶,還是對通過感官進入的東西的意識,大腦都會以某種方式體驗自己的數(shù)據(jù)。它有意識。怎么會這樣?
這個問題被稱為意識的“難題”,其中“難”是“不可能”的委婉說法。幾十年來,這在科學家中一直是一個聲名狼藉的話題:如果你不能研究它、理解它或設(shè)計它,那么它就不是科學。根據(jù)這種觀點,神經(jīng)科學家應(yīng)該堅持大腦中信息處理方式的機制,而不是信息帶來的怪異感覺。然而,我們不能否認這種現(xiàn)象的存在。這種意識的東西到底是什么?
這里有一個更尖銳的方法來提出這個問題:我們能構(gòu)建它嗎?人工智能每年都變得越來越智能,但我們從未賦予我們的機器意識。人們曾經(jīng)認為,如果你把一臺計算機做得足夠復雜,它就會自己“喚醒”。但這并沒有成功(據(jù)任何人所知)。顯然,必須將重要的火花刻意設(shè)計到機器中。因此,弄清楚意識到底是什么以及如何構(gòu)建它的競賽正在進行中。
以別樣的方式加入那場競賽,一個理解意識的框架,稱為注意力圖式理論。該理論表明,意識并不是奇怪的副產(chǎn)品——它是調(diào)節(jié)大腦信息的工具。而且它并不像大多數(shù)人想象的那么神秘。盡管聽起來雄心勃勃,但我相信我們已經(jīng)接近于對意識的理解,足以建立它。
在本文中,我將進行一個思想實驗。讓我們看看我們是否可以構(gòu)建一個假想的大腦,并使其有意識。這項任務(wù)可能很慢,每個步驟看起來都是漸進的,但通過系統(tǒng)化的方法,我們可以找到工程師可以遵循的路徑。
想象一個配備相機眼睛的機器人。讓我們挑選一些平凡的東西讓它看——一個網(wǎng)球。如果我們能建立一個大腦來意識到網(wǎng)球——僅此而已——那么我們就已經(jīng)實現(xiàn)了重要的飛躍。
我是斜杠青年,一個PE背景的雜食性學者!?致力于剖析如何解決我們這個時代的重大問題!?使用數(shù)據(jù)和研究來解真正有所作為的因素!
首先,我們的大腦構(gòu)建中應(yīng)該包含哪些信息?顯然,關(guān)于球的信息。光進入眼睛并轉(zhuǎn)化為信號。大腦處理這些信號并建立對球的描述。當然,我并不是指頭部有球的圖片。我的意思是大腦構(gòu)建顏色、形狀、大小和位置等信息。它構(gòu)建了類似檔案的東西,一個隨著新信號的出現(xiàn)而不斷修改的數(shù)據(jù)集。這有時稱為內(nèi)部模型。
在真實的大腦中,內(nèi)部模型總是不準確的——它是示意性的——而不準確很重要。大腦對球進行詳細、科學準確的描述將浪費能源和計算資源。所以它偷工減料。顏色就是一個很好的例子。實際上,數(shù)百萬個波長的光以不同的組合混合在一起,并從球的不同部分反射。然而,眼睛和大腦將這種復雜性簡化為顏色的屬性。顏色是大腦的構(gòu)造。這是一幅漫畫,是現(xiàn)實的代表,對于基本的生存來說已經(jīng)足夠了。
機器人是否和你一樣意識到球?它會聲稱有內(nèi)在的感覺嗎?
但大腦所做的不僅僅是構(gòu)建一個簡化的模型。它構(gòu)建了大量的模型,這些模型相互競爭資源。場景可能堆滿了網(wǎng)球拍、幾個人、遠處的樹木——太多的事情讓大腦無法同時深入處理。它需要確定優(yōu)先級。
這種專注稱為注意力。我承認我不喜歡關(guān)注這個詞。它有太多的口語內(nèi)涵。神經(jīng)科學家所說的注意力是某種特定的、機械的。大腦中特定的內(nèi)部模型贏得了當下的競爭,壓制了競爭對手,并主導了大腦的輸出。
所有這些都讓我們了解正常大腦如何處理網(wǎng)球的圖像。到目前為止,還沒有任何神秘之處。原則上,有了一臺計算機和一臺攝像頭,我們可以將所有這些內(nèi)置到我們的機器人中。我們可以給我們的機器人一個球的內(nèi)部模型,并將注意力集中在球上。但是,機器人是否像你一樣主觀地意識到球?它會聲稱有內(nèi)在的感覺嗎?一些意識學者會說是的。視覺意識源于視覺處理。
我會說不。我們已經(jīng)邁出了第一步,但我們還有更多工作要做。
我問機器人。只要我們在做一個構(gòu)建大腦的思想實驗,我們不妨構(gòu)建一個語言處理器。它接受問題,訪問機器人內(nèi)部模型中可用的信息,并在此基礎(chǔ)上回答問題。
我們問:“那里有什么?
上面寫著:'一個球。
我們問:“球的屬性是什么?
上面寫著:'它是綠色的,它是圓形的,它就在那個位置。它可以回答這個問題,因為機器人包含該信息。
現(xiàn)在我們問:'你知道球嗎?
它說:“無法計算。
為什么?因為機器訪問了我們到目前為止給它的內(nèi)部模型,但沒有找到任何相關(guān)信息。關(guān)于球的大量信息。沒有關(guān)于什么是意識的信息。而且沒有關(guān)于它自己的信息。畢竟,我們問它:'你知道球嗎?它甚至沒有關(guān)于這個“你”是什么的信息,所以它當然無法回答這個問題。這就像問你的數(shù)碼相機:“你知道這張照片嗎?它不在該域中進行計算。
但我們可以解決這個問題。讓我們添加另一個組件,第二個內(nèi)部模型。我們現(xiàn)在需要的是一個自我的模型。
一個自我模型與任何其他內(nèi)部模型一樣,是在大腦中組合在一起的信息。這些信息可能包括身體的物理形狀和結(jié)構(gòu)、有關(guān)人格的信息、自傳體記憶。人類自我模型的一個特別重要的部分稱為身體圖式。
身體圖式是大腦對身體自我的內(nèi)部模型:它如何移動,什么屬于它,什么不屬于它,等等。這是一件復雜而精密的設(shè)備,可能會損壞。英國神經(jīng)學家奧利弗·薩克斯講述了一個男人中風后在醫(yī)院醒來,發(fā)現(xiàn)有人開了一個可怕的玩笑的故事。出于某種原因,床上有一條橡膠狀的尸體腿。他厭惡地抓住了那條腿,把它扔了下床。不幸的是,它附著在他身上,所以他就順其自然了。
顯然,在薩克的故事中,這個人內(nèi)在的自我模型的一部分已經(jīng)被腐蝕,以至于他無法再處理他的腿屬于他的事實。但是,腦損傷可以通過多種方式破壞自我模型的一個或另一個方面。在工作中扔扳手非常容易。
我們對機器說:“告訴我們你自己”
現(xiàn)在我們的大腦構(gòu)建已經(jīng)有了自我模型和球的模型,讓我們問它更多問題。
我們說:'告訴我們你自己。
它回答說:'我是一個人。我站在這個位置,我這么高,我這么寬,我在布法羅長大,我是一個好人,“或者其內(nèi)部自我模型中提供的任何信息。
現(xiàn)在我們問:'你和球之間有什么關(guān)系?
呃哦。機器訪問其兩個內(nèi)部模型,但找不到答案。大量關(guān)于自我的信息。大量關(guān)于球的單獨信息。沒有關(guān)于兩者之間關(guān)系的信息,甚至沒有關(guān)于這個問題的含義的信息。
我們問:'你知道球嗎?
它說:“無法計算。
我們又碰壁了。僅配備這兩個內(nèi)部模型,機器人再次未能通過圖靈測試:機器無法通過人類測試。
為什么有內(nèi)部模型嗎?大腦的真正用途是對自己和周圍的世界進行一些控制。但是,如果你沒有一個好的、更新的檔案,知道它是什么,它在做什么,以及它下一步可能做什么,你就無法控制任何事情。內(nèi)部模型跟蹤對監(jiān)視有用的內(nèi)容。到目前為止,我們已經(jīng)為機器人提供了一個球的模型和一個自身的模型。但我們忽略了場景的第三個明顯組成部分:自我與球之間的復雜關(guān)系。機器人將注意力集中在球上。這是一種需要智能控制的資源。顯然,這是機器人大腦需要監(jiān)控的持續(xù)現(xiàn)實的重要組成部分。讓我們添加一個這種關(guān)系的模型,看看它給我們帶來了什么。
唉,我們不能再深入研究標準的神經(jīng)科學了。雖然我們對網(wǎng)球等具體事物的內(nèi)部模型進行了數(shù)十年的研究,但實際上沒有關(guān)于注意力的內(nèi)部模型。科學家們沒有想到這樣的事情可能存在。盡管如此,它可能是什么樣子并沒有什么特別的神秘之處。為了將其內(nèi)置到我們的機器人中,我們需要再次決定應(yīng)該存在哪些信息。據(jù)推測,就像球的內(nèi)部模型一樣,它會描述注意力的一般、抽象的屬性,而不是微觀的物理細節(jié)。
例如,它可能將注意力描述為對某事的精神占有,或者使你能夠做出反應(yīng)的東西。它可能會將其描述為位于你內(nèi)心的東西。所有這些都是注意力的一般屬性。但這個內(nèi)部模型可能不會包含有關(guān)神經(jīng)元、突觸或電化學信號等事物的細節(jié)——物理螺母和螺栓。大腦不需要知道這些東西,就像它需要對量子電動力學的理論掌握才能將紅球稱為紅色一樣。對于視覺系統(tǒng)來說,顏色只是物體表面的東西。因此,根據(jù)這個內(nèi)部模型中的信息,注意力是一種沒有任何物理機制的東西。
在我們的最新模型中,我們?yōu)闄C器提供了一張不完整、略顯不準確的畫面,了解了它自己的注意力過程——它與那個球的關(guān)系。當我們問:“你和球之間有什么關(guān)系?”機器會訪問其內(nèi)部模型并報告可用信息。上面寫著:'我在精神上占有球。
這聽起來很有希望。我們問:'告訴我們更多關(guān)于這種精神附身的信息。物理機制是什么?然后奇怪的事情發(fā)生了。
這些模型不包含如何實現(xiàn)注意力的詳細規(guī)范。他們?yōu)槭裁匆@樣做?因此,構(gòu)建大腦只能根據(jù)自己不完整的知識來回答。當被問及時,天真的人不會說顏色是數(shù)百萬個光波長與眼睛之間的相互作用:他們說它是物體的屬性。畢竟,這就是他們的大腦代表顏色的方式。同樣,構(gòu)建大腦將描述其模型自己的抽象,就好像它們以某種方式擺脫了任何特定的實現(xiàn)一樣,因為這(充其量)是它們在其自模型中的表示方式。
它說:“沒有物理機制。它就是這樣。它是非物質(zhì)的,它位于我的內(nèi)心。正如我的胳膊和腿是我的身體部分一樣,我也有非身體的一部分。它在精神上擁有事物,并允許我對這些事物采取行動。這是我的意識。
我們制造了機器人,所以我們知道它為什么這么說。它說,因為它是一臺訪問內(nèi)部模型的機器,并且這些模型中包含的任何信息都報告為真實。它報告的是一種物理上不連貫的屬性,一種非物理意識,因為它的內(nèi)部模型是對物理現(xiàn)實的模糊、不完整的描述。
現(xiàn)在我們有一些聽起來很詭異的東西。我們有一臺機器,堅持認為它不僅僅是機器
我們知道這一點,但事實并非如此。它沒有關(guān)于它是如何建造的信息。它的內(nèi)部模型不包含以下信息:“順便說一句,我們是一個訪問內(nèi)部模型的計算設(shè)備,我們的模型不完整且不準確。它甚至無法報告它有內(nèi)部模型,或者它根本無法處理信息。
為了確定這一點,我們問它:“你確定你不僅僅是一臺具有內(nèi)部模型的計算機,這就是你聲稱有意識的原因嗎?
機器訪問其內(nèi)部模型后說:“不,我是一個對球有主觀意識的人。我的意識是真實的,與計算或信息無關(guān)。
該理論解釋了為什么機器人拒絕相信該理論。現(xiàn)在我們有一些聽起來很詭異的東西。我們有一臺機器,堅持認為它不僅僅是機器。它通過處理信息來運作,同時堅持認為它不會。它說它有意識,并以與我們?nèi)祟愊嗤姆绞矫枋鏊Kㄟ^內(nèi)省得出這個結(jié)論——通過訪問內(nèi)部模型的一層認知機制。該機器受制于其內(nèi)部模型,因此無法得出任何其他結(jié)論。
誠然,網(wǎng)球有點有限。然而,同樣的邏輯可以適用于任何事情。對聲音的意識、回憶的記憶、自我意識——構(gòu)建大腦實驗展示了大腦如何堅持:“我意識到 X。
這是意識的核心問題。
意識研究一直停滯不前,因為它假設(shè)存在魔法。沒有人使用這個詞,因為我們都知道不應(yīng)該有這樣的事情。然而,意識學者——我想說是大多數(shù)意識科學學者——會問這樣一個問題:“大腦是如何產(chǎn)生那種看似不可能的本質(zhì),一種內(nèi)在體驗?
通過提出這個問題,學者們設(shè)置了一個更大的謎團。從大腦中出現(xiàn)的微妙本質(zhì)是如何轉(zhuǎn)身并施加物理力量的,引導這條通路和那個突觸,使我能夠打字,或者學者們能夠爭論它?這種方法有一種神奇的不連貫性。
但我們不需要魔法來解釋這種現(xiàn)象。大腦堅持認為它們有意識。這種堅持是內(nèi)省的結(jié)果:認知機制獲取更深層次的內(nèi)部信息。而一個內(nèi)部的注意力模型,就像我們添加到我們的大腦構(gòu)建中的模型一樣,將包含確切但確切的信息。
一些圈子里的一個流行趨勢是將意識視為一種幻覺。它不存在,因此不可能起到任何作用。當人們第一次遇到注意力圖式理論時,他們有時會將其歸入反傳統(tǒng)的類別。這是一個錯誤。在這個理論中,意識遠非無用。它是機器的重要組成部分。
假設(shè)您有一張城市地圖。這絕對有用。沒有它,您可能永遠無法實現(xiàn)目標。地圖是城市的完美渲染嗎?不。沒有一個二維的黑白城市,充滿了完美筆直的路徑和整齊的角度。但城市本身是真實的,地圖是真實的,其中的信息如果簡化后大多是有效的,因此地圖無疑具有實際用途。知道了這一切,你可能不會因為城市的現(xiàn)實而遭受生存危機,也不會將地圖的內(nèi)容或存在視為幻覺。事實要簡單得多:你的城市模型很有幫助,但并不完全準確。
等待計算機變得如此復雜以至于它們自發(fā)地變得有意識的日子已經(jīng)一去不復返了
有一種真實的東西我們稱之為注意力——一種極其復雜、適應(yīng)精美的方法,將大腦的資源集中在一組有限的信號上。注意力很重要。沒有它,我們就會因涌入我們的過剩信息而癱瘓。但如果你無法控制它,那么擁有它就沒有意義。控制理論的一個基本原則是:要控制某物,系統(tǒng)需要它的內(nèi)部模型。為了監(jiān)控和控制自己的注意力,大腦建立了注意力圖式。這就像一張注意力地圖。它包含關(guān)于注意力是什么以及它在任何特定時刻正在做什么的簡化、略微扭曲的信息。
如果沒有注意力圖式,大腦就不能再聲稱自己有意識。它不會知道什么是意識,也不知道如何回答有關(guān)它的問題。它將缺乏關(guān)于自我如何與世界上任何事物相關(guān)的信息。我和球之間是什么關(guān)系?無法計算。
比這更嚴重的是,它將失去對自己焦點的控制。就像試圖在沒有地圖的情況下導航城市一樣,如果沒有注意力模型,它就只能駕馭注意力的復雜性。甚至除此之外,如果缺乏意識結(jié)構(gòu),大腦將無法將相同的屬性歸因于其他人。它會失去對其他人是有意識的存在的理解,他們會做出有意識的決定。
意識很重要。與許多現(xiàn)代解釋它的嘗試不同,注意力圖式理論的作用與瑣碎或駁回完全相反。它給了它一個重要的地方。
只要學者們把意識當作漂浮在大腦內(nèi)部的魔精,工程師們就不會很感興趣。但如果它是一組關(guān)鍵的信息,一種讓大腦正常運作的地圖,那么工程師可能想了解它。這讓我們回到了人工智能。等待計算機變得如此復雜以至于它們自發(fā)地變得有意識的日子已經(jīng)一去不復返了。將意識視為一種空靈的仙女本質(zhì)的日子已經(jīng)一去不復返了,無論如何都不會給計算機帶來明顯的實際好處。突然間,它成為機器非常有用的工具。
建立有效的注意力模式在當前技術(shù)的范圍內(nèi)。這需要集體努力,但這是可能的。我們可以建立一個人造大腦,它知道意識是什么,相信它擁有它,將其歸因于他人,并且可以與人進行復雜的社交互動。這從未做過,因為沒有人知道該走什么路。現(xiàn)在也許我們已經(jīng)看到了前進的道路。
了解更多時間深度剖析,盡在于此@黃先生斜杠青年
商業(yè)咨詢和顧問業(yè)務(wù),請@yellowscholar
關(guān)注我,帶你先看到未來!?
![]()
轉(zhuǎn)載聲明:除調(diào)整格式外,不得對原文做改寫、改編。原創(chuàng)不易,謝謝!E-mail:yellow@aliyun.com
?聲明:本文為原創(chuàng)文本,非生成式,轉(zhuǎn)載請注明出處!
商務(wù)咨詢/顧問/請@yellowscholar?作者:黃先生斜杠青年
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.