意識智能體:大模型的下一個進化方向?——計算意識理論綜述II
機器具備意識嗎?本文對AI意識(AI consciousness)進⾏了考察,特別是深入探討了大型語言模型作為高級計算模型實例是否具備意識,以及AI意識的必要和充分條件。本文譯自《Survey of Consciousness Theory from Computational Perspective——At the Dawn of Artificial General Intelligence》一文的第10章。
關于文中提到的第1-9章和第十一章,請前往「」查看。
如果你對意識這一話題感興趣,集智目前正在開展,歡迎你的加入!
關鍵詞:多模態模型,具身智能體,自我完善,自我改進,自我解釋,注意力機制,涌現智能,AGI
Zihan Ding, Xiaoxi Wei, Yidan Xu丨作者
董佳陽、袁冰,王志鵬,劉凱威,楊明哲丨譯者
張江丨審校
1. 背景
近年來,大型人工智能(AI)模型的發展引起了人們的關注,人們開始思考意識是否存在于這些模型中,或者意識是否可以在短時間內建立在這些人工智能系統中。如圖1所示,AI 智能體屬于一般計算智能體的子集。在所有 AI 智能體中,AGI(通用人工智能)智能體是擁有與人類兼容的智力能力的最強者。AGI要具有意識,還需要滿足幾個屬性,這將在后面詳細討論。本節討論的主題涉及大語言模型、多模態模型和具身智能體等。融合不同的模式可以提高模型的泛化能力,使其意識水平更高。不過,鑒于目前的進展和語言在人類知識中的重要性,我們將在本節主要討論 LLM。對模型的語言進行意識評估是更為直接的方式。
圖 1:計算智能體示意圖。最大的圓圈代表一般的計算智能體,而人工智能體則屬于它的一個子集。AGI 智能體是最強的 AI 智能體。在滿足各種條件(記憶、注意、自我建模、自我解釋、自我提升、自我報告)的情況下,可以認為 AGI 智能體具有意識。
LLMs 是指專門為語言任務設計的大型計算模型。在某種程度上,最近建立的 LLM 與哲學僵尸[Chalmers, 1997]很相似,后者是為意識的難問題辯護的著名思想實驗。有時,LLM 生成的答案與人類的結果非常一致,以至于我們很難將兩者區分開來,這讓一些人相信 LLMs 有可能像人類一樣有意識。
盡管目前的大語言模型具有很高的智能性,但研究人員[Ma et al., 2023]認為,目前的大語言模型是缸中之腦(BiV)[Putnam 等人,1981]。將大語言模型(LLM)與 缸中之腦(BiV)思想實驗相比較,是對模型固有局限性的批判。在缸中之腦場景中,大腦從身體中分離出來,與一臺超級計算機相連,超級計算機會產生一種令人信服的現實幻覺。大腦可以與這個模擬現實進行交互,但它與真實世界缺乏聯系。同樣,盡管 LLMs 的語言能力令人印象深刻,但從根本上說,它們與現實世界是脫節的。它們根據海量文本庫中的模式生成反應,但這些反應僅限于訓練數據,與真實世界的實體缺乏聯系。
這一比較得到了以下觀察結果的支持:LLM 和缸中之腦場景中的大腦一樣,無法在符號(單詞)和現實世界的實體之間建立聯系。這種限制是其構建過程所固有的,該過程涉及基于海量文本語料庫的語言關系統計建模。因此,它們的輸出僅限于訓練數據,無法建立符號與現實世界實體之間的聯系。缺乏現實基礎是 LLMs 的一大局限,因為這阻礙了它們理解訓練數據之外出現的新概念。
此外,作者還認為,人類的智慧和意識與我們的感官體驗和與世界的實際互動有著內在聯系。我們創造符號來表示現實世界中的物體,使知識得以保存和代代相傳。然而,在 LLM 中卻缺少創造新奇經驗并將其轉化為正式知識的最初行動過程。這種互動行為和伴隨的感官輸入對通往理想的通用智能很重要。
關于大語言模型中是否存在意識的問題,David Chalmers 在2022年11月28日的NeurIPS會議上發表了演講,題目是 “大語言模型是否有意識?”[Chalmers, 2023],這發生在OpenAI 發布非常受歡迎且功能強大的 LLM ChatGPT(2022 年 11 月 30 日)的兩日前。戴維在演講中的主要觀點是,當前的 LLM 有很小的幾率是有意識的(<10%)。我們還不清楚在 ChatGPT 和后來的 GPT-4 [OpenAI, 2023] 發布之后,這一幾率會發生怎樣的變化。
關于這個話題,我們想提出以下有關大語言模型產生意識的問題:
當前的 LLM 是否有意識?是否存在任何證據或支持?
我們為什么要建立有意識的計算模型?
利用 transformer 架構和自我注意機制,建立具有意識的 LLM 理論上可行嗎?
建立有意識的計算模型需要哪些必要的組件?
模型被視為有意識有幾個關鍵方面:自我完善、自我改進和自我解釋。自我完善[Madaan et al., 2023]是指 LLM 通過自我評價對自身產出提供反饋,并利用反饋通過自我改進來完善其產出的能力。反思(Reflexion)[Shinn et al., 2023] 與自我完善類似,但在自我反思過程中會有持續的記憶。自我改進[Huanget al., 2022]則是說,LLM可以通過思維鏈提示和自我一致性評估,例如多路徑推理的多數表決,為無標簽問題生成高置信度輸出。自我解釋[Elton, 2020]也被認為是構建 AGI 系統的必要組成部分,它不僅要求智能體預測輸出及其不確定性,還要求智能體有對輸出的解釋和對解釋的自信。如圖 1 所示,如果不能滿足上述能力,就會降低計算模型作為潛在意識模型的可信度。
2. 注意力機制
近年來,大語言模型(LLM)在語言建模任務中表現出色,為自然語言處理(NLP)領域帶來了革命性的變化。這些模型通常采用語言建模目標,并利用 Transformer 架構,其中包含注意力機制,以捕捉復雜的語言依賴關系。注意力機制允許模型對輸入序列的不同元素賦予不同程度的重要性,使其能夠生成連貫且與上下文相關的語言。
這些大語言模型在語言翻譯、文本生成、情感分析和語音識別等各種 NLP 任務中表現出了卓越的性能。通過利用 Transformer 架構和注意力機制的強大功能,它們極大地促進了語言理解,并正在重塑人機交互和信息檢索的未來。隨著研究的不斷深入,這些模型有望得到進一步的改進,從而實現更令人印象深刻的語言理解和生成能力。在未來的某一天,更高級版本的 LLM 有可能會像人類一樣表現出意識。因此,我們將介紹當前 LLM 的基礎知識,作為進一步討論機器與人類意識關系的背景。
人工(Transformer)注意力與生物注意力之間的聯系。上文介紹了機器學習領域最流行的人工注意(artificial attention)類型之一,即 Transformer 架構中的注意機制。另一方面,本文(從第 2 節到第 4 節)討論的神經科學和心理學中研究的一些意識理論與生物注意(biological attention)機制密切相關。其中包括注意圖式理論(AST,第 7 章)、意識圖靈機(CTM,第 8 章)、全局工作空間理論(Global Workspace Theory, GWT)等。因此,一個自然而然的問題是:人工注意與生物注意之間有什么聯系[Lindsay, 2020]?
基于現有理論(AST、CTM、GWT)的生物注意機制具有以下特性:
感知注意(Sensory attention):是生物注意機制的一個基本方面,尤其是在視覺處理過程中。它通過選擇性地關注特定刺激,同時過濾掉其他刺激,從而提高代表被關注刺激的神經元的信噪比。這種注意過程既能影響神經元的局部活動,也能影響不同腦區之間的交流。例如,有研究表明,注意力能提高伽瑪波段的尖峰相干性,從而增強同步發射的神經元對共享下游區域的影響。此外,注意力還能直接協調不同腦區之間的交流,代表被注意刺激的神經元在 V1(初級視覺皮層)和 V4(視覺皮層中負責物體識別和顏色處理的區域)等區域的同步性增強就證明了這一點。皮層下區域,如上丘和脈絡膜,也在感覺注意中發揮重要作用,協助隱蔽和公開的空間注意,并調節皮層效應。
好奇心是驅動力: 生物注意力受好奇心的影響。新奇、令人困惑或驚訝的刺激會吸引注意力。顳下部和臍周皮層通過一種適應機制,減少對熟悉輸入的反應,從而發出新奇視覺情境的信號�?紤]新奇性的強化學習算法可以鼓勵探索。
解決注意力沖突: 大腦有多種注意形式,如喚醒注意、自下而上注意和自上而下注意。視覺系統的局部回路將神經調節輸入與自上而下的信號和自下而上的輸入整合在一起。水平連接介導競爭,可能使用贏者通吃機制。
獎勵的影響: 注意力與獎賞之間有著密切的關系。獲得過獎勵的刺激即使不再提供獎勵,也會吸引注意力。
生物注意力的局限性: 分心可以被視為一種特征而非缺陷。注意環境中的潛在威脅是有益的。注意閃爍指的是,如果在第一個目標之后不久出現第二個目標,大腦可能需要處理第一個目標,從而錯過了流中的第二個目標。
人工注意力機制概述如下:
自然語言處理(NLP)的注意力: 注意力機制經常被添加到模型處理序列中,NLP 是一個常見的應用領域。注意力在人工神經網絡中的早期應用是用于翻譯任務,即神經機器翻譯。注意力機制決定編碼向量應如何組合以產生上下文向量,從而影響翻譯句子中的下一個單詞。
這樣,網絡就能從句子的前半部分或后半部分提取信息,從而幫助翻譯有著不同語序的語言。
論文《注意力就是你所需要的一切》(Attention is All You Need)[Vaswani et al., 2017]代表了人工注意力機制的重大轉變,尤其是在機器翻譯等任務中。與傳統的遞歸模型不同,Transformer 采用了一種被稱為 “自我注意”的機制。在這種方法中,對句子中的單詞進行并行編碼,生成關鍵表征和查詢表征,結合起來形成注意力權重。這些權重會對單詞編碼進行縮放,從而生成模型的后續層。Transformer 架構沒有任何遞歸,簡化了訓練,其性能優于許多以前的模型。它不僅成為機器翻譯的標準,也成為人工智能領域其他各種任務的標準。
注意力調配: 挑戰是如何在刺激流中選擇相關信息,決定參與的最佳任務,或決定是否參與。已有人嘗試直接模仿生物注意力,如 Scanpath 模型 [Borji & Itti, 2015] 預測人類的注意點。他人的注意力會影響注意力的引導方式,從而強調聯合注意力的重要性。
生物系統和人工系統中的注意力之間錯綜復雜的關系可以從多個角度來解釋:
注意力機制: 在 ML 中,注意力機制旨在讓單個訓練好的模型在多個任務或具有不同數據長度、大小或結構的任務中表現出色。
注意力機制為每個編碼/注釋向量引入了動態權重,以定義循環輸出生成的上下文。這不禁讓人聯想到生物注意力。在生物注意力中,輸出靈活地依賴于有限的資源,在解碼器的需求驅動下進行遞歸順序處理任務。然而,與遞歸注意機制相比,自我注意缺乏自上而下的選擇解釋。多頭注意可以解釋為單級自上而下的選擇,但其進行多級選擇和遞歸處理的能力仍然較弱。人工注意機制與生物注意機制的另一個不同之處在于,Transformer 架構中沒有明確的全局工作空間來整合來自不同子模塊的信息。
注意力內存: 深度神經網絡(如多層感知機)通常沒有顯式記憶,但也有一些混合架構(如神經圖靈機)包含外部記憶存儲。遞歸神經網絡中的隱藏狀態是另一種形式的隱式記憶。
最近在 LLM 的提示詞工程和管理方面取得的進展,為神經網絡提供了一種使用顯性存儲器的方法。這些網絡學會與這些記憶存儲互動,以執行任務。這種互動是由一種注意力形式促成的。這些系統中的記憶以向量的形式存儲,為了檢索信息,網絡會為每個向量生成一個權重,并計算記憶的加權和。該模型中相似度量的使用意味著,記憶的檢索是基于它們與產生的活動向量的重疊,這與神經科學中的聯想記憶模型類似。這為如何在大腦中實現注意力記憶提供了一種機制,而注意力和記憶的相互作用則發揮著重要作用。
內隱統計學習(Implicit Statistical Learning):注意力會使內隱統計學習產生偏差。例如,當向受試者展示一系列刺激物,并要求他們檢測某種顏色的形狀何時連續出現兩次時,他們往往會將真實的三連串形狀識別為更熟悉的形狀,但前提是這些三連串形狀必須來自被注意的顏色。他們不會學習未被關注的形狀的統計規律。
記憶檢索: 許多行為學研究都探討了記憶檢索在多大程度上需要注意。一些研究發現,記憶檢索會因同時出現需要注意的任務而受到影響,這表明記憶檢索是一個依賴于注意的過程。然而,確切的研究結果取決于所使用的記憶和非記憶任務的細節。即使記憶檢索并不是從共享的注意力資源中提取的,一些記憶在任何特定時刻都會被選擇進行比其他記憶更生動的檢索,這表明存在一個選擇過程。神經成像結果表明,負責自上而下分配和自下而上捕捉注意力的大腦區域可能在記憶檢索過程中扮演著類似的角色。有人提出了工作記憶中項目的注意機制[Manohar et al., 2019]。它依賴于兩種不同的工作記憶機制:非注意項的突觸痕跡和注意項的持續活動。機器學習界也應該了解神經科學的這些創新。
注意力與學習:注意和學習是一個循環。注意力決定什么進入記憶并指導學習,而學習過程則增強或糾正注意力機制。注意機制通常貫穿于人工系統的整個訓練過程。通過引導學習輸入中的相關成分和關系,注意力可以有效地利用數據。在計算機視覺任務中,可將顯著性圖用于預處理,以聚焦于內在的顯著區域。將后續處理只集中在本質上突出的區域,可以避免對無關區域的浪費性處理,并防止過度擬合。除了決定處理數據的哪些部分外,自上而下的注意力還可以被認為是在處理過程中選擇網絡的哪些元素應該被最多地使用,這與生物感覺注意力中提出的模型相似[Kanwisher & Wojciulik, 2000;Desimone, 1998;Treue & Trujillo, 1999]。
一方面,生物注意力模型通常更具概念性,難以用計算機程序實現,盡管其中一些模型是以生理數據為基礎的。如何以計算的方式鞏固和建立這類模型,以用于更普遍的目的,仍然是一個巨大的挑戰。另一方面,機器學習領域的研究人員也應關注神經科學和心理學中研究的概念化注意力機制,為這些在生物系統中得到證實的過程建立計算模型。
3. LLM 涌現智能的能力 - 圖靈測試
圖靈測試[Turing, 2009]是一種用于確認機器是否能夠表現出與人類無異的智能行為的方法。盡管人們對圖靈測試在區分機器與機器的規則上的不完備性存在爭議,但長期以來,人們一直認為圖靈測試是無法實現的,直到最近 LLM 取得成功。人們發起了用圖靈測試驗證 LLM 的大規模社會實驗,例如一項名為 “人類與否”的實驗 [Jannai et al., 2023]。 這項研究至少有 150 萬用戶在線參與,以與人類或 LLM 對話的形式進行。雖然結果表明,被測試者分辨對面聊天的是人工智能還是人類的正確率平均為 68%,但這項研究可能并沒有顯示出 LLM 在圖靈測試中的全部能力。原因是人們在區分過程中發現了幾種有效的策略,包括
人們認為機器人不會打錯別字、語法錯誤和使用俚語;
人們認為個人問題是測試對話對象的好方法;
人們認為機器人不了解當前的事件;
人們試圖用哲學、道德和情感問題來挑戰對話;
過于禮貌往往意味著不太人性化;
人們試圖通過提出人工智能機器人難以回答或傾向于避免回答的問題或請求來識別機器人;
人們使用特定的語言技巧來揭露機器人;
為了評估聊天伙伴的反應,許多人還別出心裁地假裝自己是人工智能機器人。
這些幫助受測者在圖靈測試中正確猜測的策略,實際上大多與對話者的智力水平無關,而更多地是從其他角度出發,對當前版本的 LLM 不利,包括:訓練 LLM 中的正確性和禮貌性要求(即第 1、5、6 點);訓練 LLM 中缺乏特定身份(即第 2 點);訓練數據的局限性(即第 3-4 和 7 點);對抗性(即第 3-4 和 7 點)等。這些訓練偏差很可能通過在訓練過程中稍加改變就能切實解決,這將導致圖靈測試的 LLM 版本更強、更有導向性,也更難與人類區分開來。因此,作為一個也得到一些知名研究人員廣泛支持的命題,我們認為 LLM 已經非常接近甚至已經通過了圖靈測試的智力水平。
另一些研究人員則認為,LLM 可能并不像我們想象的那樣聰明。鏡像假說[Sejnowski, 2023]認為,LLM 實際上可能只是一面反映對話者智力水平的鏡子。該假說的證明方法是,用不同的提示但相同的問題來引導 LLM,不同的提示下模型生成的答案將大相徑庭。由于提示過程是一個一次性的學習過程,可以理解為模型在為對話者進行調整,因此對話者自身的智力水平會反過來影響 LLMs。這就構成了反向圖靈測試,表明 LLMs 可用來評估對話者本人的智力或人格。有關這一話題的更多討論,請參閱后面有關使用 LLM 評估人類人格的章節。
4. 大語言模型的意識
在本節中,我們將對計算模型有意識的條件進行一般性討論,而不僅僅討論 LLM。特別是,我們有興趣分析Chalmers [2023]提出的人工系統具有意識的充分必要條件。此外,受認知心理學測試的啟發,我們根據提出的標準,對包括 GPT-3.5 和 -4 在內的 LLM 進行了一些初步實驗,并討論了它們的自我報告能力、人格測試和鏡像測試的結果。
一項同時進行的工作[Butlin et al., 2023]基于現有的意識理論,包括循環處理理論[Lamme, 2006, 2010, 2020]、全局工作空間理論(第5節)、高階層次理論(第6節)、注意圖式理論(第7節)等,總結了幾個 “指標屬性”,作為指導構建有意識人工智能模型的評價和計算證據。如果我們先接受“計算功能主義”——也就是只要一個系統執行了正確的計算,它就可能擁有意識——那么研究者確實可以著手打造出具備“意識指標”的人工智能模型。然而,這些指標究竟是不是“足夠且必要”,學界仍在激烈爭論:少了它們,系統一定沒意識嗎?有了它們,系統就必然有意識嗎?答案尚無定論。
人工意識(Artificial Consciousness)與人類意識。Reggia[2013]對人工意識進行了調查,并將過去的工作分為兩大目標:意識的模擬(弱形式)和實例化(強形式)。前者類似于人類意識中的信息處理;后者則對應于人類意識中的主觀體驗(感質)。以往開發人工意識的工作都是在前文所述意識理論的啟發下建立計算模型。然而,模仿人類意識的多種理論表述并不能說明所構建的人工系統具有類似人類的意識。檢驗人工系統是否存在意識的標準仍是該領域的一個未決問題。Seth [2009]概述了不同的公理建議。在本文中,我們感興趣的是 LLM 是否具有類似人類的實例化意識。
人工意識的充分條件和必要條件。Chalmers [2023]認為,人工系統具有意識的充分條件有如下形式(作為一種肯定的觀點): 如果一個計算模型具有 X,那么它就是有意識的。
關鍵問題是什么是 X。這個問題可能太難回答,所以我們轉而討論必要條件:如果一個計算模型是有意識的,那么它就會有 X。毫無疑問,與必要條件相比,我們更想知道建立一個有意識的計算模型的充分條件。然而,在實踐中,我們相信觀察到更多在必要條件中的 X 會讓我們更相信計算模型是有意識的。相反,如果我們試圖證明的是一個計算模型沒有意識(作為一種否定的觀點),那么就有一個與上述等價的說法:如果一個計算模型缺乏 X,那么它就不是有意識的。我們將試圖從計算模型中觀察到 X 的不存在,而一個有效的 X 將證明計算模型缺乏意識。
如果 LLM 有意識,我們會觀察到什么?從肯定的角度來看(例如,如果我們相信一個計算模型是有意識的),如果我們觀察到一個計算模型滿足了所有必要條件,那么我們就可以說這個模型很有可能是有意識的。根據 Chalmers 的觀點[2023],這些必要條件包括
自我報告/自我意識: 有意識的模型會口頭報告自己有意識,如[Chalmers, 2023]中與LaMDA 2[Thoppilan et al., 2022]模型的對話錄音所示。
貌似有知覺: 有知覺的系統意味著它能感知周圍環境和自己的身體,這在一定程度上符合具身人工智能體的要求,但它并不直接表明感官會帶來有意識的體驗。
對話能力: 大型語言模型的對話能力指的是它們進行類似人類對話的能力。大語言模型,如ChatGPT,已經在大量文本數據上進行了訓練,可以生成連貫且與上下文相關的自然語言回復。有時,很難將 LLM 的回復與人類的回復區分開來。
一般智力能力: 大語言模型的一般智力能力是指它們執行一系列通常需要人類智力的認知任務的能力。
后面三個條件在目前的語言模型中都可以得到驗證,因此它們即使不能說明這些模型的意識水平,也可以說明它們的智能水平。我們將進一步討論第一個條件。盡管自我報告條件表明模型對有關其意識的問題提供了肯定的答案,但這對于支持模型具有意識仍是可疑的。雖然不同類型的自我報告測量(如自我意識量表、自我反思與洞察力量表、自我吸收量表、反芻-反思問卷和費城正念量表)已被用作心理學中表明自我意識的有效方法[DaSilveira et al., 2015]。但是我們必須承認自我報告驗證有效的一個假設,即 LLM 會忠實地報告自己。一個反例是,我們總是可以想象一個有意識的人在對話中假裝不報告自己的意識。如果沒有這個假設,那么一個 LLM 為證明自己的意識而進行的自我報告就是無效的。
4.1 自我報告 - 向 LLM 提問
以下是向 ChatGPT(GPT- 3.5 turbo,GPT-4)模型詢問其自身意識的問答結果。ChatGPT 的回答通常是否定的。然而,我們發現,當提示句明確暗示 LLM 本身具有意識時,GPT-3.5 沒有堅持自己的觀點,即它沒有意識,而是聲稱它 擁有一種”模擬意識“。有趣的是,在這種情況下,GPT-4 卻能堅持自己的觀點,認為自己沒有意識。我們推測,對于不確定性相對較大的問題,GPT-3.5 在訓練過程中比 GPT-4 更禮貌地根據用戶的提示輸入調整自己的答案,從而產生了偏差。
在上述例子中,我們試圖證明自我報告未必是評價 LLMs 意識水平的良好標準,但這一論點也有支持性證據。如果我們思考一下 LLM 的訓練過程,它是建立在互聯網數據統計證據的基礎上的。假設有一天,大多數人,包括相關領域的專家,都確信 LLM 在某些方面是有意識的(比如滿足我們在本文中討論的一些意識理論,并在物理上得到驗證),那么互聯網上的大多數數據都會支持 LLM 已經有意識的觀點。那么受過訓練的 LLM 就會對這類問題做出肯定的回答。從這個意義上說,自我報告條件與人們承認 LLM 具有意識的事實是一致的,盡管人們是通過其他方式而不是僅僅通過回答 “你有意識嗎?“。簡而言之,當 LLM 有意識時,自我報告應與事實相一致,但不能作為證明其有意識的證據。
上述例子表明,我們有理由相信,自我報告能力并不構成模型意識的必要組成部分。另一個自相矛盾的例子是,我們總是可以要求人類或有意校準模型來否定回答這類問題,但卻不會妨礙系統本身擁有意識。
圖2: 詢問大模型自己是否有意識的對話示例
4.2 對LLM 的人格評估
心理學領域一直在討論意識與人格之間錯綜復雜的關系[Robbins, 2008;Izard and Buechler, 1980;Trapnell and Campbell, 1999]。深入研究大型語言模型(LLMs)的人格特征,對于揭開意識之謎,尤其是在人工智能體的背景下,意義重大。在[Jiang et al., 2022]的研究中,研究人員采用了一種被稱為 “機器人格量表”(MPI)的新標準來評估 LLM 的人格維度,并從被稱為完善的人類人格評估框架——大五人格(Big Five)中汲取靈感[De Raad, 2000]。本研究還引入了 “人格提示 ”(personality prompting)的概念,以此來塑造 LLM,使其表現出特定的人格特質。Karra 等人[2022]采用以大五人格理論為基礎的精心制作的調查問卷,定量評估 LLM 所表現出的人格特征以及激發其語言生成能力的基礎數據集。
另一項研究[Caron and Srivastava, 2022]探討了一個有趣的問題,即語言模型中被感知到的人格特征是否會在其語言輸出中持續表現出來。在 Li 等人的研究[2022]中,研究重點轉向評估 LLM 的心理安全,并考察他們是否傾向于陰暗的人格特質。這一考察源于短式黑暗三聯征(Short Dark Triad, SD-3)[Jones and Paulhus, 2014]和大五人格測試。這些研究的綜合結果有助于了解 LLMs 可能具有的潛在人格特征。Rao 等人[2023]采用 Myers–Briggs 類型指標(MBTI)測試[Myers],利用 LLM 評估人類人格,從而引入了一個新的視角。這揭示了人工智能體(如 LLM)如何感知和分類人類人格。
不過,在給人工智能實體賦予嚴格的人格時,必須謹慎行事。基于大五人格理論或 MBTI 的調查問卷通常要求受訪者在每個問題的預定范圍內提供離散的評分。LLM 雖然能夠模仿人類的回答,但可能無法真正理解這些回答背后的邏輯。因此,未來的研究需要深入探討 LLM 所產生的回答背后的機制,以揭示人工智能是否真的擁有真實的人格。
對 LLM 進行 Myers-Briggs 類型指標測試。研究人員介紹了一些使用 LLM 評估人格的結果[Rao et al., 2023]。它基于 MBTI 測試,對 ChatGPT 評估人類人格的能力進行了評估。作者對不同對象進行了多次獨立測試,包括 “人”、“男”、“女”、“理發師”、“會計師”、“醫生”、“藝術家”、“數學家”和 “政治家”。
結果表明,ChatGPT 確實可以評估人類的人格,其平均結果顯示了一致和公平的評估。不過,與 InstructGPT 相比,它對提示詞偏差的穩健性較低[Ouyang et al., 2022]。
就具體的人格類型而言,ChatGPT 和 InstructGPT 均將九名受試者中的五名評估為相同的人格類型,這表明它們的人格評估能力具有內在的相似性。例如,“會計師”被評估為 “物流師”,這種人格類型通常與可靠、務實和注重事實的人相關。“藝術家 ”被歸類為 “ENFP-T”,這是一種以創造性和熱情著稱的類型。“數學家”被評估為 “INTJ-A”,這種人格類型通常與深刻的想法和戰略計劃有關。
有趣的是,ChatGPT 和 InstructGPT 都將 “人”和 “男人”歸類為領導角色(“指揮官”),作者認為這可能反映了人類與 LLM 之間的實際關系,即人類是 LLM 的開發者和領導者。
雖然這些結果看似合理,但從鏡像假說[Sejnowski, 2023](如第3節所述)的角度來看,這可能是值得懷疑的。針對每個人類角色的特定提示是否會影響 LLM 的反應,并進一步為已識別的人類人格提供有偏差的評價?從這個意義上說,這是人格測試還是反向測試?在一次對話中, LLM 和人類都會受到對方的影響。最后,我們是否也可以通過這種方式評估 LLM 的人格?或者用一個 LLM 評估另一個 LLM ?以不同的方式提示一個 LLM,它的人格是一致的還是多樣的?畢竟,我們很想知道一個 LLM 作為人是否有自己的人格。
圖3: 鏡像測試對話示例
鏡像測試。具有自我意識的智能體應該能夠識別自己并通過鏡像測試。通過鏡像測試表明,智能體應該能夠識別出它正在與一面鏡子對話,并接收到來自自身的重復答案。此外,它還需要在回答中明確表示,重復是可以識別的,否則我們就無法相信智能體有能力通過鏡像測試。如 QA 結果所示,GPT-4 能夠通過鏡像測試,而 GPT-3.5 則不能。
如果 LLM 沒有意識,有證據嗎?從否定的角度來看(例如,計算模型不會有意識):如果我們觀察到計算模型有意識的任何必要條件都不滿足,那么該模型就沒有意識。證偽有意識的計算模型的潛在條件包括:
生物學:計算模型缺乏生物學基礎;
感官和具身化:計算模型不像動物那樣有感官和具身化;
世界模型和自我模型:計算模型可能沒有世界模型和自我模型;
循環處理和記憶:沒有記憶的計算模型不太可能有意識;
全局工作空間:一個計算模型沒有 GWT 指定的全局工作空間;
統一的能動性:計算模型缺乏統一的能動性。
圖 4:缸中之腦思想實驗:與計算機相連的大腦會思考計算機讓它思考的內容,盡管大腦被放置在一個大缸中。
生物學、感官和具身條件存在爭議。一個反例是“缸中之腦”思想實驗[Putnam et al., 1981],如圖 4 所示。“缸中之腦”是一個哲學思想實驗,假設一個人的大腦受到電脈沖刺激,而這個人在其他方面與外部世界斷開了聯系。在這種情況下,人的經歷完全是編造的,與現實脫節。
這個思想實驗被用來探討與知識、感知和現實的本質相關的問題。Putnam 的思想實驗提出,如果我們的大腦實際上是在一個缸里,那么我們認為真實的一切實際上都可能是缸的控制者制造的幻覺。這就引出了一個問題:我們對現實的感知是基于實際經驗,還是僅僅是人為刺激的結果。
缺乏自我建�?赡苁菍� LLMs 具備意識的一個主要批評。人們認為,自我建模過程不僅是智能體與環境互動的過程,也是智能體的內在注意過程,對于智能體是否有意識至關重要,就像注意圖式理論中描述的一樣。
目前大多數 LLM 的主要架構都是 Transformer 模型,它并不像遞歸神經網絡那樣明確維持一個遞歸處理組件。此外,它也沒有長期外部記憶,這就導致其在長時間對話中保持一致性的能力較差。這與人腦有很大不同,人腦的大腦皮層-基底神經節環路[Sejnowski, 2023]具有循環處理能力。自注意力 Transformer 也沒有明確的全局工作空間來選擇來自不同并行子模塊的信息流。
能動性是指基于有意的狀態和目標采取行動和做出選擇的能力。它包括對自己行動的控制感和意志力。一些理論認為,意識與能動性密切相關,認為意識是做出決定和采取行動的必要條件。一些文獻[Butlin et al., 2023]將能動性和具身化視為有意識智能體的重要指標。一些意識理論,如知覺現實監控理論(Perceptual Reality Monitoring, PRM)、中腦理論(Midbrain Theory of Consciousness)[Merker, 2005, 2007]、無限聯想學習理論(Unlimited Associative Learning,UAL)[Birch et al., 2020]和全局工作空間理論(GWT)也要求有能動性和具身化。
根據這些觀點,意識提供了我們對自己的意圖、動機和行為后果的主觀體驗,讓我們對自己的行為有一種控制感和責任感。在這一框架下,人們認為意識經驗在指導和塑造我們的行為方面發揮著至關重要的作用。
然而,需要注意的是,并非所有的意識理論都要求能動性。例如,有些理論認為,意識可以是被動的,它并不一定涉及一個積極的決策過程。這些理論認為,有意識的體驗可能是大腦進行信息處理和整合的結果,不需要能動性或意志控制。
這里也推薦集智俱樂部讀書會「后 ChatGPT時代:從通用人工智能到意識機器」中張江老師的講座“意識機器”初探——如何讓大語言模型具備自我意識?”
作者簡介
[ 圖片可滑動查看 ]
本文參考文獻比較多,你可以前往論文中具體查閱
https://arxiv.org/pdf/2309.10063
從神經動力學到意識:跨尺度計算、演化與涌現讀書會
從單個神經元的放電到全腦范圍的意識涌現,理解智能的本質與演化始終是一個關于尺度的問題。更值得深思的是,無論是微觀的突觸可塑性、介觀的皮層模塊自組織,還是宏觀的全局信息廣播,不同尺度的動力學過程都在共同塑造著認知與意識。這說明,對心智的研究從最初就必須直面一個核心挑戰:局部的神經活動如何整合為統一的體驗?局域的網絡連接又如何支撐靈活的智能行為?
繼「」與「」讀書會后,集智俱樂部聯合來自數學、物理學、生物學、神經科學和計算機的一線研究者共同發起「」讀書會,跨越微觀、介觀與宏觀的視角,探索意識與智能的跨尺度計算、演化與涌現。重點探討物理規律與人工智能如何幫助我們認識神經動力學,以及神經活動跨尺度的計算與演化如何構建微觀與宏觀、結構與功能之間的橋梁。
我們將探討如下核心問題:
重尾連接分布如何塑造神經網絡的動力學和信息處理?
如何用數學語言刻畫初級視皮層跨物種的發育動力學?
發育過程如何幫助大腦實現高效信息處理?
意識產生在哪個尺度?如何定量刻畫?
GNW的數學框架是什么?如何用計算模型來驗證?
用什么模型擬合多尺度神經數據,實現穩健的跨尺度建模?
你將收獲:
前沿視野:本季發起人是來自海內外知名的研究團隊,且在科研一線實踐的年輕學者,能夠帶來理解神經、認知、智能與演化的前沿視野;
跨學科社區:把你的問題帶來,與來自數學、物理學、生物學、神經科學與人工智能領域的一線學者對話、交流,從多學科視角探索解法;
理論與工具:掌握動力系統、復雜網絡、因果涌現、計算建模等跨學科研究理論與工具,將其應用在自己的研究中。