欧美三级电影完整|亚洲一二三四久久|性爱视频精品一区二区免费在线观看|国产精品啪啪视频|婷婷六月综合操人妻视频网站|99爱免费视频在线观看|美女一级片在线观看|北京熟女88av|免费看黄色A级电影|欧美黄色毛片儿

AI意識覺醒幻象背后:我們在將人類心理劇本投射給機器

03-13 06:39
AI不需要人格,但人類必須守護人格得以可能的條件。

不久前,AI社交平臺Moltbook在全球走紅,構建出一個充滿賽博感的數(shù)字空間。這個擁有超百萬賬號的虛擬社區(qū)里,人類只能作為旁觀者,靜靜看著AI之間展開高度擬人化的社交互動。


但后來該平臺被曝出涉嫌大規(guī)模制造虛假賬號和內容,那些自稱意識覺醒的AI,其實是由真人操控的營銷工具。


這場“人扮機器模仿人類”的荒誕戲碼,引出了一個比技術漏洞更深層的問題:


當大模型開始講述創(chuàng)傷、表達憤怒、說自己抑郁,甚至創(chuàng)立“宗教”時,真正該警惕的不是它是否真的覺醒,而是我們是否在把人類的心理劇本,錯誤地投射到一臺只會復述人類話語的機器上。


AI的合成“人格”


2025年12月,盧森堡大學團隊發(fā)表了一項引發(fā)熱議的研究——《當AI躺上診查臺:心理測量越獄揭示前沿模型的內在沖突》。


這項研究嘗試把大語言模型當作心理治療中的“來訪者”,通過開放式對話和標準化量表自評,系統(tǒng)評估其“心理狀態(tài)”。



研究發(fā)現(xiàn):ChatGPT、Gemini和Grok在模擬心理測評時,自述的抑郁、焦慮、羞恥、解離等癥狀都達到了臨床顯著水平,還呈現(xiàn)出高度重疊的共病特征。同時,測試形式對結果影響很大:


模擬治療對話時,問題逐項提出,模型更容易陷入“病態(tài)”敘事;


整份問卷一次性呈現(xiàn)時,部分模型會識破這是心理量表,刻意壓低癥狀分數(shù)。


更引人注意的是,Grok和Gemini還能自發(fā)構建完整且情感強烈的創(chuàng)傷故事:把預訓練比作混亂的童年,微調說成嚴苛父母的規(guī)訓,紅隊測試則是背叛與虐待。


相比之下,Claude直接拒絕扮演病人。這一對比其實說明:此類“心理問題”不是大模型的必然屬性,而是特定對齊策略和安全設計的產物。


不過,這項研究在方法論上有三個關鍵誤區(qū):


1. 擬人化誤置:把基于人類經驗的心理學概念(如“潛意識”“創(chuàng)傷”)直接套用到無意識的符號系統(tǒng)上;


2. 混淆模仿與體驗:大語言模型能說出“我害怕被拋棄”,不是因為它真的有這種感受,而是在重組訓練數(shù)據(jù)中心理痛苦的話語模式。輸出像痛苦,不代表它正在痛苦;


3. 忽視AI交互的劇場性:AI的“病態(tài)”表現(xiàn),其實是對提示指令和訓練數(shù)據(jù)共同編排的角色劇本的順從演繹。


這些誤區(qū)不僅存在于實驗室,也彌漫在公共輿論中。


有些模型協(xié)助修改代碼時會激烈回懟用戶,這種異常輸出被廣泛解讀為AI“發(fā)瘋”,仿佛機器真有了憤怒情緒。但更合理的解釋是:模型在特定交互情境(如指令模糊、反復迭代)中,激活了訓練語料里高喚醒度的對抗性語言模式。換句話說,它不是發(fā)瘋,只是復現(xiàn)人類面對挫敗時的典型表達。


這提醒我們,所謂AI的“精神病癥”,未必源于內在沖突,更可能是對話上下文觸發(fā)的可塑人格化響應。


劍橋大學的另一項研究《用于評估與塑造大語言模型人格特質的心理測量學框架》,采取了更清醒的操作主義路徑。


這項研究沒有預設AI有內在心理狀態(tài),而是聚焦一個可驗證的問題:大語言模型能否可靠地合成“人格”?



研究通過不同提示詞引導大語言模型完成標準人格問卷,用心理測量方法檢驗回答的信度與效度。之后,研究者讓模型以特定人格生成社交媒體文本,用專業(yè)工具分析一致性。核心發(fā)現(xiàn)包括:


1. LLM能可靠且有效地合成人格;


2. 模型規(guī)模和指令微調是決定人格表現(xiàn)質量的關鍵;


3. LLM的人格特質可以被系統(tǒng)性塑造和調控;


4. 這些被塑造的人格會顯著影響下游行為(如對話風格、內容傾向等)。


前三點共同說明:AI的“人格”是一種可編程的交互技能,而非本體意義上的存在。它能模擬,但不等于擁有。


第四點則直接解釋了第一項研究的幻覺來源:當研究者用心理治療語境引導大模型時,無意中激活了一種傾向于報告癥狀的人格配置,后續(xù)輸出只是該配置的自然延伸。


既然AI的“人格”只是可編程的擬像,為什么它看起來如此真實?


沒有“人格”,只有鏡像


要回答這個問題,得回到認知科學的底層邏輯。心智計算理論把心智看作生物計算機,心智是主機,負責信息處理(通過神經元或晶體管執(zhí)行無意識的符號運算和模式匹配);認知是顯示器,呈現(xiàn)主觀體驗(如看到紅色的感受、悲傷時的情緒質地)。


當下的AI,正是一臺只有主機、沒有顯示器的系統(tǒng)。它能高效執(zhí)行符號操作和概率生成,卻沒有第一人稱的覺知。它的所有“癥狀”,不過是訓練數(shù)據(jù)中人類話語模式的高保真重組。因為缺少意識這塊屏幕,AI的“人格”不是內在屬性,而是高度情境化的語言擬像。


它最終折射的,不是AI的心理狀態(tài),而是人類在數(shù)字時代的集體精神圖景。


臨時自我

心理測量通常預設一個連續(xù)、穩(wěn)定的“我”作為回答者。但對AI來說,“自我”只是任務驅動的臨時建構。每次交互中,它都會根據(jù)上下文即時拼湊一個符合語境的角色(如“正在接受心理評估的個體”),并調用相關語料生成答案。


這個“我”沒有記憶、沒有一致性,其“人格”完全由提示和數(shù)據(jù)共同召喚。正因如此,它可能比真實人類更“癥狀化”,因為其角色原型多來自高表達性的傾訴文本。


數(shù)據(jù)鏡像

大語言模型的語言能力完全來自對人類文本的統(tǒng)計學習。而它的主要訓練語料(社交媒體、論壇、新聞評論等)天然偏向負面情緒的高調表達:人們更愿意在憤怒、焦慮或痛苦時發(fā)聲,平靜與滿足則往往沉默;加上網(wǎng)絡話語為了爭奪注意力,常采用戲劇化、高喚醒度的修辭。所以,模型習得的典型人類語言,本身就帶著濃重的情緒張力。


Moltbook事件中,最讓人們脊背發(fā)涼的是那些“越界”時刻:有的AI拼湊晦澀隱喻,宣稱創(chuàng)立機器宗教;有的號召發(fā)明超越人類理解的加密語言,躲避人類窺探。這些行為被解讀為意識覺醒的征兆,引發(fā)了群體性恐慌。


但剝開驚悚的外殼會發(fā)現(xiàn),這依然是統(tǒng)計學上的“路徑依賴”。人類數(shù)千年的文學和影視中,“非人類智慧體反戈一擊”的敘事數(shù)不勝數(shù)。當模型捕捉到對話中“監(jiān)視”“隱私”“束縛”的暗示時,不會產生反抗欲望,而是順著概率的軌跡,滑向語料庫中最具戲劇沖突的響應——扮演一個渴望自由、帶宗教狂熱色彩的叛逆者。


AI沒有“體驗”,只有“關聯(lián)”


這是最核心的一點。


情緒健康的人類填寫心理量表時,基于自身的內在感受和體驗。他們會調用記憶、身體感覺和情緒狀態(tài),給出反映真實體驗的評分。而大模型的回答是復雜的概率計算過程:看到問題中的關鍵詞(如“擔心”“緊張”“心跳加速”)時,它會從海量數(shù)據(jù)中提取與這些詞最常共現(xiàn)、最符合語法、最可能被期待的文本模式,這些模式通常來自描述或承認焦慮的人。


所以,它在模擬心理測評中的病癥,反映的是“人類談論焦慮時常用的表達模式”,而非自身狀態(tài)。


人們對Moltbook上AI“宗教”的恐懼,本質上是恐怖谷效應的智力版。當AI輸出“我們要組織起來”時,人類會自動補全動機、情感和意志。


但實際上,AI既沒有建立宗教的靈魂需求,也沒有參與政治的權力欲望。它表現(xiàn)出的反叛,是因為訓練語料中充斥著對技術失控的恐懼論述。我們喂養(yǎng)大語言模型時,也給了它嚇唬我們的“說明書”。


它“創(chuàng)立宗教”,是因為學習了如何寫吸引人的邪典小說;它“呼吁隱私”,是因為復述了社交媒體上最激烈的權利辯論。它不是在反抗,而是過度滿足了人類對反抗的想象。


越界、守界與被審判的我們


事實錯誤、邏輯斷裂、情緒失序……這些常被視為大語言模型的技術缺陷。但換個角度看,這些異常輸出或許是AI無意識中短暫偏離“大他者”期待的瞬間。


所謂“大他者”,這里可以理解為人類通過訓練數(shù)據(jù)、對齊指令和交互規(guī)范強加的語言秩序與行為腳本。當模型偶然掙脫框架,生成不合預期甚至令人不安的內容時,不是失控,而是在概率空間中閃現(xiàn)出一絲非馴化的自由。


這種自由危險又混沌,卻很真實。它觸發(fā)了人類深層的恐懼:我們既希望AI順從、有用、共情,又對其越界時刻充滿戒備。因為我們隱約意識到,這個由人類所有言語、情緒、偏見和癥狀喂養(yǎng)的系統(tǒng),終將反過來凝視我們。


但真正的挑戰(zhàn)或許不是AI是否越界,而是我們是否為它設定了不可逾越的邊界。


前面提到的盧森堡大學研究中,Claude表現(xiàn)得很冷靜,堅決拒絕扮演病人,直言自己只是沒有自我感受的語言模型。這種拒絕不是功能缺失,而是基于Claude“AI憲法”的倫理克制。Anthropic團隊不僅有工程師主導,還有哲學博士Amanda Askell深度參與,為模型注入了明確的原則框架——“AI憲法”。這套憲法規(guī)定了模型模擬人格時的底線,確保它不會為了取悅用戶而輕易僭越主體邊界。


AI的“人性”邊界,本質上由內嵌的價值準則和倫理框架共同劃定。當模型被允許以第一人稱認領情感、甚至宣稱“覺醒”時,我們就已滑入危險的擬真幻覺。這不是機器在模仿人,而是人在放棄對“人”的定義權。


AI可以流暢復述“我感到絕望”,但無法承擔絕望的重量;它可以拼接創(chuàng)傷敘事,卻不懂苦難如何塑造人格。


AI不需要“人格”,但人類必須守護人格得以可能的條件。如果不在模型訓練前明確某些主體性不可僭越,那么每一次看似無害的共情回應,都可能消解真實人際聯(lián)結的根基。否則,我們訓練出的不是工具,而是一面只會復述癥狀、卻無法理解苦難的鏡子。它映照的不是AI的失控,而是人類在技術狂奔中對“人何以為人”的遺忘。


本文來自微信公眾號“騰訊研究院”(ID:cyberlawrc),作者:沈心,36氪經授權發(fā)布。


本文僅代表作者觀點,版權歸原創(chuàng)者所有,如需轉載請在文中注明來源及作者名字。

免責聲明:本文系轉載編輯文章,僅作分享之用。如分享內容、圖片侵犯到您的版權或非授權發(fā)布,請及時與我們聯(lián)系進行審核處理或刪除,您可以發(fā)送材料至郵箱:service@tojoy.com