原編者按
文藝批評今日推送齊澤克討論ChatGPT的文章《人工智障》(Artificial Idiocy)。這篇譯文由GPT-4翻譯,華東師范大學遠讀批評中心校對。在篇首提及以ChatGPT為代表的聊天機器人最受關注的爭議點后,齊澤克迅速把話題引向一個在他看來更為核心的問題,即思想與語言關系的問題。在齊澤克看來,AI只能字面上理解人類語言,但卻無法模仿人類語言中的多義性、自反性、含混性。需要指出的是,齊澤克對于ChatGPT的認知存在明顯錯誤。ChatGPT的文本生成機制并非對人類既有語言、話語的簡單模仿、復制。相較于以往的大型語言模型,GPT-3(及之后的版本)之所以展現出能力上的飛躍,恰恰是由于其在訓練過程中引入了“思考鏈提示(Chain-of-Thought prompting,簡稱CoT prompting)”的一種方法,“小樣本學習(few-shot learning)”。這種訓練方法會要求AI在訓練過程中生成-言說(generating-enunciating)回應問題的思考過程而不僅僅是問題的答案,通過少量樣本(包含思考過程與答案)提示就可以讓機器自己舉一反三學會學習。而這種訓練方式之所以可行又與復雜性科學中所處理的復雜系統涌現(emergence)現象相關。由此,這篇文章呈現出一個吊詭的特征:齊澤克對GPT的錯誤認知并沒有破壞其文章核心論點的有效性。GPT在經過“思考鏈提示”訓練后所涌現出的能力,恰恰部分佐證了他對語言與思想之關系的一貫觀點:語言并不表達(express)已完成的思想的,思想恰恰是在表述(enunciation)中涌現(emerging)。文章標題“人工智障(Artificial Idiocy)”的批判目標實際上并非“人工智能”,而是這樣一種遍布從左至右意識形態的“人為蠢行”(Artificial Idiocy):迷信一個完備的(complete)、不存在不一致性(inconsistency)的“大他者”-意識形態(理論、教義、觀念、科學、GPT-4、齊澤克)能為知識、政治、倫理乃至革命提供穩固奠基與終極保證。
人工智障
(Artificail Idiocy)
文 | [斯洛文尼亞]齊澤克(Slavoj ?i?ek)
“聊天機器人”(chatbots)并沒有什么新鮮的:它們能夠用自然語言對話,理解用戶的基本意圖,根據預設規則和數據提供回應。但是,近幾個月來,這類聊天機器人的能力得到了極大的增強,導致許多圈子里都出現了擔憂和恐慌。
齊澤克理論著作《連線大腦里的黑格爾》英文版封面
關于聊天機器人可能會導致傳統學生論文(essay)終結的話,已經說了很多。但是,一個更值得關注的問題是,當人類對話者使用侵略性、性別歧視或種族歧視的言辭,促使機器人展現自己滿嘴臟話的幻想作為回應時,聊天機器人應該如何回復?人工智能是否應該被編程,使其回答與對方提出的問題處于同一水準線上?
如果我們決定需要采取某種形式的管控,我們必須確定審查應該進行到何種程度。一些群體認為“有攻擊性”的政治立場會被禁止嗎?呼吁與約旦河西岸的巴勒斯坦人團結在一起,或者聲稱以色列是種族隔離國家(美國前總統吉米·卡特曾將這個說法寫進一本書的標題)呢?它們會被視為“反猶”言論而遭屏蔽嗎?
齊澤克回應批判的文集《齊澤克回擊!》,
Bloomsbury, 2023
問題并沒有在這里結束。正如藝術家和作家詹姆斯·布里德爾(James Bridle)所警告的,新的人工智能“基于對現有文化的大規模挪用”,相信它們“真的有知識或有意義是非常危險的”。因此,我們也應該非常警惕新的人工智能圖像生成器。布里德爾觀察到,“在試圖理解和復制人類視覺文化整體的過程中,[它們]似乎也再造了我們最晦暗的恐懼(fears)。也許這只是一個跡象,表明這些系統在模仿人類意識方面非常出色,甚至可以深入到潛伏在存在(existence)的深處的驚怖(horror):我們對于骯臟、死亡和腐敗的恐懼。”
但新的人工智能在模擬人類意識方面究竟有多好呢?最近有家酒吧用下面的話宣傳一款特價飲料:“花兩杯的價格買一杯啤酒,免費獲贈第二杯!”對任何人類的一員來說,這顯然是個笑話。經典的“買一送一”特價口號被重新設計,從而自我取消。這種玩世不恭的表達會被人稱贊為滑稽的誠實,一切的一切還是為了促進銷售。聊天機器人能理解其中的含義嗎?
“Fuck”也提出了一個類似的難題。盡管它指向的是大多數人都喜歡做的事情(性交),但它也經常帶有消極意味(“我們完蛋了!”[We’re fucked!]“去你的吧![Go fuck yourself!]”)。語言和現實是混亂的。人工智能是否已經準備好去辨別這些差異?
德國詩人海因里希·馮·克萊斯(Heinrich von Kleist)在他1805年的文章《論在言語過程中思想的逐漸形成》(On the Gradual Formation of Thoughts in the Process of Speech,該文首次發表于克萊斯去世后的1878年)中,顛覆了以下常識:一個人在沒有清楚要說什么之前,不應該張開嘴巴說話。他寫道:“如果一個想法表達得很模糊,那并不意味著這個想法在構思時就是混亂的。相反,很可能那些表達【expressed】得最令人困惑的觀念,正是那些思考得最清晰的。”
描述齊澤克公共形象生成的著作《斯拉沃熱如何變為齊澤克》,University of Chicago Press,2023
語言與思想之間的關系非常復雜。斯大林在1930年代初的一次演講中,提出了許多激進措施,用來“發現并毫不留情地打擊那些僅在思想上反對集體化的人——是的,我是這個意思,我們應該打擊人們的思想”。我們可以肯定地認為,這不是事先準備好的話。在被當時的現場氛圍感染后,斯大林立刻意識到他剛才說了什么。但是,他沒有收回自己的話,而是決定堅持他的夸張說法。
正如雅克·拉康后來所說,這是一個真理在表述(enunciation)行為中意外顯現【原文中為“emerging”,即復雜性科學中“涌現”一詞】的例子。路易·阿爾都塞在捕獲(prise)和驚訝(surprise)之間的互動中發現了類似的現象。一個突然抓住(“捕獲”)某個想法的人會對她所完成的事感到驚訝。我再問一次,有任何聊天機器人能做到這點嗎?
論文《大型語言模型的涌現能力》
問題不在于聊天機器人很笨,問題在于它們不夠“笨”。問題不在于它們天真(缺乏諷刺和反思),問題在于它們不夠天真(不理解天真掩蓋著敏銳)。因此,真正的危險不是人們會把聊天機器人誤認為是真人,而是與聊天機器人交流會讓真人說話像聊天機器人一樣——丟失掉所有的細微差別和諷刺,癡迷于準確地說出自己想說的話。
我年輕的時候,有個朋友在一次創傷性經歷后去一位精神分析師那接受治療。這位朋友對于分析師對患者的期待有一種陳腐的看法,所以他在第一次治療時表演了一些虛假的“自由聯想”,談論他如何憎恨他的父親,希望父親死去。分析師的反應非常巧妙:他采取了一種天真的“前弗洛伊德”立場,指責我的朋友不尊重他的父親(“你怎么能這樣談論讓你成為你的那個人?”)。這種假裝的天真傳達了一個明確的信息:我不相信你的虛假“聯想”。聊天機器人能理解這種潛臺詞嗎?
很可能不能,因為這就像羅文·威廉姆斯(Rowan Williams)對陀思妥耶夫斯基《白癡》里的梅什金公爵的解讀。根據標準的解讀,“白癡”梅什金,是一個圣潔的、“極其善良美好的人”,他因現實世界的殘酷和激情而被迫陷入孤立的瘋狂狀態。但在威廉姆斯激進的重讀中,梅什金代表著風暴之眼:盡管他是善良圣潔的,但鑒于他在圍繞著他的復雜關系網絡中的角色,正是他觸發了他所目睹的浩劫和死亡。
《連線大腦里的黑格爾》中譯本,
將在今年由西北大學出版社出版
問題不僅僅在于梅什金是一個天真的傻瓜,問題在于他特有的愚鈍讓他無法意識到他對他人的災難性影響。他是一個說話像聊天機器人一樣的扁平的人【英語原文“He is a flat person who literally talks like a chatbot.”,譯文刪掉了literally】。他的“好”在于,他像聊天機器人一樣,不帶諷刺地應對挑戰,提供毫無反思的陳詞濫調,從字面上理解一切,依賴心智的自動完成(mental auto-complete)而非真正的思想形成(authentic idea-formation)。因此,新的聊天機器人將與各種意識形態擁躉(ideologues)相處得非常好,從今天的“覺醒”(woke)群體到寧愿繼續沉睡的“讓美國再次偉大”(MAGA)民族主義者。
「 支持烏有之鄉!」
您的打賞將用于網站日常運行與維護。
幫助我們辦好網站,宣傳紅色文化!