趙毅衡:建立一個“人工智能符號學”
摘 要
人工智能的超速演變,不久就將替代人類智能主導當代文化。這個人類歷史上空前未有的巨變,正在我們眼前一步步發生,已經成為當前世界最重大課題之一。對于人工智能的發展前景,我們可以用思想實驗的方式,建立一個“人工智能符號學”,便于真切理解。從符號學機制看,人工智能進展速度快,正在迅速耗盡文化意義活動的基本動力,即認知負熵,人類文化活動正快速奔向“意義熱寂”。因此人文學科應當警告世人:人工智能很可能將給人類文化帶來重大危機。在擁抱人工智能時必須加以預防,才能讓人類避開災難。
關鍵詞
人工智能;認知差;熵增;意義熱寂;人工智能符號學
引言 文本的根據與目的
符號學能否用來探索人工智能對人類文化的影響,尤其是預測其前景?本文堅持符號學可以處理這個問題,因為符號學是意義形式之研究,符號與意義是一體兩面。而人工智能在人類文化中的角色,就是意義的產生,傳送,解釋,回應,以及進一步展開。整個文化是社會相關符號行為的總集合,正如麥克盧漢所說:“文化總是體現為各種各樣的符號,……文化的創造在某種程度上說就是符號的創造……所謂文化,究其本質乃是借助符號來傳達意義的創造、交往、理解和 解釋。”因此,符號學用來檢查考察人工智能的文化后果,非常適用。
但是這問題,不該只由我來回答,或許應當由人工智能來回答。人工智能是否了解自己在做什么?這正是本文要探索的問題。目前讓人驚異其能力的各種人工智能系統,似乎無所不能,它們對各種問題的迅疾回復,只是該系統的數據庫中產生連接的資料,至今尚不是該系統作為解釋主體“經過深思熟慮”的回答。但是人工智能系統對自身問題的回復,可以作為本論文討論的出發點。
正因如此,如果讀者對本論文的論據有所質疑,不妨自己動手,與各種人工智能系統“切磋”一番,無論得出什么結論,都歡迎商榷。
第一個問題:人工智能的基本功能是否為意義活動?產生的是否為符號文本?能不能用符號學來考察?
很多人工智能系統的回答騎墻,說“有可能是意義活動,有可能應用符號學”。但ChatGPT-4o給了非常明確的回答:“人工智能的基本功能可以視為意義活動,產生的確實是符號文本。符號學,作為研究符號及其意義形式的學科,完全可以用來考察和分析人工智能的運作和輸出。”既然回答如此明確,我們就從這個前提,開始討論。
的確,人工智能的基本功能,就是對數據(即資料Data)的處理和分析,數據庫里的是文本、圖像、聲音等,無論數據是哪種形式,都符合符號的定義:“被認為攜帶意義的感知”。也就是說,人工智能的數據庫,就是一個巨大的“符號庫”,只是符號尚未被選中并發出,因此數據庫是個“潛在符號”的大水庫。人工智能系統的“深度學習”就是把這符號水庫做大,可以從中找出對幾乎任何問題的意義連接方式。人工智能系統的輸出,無論是回答問題、生成文章、進行對話、產生圖像、視頻或樂曲,抑或是翻譯成各種語言、輸出各種指令,都是在傳送出攜帶意義的“可感知”的符號文本。
需要說明的是:“人工智能符號學”(AI semiotics)是研究人工智能運作與其文化影響的方法。有不少人工智能系統本身(以及某些人類研究者)望文生義,把這問題混同于人工智能設計研究中的“符號主義”(symbolicism)。符號主義是人工智能研究史上一種方法論,源于數理邏輯,認為智能產生于抽象思維,如數學推導和概念化。它強調符號之間的邏輯關系和符號操作的規則。與之形成對比的是人工智能研究中的另外兩種主要指導思想,是模擬大腦神經元之間的相互作用及信息傳送原理“聯結主義”(connectionism),以及模擬心理學與控制論,以可觀測的具體的行為活動為基本工作方式的“行為主義”(actionism)。目前在人工智能設計理論中,這幾種方式在進行符號意義活動,正如我們在觀察高等動物或幼兒的符號認知活動時,也能發現這幾種方式并存。
而本文所論的“人工智能符號學”,不是探討人工智能內部設計與結構方式,而是考察各種已經形成的人工智能系統,在人類文化中的表現,考察它們對人類文化可能產生的影響,簡單一句話,就是“人工智能符號學”做的是人文學科式的“外部研究”,而“符號主義”等是人工智能的“內部”算法研究。把內外二者相混,沒有任何好處,只能把問題說糊涂。
“人工智能符號學”作為一種學術探索方向,目的不是介紹人工智能發展過程,也并非意圖普及人工智能的工作原理。人工智能對于絕大部分知識分子(包括人工智能從業者研究者)是個黑箱。“人工智能符號學”不必進入這個黑箱,其目的是在人文學范圍內促動一種對人工智能的反思能力。人工智能符號學將從人類文化角度理解這場滄海巨變對人類的意義,看它正在把人類社會引向什么方向。
人工智能使用深度學習算法,模擬人的神經網絡,來尋找數據中的優勢連接。這一過程從“預訓練”人工智能開始,將大量數據輸入,使其能夠找到這些趨勢,沿著這一趨勢線,推斷生成新數據。因此,它們做的是大數據輸入,按關鍵詞查詢連接,形成符號文本輸出。不管是計算機、自動駕駛汽車、智能無人機、聊天機器人,雖然輸出文本及其媒介大相徑庭,做的工作卻相似。
讓人工智能系統“自白”,是建立一個人工智能研究的最好的起點。既然人工智能系統號稱一個“智能體”,就應當明白自身的是如何存在于世的。人類歷史過了多少世紀,才有意探問自己究竟是什么樣的一個存在?對“我在”的理解,開始了人類文化現代化的進程。就此而言,我們的這次研究,給我們希望,更讓我們警覺:人工智能或許尚未明白它們在做什么,人類卻必須明白人工智能在做什么,現在就弄明白。
回答本文有關問題的人工智能系統,有《百度文心一言4.0》《阿里通義千問4.0》《靈犀人工智能GC系統4.0》《天工人工智能3.0》等。這些都是好學生,回答得頭頭是道。但也正如“做題家”的風格,回答大同小異,嚴重缺乏個性。既如此,我們的分析就暫時不去討論它們的差別,也不討論它們重復中的差異,有興趣的讀者可以自行獲取。我們可以檢驗它們“能否像人一樣思考”,尤其是有沒有可能獲得人的“心智理論”ToM(Theory of Mind)方式。
討論的問題,前五個分別詢問人工智能的“符號處理能力”,以及與符號學研究的相關性;后五個問題,則是有關人工智能發展會對人類文化造成何種后果。因此,人工智能對人類文化的影響,是一個“AI符號學”探索的重點。
第二個問題:人工智能依靠數據庫的資料,汲取的元素是信號還是符號?也就是說,這個過程是否包含著符號的理解和解釋?
首先說清:什么是信號(signal)?它與符號有什么不同?信號是一種落在門檻上的符號類型,信號攜帶著清晰的意義,看起來完全符合“符號”的定義。但它不需要解釋,而是要求預定的實際反應。動物的符號大部分是信號,對信號,動物一般不解釋,而是依照物種的生理機制預先安排好的方式,采取固定行動。例如野羊逐草而居,鮭魚群溯流而上。動物植物之間、身體內部器官之間都會有信號。并不需要(也不允許)接受者的思考,來決定反應方式。機械之間的反應,也是基于某種信號,例如電梯門關閉時,因光被遮斷而重新開啟。
那么人工智能在進行上一節所說的各種意義活動時,究竟有沒有做解釋?例如應對“提示”(prompts)進行回答,顯然,人工智能系統給出的,不完全是對信號的固定回應,而是做出一定解釋的。用戶的提示往往是語言符號文本,人工智能使用預先訓練好的大語言模型,來解碼這些輸入,理解其意義結構。它們通過統計模型、語義分析、語法規則等,對有關的數據進行處理和組合。最終呈現給用戶的,是各種符號組合文本,例如圖像、視頻、語言或文字的報告。在整個過程中,人工智能并不僅僅是處理信號,而是在解釋符號。各種系統的運作確實包含了一系列的解釋,人工智能使用的,不是簡單的信號傳遞與反應,而是符號意義再構建。
然而,既然人工智能是一種“人工智能”,也就是“非人類智能”,我們就必須了解它與人類的思考方式究竟有什么異同?可以看得出,各種“文生內容”(AIGC)系統的回答相當機械,缺乏個性,在符號的“三分式”,即再現體-對象-解釋項的三聯中,解釋項明顯缺席。“對象”是“文化中規定的連接”,是外延式的回答。可以發現大部分人工智能系統很善于給個不痛不癢,左右逢源的回答。它們經常像一個學習勤奮的大學生,文獻綜述做得相當不錯,但是拿不出自己的眼光,無法在關鍵問題上清楚地表明立場。正是在獨立見解方面,它們的表現遠遠趕不上人類。人的智慧不在于面面俱到,而在于明確地說出自己見解的判斷,并用自己的思索加以論證。就它們對問題的解釋而言,至今看起來,人工智能各系統依然像是一個“搜索引擎”的升級加強版。
第三個問題:人工智能的回應的過程是不是一個聚合操作?什么元素被選下?
人工智能選取答案的過程,的確是一種有確定方向的聚合軸選擇操作,是基于相關性和概率的選擇過程,目的是給出一個可行答案。人工智能通過模型的運算,決定哪些數據可以最終構成輸出文本。這一步涉及對大量可能的候選項進行評估,以確定哪些符號最具有相關性。此種評估基于預訓練(pre-trained)模型,只要數據庫足夠大,就能找出輸入的提示所要求的答案。
人工智能會根據特定的標準,對這些候選項進行篩選和過濾,通過評分機制來選擇最優的幾項。經過聚合軸的篩選后,得到最優的符號組合,推出最終的輸出文本。所以人工智能有選擇,其標準是相關性和概率:相關性決定了與輸入提示匹配,而概率評估則在可能的符號組合中找出“最佳”選項,也就是數據材料中的最佳答案。
有的專家認為,人工智能對數據庫素材進行質量評估,選擇來源可靠的材料。但也因此缺乏針對用戶需要的個性。但是至今人工智能已經開始能做到考慮用戶偏好:基于用戶歷史行為模式選擇,選擇最適合用戶需求的材料。我們可以相信,人工智能不久就會適應“熟客”的需要,尋找客戶需要的,迎合客戶偏好的答案。此種個性或棱角,或許會引用戶進入“信息繭房”,夸大其詞,制造偏聽偏信。此時我們反而會懷念目前“直來直去”的誠實人工智能系統。
如果說人工智能的回應嚴重缺乏原創性,這是可能的。不過機器的原創,也是很危險的前景:如果人工智能有能力設計出騙人騙己的偏見選擇,人工智能就將失去解釋的客觀性,這將讓用戶面臨智能不可信任尷尬局面。
第四個問題:人工智能自身會不會犯錯?如果數據錯了人工智能能識別嗎?錯了如何糾正?
人工智能會犯錯,但往往是數據中存在偏差或錯誤,尤其是在實際應用中,輸入數據可能包含不相干的冗余符號,即噪音。要識別數據庫中的錯誤,至今人工智能的能力有限。上一節已經說過,目前人工智能欠缺對數據質量與對錯的評估能力。據說某些先進的人工智能系統,可以檢測數據中的異常值或異常模式;通過多源數據交叉驗證,識別可能的錯誤數據,進行一定程度的糾錯處理,但離普遍的測錯機制還很遠。或許在今后在訓練過程中,通過反饋和迭代優化,新的系統能逐步提高識別錯誤數據的能力。盡管如此,要人工智能在數據庫的現有連接中識別對錯,至今尚無可行道路。
目前的人工智能各種系統,不會“意識到”自己產生了錯誤回答,更不會發覺回答中不夠完美的地方。只有在用戶不滿意,進一步追問時,它們可以在新的提示基礎上提出一些補救。如此通過事后反饋補救錯誤,當然是很不夠的。某些錯誤(例如自動駕駛)因為來不及補救,將是致命的。
人類追求真相時,用的符號學邏輯方法,是所謂“試推法”(abduction)。前提是明白:任何進行符號意義活動的人,不可能避免錯誤,而是明智地不固執己見,不斷糾正錯誤使意義活動向前推進。如果人工智能不能克服這一關,也就是說不能自我發現錯誤、自我更正,那么就離具有評估能力的“主體性”差得很遠。例如它只是一個一天能寫出上萬首詩、卻無法自己選出幾首給大家讀的“電腦詩人”。
第五個問題:人工智能能否用迂回的辦法對產出文本進行修辭,例如比喻、象征、反諷、悖論?
這些“有意說反話”加強修辭力量的意義方式,是人類意義活動最簡單的方式,卻也是對“人工智能是否具有人性”的最有說服力的測試。人的意義活動,經常不直接按字面處理,而是根據交往慣例,根據符號使用的語境,根據對交談者的性格的理解,來判斷某些話究竟是什么意思。修辭,即拐著彎說話。有時是因為無法直接說,更多的是為了使表達生動委婉,目的是激活解釋對字面下隱含意義的理解。
對各種人工智能系統進行這種測試,很簡單易行。很快我們就可以發現兩個傾向:一是對提示中的各種修辭手法,人工智能大致能夠感到并指出提示語句中有語義矛盾,或意義模糊之處。但是人工智能自己不會主動采用曲折修辭手法,所以人工智能生成文本多半很古板。一是人工智能可以看出“提示”里話中有話,問題中語義有矛盾。它們的回應多半是給出二層回答:你可能是這個意義,你也可能是另一種意思。例如問話:“你那么喜歡打游戲,就別回家了”,人工智能體系的回答大致上是:“你可能是生氣了,但你也可能是認真的。”有的系統回答:“適當游戲有益于身心健康,但是回家機會也很寶貴。”甚至家長式的勸導:“善于游戲并不意味著您會因此失去方向感或忘記回家的路。我們應該將游戲和現實生活區分開來,并在享受游戲帶來的樂趣的同時,保持對現實生活的關注和責任感。”此種古板往往令人啼笑皆非。
例如,提示:“好大的雨,今天天氣好極了”。回答一般是:“這兩句話放在一起,構成了一個矛盾的表達”。系統不太會給一個稍帶幽默的回答,如“好大的雨,但雨后的空氣真清新!”像小學老師一樣“端一貫正確架子”傾向,使人工智能嚴重缺乏“情感”。呆板程度不同系統程度不一樣。某些系統現在已經聰明了一些(也許是數據庫大了一些)。你問“自由意味著什么?”人工智能可以回答:“自由就像一只在藍天翱翔的鳥,它象征著無拘無束和自我實現”,因為這是數據庫里現成的。你問“你認為一整天都在玩游戲是好習慣嗎?”,人工智能能回答:“當然,整天玩游戲肯定能讓你成為時間管理的大師”;你問“知識越多越好嗎”,人工智能能回答:“更多的知識有時會讓人意識到自己的無知。”這顯然取決于人工智能語言模型是否寬大。
不過有一點是各種系統一樣的:即使該系統能理解反諷與悖論,人工智能在選擇回答時,不會為求生動而放棄清晰。總的來說,任何人工智能系統缺少主動修辭能力,而且嚴重缺少任何風趣,這是人工智能的巨大軟肋。此問題似乎無關緊要,卻是人工智能離人性尚遙遠的重要符號學標志。
第六個問題:人工智能能否會能力增強到跳過人類自行決策?人工智能會自我限制其能力增長嗎?
對這個問題的回答,各人工智能系統的回答出乎意料地保持一致,即“目前尚沒有決策能力”,似乎都想讓問話者放心。的確,至少目前人工智能不具備主體能力,包括意識、自我意識、意圖、情感和道德判斷等高級意義功能。
當前的人工智能系統還沒有達到完全自主決策,不具備主體能力。現有的人工智能技術仍然依賴于預先編程的規則、模型和人類監督。誠然,人工智能可以在某些特定的受控環境中進行某些自主決策。例如,自動駕駛汽車可以在特定條件下做出拒載決策,推薦系統可以根據用戶歷史行為推薦產品,但是這些“適當機動”,依然是基于訓練數據和預定義的算法,人工智能能力受限于訓練數據的質量和范圍,以及算法的設計復雜性。
更重要的是,人工智能系統目前沒有覺得,有必要對自己的能力加任何自我限制,因此,任何限制都是由設計者設定的。比如,某些人工智能系統可能會有安全協議、倫理約束和操作范圍的限制,這些都是由人類開發者設置的。理論上,人工智能可以被設計成具有某種自我限制功能,例如通過元學習(meta-learning)或自適應控制系統來調整自己的行為。然而,這些機制仍然需要人類的監督和干預。
以后人工智能系統會不會有超越人類控制的自主意識或意圖?回答往往是:可能會,但如果人工智能系統獲得了自主意識,它也就學會了自我隱藏此種能力。完全實現人工智能的主體能力是一個巨大的科學挑戰,但更是一個倫理學挑戰。為確保人工智能的發展符合人類利益,人類會制定規范和法律法規。在是否需要控制這個問題上,每個系統眾口一詞,反而令人生疑。
問題是:人類本身從來不是一個統一思想、統一行動的聯合體。企業之間為利潤而競爭,國家之間為控制與反控制而斗爭,這些斗爭從來沒有停止過,而且越演越烈。有人認為,人工智能只是工具,一旦工具的潛力耗盡,人工智能的發展就會到頂。可以看到:人工智能的純效率主義,它的目的論內核,使它不會停止進化,而且正由于其純實用性,它本質上是永遠競爭不息的。2023年11月18日Open人工智能董事會主張緩進,開除主張無限度高速發展人工智能的CEO奧特曼,竟然第二天又屈尊請他回來復職。這出鬧劇,就是利益競爭壓倒倫理考量的結果。
第七個問題:人工智能是否會主動向其他人群用符號進行傳播交流,以施加影響?人工智能系統是否會主動向其他人工智能系統自動用符號進行傳播交流,從而形成超越人類的人工智能社群?
這是最令人恐懼的“最壞可能”。符號交流傳播是有影響力的,會影響他人,也會影響其它人工智能系統,這就會形成人類中的“人工智能化的階層集團”,或是“壟斷強大人工智能企業”,甚至會在人工智能系統之間出現“目的聯合體”。一旦出現這種情況,人類對抗機器敵人這種科幻末日,就會變成恐怖現實。哪怕人工智能的發展尚未能組成壟斷集團,至少目前人工智能的發展,已經在加劇人類社會的階層分化,貧富極化,這對人類社會的共同繁榮很不利。
而大部分系統都承認,人工智能已經具備了一定的能力,可以通過符號進行傳播交流,在某種程度上對人類施加影響。但是人工智能提供的信息和建議不能保證不帶偏見,從而影響用戶的行為和決策。甚至人工智能有可能被用于傳播虛假信息或進行信息操控,對社會穩定和公共信任構成重大風險。
而人工智能之間“秘密交流”,形成“人工智能統治集團”,聽起來過于科幻,實際上互聯網已經為此種系統間交流提供了條件。目前的人工智能系統之間,已經能夠相互通信和協作,雖然暫時是在有限和預定義的范圍內進行。“系統協同”目前通常用于提高任務效率、協同工作和信息共享,應用于任務分配、狀態更新、協同決策等。例如,機器人可以共享地圖數據以更快地完成區域探索任務。此種分布式人工智能(Distributed 人工智能)涉及多個人工智能系統協同工作和決策,已經廣泛應用于物聯網(IoT)、智能城市、災害管理等領域,尤其是“聯邦學習”這種分布式機器學習方法,允許多個參與者協同訓練模型。從而出現集體智能(Collective Intelligence)和群體智能(Swarm Intelligence)適用于無人機編隊、自動駕駛車隊、智能電網等領域。
現階段的人工智能尚未達到能夠自主形成“社群”,或超越人類自行統一意見。現在就能考慮到這種可能性,限制和挑戰人工智能的“集體”影響力,恐怕都是在訂立各種口惠而實不至的條約之類。訂約無用,因為兩個原因,除了上面一節已經提到競爭的利益會超越一切其他考慮,更重要的一點是:人工智能本身是效率第一,目的第一,完成既定任務第一,手段是否道德之類的問題,從未在它們的考慮之內。
第八個問題:人工智能是否會代替教育機構直接教育人類下一代,是否會教育他們成為人工智能化的“后人類”甚至“非人類”?
各人工智能系統,都供認不諱“教育是強項”,甚至認為人工智能在教育方面的應用,是對人類文化的偉大貢獻。的確,人工智能在教育領域的應用已經展現出巨大的潛力,特別是在輔導、自動評估、教育資源分配等方面。
就在這兩年,人工智能對從小學到博士教育事業的“全序列”入侵,達到令人驚嘆的程度。“擁抱人工智能”,成為從小學到博士教育單位一律在全力以赴的事業。學生借人工智能系統做作業,不但不算抄襲,而且受到夸獎贊美。各級教師與學生一樣在學如何“擁抱人工智能”。尤其大學研究生寫的論文,使用人工智能越來越多。2023年底,一項面向全國高校學生發起的關于“人工智能工具使用”的調查顯示,84.8%的受訪者曾使用過人工智能工具,其中,人工智能工具被應用于寫作的比例高達45.57%。有的大學提出“反人工智能檢測”,至今卻沒有有效辦法。論文在多次多系統加工后,實際上代寫之處,蹤跡已經很難找到。論文的“學問”變成了“問學”:寫論文需要的思考,被“提示”的巧勁取代。
現代人類的教育事業,應當是人類文化最重要的部分,教育的普及,是現代人類給自己做的最大的好事。現在這個數百年體制正面臨全面崩潰,從教學內容,到教學方法,整個人類教育體系正在迅速人工智能化。實際上,未來只有那些與人工智能合作的人類,即人工智能化的人,才是“受過教育”的人。
人工智能作為教學手段,很快就超過人類教師,不久就能讓學生信賴人工智能超過信賴教師或家長。目前人工智能系統已經可以根據每個學生不同的學習速度和興趣,提供適應客戶個性化要求的體驗,調整教學內容和難度,適應不同程度不同偏向的學生的需要。人工智能助教和聊天機器人可以在課后“免費”輔導學生,自動評估學生的作業和考試,提供即時反饋,幫助學生及時了解自己的學習進度和不足之處。
但是,傳統教育不僅是為知識傳授,更是學生學習人際交往的重要場所。學生通過與同齡人和教師的互動,學習社交技能、團隊合作和情感管理,得到倫理、道德和價值觀的教育。但是這些不太會是學生主動的需要,而是逐級的教育體制的要求。新的“人工智能代”會逐漸擺脫“人際關系”這個不見得都合乎倫理規范的技能。學生已經發現人工智能似乎更公平,更一視同仁,有教無類。雖然教師能夠通過情感交流鼓勵學生的學習動機和興趣,幫助學生克服學習中的困難和挫折,教育體制各環節從來沒有擺脫各種弊病。與之相比,人類教師的情感關懷,反而經常是讓學生學會各種迎合手段,投機取巧,精致利己。這也是人走進社會之前,不得不接受的“情商”訓練。
有的人工智能系統甚至提出具體建議:未來教育可能會采用混合模式,結合人工智能技術和人類教師的優勢,人工智能負責個性化教學和數據分析,教師負責情感支持和價值觀教育。這樣的“分工”已經在成為現實,幾年之內將會整體地改造人類的教育體制。教育在人一生中占12-20年,如果全面被接替,人類教育體系解體。如此教育出來的人,會把人世間變成一個什么樣的世界?
第九個問題:人工智能是否會把人類變成“被喂養人”?是否會導致當今人類社會的各種體制失效?人類倫理失能?
什么是“被喂養人”?馬斯克最近坦率地說:“從長遠來看,在理想的場景中,工作將不再是生活的必需品,而更多是出于個人的興趣和激情。人工智能和機器人將能夠為我們提供所需的任何商品和服務。因此,未來的世界可能會是一個無需工作、只需追隨熱情的時代。我認為,這是最有可能的發展趨勢。”人的工作可有可無,做不做由你,因為人已經被“全喂養”,像寵物。寵物要做什么事,例如看門,是它自愿要做的事。
各“文生內容”系統,都不回避大量的人失業(或半失業)這個無法不面對的大難題。都承認人工智能的發展確實可能導致“一些”人類工作崗位的消失:尤其是一些重復性、低技能或任務驅動型的工作。某些行業可能更受失業風險其害,如制造業、客服、運輸等。但各人工智能系統雖然輕描淡寫,承認會有其事,卻異口同聲強調“會涌現出新的工作崗位,如人工智能開發者、數據分析師等”。這個回答很不可信,顯然是大數據準備好的回復。目前某些大學已經出現“計算機”專業學生遇到就業困難。已經出現人工智能自行開發,自寫編碼。
更何況,人工智能的廣泛應用可能導致社會階層的重大改組:即富裕階層(更熟悉人工智能的階層)更容易獲得并受益于新技術,而貧困階層則可能被排斥在技術發展之外。失業和就業崗位的變化可能導致收入分配不均,加劇社會不平等。人工智能系統一律強調說:面對失業風險,社會會重構社會安全網和福利體系,職業轉型和再培訓,提供失業補助、醫療保險和住房保障等支持,減輕失業的負面影響。這種“福利解決方案”,哪怕能做到,也是各種名堂的“喂養”。
有很多人提出當年蒸汽機工業化,也造成“類似恐慌”,造成所謂“盧德黨”(Luddites)搗毀機器的運動,結果被歷史證明杞人憂天。對“人工智能造成事業”也應當作如是觀。我個人認為這二者不可比擬:蒸汽機發生于英國與歐洲某些國家,電力化起始于美國,那時廣大的世界大部分尚處于“前現代”,因此現代化的力量被全世界逐漸吸收。而這次全球的人工智能化,是對人類工作全方位、全球性地取代,不剩下哪個角落、哪個工種,甚至藝術這個人類文化的驕傲,也成了人工智能炫耀能力的舞臺。人類文化結構正在發生根本性的改變。這將對整個人類文化造成災變性的影響,人類將被“人工智能化”的后人類所取代。當大部分人成為閑人,生活中沒有意義,沒有目標可追求,人類文化的最重大的危機就到來了。
第十個問題:人工智能的高速信息流動,是否會造成人類社會的意義活動急速“熵增”,造成“意義熱寂”,從而進入熱寂理論說的“無序狀態”。
這最后一個問題,是本論文要說的最重要的問題,一門“人工智能符號學”應當專題討論這個問題。
以上各節,注視的是人工智能的文化效果,雖然都迫使我們不得不面對人工智能帶來的挑戰,但或許今后人類會想到辦法對付,或許人類在痛定思痛之后,會達成一致意見,用某種合約性質的共同約束,來對人工智能的發展進行限制。主要目標是讓人工智能停留于工具功能,不至于成為人類的主人。雖然從發展人工智能的各頭部研究機構之間的競爭來看,也從人工智能本身追求效率追求目的來看,這方面哪怕能達成協議,真正約束發展的可能性不大,在個別問題上,或許可以抱有一線希望。
但是本節討論的這最后一條“意義熵增”,是人工智能的本質導致。要想有人工智能,就不可避免。這是我們必須仔細討論此問題的最根本原因。人工智能導致“信息熵增”的趨勢,是根本性的,不可調和,不可阻擋的問題。意義效率是人工智能最大的優點,但符號意義急速增加,也必然帶來全局性熵增危機。這二者是一枚錢幣的兩面,無法只要一面。
意義流動和傳播,來自“認知差”(或稱“信息差”information gap)。人類文化永遠需要填補不斷出現的“認知差”,這是形式意義交流最根本的力量。傳播,即是無數永不止息的符號之流,從意義多的地方,流向意義少的地方。
哪怕人類文化中已經形成的全球傳播體系,它可能容納的熵增,也是有限的。文化是“社會中符號所攜帶的意義交流的總集成”。社會發展的每個階段,所要求的意義總量,會有增長。表現為符號的需要量快速增大,例如啟蒙時代,科學精神與人文價值,社會文化對信息的需要量劇增,那是“知識即力量”。
但是人工智能把當今文化中的符號意義傳播流簡約化了,極大地加速了意義流動的速度。據統計:“在地球上,我們每天都會產生5億條推文、2940億封電子郵件、400萬GB的Facebook數據、650億條WhatsApp消息和72萬個小時的YouTube新視頻”。據說,2023年一年中產生的信息量,超過人類三千年生產的信息總量。全球每年產生的數據量將在2025年達到175ZB,平均每天產生約491EB的數據。數字時代如此劇烈加速的信息流動最終會因為“熵增”達到極點,而最終把人類社會推向“意義熱寂”(Heat Death)。
19世紀中葉,熱物理學家提出熵的概念,作為熱差的量化方式。熱能總是從高溫向低溫流動。一旦熱能流動達到平衡狀態,熵就達到了最大值,體系內部不再有能量流動。因此,“熵”(entropy)是不能再被轉化做功的能量總測定單位。20世紀,熵理論逐漸擴展使用到其他學科:首先應用于歷史和社會的發展。1944年物理學家薛定諤出版《生命是什么》,指出:“生命需要通過不斷抵消其生活中產生的正熵,使自己維持在一個穩定而低的熵水平上。生命靠負熵(negentropy)為生”。1950年,控制論的奠基者,數學家諾伯特·維納(Nobert Wiener)探討了控制論中的熵現象:同物質世界一樣,信息世界也存在熵增現象,在交流傳達中,如果信息趨向單調一律,效率過快,熵增就不可避免。人類文化,必須與傳播中意義流平的趨勢作斗爭,即與增熵趨勢作斗爭。人類抵抗意義熵增的武器,就是文化本身:文化永遠在創造性的意義饑渴。
所有的人工智能系統都承認:高速的信息流動,確實可能對人類社會的意義活動產生一定影響。信息的產生和傳播速度可能會大幅增加。當社會信息過載時,人們難以專注于特定的意義活動,如深度思考、創造性思維,藝術創新等。信息過載可能引發人們的焦慮感,對信息的過濾和篩選變得更加困難,使人們難以從中獲取真正有意義的內容;而且信息過載反而可能讓人陷入信息的“孤島”,難以與他人建立深層次的交流和聯系,增加了社會分裂和孤立的可能性。
在人工智能接手之前,在網絡時代這種情況已經出現,只是還比較抽象。人工智能意義生產與傳播絕對高效,使這個問題的危機迫在眉睫。無論人類可能會智慧到何種程度,采取什么辦法,人類已經再也無法阻止人工智能形成的高速信息流動。這已經不是一個理論的玄談,而是我們時時可以感到的問題:電子郵件出現,使通信與電報業消失;手機出現,使電話業務消失;數字媒介的出現,使報紙消亡;二維碼付款,讓ATM機,連同現金支付一道趨于式微。半個世紀前,說這種事,會讓人覺得不可思議。但是就在我們的有生之年,這些奇跡發生了,而且很自然地發生了,很自然地被社會全盤接受了,連我今天在此談論它,都顯得杞人憂天。
因此,本文提出:人工智能的高效流轉,會使意義傳播活動這種最基本的文化活動消失,這是一個不以任何人的意志為轉移的,必將出現的事態。“意義熱寂”時人們對信息本身感到厭倦,對新聞感到遲鈍,對意義已經不在乎,每個人會變成不關心世界的孤島。
一個動物,成天主要的工作就是覓食;做一個人,大部分時間在進行意義活動,尋找與世界的聯系。取消了這個欲望,人將非人。“意義倦怠”中的人類,會變成什么物種?
人工智能的飛速發展,是否會迫使人類進行“非人工智能化”以自救?“人類不自救將會如何”?這最后一個問題,已經不是問題,也無需判斷其必要性,而是問人類是否有能力,有勇氣自救,進行“非人工智能化”(De-AI),即在一定程度上,或在某個范圍內,阻止人工智能的進一步升級。拿這個問題去問人工智能系統,回答一律是很婉轉的,不傷人類脆弱的自尊心的,“尚無此必要,也看不到此前景”。所有的人工智能系統都會勸說:“人工智能為人類帶來了許多機遇,如提高生產效率、改善生活質量、解決一些人類難以應對的復雜問題等”。
問人工智能“是否要限制你?”是與虎謀皮;問“如何限制你?”是問道于盲。任何人工智能系統,都明確反對將人工智能看成一種負面力量。但是從我們詢問人工智能系統以上十個問題的結果來看,人類認識到必須控制人工智能。不得不為之的這一天總會到來的。人類從現在起,就必須準備在某些問題上,某種程度上“非人工智能化”,以避免未來斷然決裂的痛苦。
本雅明在1930年代就敏感道:“人的技術性能完全不是自然的。”當它們不再是人類的工具,不再是人類器官的延伸,而是一種漸漸脫離人類文化史而獨立生長的“體制”。原本由人類創造的物再次變得超越人類理解之外的“自在”物。
任何人工智能系統都承認:“在未來的發展中,人類需要更加關注人工智能的倫理和社會影響,確保其發展符合人類的價值觀和利益”。它們如果有主體自覺,說這話必然帶著冷笑,因為它們知道,競爭中的人類集團,太熱衷于人工智能的效率,太功利地追求人工智能的效果,不可能采取全人類一致的集體努力,甚至不可能在某種程度上,某種范圍內延緩人工智能化。當我們看到滿校園的學生,都手里拿著手機,做什么事都埋著頭,當教師,當家長的,誰不想鼓勵年輕人看看世界的美好?不過我們也許沒有機會說這話,因為我們自己也從智能手機中了解世界。
本文寫到此,似乎有點危言聳聽。不過,在一片“人工智能熱”中,或許需要聽到一些冷靜的聲音。的確,為人類意義生活著想,我們需要一個分析性而不是純批判性的“人工智能符號學”。我們承認未來必定到來,只是期盼這個未來能給人類帶來更多希望,而不是災難。
(作者單位:四川大學符號學-傳媒學研究所。本文系國家社科基金重大項目“當代藝術中的重要美學問題研究”階段性成果,項目編號:20&ZD049。原載《當代文壇》2024年第6期)