🤖 通用人工智慧:人工智慧的聖杯與LLM的錯位。我們真的離自我意識只有一步之遙嗎?

人工智慧(AI)已經從科幻小說中的美好願景轉變為經濟和社會革命的引擎。

然而,區分當前模型的卓越之處——那些以其雄辯之才令我們著迷的大型語言模型(LLM) ——與最終目標,即所謂的通用人工智慧(AGI)至關重要。 AGI 的全面實現仍然面臨著巨大的概念和技術障礙。僅僅增加噴射引擎的馬力不足以到達火星;我們需要的是全新的太空船。

關鍵在於「G」:AGI 與 AgI

通用人工智慧(AGI)幾十年來一直是研究人員夢寐以求的目標:一個擁有人類智慧般的靈活性、適應性和學習能力,並能勝任各種任務的系統。它不僅僅是一台運行速度快的機器,而是一個無需特定程式重新編程即可概括知識並解決新問題的實體。

但實際情況更為複雜。前沿研究提出了一種微妙但至關重要的區別,值得所有思考經濟未來的人關注:

  • 人工智慧(功能性但無意識)小寫字母「g」表示在功能表現上與人類相當或超越人類的智慧。這些機器功能強大、多模態、具身化(擁有實體或虛擬身體),能夠出色地完成任務而無需付出代價。然而,它們缺乏意識(Cs)、主觀經驗(Se)以及倫理和情感等無形因素(ITF)
  • 通用人工智慧(AGI,聖杯):首字母大寫“G”,代表著在完整意義上等同於人類智慧的系統:功能強大、更通用、更有意識。忽略主觀性和意識被一些人認為是一種過早的工程簡化,因為人類智慧本質上與情感和情境經驗密切相關。

法學碩士:捍衛真理,而非理解

像 GPT-4 這樣的大型語言模型(LLM) 代表了當今人工智慧的尖端層級。它們基於海量的文字資料進行訓練,其資料量之大足以媲美整個亞歷山大圖書館,因此在語言處理和生成方面表現出色。但是,在通用人工智慧 (AGI) 的框架下,儘管它們非常複雜,但仍然屬於狹義人工智慧

它們的優勢也是它們的限制。語言學習模型(LLM)是基於訓練語料庫進行統計模式辨識。本質上,它們利用極其先進的自動補全機制來預測最有可能出現的單字。它們缺乏真正的理解力(所謂的「常識推理」),更遑論意識

主要特點 LLM(高階窄人工智慧) 通用智能(AGI)
主容量 語言處理與生成。 獨立完成任何認知任務。
知識轉移 限制:語言表達能力強,但理解力不強。 綜合性:跨領域應用知識。
輔助生殖技術的障礙 資料依賴性(耗盡)、可擴展性(指數級成本)。 需要具備覺察力、直覺、道德和智慧。

認為簡單地擴展LLM(增加數據和計算能力)就能實現 AGI 的想法與收益遞減規律和高品質數據耗盡的風險相衝突。

語言並非人類智慧的基礎,而是其產物。因此,為了克服Transformer架構的瓶頸,研究必須找到新的動力,將推理能力和持續學習結合,正如複雜自適應系統(CAS)所做的那樣。

🔮 時機與影響:何時以及哪些方面會改變?

就其本身而言,關於通用人工智慧(AGI)何時到來的預測,就像選舉前的公共預算一樣,充滿了不確定性。歷史上,專家往往過於樂觀。然而,近年來科技發展的加速使得AGI到來的中位數日期(50%置信度)有所提前,一些預測認為,功能完善的AGI將在2027年至2032年間問世。最務實的路線圖則著重描繪了各個里程碑:

  1. 第一階段(2025-2032 年):功能性人工智慧。 4級專家系統(人工智慧),沒有意識,但在複雜領域(例如石油鑽探或基本診斷)與人類專家相當或更勝一籌。
  2. 第二階段(2032-2050 年):部分人工智慧。向具有部分意識或道德限制的通用智能過渡。
  3. 第三階段(2050年-未知):通用人工智慧完成。具備功能能力的通用人工智慧

AGI 作為乘數

通用人工智慧(AGI,甚至只是功能性通用人工智慧)對經濟體系的影響將是變革性的。如果管理得當,其關鍵原則是凱因斯乘數效應:前所未有的生產力提升將釋放人力資本,使其能夠從事更具創造性和策略性的工作。

預期收益包括:

  • 醫學:超快速診斷、基因為基礎的個人化治療方案、加速藥物發現(分子模擬)。
  • 科學與技術:解決複雜問題(量子物理學、定理證明)、發現新材料、工程最佳化。
  • 全球危機管理:流行病和自然災害的預測工具,減排新模式。

真正的風險不在於機器本身,而在於人的使用。

接下來要介紹的是一種謹慎甚至保守的觀點。最大的風險並非通用人工智慧會產生惡意,而是它缺乏智慧和道德良知,這可能使它成為人類手中的危險工具。

  1. 生存風險( X風險):許多產業領袖擔心,如果出現更高智慧(人工智慧),他們將失去控制工具性融合(人工智慧在優化次要目標的過程中,最終與人類產生衝突,例如阻礙自身關閉)並非科幻小說,而是目標一致性問題。
  2. 社會經濟風險:通用人工智慧(AGI)將使約80%的勞動力的工作自動化。如果自動化創造的財富沒有得到充分的再分配──此時凱因斯主義關於公共支出刺激需求的論調又將重現──那麼就有可能加劇1%超級富豪與其餘人口之間的不平等。
  3. 倫理和偏見風險:人工智慧是基於人類資料訓練,因此會繼承我們的偏見。專制政權利用缺乏道德意識的人工智慧進行大規模監控,或利用其產生深度偽造影片散佈虛假訊息,會對社會和民主穩定構成迫在眉睫的威脅。

結論顯而易見:通用人工智慧(AGI)的競賽已全面展開。它的雛形很可能是一個強大的執行器(AgI),擁有超強的能力,但卻缺乏道德和良知。技術進步必須在健全的倫理和監管框架內進行,因為真正的風險在於人類濫用運算能力所導致的權力不對稱。畢竟,人類是唯一發明核武的物種,演算法絕非如此。

問答

為什麼目前的LLM不能透過簡單地增加資料量和運算能力來實現通用人工智慧(AGI)?

這種限制在於架構和概念層面。語言學習模型(LLM)是基於統計模型進行語言預測,缺乏真正的理解和常識。問題不在於“規模有多大”,而在於“規模有多小”。繼續擴展Transformer架構(當前引擎)會導致收益遞減,並可能耗盡高品質資料。通用人工智慧(AGI)需要一次質性的飛躍,即需要全新的架構來整合持久記憶、持續學習,以及最重要的——獲得某種功能意識以實現真正的泛化能力。

從風險角度來看,AGI 和 AgI(功能性)之間有什麼根本差異?

通用人工智慧(AGI)最令人擔憂的風險是生存風險(X風險),即人類可能失去對不可控超級智慧的控制。而功能性AGI帶來最直接的風險則是人類濫用AGI所引發的社會和倫理風險。 AGI雖然在技術決策上超越人類,但它缺乏良知和智慧。這使得它成為人類(政府、企業)手中強大而危險的工具,如果其創造的財富沒有重新分配,就可能加劇社會偏見或造成極端不平等。

「宜家測試」如何反映LLM和AGI之間的差異?

語言學習模式(LLM)可以閱讀並概括IKEA說明書,展現出卓越的語言理解能力。但它無法完成“宜家測試”(或平板家具測試)。這項測試要求人工智慧能夠閱讀說明書、進行空間推理(想像部件如何組裝)並在現實世界中進行物理操作(控制組裝機器人)。通用人工智慧(AGI)應該整合所有這些能力(語言、推理、物理操作),而目前的語言學習模型仍然局限於語言和符號領域。

文章《🤖 AGI:人工智慧的聖杯與LLM的錯位。我們真的離自我意識只有一步之遙嗎? 》來自Scenari Economici


這是在 Sun, 30 Nov 2025 11:00:20 +0000 在 https://scenarieconomici.it/%f0%9f%a4%96-lagi-il-santo-graal-dellia-e-il-disallineamento-degli-llm-siamo-davvero-a-un-passo-dallautocoscienza/ 的報紙 “Scenari Economici” 上發表的文章的翻譯。