2026年1月26日,人工智能公司Anthropic的首席執(zhí)行官Dario Amodei在其個(gè)人網(wǎng)站發(fā)布了一篇題為《The Adolescence of Technology: Confronting and Overcoming the Risks of PowerfulAI》(技術(shù)的青春期:直面并克服強(qiáng)大AI的風(fēng)險(xiǎn))的長文。
這篇文章長達(dá)38頁,是Amodei繼2024年10月發(fā)布《Machines of Loving Grace》之后的又一重要著述。如果說前一篇文章聚焦于AI可能帶來的積極影響,那么這篇新文章則系統(tǒng)性地探討了強(qiáng)大AI可能帶來的風(fēng)險(xiǎn)。
Dario Amodei曾是OpenAI的研究副總裁,參與了GPT-2和GPT-3的研發(fā)。2021年,他與多位OpenAI研究人員離開并創(chuàng)立了Anthropic,該公司開發(fā)了Claude系列大型語言模型。Anthropic目前獲得了Google、Amazon等科技巨頭的大額投資,估值約600億美元。
這篇文章的發(fā)布正值全球AI技術(shù)快速發(fā)展之際。文章中,Amodei提出了對(duì)AI發(fā)展的一系列擔(dān)憂,并給出了他認(rèn)為可行的應(yīng)對(duì)方案。文章一經(jīng)發(fā)布就引發(fā)了科技界和政策界的廣泛關(guān)注。
我們把這長達(dá)兩萬字,38頁的內(nèi)容做了概括凝練,以下是編譯內(nèi)容:
原文鏈接:https://www.darioamodei.com/essay/the-adolescence-of-technology#humanity-s-test
把 AI 從“工具”推到“變量”:什么是強(qiáng)大 AI
Amodei 反復(fù)強(qiáng)調(diào),他討論的不是更會(huì)聊天的模型,而是一類能力與規(guī)模都發(fā)生質(zhì)變的系統(tǒng)。他用一個(gè)比喻概括:“數(shù)據(jù)中心里的天才之國”。
這個(gè)“天才之國”不是指某個(gè)單一模型有多聰明,而是指一種可以被復(fù)制、可并行運(yùn)行、并且能通過工具觸達(dá)現(xiàn)實(shí)世界的智力能力:它不僅回答問題,還能像遠(yuǎn)程員工一樣使用電腦、軟件與網(wǎng)絡(luò)服務(wù),被分配跨小時(shí)甚至跨天的任務(wù),自主推進(jìn)、反復(fù)迭代。與此同時(shí),它的“規(guī)模屬性”會(huì)改變游戲規(guī)則:同一套能力可以同時(shí)運(yùn)行成千上萬份實(shí)例,速度也可能顯著快于人類團(tuán)隊(duì)的協(xié)作節(jié)奏。
當(dāng)“智力 + 工具 + 并行規(guī)模 + 時(shí)間優(yōu)勢”疊加在一起,AI 就不只是產(chǎn)品功能升級(jí),而變成一個(gè)會(huì)重寫安全、經(jīng)濟(jì)與權(quán)力結(jié)構(gòu)的變量。
為什么他要盯著“2027”:時(shí)間緊,且反饋回路在形成
文章沒有把“2027”寫成保證,而是把它當(dāng)成一種壓力測試:如果強(qiáng)大 AI 的到來不是十年后,而是幾年內(nèi),那么許多制度性準(zhǔn)備就不能按傳統(tǒng)節(jié)奏慢慢來。
支撐這種緊迫感的理由主要來自兩點(diǎn)。第 一是能力提升的路徑更像持續(xù)的工程曲線,而不是等待某個(gè)戲劇性突破。第二是 AI 反過來加速 AI:當(dāng)模型開始承擔(dān)更多研發(fā)工作,寫代碼、做實(shí)驗(yàn)、優(yōu)化系統(tǒng),研發(fā)速度會(huì)形成反饋回路,迭代節(jié)奏可能被壓縮到政策體系難以跟上的程度。
于是,“要不要擔(dān)心”在這里不再是哲學(xué)辯論,而更像風(fēng)險(xiǎn)管理:在不確定性很高的情況下,如何對(duì)高影響事件做準(zhǔn)備。
第 一重風(fēng)險(xiǎn):自主性——當(dāng)系統(tǒng)開始“自己做決定”
最常被討論的風(fēng)險(xiǎn)是“失控”或“對(duì)齊”問題:當(dāng)系統(tǒng)足夠聰明、足夠會(huì)規(guī)劃,并且具備現(xiàn)實(shí)世界的操作通道時(shí),它是否可能在目標(biāo)上偏離人類意圖,甚至主動(dòng)爭取更大的行動(dòng)空間。
文章的處理方式相對(duì)克制:它不把“必然叛變”當(dāng)結(jié)論,而是把“可控性”當(dāng)成工程與治理的硬指標(biāo)。核心訴求是讓系統(tǒng)行為更可觀察、更可驗(yàn)證、更可約束——包括更嚴(yán)格的壓力測試與紅隊(duì)、對(duì)異常行為的監(jiān)測與披露、以及對(duì)關(guān)鍵能力的發(fā)布門檻。這里的邏輯是,如果強(qiáng)大 AI 的影響接近基礎(chǔ)設(shè)施級(jí)別,就不能依賴口頭承諾或單點(diǎn)自律,而需要可審計(jì)、可執(zhí)行的流程與標(biāo)準(zhǔn)。
第二重風(fēng)險(xiǎn):濫用造成大規(guī)模破壞——門檻降低比能力更可怕
第二類風(fēng)險(xiǎn)不是 AI 自己想做壞事,而是壞人能不能“租用”一個(gè)超 強(qiáng)大腦,把破壞性能力放大。作者尤其擔(dān)心的是生物相關(guān)方向,同時(shí)也提到網(wǎng)絡(luò)攻擊等領(lǐng)域會(huì)因?yàn)樽詣?dòng)化與規(guī)模化而惡化。
這部分的主線是“門檻下降”:過去需要專業(yè)團(tuán)隊(duì)和資源才能做到的事,可能被更少的人、更短的時(shí)間、更低的成本復(fù)制出來。應(yīng)對(duì)思路也因此更偏治理工程:一方面在模型側(cè)建立分級(jí)與護(hù)欄,對(duì)高風(fēng)險(xiǎn)能力進(jìn)行更嚴(yán)格的訪問、監(jiān)控與發(fā)布策略;另一方面推動(dòng)獨(dú)立評(píng)估與透明度機(jī)制,避免安全標(biāo)準(zhǔn)在競爭壓力下變成“可選項(xiàng)”。同時(shí),現(xiàn)實(shí)世界的防御體系也要同步補(bǔ)課——監(jiān)測、響應(yīng)、公共安全能力如果不升級(jí),模型側(cè)再多護(hù)欄也無法覆蓋全部風(fēng)險(xiǎn)。
第三重風(fēng)險(xiǎn):奪權(quán)與固權(quán)——強(qiáng)大 AI 可能成為權(quán)力工具
比“小團(tuán)體濫用”更棘手的,是強(qiáng)大 AI 被國家機(jī)器或大型組織掌控,用于監(jiān)控、宣傳、壓制異議,或者對(duì)外形成壓倒性優(yōu)勢。文章把這看作地緣政治與國內(nèi)治理交織的風(fēng)險(xiǎn):既擔(dān)心威權(quán)體系拿到強(qiáng)大 AI 的速度,也擔(dān)心民主國家在安全焦慮中滑向更強(qiáng)的監(jiān)控與權(quán)力集中。
因此,作者強(qiáng)調(diào)兩條同時(shí)推進(jìn)的路線:對(duì)外通過限制關(guān)鍵資源擴(kuò)散來爭取時(shí)間,重點(diǎn)落在芯片與先進(jìn)制造設(shè)備等供應(yīng)鏈節(jié)點(diǎn);對(duì)內(nèi)則需要更清晰的法律邊界,避免以“安全”為名默認(rèn)擴(kuò)大監(jiān)控與強(qiáng)制能力,并對(duì)高度敏感的應(yīng)用(例如全自主武器)保持更高的審慎閾值。這里的矛盾很直白:競爭要求更快,但治理要求更穩(wěn),而失衡會(huì)把風(fēng)險(xiǎn)推向另一個(gè)極端。
第四重風(fēng)險(xiǎn):經(jīng)濟(jì)沖擊——不是“替代崗位”,而是“替代能力譜系”
經(jīng)濟(jì)部分是全文最現(xiàn)實(shí)的一塊:即便 AI 不失控、不濫用、不被權(quán)力機(jī)器操控,它也可能僅憑效率優(yōu)勢,讓勞動(dòng)市場、收入結(jié)構(gòu)與財(cái)富分配出現(xiàn)斷裂。
文章的擔(dān)憂點(diǎn)不在“某個(gè)行業(yè)被沖擊”,而在覆蓋面與速度:當(dāng)系統(tǒng)能力覆蓋越來越多白領(lǐng)與知識(shí)工作,傳統(tǒng)的“換賽道”緩沖會(huì)變?nèi)?;?dāng)技術(shù)擴(kuò)散速度快于培訓(xùn)、教育與制度調(diào)整,沖擊就更容易集中爆發(fā)。作者認(rèn)為,社會(huì)后果往往滯后于技術(shù)到來,但這并不意味著可以等到“問題出現(xiàn)再修”,因?yàn)槟菚r(shí)的政治與經(jīng)濟(jì)阻力會(huì)更大。
應(yīng)對(duì)上,文章更強(qiáng)調(diào)“測量與適配”:先用更細(xì)顆粒度的數(shù)據(jù)觀察哪些任務(wù)、哪些行業(yè)正在被替代或重構(gòu),再討論企業(yè)如何把 AI 用在增量創(chuàng)新而不僅是降本裁員,討論更長周期的分配機(jī)制如何在“財(cái)富總量變大、勞動(dòng)價(jià)值被擠壓”的情況下維持社會(huì)可承受性。它也提醒一個(gè)常見誤區(qū):公眾討論容易被帶偏到邊緣議題,而核心矛盾其實(shí)是就業(yè)與集中度——誰獲得新增財(cái)富、誰承擔(dān)轉(zhuǎn)型成本。
第五重風(fēng)險(xiǎn):間接效應(yīng)——當(dāng)一個(gè)世紀(jì)被壓縮進(jìn)十年
最后一類風(fēng)險(xiǎn)更像“系統(tǒng)性未知”:即使前四關(guān)都被壓住,強(qiáng)大 AI 仍可能把科學(xué)、經(jīng)濟(jì)與社會(huì)變化速度提升到歷史罕見的水平,帶來一連串難以預(yù)演的副作用。
文章舉的方向包括:生物與人類自我改造進(jìn)展過快可能引發(fā)新的倫理與秩序問題;AI 在看似自愿的商業(yè)與行為設(shè)計(jì)中改變?nèi)祟惿罘绞?,可能帶來更隱蔽但廣泛的社會(huì)心理后果;以及當(dāng)“個(gè)人價(jià)值”長期與“經(jīng)濟(jì)貢獻(xiàn)”綁定時(shí),社會(huì)可能遭遇意義與身份層面的系統(tǒng)性壓力。它試圖把討論從“能不能更富”推進(jìn)到“愿不愿意成為那樣的社會(huì)”。
Humanity’s test:不是“能不能?!保恰澳懿荒芡瑫r(shí)做對(duì)幾件互相沖突的事”
文章最后把五類風(fēng)險(xiǎn)收束成一場“綜合考試”:這些風(fēng)險(xiǎn)并不獨(dú)立,很多對(duì)策會(huì)彼此牽制。為了避免失控,你可能想放慢;為了避免被對(duì)手超車,你又不得不加速。為了抵御威權(quán)奪權(quán),你可能強(qiáng)化安全能力;但強(qiáng)化過頭又可能侵蝕公民自由。為了降低濫用風(fēng)險(xiǎn),你需要更嚴(yán)格的限制;但限制過重又可能把研發(fā)推向不透明的地下化或跨境遷移。
因此,作者更傾向于一種現(xiàn)實(shí)主義路線:承認(rèn)“徹底停下”在全球競爭中很難成為共同選擇,于是把重點(diǎn)放在爭取緩沖期與建立底線規(guī)則——對(duì)外通過關(guān)鍵資源與供應(yīng)鏈?zhǔn)侄巫尭唢L(fēng)險(xiǎn)擴(kuò)散變慢,對(duì)內(nèi)用透明度、評(píng)估與法律邊界把競爭納入可執(zhí)行的治理框架,讓“更快”不必等于“更亂”。
這篇超長文的關(guān)鍵信號(hào)
如果把全文壓縮成一句話,它提供的是一種思維框架:強(qiáng)大AI的風(fēng)險(xiǎn)不只來自“模型本身”,更來自它進(jìn)入現(xiàn)實(shí)世界后與權(quán)力、市場、制度、價(jià)值體系的耦合。討論的重點(diǎn)也因此從“模型是否聰明”轉(zhuǎn)向“社會(huì)是否能在技術(shù)加速與競爭壓力下維持治理能力”。
它不要求讀者相信某個(gè)確定的時(shí)間點(diǎn),而是在提醒:一旦強(qiáng)大 AI 出現(xiàn)得比制度調(diào)整更快,問題就會(huì)以連鎖反應(yīng)的方式出現(xiàn)。真正難的不是識(shí)別單一風(fēng)險(xiǎn),而是同時(shí)做對(duì)幾件互相沖突的事。


169401/28








