
從機器人大賽的啼笑皆非到商業世界的過度炒作,人工智能(AI)正在經歷一場前所未有的信譽危機。
7月,2025世界人工智能大會舉行。比起各種高深的AI程序,最出圈的是兩項笑料:
在機器人賽跑比賽中,一名機器人選手跑著跑著就開始“襲擊”另一名機器人選手的控制員;
在機器人拳擊賽中,一名機器人選手突然給了裁判一拳。
網友們看似在調侃,實際上心里充滿了嘲諷:看呀,人工不智能。但在今年年初收看春節聯歡晚會時,大家還覺得邊跳舞邊轉手絹的機器人是無所不能的。
是什么時候開始,人們開始對AI祛魅了?炒股用AI,寫論文用AI,作圖用AI,寫程序用AI,看病用AI,給孩子起名用AI,結果如何呢?AI在人們的工作和生活中無處不在,其角色就像一副包治百病的靈丹妙藥,叫它“AI萬金油”不過分吧!
AI從“春天”到“冬天”的循環
AI領域有著在高峰和低谷之間反復循環的歷史。高峰被稱為“春天”,是增長、資金涌入和炒作高度集中的時期;而低谷被稱為“冬天”,是資金枯竭、研究停滯和預期低迷的階段。
1958年,弗蘭克·羅森布拉特展示了一種名為感知器的機器學習算法,該算法能夠對圖像進行分類。針對這一成果,當時的《紐約時報》報道稱:“美國海軍今天展示了一臺電子計算機的雛形,預計它將能夠行走、談話、觀察、寫作、自我復制并意識到自己的存在?!?/p>
1972年,數學家詹姆斯·萊特希爾撰寫的一份重要報告進一步揭示,許多關于構建AGI系統的進展實際上是虛幻的。這些發現對AI研究造成了沉重打擊,導致資金枯竭,并引發了第一次AI寒冬的到來。20世紀80年代,AI研究再次迎來熱潮,這次的焦點是所謂的專家系統。但是很快,到80年代尾聲,圍繞專家系統的炒作和資金幾乎消失殆盡。
交替出現的 “冬天” 和 “春天” 揭示了一個事實,AI的發展歷史始終伴隨著對其能力和實用性的過度樂觀。 在短期內,炒作能夠吸引大量投資并帶來快速增長,但這也為AI在現實中的表現設下了極高的期待。當AI應用無法滿足這些炒作帶來的期望時,便會進入“AI寒冬”。
當下,幾乎所有的AI模型都是由科技巨頭牽頭研發。隨著資金的走向,越來越多的科研資源選擇與企業合作,而并非獨立研發。因此學術研究在監督行業權力方面的作用就很有限了。
與此同時,在AI的推廣和應用端,缺乏對科學理解的關注。
企業更看重能夠整合到盈利產品中的工程突破,而非科學理解。許多公司甚至在完全理解產品工作原理之前就推出新技術,使得這些技術看起來像“魔法”?;谶@種現象,AI研究員阿里·拉希米批評當前的AI領域更像“煉金術”,并指出:“我希望生活在一個社會,其系統是建立在可驗證、嚴謹且徹底的知識基礎之上的,而不是建立在煉金術上的?!?/p>
AI炒作:利益驅動下的過度宣傳
如今,AI炒作已經滲透到研究領域、企業界和媒體等多個層面。正如本文開篇提到的,不論是炒股還是科研,是治病還是算命,只要是個行業,AI雖遲但到。
我注意到AI領域炒作是在不斷接收到兩支AI廣告的時候。
一支廣告是在我媽用某影視App看電視劇時穿插的。這是一款炒股軟件的廣告,廣告中盡訴著AI炒股的神奇,仿佛只要用了這款AI產品,從此就會走上康莊大道。
另一支廣告是學術論文輔助AI:選用了這款AI,你只需要花很少的錢(也沒有明說很少是多少)就能解決所有科研中遇到的問題——什么代碼,什么模型,什么目錄,什么文獻,通通不在話下!
AI相關產品的落地情況并不樂觀。許多預測式AI產品的供應商只顧著在爭取客戶時拼個你死我活,卻很少公布產品的實際效果。據調查,沒有一家招聘自動化公司發表過經過同行評審的論文來驗證其預測式AI的能力,更不用說允許外部研究人員進行獨立評估了。
媒體則成了炒作的放大器。每天,我們都會被各種所謂AI突破的報道轟炸,其中有多少偽裝成新聞,或是假裝中立的軟文就不得而知了。媒體對點擊量的高度依賴以及新聞編輯室的資金短缺,使這種現象變得不足為奇。
2024年的一項研究分析了50篇新聞文章,發現媒體報道往往未經批判地重復研究機構的宣傳,頻繁使用機器人的圖片,對AI進行擬人化描述,并淡化其局限性。這導致大眾普遍認為AI應該具有人型,像人類一樣有手有腳有思想。
炒作的背后:利益與認知偏見的結合
AI炒作現象的背后是多方利益的驅動和認知偏見的結合。
AI研究高度依賴企業資助。無論是硬件投入還是研究人員的時間成本,現代AI技術(如聊天機器人)的開發成本都極為高昂,這超出了大多數學術機構的承受范圍。越來越多的AI研發由企業牽頭或主導,依靠企業帶來充足的資源支持。如今,近3/4的AI博士選擇進入企業,而不是投身學術界,這一比例與20年前的僅1/4相比有了顯著增長。
認知偏見也使炒作更容易被接受。解釋深度錯覺使人們誤以為自己對復雜概念的理解比實際更深刻。光環效應讓我們傾向于基于少數幾個令人印象深刻的例子來評判一項技術。啟動效應意味著我們過去接觸過的某個概念會影響未來的決策。
當信息不斷被重復時,即便是誤導性的內容,也更容易被我們認為是真理,這種現象就是虛假真理效應。
不能加強監管嗎
每當有新技術形成潮流,都會有監管隨后跟上,在保護公眾利益方面發揮重要作用,對出現偏頗的方面進行亡羊補牢。在不同司法管轄區,監管AI的方式各不相同。在美國,AI監管采取垂直管理模式,由多個聯邦機構在特定領域進行監管。歐盟則提出了適用于多個行業的AI扁平化監管規則。中國采用了兩種方法相結合的第三種監管模式。
監管機構已經認識到許多預測式AI產品并沒有真正達到其宣傳的效果。2023年,美國聯邦貿易委員會警告企業:“我們尚未進入科幻小說的境地,計算機尚不能普遍對人類行為進行可靠預測。如果你的模型性能缺乏科學依據,或者僅適用于某些用戶類型或特定條件,那么這些說法可能是具有欺騙性的?!?/p>
然而,監管也面臨挑戰。在《AI萬金油:商業幻想與科技狂潮》一書中,作者講到監管部門的日子也有點“難過”。一方面,企業可能會試圖影響監管政策,使其更符合自身利益,這種現象被稱為“監管俘獲”。另一方面,有人認為過度監管可能會抑制AI創新并減少競爭。
京公網安備 11010802028547號