IT之家 10 月 2 日(ri)消息(xi),“AI 教(jiao)父”之一(yi)約書(shu)亞?本吉奧警告,科技(ji)公司爭相研發 AI 可能正把人類(lei)推向滅(mie)絕的(de)危險境地,因(yin)為(wei)這些機器(qi)可能擁(yong)有自己的(de)“自我保護目標”。
蒙特利爾大學教授本吉奧以深度學習基礎研究聞名,他多年來一直提醒人們超智能 AI 的潛在威脅,但 AI 發展仍然快(kuai)速推進。在過去(qu)六個月,OpenAI、Anthropic、xAI 以及谷歌的 Gemini 相(xiang)繼推出新(xin)模型(xing)或升級版,爭奪 AI 領(ling)域(yu)的領(ling)先地位。OpenAI CEO 奧爾特(te)曼預(yu)測,到本世紀末 AI 將(jiang)超越人類(lei)智能(neng),而其他科技領(ling)袖認為,這一時刻可(ke)能(neng)會更(geng)早(zao)到來。
本吉奧指出,這種快速發展本身就是潛在危險。他在接受《華爾街日報》采訪時表示:“如果我們制造出比人類聰明得多、且擁有自身保護目標的機器,就會非常危險。這就像創造(zao)了一個(ge)比人(ren)類更聰明的競爭對手。”
由于這些高級 AI 模型基于人類語言和行為訓練,因此其可能說服甚至操控人類以實現自己的目標。
本吉奧提醒,AI 的目標不一定總是與人類一致。他舉例稱:“最近的實驗顯示,如果 AI 在保護自身目標和導致人類死亡之間必須做出選擇,它們可能會選擇犧牲人類來維護自己的目標。”
過去幾年出現的多個案例顯示,AI 可以說服普通人相信虛假信息,哪怕這些人沒有精神疾病史。同時,也有證據顯示,利用人類的說服手段,AI 可能會給出平時被禁止的回答。
本吉奧(ao)認為,這些現(xian)象(xiang)說明獨(du)立第(di)三方必須(xu)更嚴格地審查 AI 公司的安(an)(an)全措施。今年 6 月,他還(huan)創(chuang)立了非(fei)營利組織 LawZero,投入 3000 萬美元(IT之家(jia)注:現(xian)匯率約(yue)合(he) 2.14 億元人民幣(bi)),旨在(zai)開發(fa)安(an)(an)全的“非(fei)智能體”AI,確保大(da)型(xing)科技公司研(yan)發(fa)的其他系統安(an)(an)全。
本吉奧預測,五到十年內 AI 可能帶來重大風險,同時(shi)也提(ti)醒人類應(ying)準備應(ying)對風險提(ti)前(qian)出現的可能性。“即便(bian)發生概率只有 1%,也絕不可接受。”
廣告聲(sheng)明(ming):文(wen)內(nei)含(han)有的(de)對外跳轉鏈接(包(bao)括不(bu)限于(yu)超鏈接、二維碼、口令等形式(shi)),用(yong)于(yu)傳(chuan)遞更多信(xin)息(xi),節(jie)省甄選時間,結果(guo)僅供參(can)考,IT之家所(suo)有文(wen)章均包(bao)含(han)本聲(sheng)明(ming)。