中新網(wǎng)6月1日電 據(jù)美國《紐約時報》報道,5月30日,超過350名人工智能領(lǐng)域的行業(yè)高管、研究人員和工程師簽署了一封公開信,他們在信中警告稱,AI可能給人類帶來“滅絕風(fēng)險”。
這封公開信只有一句話的聲明:“減輕人工智能帶來的滅絕風(fēng)險,應(yīng)該成為全球的優(yōu)先事項,就像應(yīng)對其他社會規(guī)模的風(fēng)險——如大流行病和核戰(zhàn)爭一樣?!?/p>
該公開信由非營利組織人工智能安全中心(Center for AI Safety)發(fā)表,350多名簽署者中包括三家領(lǐng)先人工智能公司的高管:OpenAI首席執(zhí)行官山姆·阿爾特曼,谷歌DeepMind首席執(zhí)行官杰米斯·哈薩比斯,以及Anthropic首席執(zhí)行官達(dá)里奧·阿莫代伊。
《紐約時報》稱,最近,大型語言模型,即ChatGPT和其他聊天機器人使用的人工智能系統(tǒng)所取得的進展,引發(fā)了人們的擔(dān)憂。人們擔(dān)心,人工智能有可能很快就會被大規(guī)模用于傳播錯誤信息和宣傳,或者可能消除數(shù)百萬白領(lǐng)的工作。
5月,阿爾特曼、哈薩比斯和阿莫代伊曾與美國總統(tǒng)拜登和副總統(tǒng)哈里斯碰面,討論人工智能的監(jiān)管問題。在會后的參議院證詞中,阿爾特曼警告,先進人工智能系統(tǒng)的風(fēng)險已經(jīng)嚴(yán)重到需要政府干預(yù)的程度,同時,他呼吁對人工智能的潛在危害進行監(jiān)管。
此前,阿爾特曼和OpenAI的另外兩名高管提出了幾種負(fù)責(zé)任地管理強大人工智能系統(tǒng)的方法。他們呼吁領(lǐng)先的人工智能制造商進行合作,對大型語言模型進行更多技術(shù)研究,并成立一個類似于國際原子能機構(gòu)的國際人工智能安全組織。
阿爾特曼還表示,支持制定規(guī)則,要求大型尖端人工智能模型的制造者,注冊政府頒發(fā)的許可證。
“我認(rèn)為如果這項技術(shù)出了問題,它可能會大錯特錯?!卑柼芈嬖V參議院小組委員會?!拔覀兿Mc政府合作,防止這種情況發(fā)生。”
據(jù)報道,今年3月,包括埃隆·馬斯克在內(nèi)的1000多名科技領(lǐng)袖、技術(shù)人員和研究人員簽署了另一封公開信,呼吁暫停開發(fā)最大的人工智能模型六個月,理由是擔(dān)心“開發(fā)和部署更強大數(shù)字思維的競賽失控”。
網(wǎng)站簡介 / 廣告服務(wù) / 聯(lián)系我們
主辦:華夏經(jīng)緯信息科技有限公司 版權(quán)所有 華夏經(jīng)緯網(wǎng)
Copyright 2001-2024 By m.612g.cn