一些人工智慧專家5月30日發出可怕警告,認為人工智慧模型可能很快就會比人類更聰明、更強大,現在是施加限制以確保它們不會控制人類或毀滅世界的時候了。
一群科學家和科技行業領袖,在AI安全中心網站(Center for AI Safety)發表公開信,強調「減輕AI滅絕的風險,應該與疫情和核子戰爭等其他社會規模的風險,共同成為全球優先事項。」
超過350人簽署了這一聲明,簽署者表示,他們希望就AI最嚴重的風險展開討論。值得注意的是,開發ChatGPT的OpenAI執行長Sam Altman和其技術長Mira Murati都簽署了這份聲明。
其他簽署者包括微軟技術長Kevin Scott,Google AI高管Lila Ibrahim和Marian Rogers,以及前聯合國裁軍事務高級代表Angela Kane等人。
自OpenAI去年發布ChatGPT以來,批評人士加大了對AI進行監管的呼籲,認為這一技術對人類構成了無法估計的威脅。
在3月發表的一份獨立聲明中,技術高管和研究人員呼籲暫停訓練更強大的AI系統至少6個月,這一聲明現已有3萬多人簽署。
近幾個月來,隨著投資者押注他們認為的新計算時代,人工智慧概念股大幅上漲。特別是,開發AI技術的半導體公司NVIDIA成為首家估值達到1兆美元的晶片製造商。
拜登政府近幾個月表示,人工智慧對公共安全、隱私和民主構成威脅,但政府對其監管的權力有限。
本文獲「鉅亨網」授權轉載,原文:將AI的「滅絕風險」與核戰類比OpenAI創辦人領銜簽署聯名信呼籲監管
臉書粉絲專頁,請按此
延伸閱讀
▶AI愈來愈厲害,會搶走你我工作嗎?Google台灣董事總經理認為這件事才是關鍵
▶隔2年再度敲進,女股神搭AI熱潮買進台積電、Meta!其他相關持股曝光
▶輝達(NVIDIA)黃仁勳穿搭掀皮衣商機!一覽矽谷人氣執行長的爆紅「衣品」
小檔案_鉅亨網
anue鉅亨網1999年創立至今,不只是間財經新聞媒體,也是一間協助投資人決策的科技公司,我們陪伴許多台灣投資人成長,一直深受投資人信任。