美國《財富》雜志發表了一篇《薩姆·奧爾特曼和其他技術專家警告,人工智能構成“滅絕風險”,危險程度與疫情、核戰不相上下》的報道,全文摘編如下:
技術專家和計算機科學專家警告說,人工智能對人類生存構成的威脅與核戰爭和全球大流行病相比不相上下,就連替人工智能打頭陣的商界領袖也對這項技術威脅人類的生存發出了警告。
非營利研究機構人工智能安全中心30日發表了一份“關于人工智能風險的聲明”,在聲明上簽字的有300多人,開放人工智能研究中心的首席執行官薩姆·奧爾特曼也是其中一個。這封信雖然簡短,但它概括了人工智能的風險。信中說:“降低人工智能滅絕人類的風險以及降低流行病和核戰爭等其他影響全社會的風險,應該成為全球優先考慮的事項。”
這封信的開頭稱,這份聲明旨在就如何針對人工智能技術可能導致世界滅亡的能力做好準備“開啟討論”。其他簽名者包括前谷歌工程師杰弗里·欣頓和蒙特利爾大學計算機科學家約舒亞·本喬。由于這兩人對現代計算機科學的貢獻,他們被譽為人工智能教父。近幾周來,本喬和欣頓已多次就人工智能技術在不久的將來可能發展出何種危險能力發出警告。欣頓最近離開了谷歌,以便能夠更公開地討論人工智能的風險。
這不是第一封呼吁進一步關注先進人工智能研究在沒有政府更嚴格監管的情況下可能帶來何種災難性結果的信。今年3月,超過1000名技術專家以該技術具有破壞性的潛力為由,呼吁暫停研究先進人工智能6個月,埃隆·馬斯克也是其中之一。
奧爾特曼本月警告國會,隨著技術飛速發展,監管已經跟不上了。
與之前的那封信不一樣,奧爾特曼簽署的這份最新聲明沒有提出任何具體目標,只是呼吁展開討論。而欣頓本月早些時候在接受美國有線電視新聞網采訪時說,他沒有在3月份的那封信上簽字。
盡管包括開放人工智能研究中心甚至谷歌在內的頂尖人工智能研究機構的高管呼吁各國政府在監管人工智能方面盡快采取行動,但一些專家警告說,在當前的一些問題——包括虛假信息和可能存在的偏見——已經造成嚴重破壞的情況下,討論這項技術未來威脅人類生存的風險是適得其反的。還有人甚至認為,奧爾特曼等首席執行官借著公開討論人工智能的風險,實際上一直試圖轉移人們對該技術目前已存在問題的注意力。
但預言人工智能將帶來世界末日的人也警告說,這項技術發展得過快,以至于風險可能很快變成一個問題,是人力所不能及的。人們越來越擔心,能夠自我思考和思辨的超級人工智能成為現實的速度超乎許多人的預料。一些專家警告說,這項技術目前并不符合人類的利益和福祉。
欣頓本月在接受《華盛頓郵報》采訪時說,超級人工智能正在快速發展,現在可能只剩下20年的時間了,現在是時候就先進人工智能的風險進行對話了。
他說:“這并不是科幻小說。”
本文標題: 美媒:人工智能將擁有等同疫情、核戰的危險
本文地址: http://3824dh.com/brand/news-40uib86b8.html
內容均來源于網絡,錯誤糾正或刪除請發郵件,收件郵箱kefu@huangye88.com
2009-2024 黃頁88版權所有 京ICP備2023012932號-1 │ 京公網安備 11010802023561號 京ICP證100626
內容均來源于網絡,錯誤糾正或刪除請發郵件,收件郵箱kefu@huangye88.com