AI崛起之后,會毀滅人類嗎?如果會的話,它又會以怎樣的方式毀滅人類呢?關于這點,很多人都在擔心,因為好萊塢早就預言過,AI都不是什么好東西。不管是終結者里的天網,還是黑客帝國里的矩陣,又或是西部世界里的Host,總之,它們不是要滅亡人類就是要圈養人類,再次再次,也要跟人類平起平坐。這你受得了嗎!
所以在看到過去幾個月里,人工智能的突飛猛進之后,很多大咖都急了,表示要是我們再不加限制的開發AI,一個恐怖的將來就一定會在不遠處等著我們。這里面喊聲最大的一個,大概就要數埃隆馬斯克了,看來,他真的很討厭AI呀。
那么問題就來了,當你很討厭一樣東西,又拿它沒辦法的時候,該怎么做呢?埃隆馬斯克給我們上了很好的一課,那就是——用另一個AI去干掉自己討厭的這個AI。
好吧,所以本質上,他只是不放心別人開發的AI而已。
就在最近,埃隆馬斯克正式推出了一家名為xAI的人工智能公司, 雖然目前我們對該公司的雄心壯志了解甚少,但馬斯克在Twitter Spaces活動中表示,他希望他的人工智能能夠“理解宇宙的真實本質”。
為什么讓人工智能理解宇宙的本質那么重要,因為馬斯克認為——如果AI理解了宇宙的真實本質,它就會明白,人類其實會比非人類有趣太多了,于是基于這點,它自然就會站在人類的一邊,成為一個對人類來說安全的AI了。呃......這個邏輯......通嗎?
好吧,希望它通,因為如果不通,人類的未來在AI面前,可能的確會比較黯淡。我最近正好看了一篇文章,標題就叫做《人工智能傷害我們的最危險、最令人意外和最讓人討厭的六種方式》,文章的作者在采訪了大量相關領域的專家和從業者后,得出結論——雖然AI可能并不會像好萊塢宇宙中表現的那么邪惡,但是它依然會給我們制造大量的噩夢,其中有六個,已經到了讓人夜不能寐的程度,下面,我就來分享一下。
但事先說明,由于作者和他訪談的對象都是國外的,所以其中舉的案例也基本都是國外的,可能跟我們的情況會略有不同,大家如果有不同的意見或者補充,正好可以在留言區討論討論。下面,噩夢就來了。
噩夢一,叫做數據分身的詛咒。2011年,美國密歇根州州長批準了一筆資金,讓密歇根失業保險局開發一個新的算法,目的是要讓該算法能夠智能的檢測保險欺詐。
保險局與三家不同的軟件開發公司合作,于2013年推出了密歇根集成數據自動化系統(MiDAS)。盡管該局從未透露算法從哪里收集數據,但隨后的訴訟表明,它可能從雇主提供的失業數據集中收集了不準確的細節。因為在接下來的兩年里,MiDAS錯誤地指控了4萬多人欺詐,并通過各種方式迫使他們支付了高額的罰款。
但這還不算最糟糕的,一旦MiDAS在數據庫中錯誤地將成千上萬的無辜者標記為騙子,其他使用該數據庫進行背景調查的機構就會重復這些錯誤信息。于是,有些被指控者便無法找到工作,有些則無法再領取失業救濟金。而這其中最絕望的一點是,當這些人突然被當成是罪犯來對待時,他們根本就想不明白這是為什么?到底背后發什么什么?直到,有缺陷的算法被曝光之后,他們才用集體訴訟的方式為自己討回了公道。
好,你以為這就完了嗎?不,噩夢還沒走,甚至,它這一輩子都走不掉了。倫理組織AI Now的主席梅雷迪斯·惠特克將MiDAS創造出來的與真實人物有偏差的在線版本稱為“數據分身”。它們的功能很像被盜用的身份,一旦建立起來,就幾乎無法刪除。因為我們的很多數據都被重新打包并出售給第三方,所以一個由人工智能創造出來的數據分身可能會從你的保險記錄里消失,但又會出現在你的銀行記錄、學校錄取或工作背景調查中。由于許多數據庫是集中式的,所以一個數據分身可能會在你的一生中跟隨你許多年。
惠特克說:“這些系統正在生成沒有人給予它們的虛假個人數據,而它們正變得越來越比真相更真實。這一定會影響我們的生活。”
接著,是噩夢二,它叫做“萬歲,隨機鸚鵡”。
鸚鵡學舌我們都知道,要是訓練的好,你完全可以跟一只鸚鵡展開看似正常的對話——它可以跟你問好、可以跟你打招呼、甚至,還能跟你對罵幾句——盡管,它可能根本就不知道這些語言的含義。
誒,對比一下,GPT之所以厲害,之所以它說的話看起來像是人說的,不就是因為我們用了大量人類的語言去訓練它的結果嗎。但是,它真的就明白這些語言背后的真實含義嗎?不見得。
華盛頓大學社會未來實驗室的負責人艾米·張說,她最擔心的就是AI胡說八道的傾向。很多通過ChatGPT或是其他類似的,能夠寫出大段句子甚至整篇文章的AI說出來的東西,咋聽起來非常合理,但你仔細一想,就會發現錯得是相當離譜。
她舉了個例子,在一次科學作家蓋瑞·馬庫斯與ChatGPT的對話中,后者建議到,將瓷器粉加入母乳有好處,因為——瓷器粉可以幫助平衡母乳的營養成分,為嬰兒提供生長和發育所需的營養。是不是的相當的荒謬。
研究人員稱這種現象為“隨機鸚鵡”問題: 當計算機以混亂的方式復制聽起來像是人類的短語時,這種問題就會發生。艾米介紹,隨機鸚鵡可能會在互聯網上散播大量錯誤信息,從而造成一場堪稱核災難級別的垃圾信息泛濫。AI生成內容的擴散將使得在一片垃圾信息中找到高質量信息變得更加困難。最終,我們必然面臨一個完全被隨機鸚鵡信息取代了人類生成文字的世界。到那個時候,除了垃圾,還剩什么呢?隨機鸚鵡,真的是萬歲了。
噩夢三,AI學會了偏見。當我們現在為AI能做的很多事感到興奮不已,并本能的認為這是一個全新開啟的時代時。其實,你要知道,大多數的人工智能實際上是建立在一些能追溯到上個世紀80年代的“破舊系統”之上的。所以可以這么說:AI不是什么新技術,新的,只不過是我們現在擁有的大量數據和計算能力。
這會帶來什么問題?這會帶來算法通過學習按照舊有標準分類的數據,從而得出偏離了真相的結果。比如AI在警務平臺上的使用。 上個世紀90年代,洛杉磯警察使用一個奇怪的縮寫詞“NHI”來指代涉及黑人和其他少數族裔的事件。NHI到底是什么意思呢?后來通過調查才知道,它是“沒有涉及人類 no humans involved”的縮寫。
這就相當歧視了,意思就是在洛杉磯警察的眼里黑人和少數族裔都不是人唄。顯然,這個縮寫很快就被刪除。但是,就像我們上面講到的一樣,數據分身是很難被徹底抹掉的。在用可能含有這個縮寫的數據去訓練AI的過程中,AI也許就會錯誤的學習到某些人比其他人不那么有價值——等于是把歧視和偏見也學了下來。
這也是多年來人工智能專家一直在警告的,一些警務算法是根據有偏見的數據進行訓練的,于是很容易就將黑人與犯罪畫上了等號。通常,這些算法會“學習”誰更可能犯罪,這是基于逮捕和監禁的歷史數據,而其中黑人美國人由于曾經被不公平地定位為目標,就導致了他們在這些數據中占據了錯誤的高比例。
隨著人臉識別越來越多地被集成到智能監控攝像頭中,這個問題將變得更加嚴重。因為當一個超市試圖安裝這樣的智能攝像頭,來將顧客的臉與之前涉嫌偷竊的人匹配,從而警告保安人員時。錯誤訓練的AI很有可能會將亂指無辜,既傷害了顧客的權利,也削弱了商場的信譽,可謂極具危害性。
噩夢四,AI教我打仗。想象這么一個場景,在未來的戰場上,一個軍事指揮官正在與恐怖分子作戰,硝煙籠罩,他需要同時處理數百個關于發生了什么的相互矛盾的情報,并迅速做出一個可能會造成不同傷亡的決策。那么,他應該怎么做呢?
合理的推測是,依靠AI。
美國國防高級研究計劃局(DARPA)已經開始啟動一個名為ITM(In The Moment)的項目,旨在設計一個可以幫助做出關于戰場傷亡的復雜決策的算法。所以,在可以預見的未來,將會有更多算法會基于歷史沖突的數據來幫它做出決策。
但是,這些歷史沖突的數據就真的那么可靠嗎?如果這個未來的指揮官在歐洲,卻使用了基于阿富汗戰爭的數據所訓練出來的AI呢?
你想,在阿富汗作戰的方式,它也許并不適合放在歐洲嘛,那么這樣的AI所做出的決策就勢必產生了偏差。最慘的,你即使知道有這個偏差,也很難去修正,因為它本質上,是個“黑箱”問題。對于構成我們算法基礎的神經網絡,我們可以看到的只有數據的輸入和輸出,而并不知道里面到底發生了什么。
比如我們現在在訓練AI下棋時就會發生這種情況。AI贏了,是因為它想出了人類在數千年的下棋過程中從未想象過的棋步。可為什么它能這么想?它在想的過程中加入了什么、放棄了什么?這么做會帶來其他后果嗎?等等這些,我們是既看不到也無法理解,這就帶來了很多巨大的風險。
比如,在未來的某個時刻,當作戰指揮官問一隊由AI控制的無人機下一步該怎么做時,它們可能會制定出一種對指揮官而言毫無意義的策略——轟炸所有戴黃帽子的人。聽上去很荒謬吧?但是指揮官不得不相信它,因為它是通過對情報的大量分析后,才得出的這一判斷——恐怖分子都在暗中編織黃色的帽子。但是,萬一它是犯了一個錯,把織毛線帽的無辜大媽標記成了恐怖分子呢?指揮官在做出決定之前是根本不會知道的,而當他知道的時候,一切都已經太晚了。
噩夢五, 你的大腦植入物不會讓你頂嘴。最終,我們一定會邀請算法進入我們的身體。多倫多大學的研究人員已經設計了可以植入到人腦中的增強型AI芯片,幫助罹患帕金森病的患者。當然,我們還有其他的腦植入物,可以幫助癱瘓的人用意念控制鼠標和鍵盤。
聽起來很安全,對吧?但是,等到心電感應、用想一想就能給其他人發送信息的時候,情況就會發生變化了。由于像微軟這樣的公司會為文本加上預測算法,通過該算法來幫助你更快的完成你想要的句子。可它在另一方面,也既能阻止你講臟話,還能改變你可能想講的話。也許在一個不那么光明的未來,它會阻止你批評某個公司或者組織,甚至連一個有點創造性的提議都不會讓你發出來。
最后,噩夢六,跨越了維度的麻煩。在噩夢二里面,隨機鸚鵡還只存在于你的瀏覽器里,但是,當它跨出網絡開始控制你的汽車時會發生什么?這就是華盛頓大學法學教授瑞安·卡羅最關心的。他指出,人工智能與重要系統之間的意外互動,可能會帶來難以想象的后果。
其中一個系統可能就是你所在的智能城市。在那里,算法將控制從電網分配到交通流量等一切事情。想象一下,那些通過鸚鵡學舌自動產生了某些毫無意義的垃圾的算法,此刻可能正在控制著橋梁、控制著你所在建筑物的空調系統,或者,控制著你的自動駕駛車輛穿過擁擠的市區......難道不令人恐懼嗎!
其實一些奇怪、或者說可怕的相互作用已經出現了。比如,之前就有一群自動駕駛汽車,毫無緣由的阻塞了舊金山數小時的交通。這還不是最差的,還記得我上面說的黑箱問題嗎?在這里,黑箱問題也導致了人類既不能理解也不能修復的一些奇怪的交通行為。比方說,一個由AI控制的電網和交通系統,該如何應對一場突發而來的抗議或者慶祝活動呢?
本文標題: AI人工智能會毀滅人類嗎?可能的方式有哪些?
本文地址: http://3824dh.com/brand/news-6130mcf745.html
內容均來源于網絡,錯誤糾正或刪除請發郵件,收件郵箱kefu@huangye88.com
2009-2024 黃頁88版權所有 京ICP備2023012932號-1 │ 京公網安備 11010802023561號 京ICP證100626
內容均來源于網絡,錯誤糾正或刪除請發郵件,收件郵箱kefu@huangye88.com