科技云報道原創(chuàng)。
“如果你不擔(dān)心人工智能的安全性,那么現(xiàn)在你應(yīng)該擔(dān)心。它比朝鮮核武器危險得多?!苯振R斯克在Twitter上稱。
特斯拉CEO埃隆·馬斯克近日就人工智能發(fā)出新的警告,稱這種技術(shù)對人類的威脅比朝鮮核武器還要大。作為“AI威脅論”的擁躉者,馬斯克曾將開發(fā)人工智能比作是恐怖電影中的“召喚惡魔”行為。
這已不是他第一次發(fā)出警告,早在2014年,馬斯克就在麻省理工學(xué)院的一次公開訪談中拋出了“AI威脅論”,今年7月15日美國州長夏令會議中,他對人工智能提出警告,認(rèn)為AI將能夠遞歸性地改進自己,也就是應(yīng)用程序自我調(diào)整,直到它將報廢人類:“我一直在敲警鐘,但是直到人們看到機器人走下街頭殺人,他們不知道如何反應(yīng),因為這似乎是如此飄渺?!?/p>
定義人工智能發(fā)展邊界 OpenAI打造AGI安全框架
馬斯克所談的人工智能的危險,是挑戰(zhàn)人類智能水平的“通用人工智能”,可以發(fā)展出摧毀性的邪惡智能,即使研發(fā)者有很好的意圖,但仍然“偶然地產(chǎn)生一些邪惡的東西”, 包括可能“能夠摧毀人類的人造智能增強型機器人”。
為了控制人工智能的發(fā)展邊界,包括馬斯克、PayPal創(chuàng)始人彼得·蒂爾在內(nèi)的硅谷達人,在2015年承諾投入10億美金創(chuàng)立OpenAI非盈利平臺。
該平臺的使命是:建立安全的通用人工智能(AGI),并確保AGI優(yōu)勢盡可能廣泛和均勻地分布。在這個過程中,OpenAI不會將私人信息私有化,期望在有安全隱患的情況下,創(chuàng)造出保持技術(shù)私有化的正式流程。
最近,OpenAI宣布,他們所打造的一個AI機器人通過完全自學(xué)習(xí)訓(xùn)練,已經(jīng)在電子競技游戲Dota2中擊敗了一個名為Dendi的人類職業(yè)玩家。
未來,人工智能的發(fā)展注定要與當(dāng)代科技的演變脫節(jié),人工智能涉及眾多的相關(guān)領(lǐng)域,從大數(shù)據(jù)、云計算、深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)、心理學(xué)、機器人、語言識別、圖像識別、到自然語言處理等等,當(dāng)眾多領(lǐng)域都同時經(jīng)歷爆發(fā)式的突破,在某種程度上將加速科技研究的裂變。
人類患上“人工智能恐懼癥” 源自內(nèi)心的“惡”
人工智能分為弱人工智能、強人工智能、超人工智能三種,它們本身是循序漸進的發(fā)展過程。
在馬斯克、霍金和蓋茨這些悲觀派眼中,強人工智能尚有一定可控性,但超人工智能的不可預(yù)知性則是令人害怕的地方。
HAL9000、終結(jié)者等小說中各種超級智能代表著人類的另一重恐懼:如果AI繼續(xù)發(fā)展、最終超越人類智能,這樣的超級智能系統(tǒng)是否會意識到人類已經(jīng)無關(guān)緊要了呢?超級智能真的會導(dǎo)致人類的“終結(jié)”嗎?
對于人工智能發(fā)展控制的需求,與其說是其強大后對人類“反叛”的焦慮,倒不如說是人類對于科技發(fā)展后,人類心理所潛在的“惡”的恐懼。
人類總會糾結(jié)于有一天,具有自主意識的人工智能會反抗他們的“人類”造物主,他們會用超越人類的能力將人類趕盡殺絕。而這反映出的,只是人類對自身內(nèi)心深處那一股“惡”力量的不可控。
所以,一旦有人感覺到人工智能的發(fā)展速度超越了他們的可控范疇,那么心中的焦慮和悲觀情緒便油然而生。從本質(zhì)上講,真正的威脅并不是來源于人工智能的威脅,而是來源于人類自身。
如果有一天,人類真的被人工智能所“終結(jié)”,那么真正的罪魁禍?zhǔn)妆貙⒁彩侨祟愖约旱淖运?、貪婪與邪惡,人工智能充其量只是一種工具和手段。
很多人在探討人工智能未來的時候,仍忍不住流露出對人類命運的終極關(guān)懷:人類的命運是否會被機器人奴役?這是人類終極命運的“天問”,還是杞人憂天?目前尚無標(biāo)準(zhǔn)答案。我們知道的是,AI依然局限在“機器學(xué)習(xí)”的框架內(nèi),大數(shù)據(jù)的控制使得人類對于AI還有比較強大的制衡能力。與其夙夜無眠,不如趁早動手,找到人工智能的發(fā)展和道德邊界,讓AI真正成為人類探索未知世界的有效工具。
【科技云報道原創(chuàng)】
聯(lián)系客服