在硅谷的實(shí)驗(yàn)室中可能正醞釀著一場深刻的危機(jī),這就是人工智能,表面上看這似乎是一種有益的智能技術(shù),但一旦站穩(wěn)腳跟,這種技術(shù)在未來可能會造成人類的終結(jié)。 |
科學(xué)探索 來源:新浪科技
霍金警告稱人工智能最終或許將威脅人類的生存,他說:成功制造出一臺人工智能機(jī)器人將是人類歷史上的里程碑。但不幸的是,它也可能會成為我們歷史上最后的一個里程碑
霍金對約翰尼·德普的最新電影《超驗(yàn)駭客》進(jìn)行了評論,認(rèn)為忽視電影中所設(shè)想的可能性將是人類犯下最大的錯誤
在短期和中期的時間尺度上,可以看到世界各國都在努力開發(fā)自動武器系統(tǒng),而與此同時聯(lián)合國卻正致力于禁止這類武器的應(yīng)用
北京時間5月5日消息,據(jù)國外媒體報道,在硅谷的實(shí)驗(yàn)室中可能正醞釀著一場深刻的危機(jī),這就是人工智能,表面上看這似乎是一種有益的智能技術(shù),但一旦站穩(wěn)腳跟,這種技術(shù)在未來可能會造成人類的終結(jié)。
這是近期著名物理學(xué)家史蒂芬·霍金發(fā)出的一項(xiàng)嚴(yán)肅的警告,他警告稱人類正面臨來自智能技術(shù)的威脅,隨著技術(shù)體自身開始學(xué)會自我思考,并學(xué)會適應(yīng)環(huán)境,我們?nèi)祟悓⒚鎸Σ淮_定的未來。
在《獨(dú)立報》上發(fā)表的一篇文章中,這名物理學(xué)家對約翰尼·德普(Jonny Depp)的最新電影《超驗(yàn)駭客》進(jìn)行了評論。這部電影主要探討的是未來計算機(jī)的能力超越人類之后發(fā)生的種種可能性。霍金教授稱僅僅將這部電影中所描繪的情景以科幻為理由而不引起重視將是人類在歷史上犯下的最大錯誤。
霍金表示,智能電子助手如Siri,Google Now,以及Cortana等都僅僅是一個開端,在將來將會出現(xiàn)的技術(shù)面前這些都將顯得蒼白無力。不過霍金也承認(rèn)這類電子技術(shù)的發(fā)展也將對人類產(chǎn)生助益,甚至可以幫助根絕戰(zhàn)爭,疾病以及貧困。
他表示:“成功制造出一臺人工智能機(jī)器人將是人類歷史上的里程碑。但不幸的是,它也可能會成為我們歷史上最后的一個里程碑,除非我們能學(xué)會如何去規(guī)避這種風(fēng)險?!?/p>
在短期和中期的時間尺度上,可以看到世界各國都在努力開發(fā)自動武器系統(tǒng),而與此同時聯(lián)合國卻正致力于禁止這類武器的應(yīng)用?;艚鸨硎荆骸叭绻M(jìn)一步向前看,技術(shù)幾乎是沒有極限的?!彼f:“物理學(xué)上并沒有定律來限制粒子的排布方式,使其無法達(dá)到較之人腦更加高級的方式。”
事實(shí)上,IBM公司已經(jīng)開發(fā)出一些智能芯片,為構(gòu)建模擬人腦感知,運(yùn)行乃至思維能力的智能網(wǎng)絡(luò)鋪平了道路。有朝一日,科學(xué)家們將可能開發(fā)出一臺擁有比人類大腦更加先進(jìn)的智能系統(tǒng)控制的機(jī)器?;艚鸨硎荆骸皳碛谐壌竽X的機(jī)器將能夠不斷進(jìn)行自我改進(jìn),從而不斷提升自身的能力?!?/p>
霍金指出,專家們目前尚未為這樣的情況做好準(zhǔn)備。他還舉了個例子作為對比,他說假如外星人告訴我們說他們將會在未來數(shù)十年內(nèi)抵達(dá)地球,那么我想我們的科學(xué)家們現(xiàn)在就絕對不會干坐著不動。他說:“盡管我們可能正面臨人類歷史上最好或是最壞的時代,但如果做一些嚴(yán)肅的研究或許將會有所幫助。我們所有人都應(yīng)該問問自己我們應(yīng)該做些什么才能最終趨利避害?!?/p>
聯(lián)系客服