中文字幕理论片,69视频免费在线观看,亚洲成人app,国产1级毛片,刘涛最大尺度戏视频,欧美亚洲美女视频,2021韩国美女仙女屋vip视频

打開(kāi)APP
userphoto
未登錄

開(kāi)通VIP,暢享免費(fèi)電子書(shū)等14項(xiàng)超值服

開(kāi)通VIP
最新研究:超級(jí)人工智能,從理論上就無(wú)法控制

選自spectrum.ieee

作者:Charles Q. Choi

機(jī)器之心編譯

編輯:澤南、杜偉

計(jì)算的能力是有極限的,但因此,人類(lèi)無(wú)法控制超級(jí)人工智能。

近日,一項(xiàng)新的研究發(fā)現(xiàn),從理論上來(lái)看,人類(lèi)不可能控制超級(jí)人工智能。更為糟糕的是,這項(xiàng)研究也明確了人類(lèi)無(wú)法在這種 AI 生成之時(shí)發(fā)現(xiàn)它。

讓人稍稍感到安慰的是,根據(jù)不止一項(xiàng)預(yù)測(cè),任何通用超級(jí)計(jì)算機(jī)超越人類(lèi)的時(shí)間都會(huì)在數(shù)十年以后。

最近幾年,人工智能在國(guó)際象棋、圍棋、德州撲克、Jeopardy 等游戲上超越了人類(lèi),在 Dota2、星際爭(zhēng)霸游戲中和頂級(jí)玩家打得有來(lái)有回,時(shí)不時(shí)會(huì)引起一小陣恐慌,有人擔(dān)心超越人類(lèi)的機(jī)器智能會(huì)在某一天讓人們無(wú)所適從?!赣嘘P(guān)超級(jí)智能是否接受人類(lèi)控制的問(wèn)題其實(shí)很古老,」西班牙馬德里自治大學(xué)計(jì)算機(jī)科學(xué)家 Manuel Alfonseca 說(shuō)道,「這還得追溯到 20 世紀(jì) 40 年代的阿西莫夫的機(jī)器人三定律。」

與超級(jí)人工智能展開(kāi)任何形式的交流都是有風(fēng)險(xiǎn)的。

人們耳熟能詳?shù)臋C(jī)器人三定律,首先在科幻小說(shuō)家伊薩克 · 阿西莫夫在 1942 年的短篇小說(shuō)集《我,機(jī)器人》中被提出,規(guī)則如下:

機(jī)器人不得傷害人類(lèi),或坐視人類(lèi)受到傷害;

機(jī)器人必須服從人類(lèi)命令,除非命令與第一法則發(fā)生沖突;

在不違背第一或第二法則之下,機(jī)器人可以保護(hù)自己。

在 1985 年《機(jī)器人與帝國(guó)》書(shū)中,阿西莫夫?qū)⑷蠓▌t擴(kuò)張為四大法則:加入第零法則——機(jī)器人不得傷害整體人類(lèi),或坐視整體人類(lèi)受到傷害。

2014 年,牛津大學(xué)人類(lèi)未來(lái)研究所(Future of Humanity Institute )主任、哲學(xué)家 Nick Bostrom 不僅探索了超級(jí)人工智能破壞人類(lèi)的方式,還研究了針對(duì)這類(lèi)機(jī)器可能的控制策略以及它們無(wú)法奏效的原因。

Nick Bostrom。

Bostrom 列舉了這一「控制問(wèn)題」的兩種可能解決方案。一種是控制 AI 能做的事情,如阻止 AI 連接互聯(lián)網(wǎng);另一種是控制 AI 想做的事情,如教授 AI 規(guī)則和價(jià)值觀,使其秉持人類(lèi)利益最大的原則行動(dòng)。Bostrom 認(rèn)為,第一種解決方案存在的問(wèn)題是超級(jí)智能機(jī)器可能掙脫任何人類(lèi)施加給它的限制;第二種解決方案則擔(dān)心人類(lèi)可能沒(méi)有能力訓(xùn)練出超級(jí)人工智能。

計(jì)算固有的限制可能導(dǎo)致人類(lèi)無(wú)法控制超級(jí)人工智能

在本月初發(fā)表在 AI 領(lǐng)域頂級(jí)期刊《人工智能研究雜志》(JAIR)上的一篇文章中,馬德里自治大學(xué)、馬克斯 - 普朗克人類(lèi)發(fā)展研究所等機(jī)構(gòu)的研究者認(rèn)為,由于計(jì)算本身固有的基本限制,人類(lèi)可能無(wú)法控制超級(jí)人工智能。

他們表示,任何旨在確保超級(jí)人工智能無(wú)法傷害人類(lèi)的算法都必須首先模擬機(jī)器行為以預(yù)測(cè)其行動(dòng)的潛在后果。如果超級(jí)智能機(jī)器確實(shí)可能造成傷害,那么此類(lèi)抑制算法(containment algorithm)需要停止機(jī)器的運(yùn)行。

然而,科學(xué)家們認(rèn)為,任何抑制算法都不可能模擬 AI 的行為,也就無(wú)法百分之百地預(yù)測(cè) AI 的行為是否會(huì)造成傷害。抑制算法可能無(wú)法正確模擬 AI 的行為或準(zhǔn)確預(yù)測(cè) AI 行動(dòng)的后果,也就無(wú)法分辨出這些失敗。

論文地址:https://jair.org/index.php/jair/article/view/12202/26642

「阿西莫夫給出的第一定律實(shí)際上已被證明是無(wú)法計(jì)算的,」Alfonseca 說(shuō)道,「因而根本無(wú)法實(shí)現(xiàn)?!?/p>

我們甚至連自己是否已經(jīng)創(chuàng)造了超級(jí)智能機(jī)器都不知道——這是可計(jì)算理論中萊斯定理的一個(gè)推論,該定理指出遞歸可枚舉語(yǔ)言的所有非平凡(nontrival)性質(zhì)都是不可判定的。從本質(zhì)上來(lái)說(shuō),我們不能僅通過(guò)觀察程序本身,就知道程序可能會(huì)輸出什么。

當(dāng)然另一方面,我們還不需要為將來(lái)的機(jī)器人主宰提前做好服侍的準(zhǔn)備。在該研究中,有三個(gè)重要問(wèn)題給該論文的推論帶來(lái)了不確定性。

首先,Alfonseca 預(yù)計(jì)強(qiáng)人工智能的關(guān)鍵時(shí)刻還很遙遠(yuǎn),他說(shuō)道:「至少還有兩個(gè)世紀(jì)?!?/p>

其次,人們所說(shuō)的通用人工智能,或強(qiáng)人工智能在理論上是否可行,其實(shí)也是未知數(shù)。「這是指能像人類(lèi)一樣能夠處理多個(gè)領(lǐng)域任務(wù)的機(jī)器?!?/p>

最后,Alfonseca 說(shuō)道:「我們還沒(méi)有證明超級(jí)人工智能永遠(yuǎn)無(wú)法控制,我只是說(shuō)它們不能被永遠(yuǎn)控制。」

計(jì)算復(fù)雜性是阻止人類(lèi)控制強(qiáng)人工智能的重要原因。

盡管我們可能無(wú)法控制一個(gè)強(qiáng)人工智能體,但控制一個(gè)超越人類(lèi)水平的狹義 AI 是可行的——我們可以放心地依賴(lài)一些專(zhuān)注于某些功能,而非像人類(lèi)一樣可以執(zhí)行多種任務(wù)的機(jī)器人。「我們已經(jīng)擁有這種超級(jí)智能,」Alfonseca 說(shuō)道?!咐缥覀儞碛锌梢员热祟?lèi)速度快很多的計(jì)算機(jī)器。這也是一種狹義的超級(jí)智能?!?/p>

本站僅提供存儲(chǔ)服務(wù),所有內(nèi)容均由用戶(hù)發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊舉報(bào)。
打開(kāi)APP,閱讀全文并永久保存 查看更多類(lèi)似文章
猜你喜歡
類(lèi)似文章
BigThink強(qiáng)推:AI的十本必讀佳作
【科技專(zhuān)論】為什么頂尖科學(xué)家如此擔(dān)心人工智能?
展望人工智能的未來(lái)(續(xù))
專(zhuān)家稱(chēng)超級(jí)人工智能或在百年內(nèi)毀滅人類(lèi)
未來(lái)超級(jí)智能:小小的回形針能毀滅人類(lèi)?
《超級(jí)智能》作者談AI:人類(lèi)就像玩炸彈的小孩
更多類(lèi)似文章 >>
生活服務(wù)
熱點(diǎn)新聞
分享 收藏 導(dǎo)長(zhǎng)圖 關(guān)注 下載文章
綁定賬號(hào)成功
后續(xù)可登錄賬號(hào)暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點(diǎn)擊這里聯(lián)系客服!

聯(lián)系客服