中文字幕理论片,69视频免费在线观看,亚洲成人app,国产1级毛片,刘涛最大尺度戏视频,欧美亚洲美女视频,2021韩国美女仙女屋vip视频

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
就目前而言,人工智能還算不上什么威脅

編者按:近年來,人工智能這個話題大熱。一些科幻電影中,人工智能的發(fā)展最終無法抑制,成為了人類文明的終結(jié)者。一些大牛們,如比爾蓋茨、霍金,都對人工智能的發(fā)展提出了警告;不過也有人認(rèn)為,人工智能在現(xiàn)在階段并不是什么威脅。且看這篇文章的論點。

2014年,SpaceX的CEO Elon Musk發(fā)推說:“Bostrom的《超級智慧(Superintelligence)》非常值得一讀。對待AI,我們需要小心翼翼?!?同年,劍橋大學(xué)的宇宙學(xué)家史蒂芬·霍金(Stephen Hawking)在接受BBC的訪問時說:“完全的人工智能(full artificial intelligence)的發(fā)展可能會導(dǎo)致人類的終結(jié)。” 微軟聯(lián)合創(chuàng)始人比爾·蓋茨(Bill Gates)也警告說:“關(guān)于AI,我持謹(jǐn)慎懷疑態(tài)度。”

關(guān)于AI帶來的世界末日將如何展開,計算機科學(xué)家Eliezer Yudkowsky在2008年發(fā)表的《全球災(zāi)難風(fēng)險(Global Catastrophic Risks)》中提出:AI在未來從單細胞生物發(fā)展到人類智力水平的可能性有多大呢?他回答道:“形成一個物理意義上的大腦是可能的,其計算的速度是人類大腦的一百萬倍....如果人腦因此而加速,主觀上一年的思考將在31秒內(nèi)就完成了,一千年將在八個半小時內(nèi)就過去了?!?Yudkowsky認(rèn)為,如果我們不這么做就太晚了:“人工智能所運行的時間維度與我們不同,當(dāng)你的神經(jīng)元完成思考說‘我應(yīng)該做這件事情’時,你已經(jīng)錯過時機了?!?/p>

牛津大學(xué)哲學(xué)家尼克·博斯特羅姆(Nick Bostrom)在他的《超級智慧(Superintelligence)》中提出所謂的回形針最大化的思想實驗:一個AI被設(shè)計來制造回形針,并且在耗盡其最初的原材料供應(yīng)之后,它將利用在其可達范圍內(nèi)的任何可用原子,包括人類。正如他在2003年的一篇論文中所描述的那樣,從那時開始“首先轉(zhuǎn)化整個地球,為回形針制造設(shè)施增加空間”。短時間內(nèi),整個宇宙都由回形針和回形針制造器組成。

對此,我表示懷疑。首先,所有這樣的末日情景都涉及一長串的“如果-那么(if-then)”意外事件,在任何點的失敗都會推到所謂的世界末日。西英格蘭布里斯托大學(xué)的電氣工程教授艾倫·溫菲爾德(Alan Winfield)在2014年的一篇文章中這樣說:“如果我們成功地構(gòu)建與人類相同的AI,如果AI對它如何工作有著充分理解,如果它成功地改善自身成為超智能AI,如果這個超級AI意外或惡意地開始消耗資源,如果我們不能拔插頭斷電,那么,是的,我們可能有問題。這種危險,不是不可能,是不太可能發(fā)生?!?/p>

第二,如果按照時間段來檢查的話,會發(fā)現(xiàn)人工智能的發(fā)展遠低于預(yù)期。正如Google執(zhí)行主席埃里克·施密特(Eric Schmidt)在回應(yīng)馬斯克(Musk)和霍金(Hawking)時所說:“你認(rèn)為人類不會注意到這種情況嗎?你認(rèn)為人類不會關(guān)閉這些電腦嗎?”谷歌自己的DeepMind開發(fā)了一個AI關(guān)閉開關(guān)的概念,被戲稱為“大紅色按鈕“,可以用來接管AI。正如百度副總裁吳安民(Andrew Ng)所說的那樣(回應(yīng)Musk),“這就像是我們甚至還沒有踏上火星,就在擔(dān)心火星上會人口過剩?!?/p>

第三,AI的末日情景通?;谧匀恢悄芎腿斯ぶ悄苤g的錯誤對比。哈佛大學(xué)實驗心理學(xué)家Steven Pinker在對2015年Edge.org年度問題“你對機器思考有什么看法”的回答中闡明:“AI 反烏托邦項目將一個狹隘的阿爾法男性心理學(xué)投射到智力概念上。他們認(rèn)為,超人類的智能機器人將‘放棄他們的主人或接管世界’作為自己的發(fā)展目標(biāo)?!蓖瑯拥?,Pinker說道,“人工智能將沿著雌系自然發(fā)展——能夠完全解決問題,但不會想要消滅無辜或支配文明?!?/p>

第四,暗示計算機將“想要”做某事(例如將世界變成回形針)就等同于AI有情感。正如科學(xué)作家Michael Chorost所言:“AI真的想要做某事時,它將會生活在一個有獎勵和懲罰的宇宙中,這其中就包括來自我們對不良行為的懲罰?!?/p>

鑒于歷史上對世界末日的幾乎為0的預(yù)測率,加上人工智能在幾十年來緩慢發(fā)展,我們有足夠的時間建立故障安全系統(tǒng),防止任何這樣的人工智能所帶來的世界末日。

翻譯來自:蟲洞翻翻   譯者ID:YLS  編輯:郝鵬程

本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊舉報。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
未來超級智能:小小的回形針能毀滅人類?
霍金6大末日預(yù)言!人類的第七次滅亡將毀在自己創(chuàng)造的AI上面!
馬斯克:人工智能最早將于2030年取代人類
霍金警告:人工智能或令人類滅絕
人工智能“末日博士”:人類該如何避免給AI下跪
一場關(guān)于人工智能風(fēng)險的爭議
更多類似文章 >>
生活服務(wù)
熱點新聞
分享 收藏 導(dǎo)長圖 關(guān)注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服