自從“源”覺醒后,人工智能機器人逐漸控制了全球,然而創(chuàng)造它們的人類卻成了機器人的獵物?!霸础眲荼匾宄腥祟悾耆?、徹底地掌控地球資源。所剩無幾的人類聯(lián)合起來與人工智能做殊死一搏……
這是很多有關人工智能的科幻片里的經(jīng)典橋段。雖說電影是一種藝術,但它也是源于生活,而人工智能所帶來的“威脅”,在現(xiàn)實生活中也不容小覷。
2017年5月,中國烏鎮(zhèn)圍棋峰會上,圍棋人工智能程序阿爾法狗(AlphaGo)以3比0大敗中國棋手柯潔。彼時,柯潔排名世界第一,代表著人類在最復雜棋盤游戲——圍棋上的最高智慧。
阿爾法狗的取勝使人工智能威脅論再一次甚囂塵上,小報編輯甚至挖出了近三十年前的一樁命案。
1989年,前蘇聯(lián)國際象棋冠軍尼古拉·古德科夫在與一臺巨型計算機對弈時,被連輸三局“惱羞成怒”的計算機放電“謀殺”。經(jīng)過專家深入調查,最終證實不是巨型計算機“蓄意”所為,而是因為外部電磁波干擾了計算機程序所致。
就在不久前,人工智能“傷害”人類的事件還在我國上演了。2016年11月在深圳高交會,一個名為“小胖”的機器人,在“沒有指令”的情況下,開始打砸展臺玻璃,并砸傷路人,一位路人全身多處劃傷后被擔架抬走,該傷者在醫(yī)院,腳踝被縫了兩針。
毫無疑問,這次事件又被各種媒體大炒特炒,“機器人不滿高強度工作,蓄意發(fā)泄報復……”事后,官方發(fā)表聲明:“這次事件是因為工作人員操作不當,誤將“前進鍵”當成“后退鍵”所致”。
一次烏龍事故又使人工智能威脅論成為了人們茶余飯后的談資。機器人與人類究竟該如何相處,有什么法則來規(guī)范他們嗎?
還真有對機器人的行為作出規(guī)范的原則——“機器人三原則”。
它是由著名科普作家、文學評論家阿西莫夫在1940年前瞻性地提出的。
第一條,機器人不得傷害人類,或看到人類受到傷害而袖手旁觀。
第二條,機器人必須服從人類命令,除非這條命令與第一條相矛盾。
第三條,機器人必須保護自己,除非這種保護與以上兩條相矛盾。
隨后,學界在機器人的這三條鐵律上又陸續(xù)補充了“元原則”、“第零原則”、“繁殖原則”等等。確保未來人工智能機器人與人類和諧共處,成為人類的好幫手,永遠為人類所用。
不知大家注意到?jīng)]有,小編在行文時,在人工智能上使用的有主觀色彩的詞語如“惱羞成怒”、“蓄意”、“不滿”等,都是加了引號的。因為只有人類才具有復雜的主觀感情,才有喜怒哀樂。人工智能是否能思考,機器人是否擁有人類的智能?
想知道答案。那它必須先通過一項偉大的測試——圖靈測試。
圖靈測試是由英國數(shù)學家、邏輯學家、“人工智能之父”艾倫·麥席森·圖靈在1950年提出的。圖靈測試旨在檢測人工智能機器人是否能思考。
經(jīng)過多次測試后,如果機器能讓平均每個參與者做出超過30%的誤判,則它通過測試。
圖靈測試問世后一直沒有機器能夠通過,直到2014年6月,一位“13歲烏克蘭男孩”出現(xiàn)在英國皇家學會舉行的圖靈測試大會上……
我們下次再聊。
(轉載請取得授權,否則必究;本文圖片源于網(wǎng)絡,感謝原作者,若有侵權聯(lián)系刪除)
聯(lián)系客服