在一月底結(jié)束的2019年國(guó)際消費(fèi)電子產(chǎn)品展會(huì)上(CES 2019),LG總裁兼首席技術(shù)官帕克(I.P.Park)發(fā)表了關(guān)于AI如何促進(jìn)“自我進(jìn)化”產(chǎn)品的主旨演講。“人工智能與倫理”的討論,成為了這場(chǎng)原本與嚴(yán)肅話題不太相關(guān)的消費(fèi)技術(shù)盛會(huì)的序幕。
從自動(dòng)駕駛到智能家居,無(wú)論是討論頻率還是技術(shù)創(chuàng)新,人工智能都已經(jīng)滲透在人們追求更好生活的方方面面。
據(jù)麥肯錫估計(jì),到2030年,人工智能會(huì)在全球范圍內(nèi)創(chuàng)造近130億美元的額外經(jīng)濟(jì)產(chǎn)值,占世界GDP增長(zhǎng)的1.2%[1]。同時(shí),各國(guó)政府也注意到這一技術(shù)對(duì)人類社會(huì)的深入,在加拿大一家國(guó)際智庫(kù)發(fā)布的《建設(shè)人工智能的世界——國(guó)家和區(qū)域人工智能政策報(bào)告》[2]中,全球已有18個(gè)主要國(guó)家發(fā)布了關(guān)于人工智能的針對(duì)性戰(zhàn)略和政策,包括科技、法規(guī)、倫理、社會(huì)治理等多個(gè)方面。
然而,隨著人工智能的井噴式發(fā)展,關(guān)于人工智能為整個(gè)社會(huì)帶來(lái)的影響,也從科幻作品中走進(jìn)現(xiàn)實(shí)。
撇開(kāi)科幻作品中炫酷而強(qiáng)大的終結(jié)者不談,僅僅簡(jiǎn)單的自動(dòng)駕駛技術(shù),當(dāng)真正投入使用后也會(huì)面臨“電車悖論”的困擾。人類社會(huì)生活的復(fù)雜性在于其不僅追求工作的效率和精確,更追求選擇的公正與合理。
隨著技術(shù)的不斷發(fā)展,當(dāng)人工智能真正嵌入人們的日常生活,這些倫理選擇便也真實(shí)地?cái)[在面前,成為人工智能設(shè)計(jì)者們需要解決的問(wèn)題。
那么具體來(lái)看,人工智能究竟引發(fā)了哪些討論?我們需要關(guān)注哪些問(wèn)題呢?在過(guò)去的一年里,大家關(guān)注了這些問(wèn)題:
人工智能不應(yīng)該傷害人
早在機(jī)器人誕生之時(shí),人們便為這種本為幫助人類而設(shè)計(jì)的機(jī)器制定了倫理規(guī)范。上世紀(jì)50年代,著名科幻小說(shuō)家阿西莫夫便在《我,機(jī)器人》一書中提出了“機(jī)器人學(xué)的三大法則”。
法則第一條便規(guī)定:“機(jī)器人不得傷害人類個(gè)體,或者目睹人類個(gè)體將遭受危險(xiǎn)而袖手不管”。保護(hù)至高的人類生命是一切行動(dòng)的前提。從字面上看,這應(yīng)是一條被普遍承認(rèn)與遵守的規(guī)則,但現(xiàn)實(shí)并非科幻作品中那樣簡(jiǎn)單。
2018年4月,谷歌與美國(guó)五角大樓達(dá)成了Maven項(xiàng)目的合作,通過(guò)機(jī)器學(xué)習(xí)技術(shù)和先進(jìn)的計(jì)算機(jī)視覺(jué)技術(shù),在無(wú)人機(jī)拍攝的視頻中辨別物體,自動(dòng)探測(cè)和識(shí)別38種類別的目標(biāo),從而減輕軍事分析員的工作負(fù)擔(dān)。此外,該技術(shù)也可以用于追蹤目標(biāo)人員的行動(dòng)。
此舉引發(fā)眾多項(xiàng)目相關(guān)員工辭職,也有將近4000名員工簽名請(qǐng)?jiān)腹雀枞∠擁?xiàng)目。6月,谷歌發(fā)表聲明,強(qiáng)調(diào)其不會(huì)進(jìn)行任何武器開(kāi)發(fā)或以傷害人類為目的的人工智能研究,但項(xiàng)目并未終止。最終在員工們“拒絕為軍方研究人工智能”的壓力下,谷歌最終確認(rèn)該項(xiàng)目2019年3月到期后將不再續(xù)約。
這場(chǎng)在人工智能界由普通員工發(fā)起的“反戰(zhàn)運(yùn)動(dòng)”的勝利提醒我們——毫無(wú)疑問(wèn),人工智能技術(shù)有極為廣闊的應(yīng)用領(lǐng)域,在技術(shù)高速發(fā)展的今天,人形“終結(jié)者”并不會(huì)出現(xiàn),但可能會(huì)以另一種形式悄悄到來(lái)。
然而,技術(shù)發(fā)展需要倫理與規(guī)則的限制。畢竟,正是這些最基本的規(guī)制保持著人類社會(huì)在不斷的摩擦、碰撞與沖突中的正常前行。
也許人工智能的去武器化已經(jīng)在社會(huì)大部分達(dá)成共識(shí),谷歌的項(xiàng)目也在世界眾多和平主義者的聲討中敗下陣來(lái)。
然而,除了自動(dòng)化武器這種“主動(dòng)傷人”之外,當(dāng)人工智能深入到我們生活中不同場(chǎng)景時(shí),一些人工智能“被迫傷人”的場(chǎng)景如何處理也成為了重要的議題。
自動(dòng)駕駛便是一例。
2018年10月,麻省理工學(xué)院在Nature上發(fā)表了一篇將自動(dòng)駕駛牽涉入“電車難題”的論文[3]。
研究人員通過(guò)其開(kāi)發(fā)的“道德機(jī)器”(moral machine)向來(lái)自200多個(gè)國(guó)家的200多萬(wàn)在線參與者提出了一系列自動(dòng)駕駛汽車在緊急情況時(shí)面對(duì)不同生命如何選擇的問(wèn)題。
結(jié)果顯示了人類間選擇的多樣性——不同群體的選擇偏好有很大不同,如一些集群傾向于保護(hù)動(dòng)物,一些集群傾向于保護(hù)老人。這些特殊性可以在人類的不同集群中出現(xiàn),但對(duì)于需要提前規(guī)定好程序,按唯一特定模式選擇的自動(dòng)駕駛汽車,要么少數(shù)人的偏好被無(wú)限放大,與大多數(shù)產(chǎn)生沖突,要么少數(shù)人的偏好在多數(shù)人的壓倒性優(yōu)勢(shì)下完全湮滅。
如果按照研究的普遍性結(jié)果制定自動(dòng)駕駛規(guī)則,那么多數(shù)人與青年人會(huì)被保護(hù),而少數(shù)人與老年人則被犧牲??梢韵胂?,若如此規(guī)則被全面推廣,老年人是否還敢出現(xiàn)在車水馬龍的街頭。
“一方面,我們希望為公眾提供一種簡(jiǎn)單的方式進(jìn)行重要的社會(huì)討論,”媒體實(shí)驗(yàn)室媒體藝術(shù)與科學(xué)副教授Iyad Rahwan說(shuō)。 “另一方面,我們希望收集數(shù)據(jù),以確定人們認(rèn)為哪些因素對(duì)于自動(dòng)駕駛汽車在解決道德權(quán)衡方面的重要性?!庇懻摬⑽唇Y(jié)束,人們也在不斷的討論中進(jìn)一步認(rèn)識(shí)自動(dòng)駕駛的真正影響,并為其制定規(guī)則。
人工智能不應(yīng)該歧視人
在麻省理工學(xué)院的調(diào)查中,除了對(duì)生命的選擇,更值得關(guān)注的是人工智能算法對(duì)人類偏好差異性的放大。若不注意,這些不同很有可能通過(guò)算法開(kāi)發(fā)被擴(kuò)大為偏見(jiàn),并實(shí)在地影響人們的選擇。
比如亞馬遜的人工智能雇員系統(tǒng)。這一試驗(yàn)性的雇員系統(tǒng)通過(guò)對(duì)之前員工簡(jiǎn)歷的機(jī)器學(xué)習(xí),在實(shí)際操作中會(huì)給女性技術(shù)員的簡(jiǎn)歷評(píng)分較低。在無(wú)數(shù)爭(zhēng)議后,亞馬遜終于在2018年11月關(guān)閉了這一系統(tǒng)。
就在亞馬遜關(guān)閉人工智能簡(jiǎn)歷篩選系統(tǒng)的同一個(gè)月,八名美國(guó)國(guó)會(huì)議員向亞馬遜的CEO寄出了聯(lián)名簽名信,抗議其人臉識(shí)別系統(tǒng)也存在種族歧視的問(wèn)題。盡管這次亞馬遜頂住壓力給予回?fù)?,但?lái)自全世界的平權(quán)者仍不買賬。雙方的爭(zhēng)吵尚未停止。
通過(guò)大量、迅速且精確的重復(fù)計(jì)算,機(jī)器學(xué)習(xí)能夠解決效率問(wèn)題,在許多領(lǐng)域都大有發(fā)展空間。但在高效的同時(shí),細(xì)觀人類提供的機(jī)器學(xué)習(xí)的樣本,在摒除誤差、尋找規(guī)律時(shí),自然以樣本中的多數(shù)為樣例,運(yùn)用到現(xiàn)實(shí)時(shí),便成為人們所指責(zé)的“歧視”。這并非開(kāi)發(fā)者故意的行為,也并非人工智能本身的問(wèn)題。
只能說(shuō),在人類歷史的發(fā)展中,人工智能幫我們指出了曾經(jīng)沒(méi)有意識(shí)到的問(wèn)題,當(dāng)我們堅(jiān)信人工智能應(yīng)當(dāng)為所有人服務(wù)時(shí),我們需要思考如何克服曾經(jīng)的偏見(jiàn),這是人與人工智能共同的任務(wù)。
人工智能不應(yīng)該“操縱”人
除了已有數(shù)據(jù)的不同偏好,在人工智能的數(shù)據(jù)與推薦方面,人們也有許多擔(dān)心。
當(dāng)人工智能不斷展示其強(qiáng)大的數(shù)據(jù)處理能力時(shí),許多評(píng)論者認(rèn)為人工智能是中心化的,由于極強(qiáng)的數(shù)據(jù)攫取能力,巨大的信息不對(duì)稱帶來(lái)社會(huì)的恐慌。2018年的Facebook隱私泄露事件將數(shù)據(jù)安全推到了風(fēng)口浪尖。對(duì)人工智能和算法的不信任也上升到從未有過(guò)的高度。
同時(shí),算法推薦類產(chǎn)品也被重新審視。
一方面,算法推薦背后強(qiáng)力的數(shù)據(jù)抓取與分析令人們覺(jué)得自己在人工智能面前仿佛赤身裸體,沒(méi)有一點(diǎn)隱私;另一方面,算法推薦,一味滿足人們喜好造就的“知識(shí)繭房”也令人們恐懼人工智能強(qiáng)大到可以操控人類的“自我意識(shí)”。
2018年12月,谷歌旗下的視頻社交網(wǎng)站YouTube又被指出向客戶推送極端主義、假新聞等內(nèi)容。YouTube立刻道歉并刪除了視頻,但如何糾偏算法推薦系統(tǒng)各方討論的問(wèn)題。
人類的道德觀,是在歷史漫長(zhǎng)的社會(huì)實(shí)踐活動(dòng)中天然形成的,而對(duì)于沒(méi)有經(jīng)歷過(guò)這些社會(huì)實(shí)踐的計(jì)算機(jī)來(lái)說(shuō),并不能自然形成道德約束。
但顯然,算法需要價(jià)值觀已經(jīng)成為人工智能界的一種主流共識(shí)。
要將符合人類價(jià)值的約束加于算法中,公開(kāi)算法只是第一步,如何通過(guò)社會(huì)討論確立規(guī)則、通過(guò)想象力和創(chuàng)造力設(shè)計(jì)更符合人類倫理價(jià)值的算法,還需要在人工智能技術(shù)開(kāi)發(fā)的路上不斷探索。
人工智能不應(yīng)該完全取代人
如果說(shuō)算法使消費(fèi)者與人工智能之間出現(xiàn)了裂痕,那么人工智能在生產(chǎn)端對(duì)人的碾壓性優(yōu)勢(shì)則帶來(lái)更多恐慌。從機(jī)械臂到機(jī)器人,從自動(dòng)化生產(chǎn)到人工智能寫新聞,能夠替代人類勞動(dòng)的人工智能產(chǎn)品層出不窮。
2016年12月,美國(guó)白宮發(fā)布了《人工智能、自動(dòng)化與經(jīng)濟(jì)報(bào)告》[4],指出人工智能生產(chǎn)正在顛覆勞動(dòng)力市場(chǎng)。在當(dāng)時(shí)這似乎還略顯“多慮”,但之后的這兩年中,人們也切身感受到人工智能給勞動(dòng)力市場(chǎng)帶來(lái)的壓力。
2019年初,布魯金斯研究中心的報(bào)告指出[5],大約3600萬(wàn)美國(guó)人面臨被人工智能替代的危險(xiǎn),不僅在農(nóng)業(yè)和制造業(yè),服務(wù)業(yè)也受到威脅。但也有經(jīng)濟(jì)學(xué)家指出,自動(dòng)化生產(chǎn)與服務(wù)能夠創(chuàng)造新的職位,同時(shí),一些對(duì)創(chuàng)造力要求很高的職位也并不能被替代。
事實(shí)上,每一次技術(shù)的飛躍與變革,都會(huì)帶來(lái)相應(yīng)社會(huì)的陣痛,但社會(huì)總能在陣痛中實(shí)現(xiàn)轉(zhuǎn)型。或以教育提升個(gè)人素質(zhì),躋身于更具挑戰(zhàn)性也更具價(jià)值的工作中;或通過(guò)人工智能創(chuàng)造新的職位,實(shí)現(xiàn)勞動(dòng)轉(zhuǎn)型;或加入創(chuàng)業(yè)創(chuàng)新大潮,為社會(huì)創(chuàng)新注入更多活力。
我們看到,這些富有創(chuàng)造力的人們,正是在“抗?fàn)帯比斯ぶ悄艿倪^(guò)程中與其合作,在犧牲中實(shí)現(xiàn)社會(huì)的不斷向前。
警醒而不忘科技向善之初心
面對(duì)技術(shù)帶來(lái)的問(wèn)題與社會(huì)討論,治理者與實(shí)業(yè)家們都以自己的方式給出了回應(yīng)。
在美國(guó)2019年的國(guó)防部財(cái)政預(yù)算中,人工智能國(guó)家安全委員會(huì)第一次出現(xiàn)。委員會(huì)聘請(qǐng)包括谷歌、微軟在內(nèi)的人工智能巨頭公司的專家,專門評(píng)估人工智能、機(jī)器學(xué)習(xí)相關(guān)的技術(shù)創(chuàng)新,保證對(duì)其的運(yùn)用在法律框架內(nèi),并符合倫理價(jià)值。
無(wú)獨(dú)有偶,2018年12月,歐盟的52位各領(lǐng)域?qū)<野l(fā)布了《人工智能發(fā)展和運(yùn)用的倫理指導(dǎo)》[6],希望在倫理方面對(duì)人工智能技術(shù)進(jìn)行規(guī)制。他們認(rèn)為,人工智能首先應(yīng)當(dāng)尊重基本人權(quán)、倫理規(guī)則和社會(huì)價(jià)值,即追求“倫理目標(biāo)”;在保持技術(shù)創(chuàng)造性的同時(shí),需要反思和加強(qiáng)人工智能的可靠性。
在2018年的人工智能發(fā)展規(guī)劃中,英國(guó)也建立了數(shù)據(jù)倫理中心,試圖管理難以捉摸的大數(shù)據(jù)。
政府以外,各大公司也主動(dòng)發(fā)出自己關(guān)于人工智能的倫理倡議,以保證人工智能的合理發(fā)展。在2018年世界移動(dòng)通信大會(huì)上,IBM Watson首席技術(shù)官Rob High提出了IBM人工智能開(kāi)發(fā)的三大原則——信任、尊重與隱私保護(hù)。
同時(shí),微軟倡議政府為面部識(shí)別技術(shù)制定規(guī)制,并提出了六大原則——公平、透明、責(zé)任、無(wú)歧視、知情同意與法律控制。深陷數(shù)據(jù)泄露旋渦的Facebook也在2019年初開(kāi)始行動(dòng)——拿出750萬(wàn)美元與慕尼黑技術(shù)大學(xué)合作建立了人工智能倫理研究所,希望在人工智能的研究中引入更多倫理思考。
騰訊董事會(huì)主席馬化騰在2018年世界人工智能大會(huì)上提到的人工智能的“四可”理念,也對(duì)人工智能的各個(gè)問(wèn)題做出了完整的回應(yīng)?!八目伞狈g為“ARCC”(Available, Reliable, Comprehensible, and Controllable,讀作ark),即未來(lái)人工智能是應(yīng)當(dāng)做到“可知”、“可控”、“可用”和“可靠”。
騰訊希望通過(guò)“四可”這樣的一個(gè)道德框架開(kāi)始,去幫助AI開(kāi)發(fā)者和他們的產(chǎn)品贏得公眾的信任。這也正是如今全世界人工智能開(kāi)發(fā)者追求的目標(biāo)。
騰訊公司高級(jí)副總裁郭凱天在第二屆科技向善論壇上談到:“在數(shù)字社會(huì)的背景下,從業(yè)者需要保持警醒、自省,更需要相信科技向善,相信人類有能力和智慧去駕馭和控制這次技術(shù)革命。”
從數(shù)據(jù)采集、訓(xùn)練到機(jī)器學(xué)習(xí),人工智能其實(shí)只是放大了一直存在于人類社會(huì)的問(wèn)題,提醒我們?cè)谛碌臅r(shí)代背景下發(fā)揮想象力與創(chuàng)造力,去思考與解決這些問(wèn)題。
技術(shù)來(lái)自于人類對(duì)美好生活的追求,它始于人,也應(yīng)控于人,無(wú)論是立法限制,還是價(jià)值原則,歸根結(jié)底,都是對(duì)人類社會(huì)倫理價(jià)值的重新探討。
人工智能的大潮仍在繼續(xù),互聯(lián)網(wǎng)時(shí)代的先鋒,應(yīng)當(dāng)能夠在這大潮中立足、思考,抱著向善的信念,不斷穩(wěn)重前行。
-- END --
【尾注】
[1] Bughin, J. et al (2018). Notes from the AI Frontier: Modeling the Impact of AI on the World Economy. https://www.mckinsey.
com/~/media/McKinsey/Featured%20Insights/Artificial%20Intelligence/Notes%20from%20the%20frontier%20
Modeling%20the%20impact%20of%20AI%20on%20the%20world%20economy/MGI-Notes-from-the-AI-frontier-
Modeling-the-impact-of-AI-on-the-world-economy-September-2018.ashx
[2] Dutton, T. et al(2018). BUILDING AN AI WORLD--Report on National and Regional AI Strategies. https://www.cifar.ca/docs/default-source/ai-society/buildinganaiworld_eng.pdf?sfvrsn=fb18d129_4
[3]Edmond Awad, Sohan Dsouza, Richard Kim, Jonathan Schulz, Joseph Henrich, Azim Shariff, Jean-Fran?ois Bonnefon & Iyad Rahwan. The Moral Machine experiment. Nature 563, pages59–64 (2018)
[4]Executive Office of the President,Artificial Intelligence, Automation, and the Economy. https://www.whitehouse.gov/sites/whitehouse.gov/files/documents/Artificial-Intelligence-Automation-Economy.PDF
[5]報(bào)告見(jiàn)www.brookings.edu
[6]AI With An Ethic: European Experts Release Draft Guidelines. https://www.forbes.com/sites/federicoguerrini/2018/12/23/from-mass-surveillance-to-killer-robots-eu-experts-want-your-feedback-to-create-trustworthy-ai/#54bbcfee7ddf
聯(lián)系客服