中文字幕理论片,69视频免费在线观看,亚洲成人app,国产1级毛片,刘涛最大尺度戏视频,欧美亚洲美女视频,2021韩国美女仙女屋vip视频

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
汪慶華:人工智能法律規(guī)制路徑的一個框架性討論

人工智能的法律規(guī)制路徑:一個框架性討論


作者:汪慶華,北京師范大學法學院教授。

來源:《現(xiàn)代法學》2019年第2期。本文注釋已略,建議閱讀原刊。本文已獲得作者和刊物的授權(quán)。

法學學術(shù)前沿聯(lián)系和賜稿郵箱:fxxsqy@163.com ,前言責任編輯:帥仁策 王秋陽


摘要:中國、美國和歐盟在人工智能的法律規(guī)制上初步呈現(xiàn)出自身的特點。面對人工智能技術(shù)的發(fā)展,中國通過分散式的立法對它在電子商務(wù)、新聞內(nèi)容推薦以及智能投顧等領(lǐng)域的應用進行了回應,算法公開透明是貫穿于這些層級各異的立法的共同要求。美國則是通過司法判例對算法的法律性質(zhì)進行了明確,在搜索引擎算法的案例中,它被看成是言論。刑事輔助審判系統(tǒng)中的算法被認定為商業(yè)秘密。和中國、美國的個別化進路形成鮮明對比的是,歐盟通過對個人數(shù)據(jù)權(quán)利的嚴格保護,形成了對人工智能的源頭規(guī)制模式。在數(shù)字經(jīng)濟成為經(jīng)濟發(fā)展的新動力的背景下,這三種模式體現(xiàn)了在數(shù)據(jù)權(quán)利保護和人工智能產(chǎn)業(yè)發(fā)展平衡問題上的不同側(cè)重。在人工智能法律規(guī)制之外,本文還簡要討論法律的人工智能化問題,即人工智能的技術(shù)如何推動立法、司法和執(zhí)法的變革。

人工智能和法律的遭遇會在兩個層面呈現(xiàn)出來。我們在享受人工智能技術(shù)帶來的紅利的同時,需要對它可能帶來的風險和挑戰(zhàn)進行回應,這意味著我們需要對人工智能進行法律規(guī)制。另一方面,大數(shù)據(jù)技術(shù)、云計算、人工智能的發(fā)展又為現(xiàn)有的法律提供動力。技術(shù)賦能,立法、司法和法律執(zhí)行將會以一種從來沒有過的方式借助算法而實現(xiàn)變革。大數(shù)據(jù)和人工智能技術(shù)不僅導致了社會生產(chǎn)力的變革,它同時也帶來了社會生產(chǎn)關(guān)系的變化。在討論人工智能法律規(guī)制的時候,需要厘清的重點在于理解現(xiàn)有的法律概念、法律規(guī)則和法律體系的力量何在。弗蘭克×伊斯特布魯克法官的《賽博空間和馬的法律》 一文其實很深刻的揭示了這樣的道理。正如不需要專門的關(guān)于馬的立法,其實也并不需要專門就互聯(lián)網(wǎng)、人工智能技術(shù)來進行專門的立法。這種觀念當然和美國的普通法傳統(tǒng)有關(guān),無論時代怎么變遷,從封閉的農(nóng)業(yè)社會到信息化、智能化社會,普通法規(guī)則得以延續(xù)下來,保持著它們的生命力。在大陸法系國家,法的安定性則是原有法律規(guī)則和法律體系適用到科技前沿領(lǐng)域的基礎(chǔ)性考量。但是在一些方面,現(xiàn)有的法律框架無法涵蓋人工智能在具體領(lǐng)域應用中所帶來的一系列問題,這意味著在一定程度上要反思現(xiàn)有法律框架。人工智能技術(shù)的發(fā)展將改變?nèi)藗儗Ψ傻恼J知,重塑法律的規(guī)則形態(tài),乃至法律的價值導向。人工智能時代法律制度的設(shè)計必須要考慮風險社會的現(xiàn)實, 并兼容一定程度的不確定性。

法律一般不對實踐中沒有定型的經(jīng)驗、社會中沒有成熟的關(guān)系進行調(diào)整。目前人工智能的技術(shù)也只是局限在具體領(lǐng)域,并沒有形成通用人工智能。就人工智能發(fā)展的階段而言,一般認為存在著弱人工智能、強人工智能和超人工智能三個階段。弱人工智能,又稱為專門人工智能,指不能真正實現(xiàn)推理和解決問題的智能機器。它們并沒有真正的智能,只能實現(xiàn)單一任務(wù)。比如語音識別、自動駕駛、圖像識別等等。強人工智能具人類所有認知能力,它是有知覺和意識,可以由同一個智能系統(tǒng)執(zhí)行不同的認知任務(wù)。超人工智能在所有領(lǐng)域超過人類,所有認知功能超過人類。目前人工智能的發(fā)展仍然處于弱人工智能階段,因此當前并不能夠制定出關(guān)于人工智能的完整的法律制度。

人工智能在過去的二十年中,在機器學習、知識圖譜、自然語言處理、計算機視覺、人機交互、生物特征識別等相關(guān)技術(shù)方面取得了突破,并表現(xiàn)出技術(shù)平臺開源化、專用人工智能向通用人工智能發(fā)展以及從感知智能向認知智能邁進的趨勢。人工智能技術(shù)和行業(yè)領(lǐng)域的深度融合在制造、金融、醫(yī)療、交通、商業(yè)等傳統(tǒng)行業(yè)帶來的突破性變革。

人工智能的法律規(guī)制需要和具體的領(lǐng)域結(jié)合起來,并不存在對人工智能的一般化的法律規(guī)制。就人工智能技術(shù)發(fā)展水平及其當下應用而言,我們采取“傳統(tǒng)法律修正”的模式是一種可行的進路。算法往往和應用場景、商業(yè)模式相結(jié)合。在每一個細分領(lǐng)域里,存在著不同的規(guī)制方法、進路和手段。法律對人工智能的規(guī)制需要具體化和場景化,以避免在人工智能這一寬泛的表述之下的各說各話。人工智能在電子商務(wù)、精準醫(yī)療和自動駕駛等領(lǐng)域有著廣泛的應用和實踐,而法律在這些領(lǐng)域的規(guī)制的方法、手段、強度和密度應該存在差異。電子商務(wù)將互聯(lián)網(wǎng)的技術(shù)運用于商業(yè)領(lǐng)域,形成各種平臺和共享經(jīng)濟,在這個領(lǐng)域,政府監(jiān)管的重要目的在于促進競爭和反壟斷,保護消費者權(quán)利,維護市場秩序。人工智能廣泛運用于醫(yī)療領(lǐng)域, 智能輔助手術(shù)、機器人護士、機器人看護,醫(yī)療成本的增加和老齡化社會的到來將會進一步推動對智能醫(yī)療的需求。互聯(lián)網(wǎng)醫(yī)療因為涉及個人的生命健康,醫(yī)療及其相關(guān)數(shù)據(jù)往往屬于個人敏感數(shù)據(jù),政府在設(shè)計監(jiān)管模式的時候,必然采取高準入、嚴許可的進路。比如美國的《健康保險可攜帶和責任法》(Health and Insurance Portability and Accountability Act)制定了系列安全和隱私標準,就保險公司、醫(yī)療服務(wù)提供者如何用電子的方式傳輸、訪問和存儲受保護的健康信息做了詳細而嚴格的規(guī)定。

目前,歐洲和美國在自動駕駛領(lǐng)域都已經(jīng)有比較成熟的立法。德國在2017年新修訂了《道路交通法》,為高度和全自動駕駛提供法律依據(jù)。該法明確了高度和全自動駕駛車輛的法律含義,它指帶有為完成駕駛?cè)蝿?wù)而能供控制車輛的技術(shù)設(shè)備,而且駕駛員可隨時解除自動駕駛功能或切換到人工駕駛模式。在法律責任分配方面,立法者追求簡約化的規(guī)則,尋求自動駕駛問題和傳統(tǒng)的道路交通法兼容,在自動駕駛的規(guī)制中沿用傳統(tǒng)道路交通法的規(guī)則?;诜ǖ陌捕ㄐ岳碛?,車輛所有人原則上承擔無過錯責任,這一歸責方式為新版《道路交通法》所延續(xù)。相較于責任分配問題的守成,德國新《道路交通法》中關(guān)于數(shù)據(jù)處理的條款尤其值得關(guān)注。該法第63條規(guī)定,當車輛控制模式從人工向技術(shù)系統(tǒng)切換或者技術(shù)系統(tǒng)向人工系統(tǒng)切換時,必須記載位置和時間信息。當系統(tǒng)要求駕駛員接管對車輛的控制或者系統(tǒng)出現(xiàn)技術(shù)故障時,也應保存相應信息。平臺向主管機關(guān)傳輸保存的數(shù)據(jù)的義務(wù)也是其中的亮點。遺憾的是,該法并沒有去處理自動駕駛碰撞可能會帶來的倫理困境問題,這一留白和法律設(shè)定在危險情況下駕駛?cè)诵枰庸苘囕v有關(guān)。

美國加州則早在2012年通過了州的立法,即SB1298 Vehicles: Autonomous Vehicles: Performance and Safety Requirement,確立了促進和保障無人駕駛汽車安全的立法理念,對自動技術(shù)、自動駕駛汽車進行了定義和規(guī)制。歐美在自動駕駛領(lǐng)域的立法為差別化、場景化的人工智能監(jiān)管提供了具體的例證。

目前中國、美國和歐盟在人工智能的法律規(guī)制上初步呈現(xiàn)出自身的特點。面對人工智能技術(shù)的發(fā)展,中國通過分散式的立法對它在電子商務(wù)、新聞合成以及智能投顧的應用進行了回應,算法公開透明是貫穿于這些層級各異的立法的共同要求。美國則是通過司法判例對算法的法律性質(zhì)進行了明確,在搜索引擎算法的案例中,它被看成是言論。刑事輔助審判系統(tǒng)中的算法則被認定為是商業(yè)秘密。和中國、美國的個別化進路形成鮮明對比的是,歐盟通過對個人數(shù)據(jù)權(quán)利的嚴格保護,形成了對人工智能的源頭規(guī)制模式。在人工智能法律規(guī)制之外,本文還簡要討論法律的人工智能化問題,即人工智能的技術(shù)如何推動立法、司法和執(zhí)法的變革。

一  人工智能規(guī)制的立法進路及其趨勢

就人工智能的法律應對而言,我國目前更多的是從產(chǎn)業(yè)政策促進、扶持和發(fā)展的角度對人工智能提供行政指導。2017年國務(wù)院發(fā)布的《新一代人工智能發(fā)展規(guī)劃》突出地反映了這一思路。人工智能技術(shù)被提升為國家戰(zhàn)略。此后各部委和各地方政府也結(jié)合當?shù)貙嶋H出臺了規(guī)章性質(zhì)的人工智能產(chǎn)業(yè)發(fā)展規(guī)劃。工信部出臺了《促進新一代人工智能產(chǎn)業(yè)發(fā)展三年行動計劃(2018-2020年)》推動人工智能的科技研發(fā)和產(chǎn)業(yè)化發(fā)展。浙江省人民政府出臺了《新一代人工智能發(fā)展規(guī)劃》,涉及智能醫(yī)療、智能金融、智能商務(wù)等領(lǐng)域,提出加快人工智能技術(shù)攻關(guān)和深度應用。

監(jiān)管層面,目前對人工智能的法律規(guī)制在電子商務(wù)、數(shù)據(jù)安全和智能投顧領(lǐng)域的立法中已經(jīng)有個別條款分別涉及?!峨娮由虅?wù)法》規(guī)定,電子商務(wù)經(jīng)營者根據(jù)消費者的興趣愛好、消費習慣等特征向其推銷商品或服務(wù)的搜索結(jié)果的,應當同時向該消費者提供不針對其個人特征的選項,尊重和平等保護消費者合法權(quán)益。

這是在法律層面對大數(shù)據(jù)/算法殺熟的回應。大數(shù)據(jù)殺熟作為差別化定價,它是企業(yè)經(jīng)營者利用機器學習算法,對每個消費者的消費偏好、消費習慣和消費能力等信息進行分析,構(gòu)建定價模型,對同樣的商品或服務(wù)實行不同的定價。因為大數(shù)據(jù)技術(shù),企業(yè)獲得了關(guān)于消費者的完全信息,從而能夠?qū)οM者進行畫像,最大程度地獲得消費者剩余。此外,《電子商務(wù)法》第四十條規(guī)定,對于競價排名的商品或服務(wù),應當顯著標明“競價”。這對算法提出了信息披露義務(wù),保障消費者的知情權(quán)、自主性和選擇權(quán)。

就我國目前的人工智能法律規(guī)制而言,《電子商務(wù)法》屬于法律淵源中法律層級的,另外還有規(guī)章層級的規(guī)定草案,“網(wǎng)絡(luò)運營者利用大數(shù)據(jù)和人工智能等技術(shù),通過算法自動合成的新聞信息、博文、帖子、評論等,應當以顯著方式表明‘合成’字樣?!本W(wǎng)絡(luò)運營者利用算法進行新聞推送,被課加了披露義務(wù)以促進算法透明。在移動互聯(lián)網(wǎng)時代,算法新聞業(yè)蓬勃發(fā)展,算法內(nèi)容生成日益成熟。在互聯(lián)網(wǎng)內(nèi)容市場上,用戶內(nèi)容生產(chǎn)、機器內(nèi)容生產(chǎn)、混合內(nèi)容生產(chǎn)交相輝映,形成了海量的內(nèi)容信息。從內(nèi)容生產(chǎn),到內(nèi)容推薦,算法在新聞業(yè)扮演著越來越重要的角色。對于算法推薦的規(guī)制,除了披露義務(wù)之外,規(guī)范信息流程、報備模型參數(shù),違規(guī)行為懲處等長效機制都是法律制度設(shè)計需要考量的要素。

2018年3月28日,中國人民銀行、銀保監(jiān)會、證監(jiān)會、外匯局聯(lián)合發(fā)布《關(guān)于規(guī)范金融機構(gòu)資產(chǎn)管理業(yè)務(wù)的指導意見》(以下簡稱“資管新規(guī)”)。該指導意見對人工智能在金融領(lǐng)域的應用進行了規(guī)制,從勝任性要求、投資者適當性以及透明披露方面對智能投顧中的算法進行穿透式監(jiān)管。美國證監(jiān)會在2017年2月發(fā)布的《智能投顧監(jiān)管指引》中將智能投顧定義成,基于網(wǎng)絡(luò)算法的程序,利用創(chuàng)新技術(shù)為用戶提供全權(quán)委托的賬戶管理服務(wù)的注冊投資顧問。智能投顧依托于互聯(lián)網(wǎng),具有委托的特殊性,它為用戶提供全權(quán)委托的賬戶管理服務(wù),即在客戶和運營者簽署全權(quán)委托協(xié)議的前提下,允許受托人未經(jīng)客戶同意買賣證券。

《資管新規(guī)》明確,運用人工智能技術(shù)開展投資顧問業(yè)務(wù)應當取得投資顧問資質(zhì)。金融機構(gòu)運用人工智能技術(shù)開展資產(chǎn)管理業(yè)務(wù)除了要遵守投資者適當性、投資范圍、信息披露、風險隔離等一般性規(guī)定外,金融機構(gòu)還應當向金融監(jiān)督管理部門報備人工智能模型的主要參數(shù)以及資產(chǎn)配置的主要邏輯,為投資者單獨設(shè)立智能管理賬戶,充分提示人工智能算法的固有缺陷和使用風險,明晰交易流程,強化留痕管理,嚴格監(jiān)控智能管理賬戶的交易頭寸、風險限額、交易種類、價格權(quán)限等。這意味著智能投顧必須要取得行政許可,這是由金融業(yè)的專業(yè)性和高風險性決定的。此外,報備智能投顧模型的主要參數(shù)意味著算法黑箱的打開,算法透明得到了一定程度的貫徹。

《資管新規(guī)》還規(guī)定了運用智能投顧的金融機構(gòu)的披露義務(wù)。金融機構(gòu)應當根據(jù)智能投顧的業(yè)務(wù)特點,建立合理的投資策略和算法模型,充分提示智能投顧算法的固有缺陷和使用風險,為投資者單設(shè)智能投顧賬戶,明晰交易流程,強化留痕管理,嚴格監(jiān)控智能投顧的交易頭寸、風險限額、交易種類、價格權(quán)限等。

《資管新規(guī)》更強調(diào)在智能模型缺陷或者羊群效應的背景下,金融機構(gòu)必須進行人工介入。金融機構(gòu)委托外部機構(gòu)開發(fā)智能投顧算法,應當要求開發(fā)機構(gòu)根據(jù)不同產(chǎn)品投資策略研發(fā)對應的智能投顧算法,避免算法同質(zhì)化加劇投資行為的順周期性。金融機構(gòu)應當針對由此引發(fā)的市場波動風險制定應對預案。因算法同質(zhì)化、編程設(shè)計錯誤、對數(shù)據(jù)利用深度不夠等人工智能算法模型缺陷或者系統(tǒng)異常,導致羊群效應、影響金融市場穩(wěn)定運行的,金融機構(gòu)應當采取人工干預措施,強制調(diào)整或者終止智能投顧業(yè)務(wù)。

在監(jiān)管手段上,金融監(jiān)管部門對智能投顧的法律規(guī)制采取了組合拳的方式,這可以為我們討論其他領(lǐng)域的法律監(jiān)管提供有益的思考。智能投顧是沒有法律人格地位的智能機器人為投資人提供咨詢意見,這對以往以金融從業(yè)者為監(jiān)管對象的監(jiān)管模式產(chǎn)生了挑戰(zhàn),需要重構(gòu)義務(wù)體系。智能投資顧問是投資咨詢機構(gòu)業(yè)務(wù)的延伸,投資咨詢機構(gòu)應當被識別為受托人,承擔信義義務(wù)和合規(guī)義務(wù)。智能投資顧問模式下應當要穿透算法設(shè)定法律義務(wù),一方面要避免算法黑箱逃避責任,另一方面應當為人工智能在投顧行業(yè)的發(fā)展保留充分空間。

在監(jiān)管方式上,金融監(jiān)管部門運用監(jiān)管科技應對金融科技的興起。英國金融監(jiān)管局在2015年最新提出Reg Tech的概念,并將它定義成利用最新技術(shù)手段,促進金融機構(gòu)更有效達到監(jiān)管要求。金融機構(gòu)在利用智能投顧開展資產(chǎn)管理業(yè)務(wù)的時候,必須要獲得行政許可、獲得資質(zhì);報備模型參數(shù)、實現(xiàn)算法透明和算法可解釋性;制定預案、適時人工干預。

我國目前對人工智能的法律規(guī)制以分散式立法的方式分布在不同層級的法律規(guī)范中,對精確營銷、算法新聞和智能投顧進行了相應的規(guī)制。智能投顧中對算法的穿透式監(jiān)管對將來人工智能的法律規(guī)制具有很大的啟示意義,在行政許可準入、算法透明化要求和主體責任承擔等方面為人工智能法律規(guī)制框架的構(gòu)建提供了參考。

二  人工智能的司法規(guī)制及其法律定位

無論是人工智能還是機器人,如果我們?nèi)サ舾街谒鼈兩砩系臄M人化想象,它是基于算法通過數(shù)據(jù)自主學習的一套計算機制,本質(zhì)在于算法和數(shù)據(jù)。本文在討論人工智能規(guī)制的時候,將不去區(qū)分人工智能和算法之間的區(qū)別,將它們作為同一概念處理。美國聯(lián)邦法院和州法院在判例中對算法的性質(zhì)、人工智能輔助量刑算法的合憲性、新技術(shù)條件下的個人隱私保護進行了回應,延續(xù)了其一貫的普通法的傳統(tǒng),通過司法對人工智能的應用予以合法性的認肯,對其中隱含的風險予以規(guī)制,并將隱私保護擴張到手機位置信息。司法判例或者將算法定性成商業(yè)秘密,或者在關(guān)于搜索引擎算法的判決中,將它看成是言論。將搜索引擎的算法看當作言論的主張在學者中激起了廣泛的爭論。

(一)算法作為言論自由

2003年的Search King V. Google Tech., Inc.,堪稱搜索引擎領(lǐng)域算法第一案。該案中,Google對搜索王的網(wǎng)頁排名進行了降序乃至于刪除,搜索王將Google告到了法院。俄克拉荷瑪州法院認為,網(wǎng)頁排名是一種意見,它涉及特定網(wǎng)站對某一檢索指令響應的意義。搜索引擎根據(jù)算法生成的結(jié)果是它的言論。  Google的主張,算法是言論得到了法院的支持。四年之后,Longdon v. Google 案中,聯(lián)邦地區(qū)法院也支持了算法是言論的主張。

 應該說,美國法院為搜索公司提供了基于第一修正案的言論保護,為企業(yè)的發(fā)展提供了廣闊的空間。由于大數(shù)據(jù)技術(shù)的中立性、無國界使得算法性質(zhì)問題具有了普遍的理論意義,加拿大學者Veenu Goswami則主張基于加拿大判例和加拿大人權(quán)憲章,應當將基于算法產(chǎn)生的內(nèi)容置于言論的范疇之內(nèi),應受憲法上的言論自由的保護。

不過就搜索引擎算法是否是言論,在理論上仍然有激烈的反對意見。更進一步的問題在于,即使司法對此已經(jīng)給出了正面的回答,這一定性是否推廣到所有領(lǐng)域的算法把它們看成是言論仍然是懸而未決的問題。這些司法判例帶來了美國法學界對搜索引擎中的算法的法律屬性的激烈而持續(xù)的討論。

(二)算法作為商業(yè)秘密

在美國刑事訴訟領(lǐng)域,算法廣泛運用于預測個體是否會在重新犯罪,以及是否到庭,從而影響定罪、量刑以及保釋。一些公司開發(fā)了輔助量刑工具,目前在美國有三種風險評估軟件,COMPAS, PSA和LSI-R,超過一半以上的州利用它們來輔助法官量刑。在算法的幫助下可以借助其預測功能來降低羈押率,提高法官裁判的公正性和效率。這種運用算法來輔助乃至法官自由裁量的做法廣泛的討論和批評,在算法的準確性、算法考慮不相關(guān)的社會因素以及算法的正當程序三個方面帶來普遍的質(zhì)疑。 2016年的威斯康星州的Loomis案對這些問題進行了司法上的回應。

在State v. Loomis, 881 N.W. 2d 749 (Wisconsin, 2016)一案中,魯米斯因駕車槍擊案而遭受刑事指控。威斯康星州法院在量刑的時候借助了COMPAS, 并基于COMPAS的評估判處魯米斯六年監(jiān)禁外加五年監(jiān)外執(zhí)行。魯米斯以法院對COMPAS評估的依賴侵犯了他的正當程序權(quán)利和平等保護權(quán)為由提起上訴。具體到刑事案件,被告有獲得個別化量刑考量和基于準確信息量刑的權(quán)利。而COMPAS評估報告提供的內(nèi)容是類型化的,無法充分考慮個人特殊性,而且NORTHPOINTE主張COMPAS算法是公司的商業(yè)秘密,我們無法校驗它的客觀性和可靠性。威斯康辛州最高法院認為,性別作為參數(shù)進入算法,其目的是為了算法準確性而非為了歧視,因此沒有侵犯被告的平等權(quán)。其次,COMPAS所分析的數(shù)據(jù)依賴于公開的刑事犯罪記錄和被告提供的數(shù)據(jù)。被告有機會驗證數(shù)據(jù)的準確性,他對可靠性的挑戰(zhàn)是沒有依據(jù)的。最后,由于評估結(jié)論并非法院量刑的唯一依據(jù),法院所要求的個別化對待的權(quán)利得到了保障。

從本案判決可以看出,在算法公平和商業(yè)秘密之間,法院在這個案件中站在了商業(yè)秘密一邊,法院并沒有要求企業(yè)公布算法參數(shù)和和模型。這一司法立場有助于促進技術(shù)創(chuàng)新和人工智能產(chǎn)業(yè)的發(fā)展。但算法公平性的問題仍然懸而未決。

當我們認為算法會帶來歧視性的結(jié)果的時候,根本原因在于作為算法基礎(chǔ)的數(shù)據(jù)中隱含著民族、種族和性別的偏見。Anupam Chander認為算法透明沒有辦法改變這種輸入性的歧視,有效的補救措施應當是,設(shè)計算法的時候必須擁有充分的意識,考慮到現(xiàn)有數(shù)據(jù)中潛藏著的歧視。作為算法決策的一種表現(xiàn)形式,利用大數(shù)據(jù)對個人打分,決定我們是否是可信賴的貸款者, 勤勉的員工,可靠的房客,高價值的消費者。Danielle Keats Citron和Frank Pasquale主張,正當程序應該要為此類的人工智能評分系統(tǒng)可能帶來的歧視提供基本保障,監(jiān)管者應當可以檢測系統(tǒng)以確保其公平性和正確性,個人有權(quán)要求糾正對他們進行錯誤分類而帶來不利影響的機器決策。缺乏正當程序的保護,偏見和武斷的數(shù)據(jù)基礎(chǔ)上的算法必然帶來污名化的后果。 

三  人工智能的源頭規(guī)制:數(shù)據(jù)權(quán)利與免于自動化決策

2018年5月25日正式實施的歐盟《一般數(shù)據(jù)保護條例》是迄今為止關(guān)于個人數(shù)據(jù)保護范圍最為廣泛,權(quán)利類型最為多樣的立法。它通過訪問權(quán)、修改權(quán)、刪除權(quán)、可攜帶權(quán)等具體權(quán)利的規(guī)定確立了個人數(shù)據(jù)決定權(quán)。作為權(quán)利束,個人數(shù)據(jù)決定權(quán)內(nèi)容廣泛多樣。這一權(quán)利束中的內(nèi)容除了可攜帶權(quán)有利于在人工智能企業(yè)之間形成競爭、促進產(chǎn)業(yè)發(fā)展之外,其他的權(quán)利都對人工智能的發(fā)展構(gòu)成了直接的限制。

《一般數(shù)據(jù)保護條例》更賦予數(shù)據(jù)主體以免于自動化決策的權(quán)利,這對是算法黑箱和程序不正義的直接排除。在當代人的生活中,自動化決策扮演著越來越重要的角色,從貸款、投資、雇傭乃至交友,都成為算法決定的對象。 《條例》21條明確規(guī)定:“數(shù)據(jù)主體有權(quán)根據(jù)其特殊情況,在個人數(shù)據(jù)被處理的過程中行使反對數(shù)據(jù)畫像的權(quán)利。在以直接營銷為目的個人數(shù)據(jù)處理活動中,數(shù)據(jù)主體有權(quán)隨時反對因為該商業(yè)行為目的處理其個人數(shù)據(jù),包括有權(quán)反對與直接營銷有關(guān)的數(shù)據(jù)畫像。數(shù)據(jù)主體反對因直接營銷目的處理數(shù)據(jù)的,個人數(shù)據(jù)不得再因該目的被處理。首次與數(shù)據(jù)主體溝通時,第一款和第二款所述的權(quán)利應該明確提請數(shù)據(jù)主體注意,且明確將該權(quán)利與任何其他的信息相區(qū)分。在信息社會服務(wù)的情況下,盡管歐盟2002《隱私和電子通信指令》另有規(guī)定,數(shù)據(jù)主體可以通過自動化方式,基于技術(shù)規(guī)范行使其反對權(quán)。根據(jù)本條例第89條第1款所述的個人數(shù)據(jù)因科學、歷史研究或統(tǒng)計的目的被處理的,數(shù)據(jù)主體有權(quán)在特定情形下反對處理其個人數(shù)據(jù),除非這種處理對執(zhí)行公共利益的任務(wù)是必要的?!钡?2條進一步明確,如果某種包括數(shù)據(jù)畫像在內(nèi)自動化決策會對數(shù)據(jù)主體產(chǎn)生法律效力或者造成類似的重大影響,數(shù)據(jù)主體有權(quán)不受上述決策的限制。

根據(jù)29條工作組指引,在下述情形中,不得使用自動化決策。比如解除合同;對法律所提供的某一具體的社會福利的獲取或喪失;嬰幼兒補貼或住房補貼;拒絕入境某個國家或者是否認公民身份。上述情形具有的共同特點就是自動化決策已經(jīng)影響到行政相對人的權(quán)利義務(wù)。

使用人工智能的重要原因在于它能夠有效和精確地處理大數(shù)據(jù)。免于自動化決策的權(quán)利意味著人工審查算法決策,這既降低了人工智能智能的效率,也為它增加了額外的成本。

除了第二十一條的規(guī)定之外,《一般數(shù)據(jù)保護條例》“序言”(又稱為“鑒于”條款)第71條規(guī)定,數(shù)據(jù)主體應有免于受制于自動化處理手段對其個人進行精準評價,以及對其產(chǎn)生法律效果或重要影響的情況,比如,自動拒絕無人介入的在線信用申請或電子招聘。該等處理包括“用戶畫像”,包含任何形式的個人數(shù)據(jù)自動化處理以對自然人進行精準評價,特別是對自然人產(chǎn)生法律效果或重要影響的,針對于自然人的工作表現(xiàn)、經(jīng)濟狀況、健康狀況、個人偏好、興趣、信譽、行為習慣、位置或行蹤相關(guān)的分析和預測。該條進一步規(guī)定,任何情況下,這些數(shù)據(jù)處理應當有適當?shù)谋Wo措施,包括獲得認為干預的權(quán)利、表達觀點的權(quán)利、評估后達成決定的解釋權(quán)以及獲得救濟的權(quán)利。盡管按照歐洲的法律慣例,立法的背景/序言條款具有幫助理解條款意涵的目的,并不具有直接的法律效力。學界有觀點指出,該條結(jié)合第22條、以及第13、14條關(guān)于數(shù)據(jù)主體知情權(quán)的規(guī)定,可以認定GDPR規(guī)定了自動決策的可解釋權(quán):數(shù)據(jù)主體有權(quán)要求對自動決策的算法進行解釋,有權(quán)在不滿意算法決策的時候選擇推出。

歐盟《一般數(shù)據(jù)保護條例》涉及到人工智能數(shù)據(jù)保護和隱私權(quán)利的所有面向。《條例》區(qū)分一般數(shù)據(jù)和敏感數(shù)據(jù),對后者進行更為嚴格的保護。第9條明確,除非各成員國立法授權(quán),辨識種族或民族出身、政治觀點、宗教或哲學信仰、工會成員的個人數(shù)據(jù)以及以識別自然人為目的的基因數(shù)據(jù)、生物特征數(shù)據(jù)、健康數(shù)據(jù)、自然人的性生活或性取向的數(shù)據(jù)的處理應當禁止。

《條例》所確立的數(shù)據(jù)最小化原則對AI行業(yè) 的發(fā)展有直接的影響。AI 要正確和有效,就需要處理大量的數(shù)據(jù)以實現(xiàn)持續(xù)的機器學習的目的。為了實現(xiàn)歐盟《一般數(shù)據(jù)保護條例》所要求的數(shù)據(jù)最小化原則,企業(yè)必須闡明它們?yōu)槭裁葱枰占吞幚頂?shù)據(jù),還有它們進行數(shù)據(jù)處理獲得了什么成果。這就相當于要求企業(yè)證明收集是具有相關(guān)性的,滿足了必要原則,沒有進行過度收集??紤]到大數(shù)據(jù)是算法的燃料,對數(shù)據(jù)的監(jiān)管實際上從源頭影響到人工智能行業(yè)的發(fā)展。歐盟也清楚地意識到了這一點,所以在出臺全世界關(guān)于個人數(shù)據(jù)保護最為嚴格的立法《一般數(shù)據(jù)保護條例》之后不久,歐盟又推出了《非個人數(shù)據(jù)自由流動條例》,鼓勵和促進非個人數(shù)據(jù)的自由流動和共享,禁止數(shù)據(jù)本地化要求,以推動建立統(tǒng)一的歐洲數(shù)字市場。

四 法律的人工智能規(guī)制

人工智能技術(shù)的發(fā)展為法律規(guī)制提出了現(xiàn)實要求,而法律領(lǐng)域也越來越深刻地受到人工智能的影響。法律和科技人員的合作將成為常態(tài)。法律人向技術(shù)人員解釋法律規(guī)則的要求,而技術(shù)人員在設(shè)計產(chǎn)品的時候要將法律規(guī)則考慮進去。

《一般數(shù)據(jù)保護條例》的默認隱私原則為我們展示了大數(shù)據(jù)時代人工智能技術(shù)對于立法行為的本質(zhì)性的改變,我們可以將法律所追求的價值和原則嵌入式地植入產(chǎn)品中。法律規(guī)制體系也將發(fā)生重要的變革,將從對事物的規(guī)制轉(zhuǎn)變成給對代碼的規(guī)制。默認隱私原則帶來的設(shè)計隱私就是這一變革最為重要的體現(xiàn)?;ヂ?lián)網(wǎng)巨頭企業(yè)在其AI倫理的主張中也體現(xiàn)了默認隱私或默認倫理的訴求。比如谷歌公司在其關(guān)于AI技術(shù)開發(fā)的原則中也包含設(shè)計隱私的內(nèi)容。

就司法而言,通過智慧司法提升司法效率,促進司法公平是這一輪司法改革最為重要的目標和特點。而最近增設(shè)北京互聯(lián)網(wǎng)法院、廣州互聯(lián)網(wǎng)法院更是將其意蘊拓展到了網(wǎng)絡(luò)治理主權(quán)的層面。就司法領(lǐng)域的人工智能而言,它對算法歧視和算法黑箱的回應更為急迫,如何以平等原則和正當程序回應算法歧視和算法黑箱將是司法人工智能領(lǐng)域的持久性的話題。 

 在執(zhí)法領(lǐng)域,因為自動化決策的普及,將會出現(xiàn)法律的自動執(zhí)行。2018年,深圳為了優(yōu)化營商環(huán)境,利用互聯(lián)網(wǎng)技術(shù)提升政務(wù)服務(wù)水平,就普通高校畢業(yè)生落戶深圳實現(xiàn)秒批(無人干預自動審批)。這是法律自動執(zhí)行的生動形象的例子。無人干預自動審批可以被看成是全自動具體行政行為的表現(xiàn)形式。全自動行政導致具體行政行為成立要件中行政主體的意思表示的缺失,大量行政法上的程序權(quán)利被自動化決策所架空,這需要加強自動化決策方面的行政立法,以實現(xiàn)人工智能的運用和公民權(quán)利保護的平衡。法律自動化執(zhí)行的過程中,可以借鑒歐盟的經(jīng)驗,當決策涉及到減損公民權(quán)利或增加公民義務(wù)的時候,公民有免于自動化決策的權(quán)利。

結(jié)  語

總的來說,并不存在關(guān)于人工智能的一般化的法律規(guī)制。相關(guān)的法律規(guī)制應當是和具體場景結(jié)合起來的,就進路而言,存在立法、司法和技術(shù)的三種形式。以此作為對中國、美國和歐盟的人工智能法律規(guī)制主要模式的概括,是一種理想型,略去了這三個法域?qū)θ斯ぶ悄芤?guī)制時候可能兼采的其他形式。比如,美國也存在大量的對數(shù)據(jù)和隱私保護的聯(lián)邦和州立法,和通過司法規(guī)制人工智能形成互補,相得益彰。

我國目前采用的是一種分散式立法的方式,在《電子商務(wù)法》、《數(shù)據(jù)安全管理辦法》、《金融機構(gòu)資理業(yè)務(wù)指導意見》等不同層級的法律淵源的具體條款中涉及到了對人工智能的法律規(guī)制。本文通過這些法律規(guī)范的分析初步勾勒出我國對人工智能進行法律規(guī)制的路徑,這并不意味著它能夠或已經(jīng)窮盡我國法律對人工智能/算法的規(guī)制。除了上述立法之外,總體來說,人工智能時代+的特點并沒有能夠很好地反應到立法中。當務(wù)之急是修改現(xiàn)有的法律,使得它能夠兼容大數(shù)據(jù)和人工智能技術(shù)在具體領(lǐng)域和場景中的應用,對數(shù)據(jù)處理商和法院信息部門在法院司法決策中日益吃重的位置予以正視。就本文討論的內(nèi)容而言,《證券法》第171條、《證券投資顧問業(yè)務(wù)暫行規(guī)定》第12條規(guī)定,證券投資咨詢機構(gòu)不得代理委托人做出投資決策,智能投顧和禁止證券投資咨詢?nèi)珯?quán)委托的規(guī)定相沖突。而智能投顧的高度智能化意味著在投資建議、指令執(zhí)行、自動調(diào)倉等環(huán)節(jié)具有聯(lián)動性和連續(xù)性,這只有在全權(quán)委托條件下才能實現(xiàn)?!睹袷略V訟法》也需要進行修訂或出臺互聯(lián)網(wǎng)管轄方面的司法解釋,使得互聯(lián)網(wǎng)法院的管轄、審理、送達等具體運作的環(huán)節(jié)上能夠?qū)崿F(xiàn)互聯(lián)網(wǎng)案件,網(wǎng)上受理,網(wǎng)上審理,網(wǎng)上執(zhí)行的目標?!兜缆方煌ò踩ā沸枰M行相應的調(diào)整,以兼容現(xiàn)有的無人駕駛技術(shù)。

歐盟的進路實際上抓住了人工智能的本質(zhì)。歐盟《一般數(shù)據(jù)保護條例》以源頭治理的方式,從個人對數(shù)據(jù)的自決權(quán)出發(fā)建構(gòu)個人數(shù)據(jù)權(quán)利體系,從而直接影響到人工智能的產(chǎn)品設(shè)計和技術(shù)發(fā)展。所有的人工智能都是建立算法和算力的基礎(chǔ)上的。算法的燃料就是大數(shù)據(jù)。當我們對數(shù)據(jù)進行嚴格保護的時候,其實就在源頭對人工智能進行了規(guī)制。

本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊舉報。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
公管薦書 | 權(quán)力之治:人工智能時代的算法規(guī)制
算法治理:數(shù)字時代的社會治理新命題
?【人工智能時代女性權(quán)益保護】劉玫、陳慧君 | 算法公平與訴權(quán)保障——性別平等保護視角下智慧司法的規(guī)制路徑
陳根:算法的法律,法律的算法
獲獎?wù)撐?| 王士博:論法定犯的算法證明方法
人工智能在稅務(wù)領(lǐng)域應用中的風險及規(guī)制
更多類似文章 >>
生活服務(wù)
熱點新聞
分享 收藏 導長圖 關(guān)注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服