中文字幕理论片,69视频免费在线观看,亚洲成人app,国产1级毛片,刘涛最大尺度戏视频,欧美亚洲美女视频,2021韩国美女仙女屋vip视频

打開APP
userphoto
未登錄

開通VIP,暢享免費(fèi)電子書等14項(xiàng)超值服

開通VIP
大數(shù)據(jù)時(shí)代的算法歧視及其法律規(guī)制

  大數(shù)據(jù)時(shí)代以數(shù)據(jù)作為基礎(chǔ)資源,算法決策作為核心引擎。數(shù)據(jù)是算法的依托,本身具有客觀中立性,但人為設(shè)計(jì)的算法卻不可避免地隱含偏見。如在就業(yè)領(lǐng)域,某些特殊群體在崗位推送和篩選上時(shí)常受到搜索引擎的差別對待;再如在市場營銷方面,互聯(lián)網(wǎng)平臺通過大數(shù)據(jù)分析消費(fèi)者的購買或?yàn)g覽記錄,對用戶進(jìn)行“畫像”后,根據(jù)其喜好程度、收入水平的不同,在提供相同質(zhì)量的商品或服務(wù)的情況下,分別實(shí)施“差異化定價(jià)”。此類在算法自動化決策中產(chǎn)生的不公平現(xiàn)象,被稱為算法歧視或算法偏見。

  隨著算法決策深度浸潤到人類日常生活和社會管理的方方面面,算法歧視在更廣闊領(lǐng)域、以更加隱蔽的形式呈現(xiàn),其可能引發(fā)就業(yè)、交易、理財(cái)?shù)戎T多領(lǐng)域不公平的差別對待,影響社會公平正義,有必要以法律手段對其加以規(guī)制。

  準(zhǔn)確把握算法歧視的產(chǎn)生邏輯是對其進(jìn)行科學(xué)規(guī)制的前提。通常來說,算法歧視的成因有以下幾方面:一是算法本身具有價(jià)值負(fù)載性。算法并非完全客觀,而是往往蘊(yùn)含某種預(yù)設(shè)的價(jià)值立場。若設(shè)計(jì)者存在某種價(jià)值偏見,并嵌入到信息的收集、標(biāo)注、處理中,則算法的輸出結(jié)果也會體現(xiàn)出價(jià)值偏見。二是數(shù)據(jù)輸入的局限性和不正確性。若數(shù)據(jù)收集時(shí),將社會存在的對某地區(qū)或人群的歧視行為作為范例,或數(shù)據(jù)收集范圍為具有偏見意識的人群樣本,則算法產(chǎn)生的“訓(xùn)練數(shù)據(jù)”亦將受到影響,并影響算法輸出結(jié)果。三是算法黑箱造成的透明度缺失。算法從接受輸入數(shù)據(jù)到輸出決策結(jié)果的全過程,形成外界無法獲知的“黑箱”,算法在其中進(jìn)行數(shù)據(jù)的處理、評估及分析,并根據(jù)具體場景作出決策。算法“黑箱”的非透明性導(dǎo)致歧視行為更加隱蔽、難以察覺,進(jìn)一步助長了某些算法設(shè)計(jì)和經(jīng)營者為追逐經(jīng)濟(jì)利益而產(chǎn)生歧視行為。

  法律應(yīng)當(dāng)積極回應(yīng)時(shí)代的變化和需求,針對算法歧視的法律規(guī)制應(yīng)當(dāng)結(jié)合具體場景和現(xiàn)有問題循序漸進(jìn)地開展。目前,歐盟主要通過《通用數(shù)據(jù)保護(hù)條例》中規(guī)定的“數(shù)據(jù)清潔”條款,從源頭上移除特定種類的數(shù)據(jù),以防止敏感數(shù)據(jù)對數(shù)據(jù)主體產(chǎn)生的歧視,總體遵循以數(shù)據(jù)保護(hù)為核心的規(guī)制路徑,還有國家將算法規(guī)制的路徑從算法透明轉(zhuǎn)換為以結(jié)果為重心的算法審查,以平衡企業(yè)經(jīng)濟(jì)效益與社會公共利益。針對我國當(dāng)前出現(xiàn)的算法歧視的具體情況,對其法律規(guī)制可從以下幾方面展開。

  確立算法運(yùn)行的基本原則理念

  在規(guī)制算法歧視的理念層面,應(yīng)首先確立算法公正這一宏觀指導(dǎo)原則。平等作為一項(xiàng)基本原則和權(quán)利早已規(guī)定于各項(xiàng)法律中,算法公正則是該法律原則在數(shù)據(jù)智能領(lǐng)域的進(jìn)一步延伸。在算法公正原則的指導(dǎo)下,無論是算法的開發(fā)者、監(jiān)管者還是運(yùn)營者,均應(yīng)當(dāng)在涉及算法的工作中自覺維護(hù)公民的平等權(quán)利,避免對特定群體或地區(qū)產(chǎn)生不合理的差別對待。在具體操作過程中,各主體應(yīng)遵守包括算法透明、算法解釋、算法問責(zé)、算法包容以及算法審查等在內(nèi)的各項(xiàng)細(xì)化原則。

  合理配置相關(guān)主體的權(quán)利義務(wù)

  從多元主體的利益平衡角度,規(guī)制算法歧視應(yīng)當(dāng)對個(gè)人進(jìn)行賦權(quán),同時(shí)對算法權(quán)力進(jìn)行控制。首先是對個(gè)人進(jìn)行賦權(quán),一方面應(yīng)當(dāng)通過賦予公民免受算法決策支配的“選擇退出”的權(quán)利,以降低其遭受算法歧視侵害的風(fēng)險(xiǎn);另一方面,應(yīng)當(dāng)賦予公民對于個(gè)人數(shù)據(jù)信息的控制權(quán),其有權(quán)限制企業(yè)收集其信息數(shù)據(jù)的范圍,并且就企業(yè)收集的有關(guān)其個(gè)人的信息數(shù)據(jù),有權(quán)要求企業(yè)進(jìn)行解釋和刪除;其次是對算法權(quán)力進(jìn)行控制,應(yīng)針對算法設(shè)計(jì)者及運(yùn)營者設(shè)置算法審查、算法風(fēng)險(xiǎn)評估以及算法解釋等義務(wù),要求其就算法應(yīng)用中導(dǎo)致的算法歧視主動進(jìn)行事前預(yù)防、事中控制以及事后矯正,通過全過程的風(fēng)險(xiǎn)把控以抑制和約束其行為。

  建立專門的算法違規(guī)問責(zé)制度

  當(dāng)預(yù)防措施無法有效遏制算法控制者的歧視行為時(shí),確有必要對算法歧視造成主體權(quán)益的侵害進(jìn)行追責(zé)。具體而言,問責(zé)制度的建立包括兩個(gè)層面內(nèi)容:一是明確侵權(quán)者并要求其承擔(dān)責(zé)任。應(yīng)當(dāng)通過設(shè)計(jì)適當(dāng)?shù)臍w責(zé)原則和因果關(guān)系認(rèn)定規(guī)則,明確算法歧視的責(zé)任主體,其中一般涉及算法設(shè)計(jì)者與算法運(yùn)營者的責(zé)任劃分問題,進(jìn)而在確定責(zé)任主體的基礎(chǔ)上明確各主體分別應(yīng)當(dāng)承擔(dān)的民事或行政責(zé)任。二是暢通受害者權(quán)利受侵害的救濟(jì)途徑。一方面,算法運(yùn)營者應(yīng)通過適當(dāng)?shù)姆绞剑_保受害者有充足的質(zhì)詢、反饋和投訴通道,并就受害者提出的問題積極進(jìn)行回應(yīng)和補(bǔ)救;另一方面,應(yīng)建立相應(yīng)的集體訴訟制度,保證受害者得以通過司法途徑維護(hù)自身合法權(quán)益。集體訴訟有助于改善受侵害個(gè)體與算法控制者之間的信息和資源的不平等地位,提升受侵害者的談判和議價(jià)能力,是緩解受侵害者弱勢地位并保障其訴訟權(quán)益的有效辦法。

文章來源:《學(xué)習(xí)時(shí)報(bào)》2020年8月12日第2版

本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點(diǎn)擊舉報(bào)。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
陳根:人工智能為什么不公平?
袁方成、魏玉欣 | 愈激進(jìn) 愈保守:技術(shù)規(guī)制社會及其救贖
劉艷紅|生成式人工智能的三大安全風(fēng)險(xiǎn)及法律規(guī)制
深度學(xué)習(xí)不是AI的未來
汪慶華:人工智能法律規(guī)制路徑的一個(gè)框架性討論
什么是隱私計(jì)算?如何應(yīng)用與規(guī)制?
更多類似文章 >>
生活服務(wù)
熱點(diǎn)新聞
分享 收藏 導(dǎo)長圖 關(guān)注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點(diǎn)擊這里聯(lián)系客服!

聯(lián)系客服