中文字幕理论片,69视频免费在线观看,亚洲成人app,国产1级毛片,刘涛最大尺度戏视频,欧美亚洲美女视频,2021韩国美女仙女屋vip视频

打開(kāi)APP
userphoto
未登錄

開(kāi)通VIP,暢享免費(fèi)電子書(shū)等14項(xiàng)超值服

開(kāi)通VIP
陳昌鳳,呂宇翔 | 算法倫理研究:視角、框架和原則
算法倫理研究:視角、框架和原則
陳昌鳳,呂宇翔
清華大學(xué) 新聞與傳播學(xué)院,北京 100084
陳昌鳳:女,清華大學(xué)新聞與傳播學(xué)院常務(wù)副院長(zhǎng),教授,博士生導(dǎo)師;
呂宇翔:男,清華大學(xué)新聞與傳播學(xué)院副教授,博士生導(dǎo)師。
摘  要:智能算法正在重新界定我們的生活理念,改變我們的決策方式。從作為工具到作為規(guī)則、作為權(quán)力,算法的內(nèi)涵越來(lái)越豐富,也帶來(lái)了算法倫理觀的差異。對(duì)算法倫理的哲學(xué)思考正在超越心身二元論、事實(shí)和價(jià)值分離的二元對(duì)立論。算法倫理的核心原則是算法人文主義,重視人的獨(dú)特性、堅(jiān)持以人為本,尊重豐富且復(fù)雜的人和人性,在算法應(yīng)用中堅(jiān)持和倡導(dǎo)社會(huì)的公平正義原則。
關(guān)鍵詞:人工智能;算法倫理;算法隱私;算法公平;透明性
智能算法正在重新界定我們的生活理念,改變我們的決策方式。正在興起的計(jì)算主義、數(shù)據(jù)主義技術(shù)思潮更是把算法當(dāng)作支配世界的核心,將算法看成是這個(gè)世界最重要的概念,堅(jiān)信21世紀(jì)是由算法主導(dǎo)的世紀(jì)。[1]隨著算法的遍在化運(yùn)用,算法中的倫理問(wèn)題開(kāi)始凸顯。從根本上說(shuō),算法化、數(shù)據(jù)化成為一種普遍的認(rèn)知范式,它們?cè)谥貥?gòu)和規(guī)訓(xùn)整個(gè)社會(huì)之時(shí),還帶來(lái)了人類(lèi)以及個(gè)體主體性的根本喪失,人類(lèi)有成為算法奴隸之虞。[2](PP.11~12)那么,算法倫理帶來(lái)了怎樣的框架性學(xué)術(shù)思考?算法運(yùn)用中有哪些倫理問(wèn)題,其核心又是什么?算法倫理如何匯入傳播活動(dòng),從而挑戰(zhàn)算法時(shí)代的媒介倫理呢?
一、算法的多元視角
通常意義上的“算法”(algorithm),指的是進(jìn)行計(jì)算、解決問(wèn)題、做出決定的一套有條理的步驟,是計(jì)算時(shí)采用的方法。[3](P.75)可見(jiàn),“算法”較計(jì)算有著更廣泛的含義,它是在解決計(jì)算或者其他問(wèn)題時(shí)(尤其是借助計(jì)算機(jī))所遵循的步驟或規(guī)則。[4](PP.149~150)當(dāng)下使用的“算法”一詞來(lái)自計(jì)算機(jī)科學(xué),指解決問(wèn)題的一套邏輯,即可以對(duì)特定的輸入進(jìn)行處理,獲得符合預(yù)期的輸出,是自動(dòng)化執(zhí)行人類(lèi)意志的計(jì)算工具。[5]
算法出現(xiàn)以后,人類(lèi)的決策模式便開(kāi)始發(fā)生變革,過(guò)去由人類(lèi)主導(dǎo)的決策,如今常常交由算法來(lái)完成。算法的運(yùn)用情境包括個(gè)人、組織以及社會(huì)等不同層面。在個(gè)人層面,算法的影響至少包括個(gè)體對(duì)自身及所處環(huán)境的看法、理解與互動(dòng);在組織層面,算法影響著各個(gè)環(huán)節(jié),如果是商業(yè)組織,它的影響則滲透到從商業(yè)決策到生產(chǎn)、制作、銷(xiāo)售等各個(gè)環(huán)節(jié);在社會(huì)層面,算法已經(jīng)深層影響了社會(huì)治理的各個(gè)領(lǐng)域。赫拉利等人認(rèn)為,世界包括人的生命都是算法運(yùn)算的結(jié)果,不僅自然界是用算法語(yǔ)言寫(xiě)就的,宇宙也是一個(gè)巨大的計(jì)算系統(tǒng),而且數(shù)據(jù)化成為一種普遍認(rèn)知范式。生物也是算法,我們的感覺(jué)和情感各是一套算法。最終人類(lèi)將賦予算法以權(quán)力,做出人生中最重要的決定。從物理世界、生命過(guò)程直到人類(lèi)心智都是算法可計(jì)算的, 甚至整個(gè)宇宙也是完全由算法支配的。[6]但“算法”又是一個(gè)相當(dāng)復(fù)雜的概念,對(duì)其理解常常迥然不同,因此帶來(lái)了算法研究的多元視角。通過(guò)分析近年國(guó)內(nèi)外學(xué)界有關(guān)算法研究的文獻(xiàn)發(fā)現(xiàn),傳播領(lǐng)域?qū)λ惴ǖ慕庾x至少形成了六類(lèi)不同的視角和界定。[4](PP.149~150)
對(duì)于算法的不同界定源于不同的理念。其一,“算法是工具”,側(cè)重于關(guān)注算法的形式、性能和交互如何被精心設(shè)計(jì),使其更完美地執(zhí)行人類(lèi)的預(yù)期目標(biāo)。在新聞傳播領(lǐng)域,體現(xiàn)為算法輔助新聞生產(chǎn)、對(duì)新聞傳播業(yè)的功能性滲透,即關(guān)注算法如何輔助人類(lèi)進(jìn)行數(shù)據(jù)挖掘與分析、自動(dòng)化寫(xiě)作、個(gè)性化推薦分發(fā)、自動(dòng)核查、智能化管理等。算法被人類(lèi)視為自己掌控、操縱的自動(dòng)化工具,是一種“工具理性”的思維,即推進(jìn)傳播效益最大化的生產(chǎn)實(shí)踐。[7]其二,“算法是規(guī)則”,即參與塑造了算法實(shí)踐的內(nèi)在邏輯—智能催生的支配性新機(jī)制。在新聞傳播領(lǐng)域,無(wú)論是新聞的生產(chǎn)還是分發(fā),無(wú)論是反饋互動(dòng)還是組織管理,整個(gè)行業(yè)都需要遵從新規(guī)則,生產(chǎn)或分發(fā)都要為適應(yīng)算法規(guī)則作出調(diào)整,用戶(hù)、生產(chǎn)者和平臺(tái)都要回應(yīng)算法規(guī)則,從而獲得更大的效益。算法作為社會(huì)規(guī)則在技術(shù)領(lǐng)域的延伸,開(kāi)始重塑信息規(guī)則甚至是社會(huì)規(guī)則,重塑用戶(hù)、媒介和社會(huì)的交互關(guān)系。其三,“算法是權(quán)力”,算法的介入推動(dòng)了權(quán)力的遷移,在重塑的新型關(guān)系中獲取權(quán)力。在新聞傳播領(lǐng)域,算法主導(dǎo)著信息傳播秩序,通過(guò)商品化的方式凸顯科技巨頭的影響力,帶來(lái)公共權(quán)力的讓渡、個(gè)體用戶(hù)的權(quán)力抗?fàn)?,認(rèn)知層面的“信息繭房”也受到關(guān)注。[8]算法權(quán)力成為新型標(biāo)尺,重塑個(gè)體、媒介、平臺(tái)、國(guó)家之間的力量格局。其四,“算法是主體”,人工智能與人類(lèi)智慧相混糅,使得人與算法之間的復(fù)雜關(guān)系難解難分,算法作為動(dòng)態(tài)行動(dòng)者網(wǎng)絡(luò)中的非人類(lèi)行動(dòng)者,可以成為改變事物狀態(tài)的非人要素。[9]在新聞傳播領(lǐng)域,算法正在消解建立在“人類(lèi)中心主義”之上的傳統(tǒng)傳播觀,機(jī)器正在以傳播者的姿態(tài)進(jìn)入該領(lǐng)域,“人機(jī)傳播”理論得以誕生。這樣,人與技術(shù)之間的本體論鴻溝正在被逾越,人機(jī)之間產(chǎn)生的具有社會(huì)意義的關(guān)系成為算法被視為主體的重要依據(jù)。其五,“算法是想象”,人類(lèi)重視算法是什么、算法應(yīng)該是什么以及算法如何運(yùn)行,“算法意識(shí)”與客觀事實(shí)形成了某種張力關(guān)系。在新聞傳播領(lǐng)域,專(zhuān)業(yè)性的客觀真實(shí)的內(nèi)涵和外延再次被算法拓展。算法實(shí)踐中以人為主的視角受到重視,普通人(不一定是技術(shù)精英)也會(huì)關(guān)注算法的社會(huì)意義,算法素養(yǎng)受到重視。其六,“算法是價(jià)值觀”,算法作為人類(lèi)思維的表達(dá),本身即包含內(nèi)在的價(jià)值觀,包括來(lái)自歷史數(shù)據(jù)集的觀點(diǎn)匯總、工程師編程中的觀點(diǎn)嵌入、平臺(tái)設(shè)計(jì)中的邏輯彰顯、技術(shù)邏輯的無(wú)意識(shí)體現(xiàn)等。[10]在新聞傳播領(lǐng)域,它可能體現(xiàn)為價(jià)值的偏向[11]、算法邏輯的無(wú)意識(shí)偏差帶來(lái)專(zhuān)業(yè)性的失守和倫理的困境[12]。算法實(shí)踐的價(jià)值導(dǎo)向可能成為被爭(zhēng)奪、被利用的對(duì)象,其公正性、透明度、責(zé)任觀、可解釋性受到質(zhì)疑。[13]算法界定視角的不同也會(huì)帶來(lái)算法倫理觀的差異。當(dāng)然,無(wú)論持怎樣的觀點(diǎn),對(duì)于算法,我們都需要有明確的哲學(xué)觀。
二、算法倫理的哲學(xué)思想
在算法倫理中,保持人的獨(dú)特性是首要問(wèn)題,即堅(jiān)持以人為本的倫理觀。[14]由于因素復(fù)雜,要確定算法潛在和實(shí)際的倫理影響是很困難的,算法倫理的問(wèn)題和潛在價(jià)值觀只有在具體案例中才會(huì)顯現(xiàn)出來(lái)。筆者將從其中一個(gè)視角,對(duì)算法倫理加以梳理和探討。
數(shù)字革命讓人類(lèi)在宇宙中的角色發(fā)生了革命性的轉(zhuǎn)變,哲學(xué)面臨信息轉(zhuǎn)向(informational turn)。當(dāng)代信息哲學(xué)家、信息倫理學(xué)家弗洛里迪(Luciano Floridi)從語(yǔ)言理性主義的角度對(duì)當(dāng)今的數(shù)字技術(shù)進(jìn)行了多層次的描述。他將信息革命界定為對(duì)人類(lèi)在宇宙中位置的根本性重估。過(guò)去,我們把自己置于信息圈(infosphere)的中心,以為沒(méi)有任何其他地球生物可匹敵[15],如今這種自以為是的獨(dú)特性已經(jīng)不再可信,人類(lèi)只是被網(wǎng)絡(luò)化,成為一個(gè)信息環(huán)境(信息圈)的信息實(shí)體(信息體),人類(lèi)的自然和人工代理彼此共享?;ヂ?lián)網(wǎng)技術(shù)促進(jìn)身體與信息的融合,并深度參與到人的心靈與自我的塑造中。因此,弗洛里迪將信息通信技術(shù)視作“自我創(chuàng)制技術(shù)”,認(rèn)為“它們會(huì)顯著地影響我們是誰(shuí),我們認(rèn)為我們是誰(shuí),以及我們可能成為誰(shuí)”。[16](P.309)弗洛里迪對(duì)智能時(shí)代現(xiàn)實(shí)的理解從物質(zhì)轉(zhuǎn)向了信息。在當(dāng)今數(shù)字世界的信息體—信息圈中,人類(lèi)的自我被賦予一種信息化的解釋。[17]不過(guò),弗洛里迪將技術(shù)決定論作為信息圈中的信息體的理論基礎(chǔ),將信息體定義為與信息能量裝置相連的數(shù)據(jù)處理實(shí)體,反映了語(yǔ)言理性主義范式的心身二元論觀點(diǎn)。弗洛里迪在《信息倫理學(xué)》(Ethics of Information)一書(shū)中提出了四條道德法則,其中第四條是應(yīng)該通過(guò)擴(kuò)大(信息量)、提高(信息質(zhì)量)、豐富(信息種類(lèi))信息圈的方式提升信息福祉,促進(jìn)信息實(shí)體以及整個(gè)信息領(lǐng)域的繁榮。
2019年11月18日,“智能時(shí)代的信息價(jià)值觀研究高層論壇”在清華大學(xué)舉行,當(dāng)代著名媒介倫理學(xué)家克里斯琴斯(Clifford G.Christians)教授發(fā)表了題為《哲學(xué)視野中的人工智能:語(yǔ)言的視角》的主旨演講,從哲學(xué)層面對(duì)人工智能進(jìn)行了高屋建瓴的思考??死锼骨偎拐J(rèn)為,算法遵循準(zhǔn)確的形式化語(yǔ)言,可用于執(zhí)行計(jì)算、數(shù)據(jù)處理等,但不能用于促進(jìn)人們對(duì)美好生活或生活目標(biāo)的感受。為了增強(qiáng)技術(shù)性,道德承諾和倫理目標(biāo)都被犧牲了?;谟?jì)算機(jī)的傳播本質(zhì),存在兩個(gè)截然對(duì)立的傳統(tǒng),即“語(yǔ)言理性主義”和“人文主義邏輯”的語(yǔ)言哲學(xué)。
從笛卡爾(Rene Descartes)到維納(Norbert Wiener)、弗洛里迪,再到基于計(jì)算機(jī)的智能,語(yǔ)言理性主義主導(dǎo)了數(shù)學(xué)模型,在認(rèn)知上存在著重大缺陷——認(rèn)為信息技術(shù)是中立的。這種傳統(tǒng)預(yù)設(shè)了事實(shí)與價(jià)值分離的二元對(duì)立論(fact-value dichotomy),將技術(shù)視作與價(jià)值相分離的無(wú)意識(shí)的工具,即技術(shù)決定論(technological determinism),假定了心身二元論(mind-body dualism)。其間,香農(nóng)(Claude Shannon)和韋弗(Warren Weaver)也認(rèn)為,通信所傳輸?shù)臄?shù)據(jù)是中性的想法不證自明。
克里斯琴斯教授提出應(yīng)以符號(hào)語(yǔ)言哲學(xué)作為更合理的傳統(tǒng),避免維納語(yǔ)言理性主義中的控制難題和事實(shí)價(jià)值二元論。他反對(duì)將人工語(yǔ)言和自然語(yǔ)言混為一談,認(rèn)為人文主義的語(yǔ)言哲學(xué)呼喚智能時(shí)代的傳播倫理??死锼骨偎雇瞥缈ㄎ鳡枺‥rnst Cassirer)的“人文主義的邏輯”(The Logic of the Humanities)[18],認(rèn)為語(yǔ)言系統(tǒng)并不僅僅是中性數(shù)據(jù)的組合,而是被規(guī)范所引領(lǐng)的,人類(lèi)的語(yǔ)言概念反映了人類(lèi)生活的價(jià)值觀,這些內(nèi)在價(jià)值才是人類(lèi)的立身之本。將人類(lèi)緊密聯(lián)系在一起的統(tǒng)一性是對(duì)認(rèn)同和尊重的共同追求。作為道德主體的人類(lèi)是準(zhǔn)則性的,而不是基于笛卡爾傳統(tǒng)的理性選擇的個(gè)人主義。人文主義語(yǔ)言哲學(xué)視技術(shù)為一個(gè)文化過(guò)程,算法等互聯(lián)網(wǎng)時(shí)代的媒體技術(shù)應(yīng)被當(dāng)作具體制度、歷史和文化背景下的符號(hào)系統(tǒng)來(lái)進(jìn)行分析。因此,算法倫理研究應(yīng)從人類(lèi)的生活世界和人的生活著手,而不是以機(jī)器為主并且用它的術(shù)語(yǔ)來(lái)定義人性。[14]
克里斯琴斯教授深入思考了智能算法時(shí)代媒介倫理的責(zé)任、權(quán)利、正當(dāng)性、事實(shí)與價(jià)值等重要議題,并提出了以下問(wèn)題。(1)具有學(xué)習(xí)能力的機(jī)器并不具備與人類(lèi)相同的道德行動(dòng)能力,但從某些合法性或正當(dāng)性來(lái)考慮,它們是否應(yīng)該承擔(dān)責(zé)任?(2)在道德關(guān)懷的情境中,機(jī)器在什么程度上能夠被視作另一個(gè)他者,并因此獲得應(yīng)該被尊重的正當(dāng)權(quán)利?(3)強(qiáng)人工智能(Artificial General Intelligence)對(duì)公平正義、共同利益和文化資本的重新定義是否正當(dāng)?(4)在將人類(lèi)作為節(jié)點(diǎn)接入基于計(jì)算機(jī)的學(xué)習(xí)機(jī)器的神經(jīng)網(wǎng)絡(luò)連接中,我們傳輸?shù)闹皇菙?shù)據(jù)還是包括意識(shí)本身?這些問(wèn)題需要我們?cè)诶碚摵蛯?shí)踐中認(rèn)真對(duì)待。在克里斯琴斯教授的論述中隱含著一個(gè)最重要的算法倫理思想,即算法人文主義。
算法人文主義從底線意義的“以人為本”出發(fā),主張將人的行動(dòng)限定在信仰、法律和道德倫理的價(jià)值體系之內(nèi),以保護(hù)人之為人的最為寶貴的尊嚴(yán)和自由。人與世界(包括與各種技術(shù)存在物的關(guān)系)并不是簡(jiǎn)單的主客體關(guān)系、目的和手段的關(guān)系,而是物我兩忘、融為一體的共同存在。一方面,算法作為人的存在的重要維度,是對(duì)人之主體性的重要呈現(xiàn);另一方面,由于人的存在是豐富的、多樣的,算法應(yīng)該在與人的共存之中,維護(hù)人之為人的尊嚴(yán)和主體性。從最底線的“以人為本”出發(fā),算法人文主義提出了維護(hù)人的尊嚴(yán)、保護(hù)個(gè)體自由、維系社會(huì)公平正義、增進(jìn)人類(lèi)整體福祉和促進(jìn)可持續(xù)發(fā)展等基本價(jià)值理念。在算法的研發(fā)設(shè)計(jì)與應(yīng)用過(guò)程中,要求要有人的視角和人的在場(chǎng);算法的研發(fā)和應(yīng)用要?jiǎng)澏ā坝兴粸椤钡慕麉^(qū),并將更多的精力和資源投入到與保護(hù)人的消極自由而不是擴(kuò)展人的積極自由相關(guān)的領(lǐng)域;為了促進(jìn)社會(huì)公平正義、防止算法權(quán)力對(duì)個(gè)體消極自由和社會(huì)公平的侵犯,要對(duì)算法的有效性、必要性和正當(dāng)性進(jìn)行衡量和評(píng)估;為了實(shí)現(xiàn)算法人文主義的整體主義的技術(shù)觀和世界觀,我們還必須將人類(lèi)視作一個(gè)整體,從促進(jìn)人類(lèi)整體的自由和福祉出發(fā),規(guī)制算法的研發(fā)和應(yīng)用,不僅要防止算法淪為少數(shù)人統(tǒng)治多數(shù)人的暴政,更要防止因人工智能的研究和使用而導(dǎo)致的毀滅。[2](PP.63~83)
三、算法倫理的研究框架與核心原則
算法倫理是一個(gè)跨學(xué)科的概念,涉及哲學(xué)倫理學(xué)、信息科學(xué)等多個(gè)領(lǐng)域。下面結(jié)合世界范圍內(nèi)具有代表性的研究成果,從概念、框架及核心問(wèn)題的角度加以闡釋。
(一)算法倫理的概念架構(gòu)
算法倫理的問(wèn)題雜冗、學(xué)術(shù)話語(yǔ)廣泛而且分散,難以形成系統(tǒng)。2016年,牛津大學(xué)互聯(lián)網(wǎng)研究院(Oxford Internet Institute, University of Oxford)和圖靈研究院(Alan Turing Institute, British Library)的五位學(xué)者,包括Brent Mittelstadt和弗洛里迪等人,基于算法運(yùn)行的組織結(jié)構(gòu),嘗試構(gòu)建了算法倫理的問(wèn)題架構(gòu)圖,旨在組織學(xué)術(shù)話語(yǔ),為算法倫理的研究提供極具啟發(fā)性的思路。
算法倫理在這項(xiàng)研究里被分成兩大范疇的六個(gè)關(guān)注點(diǎn),如圖1所示。一是認(rèn)知性范疇,包括不確定的證據(jù)、不可解讀的證據(jù)、誤導(dǎo)性證據(jù)三個(gè)方面的現(xiàn)象。算法使用推理統(tǒng)計(jì)學(xué)和(或)機(jī)器學(xué)習(xí)技術(shù)處理的數(shù)據(jù)得出的結(jié)論不可避免地具有不確定性,很少絕對(duì)可靠,不確定這一點(diǎn)對(duì)理解算法倫理非常重要;數(shù)據(jù)與結(jié)論之間的聯(lián)系不明顯時(shí),包括眾多數(shù)據(jù)點(diǎn)中的每一個(gè)如何被用來(lái)得出結(jié)論的內(nèi)在復(fù)雜性,就存在無(wú)法解讀的局限;算法在處理數(shù)據(jù)時(shí)的輸出永遠(yuǎn)不會(huì)超過(guò)輸入,結(jié)論只能與其所依據(jù)的數(shù)據(jù)一樣受限,可能帶來(lái)誤導(dǎo)性。二是規(guī)范性范疇,包括不公平的結(jié)果、變革的影響兩個(gè)方面。算法的操作標(biāo)準(zhǔn)和原則與行動(dòng)和效果的“公平性”并不能保證一致,操作可能存在歧視,帶來(lái)不公平;算法也可能以新的、意想不到的方式理解和概念化世界,帶來(lái)變革。除了以上兩個(gè)范疇,還有一個(gè)可追溯性的問(wèn)題。算法不僅與新技術(shù)的設(shè)計(jì)和可用性有關(guān),而且與大量個(gè)人和其他數(shù)據(jù)的操縱相關(guān)聯(lián),這意味著算法活動(dòng)造成的傷害難以檢測(cè),很難確定誰(shuí)應(yīng)該對(duì)造成的傷害負(fù)責(zé)。[19]
圖1 算法倫理的六個(gè)關(guān)注點(diǎn)
上述六個(gè)關(guān)注點(diǎn)又進(jìn)一步帶來(lái)六類(lèi)倫理問(wèn)題,即不確定證據(jù)導(dǎo)致不正確的行動(dòng)、無(wú)法解讀的證據(jù)導(dǎo)致不透明度、誤導(dǎo)性的證據(jù)導(dǎo)致偏見(jiàn)、不公平的結(jié)果導(dǎo)致歧視、變革的影響導(dǎo)致對(duì)自主權(quán)和信息隱私的挑戰(zhàn)以及可追溯性導(dǎo)致道德責(zé)任。
算法對(duì)人類(lèi)的信息獲取、知識(shí)建構(gòu)、思想形成都有著或顯性、或潛在的重要影響,作為新興的技術(shù),人們對(duì)它的認(rèn)知甚少,因此要確定其倫理框架確實(shí)是相當(dāng)困難的。以上這些機(jī)構(gòu)的知名學(xué)者們?cè)噲D從哲學(xué)層面建構(gòu)一個(gè)算法的倫理框架,考慮到算法的特性帶來(lái)的不確定性、不可解讀性和誤導(dǎo)性,這些與算法知識(shí)相關(guān)的幾個(gè)方面,即所謂的“認(rèn)知性”(epistemic concerns)關(guān)注的內(nèi)容的確有利于我們重視算法的內(nèi)涵、特質(zhì),從而發(fā)現(xiàn)其中的倫理問(wèn)題,比如“不確定證據(jù)”導(dǎo)致不正確的算法決策,等等。但是,算法的知識(shí)譜系是怎樣的呢?哪些算法原理會(huì)產(chǎn)生認(rèn)知性誤區(qū)呢?如果對(duì)算法知識(shí)沒(méi)有全面的、深層的理解和透析,想要概括、窮盡算法的“認(rèn)知性”困境是很困難的。因此,相關(guān)表述也是零散的、含糊其詞的,而且,這些認(rèn)知層面的問(wèn)題帶來(lái)的后果又是簡(jiǎn)單劃定的因果關(guān)系?!耙?guī)范性”(normative concerns)是一個(gè)與判斷、評(píng)價(jià)相關(guān)的方面,關(guān)涉價(jià)值判斷,這一框架中僅列出“不公平的結(jié)果”和“變革的影響”,但可以涵蓋諸如算法偏向、對(duì)人的自身及安全的影響等,這也是與算法相關(guān)的最重要的兩個(gè)方面的價(jià)值問(wèn)題。
(二)算法倫理的核心原則
人工智能算法運(yùn)用的倫理問(wèn)題在不同國(guó)家和地區(qū)基于不同主題有不同的面向。歐盟委員會(huì)的人工智能高級(jí)別專(zhuān)家組(AIHLEG)較早地確定了算法倫理原則。該專(zhuān)家組呼吁采用“以人為本的人工智能方法”,并將其界定為“可信賴(lài)的人工智能”。第一,人工智能應(yīng)遵守現(xiàn)行法律法規(guī);第二,人工智能應(yīng)該以倫理為導(dǎo)向,即尊重基本權(quán)利并遵守核心原則和價(jià)值觀;第三,算法必須具有技術(shù)上的穩(wěn)健性和算法的可靠性。
關(guān)于人工智能的倫理原則,歐盟委員會(huì)的人工智能高級(jí)別專(zhuān)家組認(rèn)為建立可信賴(lài)的人工智能應(yīng)遵循四個(gè)倫理原則。(1)尊重人類(lèi)自治的原則,即確保維護(hù)人類(lèi)的自決權(quán),這意味著人工智能技術(shù)增強(qiáng)了人類(lèi)在工作中的能力,并且保持對(duì)這些技術(shù)操作的控制。(2)預(yù)防損害的原則,其中包括確保人工智能可靠且技術(shù)上穩(wěn)健,以避免復(fù)制出現(xiàn)實(shí)世界中可能存在的偏見(jiàn)和不平等,避免對(duì)生命體與環(huán)境的潛在傷害。(3)公平原則,要求在人工智能的開(kāi)發(fā)、部署和使用中享有平等機(jī)會(huì),明確識(shí)別負(fù)責(zé)人工智能行為的實(shí)體,并且清楚地理解算法決策過(guò)程。(4)可解釋性原則,強(qiáng)調(diào)必須公開(kāi)披露有關(guān)算法目的和行為的信息,以便建立和維護(hù)信任。為滿(mǎn)足人工智能系統(tǒng)的生命周期,這些原則可以遵循七項(xiàng)要求,即人為代理和監(jiān)督,技術(shù)穩(wěn)健性和安全性,隱私和數(shù)據(jù)治理,透明性,多樣性、非歧視性和公平性,社會(huì)和環(huán)境福祉以及問(wèn)責(zé)制。[20]
四、算法倫理的核心問(wèn)題及求解
算法涉及人類(lèi)倫理、科技倫理的多個(gè)面向。從科技的視角看,目前權(quán)威學(xué)者如科恩斯(Michael Kearns)關(guān)心的算法倫理問(wèn)題包括隱私、公平、不可解釋性等。[21]賓夕法尼亞大學(xué)計(jì)算機(jī)與信息科學(xué)系教授科恩斯是美國(guó)計(jì)算機(jī)領(lǐng)域的權(quán)威學(xué)者之一,2021年入選美國(guó)國(guó)家科學(xué)院院士、2012年入選美國(guó)藝術(shù)與科學(xué)研究院院士,在計(jì)算機(jī)學(xué)習(xí)倫理、算法博弈論等領(lǐng)域處于領(lǐng)先地位。2019年,他與同事羅斯(Aaron Roth)合作出版了《守倫理的算法:社會(huì)意識(shí)算法設(shè)計(jì)的科學(xué)》(The Ethical Algorithm: The Science of Socially Aware Algorithm Design)。他們從技術(shù)角度探究的算法倫理問(wèn)題,正是當(dāng)前算法技術(shù)的核心倫理問(wèn)題,以下分別加以介紹。
(一)隱私問(wèn)題
從某種意義上說(shuō),隱私是一個(gè)人周?chē)安豢山咏膮^(qū)域”,它顯示的是個(gè)人的尊嚴(yán),是一種社會(huì)安排,允許個(gè)人控制誰(shuí)可以在物質(zhì)和個(gè)人信息層面與其接近。[22](PP.204~205)在互聯(lián)網(wǎng)時(shí)代的信息隱私保護(hù)上,匿名是數(shù)據(jù)平臺(tái)最常用的手段,但是這種隱私保護(hù)的辦法帶來(lái)了一個(gè)算法困境。算法離不開(kāi)個(gè)人數(shù)據(jù),我們所有在網(wǎng)絡(luò)上暴露過(guò)的個(gè)人信息,包括各類(lèi)喜好厭惡、行動(dòng)蹤跡,都會(huì)被那些算法平臺(tái)所收集和使用。這些信息雖然通常運(yùn)用“匿名的”數(shù)據(jù)集,但實(shí)際上仍然能夠識(shí)別出數(shù)據(jù)主的真實(shí)身份。
一個(gè)著名的例子就是流媒體平臺(tái)奈飛獎(jiǎng)(Netflix Prize)競(jìng)賽引發(fā)的數(shù)據(jù)暴露事件。2006年,在奈飛還只是一家DVD出租公司(尚未成為流媒體平臺(tái))時(shí),它推出了一項(xiàng)具有高額獎(jiǎng)金的競(jìng)賽,通過(guò)公共數(shù)據(jù)科學(xué)競(jìng)賽,尋找最佳的“協(xié)同過(guò)濾”算法(collaborative filtering algorithm),使奈飛原有的推薦系統(tǒng)的準(zhǔn)確性提高10%。通過(guò)用戶(hù)此前對(duì)影片的評(píng)分及評(píng)分日期為用戶(hù)定制其可能喜歡的影片——“協(xié)同過(guò)濾”算法的目標(biāo)是預(yù)測(cè)用戶(hù)對(duì)其尚未看到的電影的評(píng)價(jià),然后向用戶(hù)推薦算法預(yù)測(cè)用戶(hù)評(píng)級(jí)最高的影片。為了獲得最佳的算法推薦系統(tǒng),奈飛還公開(kāi)發(fā)布了許多數(shù)據(jù),一個(gè)超過(guò)1億部電影評(píng)分記錄的數(shù)據(jù)集相當(dāng)于 50萬(wàn)用戶(hù)對(duì)1.8萬(wàn)部電影的評(píng)分。在公布這些數(shù)據(jù)時(shí),奈飛非常重視隱私問(wèn)題,刪除了所有數(shù)據(jù)中的用戶(hù)身份信息,代之以無(wú)意義的數(shù)字標(biāo)號(hào),使其符合美國(guó)《視頻隱私保護(hù)法案》(The Video Privacy Protection Act, 1988)對(duì)電影租賃業(yè)的嚴(yán)厲規(guī)定。然而,在數(shù)據(jù)公布的兩周后,得克薩斯大學(xué)(奧斯汀分校)的一位博士生和他的導(dǎo)師就結(jié)合網(wǎng)絡(luò)信息和公布的數(shù)據(jù),還原了數(shù)據(jù)集中刪除的標(biāo)識(shí)化信息,并附上了匿名數(shù)據(jù)主的真實(shí)姓名。[21](PP.22~26)
所以說(shuō),算法時(shí)代的隱私保護(hù)是一個(gè)棘手的難題?,F(xiàn)實(shí)中的隱私保護(hù)涉及個(gè)人、平臺(tái)、社會(huì)等多個(gè)方面,僅從平臺(tái)而言,對(duì)于這類(lèi)去除了標(biāo)識(shí)化的信息導(dǎo)致的算法的隱私困境,可以從技術(shù)角度做出努力。比如,科恩斯等人提出了使用“差分隱私”(differential privacy)的算法,避免匿名(去標(biāo)識(shí)化的)用戶(hù)信息的暴露。[21](PP.36~56)此外,他們還探討了如何將人類(lèi)的公正、責(zé)任、道德原則等嵌入到機(jī)器代碼中,以技術(shù)的方式解決算法倫理的困境,帶來(lái)人們對(duì)“道德機(jī)器”的期待。
(二)公平問(wèn)題
算法的不公平、價(jià)值偏向(偏見(jiàn))、歧視等一直飽受詬病。這些問(wèn)題與技術(shù)、工程師的價(jià)值觀、平臺(tái)的利益驅(qū)動(dòng)等相關(guān)。學(xué)習(xí)算法是將決策問(wèn)題的歷史實(shí)例(即訓(xùn)練數(shù)據(jù))作為輸入并生成決策規(guī)則或分類(lèi)器,然后將其用于問(wèn)題的后續(xù)實(shí)例的方法。運(yùn)用現(xiàn)實(shí)數(shù)據(jù)集、經(jīng)過(guò)人類(lèi)行為訓(xùn)練的算法都將歷史和文化習(xí)俗嵌入和編碼于算法之中。
了解算法的工作原理有益于我們理解公平問(wèn)題。算法的實(shí)施需要經(jīng)過(guò)三重中介:一是設(shè)計(jì)算法方案的專(zhuān)家;二是作為計(jì)算目標(biāo)的數(shù)據(jù)主體;三是算法本身。比如,通過(guò)對(duì)數(shù)字化的敘利亞難民安置算法的研究發(fā)現(xiàn),經(jīng)過(guò)算法自動(dòng)決策之后的新數(shù)字景觀雖然能夠得出更好的經(jīng)濟(jì)和就業(yè)方案,但是難民認(rèn)為社會(huì)文化特征在該空間中被低估,專(zhuān)家對(duì)該過(guò)程的透明性和歸責(zé)問(wèn)題也表示擔(dān)憂。[23]算法可以對(duì)社會(huì)生活規(guī)則和規(guī)范進(jìn)行重構(gòu)、對(duì)社會(huì)秩序產(chǎn)生沖擊并加以構(gòu)建,對(duì)意識(shí)形態(tài)空間產(chǎn)生形塑作用。[24]
而且,算法是難以中立的。從技術(shù)層面而言,機(jī)器學(xué)習(xí)分類(lèi)器會(huì)帶來(lái)不公平,而算法的偏向和不公平常常是無(wú)意間造成的。首先,數(shù)據(jù)是人類(lèi)現(xiàn)實(shí)社會(huì)的反映,人類(lèi)現(xiàn)存的偏見(jiàn)以及由不公的現(xiàn)實(shí)數(shù)據(jù)訓(xùn)練出來(lái)的算法,本身就可能存在偏向和不公;其次,數(shù)據(jù)的樣本量差異也會(huì)帶來(lái)不準(zhǔn)確性,分類(lèi)器通常會(huì)隨著用于訓(xùn)練它的數(shù)據(jù)點(diǎn)數(shù)量的增加而改善。也就是說(shuō),數(shù)據(jù)越多、越全面,建立的分類(lèi)器可能就越準(zhǔn)確,而數(shù)據(jù)量小通常會(huì)導(dǎo)致預(yù)測(cè)、決策的不準(zhǔn)確,比如少數(shù)族裔、弱勢(shì)群體的可用數(shù)據(jù)量相對(duì)比較少,因此可能帶來(lái)較為嚴(yán)重的不公和偏見(jiàn)。除此之外,還有其他問(wèn)題,如技術(shù)水平、文化差異等等。
在民族、性別等方面,算法還產(chǎn)生了一系列認(rèn)知規(guī)范的不公正案例。比如卡內(nèi)基梅隆大學(xué)研究人員的一項(xiàng)研究發(fā)現(xiàn),谷歌的在線廣告系統(tǒng)向男性展示高收入工作廣告的頻率要比向女性高得多[25];哈佛大學(xué)對(duì)在線廣告投放的研究發(fā)現(xiàn),有關(guān)逮捕記錄的廣告更有可能出現(xiàn)在具有明顯黑人姓名或歷史悠久的黑人兄弟情誼的廣告中[26]。近年這些不公正性還擴(kuò)展到了勞動(dòng)關(guān)系之中,形成了對(duì)勞動(dòng)工人的歧視。比如在我國(guó),算法歧視性決策使得外賣(mài)騎手困在算法系統(tǒng)里,帶來(lái)零工經(jīng)濟(jì)平臺(tái)的人文主義缺失。[27]
(三)透明性問(wèn)題
第二代人工智能屬于數(shù)據(jù)驅(qū)動(dòng)型,較之于第一代人工智能的知識(shí)驅(qū)動(dòng)型而言,機(jī)器主要通過(guò)模擬人類(lèi)的感知來(lái)進(jìn)行計(jì)算。第二代智能技術(shù)先天地具有不可解釋性、不透明性。算法專(zhuān)家們已經(jīng)接受算法是黑箱這一事實(shí),但他們并不認(rèn)為低透明度意味著低可信度。對(duì)于非專(zhuān)家群體而言,增加算法透明性很難具有可操作性,尤其考慮到模型是復(fù)雜的、時(shí)刻處在動(dòng)態(tài)發(fā)展中的。[28]
透明性主要包括信息的可訪問(wèn)性和可解釋性。在新聞傳播領(lǐng)域,透明性已然成為算法時(shí)代新聞業(yè)的核心原則。新聞媒體中的“算法透明性”可以被理解成“闡明那些與算法有關(guān)的信息可以被公開(kāi)的機(jī)制”,包括“披露算法如何驅(qū)動(dòng)各種計(jì)算系統(tǒng)從而允許用戶(hù)確定操作中的價(jià)值、偏差或意識(shí)形態(tài),以便理解新聞產(chǎn)品中的隱含觀點(diǎn)”[29],也可以解釋成闡明那些與算法有關(guān)的信息可以被公開(kāi)的機(jī)制,包括信息透明、理念透明和程序透明。不少學(xué)者認(rèn)為,實(shí)現(xiàn)“算法透明性”是解決新技術(shù)帶來(lái)的倫理問(wèn)題,尤其是算法偏見(jiàn)和歧視以及侵犯信息隱私等問(wèn)題的重要途徑。
“開(kāi)放倫理”觀即將用戶(hù)納入信息過(guò)程,可以作為實(shí)施算法透明度相關(guān)實(shí)踐和話語(yǔ)的指導(dǎo)理念,在倫理原則的制定、倫理判斷、倫理抉擇以及信息公開(kāi)等所有實(shí)施算法透明度的環(huán)節(jié),都要考慮用戶(hù)的認(rèn)知、態(tài)度與需求,這對(duì)促進(jìn)“異質(zhì)新聞/內(nèi)容實(shí)踐網(wǎng)絡(luò)”中各主體的對(duì)話,改善各主體在倫理話語(yǔ)權(quán)方面的不平等具有重要意義。[30]
開(kāi)放的倫理觀對(duì)將算法運(yùn)用于媒介的倫理研究具有創(chuàng)新意義。有研究者發(fā)現(xiàn),經(jīng)過(guò)用戶(hù)畫(huà)像算法這一中介,傳統(tǒng)意義上的身份定義方式被改變,轉(zhuǎn)而成為算法與人類(lèi)社會(huì)知識(shí)有機(jī)互動(dòng)的過(guò)程,他們認(rèn)為,對(duì)用戶(hù)進(jìn)行畫(huà)像的聚類(lèi)算法包括構(gòu)建不具意義的類(lèi)別、為類(lèi)別重新賦予社會(huì)意義兩個(gè)過(guò)程,前者不依賴(lài)于人類(lèi)社會(huì)的意義,生成大量超越現(xiàn)有解釋的未定義類(lèi)別,后者將語(yǔ)言的、社會(huì)的知識(shí)重新引入類(lèi)別的界定之中。[31]
結(jié)語(yǔ)
算法讓我們的生活和工作更有效率、更有趣味,讓我們獲得更加豐富的信息。它已經(jīng)在影響人們?nèi)粘I畹拇蟛糠謨?nèi)容,如與他人的互動(dòng)、人們的吃穿用等消費(fèi)行為,以及人們所獲取的信息、投資決策、職業(yè)選擇,等等,人類(lèi)甚至更相信算法。哈佛商學(xué)院的調(diào)研結(jié)果顯示,人們更愿意采用被告知是算法的建議而不是人類(lèi)的建議??偠灾?,算法成了我們生活中不可或缺的技術(shù),變成了日常生活中的強(qiáng)大中介。而且,算法也在重塑信息傳播。人們將智能算法運(yùn)用于信息傳播的全過(guò)程,從數(shù)據(jù)挖掘、新聞生產(chǎn)到新聞發(fā)布與分發(fā)、信息核實(shí)與用戶(hù)互動(dòng),它可以使新聞發(fā)掘更深入、觸覺(jué)更敏銳、面向更廣泛,不僅能呈現(xiàn)新聞,通過(guò)科學(xué)的算法還可以預(yù)測(cè)新聞;它不僅大大提升了新聞寫(xiě)作的數(shù)量和快捷性,而且還可以加強(qiáng)信息的可視性、擬態(tài)性和播報(bào)的精確性;它能夠更精準(zhǔn)地了解用戶(hù)的個(gè)性化需求,不僅能夠進(jìn)行個(gè)性化的訂制、優(yōu)化和推送,而且還可以通過(guò)新聞機(jī)器人和聊天機(jī)器人與海量用戶(hù)進(jìn)行互動(dòng)。在其他非新聞?lì)愋畔⑸a(chǎn)上,智能同樣產(chǎn)生了廣泛且深遠(yuǎn)的影響。因此,我們不得不面對(duì)復(fù)雜的算法帶來(lái)的越來(lái)越多的倫理問(wèn)題,如侵犯?jìng)€(gè)人的隱私權(quán)利、帶來(lái)不公正、使我們生活于算法的黑箱之中等現(xiàn)實(shí)問(wèn)題。在算法泛用的背景下,我們需要發(fā)現(xiàn)、面對(duì)乃至解決這些問(wèn)題,提升認(rèn)識(shí)和理解,促進(jìn)算法善用。
算法倫理的核心原則是算法人文主義,即堅(jiān)持人文主義的傳統(tǒng)三個(gè)要素。一是智能算法時(shí)代,仍然要堅(jiān)持人的主導(dǎo)價(jià)值,重視人的獨(dú)特性即人的尊嚴(yán);二是在將算法廣泛應(yīng)用于人類(lèi)決策的同時(shí),仍然要堅(jiān)持以人為本,從人的視角出發(fā);三是將人及人性視作一個(gè)豐富而又復(fù)雜的存在,在算法運(yùn)行中尊重人和人性。算法人文主義是一種底線思維、協(xié)商倫理,它所主張的“以人為本”并不是那種積極、主動(dòng)的自我主導(dǎo)、自我支配,而是從最底線的意義維護(hù)人之為人的獨(dú)特價(jià)值,也就是人的尊嚴(yán)和自由。算法人文主義主張一種前科學(xué)的人性觀和世界觀,人并非算法,而是充滿(mǎn)了各種可能性,具有獨(dú)特的豐富性和復(fù)雜性。在人與算法的關(guān)系上,由于人的存在是一種非本質(zhì)化卻又飽含豐富性的存在,包括算法在內(nèi)的外在技術(shù)以及人的理性、自由,甚至身體,都只是人類(lèi)存在的一個(gè)維度或者面向,算法人文主義拒絕心身二元分離、主客體對(duì)立的價(jià)值觀,而是將身體與心靈視作一個(gè)整體,將技術(shù)內(nèi)置于人的存在之中,由此構(gòu)建基于關(guān)切和照看的整體主義的技術(shù)觀,人與技術(shù)不是主客體支配與被支配的關(guān)系,而是在人的存在之中,算法技術(shù)是作為人之存在的重要面向,并在使用和照看中展開(kāi)和呈現(xiàn)人之主體性的關(guān)系。在算法運(yùn)用中,要堅(jiān)持和倡導(dǎo)社會(huì)的公平正義原則。算法以技術(shù)壟斷、流量分配和話語(yǔ)影響等形式,構(gòu)成一種與以往否定性的暴力權(quán)力、規(guī)訓(xùn)權(quán)力截然不同的肯定性權(quán)力,主導(dǎo)著社會(huì)資源和機(jī)會(huì)的分配,影響著社會(huì)公平正義的實(shí)現(xiàn)。人類(lèi)必須通過(guò)對(duì)算法有效性、算法必要性和算法正當(dāng)性的考量,用公平的價(jià)值理念指導(dǎo)算法的研發(fā)和應(yīng)用,彌補(bǔ)算法內(nèi)在的缺陷,實(shí)現(xiàn)算法的公平,而不是公平的算法。[2](PP.11~12)
[參考文獻(xiàn)]
[1]陳昌鳳.數(shù)據(jù)主義之于新聞傳播:影響、解構(gòu)與利用[J].新聞界,2021,(11).
[2]陳昌鳳,李凌.算法人文主義:公眾智能價(jià)值觀與科技向善[M].北京:新華出版社,2022.
[3]尤瓦爾·赫拉利.未來(lái)簡(jiǎn)史:從智人到智神[M].林俊宏,譯.北京:中信出版集團(tuán),2017.
[4]丹尼爾·卡尼曼,等.噪聲:人類(lèi)判斷的缺陷[M].李紓,等,譯.杭州:浙江教育出版社,2021.
[5]師文,等.邏輯、發(fā)現(xiàn)與局限:近五年智媒研究的六種算法話語(yǔ)[J].編輯之友,2022,(4).
[6]劉曉力.計(jì)算主義質(zhì)疑[J].哲學(xué)研究,2003,(4).
[7]陳昌鳳,石澤.技術(shù)與價(jià)值的理性交往:人工智能時(shí)代信息傳播[J].新聞戰(zhàn)線,2017,(8).
[8]陳昌鳳,仇筠茜.“信息繭房”在西方:似是而非的概念與算法的“破繭”求解[J].新聞大學(xué),2020,(1).
[9]徐笛.算法實(shí)踐中的多義與轉(zhuǎn)義:以新聞推薦算法為例[J].新聞大學(xué),2019,(12).
[10]師文,陳昌鳳.分布與互動(dòng)模式:社交機(jī)器人操縱Twitter上的中國(guó)議題研究[J].國(guó)際新聞界,2020,(5).
[11]林愛(ài)珺,劉運(yùn)紅.智能新聞信息分發(fā)中的算法偏見(jiàn)與倫理規(guī)制[J].新聞大學(xué),2020,(1).
[12]李凌,陳昌鳳.信息個(gè)人化轉(zhuǎn)向:算法傳播的范式革命和價(jià)值風(fēng)險(xiǎn)[J].南京社會(huì)科學(xué),2020,(10).
[13]陳昌鳳,虞鑫.智能時(shí)代的信息價(jià)值觀研究:技術(shù)屬性、媒介語(yǔ)境與價(jià)值范疇[J].編輯之友,2019,(6).
[14]克利福德·G.克里斯琴斯.哲學(xué)視野中的人工智能:語(yǔ)言的視角[A].陳昌鳳.智能傳播:理論、應(yīng)用與治理[C].北京:中國(guó)社會(huì)科學(xué)出版社,2021.
[15]Floridi,Luciano.The Fourth Revolution:How the Infosphere is Reshaping Human Reality[M].Oxford, UK:Oxford University Press,2014.
[16]盧恰諾·弗洛里迪.信息倫理學(xué)[M].薛平,譯.上海:上海譯文出版社,2018.
[17]Floridi,Luciano.The Ethics of Information[M].Oxford,UK:Oxford University Press,2013.
[18]Cassirer,Ernst.The Logic of the Humanities[M].New Haven,CT:Yale University Press,1960.
[19]Mittelstadt Brent,et al..The Ethics of Algorithms: Mapping the Debate[J].Big Data & Society,2016,(3).
[20]陳昌鳳,Ayamou Chekam Gaelle Patricia.人工智能在新聞傳播中的運(yùn)用與善用[A].陳昌鳳.智能傳播:理論、應(yīng)用與治理[C].北京:中國(guó)社會(huì)科學(xué)出版社,2021.
[21]Michael Kearns,Aaron Roth.The Ethical Algorithm:The Science of Socially Aware Algorithm Design[M].Oxford,UK:Oxford University Press,2019.
[22]邁克爾·J.奎因.互聯(lián)網(wǎng)倫理:信息時(shí)代的道德重構(gòu)[M].王益民,譯.北京:電子工業(yè)出版社,2016.
[23]Masso A.,Kasapoglu T..Understanding Power Positions in a New Digital Iandscape:Perceptions of Syrian Refugees and Data Experts on Relocation Algorithm[J].Information,Communication & Society,2020,(8).
[24]師文,陳昌鳳.信息個(gè)人化與作為傳播者的智能實(shí)體:聚焦2020智能傳播研究[J].新聞?dòng)浾撸?021,(1).
[25]Amit Datta,et al..Automated Experiments on Ad Privacy Settings:A Tale of Opacity,Choice,and Discrimination[J].Proceedings on Privacy Enhancing Technologies,2015,(1).
[26]Latanya Sweeney.Discrimination in Online Ad Delivery[EB/OL].https://dataprivacylab.org/projects/onlineads/1071-1.pdf,2013-01-28/2022-03-12.
[27]林嘉琳,陳昌鳳.算法決策下零工經(jīng)濟(jì)平臺(tái)的權(quán)力關(guān)系變動(dòng)及價(jià)值選擇[J].西南民族大學(xué)學(xué)報(bào)(人文社會(huì)科學(xué)版),2021,(12).
[28]Kolkman D.The (in) Credibility of Algorithmic Models to Non-experts[J].Information,Communication & Society,2022,(1).
[29]Diakopoulos N,Koliska M.Algorithmic Transparency in the News Media[J].Digital Journalism,2017,(7).
[30]陳昌鳳,張夢(mèng).智能時(shí)代的媒介倫理:算法透明度的可行性及其路徑分析[J].新聞與寫(xiě)作,2020,(8).
[31]Kotliar,DM.The Return of the Social:Algorithmic Identity in an Age of Symbolic Demise[J].New Media &Society,2020,(7).
基金項(xiàng)目:國(guó)家社科基金重大項(xiàng)目“智能時(shí)代的信息價(jià)值觀引領(lǐng)研究”(編號(hào):18ZDA307);清華大學(xué)計(jì)算與智能傳播實(shí)驗(yàn)室項(xiàng)目。
本文載于《內(nèi)蒙古社會(huì)科學(xué)》2022年第3期
本站僅提供存儲(chǔ)服務(wù),所有內(nèi)容均由用戶(hù)發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊舉報(bào)
打開(kāi)APP,閱讀全文并永久保存 查看更多類(lèi)似文章
猜你喜歡
類(lèi)似文章
1180劉一瑩:算法倫理的維護(hù)有何進(jìn)展
數(shù)字文明變局中的教育數(shù)字化轉(zhuǎn)型
數(shù)據(jù)革命,會(huì)造成“神人”及龐大的無(wú)用階級(jí)!人類(lèi)將如何面對(duì)?
《未來(lái)簡(jiǎn)史》精華——千字梳理脈絡(luò)
詳解《未來(lái)簡(jiǎn)史》——假設(shè)、論證邏輯與基本結(jié)論
10分鐘帶你讀懂《未來(lái)簡(jiǎn)史》
更多類(lèi)似文章 >>
生活服務(wù)
熱點(diǎn)新聞
分享 收藏 導(dǎo)長(zhǎng)圖 關(guān)注 下載文章
綁定賬號(hào)成功
后續(xù)可登錄賬號(hào)暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點(diǎn)擊這里聯(lián)系客服!

聯(lián)系客服