中文字幕理论片,69视频免费在线观看,亚洲成人app,国产1级毛片,刘涛最大尺度戏视频,欧美亚洲美女视频,2021韩国美女仙女屋vip视频

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
人工智能時代的新聞倫理

人工智能背景下新聞傳播的生產(chǎn)工具和生產(chǎn)方式出現(xiàn)了巨大變化,尊崇客觀、公正、最小傷害的新聞倫理傳統(tǒng)面臨沖擊,研究范疇由新聞工作者、新聞機構(gòu)、新聞受眾延伸至智能技術(shù)和社交平臺,它們在新聞倫理圖景中的位置和行為模式也產(chǎn)生了變化。

一、人工智能及其對新聞倫理的影響

新聞傳播的數(shù)字化和國際化對媒體倫理傳統(tǒng)假定帶來進一步的沖擊。首先,在線新聞,特別是基于社交媒體的信息傳播模式,使得傳統(tǒng)的“驗證新聞”及其嚴(yán)格的事實檢查正在被非專業(yè)化的新聞形式取代。

新聞專業(yè)人員把控信息流的壟斷地位被打破,傳統(tǒng)媒體一直遵循的倫理價值,如客觀公正、把關(guān)控制等,也被大量即時性用戶生成的內(nèi)容遮蔽。而全球化新聞業(yè)的出現(xiàn),不僅導(dǎo)致文化價值的沖突,也產(chǎn)生了一個更難解決的問題,即如何設(shè)想和界定全球化新聞傳播的相關(guān)責(zé)任。

人工智能的兩大支柱——算法和大數(shù)據(jù),已經(jīng)多維度地進入新聞傳播領(lǐng)域,特別是智能推薦算法作為兩者的集成,已經(jīng)在信息傳播領(lǐng)域產(chǎn)生巨大的影響。目前主流的推薦算法有三種:基于內(nèi)容的推薦、基于協(xié)同過濾的推薦和基于時序流行度的推薦。

基于內(nèi)容的算法,其主要邏輯是受眾偏好與新聞內(nèi)容特征的匹配。通過用戶特征數(shù)據(jù)和網(wǎng)絡(luò)行為的分析,確立興趣模型;利用分詞技術(shù)等模式計算內(nèi)容文本特征,選取兩者之間相關(guān)度高的形成推薦列表。這種算法能夠有效增加用戶黏性,但對于個人信息的標(biāo)簽化分析,也容易引發(fā)個人數(shù)據(jù)安全性的爭議。近期斯坦福大學(xué)研發(fā)的算法可以通過交友網(wǎng)站信息判定性取向,準(zhǔn)確率高達91%,這一研究立即招致公眾批評,也讓公眾對于算法的信息挖掘能力產(chǎn)生倫理質(zhì)疑。

協(xié)同過濾算法的基本邏輯是人以群分,通過計算用戶的特征數(shù)據(jù)將其編入一個用戶群體,按照群體共享度較高的偏好推薦內(nèi)容。這種做法將計算單位有效地下降為群體,減少了數(shù)據(jù)處理量。谷歌新聞最早采取的就是這類推薦算法。但是這種算法的倫理困境在于容易產(chǎn)生信息繭房,且將人群分類可能產(chǎn)生潛在的算法歧視,不僅觸犯個人隱私,而且易于強化社會偏見。

基于時序流行度的推薦算法,將單位時間的瞬時點擊率等動態(tài)特征作為考量因素,將特定時間窗口內(nèi)流行度較高的新聞推薦給用戶。這種算法模型很好地解決了內(nèi)容冷啟動問題,但是對于“標(biāo)題黨”和“三俗”信息的免疫力相對較低。

過度依賴算法推薦的新聞價值排序,會產(chǎn)生傳播權(quán)(新聞價值權(quán)重排序決策權(quán))、信息自由(人的傳播自主性)、信息觸達(服務(wù)的普適性、信息的不當(dāng)觸達)、信息隱私權(quán)和數(shù)字身份及其保護的問題。目前有兩種倫理風(fēng)險已經(jīng)引起廣泛的關(guān)注:數(shù)據(jù)安全和算法偏見。

二、人工智能時代新聞倫理的道德行動者

1、政府:倫理治理的規(guī)則制定者與底線管控者

變革性技術(shù)總是同時帶來正面和負(fù)面效應(yīng),人類也逐漸摸索出一套技術(shù)控制模式。這種模式一般包含兩個方面,其一是社會規(guī)范性的,如法律、法規(guī);其二是技術(shù)性的,即對技術(shù)設(shè)計和運用制定標(biāo)準(zhǔn)。這兩項工作都需要國家,甚至國家間的合作方能達成。

對于人工智能的管理,政府顯性地扮演兩種角色。首先,是在國家戰(zhàn)略層面,通過行業(yè)規(guī)劃和部署,將技術(shù)開發(fā)、產(chǎn)業(yè)發(fā)展作為核心戰(zhàn)略要素,在國際競爭的語境下予以通盤考慮。在我國,國務(wù)院于2017年7月印發(fā)了《新一代人工智能發(fā)展規(guī)劃》和《促進新一代人工智能產(chǎn)業(yè)發(fā)展三年行動計劃(2018~2020年)》等政策,讓中國的人工智能發(fā)展有了明確的時間表和路線圖。

2016年10月美國政府出臺了“美國國家人工智能研發(fā)規(guī)劃”,加拿大、英國、德國、法國等國家也針對人工智能研究和機器人設(shè)計出臺專門的戰(zhàn)略規(guī)劃和規(guī)范性報告。其次,是從司法實踐角度,各國也有專門法規(guī),如歐盟《一般數(shù)據(jù)保護條例》和美國《人工智能未來法案》等。

2、媒體:新聞倫理的日常踐行者

媒體是新聞倫理中最為核心的部分,因為傳統(tǒng)新聞生產(chǎn)、分發(fā)都在該系統(tǒng)內(nèi)完成。自1923年美國報紙編輯協(xié)會提出美國首個新聞業(yè)自律規(guī)范《報人守則》,新聞倫理就與新聞工作者的職業(yè)倫理和行業(yè)自律掛鉤。

在前互聯(lián)網(wǎng)時代,新聞倫理通常與報道內(nèi)容及其選擇相掛鉤,責(zé)任、獨立、真實準(zhǔn)確、公正、公平等原則以不同的形式予以表達。在絕大部分的媒體體制之下,媒體不僅具有社會公共性,本身作為承擔(dān)一定經(jīng)營活動的組織,也需要考慮經(jīng)濟層面的可持續(xù)發(fā)展問題。因此,大眾化媒體如何處理公共服務(wù)和商業(yè)利益之間的張力,以兼顧經(jīng)濟效益和社會效益,是新聞倫理的主要關(guān)切點。在此間所產(chǎn)生的媒體與國家的關(guān)系、媒體與社會的關(guān)系、媒體與個體的關(guān)系,也是新聞倫理的核心焦點。

社交媒體和智能推薦算法的結(jié)合,改變了受眾獲得信息的主要渠道和接受模式,傳統(tǒng)媒體的議程設(shè)置功能受到較大沖擊,部分媒體開始被迫跟隨社交媒體表達模式改變自身的新聞生產(chǎn)方式。但是2016年美國大選所引發(fā)的“后真相”討論,恰恰說明社會仍然需要“不可愛的新聞界”,新聞界需要做的是將尋求、核查、鑒定事實和真相的過程置于公共討論之中,重構(gòu)交往的倫理規(guī)范。

3、公眾:“用腳投票”的新聞倫理批評者

自20世紀(jì)20年代杜威和李普曼的爭論為起始,公眾是具有公共目的的社會有機統(tǒng)一體,還是原子化的消極“幻影”,存在根本性的學(xué)術(shù)分歧。而學(xué)術(shù)界對公眾在新聞傳播系統(tǒng)中的作用,也始終存在爭議。

在人工智能時代,“你關(guān)心的就是頭條”的算法邏輯,使得公眾或者說用戶的地位得到了進一步提升。信息平臺認(rèn)為自身不存在新聞立場,算法的主要目的在于加強用戶的黏性。

2016年以來,F(xiàn)acebook推出一系列機制,強調(diào)保障用戶對最終內(nèi)容的選擇權(quán),其中尤為強調(diào)3F原則(Friends and Family First),即好友分享的優(yōu)先級高于新聞媒體發(fā)布的消息。這一算法權(quán)重變化的目的在于,從“幫助你找到相關(guān)的內(nèi)容”轉(zhuǎn)向“實現(xiàn)用戶有意義的社會互動”,即促成用戶間的討論和深度參與。賦權(quán)用戶而非傳統(tǒng)強勢機構(gòu),是算法所強調(diào)的平權(quán)價值。但是其后所引發(fā)的虛假消息充斥社交媒體,也是傳統(tǒng)機構(gòu)媒體權(quán)重下降后的副作用。

人工智能系統(tǒng)非常有效地通過用戶日漸增多的網(wǎng)絡(luò)行為數(shù)據(jù)進行精準(zhǔn)內(nèi)容推薦,公眾是被動接受偏好的信息從而陷入信息繭房,還是有意識地通過綜合使用媒體平臺,形成更加理性而多元的社會認(rèn)知,其重任日益集中到個體自身。因此現(xiàn)階段至少可以相對確定地說,公眾作為新聞倫理的行動者,在人工智能時代所肩負(fù)的責(zé)任將更加重大。

三、人工智能時代的新聞倫理結(jié)構(gòu)

人工智能時代新聞倫理的道德行動者出現(xiàn)了變化,顯性地表現(xiàn)為增加了一個重要的機構(gòu)行動者,我們姑且將它們稱為互聯(lián)網(wǎng)信息平臺公司。與此同時,傳統(tǒng)的道德行動者——政府、媒體、公眾,它們在倫理圖景中的位置和行為模式也產(chǎn)生了變化。政府在規(guī)制方面采取了更加前瞻式的模式以應(yīng)對變革性技術(shù)的社會構(gòu)建動能。

為了更清晰地展現(xiàn)各道德行動者之間的倫理互動結(jié)構(gòu),有必要進一步區(qū)分不同行動者的區(qū)位。個人倫理層次、組織倫理層次、社會倫理層次的區(qū)分有助于進一步明晰對此問題的論述。

第一,個人倫理層次,主要包括新聞專業(yè)主義和工程師倫理

傳統(tǒng)新聞倫理具有很強的個人倫理色彩,記者、編輯就自己生產(chǎn)的新聞內(nèi)容承擔(dān)風(fēng)險、享受贊譽。在新聞專業(yè)主義理論體系下,個人層次的倫理認(rèn)知,不僅是職業(yè)認(rèn)知的重要組成部分,也是新聞機構(gòu)權(quán)威性的主要來源。

客觀、公正、服務(wù)公共利益,是新聞工作者長期珍視的倫理傳統(tǒng)。自動化新聞平臺將工程師也納入新聞傳播領(lǐng)域,他們所編寫的代碼直接影響新聞倫理。因此工程師團體需要通過合理的結(jié)構(gòu)代碼完成其倫理責(zé)任。

責(zé)任是知識和力量的函數(shù)。在智能信息時代,科學(xué)家、工程師不僅人數(shù)眾多而且參與社會重大的決策和管理,他們的行為會對他人、對社會帶來比其他人更大的影響,因此他們應(yīng)負(fù)更多的倫理責(zé)任。

在過去25年中,工程倫理領(lǐng)域的主要成就之一就是工程師們越來越意識到自身的價值觀對設(shè)計進程的影響,以及此過程中他們對他人價值觀的敏感度。2000年,美國工程和技術(shù)認(rèn)證委員會(ABET)在其標(biāo)準(zhǔn)中明確指出,工程教育必須證明他們的學(xué)生“對職業(yè)和道德責(zé)任的理解”。

奧巴馬政府2016年10月將“理解并解決人工智能的道德、法律和社會影響”列入美國國家人工智能戰(zhàn)略,并建議AI從業(yè)者和學(xué)生都要接受倫理培訓(xùn)。與此同時,鑒于大量的媒體內(nèi)容來自用戶生成內(nèi)容,涉足其間的個體制作者及其倫理素養(yǎng)也在此列。目前在直播和短視頻平臺時常出現(xiàn)倫理失范行為,個體內(nèi)容生產(chǎn)者是直接的道德行動者,需要在與平臺倫理原則磨合的過程中形成行為規(guī)則共識。

第二,組織倫理層次,主要涉及新聞組織和互聯(lián)網(wǎng)信息平臺

到了人工智能時代,互聯(lián)網(wǎng)信息平臺實際上部分起到了新聞媒體的功能。與傳統(tǒng)新聞媒體更多關(guān)注新聞的生產(chǎn)不同,目前的互聯(lián)網(wǎng)企業(yè)并不直接涉足新聞內(nèi)容制作,但是其推薦算法實際在對新聞價值的不同維度予以賦值,隨著越來越多的民眾將互聯(lián)網(wǎng)作為主要的新聞信息來源,互聯(lián)網(wǎng)信息平臺在新聞分發(fā)和互動環(huán)節(jié)產(chǎn)生了巨大的動能。

互聯(lián)網(wǎng)信息平臺的倫理關(guān)注點主要在數(shù)據(jù)和代碼(算法)兩個體系,如何合理利用平臺積淀的用戶數(shù)據(jù),如何合理通過算法的中介,提高社會總體福利水平,是此類組織的倫理責(zé)任。

目前技術(shù)本身的倫理地位也存在爭議,在用戶偏好挖掘的機器學(xué)習(xí)機制中,平臺公司會部分采取無監(jiān)督學(xué)習(xí)模式,這使得學(xué)習(xí)結(jié)果存在客觀上的算法黑箱。這也是智能系統(tǒng)設(shè)計的悖論:一方面系統(tǒng)需要更大的自由度以體現(xiàn)其智能效能,但具備自主學(xué)習(xí)能力的系統(tǒng)在技術(shù)上和倫理上都存在風(fēng)險;另一方面,若將倫理規(guī)則嵌入智能系統(tǒng),那么設(shè)計出來的系統(tǒng)就缺乏充分的靈活性,也就不夠“智能”。

但是從目前的倫理問責(zé)和司法實踐看,互聯(lián)網(wǎng)信息平臺作為算法的直接開發(fā)者和版權(quán)所有者,有義務(wù)將智能系統(tǒng)設(shè)計為道德智能體,將社會長期珍視的倫理價值內(nèi)嵌至平臺系統(tǒng)。據(jù)此,大眾傳播責(zé)任的兩種形態(tài)行動——自律制度、專業(yè)精神,同樣適用于互聯(lián)網(wǎng)信息平臺公司。

第三,社會倫理層次,包括政治和公眾兩個維度

在政治維度,如何處理互聯(lián)網(wǎng)信息平臺、新聞媒體和社會其他部門的關(guān)系,如何管理技術(shù)的發(fā)展方向、媒體信息的作用范圍,是政治層面關(guān)注的焦點,也因此與新聞系統(tǒng)產(chǎn)生權(quán)力博弈和倫理話語沖突。

因此在更加宏觀的社會倫理治理層次,政府作為主要的道德行動者,需要從社會整體福利水平和國家信息安全的高度理解人工智能系統(tǒng)的信息中介效應(yīng),對其引導(dǎo)輿論、影響個體的能力保持倫理警覺,并逐漸清晰政府的管控底線。

在公眾維度,以往新聞很大程度上依賴于記者的信譽,如今在網(wǎng)絡(luò)信息發(fā)布過程中,受眾不再被動,任何人都有權(quán)利批評報道、增加事實和發(fā)表評論。就此,新聞發(fā)表從個人化的行為(組織化的行為)轉(zhuǎn)變?yōu)楣驳男袨椤?/p>

在智能時代,公眾的倫理素養(yǎng)至少包含明確是誰作出或者支持智能系統(tǒng)的倫理決策,并且理解自動技術(shù)系統(tǒng)的社會影響的能力。公眾需要更加清晰智能系統(tǒng)的運作模式和社會影響機制,運用理性力量加強自身的信息自律能力,而不要成為機械刺激性快樂的被捕獲者,從而喪失了對康樂生活的追求和反思能力。

媒體的智能化,大大延伸了媒體的外延,將新聞傳播推向“萬物皆媒”的時代。新聞倫理學(xué)的研究范疇也隨之由新聞工作者、新聞機構(gòu)、新聞受眾延向了傳播技術(shù)和社交平臺。由于人工智能技術(shù)的出現(xiàn),更多的行動者開始參與或影響新聞的生產(chǎn)與發(fā)布,新聞工作者不再是唯一的道德行動者,泛信息系統(tǒng),特別是互聯(lián)網(wǎng)信息平臺的影響力正在逐漸上升。

自治、公平、正義、責(zé)任、服務(wù)公共利益等原則是長期以來新聞倫理的基本組成部分。智媒時代,除了進一步堅持傳統(tǒng)媒體倫理價值體系之外,還需要融合基于技術(shù)和平臺的倫理要求。

機器人倫理提出的人的尊嚴(yán)和人權(quán)、責(zé)任、透明度、避免濫用和共生繁榮等原則,也是人工智能時代新聞倫理的智識來源。而互聯(lián)網(wǎng)平臺公司,如谷歌提倡的“七條準(zhǔn)則”:有益于社會、避免創(chuàng)造或增強偏見、對人們有說明義務(wù)、根據(jù)原則確定合適的應(yīng)用等,也同樣適合新媒體背景下的新聞倫理。

參考資料:《學(xué)術(shù)前沿》2018年12月下《人工智能時代的新聞倫理:行動與治理》

作者|浙江大學(xué)傳媒與國際文化學(xué)院教授 趙 瑜

編輯|郭堯

視覺|范璽艷

本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊舉報。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
信息繭房,如何破除?
羅昕 | 計算宣傳:人工智能時代的公共輿論新形態(tài)
考點預(yù)測02 | 人工智能有新考法?這幾個出題方向請注意?。▋?nèi)含真題解析)
韓曉寧 耿曉夢 周恩澤丨人機共生與價值共創(chuàng) :智媒時代新聞從業(yè)者與人工智能的關(guān)系重塑
未來已來:智能傳播與智媒研究
人工智能時代算法權(quán)力的隱憂與反思
更多類似文章 >>
生活服務(wù)
熱點新聞
分享 收藏 導(dǎo)長圖 關(guān)注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服