中文字幕理论片,69视频免费在线观看,亚洲成人app,国产1级毛片,刘涛最大尺度戏视频,欧美亚洲美女视频,2021韩国美女仙女屋vip视频

打開(kāi)APP
userphoto
未登錄

開(kāi)通VIP,暢享免費(fèi)電子書(shū)等14項(xiàng)超值服

開(kāi)通VIP
像教我們的孩子一樣教人工智能
——選自Motherboard——

作者:JORDAN PEARSON

全球技術(shù)地圖編譯


子并非天生就有種族或性別歧視——厭惡和仇恨都是被教出來(lái)的。人工智能也一樣,是人類教會(huì)了它們一切。
據(jù)ProPublica報(bào)道,有一種用于預(yù)測(cè)罪犯未來(lái)犯罪可能性的算法,該算法傾向于將黑人的犯罪風(fēng)險(xiǎn)定得比白人高。盡管總有人說(shuō),這種數(shù)據(jù)驅(qū)動(dòng)的方法與以往的方法相比,要更加客觀,但很顯然,人類的偏見(jiàn)已經(jīng)影響到了機(jī)器。

以微軟開(kāi)發(fā)的Twitter人工智能聊天機(jī)器人Tay為例,它在上線后很快學(xué)會(huì)了Twitter用戶對(duì)它說(shuō)的那些帶有辱罵意味和種族歧視性的語(yǔ)言,最終滿口納粹言論。

但按照阿姆斯特丹自由大學(xué)一位人文學(xué)科博士生Emiel van Miltenburg的說(shuō)法,算法上的偏見(jiàn)可能更加嚴(yán)重。Miltenburg分析了Flickr30K數(shù)據(jù)庫(kù)中的圖像描述發(fā)現(xiàn),描述圖像的語(yǔ)言明顯帶有性別歧視和種族歧視的特征。(Flickr30K數(shù)據(jù)庫(kù)是一個(gè)用于訓(xùn)練神經(jīng)網(wǎng)絡(luò)的帶注釋的圖像語(yǔ)料庫(kù)。)

這些描述語(yǔ)言來(lái)自于大眾,數(shù)年來(lái),計(jì)算機(jī)將這些語(yǔ)言作為學(xué)習(xí)材料,自行學(xué)習(xí)辨認(rèn)和描述圖像。

我們才意識(shí)到這一問(wèn)題,并試圖解決它
Miltenburg發(fā)現(xiàn),一張“一位女士在工作場(chǎng)合和一位男士講話”的圖片被描述為“一名雇員正被她的老板訓(xùn)斥”,該描述假定了圖片中的男士是女士的老板,而非女士是男士的老板。Miltenburg寫道,很多時(shí)候,亞洲長(zhǎng)相的人被隨意地注釋為“中國(guó)人”或“日本人”,白人嬰兒被注釋為“嬰兒”,而黑人嬰兒卻要帶上他們的種族。

“在Flickr30K上看到一些圖像帶有種族或性別歧視性的注釋并不奇怪,但這顯然并非我們的初衷?!?Flickr30K數(shù)據(jù)庫(kù)的首席研究員Julia Hockenmaier在電郵中寫道?!拔覀兊哪康氖撬鸭瘜?duì)圖像中的事件和人物的事實(shí)性描述?!?/section>

不過(guò),如果這些偏見(jiàn)發(fā)生在真實(shí)世界,會(huì)更像是我們所謂的不經(jīng)意的種族歧視和性別歧視。

“我們應(yīng)當(dāng)承認(rèn)數(shù)據(jù)中存在性別歧視的例子,并且意識(shí)到這樣是不對(duì)的,”Miltenburg在郵件中寫道?!叭藗冋龔拿绹?guó)人的角度來(lái)訓(xùn)練機(jī)器認(rèn)識(shí)圖像,不光是從美國(guó)人的角度,更是從美國(guó)白人的角度?!?/section>

Miltenburg還未測(cè)試過(guò)經(jīng)這些圖像描述訓(xùn)練過(guò)的軟件是否產(chǎn)生了新的偏見(jiàn)性描述。但如果現(xiàn)在訓(xùn)練這些機(jī)器的數(shù)據(jù)帶有人類偏見(jiàn),就意味著人工智能同樣帶有這些偏見(jiàn)。

“如果這些是你提供給人工智能的數(shù)據(jù),并且你要求它去模仿這些行為,那么它當(dāng)然也會(huì)模仿這些偏見(jiàn),”懷俄明大學(xué)專注深度學(xué)習(xí)的計(jì)算機(jī)系教授Jeff Clune說(shuō)道?!叭绻蝗ツ7?,那這個(gè)技術(shù)就出錯(cuò)了嘛?!?/span>

換言之,計(jì)算機(jī)既不邪惡,也不善良,它只是一根電線連接起來(lái)的電脈沖。就跟微軟機(jī)器人Tay一樣,計(jì)算機(jī)只是根據(jù)命令行事,只不過(guò)它們的工作范圍更廣,更難預(yù)測(cè)。

可以想象,當(dāng)決定是否將某人納入健康保險(xiǎn)范圍時(shí),依靠帶有偏見(jiàn)的數(shù)據(jù)訓(xùn)練出來(lái)的軟件是有缺陷的。那些看上去客觀的信息,如房屋、監(jiān)禁率、收入趨勢(shì),也可能帶有系統(tǒng)性偏見(jiàn),被植入到人工智能當(dāng)中。

“當(dāng)機(jī)器學(xué)習(xí)模型更加成熟,并在真實(shí)世界中更加廣泛使用,我們才剛開(kāi)始意識(shí)到這一問(wèn)題并試圖解決,”Hockenmaier寫道。

我們能扭轉(zhuǎn)這一切嗎?

你可以將人工智能當(dāng)作人類的孩子
對(duì)Miltenburg而言,問(wèn)題在于Flickr30K搜集圖像描述的方法沒(méi)有試圖緩和人類的偏見(jiàn)。Miltenburg寫道,對(duì)圖像進(jìn)行注釋來(lái)訓(xùn)練機(jī)器更應(yīng)當(dāng)作為心理測(cè)驗(yàn),而非機(jī)械的數(shù)據(jù)采集任務(wù)。

“好的做法是不僅搜集美國(guó)人的描述,還要找澳大利亞人、英國(guó)人、印度人和香港人來(lái)平衡數(shù)據(jù)庫(kù)。我們也要有更多圖像描述者的數(shù)據(jù),以控制性別、年齡和其他變量?!?/section>

加強(qiáng)對(duì)圖像描述者的指導(dǎo),研究員能更好地控制深度學(xué)習(xí)軟件首先吸收的信息內(nèi)容。類似的方法還有讓人工智能閱讀《圣經(jīng)》、《愛(ài)心樹(shù)》和其他反映人性中善良一面的書(shū)籍。

“當(dāng)然,也可以發(fā)布描述原則,來(lái)明確指導(dǎo)圖像描述者在描述時(shí)避免性別和種族偏見(jiàn),”Hockenmaier寫道。

Clune說(shuō),另一方案是訓(xùn)練軟件讓它自己忽略某些類型的信息?!澳撤N程度上講,你可以把人工智能當(dāng)作人類的孩子,你肯定不希望孩子和種族主義者或帶有歧視性觀念的人混在一起,因?yàn)樗麜?huì)模仿他們?!?/section>

未來(lái),編程會(huì)大幅減少,訓(xùn)練則會(huì)大幅增加。如果Clune將人工智能當(dāng)作人類小孩這一想法是對(duì)的,那么我們作為父母必須更負(fù)責(zé)任,要注意它們?cè)诙δ咳臼裁?,留意它們所讀的書(shū)、看的電影。

因?yàn)榫拖袢祟愐粯?,人工智能最終必定會(huì)有意無(wú)意間接觸到一些不好的東西。它需要學(xué)習(xí)如何忽略它們。

全球技術(shù)地圖

微信號(hào):drc_iite

本站僅提供存儲(chǔ)服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊舉報(bào)。
打開(kāi)APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
7000字深度長(zhǎng)文丨AI深處令人恐懼的陰暗秘密
頂尖人工智能無(wú)法識(shí)別這些簡(jiǎn)單圖像
一文盤點(diǎn)2019年AI領(lǐng)域都發(fā)生了什么
算法偏見(jiàn)就怪?jǐn)?shù)據(jù)集?MIT糾偏算法自動(dòng)識(shí)別「弱勢(shì)群體」
算法該怎么設(shè)計(jì)才不會(huì)有偏見(jiàn)?麻省理工科學(xué)家給出了他們的答案
當(dāng)人工智能“學(xué)會(huì)”性別歧視
更多類似文章 >>
生活服務(wù)
熱點(diǎn)新聞
分享 收藏 導(dǎo)長(zhǎng)圖 關(guān)注 下載文章
綁定賬號(hào)成功
后續(xù)可登錄賬號(hào)暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點(diǎn)擊這里聯(lián)系客服!

聯(lián)系客服