八卦,似乎一直是人類茶余飯后一個(gè)永恒的話題,怎么辨別一個(gè)人與另一個(gè)人的關(guān)系?比如,是好朋友還是好基友?
然而,你興許尚不知的是,這一私密的問題,AI已經(jīng)能夠做到精確識(shí)別了,這也著實(shí)引起了一撥恐慌。
就在此前,斯坦福大學(xué)兩名研究人員開發(fā)了一個(gè)神經(jīng)網(wǎng)絡(luò),可以通過研究一個(gè)面部圖像來檢測(cè)一個(gè)人的性取向。
研究人員訓(xùn)練了超過35,000張面部圖像的神經(jīng)網(wǎng)絡(luò),在同性戀和異性戀之間平均分配。該算法的追蹤涉及了遺傳或激素相關(guān)的特征。
這項(xiàng)研究的關(guān)鍵在于影響性取向的產(chǎn)前激素理論(PHT)。這個(gè)理論具體講的是,在子宮中,對(duì)性分化負(fù)責(zé)的主要是雄性激素,也是以后生活中同性戀取向的主要驅(qū)動(dòng)力。研究還指出,這些特定的雄性激素會(huì)在一定程度上影響面部的關(guān)鍵特征,這意味著某些面部特征可能與性取向有關(guān)。
研究發(fā)現(xiàn),男女同性戀傾向于具有“非典型性別特征”,也就是說男同性戀通常趨向于女性化,而女同性戀反之亦然。此外,研究人員發(fā)現(xiàn)男同性戀通常擁有比直男更窄的下巴、更長(zhǎng)的鼻子以及更大的前額,而女同性戀會(huì)擁有更大的下巴和更小的前額。
圖片來源:TechCrunch
隨機(jī)選擇一對(duì)圖像,一名同性戀男子和一名異性戀男子,機(jī)器挑選受試者的性取向準(zhǔn)確率高達(dá)80%。而當(dāng)與同一人的五張圖像同時(shí)呈現(xiàn)對(duì)比時(shí),精確度高達(dá)91%。不過,對(duì)于女性而言,預(yù)測(cè)準(zhǔn)確率相對(duì)較低,一幅圖像準(zhǔn)確率為71%,有5幅圖像,則上升至83%。
這一切都讓人們感到了恐懼,AI識(shí)別人類性取向,無疑是涉及到了隱私部分,這確實(shí)是讓人有所畏懼。而存儲(chǔ)在社交網(wǎng)絡(luò)和政府?dāng)?shù)據(jù)庫(kù)中的數(shù)十億公共數(shù)據(jù)將有可能在未獲得本人許可的情況下被用來進(jìn)行性取向識(shí)別,這也是有待商榷的。
除了識(shí)別性取向,還可以辨別人物關(guān)系
但是,這類型的研究還在繼續(xù)。中山大學(xué)的一個(gè)團(tuán)隊(duì)可以通過數(shù)據(jù)集來識(shí)別人物關(guān)系。比如是這樣:
又或者是這樣:
而這一切,基于研究者們訓(xùn)練了的圖推理模型(Graph Reasoning Model,GRM),由該模型結(jié)合門控圖神經(jīng)網(wǎng)絡(luò)(Gated Graph Neural Network,GGNN)對(duì)社會(huì)關(guān)系進(jìn)行處理。
基于此,AI能夠識(shí)別圖片中三者之間的關(guān)系,根據(jù)圖上人物區(qū)域的特征來初始化關(guān)系節(jié)點(diǎn),然后用預(yù)先訓(xùn)練的Faster-RCNN探測(cè)器搜索圖像中的語義對(duì)象,并提取其特征,初始化相應(yīng)的對(duì)象節(jié)點(diǎn);通過圖傳播節(jié)點(diǎn)消息以充分探索人與上下文對(duì)象的交互,并采用圖注意機(jī)制自適應(yīng)地選擇信息量最大的節(jié)點(diǎn),以通過測(cè)量每個(gè)對(duì)象節(jié)點(diǎn)的重要性來促進(jìn)識(shí)別。
但是,在實(shí)際表現(xiàn)中,AI識(shí)別并未盡如人意。如警方在歐冠決賽采用AI面部識(shí)別匹配潛在犯罪圖像,其錯(cuò)誤率高達(dá)92%,而在人物關(guān)系和性取向識(shí)別領(lǐng)域,其應(yīng)用表現(xiàn)也并不優(yōu)秀。
性取向被識(shí)別后,AI倫理的邊界又在哪里?
《紐約客》曾有這樣一期封面:機(jī)器人已經(jīng)成為了地球的主角,人類只能蹲在地上接受機(jī)器人的施舍。每一個(gè)新技術(shù)都會(huì)引發(fā)大家的擔(dān)心,但以往更多是人的體力的延伸,而如若是腦力的延伸、人類隱私的延伸,這種擔(dān)憂將會(huì)更加嚴(yán)重。智能相對(duì)論分析師柯鳴認(rèn)為,性取向識(shí)別前,AI還需要解決倫理上的幾大問題。
1.僅靠面部識(shí)別太草率
《人格與社會(huì)心理學(xué)》雜志曾對(duì)斯坦福的這個(gè)研究,指出深層神經(jīng)網(wǎng)絡(luò)比人類在通過圖像檢測(cè)性取向判斷中更準(zhǔn)確,研究涉及建立一種計(jì)算機(jī)模型,以識(shí)別研究人員將其稱作為同性戀者的“非典型”特征。
在摘要中,研究人員寫道,“我們認(rèn)為人們的臉部特征包涵了更多人腦所無法判斷的性取向特征。根據(jù)一張圖片,系統(tǒng)(classifier)可以以81%的準(zhǔn)確率區(qū)分男性同性戀者,74%的準(zhǔn)確率區(qū)分女性同性戀者,這比人腦可以完成的判斷準(zhǔn)確率都要高。”
但是,在距離應(yīng)用過程中,僅以面部構(gòu)造識(shí)別似乎并沒有那么“靠譜”。技術(shù)無法識(shí)別人們的性取向,所謂的技術(shù)未來只是識(shí)別出網(wǎng)絡(luò)中同性戀者頭像存在相似的某種模式。
而且,此研究存在的一個(gè)問題在于,研究的機(jī)制是通過兩張圖片二選一其中最讓機(jī)器覺得“更可能是同性戀”的照片,這種對(duì)比判斷其實(shí)是從 50% 的隨機(jī)幾率開始計(jì)算的,因此與單純對(duì)一張圖的分析有著很大的區(qū)別。
這其實(shí)就造成了一個(gè)問題,在真正人類識(shí)別的時(shí)候,其準(zhǔn)確率有多少,而這種非此即彼的識(shí)別方式,其評(píng)判標(biāo)準(zhǔn)仍有許多地方需要商榷。
2.算法歧視依然是個(gè)“大問題”
算法歧視,一直是人工智能應(yīng)用過程中的一大問題,以搜索為例,在谷歌上搜索“CEO”,搜索結(jié)果中沒有一個(gè)是女性,也沒有一個(gè)是亞洲人,這是一種潛在的偏見。
顯然,人工智能也并不是真的純“人工”。 機(jī)器學(xué)習(xí)的方式和人類學(xué)習(xí)一樣,從文化中提取并吸收社會(huì)結(jié)構(gòu)的常態(tài),因此其也會(huì)再建、擴(kuò)大并且延續(xù)我們?nèi)祟悶樗鼈冊(cè)O(shè)下的道路,而這些道路,一直都將反映現(xiàn)存的社會(huì)常態(tài)。
而無論是根據(jù)面容來判斷一個(gè)人是否誠(chéng)實(shí),或是判斷他的性取向,這些算法都是基于社會(huì)原有生物本質(zhì)主義(biological essentialism),這是一種深信人的性取向等本質(zhì)是根植于人身體的理論。畢竟,一個(gè)AI工具通過數(shù)據(jù)積累和算法模型可以通過照片判斷一個(gè)人的性取向,系統(tǒng)準(zhǔn)確率高達(dá)91%,這其中所帶來的性取向偏見是不能低估的。
今年年初,來自巴斯大學(xué)和普林斯頓大學(xué)的計(jì)算機(jī)科學(xué)家就曾用類似IAT(內(nèi)隱聯(lián)想測(cè)驗(yàn))的聯(lián)想類測(cè)試來檢測(cè)算法的潛在傾向性,并發(fā)現(xiàn)即使算法也會(huì)對(duì)種族和性別帶有偏見。甚至,連Google 翻譯也難逃偏見,算法“發(fā)現(xiàn)”并“學(xué)習(xí)”了社會(huì)約定俗成的偏見。當(dāng)在特定語言環(huán)境中,一些原本是中性的名詞,如果上下文具有特定形容詞(中性),它會(huì)將中性詞轉(zhuǎn)而翻譯為“他”或“她”。
如今的人工智能還基本局限于完成指定任務(wù),而有時(shí)候許多實(shí)際應(yīng)用內(nèi)容不是非此即彼的,在許多抉擇中,人類選擇依然存在道德困境,如若將決定權(quán)交與算法,其存在的詬病之處更是不言而喻。
3.數(shù)據(jù)使用,掌握“火候”是關(guān)鍵
如果說讓AI野蠻生長(zhǎng)是為了解決人們工作效率的問題,那么當(dāng)人工智能逐漸落地于各行業(yè)后,“體面”已經(jīng)逐漸取代效率,成為AI應(yīng)用的關(guān)鍵詞。
當(dāng)然,如果企業(yè)能夠全方位的保護(hù)用戶隱私,這既有著技術(shù)上難度,也缺乏一定商業(yè)驅(qū)動(dòng)力,因此,目前來看,如果平衡兩者之間的關(guān)系才是關(guān)鍵。
實(shí)際上,在牽制巨頭破壞用戶隱私方面,歐洲國(guó)家已經(jīng)走得很遠(yuǎn),這體現(xiàn)在這些年他們與Facebook、Google等巨頭對(duì)抗的一個(gè)個(gè)集體訴訟案例中:
2014年8月,F(xiàn)acebook在歐洲遭6萬人起訴,一位奧地利隱私保護(hù)人士發(fā)起了一項(xiàng)針對(duì)Facebook歐洲子公司的大范圍集體訴訟,指控Facebook違背了歐洲數(shù)據(jù)保護(hù)法律,F(xiàn)B被質(zhì)疑參與了美國(guó)國(guó)家安全局的“棱鏡”項(xiàng)目,收集公共互聯(lián)網(wǎng)使用的個(gè)人數(shù)據(jù)。
今年1月初,德國(guó)政府一家數(shù)據(jù)保護(hù)機(jī)構(gòu)周三表示,該機(jī)構(gòu)已針對(duì)Facebook采取法律行動(dòng),指控Facebook非法讀取并保存不使用該社交網(wǎng)站的用戶的個(gè)人信息。德國(guó)漢堡數(shù)據(jù)保護(hù)辦公室專員表示,由于Facebook在未經(jīng)許可的情況下收集并保存不使用該社交網(wǎng)站的用戶個(gè)人信息,這有可能導(dǎo)致Facebook被罰款數(shù)萬歐元。
顯然,目前用戶對(duì)于自身數(shù)據(jù)的保護(hù)意識(shí)正在不斷加強(qiáng),其在不斷保護(hù)自身數(shù)據(jù)的同時(shí)也加強(qiáng)隱私防范。畢竟,AI識(shí)別性取向目前只是研究而沒有落地產(chǎn)品。
而且,從網(wǎng)站上扒圖并不是什么技術(shù)活,讓機(jī)器做選擇題的概念,也像極了十多年前哈佛某個(gè)宅男做的校園選美網(wǎng)站。其中滋味,冷暖自知吧。
聯(lián)系客服