2021年,騰訊 AI Lab 邁入第 5 個年頭。作為一個尚屬「年輕」的實驗室,在未知而廣袤的科學(xué)世界中,我們還有很長的路要走。
回望過去這一年,似乎并不特殊:我們依然在堅持「學(xué)術(shù)有影響,工業(yè)有產(chǎn)出」的理念,在踏實科研、創(chuàng)新應(yīng)用兩個方向,穩(wěn)步向「Make AI Everywhere」的愿景邁進。
同時,我們又確實看到一些特殊之處:疫情讓日常生活的數(shù)字化需求陡然提升,也讓 AI 有了更多用武之地。五年的積淀讓我們能從事更深入、更前沿的研究,并在與學(xué)界和工業(yè)界的合作交流中,發(fā)揮企業(yè)視角的影響力;同時,我們的技術(shù)能夠給更多現(xiàn)實問題提供解決方案,以有價值的產(chǎn)出讓生活變得更美好。
下面首先將介紹 2021 年騰訊 AI Lab 在虛實集成世界、虛擬人、機器人三大研究方向上的重要探索,然后會分醫(yī)療、醫(yī)藥、游戲、內(nèi)容等主題總結(jié)這一年的行業(yè)應(yīng)用成果,最后會概述這一年在不同研究方向上的學(xué)術(shù)進展。
一、 加速邁向虛實集成世界:
虛擬人及機器人前沿研究
2021 年最火熱的,莫過于對下一代互聯(lián)網(wǎng),也被稱為「全真互聯(lián)」這一概念的熱烈討論。我們看到,世界朝著數(shù)字化和虛擬化方向加速邁進,線上和線下更全面地一體化,實體和電子方式更深度地融合,從而把人、信息、物、服務(wù)、制造緊密連接在一起。
在 2020 年,騰訊 AI Lab 和 Robotics X 實驗室主任張正友博士,首次提出了虛實集成世界(IPhD,Integrated Physical-Digital World)的概念,并從時間、空間到信息內(nèi)容維度,解讀了「全真互聯(lián)」時代的四大技術(shù)關(guān)鍵點:現(xiàn)實虛擬化、虛擬真實化、全息互聯(lián)網(wǎng)、智能執(zhí)行體。在今年 11 月舉辦的騰訊數(shù)字生態(tài)大會上,張博士進一步闡釋虛實集成世界的發(fā)展進程,解讀了虛擬與現(xiàn)實正加速融合的趨勢。
演講視頻可于大會官網(wǎng)查看:https://des.cloud.tencent.com/2021/
虛擬人與機器人是虛實集成世界中的兩大重要組成,下面將介紹實驗室今年在這兩方面的進展。
虛擬人:多模態(tài) AI 技術(shù)驅(qū)動的虛擬世界新伙伴
疫情是虛擬數(shù)字人產(chǎn)業(yè)發(fā)展的一道重要分水嶺?,F(xiàn)實空間常態(tài)防控背景下,人們傾向于在數(shù)字世界中尋求更多社交互動場景,因此虛擬世界的建設(shè)和討論逐漸增多,相關(guān)技術(shù)及要素開始逐步構(gòu)建,而虛擬數(shù)字人作為那個世界中人類角色的具象顯現(xiàn),也借勢迎來更多關(guān)注。
騰訊 AI Lab 自 2017 年起開始虛擬人研究,目標(biāo)是從語音、口型、表情到全身動作都實現(xiàn)高度擬人,并掌握聽、說、讀、寫、想等全方位技能。團隊將計算機視覺、語音/歌聲合成和轉(zhuǎn)換、圖像/視頻合成和遷移、自然語言理解等多模態(tài)的AI能力和技術(shù)融為一體,生成清晰、流暢、高質(zhì)的可交互內(nèi)容,未來將逐步探索虛擬人在虛擬偶像、虛擬助理、在線教育、數(shù)字內(nèi)容生成等領(lǐng)域的應(yīng)用。
誕生于 2020 年的 AI 虛擬人艾靈,是業(yè)內(nèi)首個由 AI 驅(qū)動的虛擬偶像。經(jīng)過一年「學(xué)習(xí)」,她新掌握了不少國風(fēng)才藝:
寫作:去年春節(jié),她基于自研的文本創(chuàng)作模型 SongNet,通過H5程序為千萬網(wǎng)友撰寫藏頭對聯(lián);5月,她的能力進一步升級,學(xué)會作詞寫詩。
書法:基于前沿圖像生成技術(shù),艾靈「拜」顏真卿、柳宗元、米芾和蘇軾等中國書法大家為師,再使用圖像生成對抗網(wǎng)絡(luò)技術(shù),“寫出”神形兼?zhèn)涞臅ㄗ煮w。
演出能力升級:5月,她首次與青年歌手白舉綱跨次元合作,共同演唱國風(fēng)新歌《百川千仞》,在更大的舞臺上讓觀眾看到科技 文化的全新可能。
這套多模態(tài)技術(shù)系統(tǒng)框架適用于不同風(fēng)格的虛擬人。在今年11月的數(shù)字生態(tài)大會,超寫實 3D 虛擬人「小志」首度亮相,可以通過輸入文本來合成語音「說話」,還能基于文本或語音自動生成準(zhǔn)確的口型及生動自然的表情。
機器人家族「上新」:移動能力升級,探索工業(yè)場景
自 2018 年在深圳建立以來,騰訊 Robotics X 機器人實驗室持續(xù)與騰訊 AI Lab 攜手推進「AI 機器人」發(fā)展。繼 2020 年推出四足機器人 Jamoca 后,機器人實驗室今年發(fā)布了 3 項重要進展。
3月,首個軟硬件全自研的多模態(tài)四足機器人 Max 發(fā)布。它采用創(chuàng)新性的足輪融合一體式設(shè)計,實現(xiàn)了「崎嶇路面走得穩(wěn),平坦路面跑得快」。它還能從四足到雙足的站立和移動、后空翻、摔倒自恢復(fù)等高難度動作,擁有較好的平衡能力,兼顧了移動速度和穩(wěn)定性,達(dá)到了行業(yè)領(lǐng)先水平。
6月,輪腿式機器人 Ollie 發(fā)布。它具有輪式機器人優(yōu)勢,在平地移動快、效率高;它也有很強的腿部能力,能在不平、的地面前進、跳躍通過臺階,越障能力強。其相關(guān)論文被機器人行業(yè)頂會 ICRA 收錄。
11月,實驗室借助在機器人敏捷移動與靈巧操作等技術(shù)方向的不斷積累,與騰訊數(shù)據(jù)中心聯(lián)合研發(fā)了 IDC 運維機器人,創(chuàng)新性地實現(xiàn)了服務(wù)器的全自動搬運、上下架、資產(chǎn)掃描盤點等工作任務(wù), 提升了 IDC 運維的效率。
二、行業(yè)應(yīng)用向善
醫(yī)療、醫(yī)藥、游戲到內(nèi)容
作為 AI 科技的前沿探索者,騰訊 AI Lab 深知 AI 變革世界的潛力。因此,騰訊 AI Lab 在積極探索最前沿的 AI 技術(shù)的同時,也致力于將這樣的潛力轉(zhuǎn)化為切實可行的應(yīng)用,以更好地為世界帶來正向的改變。
AI 醫(yī)療:初步落地臨床,提升病理閱片效率
「AI 醫(yī)療」是騰訊 AI Lab 核心研究方向之一。作為與全人類息息相關(guān)的研究課題,它值得長期和耐心的投入。
目前我國病理診斷面臨著醫(yī)療資源分布不均、醫(yī)生數(shù)量嚴(yán)重缺乏、水平參差不齊等難題。近年業(yè)內(nèi)的多項嘗試證明,AI 可以有效節(jié)省人力、時間成本,提高病理診斷的質(zhì)量與效率,打破病理科面臨的困境。
騰訊 AI Lab 醫(yī)療中心不斷發(fā)展病理 AI 相關(guān)能力,專注打造研究與應(yīng)用雙平臺,助力病理行業(yè)向數(shù)字化、智能化加速轉(zhuǎn)型。
在研究側(cè),病理 AI 科研平臺專注自主研發(fā) AI 算法,布局多病種的整合診斷,多次獲得國際級權(quán)威測試平臺冠軍,已獲得 2 項軟件著作權(quán),授權(quán)國家專利 20 項,發(fā)表論文 30 篇;免疫組化-組織病理AI模型已覆蓋 8 大癌癥高發(fā)病種。
AI Lab 參與開發(fā)了邁瑞血細(xì)胞形態(tài)分析系統(tǒng)算法,細(xì)胞分析的多中心臨床研究試驗已在全國多家頂級三甲醫(yī)院開展,算法性能比傳統(tǒng)設(shè)備顯著優(yōu)越。宮頸癌 AI 也在與國內(nèi)試劑廠商合作,搭載其技術(shù)的宮頸細(xì)胞 AI 輔助幫教系統(tǒng)已在全國 800 多家各級醫(yī)院參與線上教學(xué),累計分析超過 120 萬次,算法準(zhǔn)確度遠(yuǎn)超同類競品。
應(yīng)用側(cè),由騰訊 AI Lab 醫(yī)療中心提供底層技術(shù)的覓影病理云平臺(病理影像存儲與傳輸系統(tǒng)軟件)也于今年獲得國家二類醫(yī)療器械許可證,落地應(yīng)用于臨床診療場景,為醫(yī)院病理科室提供圖像管理、瀏覽、分析等數(shù)字病理服務(wù),并具備病患數(shù)據(jù)上云、遠(yuǎn)程精準(zhǔn)診療和多專家云上會診等功能,為將推動AI醫(yī)療普惠至偏遠(yuǎn)地區(qū)打下堅實基礎(chǔ)。
AI 醫(yī)藥:深入前沿研究,增強平臺能力
在診療之后,如何快速研發(fā)出治療疾病的藥物,也是 AI 可發(fā)力的方向。2020 年 7 月,騰訊 AI Lab 發(fā)布了首個 AI 驅(qū)動的藥物發(fā)現(xiàn)平臺「云深」,整合了騰訊 AI Lab 和騰訊云在前沿算法、優(yōu)化數(shù)據(jù)庫以及計算資源上的優(yōu)勢,提供覆蓋臨床前新藥發(fā)現(xiàn)流程的五大模塊,包括蛋白質(zhì)結(jié)構(gòu)預(yù)測、虛擬篩選、分子設(shè)計/優(yōu)化、 ADMET 屬性預(yù)測及合成路線規(guī)劃。
云深平臺:https://drug.ai.tencent.com/
今年平臺取得 2 項新進展:
在分子生成方面,8月平臺與成都先導(dǎo)合作設(shè)計了業(yè)內(nèi)首個經(jīng)實驗驗證的骨架躍遷分子生成算法(GraphGMVAE),為藥物化學(xué)專家設(shè)計分子提供更多啟發(fā)。該算法以 JAK1 抑制劑 Upadacitinib 為例(通常用于治療中重度類風(fēng)濕關(guān)節(jié)炎的藥物),證明在保持分子側(cè)鏈不變的情況下,能有效生成具有相似生物活性但骨架不同的分子。同時,研究還提出了一套對分子優(yōu)先級排序流程,可以縮小驗證范圍,提高效率。研究結(jié)果被美國化學(xué)學(xué)會雜志 ACS Omega 收錄。
利用 GraphGMVAE 進行骨架躍遷,該項成果發(fā)表于行業(yè)知名期刊ACS Omega上
在蛋白質(zhì)結(jié)構(gòu)預(yù)測方面,平臺去年推出的 tFold 算法精度和速度持續(xù)提升。與DeepMind所提出的 AlphaFold2 方法類似,tFold 采用了端到端的結(jié)構(gòu)預(yù)測方案,并從模型設(shè)計和訓(xùn)練策略等多方面提升了訓(xùn)練階段的優(yōu)化效率和穩(wěn)定性,僅需使用 8 卡 A100 訓(xùn)練 4-5 天。對于中等長度的蛋白質(zhì)序列,平均運行時間約為 2-3 小時,提速明顯。在 CASP14 基準(zhǔn)測試集上,該模型在平均 TM-Score 指標(biāo)上可達(dá)到 86.7,優(yōu)于 RoseTTAFold (TM-Score=79.2),但與 AlphaFold2(TM-Score=90.0) 仍有一定差距。該模型已經(jīng)在上線「云深」平臺,供用戶免費使用。
AI 游戲:拓展能力邊界,距現(xiàn)實更近一步
計算機科學(xué)家們一直對「AI 游戲」保持熱情,希望運用可自由定制、監(jiān)測的游戲環(huán)境,解決 AI 算法測試?yán)щy、場景稀缺的問題,提升 AI 算法處理復(fù)雜問題的能力。
「AI 游戲」正是騰訊 AI Lab 長期深耕的領(lǐng)域。在過往圍棋、MOBA 等游戲環(huán)境中取得的成果之上,今年團隊繼續(xù)深耕,讓AI的足跡走向了麻將、足球、3D開放世界(Minecraft)、即時戰(zhàn)略(RTS)等多類游戲環(huán)境,不斷積累國際一流的學(xué)術(shù)成果,還在行業(yè)全鏈條應(yīng)用和生態(tài)建設(shè)上邁出了堅實步伐。
棋牌擁有簡單清晰的規(guī)則,清晰的勝負(fù)判定條件和行動準(zhǔn)則,并在公眾認(rèn)知中被認(rèn)為代表了人類的智力水平。在今年,實驗室棋牌類 AI 「絕藝」的能力,從傳統(tǒng)強項圍棋(完全信息博弈)到麻將(非完全信息博弈)都不斷提升。
在圍棋 AI 研究上,「絕藝」持續(xù)提升讓子棋能力,對普通職業(yè)棋手讓兩子取得 200 連勝,對頂尖職業(yè)棋手勝率超過 95%;
在應(yīng)用上,新增對日韓規(guī)則、讓先規(guī)則等功能。
這些能力將幫助「絕藝」更好地服務(wù)中國圍棋國家隊隊員,以及騰訊野狐圍棋平臺的圍棋愛好者們。
在麻將 AI 方面,「絕藝」繼去年達(dá)到兩人麻將職業(yè)水平、四人國標(biāo)獲 IJCAI 麻將 AI 比賽冠軍后,今年與多位職業(yè)選手完成了 2000 多場四人國標(biāo)對局,平均贏番第一,成為業(yè)界首個達(dá)到四人國標(biāo)麻將職業(yè)水平的 AI 。
為訓(xùn)練 AI 的決策智能水平,騰訊 AI Lab 自 2018 年起在「王者榮耀」MOBA(多人在線戰(zhàn)術(shù)競技)環(huán)境中訓(xùn)練「絕悟」AI。今年它的能力迎來了進一步提升。
3 月,「絕悟」在「王者榮耀」MOBA 環(huán)境中的策略多樣性再度升級,學(xué)會在不同陣容和對局中執(zhí)行多樣的策略(如養(yǎng)豬流、反野流、大喬流等)。針對復(fù)雜環(huán)境中策略難以探索的問題,「絕悟」提出基于宏觀目標(biāo)的分層強化學(xué)習(xí)框架(MGG, Macro-Goals Guided RL),并驗證了該方法在策略探索上的高效性。該項技術(shù)于 4 月的「挑戰(zhàn)絕悟」游戲活動中初次實踐,有效提供玩家挑戰(zhàn)趣味性,研究成果已經(jīng)被 NeurIPS 2021 主會議接受。
9 月,繼去年贏得 Google 足球競賽冠軍后,「絕悟」今年基于層次化強化學(xué)習(xí)實現(xiàn)了業(yè)界首個純強化控制所有球員的 Full Game 11v11 足球 AI , 并且能力遠(yuǎn)超去年的行為樹 強化的冠軍版本。
12 月,「絕悟」在 NeurIPS 2021 舉辦的 MineRL (Sample Efficient RL Competition) 賽事中,以 76.970 的歷史最高分完成主賽道(research track)挑戰(zhàn),奪得決賽冠軍,并將研究成果共享在 Arxiv 平臺,讓算法框架可復(fù)用于其他復(fù)雜決策環(huán)境。
「絕悟」團隊(X3)獲得歷史最高分。完整榜單詳見:
https://www.aicrowd.com/challenges/neurips-2021-minerl-diamond-competition/leaderboards
即時戰(zhàn)略(RTS)游戲一直被認(rèn)為是競技性和策略性方面最具有挑戰(zhàn)的一類游戲,其更為巨大的觀測、動作以及策略空間,對訓(xùn)練高水準(zhǔn)的AI智能體帶來了非常大的困難。
騰訊 AI Lab 和 Robotics X 實驗室自 2018 年起,以「星際爭霸2」這一風(fēng)靡全球的即時戰(zhàn)略游戲為研究對象,深入探索強化學(xué)習(xí)在處理此類復(fù)雜游戲上的可拓展性。同年,團隊發(fā)布初代 AI 智能體 TStarBot,分別以層次化的動作/策略空間建模和基于中高層動作空間的強化學(xué)習(xí)訓(xùn)練,在業(yè)界首次實現(xiàn)擊敗游戲中所有等級(包括最高等級的作弊)的內(nèi)置 Bot。該工作論文(https://arxiv.org/abs/1809.07193)被 2019 年底 DeepMind 公布的 AlphaStar Nature 論文引用。
在今年 4 月,通過之前積累的經(jīng)驗以及吸收 AlphaStar 中的優(yōu)勢技術(shù),實驗室提出了 TStarBot-X:在使用比 AlphaStar 算力資源少1-2個數(shù)量級(數(shù)據(jù)消耗速度為AlphaStar的1/30,數(shù)據(jù)生成速度是AlphaStar的1/73),且和人類操作可比擬的情況下,TStarBot-X 在蟲族對蟲族對戰(zhàn)測試中擊敗國服和韓服宗師級別人類選手。
其背后的強化學(xué)習(xí)技術(shù)進一步提升,包括高效的聯(lián)盟訓(xùn)練方式(Efficient League Training),簡潔規(guī)則引導(dǎo)的策略搜索方式(Rule-guided Policy Search)、以及差異增大的策略優(yōu)化算法(Divergence- Argumented Policy Optimization)。
完整代碼及技術(shù)細(xì)節(jié)可見論文:https://arxiv.org/abs/2011.13729
其所有技術(shù)細(xì)節(jié)以及背后的通用多智能體強化學(xué)習(xí)聯(lián)盟訓(xùn)練架構(gòu) TLeague 均已開源:https://github.com/tencent-ailab/tleague_projpage
除了攻克更多游戲環(huán)境,「絕悟」團隊還初步嘗試將 AI 能力應(yīng)用于游戲開發(fā)和運營流程中。7月,騰訊 AI Lab 在全球游戲行業(yè)頂級會議「2021游戲開發(fā)者大會」(GDC)亮相,全面展示了以「絕悟」為代表的 AI 技術(shù)在游戲產(chǎn)業(yè)全鏈路中的研究應(yīng)用能力。
具體而言,AI 在游戲全鏈路的研究和應(yīng)用包括兩部分:橫向上,覆蓋游戲制作、運營及周邊生態(tài)全生命周期,提升游戲品質(zhì),豐富玩家體驗;在縱向上,AI正拓展更多元的游戲品類,如圍棋、麻將等棋牌類,足球等體育類,以及 MOBA 、FPS(第一人稱射擊游戲)等復(fù)雜策略類游戲。
希望了解「絕悟」提高游戲開發(fā)效率、打造新玩法、輔助游戲平衡性測試等具體案例,請見文章:「絕悟」參展游戲開發(fā)者大會,AI深入游戲產(chǎn)業(yè)全鏈路。
多智能體強化學(xué)習(xí)主要研究在同一個環(huán)境中的多個智能體,如何進行合作或者競爭完成指定的目標(biāo)。因為具有較高的研究難度,也有廣泛的應(yīng)用前景,這一議題近年廣受AI企業(yè)及科研院校關(guān)注。
為幫助AI學(xué)界克服算法、數(shù)據(jù)、算力、場景等四大要素的挑戰(zhàn),騰訊 AI Lab 與王者榮耀于2019年宣布共建「開悟」AI 開放研究平臺,依托于騰訊太極機器學(xué)習(xí)平臺,基于雙方在算法、脫敏數(shù)據(jù)、算力方面的核心優(yōu)勢,為學(xué)術(shù)研究人員和算法開發(fā)者開放的國內(nèi)領(lǐng)先、國際一流研究與應(yīng)用探索平臺。
這是「開悟」舉辦高校大賽的第二年,作為業(yè)內(nèi)首個基于 MOBA 游戲場景的 AI 開放平臺,它為學(xué)生提供的多智能體復(fù)雜策略研究環(huán)境,其科研及教育價值已獲得社會各界的全面認(rèn)可:
4月,首屆騰訊STAC科創(chuàng)聯(lián)合大會在成都召開,發(fā)布首屆「開悟」大賽成果,并為政、企、學(xué)界專家提供共議「AI 游戲」行業(yè)未來發(fā)展的交流平臺,同時現(xiàn)場成立校企聯(lián)合的「人工智能科教聯(lián)盟」。
工信部原部長李毅中、成都市副市長等嘉賓出席并發(fā)表講話,「開悟」作為行業(yè)生態(tài)基礎(chǔ)設(shè)施,對 AI 研究與教育的推動作用受到廣泛關(guān)注。
8月,第二屆「開悟」高校AI大賽啟動并擴大規(guī)模,邀請了20余所海內(nèi)外知名高校參賽。
「開悟」也逐步發(fā)展為為競賽-課程-科教聯(lián)盟-科創(chuàng)聯(lián)合體的生態(tài)聚集地,推進 AI 與教育融合。
同月,「開悟」宣布與 4 所國內(nèi)一流高校共建教學(xué)內(nèi)容和課程體系改革項目,進一步探索平臺在高校AI教育方向的可能性。北京大學(xué)李文新、電子科技大學(xué)謝寧、清華大學(xué)李秀、中國科學(xué)技術(shù)大學(xué)周文罡等四位教授將基于騰訊開悟平臺,分別構(gòu)建一門至少 20 學(xué)時的多智能體及強化學(xué)習(xí)平臺的專業(yè)課程,理論授課知識點包括但不限于機器學(xué)習(xí)、強化學(xué)習(xí)、多智能體決策等相關(guān)的知識點。
作為AI游戲研究先行者,騰訊 AI Lab 的相關(guān)研究成果正不斷走近現(xiàn)實。這些研究的經(jīng)驗、方法與結(jié)論,都將在真實世界創(chuàng)造更大的實用價值。
AI 內(nèi)容:技術(shù)融合場景,提供更好的內(nèi)容服務(wù)
◆ 翻譯
騰訊交互翻譯 TranSmart 是目前業(yè)界領(lǐng)先的「以人機交互為核心」的機器翻譯產(chǎn)品,覆蓋按鍵到句子、術(shù)語到存量語料的人工翻譯全流程支持,并在復(fù)雜文件格式解析與帶標(biāo)記文檔翻譯等方面表現(xiàn)突出。
體驗地址:https://transmart.qq.com/
經(jīng)過四年技術(shù)積累與一年商業(yè)化探索,TranSmart 已支持 Memsource、騰訊自選股、騰訊音樂娛樂集團(TME)、華泰證券、閱文集團、騰訊云官網(wǎng)等垂直領(lǐng)域頭部客戶,提供的服務(wù)包括交互翻譯、文件翻譯、自動翻譯、定制引擎等,并可支持計算機輔助翻譯(CAT)軟件對接,輔助全球眾多譯員完成嚴(yán)肅翻譯工作。
今年 TranSmart 繼承和發(fā)展了交互翻譯的技術(shù)概念,提升復(fù)雜場景的譯文干預(yù)能力,相較于通用自動翻譯產(chǎn)品而言,量身定制的人機交互特性全方位賦能人工翻譯過程:
個性化增強:在目標(biāo)場景中,通過復(fù)用客戶已積累的相關(guān)語料,免訓(xùn)練即時生效,自動譯文質(zhì)量顯著超出增量式訓(xùn)練的機器翻譯;
帶標(biāo)記翻譯:在 xml、markdown、html 等場景中,通過標(biāo)記抽取和還原,確保語義和格式不受損失,實現(xiàn)出色的文件翻譯能力;
實時譯文建議:譯文片段智能推薦和整句補全,相較于譯文編輯而言,在自動譯文不甚理想時,顯著減少修改量,大幅改善人工翻譯體驗;
翻譯記憶融合:動態(tài)結(jié)合用戶已完成的最相似雙語句對,生成更符合期望的自動譯文,在個性化增強的基礎(chǔ)上,取得進一步的性能提升;
術(shù)語規(guī)則融合:通過引入可編輯的術(shù)語翻譯規(guī)則,應(yīng)對一詞多義等復(fù)雜場景下的術(shù)語翻譯難題,實現(xiàn)更精細(xì)的譯文質(zhì)量干預(yù);
翻譯輸入法:參照原文上下文和機器翻譯知識,實現(xiàn)更精準(zhǔn)組詞,顯著加快人工翻譯過程中的輸入效率。
◆ 搜索與推薦
從個性化內(nèi)容推薦到內(nèi)容的自動生成,AI 與數(shù)字化內(nèi)容有著天然的親和性。依托于其龐大的內(nèi)容相關(guān)業(yè)務(wù),騰訊公司一直以來都致力于推進智能技術(shù)在搜索和推薦等方面的應(yīng)用。
在2021年,實驗室持續(xù)探索相關(guān)技術(shù)技術(shù),推出異構(gòu)向量檢索系統(tǒng) VeNN 及異構(gòu)計算框架 HCF ,并于微信搜一搜等大規(guī)模業(yè)務(wù)中落地。
向量檢索方面,VeNN 面向百萬至百億規(guī)模的向量相似召回場景,能高效給出針對性方案,并兼顧召回效果和性能。它同時支持 ANN 和暴力計算向量相似召回。針對大規(guī)模場景,VeNN融合了 HNSW 和 PQ 索引,在百億規(guī)模場景下做到 R@10 >95% 的同時控制檢索耗時<5ms。針對百萬級別小規(guī)模場景,VeNN 研發(fā)了 GPU 下的暴力計算,通過底層 kernel 的深度優(yōu)化,檢索性能在業(yè)界處于領(lǐng)先水平。在 VeNN 引擎的基礎(chǔ)上, 對文本向量表征、多模態(tài)向量表征方面進行 co-design 優(yōu)化,最終落地于微信搜一搜召回場景,顯著改善了長尾 query 的召回情況。
異構(gòu)計算框架方面,HCF 針對英偉達(dá)、英特爾等硬件平臺建設(shè)跨平臺服務(wù)端模型推理加速解決方案,其中 BERT 等模型推理性能處于業(yè)界領(lǐng)先。HCF 在推理加速方面涵蓋了業(yè)界通用的層融合,圖優(yōu)化,模型壓縮量化等手段,并進行深耕,其中 INT8 QAT 方案在微信搜一搜場景廣泛落地,同時能力在英偉達(dá) 2021 GTC 會議上分享。除此之外,HCF 也在進一步深入 TVM 編譯優(yōu)化技術(shù),以獲取更高的模型推理加速效果和跨平臺能力。
三、前沿學(xué)術(shù)研究與合作
作為國內(nèi)領(lǐng)先、世界一流的企業(yè)級人工智能實驗室,騰訊 AI Lab 持續(xù)探索機器學(xué)習(xí)、自然語言處理、視覺計算、語音技術(shù)等四大方向前沿技術(shù),并做出業(yè)界領(lǐng)先的學(xué)術(shù)成果。截至今年,實驗室已于 AAAI、CVPR、ICLR、IJCAI、ACL、ICML、EMNLP、NeurIPS 等國際人工智能頂會發(fā)表超 600 篇文章,包括今年發(fā)布的一篇 NAACL 最佳長文,及一篇 ACL 杰出論文。
同時,我們一直秉承開放合作的理念,與全球高校和研究機構(gòu)共同前進。2021年,「騰訊AI Lab犀牛鳥專項研究計劃」完成第 4 年度閉環(huán),共發(fā)表高水平論文近50篇,多項成果已應(yīng)用于 AI 藥物發(fā)現(xiàn)平臺「云深」、自然語言理解系統(tǒng)「TexSmart」、智能輔助翻譯「TranSmart」和騰訊會議等產(chǎn)品。
下面將分主題簡單梳理騰訊 AI Lab 在 2021 年發(fā)布的一些重要研究成果,并分享我們對相關(guān)領(lǐng)域的發(fā)展趨勢觀察。
機器學(xué)習(xí)
機器學(xué)習(xí)是 AI 的核心過程和標(biāo)志性能力,近些年的 AI 發(fā)展熱潮正是源自深度學(xué)習(xí)這種機器學(xué)習(xí)技術(shù)的突破。2021 年,騰訊 AI Lab 在多個機器學(xué)習(xí)方向上都得到了重要的研究成果。
◆ 深度圖學(xué)習(xí)
近幾年,圖像、視頻、游戲博弈、自然語言處理、金融等大數(shù)據(jù)分析領(lǐng)域都實現(xiàn)了跨越式的進步并催生了很多改變了我們?nèi)粘I畹膽?yīng)用。近段時間,圖神經(jīng)網(wǎng)絡(luò)是 AI 領(lǐng)域的一大研究熱點,尤其在社交網(wǎng)絡(luò)、知識圖譜、化學(xué)研究、文本分析、組合優(yōu)化等領(lǐng)域,圖神經(jīng)網(wǎng)絡(luò)在發(fā)掘數(shù)據(jù)中隱含關(guān)系方面的強大能力能獲得更好的數(shù)據(jù)表達(dá),進而做出更好的決策。
實驗室該領(lǐng)域的研究應(yīng)用上取得了豐碩的成果。針對圖神經(jīng)網(wǎng)絡(luò)的魯棒性問題,所研發(fā)的 GCN-LFR 框架[1],顯著提升了不同圖神經(jīng)網(wǎng)絡(luò)模型的穩(wěn)定性和魯棒性。在圖神經(jīng)網(wǎng)絡(luò)的可解釋性方面,基于信息瓶頸論的子圖識別網(wǎng)絡(luò)算法[2,3],為圖的可解釋性提供有效的方法。騰訊 AI Lab 還創(chuàng)新地提出了分層圖膠囊網(wǎng)絡(luò),來聯(lián)合學(xué)習(xí)節(jié)點嵌入并自動提取圖層次結(jié)構(gòu)[4]。針對圖神經(jīng)網(wǎng)絡(luò)的自蒸餾,研發(fā)的基于鄰居差異率(NDR)的方法,顯著提升了圖神經(jīng)網(wǎng)絡(luò)的訓(xùn)練效率和泛化能力[5]。在圖神經(jīng)網(wǎng)絡(luò)的應(yīng)用方面,還探索了圖神經(jīng)網(wǎng)絡(luò)在組合優(yōu)化,圖論領(lǐng)域,以及圖的節(jié)點匹配上的應(yīng)用[6,7,8,9]。
此外,在 2021年的 The WebCof 會議上,騰訊 AI Lab 、清華大學(xué)、香港中文大學(xué)等機構(gòu)聯(lián)合組織一場圖神經(jīng)網(wǎng)絡(luò) Tutorial[10]。詳見:
https://ai.tencent.com/ailab/ml/WWW-Deep-Graph-Learning.html
◆ 自動化機器學(xué)習(xí)
在自動化機器學(xué)習(xí)中的元學(xué)習(xí)和網(wǎng)絡(luò)結(jié)構(gòu)搜索等研究領(lǐng)域,騰訊AI Lab也取得了諸多成果。
在研究方面,針對元學(xué)習(xí)中的過擬合問題,AI Lab 所提出的 MetaMix 算法[11],從樣本輸入特征/標(biāo)簽和網(wǎng)絡(luò)隱含層特征兩個層面進行任務(wù)增廣,從而提高元學(xué)習(xí)算法的泛化能力。在提升自動超參數(shù)優(yōu)化的搜索效率方面,TNP 算法[12] 基于神經(jīng)過程方法,將過往在其他數(shù)據(jù)集上進行的超參數(shù)搜索過程,遷移到當(dāng)前任務(wù)上,以降低超參數(shù)搜索過程中試錯次數(shù),提升優(yōu)化效率。
在實際應(yīng)用方面,針對藥物活性預(yù)測中不同靶點數(shù)據(jù)差異性的問題,AI Lab 提出了一個基于相似性的功能區(qū)塊化的元學(xué)習(xí)模型 [13],根據(jù)靶點活性預(yù)測模型的相似度建模預(yù)測模型,提高了不同靶點預(yù)測任務(wù)在元學(xué)習(xí)算法中的利用程度。此外,針對在線增量數(shù)據(jù)的應(yīng)用場景,AI Lab 提出了 AdaXpert 網(wǎng)絡(luò)結(jié)構(gòu)搜索算法 [14],可以根據(jù)數(shù)據(jù)分布差異情況自行確定是否對網(wǎng)絡(luò)結(jié)構(gòu)進行調(diào)整,從而平衡模型的預(yù)測性能和效率。
自然語言處理
在自然語言處理(NLP)領(lǐng)域,一方面 BERT 、GPT 等基于 Transformer 的大規(guī)模神經(jīng)網(wǎng)絡(luò)語言模型的出現(xiàn)帶來了深刻影響;另一方面,大規(guī)模語言模型并沒有從根本上解決 AI 在語言理解上能力低下的問題,NLP 領(lǐng)域仍需持續(xù)研究投入和更多技術(shù)突破。騰訊 AI Lab 在自然語言處理方向的目標(biāo)是開展 NLP 基礎(chǔ)研發(fā)工作,促進 NLP 技術(shù)的發(fā)展,提升人類的生活便捷性和工作效率。
2021 年,騰訊AI Lab在一流的國際會議和期刊上發(fā)表了50多篇 NLP 方向的學(xué)術(shù)論文。在NAACL 2021,騰訊 AI Lab 與羅切斯特大學(xué)合作的論文《視頻輔助無監(jiān)督語法歸納(Video-aided Unsupervised Grammar Induction)》被 NAACL 評為最佳長文。在ACL 2021,騰訊 AI Lab 貢獻 27 篇論文(含九篇 Findings),包括 6 篇杰出論文之一,與香港中文大學(xué)合作的《基于單語翻譯記憶的神經(jīng)網(wǎng)絡(luò)機器翻譯技術(shù)(Neural Machine Translation with Monolingual Translation Memory)》。論文全文及解讀:ACL 杰出論文 NAACL 最佳論文,騰訊 AI Lab 解讀兩項 NLP 成果。
在文本理解方面,實驗室持續(xù)更新文本理解系統(tǒng) TexSmart ,保持對新出現(xiàn)實體和概念(比如“新冠”)的理解能力。今年 6 月發(fā)布的 0.3.0 版本中增加了文本圖譜(Text Graph)功能,讓用戶通過文本圖譜獲取詞語間的多種語義關(guān)系。目前其在線 API 和離線 SDK 的合計調(diào)用量比年初增加了十億次/天。實驗室還推出了新版本中文詞向量數(shù)據(jù)[15],覆蓋更多新詞,且向量表示的質(zhì)量有一定的提升。實驗室與騰訊云小微團隊聯(lián)合提出了注入通用型推理知識和任務(wù)型知識的中文預(yù)訓(xùn)練模型“神農(nóng)”(該模型僅包含十億級參數(shù)量),并一舉登頂 CLUE 總排行榜、1.1 分類任務(wù)、閱讀理解任務(wù)和命名實體任務(wù) 4 個榜單,刷新業(yè)界記錄。
在前沿研究上,NLP 團隊提出基于二分圖匹配的詞典語義對齊算法,將分散在不同詞典中語義知識融合成為一個整體,并利用遷移學(xué)習(xí)框架,訓(xùn)練通用精確語義模型,使其根據(jù)上下文語境自動化確定一個多義詞在句中的精確含義,提升機器理解力[16]。團隊還提出了一種新型的句子切分模型[17],及一種簡單有效的方法來解決命名實體標(biāo)注遺漏問題[18]。在細(xì)粒度實體分類任務(wù)上,團隊提出了一種利用多信息源的融合模型[19],及一種不依賴知識圖譜產(chǎn)生訓(xùn)練數(shù)據(jù)而又具有優(yōu)異性能的實體分類方法[20]。
在文本生成和對話方面,我們持續(xù)探索多輪對話、對話知識理解、可控文本生成等核心問題,提出基于新聞知識的自然對話研究并發(fā)布 NaturalConv 數(shù)據(jù)集[21],提出過生成和打分算法顯著提升抽取型摘要模型效果[22],并利用 Unlikelihood Training 在低資源場景下訓(xùn)練人設(shè)一致的對話系統(tǒng)[23], 基于層級式課程學(xué)習(xí)和稠密向量檢索的多輪對話系統(tǒng)[24],提出多種基于檢索結(jié)果引導(dǎo)的可控文本生成方法[25],以及一種基于預(yù)訓(xùn)練的非自回歸文本生成模型[26]。同時,我們研究如何有效公平地評價度量各種生成任務(wù)中生成文本的質(zhì)量[27],如何普適性地理解數(shù)據(jù)增強在文本生成任務(wù)中的作用[28]等重要問題。
在自動機器翻譯方面,我們專注于核心翻譯問題,致力于改善翻譯系統(tǒng)的效果和易用性。我們繼續(xù)深耕如何更高效利用翻譯數(shù)據(jù)[29],并探索預(yù)訓(xùn)練[30]、非自回歸模型[31]等機器翻譯領(lǐng)域的前沿方向。受益于此,我們的自動翻譯(中英和英中)系統(tǒng)準(zhǔn)確度繼續(xù)保持國內(nèi)前列,在國際翻譯比賽 WMT 2021 中也取得了 5 項第一的成績。
在交互翻譯方面,我們聚焦于翻譯記憶[32]和翻譯輸入法[33]。我們提出了一種快速且準(zhǔn)確的融合翻譯記憶方法;特別地,我們提出的基于單語的翻譯記憶模型獲得了 ACL 2021 杰出論文獎。另外,我們從實際應(yīng)用中抽象出了一種詞級別翻譯提示任務(wù)[33];基于該任務(wù),我們發(fā)起了第一個面向交互翻譯的 Shared Task,它將作為一個新賽道在明年的 WMT 2022 上亮相。
視覺計算
數(shù)字經(jīng)濟的高速發(fā)展和虛實結(jié)合的業(yè)界應(yīng)用對于視覺計算技術(shù)提出了新的挑戰(zhàn)。首先,視覺理解面臨著海量無標(biāo)注數(shù)據(jù),如何有效利用這些數(shù)據(jù)來優(yōu)化視覺理解模型成為一個研究熱點。其次,作為人機交互的新模式,如何快速生成高清、超寫實、可編輯、易控的虛擬人形象成為工業(yè)應(yīng)用的瓶頸。最后,大規(guī)模 3D 場景重建和動態(tài)場景的 4D 捕捉和建模成為了構(gòu)建虛擬世界的支撐技術(shù)。
2021年,視覺頂級期刊和會議,包括 T-PAMI、TIP、ICCV、CVPR 和 NeurIPS 等共接收了 35 篇騰訊 AI Lab 論文,其中既有視覺理解的底層網(wǎng)絡(luò)結(jié)構(gòu)探索,也有圖像和視頻編輯的新方法,還有跨模態(tài)的從文字生成圖像的新嘗試,以及涉及 AI 安全的對抗攻擊新成果。
視頻理解是計算機視覺中具有長期挑戰(zhàn)性的研究課題,如何從數(shù)據(jù)的不同層面設(shè)計理解算法也是學(xué)術(shù)界廣泛研究的熱點。2021 年,騰訊 AI Lab 關(guān)注新興自監(jiān)督表征學(xué)習(xí)框架,從物體、圖像以及視頻等三個維度全方面理解視頻數(shù)據(jù)?;谒惴▌?chuàng)新,騰訊 AI Lab 相關(guān)國際競賽 ActivityNet Challenge 并獲得冠軍。此外,該技術(shù)還應(yīng)用在微信搜一搜,做游戲、影視綜漫等視頻的打標(biāo)簽實踐,提高了視頻搜索準(zhǔn)確率。
圖像和視頻編輯在流媒體內(nèi)容創(chuàng)作中被廣泛應(yīng)用,比如人像編輯、視頻濾鏡、圖像裁剪等。在基于美學(xué)的圖像裁剪,實驗室首次提出外插式智能圖像裁剪算法[34],突破傳統(tǒng)算法適用給定有限圖像內(nèi)容的局限。在跨模態(tài)圖像可控生成上,受畫家繪畫過程的啟發(fā),提出了基于文本的可控圖像生成算法[35],會在過程中輪替關(guān)注全局結(jié)構(gòu)與局部細(xì)節(jié)。
基于美學(xué)的外插圖像智能裁剪 [34]
跨模態(tài)可控圖像生成 [35]
在視覺系統(tǒng)魯棒性上,實驗室在對抗樣本攻防、DeepFake 檢測等方向持續(xù)發(fā)力,提出多個原創(chuàng)性算法[36-38]。黑盒查詢式攻擊對許多 AI 模型造成嚴(yán)重威脅,實驗室提出了輕量級防御方法 [36],為每個查詢添加適當(dāng)隨機擾動,在保持正常樣本效果時顯著提升了模型魯棒性,并不引入額外部署開銷。實驗室還研究了物體檢測黑盒攻擊方法[37],顯著算法效率,有助于設(shè)計出更魯棒的模型。在 2021 世界人工智能大會上,實驗室還發(fā)布了 AI 安全風(fēng)險矩陣 2.0 版本和 AI 安全網(wǎng)站,受到業(yè)界廣泛關(guān)注。
在今年,我們也嘗試將視覺技術(shù)應(yīng)用于野生動物保護。10 月,首個雪豹智能識別及監(jiān)測數(shù)據(jù)管理云平臺上線,采用了實驗室視頻理解技術(shù),用 AI 自動檢測圖像/視頻中是否出現(xiàn)雪豹及預(yù)測其位置,將巡護員從繁瑣的記錄、標(biāo)注、識別工作中解放出來,更高效地找尋雪豹。該技術(shù)面臨諸多挑戰(zhàn),包括動物尺度差距大,紋理背景接近,難于識別;瀕危動物很少出現(xiàn),難采集到有效視頻;不同物種間分布不均,模型泛化難等。實驗室借助遷移學(xué)習(xí)、自動數(shù)據(jù)增強、難例樣本挖掘、多階段檢測等技術(shù)手段,有效的提高了物種識別、空境過濾、位置預(yù)測等效果。
語音
語音識別上,相對安靜環(huán)境和高質(zhì)量識別基本解決,但實際應(yīng)用中,復(fù)雜場景中噪聲和多個干擾人聲同時存在(雞尾酒會問題),及人們自由聊天口語化表達(dá)風(fēng)格多樣復(fù)雜問題依然存在。語音合成上,高度的自然度、表現(xiàn)力、定制化、可控制等能力仍需努力。
在 2021年,信號處理頂級會議 ICASSP 接收了實驗室的 12 篇論文,ASRU 接收 4 篇,而語音領(lǐng)域頂級會議 Interspeech 則接收了 9 篇論文,其中既有在語音前沿技術(shù)方向的進一步探索,也包含一些理論研究和分析,同時還有在科技向善與文化遺產(chǎn)保護等方面的應(yīng)用成果。
在研究中,實驗室為解決雞尾酒會問題提出了多項開拓性的解決策略。
一是圍繞多通道語音前處理系統(tǒng),在基礎(chǔ)算法方面提出全新時域 Generalized Wiener Filter 波束形成方法[39],在分離/增強任務(wù)中較頻域波束成形方法在相同 window size、同等模型復(fù)雜度下 SI-SDR 絕對性能提升 3.0 dB,相對性能提升 29.7%;在去年提出的全新基于遞歸神經(jīng)網(wǎng)絡(luò)的波束形成方法[40],突破傳統(tǒng)波束形成技術(shù)效果的基礎(chǔ)上,今年進一步優(yōu)化了模型結(jié)構(gòu)[41],并且圍繞多人同時講話這樣一個最具挑戰(zhàn)的任務(wù)上,為了提高應(yīng)用效率實現(xiàn)了具有多說話人方向特征的多通道輸入和多說話人語音分離輸出(MIMO)模型[42],把原本分別進行多路目標(biāo)語音的處理的操作合并在一個模型之中,大幅降低計算復(fù)雜度,達(dá)到流式,實時,可部署。
傳統(tǒng)前端系統(tǒng)從整個系統(tǒng)層面來看,存在著模塊相對獨立、難以聯(lián)合調(diào)優(yōu)、誤差級聯(lián)影響大的問題,今年實驗室提出構(gòu)建一套集合全鏈路,包括回聲消除、聲源定位、語音分離、去混響及波束增強等多個功能的神經(jīng)網(wǎng)絡(luò)模型方案,能克服模塊相對獨立的缺陷,實現(xiàn)場景深度定制,多模塊自動聯(lián)合優(yōu)化。
二是在多模態(tài)系統(tǒng)方面,在過去從視覺模態(tài)中提取人臉,方位,唇動,聲紋等信息,將不同模態(tài)信息流通過神經(jīng)網(wǎng)絡(luò)模型自動整合,構(gòu)建多模態(tài)語音分離增強與識別系統(tǒng)的基礎(chǔ)上,今年提出將空間定位從 2D 擴展到 3D,引入了俯仰角高度信息,3D 特征利用更精確的球面波傳播模型,同時還引入與麥克風(fēng)的深度距離信息,大大突破原有空間分辨精度,實現(xiàn)同一方向的兩個說話人,距離不同時也可區(qū)分,在高強度噪聲、更多說話人的復(fù)雜場景下的穩(wěn)定優(yōu)越性能。
在語音識別方向,騰訊 AI Lab 首次提出將動態(tài)神經(jīng)網(wǎng)絡(luò)思想引入語音識別模型中,提出基于 Mixture-of-Expert 結(jié)構(gòu)的語音識別模型 SpeechMoE[43]和 SpeechMoE2[44],針對語音識別任務(wù)設(shè)計優(yōu)化了模型多個細(xì)節(jié),包括稀疏化,路由損失,訓(xùn)練策略。在模型訓(xùn)練和應(yīng)用過程中,模型可通過局部及全局信息自動選取網(wǎng)絡(luò)中的部分路徑進行計算,模型容量相對傳統(tǒng)模型可以擴大一個數(shù)量級,同時又保證在應(yīng)用時計算復(fù)雜度不增加。能夠更好的處理語音中存在的各種維度的包括噪聲,口音,遠(yuǎn)近場等復(fù)雜變化,最新實驗的 conformer-moe 模型相比業(yè)界最多應(yīng)用的 conformer 這類網(wǎng)絡(luò)結(jié)構(gòu)基礎(chǔ)上可進一步獲得相對 10% 的提升。另外,AI Lab也提出了利用 Lattce Free MMI loss 從訓(xùn)練到解碼改進了基于RNN-T端到端識別系統(tǒng)[45], 在中文標(biāo)準(zhǔn) Benchmark AIshell1 和 AIshell2 上均取得超越SOTA的性能。
在語音合成方向,在原有 DurIAN 合成系統(tǒng)基礎(chǔ)上,探索新的生成模型方案[46],提高語音合成的表現(xiàn)力和可控性。增加對語音音韻、拖音及重音等特征的引入建模,進一步顯著提升語音合成系統(tǒng)可控性及表現(xiàn)力,實驗室配合王者電競語音合成應(yīng)用與游戲解說任務(wù)。今年還首次實現(xiàn)語音合成在游戲內(nèi)素材生成場景上應(yīng)用突破。通過進一步對語音轉(zhuǎn)換中基于 GAN 的聲碼器進行改進,效果達(dá)到游戲內(nèi)素材水平,轉(zhuǎn)換后語音 MOS 分?jǐn)?shù)逼近配音錄制語音(4.62 vs 4.70)。在生成模型理論研究方面,提出全新基于 Diffusion 的生成模型 Bilateral Denoising Diffusion[47],與基線系統(tǒng) DiffWave 相比在生成語音 MOS 相當(dāng)情況下 Denoise 過程步數(shù)大大縮減。在個性化定制任務(wù)方面,在業(yè)內(nèi)較早提出將 meta-learning 思想引入小數(shù)據(jù)量定制任務(wù)中[48],通過在訓(xùn)練過程中將向訓(xùn)練單位由一條條音頻擴展為一項項定制任務(wù),模型可更快達(dá)到定制效果,定制周期顯著縮短。
四、總結(jié)與展望
在即將過去的 2021 年,人類的生活方式持續(xù)改變,對虛擬的世界多一份期待,對現(xiàn)實的美好多一份珍惜。唯一不變的是,前沿科學(xué)依然是驅(qū)動人類前行的主要動力。
在這一年中,騰訊 AI Lab 以虛實集成世界為目標(biāo),持續(xù)投入虛擬人、醫(yī)療、醫(yī)藥、游戲、內(nèi)容、機器人等多個領(lǐng)域的研究與應(yīng)用實踐,并取得了不少令人鼓舞的成果,為「Make AI Everywhere」,用科技創(chuàng)造美好世界而做出切實的努力。
相比起我們所追尋的目標(biāo),5 年只是一個小小的起點。在未來的1年,乃至5年、10年,我們將持續(xù)攀登學(xué)術(shù)的高峰,同時積極拓展 AI 技術(shù)的更多行業(yè)應(yīng)用,面對未來更多的未知挑戰(zhàn),以開放的心態(tài)與各界伙伴共同成長。
2022,新年快樂!
《Minecraft》(中文譯名《我的世界》) 是全球最知名的開放世界游戲。小朋友只需觀看十分鐘的教學(xué)視頻,就能學(xué)會在游戲中尋找稀有的鉆石——而這是AI無法企及的高度。隨機生成的開放地圖、自由靈活的玩法、多線程長鏈條任務(wù),給AI研究帶來了極大挑戰(zhàn)。針對Minecraft的復(fù)雜環(huán)境,卡內(nèi)基·梅隆大學(xué)、微軟、DeepMind、OpenAI,聯(lián)合機器學(xué)習(xí)頂級會議NeurIPS共同舉辦了MineRL (Sample Efficient RL Competition) 賽事,邀請全球程序員在4天時間內(nèi)用一臺計算機訓(xùn)練AI找到游戲中的鉆石,今年已是第三個年頭。這一極富挑戰(zhàn)性的賽題持續(xù)吸引全球開發(fā)者關(guān)注。今年賽事共有59支團隊、近500名選手投身其中,其中不乏世界頂級學(xué)府和研究機構(gòu)的科研強隊。競賽的研究主題是:訓(xùn)練樣本高效的Minecraft AI智能體。12月8日,第三屆MineRL競賽主賽道 (research track) 發(fā)布成績,AI 的“鉆石之夢”向前踏進了一大步:騰訊AI Lab研發(fā)的“絕悟”AI以76.970分的絕對優(yōu)勢奪冠。研究成果已發(fā)布在Arxiv上,算法框架可復(fù)用于其他復(fù)雜決策環(huán)境。論文地址:https://arxiv.org/abs/2112.04907因在比賽中展示出極強的性能,絕悟團隊被特邀參加微軟2021研究者峰會,讓人類玩家與絕悟AI在Minecraft世界中共同交互,吸引了大量參會者關(guān)注?!敖^悟”以壓倒性優(yōu)勢獲得歷史最高分。完整榜單詳見:https://www.aicrowd.com/challenges/neurips-2021-minerl-diamond-competition/leaderboards“絕悟”由騰訊AI Lab研發(fā),先后于2019年達(dá)到王者榮耀職業(yè)電競水平,于2020年獲得Kaggle足球AI競賽冠軍,2021年掌握王者榮耀全英雄,同時攻克FPS、RTS等類型游戲,并將其能力應(yīng)用于游戲研發(fā)及運營環(huán)節(jié)。如今它又再探索開放世界游戲,證明其在充滿不確定性的復(fù)雜環(huán)境中游刃有余,未來應(yīng)用于現(xiàn)實環(huán)境中,也能在多種環(huán)境中與人類更好地交互。賽題解析:10分鐘內(nèi)完成復(fù)雜決策在MineRL競賽中,與每個真人玩家一樣,AI 會從《我的世界》游戲里一個隨機世界的隨機位置出生,從沒有任何工具的初始狀態(tài)開始,完成一系列任務(wù),最終找到鉆石。這個任務(wù)聽上去清晰明了,卻難倒了無數(shù)挑戰(zhàn)者。官方基于成熟算法的baseline只能獲得2分——讓AI徒手采集原木并合成出第一塊木板,這離獲得鉆石還有非常遠(yuǎn)的距離。具體來說,這個挑戰(zhàn)主要有三個難點:首先,是極度多樣的環(huán)境。不同于絕悟先前學(xué)習(xí)的游戲,Minecraft最大的難度就在于3D的開放世界。游戲沒有固定的地圖,完全靠隨機種子生成;樹木、鐵礦、鉆石等資源的刷新位置也沒有固定的規(guī)律。因此,AI見到的每一局游戲都是嶄新的。它不能死記硬背,而要從64×64像素的“高糊視角”中真正理解這個無限開放的世界。賽事游戲環(huán)境截圖,分辨率 64×64其次,是長決策序列與復(fù)雜的技能。為了在10分鐘游戲時間內(nèi)拿到鉆石,AI 需要厘清最高效的行動順序,并抓緊時間掌握多個技能。首先,它需要徒手采集原木,合成木板、木棍與木鎬等初級工具,以及用于照亮地底的火把;在礦井和山洞里探索過程中,它需要采集到鐵礦,并且學(xué)會熔煉、用提前準(zhǔn)備好的熔爐與燃料打造挖鉆石的高級工具。萬事俱備后,AI才能深入地底、尋找鉆石。在這個過程中,AI還要同時避免落入巖漿或懸崖、并與不期而遇的怪物戰(zhàn)斗。從木頭到鉆石,要經(jīng)過12道流程最后,是由高自由度玩法帶來的海量策略偏好。賽事主辦方收集了玩家的近6000萬個動作樣本,提供了約1000小時的行為記錄,供AI學(xué)習(xí)模仿。但這些樣本來自不同玩家,策略差異極大。比如為了獲取鉆石,有人喜歡礦洞探險,有人選擇向下掘地三尺,甚至還有人直接洗劫村莊房屋里的物品箱。從如此復(fù)雜多樣的數(shù)據(jù)中學(xué)習(xí)、并最終形成自己的一套策略,這對于AI無疑是極大的挑戰(zhàn)。除了以上難點,競賽方還制定了嚴(yán)苛的規(guī)則,給AI的挑戰(zhàn)“雪上加霜”。為了將目光聚焦于算法本身,主辦方禁止參賽者編寫規(guī)則、也禁止AI利用任何游戲知識。不僅如此,游戲環(huán)境甚至將背包信息與動作空間加密——AI無法直接感知包里有幾顆原木、也無法直接指定下一幀動作的含義。因此,人類“教練”們只能為AI搭一個框架,讓它從零開始,在玩家視頻與自身探索中逐漸變強。挖鉆石的全流程,后半程要深入黑暗的地下此外,主辦方不允許玩家自定義獎勵函數(shù),研究人員必須迎難而上、正面突破。從零開始完全采用強化學(xué)習(xí)的方式來訓(xùn)練Minecraft AI相當(dāng)困難,與MOBA游戲中不斷有經(jīng)濟、血量、經(jīng)驗等實時信號不同,MineRL競賽的獎勵信號非常稀疏,只有第一次獲得每種關(guān)鍵物品才會產(chǎn)生reward,這種稀疏性也一直是強化學(xué)習(xí)的主要難題。算力方面,規(guī)則同樣做了嚴(yán)格限制。賽事不允許使用預(yù)訓(xùn)練模型,每個參賽隊伍只能使用 6 核 CPU 與半張 NVIDIA K80 顯卡訓(xùn)練 4 天——這個配置是幾乎所有高校實驗室與個人研究者都可以負(fù)擔(dān)的。這次比賽的目的在于促進樣本高效 (high sample-efficiency) 游戲AI算法的發(fā)展。目前流行的強化學(xué)習(xí)算法一般需要多達(dá)成百上千萬次的試錯來尋找最優(yōu)流程,耗費大量的時間和計算資源。而純靠人類數(shù)據(jù)的模仿學(xué)習(xí)算法雖然更快,但性能上往往不盡如人意。如何將兩種方法的優(yōu)勢結(jié)合、又快又好地完成任務(wù),也是賽題的另一個目標(biāo)所在。方案解析為了解決如此復(fù)雜的問題,“絕悟”團隊通過分層強化學(xué)習(xí)(Hierarchical Reinforcement Learning)、表示學(xué)習(xí)(Representation)、自模仿學(xué)習(xí)(Self-imitation learning)、集成行為克?。‥nsemble Behavior Cloning)等四項關(guān)鍵技術(shù),實現(xiàn)了優(yōu)于其他競爭隊伍的效果。分層強化學(xué)習(xí) Hierarchical Reinforcement Learning首先,為了盡可能提高樣本利用率與訓(xùn)練效率,智能體的框架采用了分層強化學(xué)習(xí) (Hierarcichal RL)。由于數(shù)據(jù)處理階段禁止引入Minecraft游戲的先驗知識,研究人員實現(xiàn)了一套自動的數(shù)據(jù)切分算法,先基于reward delay切分子階段,再利用統(tǒng)計數(shù)據(jù)確定各階段邊界。在游戲推進中,上層控制器會實時選定一個子策略,由該策略與環(huán)境交互。分層強化學(xué)習(xí)結(jié)構(gòu)數(shù)據(jù)分析表明,上層控制器的預(yù)測準(zhǔn)確率可以達(dá)到99.95%,也就是說,AI從人類數(shù)據(jù)中學(xué)到了一套幾乎永不出錯的宏觀策略,每時每刻都清晰地知道自己下一步的正確動向。表示學(xué)習(xí) Representation Learning在狀態(tài)空間表征上,Minecraft游戲遇到的最大挑戰(zhàn)在于如何表征復(fù)雜且多樣的3D開放式地圖。首先被選中的是近年來熱門的表示學(xué)習(xí)方法 (representation learning)。但研究人員很快發(fā)現(xiàn),已有方法只適用于2D場景,在Minecraft游戲環(huán)境里效果很差。于是他們設(shè)計了一種“基于動作感知”的新穎算法,用來捕捉每個動作對環(huán)境產(chǎn)生的影響,形成注意力機制。這種方法可以顯著減小狀態(tài)空間,提升學(xué)習(xí)效率。實驗表明,這種算法可以顯著提升智能體獲得資源的能力與效率。左圖執(zhí)行“攻擊”動作后會變?yōu)橛覉D。此時模型只會關(guān)注紅框區(qū)域不同動作的可視化結(jié)果,AI學(xué)會了關(guān)注當(dāng)前圖像中的關(guān)鍵區(qū)域自模仿學(xué)習(xí) Self-imitation Learning隨著游戲進程推進,智能體與人類的策略出現(xiàn)了很大的分歧。此時,人類數(shù)據(jù)已經(jīng)很難用于指導(dǎo)AI。因此,如何從極有限的交互次數(shù)中學(xué)到一個優(yōu)秀的策略成為了新的難題。為此,絕悟使用了自模仿學(xué)習(xí) (self-imitation learning)的思想。通過基于鑒別器的自模仿算法,智能體可以從自身過往的成功與失敗中獲得經(jīng)驗與教訓(xùn),并在察覺到當(dāng)前狀況不妙的時候,主動往更好的方向修正。對比實驗證明,在加入自模仿策略后,智能體探索到的行為更加一致,也可以顯著降低進入危險區(qū)域的概率。相比于PPO和SIL,DSIL可以更高效地捕捉到歷史的成功策略,從而降低不必要的探索表示學(xué)習(xí)與自模仿學(xué)習(xí)流程集成行為克隆 Ensemble Behavior Cloning對于合成物品等需要長鏈條的動作序列,研究人員也做了細(xì)致的優(yōu)化。通過動作序列一致性過濾 (consistency filtering) 與基于投票的集成學(xué)習(xí) (ensemble learning),模型在合成物品階段的成功率從35%提升到96%,一舉將最薄弱的鏈條扭轉(zhuǎn)為了最穩(wěn)定的制勝點。效果演示:流暢砍下原木賽事之外:離復(fù)雜的現(xiàn)實世界更近一步近年,越來越多AI研究團隊將目光投向電子游戲,利用高度復(fù)雜、高度定制化的游戲場景,為AI提供實驗場景和成長驅(qū)動力。業(yè)界期望通過越來越復(fù)雜的游戲訓(xùn)練,AI最終能夠解決現(xiàn)實生活中的問題。作為AI游戲研究先行者,騰訊 AI Lab 的深度強化學(xué)習(xí)智能體正不斷走近現(xiàn)實。棋牌游戲 AI “絕藝”從圍棋棋盤逐步走向象棋、麻將,“絕悟”從MOBA走向FPS、RTS、再到如今的3D開放世界Minecraft。它們邁向全新挑戰(zhàn)的每一步,都讓AI離解決現(xiàn)實問題、科技向善的大目標(biāo)更近了一步。隨著虛實集成世界逐步變成現(xiàn)實,這些研究的經(jīng)驗、方法與結(jié)論,將在真實世界創(chuàng)造更大的實用價值。
2021年12月10日
隨著各界對 AI 倫理的日益重視,AI 系統(tǒng)的可解釋性也逐漸成為熱點,甚至上升到立法和監(jiān)管的要求。許多人工智能領(lǐng)域的專家都把 2021 年視為“AI 可解釋元年”,在這一年,不僅政府出臺相應(yīng)的監(jiān)管要求,國內(nèi)外許多科技公司,譬如谷歌、微軟、IBM、美團、微博、騰訊等,也都推出了相應(yīng)的舉措。 在這一背景下,騰訊研究院、騰訊天衍實驗室、騰訊優(yōu)圖實驗室、騰訊 AI Lab 等組成的跨學(xué)科研究團隊,歷時近一年,完成業(yè)內(nèi)首份《可解釋AI發(fā)展報告 2022——打開算法黑箱的理念與實踐》,全面梳理可解釋AI的概念、監(jiān)管政策、發(fā)展趨勢、行業(yè)實踐,并提出未來發(fā)展建議。在 1 月 11 日線上舉辦的騰訊科技向善創(chuàng)新周“透明可解釋 AI 論壇”上,由騰訊研究院秘書長張欽坤、騰訊優(yōu)圖實驗室人臉技術(shù)負(fù)責(zé)人丁守鴻進行了發(fā)布。 學(xué)界和業(yè)界專家普遍認(rèn)為,《可解釋AI發(fā)展報告 2022》非常必要,也非常及時。這份報告開了個好頭,推動人工智能向著可解釋這個極為重要的方向發(fā)展。專家點評“可解釋AI是一個龐雜的領(lǐng)域,這份報告起了一個非常好的頭,在這個基礎(chǔ)上需要開展長期的研究?,F(xiàn)在的各種算法還無法在效率和可解釋性兩方面都達(dá)到很高要求,需要根據(jù)不同需求進行取舍。而且AI的可解釋性是一個長期的問題,不會很快就有一個通用的可解釋框架,可以在一些比較重要的領(lǐng)域先行探索解決方法,指明未來的發(fā)展方向?!薄幽么蠡始铱茖W(xué)院&加拿大工程院兩院院士微眾銀行首席人工智能官 楊強“可解釋AI、透明AI是現(xiàn)階段非常迫切需要解決的問題,這份報告在國內(nèi)率先走出這一步,是開創(chuàng)性的,意義和價值非常重要。未來這個領(lǐng)域的進一步探討,需要不同學(xué)科、不同領(lǐng)域的學(xué)者都能參與進來,哲學(xué)和科技哲學(xué)對于解釋有將近一百年的探索和積累,未來可以提供很多借鑒?!薄獜B門大學(xué)人文學(xué)院院長 朱菁“這份報告非常及時,全面反映了各方面專家的意見。不同人群、不同應(yīng)用場景對AI算法的可解釋性期待是不一樣的,不應(yīng)搞一刀切,將一個統(tǒng)一的標(biāo)準(zhǔn)適用于所有情形。在深度學(xué)習(xí)普遍缺乏可解釋性的情況下,透明度就顯得尤其重要,需要適當(dāng)披露AI算法的相關(guān)信息?!薄v訊杰出科學(xué)家 天衍實驗室負(fù)責(zé)人 鄭冶楓“對AI系統(tǒng)落地來說透明性和可解釋性是必不可少的,研究前景非常好;但AI的透明性、可解釋性和性能之間存在固有的矛盾,一個可能的方向是根據(jù)不同的場景、可解釋的目的,尋找不同的折中方案,以此促進AI技術(shù)的落地。 ”——南方科技大學(xué)計算機科學(xué)與工程系系主任 姚新“本報告闡述了騰訊在AI技術(shù)研發(fā)和實踐過程中的對于可解釋AI的最新思考,是踐行騰訊倡導(dǎo)的AI向善、科技向善發(fā)展理念的重要舉措。報告從多個維度展現(xiàn)了可解釋AI的發(fā)展現(xiàn)狀和未來趨勢,并提出了切實可行的建議,對于AI研究與工程人員、監(jiān)管方和使用者都將具有很高的參考價值?!薄愀壑形拇髮W(xué)(深圳)副教授騰訊AI Lab顧問 吳保元“AI系統(tǒng)的說明書路徑需要考慮商業(yè)秘密的保護,比較好的方式是針對可解釋性、魯棒性、準(zhǔn)確性、隱私保護、公平性等方面建立量化標(biāo)準(zhǔn),并進行測評,形成AI系統(tǒng)的說明書,從而讓使用者可以清晰直觀地知道AI系統(tǒng)是否滿足可信的要求。未來,可信AI以及可解釋性等方面需要各個學(xué)科、領(lǐng)域的人一起合作,共同推進這個領(lǐng)域的發(fā)展?!薄〇|探索研究院算法科學(xué)家 何鳳翔報告鏈接:https://docs.qq.com/pdf/DSmVSRHhBeFd0b3Zu(或點擊文末「閱讀原文」)以下為報告核心觀點 :AI倫理和可解釋AI成為必選項目前人工智能已經(jīng)成為了通用型技術(shù),以深度學(xué)習(xí)為代表的機器學(xué)習(xí)加速滲透到各行各業(yè),產(chǎn)生了非常豐富的應(yīng)用。作為引領(lǐng) AI 技術(shù)加速變革的重要法寶,機器學(xué)習(xí)是一把雙刃劍。一方面,以深度學(xué)習(xí)為主要技術(shù)模型的機器學(xué)習(xí)可以幫助 AI 擺脫對人為干預(yù)和設(shè)計的依賴,形成 AI 的自主學(xué)習(xí)、自我創(chuàng)造以及自動迭代機制,使得 AI 在學(xué)習(xí)思維上無限接近于人類大腦。另一方面,機器學(xué)習(xí)又日益暴露出 AI 在自動化決策(Automated decision-making)中無可回避的難解釋性和黑箱性?;谌斯ど窠?jīng)網(wǎng)絡(luò)結(jié)構(gòu)的復(fù)雜層級,在AI深度學(xué)習(xí)模型的輸入數(shù)據(jù)和輸出結(jié)果之間,存在著人們無法洞悉的“黑盒”,即使是專家用戶也無法完全理解這些“黑盒”。因此,可解釋AI便應(yīng)運而生,可解釋AI可以分為全局可解釋(使公眾理解算法模型本身)和局部可解釋(使公眾理解算法模型的輸出結(jié)果)。如果不解決這兩個問題,不僅影響到用戶對 AI 應(yīng)用的信任,而且也可能會帶來算法歧視、算法安全和算法責(zé)任等方面的相關(guān)問題。在這樣的背景下,可解釋 AI 成為 AI 倫理甚至是立法、監(jiān)管的必選項。從 2017 年的 IEEE 的《人工智能設(shè)計的倫理準(zhǔn)則》,到 2019 年 4 月歐盟的《可信 AI 倫理指南》,再到 2020 年 11 月美國的《人工智能應(yīng)用監(jiān)管指南》,再到中國 2021 年 9 月的《新一代人工智能倫理規(guī)范》,以及 2021 年聯(lián)合國的《人工智能倫理問題建議書》,其中都在強調(diào)可解釋性和透明性的問題。我國的《個人信息保護法》、網(wǎng)信辦等九部委出臺的《關(guān)于加強互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》、以及《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定(征求意見稿)》等相關(guān)立法也開始對人工智能算法應(yīng)用的透明度和可解釋性提出要求。 可解釋AI的行業(yè)實踐探索在此背景下,可解釋 AI 也成為了各大主流科技公司研究的新興領(lǐng)域,學(xué)術(shù)界與產(chǎn)業(yè)界等紛紛探索理解 AI 系統(tǒng)行為的方法和工具。目前各主流科技公司對可解釋 AI 的探索實踐主要有兩大路徑,路徑一是建立“模型說明書”標(biāo)準(zhǔn),促進算法模型本身的透明度和可理解,第二種路徑則是打造可解釋性工具,推動構(gòu)建可解釋的 AI 模型(XAI)。路徑一旨在促進模型的透明度,增加相關(guān)主體對模型的理解和信任。譬如,谷歌的模型卡片機制(model cards),對模型的輸入、輸出、模型架構(gòu)、性能、局限性等進行描述,旨在以簡明、易懂的方式讓人們看懂并理解算法的運作過程。再如,IBM的AI事實清單機制(AI fact sheets),旨在提供與 AI 模型或服務(wù)的創(chuàng)建和部署有關(guān)的信息,包括目的、預(yù)期用途、訓(xùn)練數(shù)據(jù)、模型信息、輸入和輸出、性能指標(biāo)、偏見、魯棒性、領(lǐng)域轉(zhuǎn)移、最佳條件、不良條件、解釋、聯(lián)系信息等。國內(nèi)互聯(lián)網(wǎng)行業(yè)也開始采取類似做法,促進算法模型的透明度,如 2021 年,美團兩次發(fā)文闡釋其外賣配送算法的相關(guān)規(guī)則,促進其算法的透明度;同年 8 月,微博也首次公開其熱搜的算法規(guī)則。這些實踐都是從受眾的角度出發(fā),增強用戶對人工智能系統(tǒng)的理解與信任。騰訊也致力于推動人臉識別、醫(yī)療 AI 應(yīng)用的可解釋性,構(gòu)建負(fù)責(zé)任、可信的 AI 算法應(yīng)用。路徑二主要是可解釋性工具、可解釋模型方面的研究,從技術(shù)層面解決可解釋性的問題。隨著可信 AI 和 AI 監(jiān)管日益得到重視,行業(yè)更加重視可解釋 AI 研究,尋求解決 AI 的可解釋性問題的技術(shù)方案。越來越多的可解釋性工具被發(fā)布出來,可以對不同的統(tǒng)計機器學(xué)習(xí)模型和深度學(xué)習(xí)模型進行解釋,包括一般的泛線性模型、集成學(xué)習(xí)模型、圖像識別模型以及自然語言處理模型等。近年來頭部的人工智能公司,包括微軟、谷歌等,更是推出了更加強大與豐富的可解釋性工具,囊括了諸多可詮釋(Interpretable)方法與可解釋(Explainable)方法,為實際面臨的可解釋性問題的解決提供了巨大的幫助??山忉孉I的發(fā)展建議透明性與可解釋性,連同公平性評價、安全考慮、人類 AI 協(xié)作、責(zé)任框架,都是 AI 領(lǐng)域的基本問題。我們需要找到一個平衡的可解釋 AI 的路徑,來打造可信、負(fù)責(zé)任 AI,確保科技向善。具體來說,在設(shè)計可解釋性要求時,需要考慮可解釋性要求和其他重要的倫理價值和目的(諸如公平、安全、隱私、網(wǎng)絡(luò)安全等)之間的平衡。因為可解釋性本身不是目的,而是實現(xiàn)其他目的的手段。所以在設(shè)計可解釋性要求時,首先需要考慮想要實現(xiàn)什么目標(biāo),其次需要思考在特定情境下如何更好地匹配這些目標(biāo)。第一,立法和監(jiān)管宜遵循基于風(fēng)險的分級分類分場景治理思路,在鼓勵科技創(chuàng)新、追求科技向善、維護社會公共利益之間找到平衡點。首先,披露 AI 算法模型的源代碼是無效的方式,不僅無助于對 AI 算法模型的理解,反倒可能威脅數(shù)據(jù)隱私、商業(yè)秘密以及技術(shù)安全;其次,不宜不加區(qū)分應(yīng)用場景與時空場合地要求對所有的算法決策結(jié)果進行解釋;再次,側(cè)重應(yīng)用過程中的披露義務(wù);最后,避免強制要求披露用來訓(xùn)練AI模型的數(shù)據(jù)集,這不僅不具有可操作性,而且容易與版權(quán)保護沖突,侵犯用戶的數(shù)據(jù)隱私或違反合同義務(wù)。 第二,探索建立適應(yīng)不同行業(yè)與場景的可解釋性標(biāo)準(zhǔn)。具體可以從三個方面來著手:一是針對 AI 系統(tǒng)的一些示范性應(yīng)用場景提供可解釋性標(biāo)準(zhǔn)的指南,給行業(yè)和企業(yè)帶來有益參考;二是發(fā)布 AI 可解釋最佳實踐做法案例集、負(fù)面做法都是值得嘗試的,包括用以提供解釋的有效的用戶界面,面向?qū)<液蛯徲嬋藛T的記錄機制(例如詳細(xì)的性能特征,潛在用途,系統(tǒng)局限性等);三是創(chuàng)建一個說明不同級別的可解釋性的圖譜,這個圖譜可被用來給不同行業(yè)與應(yīng)用場景提供最小可接受的衡量標(biāo)準(zhǔn)。第三,探索可解釋的替代性機制,多舉措共同實現(xiàn)可信、負(fù)責(zé)任 AI。雖然可解釋性是完善 AI 技術(shù)的最優(yōu)解之一,但并非所有的AI系統(tǒng)及其決策都可以解釋。當(dāng) AI 系統(tǒng)過于復(fù)雜,導(dǎo)致難以滿足可解釋性要求,或是導(dǎo)致解釋機制失靈、效果不樂觀時,就要積極轉(zhuǎn)變規(guī)制的思路,探索更多元化、實用化的技術(shù)路徑。目前在技術(shù)上主張的是采取適當(dāng)?shù)奶娲詸C制,如第三方標(biāo)記反饋、用戶申訴和人工審查、常規(guī)監(jiān)測、審計等,這些替代性機制可以對 AI 算法的決策起到監(jiān)督和保障作用。第四,增強算法倫理素養(yǎng),探索人機協(xié)同的智能范式。開發(fā)者和使用者是 AI 生態(tài)的核心參與者,需要提升他們的算法倫理素養(yǎng)。一方面,加強科技倫理教育,提升 AI 從業(yè)人員的算法倫理素養(yǎng);另一方面,通過教育、新聞報道、揭秘等方式提高公眾的算法素養(yǎng),構(gòu)建和諧的人機協(xié)同關(guān)系。最后,引導(dǎo)、支持行業(yè)加強可解釋 AI 研究與落地。由于 AI 技術(shù)的快速發(fā)展迭代,可解釋 AI 的工作應(yīng)主要由企業(yè)與行業(yè)主導(dǎo),采取自愿性機制而非強制性認(rèn)證。因為市場力量(market force)會激勵可解釋性與可復(fù)制性,會驅(qū)動可解釋 AI 的發(fā)展進步。企業(yè)為維持自身的市場競爭力,會主動提高其 AI 相關(guān)產(chǎn)品服務(wù)的可解釋程度。長遠(yuǎn)來看,政府、社會、企業(yè)、行業(yè)、科研機構(gòu)、用戶等主體需要共同探索科學(xué)合理的可解釋 AI 落地方案及相關(guān)的保障與防護機制,推動科技向善。研究顧問:司 曉 吳文達(dá) 鄭冶楓 吳運聲 張正友 研究策劃:張欽坤 周政華 寫作團隊:騰訊研究院:曹建峰 王煥超騰訊天衍實驗室:魏東 黃予 張先禮 孫旭騰訊優(yōu)圖實驗室:丁守鴻 尹邦杰 陳超 黃余格廈門大學(xué):詹好研究支持團隊:馬鍇 李博 王強 趙子飛 李南 劉金松 吳保元 卞亞濤 吳秉哲 黃俊 陳瑤 田小軍 朱開鑫 胡錦浩 梁竹研究聯(lián)系:騰訊研究院 曹建峰(郵箱:jeffcao@tencent.com)
2022年1月19日
聯(lián)系客服