在2018年期間,我們目睹了基于機(jī)器學(xué)習(xí)和人工智能的平臺(tái),工具和應(yīng)用程序的急劇增長。 這些技術(shù)不僅影響了軟件和互聯(lián)網(wǎng)行業(yè),還影響了其他垂直行業(yè),如醫(yī)療保健,法律,制造業(yè),汽車和農(nóng)業(yè)。
我們將繼續(xù)看到2019年及以后的ML和AI相關(guān)技術(shù)的進(jìn)步。 亞馬遜,蘋果,F(xiàn)acebook,谷歌,IBM和微軟等公司正在投資研發(fā)人工智能,這將有助于生態(tài)系統(tǒng)將人工智能拉近消費(fèi)者。
以下是2019年需要注意的5種AI趨勢:
1. 啟用AI芯片的興起
與其他軟件不同,AI嚴(yán)重依賴專用處理器來補(bǔ)充CPU。 即使是最快和最先進(jìn)的CPU也可能無法提高AI模型的培訓(xùn)速度。 在推理時(shí),該模型需要額外的硬件來執(zhí)行復(fù)雜的數(shù)學(xué)計(jì)算,以加速對(duì)象檢測和面部識(shí)別等任務(wù)。
2019年,英特爾,NVIDIA,AMD,ARM和高通等芯片制造商將推出專用芯片,加速AI應(yīng)用的執(zhí)行。 這些芯片將針對(duì)與計(jì)算機(jī)視覺,自然語言處理和語音識(shí)別相關(guān)的特定用例和場景進(jìn)行優(yōu)化。 來自醫(yī)療保健和汽車行業(yè)的下一代應(yīng)用將依賴這些芯片為最終用戶提供智能。
2019年也將是亞馬遜,微軟,谷歌和Facebook等超大規(guī)?;A(chǔ)設(shè)施公司將增加基于現(xiàn)場可編程門陣列(FPGA)和專用集成電路(ASIC)的定制芯片投資的一年。 這些芯片將針對(duì)基于AI和高性能計(jì)算(HPC)運(yùn)行現(xiàn)代工作負(fù)載進(jìn)行大量優(yōu)化。 其中一些芯片還將協(xié)助下一代數(shù)據(jù)庫加速查詢處理和預(yù)測分析。
2. 邊緣的物聯(lián)網(wǎng)和人工智能的融合
在2019年,AI在邊緣計(jì)算層遇到物聯(lián)網(wǎng)。 在公共云中訓(xùn)練的大多數(shù)模型將部署在邊緣。
工業(yè)物聯(lián)網(wǎng)是人工智能的最佳用例,可以執(zhí)行異常檢測,根本原因分析和設(shè)備的預(yù)測性維護(hù)。
基于深度神經(jīng)網(wǎng)絡(luò)的高級(jí)ML模型將進(jìn)行優(yōu)化以在邊緣運(yùn)行。 他們將能夠處理視頻幀,語音合成,時(shí)間序列數(shù)據(jù)和由攝像機(jī),麥克風(fēng)和其他傳感器等設(shè)備生成的非結(jié)構(gòu)化數(shù)據(jù)。
物聯(lián)網(wǎng)將成為企業(yè)中人工智能的最大驅(qū)動(dòng)力。 Edge器件將配備基于FPGA和ASIC的特殊AI芯片。
2016年,谷歌推出了Tensor Processing Units,或稱TPU,它們更為人所知的一點(diǎn)是 - 專為Google的TensorFlow框架設(shè)計(jì)的芯片。 今年,這家技術(shù)巨頭現(xiàn)在推出了Edge TPU,這是一種小型人工智能加速器,可在物聯(lián)網(wǎng)(IoT)設(shè)備中實(shí)現(xiàn)機(jī)器學(xué)習(xí)工作。
Edge TPU旨在執(zhí)行機(jī)器學(xué)習(xí)算法訓(xùn)練的任務(wù)。 例如,它將能夠識(shí)別圖片中的對(duì)象。 算法訓(xùn)練的這部分“預(yù)成形任務(wù)”被稱為“推理”。 雖然Edge TPU旨在執(zhí)行推理,但Goggle基于服務(wù)器的TPU負(fù)責(zé)訓(xùn)練算法。
3. 神經(jīng)網(wǎng)絡(luò)之間的互操作性成為關(guān)鍵
開發(fā)神經(jīng)網(wǎng)絡(luò)模型的關(guān)鍵挑戰(zhàn)之一在于選擇正確的框架。 數(shù)據(jù)科學(xué)家和開發(fā)人員必須從眾多選擇中選擇合適的工具,包括Caffe2,PyTorch,Apache MXNet,Microsoft Cognitive Toolkit和TensorFlow。 一旦模型在特定框架中進(jìn)行了訓(xùn)練和評(píng)估,就很難將訓(xùn)練好的模型移植到另一個(gè)框架中。
神經(jīng)網(wǎng)絡(luò)工具包之間缺乏互操作性阻礙了AI的采用。 為了應(yīng)對(duì)這一挑戰(zhàn),AWS,F(xiàn)acebook和Microsoft合作構(gòu)建了開放式神經(jīng)網(wǎng)絡(luò)交換(ONNX),這使得在多個(gè)框架中重用經(jīng)過訓(xùn)練的神經(jīng)網(wǎng)絡(luò)模型成為可能。
在2019年,ONNX將成為該行業(yè)的重要技術(shù)。 從研究人員到邊緣設(shè)備制造商,生態(tài)系統(tǒng)的所有關(guān)鍵參與者都將依賴ONNX作為推理的標(biāo)準(zhǔn)運(yùn)行時(shí)。
4. 自動(dòng)化機(jī)器學(xué)習(xí)將獲得突出地位
從根本上改變基于ML的解決方案的一個(gè)趨勢是AutoML。 它將使業(yè)務(wù)分析師和開發(fā)人員能夠發(fā)展可以解決復(fù)雜場景的機(jī)器學(xué)習(xí)模型,而無需經(jīng)過ML模型的典型培訓(xùn)過程。
在處理AutoML平臺(tái)時(shí),業(yè)務(wù)分析師會(huì)專注于業(yè)務(wù)問題,而不是迷失在流程和工作流程中。
AutoML完全適用于認(rèn)知API和自定義ML平臺(tái)之間。 它提供了正確的自定義級(jí)別,而無需強(qiáng)迫開發(fā)人員完成精心設(shè)計(jì)的工作流程。 與通常被視為黑盒子的認(rèn)知API不同,AutoML具有相同程度的靈活性,但自定義數(shù)據(jù)與可移植性相結(jié)合。
5. AI將通過AIOps自動(dòng)化DevOps
現(xiàn)代應(yīng)用程序和基礎(chǔ)架構(gòu)正在生成為索引,搜索和分析而捕獲的日志數(shù)據(jù)。 從硬件,操作系統(tǒng),服務(wù)器軟件和應(yīng)用軟件獲得的海量數(shù)據(jù)集可以進(jìn)行聚合和關(guān)聯(lián),以找到見解和模式。 當(dāng)機(jī)器學(xué)習(xí)模型應(yīng)用于這些數(shù)據(jù)集時(shí),IT操作從被動(dòng)轉(zhuǎn)變?yōu)轭A(yù)測。
當(dāng)AI的強(qiáng)大功能應(yīng)用于運(yùn)營時(shí),它將重新定義基礎(chǔ)架構(gòu)的管理方式。 ML和AI在IT運(yùn)營和DevOps中的應(yīng)用將為組織提供智能。 它將幫助運(yùn)營團(tuán)隊(duì)進(jìn)行精確和準(zhǔn)確的根本原因分析。
AIOps將在2019年成為主流。公共云供應(yīng)商和企業(yè)將從AI和DevOps的融合中受益。
機(jī)器學(xué)習(xí)和人工智能將成為2019年的關(guān)鍵技術(shù)趨勢。從業(yè)務(wù)應(yīng)用到IT支持,AI將對(duì)行業(yè)產(chǎn)生重大影響。
聯(lián)系客服