雖然您可以嘗試在家中構(gòu)建自己的GPU陣列并開始訓(xùn)練機(jī)器學(xué)習(xí)模型,但嘗試與AI相關(guān)的服務(wù)最簡(jiǎn)單方法可能是通過云。
所有主要的技術(shù)公司都提供各種AI服務(wù),從用于構(gòu)建和訓(xùn)練自己的機(jī)器學(xué)習(xí)模型的基礎(chǔ)結(jié)構(gòu),到允許您訪問AI驅(qū)動(dòng)的工具(如按需訪問語音,語言,視覺和情感識(shí)別)的Web服務(wù)。
人工智能太多的東西無法匯總成一個(gè)完整的列表,但最近的一些亮點(diǎn)包括:2009年Google展示了其自動(dòng)駕駛的豐田普銳斯有可能完成10次,每次100英里的旅程-使社會(huì)走上無人駕駛汽車的道路。
2011年,計(jì)算機(jī)系統(tǒng) IBM Watson贏得了美國(guó)智力競(jìng)賽節(jié)目《危險(xiǎn)!,擊敗了該節(jié)目有史以來最出色的兩位選手。為了贏得展覽,沃森使用自然語言處理和分析功能對(duì)龐大的數(shù)據(jù)存儲(chǔ)庫(kù)進(jìn)行了處理,從而可以回答人類提出的問題,通常只需不到一秒鐘的時(shí)間。
人工智能IBM Watson參與Jeopardy競(jìng)賽!在2011年1月14日
圖片:IBM在2012年6月,顯而易見的是,機(jī)器學(xué)習(xí)系統(tǒng)在計(jì)算機(jī)視覺方面的應(yīng)用變得多么出色,而 Google培訓(xùn)了一種識(shí)別互聯(lián)網(wǎng)上最喜歡的貓的系統(tǒng)。自Watson贏得勝利以來,也許最著名的機(jī)器學(xué)習(xí)系統(tǒng)功效證明是2016年Google DeepMind AlphaGo AI擊敗了Go的人類大師之后,Go是一款古老的中國(guó)游戲,其復(fù)雜性困擾了計(jì)算機(jī)數(shù)十年。圍棋每轉(zhuǎn)大約200步,而國(guó)際象棋中只有20步。在進(jìn)行圍棋游戲的過程中,有太多可能的動(dòng)作,以至于從計(jì)算的角度來看,事先搜索每個(gè)動(dòng)作以找出最佳玩法的成本太高。取而代之的是,AlphaGo受到了如何玩游戲的訓(xùn)練,方法是在3000萬個(gè)Go游戲中采取人類專家的動(dòng)作并將其饋入深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)。
人工智能訓(xùn)練這些深度學(xué)習(xí)網(wǎng)絡(luò)可能會(huì)花費(fèi)很長(zhǎng)時(shí)間,隨著系統(tǒng)逐漸完善其模型以實(shí)現(xiàn)最佳結(jié)果,需要攝取和迭代大量數(shù)據(jù)。但是, 最近,Google使用AlphaGo Zero(一種對(duì)自己玩“完全隨機(jī)”游戲的系統(tǒng))改進(jìn)了訓(xùn)練過程,然后從結(jié)果中學(xué)習(xí)。在去年享有盛名的神經(jīng)信息處理系統(tǒng)(NIPS)會(huì)議上,谷歌DeepMind首席執(zhí)行官Demis Hassabis透露AlphaGo還精通了象棋和將棋游戲。
聯(lián)系客服