中文字幕理论片,69视频免费在线观看,亚洲成人app,国产1级毛片,刘涛最大尺度戏视频,欧美亚洲美女视频,2021韩国美女仙女屋vip视频

打開APP
userphoto
未登錄

開通VIP,暢享免費(fèi)電子書等14項(xiàng)超值服

開通VIP
AI產(chǎn)品經(jīng)理要了解的算法有哪些?

“算法”源自波斯學(xué)者al-Khwarizmi名字的拉丁化。他于9世紀(jì)在巴格達(dá)撰寫了著作《印度數(shù)字計(jì)算》一書,該書向西方引入了印度教的數(shù)字,以及相應(yīng)的計(jì)算數(shù)字的新方法,即算法。

中世紀(jì)拉丁語“algorismus”指的是用印度數(shù)字進(jìn)行四個(gè)基本數(shù)學(xué)運(yùn)算——加法,減法,乘法和除法的程序和捷徑。后來,術(shù)語“算法”被人們用作表示任何逐步的邏輯過程,并成為計(jì)算邏輯的核心。

算法的歷史可以分為三個(gè)階段:

  1. 在古代,算法可以認(rèn)為是程序化、規(guī)則化儀式的過程,通過該過程實(shí)現(xiàn)特定的目標(biāo)和傳遞規(guī)則;

  2. 在中世紀(jì),算法是輔助數(shù)學(xué)運(yùn)算的過程;

  3. 在現(xiàn)代,算法是邏輯過程,由機(jī)器和數(shù)字計(jì)算機(jī)完全機(jī)械化和自動化。

算法就是計(jì)算或者解決問題的步驟。想用計(jì)算機(jī)解決特定的問題,就要遵循相應(yīng)的算法。這里所說的特定問題多種多樣,比如:“將隨意排列的數(shù)字按從小到大的順序重新排列”、“尋找出發(fā)點(diǎn)到目的地的最短路徑”等等。

現(xiàn)在算法已經(jīng)廣泛應(yīng)用到了我們生活當(dāng)中,在瀏覽淘寶的時(shí)候,推薦的商品,就應(yīng)用到了協(xié)同推薦算法,我和老王都買了a, b這兩個(gè)商品,并且老王還買了c。那么,有比較大的概率我也會喜歡c商品。推薦算法認(rèn)為,當(dāng)你喜歡一個(gè)物品時(shí),你會傾向于也喜歡同類型的其他物品。于是,當(dāng)用戶翻牌了其中一首歌,與它相似的那一堆歌曲很快就會亮起來然后被放進(jìn)推薦中。

通用算法有哪些

算法時(shí)代已經(jīng)到來,算法帶來的變化就發(fā)生在我們身邊:滴滴打車使用算法來連接司機(jī)和乘客;美團(tuán)用算法連接了商家和客戶和物流,并通過規(guī)劃最優(yōu)路徑將食物直接“投遞”到手中。

智能算法正在顛覆整個(gè)行業(yè)。但是,這種改變才剛剛開始,未來十年將有可能看到所有行業(yè)都受到算法的影響。算法可以更快做出更明智的決策,并且降低風(fēng)險(xiǎn),這就是算法的意義。

解決不同的問題需要用到不同的算法,或者是幾種算法配合使用。熟悉并了解各類算法,對AI產(chǎn)品經(jīng)理在設(shè)計(jì)產(chǎn)品的時(shí)候可以起到輔助決策。

下面我們一起來看看都有哪些算法:

1. 決策樹

決策樹是一種樹形結(jié)構(gòu),其中每個(gè)內(nèi)部節(jié)點(diǎn)表示一個(gè)屬性上的測試,每個(gè)分支代表一個(gè)測試輸出,每個(gè)葉節(jié)點(diǎn)代表一種類別。常見的決策樹算法有C4.5、ID3和CART。

決策樹的目的是用于分類預(yù)測,即各個(gè)節(jié)點(diǎn)需要選取輸入樣本的特征,進(jìn)行規(guī)則判定,最終決定樣本歸屬到哪一棵子樹。決策樹是一種簡單常用的分類器,通過訓(xùn)練好的決策樹可以實(shí)現(xiàn)對未知的數(shù)據(jù)進(jìn)行高效分類。

2. 隨機(jī)森林

隨機(jī)森林是最流行也最強(qiáng)大的機(jī)器學(xué)習(xí)算法之一,它是一種集成機(jī)器學(xué)習(xí)算法。隨機(jī)森林就是通過集成學(xué)習(xí)的思想將多棵樹集成的一種算法,它的基本單元是決策樹,上面我們講過啥是決策樹,而它的本質(zhì)屬于機(jī)器學(xué)習(xí)的一大分支——集成學(xué)習(xí)方法。

隨機(jī)森林的名稱中有兩個(gè)關(guān)鍵詞,一個(gè)是“隨機(jī)”,一個(gè)就是“森林”。“森林”我們很好理解,一棵叫做樹,那么成百上千棵就可以叫做森林了,這樣的比喻還是很貼切的,其實(shí)這也是隨機(jī)森林的主要思想——集成思想的體現(xiàn)。

隨機(jī)森林的主要作用是降低模型的復(fù)雜度,解決模型的過擬合問題。

3. Logistic 回歸

Logistic 回歸是機(jī)器學(xué)習(xí)從統(tǒng)計(jì)學(xué)領(lǐng)域借鑒過來的另一種技術(shù)。其主要思想是:根據(jù)現(xiàn)有數(shù)據(jù)對分類邊界線(Decision Boundary)建立回歸公式,以此進(jìn)行分類,它是二分類問題的首選方法。

像線性回歸一樣,Logistic 回歸的目的也是找到每個(gè)輸入變量的權(quán)重系數(shù)值。但不同的是,Logistic 回歸的輸出預(yù)測結(jié)果是通過一個(gè)叫作「logistic 函數(shù)」的非線性函數(shù)變換而來的。

4. K 最近鄰算法

K 最近鄰(KNN)算法是非常簡單而有效的,KNN 的模型表示就是整個(gè)訓(xùn)練數(shù)據(jù)集,這很簡單吧?

對新數(shù)據(jù)點(diǎn)的預(yù)測結(jié)果是通過在整個(gè)訓(xùn)練集上搜索與該數(shù)據(jù)點(diǎn)最相似的 K 個(gè)實(shí)例(近鄰),并且總結(jié)這 K 個(gè)實(shí)例的輸出變量而得出的。對于回歸問題來說,預(yù)測結(jié)果可能就是輸出變量的均值;而對于分類問題來說,預(yù)測結(jié)果可能是眾數(shù)(或最常見的)的類的值。

最近鄰算法的思想很簡單,“距離”相近的事物總會具有更多的共性。例如:預(yù)測一個(gè)人的飲食風(fēng)格只是根據(jù)與他相近的人來預(yù)測的,而并沒有說明這個(gè)人的年齡、收入是如何影響他的飲食風(fēng)格的。

5. 排序算法

在我們生活的這個(gè)世界中到處都是被排序過的。站隊(duì)的時(shí)候會按照身高排序,考試的名次需要按照分?jǐn)?shù)排序,如何快速高效排序,有多種算法,經(jīng)典的排序算法有插入排序、希爾排序、選擇排序、冒泡排序、歸并排序、快速排序、堆排序、基數(shù)排序。其中插入排序是一種最簡單直觀的排序算法,它的工作原理是通過構(gòu)建有序序列,對于未排序數(shù)據(jù),在已排序序列中從后向前掃描,找到相應(yīng)位置并插入。

如下圖所示:

把這些算法按照穩(wěn)定性來分可以分為:

  • 穩(wěn)定的排序算法:冒泡排序、插入排序、歸并排序和基數(shù)排序;

  • 不是穩(wěn)定的排序算法:選擇排序、快速排序、希爾排序、堆排序。

排序算法有很多演示視頻大家可以搜來看看,這里不一一講解了。

6. 查找算法

查找是在大量的信息中尋找一個(gè)特定的信息元素,在計(jì)算機(jī)應(yīng)用中,查找是常用的基本運(yùn)算,例如編譯程序中符號表的查找。

最為經(jīng)典的算法有順序查找算法、二分查找算法、插值查找算法、斐波那契查找算法、樹表查找算法、分塊查找算法、哈希查找等。

要了解哈希查找就要先了解哈希函數(shù),要了解哈希函數(shù)就要先了解哈希表,哈希表,亦稱散列表,是通過函數(shù)映射的方式將關(guān)鍵字和存儲位置建立聯(lián)系,進(jìn)而實(shí)現(xiàn)快速查找。哈希函數(shù)的規(guī)則是通過某種轉(zhuǎn)換關(guān)系,使關(guān)鍵字適度的分散到指定大小的的順序結(jié)構(gòu)中,越分散,則以后查找的時(shí)間復(fù)雜度越小,空間復(fù)雜度越高。

哈希查找的思路很簡單,如果所有的鍵都是整數(shù),那么就可以使用一個(gè)簡單的無序數(shù)組來實(shí)現(xiàn):將鍵作為索引,值即為其對應(yīng)的值,這樣就可以快速訪問任意鍵的值。這是對于簡單的鍵的情況,我們將其擴(kuò)展到可以處理更加復(fù)雜的類型的鍵?,F(xiàn)在的以圖搜圖的關(guān)鍵算法就是應(yīng)用了哈希查找算法。

7. 貪心算法

所謂貪心算法是指,在對問題求解時(shí),總是做出在當(dāng)前看來是最好的選擇。也就是說,不從整體最優(yōu)上加以考慮,他所做出的僅是在某種意義上的局部最優(yōu)解。

貪心算法的基本思路是首先建立數(shù)學(xué)模型來描述問題,把求解的問題分成若干個(gè)子問題。然后對每一子問題求解,得到子問題的局部最優(yōu)解,最后把子問題的解局部最優(yōu)解合成原來解問題的一個(gè)解。因?yàn)橛秘澬乃惴ㄖ荒芡ㄟ^解局部最優(yōu)解的策略來達(dá)到全局最優(yōu)解,因此,一定要注意判斷問題是否適合采用貪心算法策略,找到的解是否一定是問題的最優(yōu)解。

8. 動態(tài)規(guī)劃

動態(tài)規(guī)劃(Dynamic Programming)是一種把原問題分解為相對簡單的子問題以求解的方法,為了避免多次解決重復(fù)的子問題,子問題的結(jié)果都被保存,直到整個(gè)問題得以解決。

動態(tài)規(guī)劃的思考過程可以總結(jié)為:

  • 大事化?。阂粋€(gè)較大的問題,通過找到與子問題的重疊,把復(fù)雜的問題劃分為多個(gè)小問題,也稱為狀態(tài)轉(zhuǎn)移;

  • 小事化了:小問題的解決通常是通過初始化,直接計(jì)算結(jié)果得到。

9. 圖論算法

圖論起源于一個(gè)著名的數(shù)學(xué)問題——柯尼斯堡(Konigsberg)問題,即七橋問題。1738 年,瑞典數(shù)學(xué)家Eular 解決了這個(gè)問題,他也成為了圖論的創(chuàng)始人。

如今圖論是數(shù)學(xué)的一個(gè)分支,它以圖為研究對象。圖論中的圖是由若干給定的點(diǎn)及連接兩點(diǎn)的線所構(gòu)成的圖形,這種圖形通常用來描述某些事物之間的某種特定關(guān)系,用點(diǎn)代表事物,用連接兩點(diǎn)的線表示相應(yīng)兩個(gè)事物間具有這種關(guān)系。圖論算法是用來求解實(shí)際問題的一種方法,在數(shù)學(xué)建模的求解過程中經(jīng)常應(yīng)用。

在計(jì)算機(jī)科學(xué)領(lǐng)域有著各種各樣的圖論算法,如:

  • 深度優(yōu)先遍歷,廣度優(yōu)先遍歷

  • 單源最短路,多源最短路

  • 最小生成樹

  • 最大流

  • 拓?fù)渑判?,?qiáng)連通分量

  • 最小生成樹

10. 樸素貝葉斯

樸素貝葉斯是一種簡單而強(qiáng)大的預(yù)測建模算法。

該模型由兩類可直接從訓(xùn)練數(shù)據(jù)中計(jì)算出來的概率組成:

  1. 數(shù)據(jù)屬于每一類的概率;

  2. 給定每個(gè) x 值,數(shù)據(jù)從屬于每個(gè)類的條件概率。一旦這兩個(gè)概率被計(jì)算出來,就可以使用貝葉斯定理,用概率模型對新數(shù)據(jù)進(jìn)行預(yù)測。當(dāng)你的數(shù)據(jù)是實(shí)值的時(shí)候,通常假設(shè)數(shù)據(jù)符合高斯分布(鐘形曲線),這樣你就可以很容易地估計(jì)這些概率。

11. 邏輯回歸

邏輯回歸是一種用于解決監(jiān)督學(xué)習(xí)問題的學(xué)習(xí)算法,進(jìn)行邏輯回歸的目的,是使訓(xùn)練數(shù)據(jù)的標(biāo)簽值與預(yù)測出來的值之間的誤差最小化。邏輯回歸廣泛應(yīng)用于機(jī)器學(xué)習(xí)中,其中清洗臟數(shù)據(jù)最為廣泛,在數(shù)據(jù)行業(yè)有一個(gè)笑話是,數(shù)據(jù)科學(xué)中80%的工作是數(shù)據(jù)清洗,另外20%是抱怨數(shù)據(jù)清洗。

邏輯回歸具有實(shí)現(xiàn)簡單,分類時(shí)計(jì)算量非常小,速度很快,存儲資源低;便利的觀測樣本概率分?jǐn)?shù);計(jì)算代價(jià)不高,易于理解和實(shí)現(xiàn)等優(yōu)點(diǎn)。

12. 線性回歸

在統(tǒng)計(jì)學(xué)和機(jī)器學(xué)習(xí)領(lǐng)域,線性回歸可能是最廣為人知也最易理解的算法之一。

預(yù)測建模主要關(guān)注的是在犧牲可解釋性的情況下,盡可能最小化模型誤差或做出最準(zhǔn)確的預(yù)測。我們將借鑒、重用來自許多其它領(lǐng)域的算法(包括統(tǒng)計(jì)學(xué))來實(shí)現(xiàn)這些目標(biāo)。

線上回歸有兩個(gè)主要用處:預(yù)測 (prediction)與因果分析 (causal analysis)。

  1. 預(yù)測指的是用已觀察的變數(shù)來預(yù)測依變項(xiàng);

  2. 因果分析則是將自變項(xiàng)當(dāng)作是依變項(xiàng)發(fā)生的原因。

13. SVM支持向量機(jī)

支持向量機(jī)(support vector machine)是一種分類算法,通過尋求結(jié)構(gòu)化風(fēng)險(xiǎn)最小來提高學(xué)習(xí)機(jī)泛化能力,實(shí)現(xiàn)經(jīng)驗(yàn)風(fēng)險(xiǎn)和置信范圍的最小化,從而達(dá)到在統(tǒng)計(jì)樣本量較少的情況下,亦能獲得良好統(tǒng)計(jì)規(guī)律的目的。

通俗來講,它是一種二類分類模型,其基本模型定義為特征空間上的間隔最大的線性分類器,即支持向量機(jī)的學(xué)習(xí)策略便是間隔最大化,最終可轉(zhuǎn)化為一個(gè)凸二次規(guī)劃問題的求解。

14. 人工神經(jīng)網(wǎng)絡(luò)

人工神經(jīng)網(wǎng)絡(luò)是在現(xiàn)代神經(jīng)科學(xué)的基礎(chǔ)上提出和發(fā)展起來的一種旨在反映人腦結(jié)構(gòu)及功能的抽象數(shù)學(xué)模型。它具有人腦功能基本特性:學(xué)習(xí)、記憶和歸納。人工神經(jīng)網(wǎng)絡(luò)是機(jī)器學(xué)習(xí)的一個(gè)龐大的分支,有幾百種不同的算法。

重要的人工神經(jīng)網(wǎng)絡(luò)算法包括:感知器神經(jīng)網(wǎng)絡(luò)(Perceptron Neural Network), 反向傳遞(Back Propagation), Hopfield網(wǎng)絡(luò),自組織映射(Self-Organizing Map, SOM)。學(xué)習(xí)矢量量化(Learning Vector Quantization, LVQ)

15. K-Means聚類

k-means算法是非監(jiān)督聚類最常用的一種方法,因其算法簡單和很好的適用于大樣本數(shù)據(jù),廣泛應(yīng)用于不同領(lǐng)域,K-means聚類算法用來查找那些包含沒有明確標(biāo)記數(shù)據(jù)的組。這可以用于確定商業(yè)假設(shè),存在什么類型的分組或?yàn)閺?fù)雜的數(shù)據(jù)集確定未知組。一旦該算法已運(yùn)行并定義分組,任何新數(shù)據(jù)可以很容易地分配到正確的組。

16. 協(xié)同過濾算法

協(xié)同過濾,從字面上理解,包括協(xié)同和過濾兩個(gè)操作。所謂協(xié)同就是利用群體的行為來做決策(推薦),生物上有協(xié)同進(jìn)化的說法,通過協(xié)同的作用,讓群體逐步進(jìn)化到更佳的狀態(tài)。

對于推薦系統(tǒng)來說,通過用戶的持續(xù)協(xié)同作用,最終給用戶的推薦會越來越準(zhǔn)。而過濾,就是從可行的決策(推薦)方案(標(biāo)的物)中將用戶喜歡的方案(標(biāo)的物)找(過濾)出來。

具體來說,協(xié)同過濾的思路是通過群體的行為來找到某種相似性(用戶之間的相似性或者標(biāo)的物之間的相似性),通過該相似性來為用戶做決策和推薦。只不過協(xié)同過濾算法依賴用戶的行為來為用戶做推薦,如果用戶行為少(比如新上線的產(chǎn)品或者用戶規(guī)模不大的產(chǎn)品),這時(shí)就很難發(fā)揮協(xié)同過濾算法的優(yōu)勢和價(jià)值,甚至根本無法為用戶做推薦。這時(shí)可以采用基于內(nèi)容的推薦算法作為補(bǔ)充。

17. 分層聚類

分層聚類,又稱層次聚類、系統(tǒng)聚類,顧名思義是指聚類過程是按照一定層次進(jìn)行的。比如當(dāng)前有8個(gè)裁判對于300個(gè)選手進(jìn)行打分,試圖想對8個(gè)裁判進(jìn)行聚類,以挖掘出裁判的打分偏好風(fēng)格類別情況,此時(shí)則需要進(jìn)行分層聚類。

18. 密度聚類算法

DBSCAN 是一種基于密度的聚類算法,它類似于均值漂移,但具有一些顯著的優(yōu)點(diǎn)。其主要原理是只要鄰近區(qū)域的密度(對象或數(shù)據(jù)點(diǎn)的數(shù)目)超過某個(gè)閾值,就繼續(xù)聚類,該算法擅于解決不規(guī)則形狀的聚類問題,廣泛應(yīng)用于空間信息處理,SGC,GCHL,DBSCAN算法、OPTICS算法、DENCLUE算法。

19. 高斯聚類模型

高斯混合模型,顧名思義,多個(gè)高斯分布的結(jié)合組成的概率分布模型,簡稱為GMM。

關(guān)于高斯分布模型的基本理論。GMM的歸納偏好為數(shù)據(jù)服從 Gaussian Distribution ,換句話說,數(shù)據(jù)可以看作是從數(shù)個(gè) Gaussian Distribution 中生成出來的。所以在這個(gè)假設(shè)前提下,再反推已知一堆數(shù)據(jù),必須還得知道這些數(shù)據(jù)有幾個(gè)部分(類)組成吧,知道這個(gè)基本參數(shù),才能正確的進(jìn)行聚類吧。

20. EM算法

EM算法常用在有隱變量的參數(shù)的求解,比如混合高斯模型(Gaussian Mixture Model)。EM算法是可以收斂的,但是可能會陷于局部最小值,所以我們一般需要多次去初始值,選擇最后的那個(gè)作為我們的結(jié)果。

21. Adaboost

AdaBoost 是第一個(gè)為二分類問題開發(fā)的真正成功的 Boosting 算法。它是人們?nèi)腴T理解 Boosting 的最佳起點(diǎn)。當(dāng)下的 Boosting 方法建立在 AdaBoost 基礎(chǔ)之上,最著名的就是隨機(jī)梯度提升機(jī)。

22. Boosting

Boosting 是一種試圖利用大量弱分類器創(chuàng)建一個(gè)強(qiáng)分類器的集成技術(shù)。要實(shí)現(xiàn) Boosting 方法,首先你需要利用訓(xùn)練數(shù)據(jù)構(gòu)建一個(gè)模型,然后創(chuàng)建第二個(gè)模型(它企圖修正第一個(gè)模型的誤差)。直到最后模型能夠?qū)τ?xùn)練集進(jìn)行完美地預(yù)測或加入的模型數(shù)量已達(dá)上限,我們才停止加入新的模型。

當(dāng)有多個(gè)算法都可以解決同一個(gè)問題時(shí),我們該如何選擇呢?在選擇算法上,考量的標(biāo)準(zhǔn)不一樣。

消耗算力小:簡單的算法對人來說易于理解,也容易被寫成程序,而在運(yùn)行過程中不需要耗費(fèi)太多空間資源的算法,就十分適用于內(nèi)存小的計(jì)算機(jī)。

時(shí)效性強(qiáng):對于實(shí)時(shí)響應(yīng)的程序我們一般來說我們最為重視的是算法的運(yùn)行時(shí)間,即時(shí)效,也是從輸入數(shù)據(jù)到輸出結(jié)果這個(gè)過程所花費(fèi)的時(shí)間。

總結(jié)

在一般人眼中,算法是一種深奧枯燥難以理解的東西。但是在AI產(chǎn)品經(jīng)理眼中,算法是一把把好用的工具,可以幫助產(chǎn)品經(jīng)理搭建出一個(gè)個(gè)完美的杰作。對算法的了解程度不必太深,比較產(chǎn)品經(jīng)理不是碼代碼的,但是了解算法的原理及應(yīng)用場景,必不可少。

本文也只是一個(gè)大綱,真正弄懂算法還需深入研究一番。

本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點(diǎn)擊舉報(bào)。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
人工智能及機(jī)器學(xué)習(xí)與深度學(xué)習(xí)揭秘
25 個(gè)你需要知道的人工智能術(shù)語
揭開人工智能、機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的神秘面紗
流行的機(jī)器學(xué)習(xí)算法總結(jié),幫助你開啟機(jī)器學(xué)習(xí)算法學(xué)習(xí)之旅
機(jī)器學(xué)習(xí)算法在自動駕駛領(lǐng)域的應(yīng)用大盤點(diǎn)
AI產(chǎn)品經(jīng)理入門實(shí)例講解
更多類似文章 >>
生活服務(wù)
熱點(diǎn)新聞
分享 收藏 導(dǎo)長圖 關(guān)注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點(diǎn)擊這里聯(lián)系客服!

聯(lián)系客服