中文字幕理论片,69视频免费在线观看,亚洲成人app,国产1级毛片,刘涛最大尺度戏视频,欧美亚洲美女视频,2021韩国美女仙女屋vip视频

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
機器學(xué)習(xí)工程師必知的十大算法

英文原文:http://www.kdnuggets.com/2016/08/10-algorithms-machine-learning-engineers.html/2


毫無疑問,機器學(xué)習(xí)/人工智能的子領(lǐng)域在過去幾年越來越受歡迎。目前大數(shù)據(jù)在科技行業(yè)已經(jīng)炙手可熱,而基于大量數(shù)據(jù)來進行預(yù)測或者得出建議的機器學(xué)習(xí)無疑是非常強大的。一些最常見的機器學(xué)習(xí)例子,比如Netflix的算法可以根據(jù)你以前看過的電影來進行電影推薦,而Amazon的算法則可以根據(jù)你以前買過的書來推薦書籍。

所以如果你想了解更多有關(guān)機器學(xué)習(xí)的內(nèi)容,那么你該如何入門?對于我來說,我的入門課程是我在哥本哈根出國留學(xué)時參加的人工智能課。當(dāng)時我的講師是丹麥技術(shù)大學(xué)(Technical University of Denmark)的應(yīng)用數(shù)學(xué)和計算機科學(xué)的全職教授,他的研究方向是邏輯與人工智能,側(cè)重于使用邏輯學(xué)來對人性化的規(guī)劃、推理和解決問題進行建模。這個課程包括對理論/核心概念的討論和自己動手解決問題。我們使用的教材是AI經(jīng)典之一:Peter Norvig的Artificial Intelligence—A Modern Approach(中文譯本:《人工智能:一種現(xiàn)代的方法》),這本書主要講了智能體、搜索解決問題、對抗搜索、概率論、多智能體系統(tǒng)、社會AI和AI的哲學(xué)/倫理/未來等等。在課程結(jié)束時,我們?nèi)齻€人的團隊實現(xiàn)了一個簡單的編程項目,也就是基于搜索的智能體解決虛擬環(huán)境中的運輸任務(wù)問題。

在那門課程上我已經(jīng)學(xué)到了很多知識,并決定繼續(xù)學(xué)習(xí)相關(guān)的課題。在過去的幾個星期里,我在舊金山參加了多次相關(guān)的技術(shù)講座,涉及到深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)和數(shù)據(jù)結(jié)構(gòu),并且參加了一個有很多該領(lǐng)域的知名專家學(xué)者參加的機器學(xué)習(xí)會議。最重要的是,我在6月初參加了Udacity上的Intro to Machine Learning(機器學(xué)習(xí)入門)在線課程,前幾天才完成。在這篇文章中,我想分享一下我從課程中學(xué)到的一些最常用的機器學(xué)習(xí)算法。

機器學(xué)習(xí)算法可以分為三大類:監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)和強化學(xué)習(xí)。監(jiān)督學(xué)習(xí)可用于一個特定的數(shù)據(jù)集(訓(xùn)練集)具有某一屬性(標(biāo)簽),但是其他數(shù)據(jù)沒有標(biāo)簽或者需要預(yù)測標(biāo)簽的情況。無監(jiān)督學(xué)習(xí)可用于給定的沒有標(biāo)簽的數(shù)據(jù)集(數(shù)據(jù)不是預(yù)分配好的),目的就是要找出數(shù)據(jù)間的潛在關(guān)系。強化學(xué)習(xí)位于這兩者之間,每次預(yù)測都有一定形式的反饋,但是沒有精確的標(biāo)簽或者錯誤信息。因為這是一個介紹課程,我沒有學(xué)習(xí)過強化學(xué)習(xí)的相關(guān)內(nèi)容,但是我希望以下10個關(guān)于監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí)的算法足以讓你感興趣。

監(jiān)督學(xué)習(xí)

1.決策樹(Decision Trees)

決策樹是一個決策支持工具,它使用樹形圖或者決策模型以及可能性序列,包括偶然事件的結(jié)果、資源成本和效用。下圖是其基本原理:

從業(yè)務(wù)決策的角度來看,決策樹是人們必須了解的最少的是/否問題,這樣才能評估大多數(shù)時候做出正確決策的概率。作為一種方法,它允許你以結(jié)構(gòu)化和系統(tǒng)化的方式來解決問題,從而得出合乎邏輯的結(jié)論。

2.樸素貝葉斯分類(Naive Bayesian classification)

樸素貝葉斯分類器是一類簡單的概率分類器,它基于貝葉斯定理和特征間的強大的(樸素的)獨立假設(shè)。圖中是貝葉斯公式,其中P(A|B)是后驗概率,P(B|A)是似然,P(A)是類先驗概率,P(B)是預(yù)測先驗概率。

一些應(yīng)用例子:

  • 判斷垃圾郵件

  • 對新聞的類別進行分類,比如科技、政治、運動

  • 判斷文本表達的感情是積極的還是消極的

  • 人臉識別

3.最小二乘法(Ordinary Least Squares Regression)

如果你懂統(tǒng)計學(xué)的話,你可能以前聽說過線性回歸。最小二乘法是一種計算線性回歸的方法。你可以將線性回歸看做通過一組點來擬合一條直線。實現(xiàn)這個有很多種方法,“最小二乘法”就像這樣:你可以畫一條直線,然后對于每一個數(shù)據(jù)點,計算每個點到直線的垂直距離,然后把它們加起來,那么最后得到的擬合直線就是距離和盡可能小的直線。

線性指的是你用來擬合數(shù)據(jù)的模型,而最小二乘法指的是你最小化的誤差度量。

4.邏輯回歸(Logistic Regression)

邏輯回歸是一個強大的統(tǒng)計學(xué)方法,它可以用一個或多個解釋變量來表示一個二項式結(jié)果。它通過使用邏輯函數(shù)來估計概率,從而衡量類別依賴變量和一個或多個獨立變量之間的關(guān)系,后者服從累計邏輯分布。

總的來說,邏輯回歸可以用于以下幾個真實應(yīng)用場景:

  • 信用評分

  • 計算營銷活動的成功率

  • 預(yù)測某個產(chǎn)品的收入

  • 特定的某一天是否會發(fā)生地震

5.支持向量機(Support Vector Machine,SVM)

SVM是二進制分類算法。給定N維坐標(biāo)下兩種類型的點,SVM生成(N-1)維的超平面來將這些點分成兩組。假設(shè)你在平面上有兩種類型的可以線性分離的點,SVM將找到一條直線,將這些點分成兩種類型,并且這條直線盡可能遠離所有這些點。

從規(guī)模上看,使用SVM(經(jīng)過適當(dāng)?shù)男薷模┙鉀Q的一些最大的問題包括顯示廣告、人類剪切位點識別(human splice site recognition)、基于圖像的性別檢測,大規(guī)模圖像分類……

6.集成方法(Ensemble methods)

集成方法是學(xué)習(xí)算法,它通過構(gòu)建一組分類器,然后通過它們的預(yù)測結(jié)果進行加權(quán)投票來對新的數(shù)據(jù)點進行分類。原始的集成方法是貝葉斯平均,但是最近的算法包括糾錯輸出編碼、Bagging和Boosting。

那么集成方法如何工作?并且為什么它們要優(yōu)于單個模型?

  • 它們平均了單個模型的偏差:如果你將民主黨的民意調(diào)查和共和黨的民意調(diào)查在一起平均化,那么你將得到一個均衡的結(jié)果,不偏向任何一方。

  • 它們減少了方差:一組模型的總體意見比其中任何一個模型的單一意見更加統(tǒng)一。在金融領(lǐng)域,這就是所謂的多元化,有許多股票的組合比一個單獨的股票的不確定性更少,這也為什么你的模型在數(shù)據(jù)多的情況下會更好的原因。

  • 它們不太可能過擬合:如果你有單個的模型沒有過擬合,那么把這些模型的預(yù)測簡單結(jié)合起來(平均、加權(quán)平均、邏輯回歸),那么最后得到的模型也不會過擬合。

無監(jiān)督學(xué)習(xí)

7.聚類算法(Clustering Algorithms)

聚類是將一系列對象分組的任務(wù),目標(biāo)是使相同組(集群)中的對象之間比其他組的對象更相似。

每一種聚類算法都不相同,下面是一些例子:

  • 基于質(zhì)心的算法

  • 基于連接的算法

  • 基于密度的算法

  • 概率

  • 降維

  • 神經(jīng)網(wǎng)絡(luò)/深度學(xué)習(xí)

8.主成分分析(Principal Component Analysis,PCA)

PCA是一個統(tǒng)計學(xué)過程,它通過使用正交變換將一組可能存在相關(guān)性的變量的觀測值轉(zhuǎn)換為一組線性不相關(guān)的變量的值,轉(zhuǎn)換后的變量就是所謂的主分量。

PCA的一些應(yīng)用包括壓縮、簡化數(shù)據(jù)便于學(xué)習(xí)、可視化等。請注意,領(lǐng)域知識在選擇是否繼續(xù)使用PCA時非常重要。 數(shù)據(jù)嘈雜的情況(PCA的所有成分具有很高的方差)并不適用。

9.奇異值分解(Singular Value Decomposition,SVD)

在線性代數(shù)中,SVD是復(fù)雜矩陣的因式分解。對于給定的m * n矩陣M,存在分解使得M=UΣV,其中U和V是酉矩陣,Σ是對角矩陣。

實際上,PCA是SVD的一個簡單應(yīng)用。在計算機視覺中,第一個人臉識別算法使用PCA和SVD來將面部表示為“特征面”的線性組合,進行降維,然后通過簡單的方法將面部匹配到身份,雖然現(xiàn)代方法更復(fù)雜,但很多方面仍然依賴于類似的技術(shù)。

10.獨立成分分析(Independent Component Analysis,ICA)

ICA是一種統(tǒng)計技術(shù),主要用于揭示隨機變量、測量值或信號集中的隱藏因素。ICA對觀測到的多變量數(shù)據(jù)定義了一個生成模型,這通常是作為樣本的一個大的數(shù)據(jù)庫。在模型中,假設(shè)數(shù)據(jù)變量由一些未知的潛在變量線性混合,混合方式也是未知的。潛在變量被假定為非高斯分布并且相互獨立,它們被稱為觀測數(shù)據(jù)的獨立分量。

ICA與PCA有關(guān),但是當(dāng)這些經(jīng)典方法完全失效時,它是一種更強大的技術(shù),能夠找出源的潛在因素。 其應(yīng)用包括數(shù)字圖像、文檔數(shù)據(jù)庫、經(jīng)濟指標(biāo)和心理測量。

現(xiàn)在運用你對這些算法的理解去創(chuàng)造機器學(xué)習(xí)應(yīng)用,為世界各地的人們帶來更好的體驗吧。


本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊舉報。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
想了解機器學(xué)習(xí)?你需要知道的十個基礎(chǔ)算法 | 雷鋒網(wǎng)
【技術(shù)必備】解讀 2016 年十大機器學(xué)習(xí)算法及其應(yīng)用
干貨 ‖ 機器學(xué)習(xí)十大算法
線性代數(shù)在數(shù)據(jù)科學(xué)中的十個強大應(yīng)用(一)
快速選擇合適的機器學(xué)習(xí)算法
機器學(xué)習(xí)十大算法---- SVM 線性可分與不可分
更多類似文章 >>
生活服務(wù)
熱點新聞
分享 收藏 導(dǎo)長圖 關(guān)注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服