近這兩年里deep learning技術(shù)在圖像識別和跟蹤等方面有很大的突破,是一大研究熱點,里面涉及的數(shù)學(xué)理論和應(yīng)用技術(shù)很值得深入研究,這里總結(jié)一些在微博發(fā)布和轉(zhuǎn)載的相關(guān)資料,以便查閱:
一、
@winsty #NIPS2013# “Learning A Deep Compact Image Representation for Visual Tracking” 第一次結(jié)合deep learning和visual tracking的嘗試,在GPU下可以在MATLAB里realtime,結(jié)果可以和state-of-the-art相比,還在等什么呢?小伙伴們請猛戳project page(有code!):
http://t.cn/zRakSQu@丕子Yoshua Bengio gave a recent presentation on “Deep Learning of Representation” and Generative Stochastic Networks (GSNs) at MSR and AAAI 2013. Slides of the talk can be accessed from this link.
http://t.cn/zQI3EI1 從CVPR2013看計算機(jī)視覺研究的三個趨勢:1.RGBD數(shù)據(jù)的分析;2.中層patch的分析;3.深度學(xué)習(xí)與特征學(xué)習(xí) | bfcat-計算機(jī)視覺博客
http://t.cn/zQhiySm Andrew Ng 研究組在NIPS'2012的論文就融合了上一條微博所述的三種趨勢,用深度學(xué)習(xí)技術(shù)分析RGBD數(shù)據(jù),實現(xiàn)三維物體分類。Convolutional-Recursive Deep Learning For 3D Object Classification -
www.socher.org http://t.cn/zQzQqut 三、
@圖像視覺研究PAMI的Special Section on Learning Deep Architectures終于出來了,2013年的第8期
http://t.cn/zHuYhzw 。一共7篇DL相關(guān)的文章,第一篇就是Representation Learning: A Review and New Perspectives 。Early Access里面還有好幾篇DL文章不在這一期。
四、
@數(shù)據(jù)挖掘_PHP這里也有一個非常贊的Deep Learning學(xué)習(xí)筆記系列,博主結(jié)合Andrew Ng的教程來寫,而且把教程每一部分的練習(xí)都做了一遍,目前已經(jīng)寫到第23篇了,佩服!
Deeplearning:一(基礎(chǔ)知識_1) - tornadomeet - 博客園
http://t.cn/zYBHy0p 六、
@鄒宇華DeepLearning的入門還是看Yoshua Bengio的綜述文章就好了, 今年十月有一篇新的綜述,
http://t.cn/zW18qVs 。我只看了十幾頁,讀起來很舒服,寫的還比較誠懇, 承認(rèn)了deep learning中很多不足和尚未解決的問題。
十一、
@鄒宇華 十二、
通過實驗驗證,Andrew Ng斯坦福大學(xué)研究團(tuán)隊開發(fā)的深度學(xué)習(xí)算法準(zhǔn)確度為19.2%,遠(yuǎn)遠(yuǎn)高于隨機(jī)預(yù)測(0.005%)或者state-of-art方法(9.5%)?!続ndrew Ng主題演講:深度學(xué)習(xí)】Andrew Ng在微軟教育峰會分享Deep Learning核心思想:把學(xué)習(xí)框架看作一個層級式網(wǎng)絡(luò),可以根據(jù)如下程序進(jìn)行訓(xùn)練1)用無監(jiān)督學(xué)習(xí)為每層網(wǎng)絡(luò)訓(xùn)練2)前者訓(xùn)練結(jié)果作為更高一層的輸入3)用監(jiān)督學(xué)習(xí)調(diào)整全部層級,模擬人腦分析學(xué)習(xí)。Slides下載>> |andrew-ng_machinelearning.pdf
http://t.cn/zQNKJgF 十三、
Kevin Duh關(guān)于深度學(xué)習(xí)的這兩個教程不錯,面帶到了,深度適當(dāng),比較好懂.Deep Learning: An Introduction from the NLP Perspective,
http://t.cn/zH3TzZ2 。Recent Advances in Deep Learning,
http://t.cn/zH3TzZL 。
十四、
發(fā)現(xiàn)微軟雷德蒙研究院語音組大牛鄧力和俞棟研究員今年初寫了一本《信號及信息處理的深度學(xué)習(xí)方法》來總結(jié)一些深度學(xué)習(xí)的最新進(jìn)展,一共才100頁不到,很容易就能讀完。本書總結(jié)了深度學(xué)習(xí)各種trick,算是關(guān)于深度學(xué)習(xí)最新的教材了,而且非常適合做語音的同學(xué)閱讀。下載地址:
http://t.cn/zQv3gM2 十五、
//@陳利人:深度挖掘深度學(xué)習(xí)。 //@vinW: 原來還可以更古老//@老師木: Fukushima 的 neocognitron 更早,不過只是描述了how,我認(rèn)為 linsker 在 88年左右的工作揭示了 why //@Hyperddr: 我上次轉(zhuǎn)的那篇論文是98年的,這個好像更老。。不過@老師木 轉(zhuǎn)的那篇是88年的, 全都是deeplearning的起源。
@vinW十六、
@余凱_西二旗民工: 同推薦。這是去年夏天在加州大學(xué)洛杉磯分校的summer school. 的確深度學(xué)習(xí)的主要人物都參加了。上面的講義全面覆蓋了深度學(xué)習(xí)的各個方面。
@cswhjianghttp://t.cn/zWyVo2h IPAM Summer School on Deep Learning and Feature Learning的視頻(有如下大牛:Geoffrey Hinton, Yann LeCun, Yoshua Bengio, Andrew Ng, Stephen Wright, Kai Yu@余凱_西二旗民工 等..)