文章參考:Github 編譯:孫菁
1、DEEPNLP 自然語言處理中的深度學(xué)習(xí) 牛津大學(xué)
這是一門側(cè)重于應(yīng)用的課程,主要講解了循環(huán)神經(jīng)網(wǎng)絡(luò)在分析和生成語音及文本方面的最新進(jìn)展。本課程中引入了機(jī)器學(xué)習(xí)模型的數(shù)學(xué)定義,并推導(dǎo)出相應(yīng)的最優(yōu)化算法。本課程涵蓋了神經(jīng)網(wǎng)絡(luò)在自然語言處理中的多種應(yīng)用,如分析文本的潛在維度,將語音轉(zhuǎn)錄為文本,兩種語言之間的翻譯,以及自動回答問題等。本課程由Phil Blunsom主辦并與DeepMind自然語言小組合作。
課程鏈接:https://github.com/oxford-cs-deepnlp-2017/
2、CS20si 利用Tensorflow進(jìn)行深度學(xué)習(xí)研究 斯坦福大學(xué)
本課程側(cè)重于使用Tensorflow進(jìn)行深度學(xué)習(xí)研究的基本用法和當(dāng)前主流用法。本課程意在幫助學(xué)生理解Tensorflow計算圖模型的用法,探索Tensorflow提供的各種函數(shù),在特定深度學(xué)習(xí)問題下建立最優(yōu)模型。課程學(xué)習(xí)后,學(xué)生會使用TensorFlow來搭建不同復(fù)雜程度的模型,從最簡單的線性回歸模型到卷積神經(jīng)網(wǎng)絡(luò)模型,以及用于處理詞向量、翻譯、字符識別等任務(wù)的循環(huán)神經(jīng)網(wǎng)絡(luò)模型。此外,學(xué)生還能夠?qū)W習(xí)如何構(gòu)建模型及如何管理實(shí)驗(yàn)程序。
課程鏈接:http://web.stanford.edu/class/cs20si/index.html
3、COMS 4771 機(jī)器學(xué)習(xí) 哥倫比亞大學(xué)
本課程由Tony Jebara主講,介紹了在機(jī)器學(xué)習(xí)中對生成和鑒別進(jìn)行評估的問題。本課程將涵蓋最小二乘法,高斯分布,線性分類,線性回歸,極大似然,指數(shù)族分布,貝葉斯網(wǎng)絡(luò),貝葉斯推斷,復(fù)合模型,EM算法,圖模型,隱藏馬爾科夫鏈,支持向量機(jī),以及內(nèi)核方法等。
課程鏈接:http://www.cs.columbia.edu/%7Ejebara/4771/index.html
4、CS109 數(shù)據(jù)科學(xué) 哈佛大學(xué)
數(shù)據(jù)科學(xué)的目的在于對數(shù)據(jù)學(xué)習(xí)并做出有用的預(yù)測。本課程介紹了關(guān)于調(diào)查研究的五個關(guān)鍵方面:對數(shù)據(jù)進(jìn)行整理、清理及采樣以獲得合適的數(shù)據(jù)集;對數(shù)據(jù)進(jìn)行有效管理以便更快速更可靠地獲取大數(shù)據(jù);對探索性數(shù)據(jù)進(jìn)行分析以產(chǎn)生假設(shè)和直覺認(rèn)識;基于統(tǒng)計學(xué)方法(如回歸和分類)進(jìn)行預(yù)測;通過可視化、可解釋的摘要來傳達(dá)結(jié)果。
課程鏈接:http://cs109.github.io/2015/
5、CS156 從數(shù)據(jù)中學(xué)習(xí) 加州理工學(xué)院
本課程是機(jī)器學(xué)習(xí)的導(dǎo)論,涵蓋基礎(chǔ)理論、算法及應(yīng)用。機(jī)器學(xué)習(xí)是大數(shù)據(jù)的核心技術(shù)之一,在金融、醫(yī)藥、商業(yè)及其他科學(xué)領(lǐng)域也有廣泛應(yīng)用。機(jī)器學(xué)習(xí)使得計算系統(tǒng)能夠通過對已觀測到的數(shù)據(jù)進(jìn)行學(xué)習(xí)來自適應(yīng)地提高自身性能。如今機(jī)器學(xué)習(xí)已成為最熱門的研究方向之一,在加州理工,由15個不同專業(yè)的本科生和研究生承擔(dān)著這一領(lǐng)域的研究。本課程綜合理論與實(shí)踐,同時也包含數(shù)學(xué)內(nèi)容及其他啟發(fā)式的內(nèi)容。
課程連接:https://work.caltech.edu/telecourse.html
6、CS 224d自然語言處理中的深度學(xué)習(xí)斯坦福大學(xué)
在信息時代自然語言處理是最重要的技術(shù)之一。能夠理解復(fù)雜的自然語言表達(dá)也是人工智能中至關(guān)重要的部分。在人們的生活中,自然語言處理的應(yīng)用隨處可見,這是因?yàn)槲覀內(nèi)祟惻c外界交互最多用的是語言:網(wǎng)頁搜索、廣告、郵件、自定義服務(wù)、語言翻譯、放射線學(xué)報告等等?,F(xiàn)實(shí)中有很多基礎(chǔ)任務(wù)和機(jī)器學(xué)習(xí)模型都為自然語言處理的發(fā)展提供動力。近來,深度學(xué)習(xí)的方法在很多自然語言處理問題上都取得了很大的進(jìn)步,這類模型通常需要訓(xùn)練一個單一的端到端的模型,并且不需要傳統(tǒng)的復(fù)雜而繁重的特征工程。在本課程中,學(xué)生可以學(xué)習(xí)到如何實(shí)現(xiàn)、訓(xùn)練、可視化深度學(xué)習(xí)模型以及如何創(chuàng)造自己的模型。此外,本課程也對目前應(yīng)用到自然語言處理的深度學(xué)習(xí)方法進(jìn)行了深入的討論。
課程鏈接:http://cs224d.stanford.edu/
7、CS229r大數(shù)據(jù)中的算法哈佛大學(xué)
大數(shù)據(jù)指的是大到單一主機(jī)的內(nèi)存無法滿足其需求的數(shù)據(jù)量,在互聯(lián)網(wǎng)搜索、網(wǎng)絡(luò)流量監(jiān)測、機(jī)器學(xué)習(xí)、科學(xué)計算、信號處理以及其他幾個方面,什么樣的算法能高效地處理大數(shù)據(jù)就成為一個非常重要的問題。本課程涵蓋了開發(fā)此類算法的嚴(yán)格的數(shù)學(xué)模型,同時也包含在這些模型中運(yùn)算的算法的一些可證明的限制。
課程連接:http://people.seas.harvard.edu/%7Eminilek/cs229r/fall15/index.html
8、CS231n視覺識別中的卷積神經(jīng)網(wǎng)絡(luò)斯坦福大學(xué)
在我們生活中計算機(jī)視覺已經(jīng)無處不在,搜索、圖像理解、應(yīng)用程序、繪圖、醫(yī)藥、無人機(jī)及自駕車等等中都或多或少地涉及到計算機(jī)視覺。本課程對深度學(xué)習(xí)架構(gòu)進(jìn)行了深入講解,側(cè)重于通過學(xué)習(xí)端到端模型來解決這些問題,尤其是圖像分類問題。在為期十周的課程中,學(xué)生能夠?qū)W習(xí)如何執(zhí)行、訓(xùn)練及調(diào)試自己的神經(jīng)網(wǎng)絡(luò)模型,并能學(xué)習(xí)到當(dāng)前計算機(jī)視覺的最先進(jìn)的研究。
課程鏈接:http://cs231n.stanford.edu/
9、CS287高級機(jī)器人加州大學(xué)伯克利分校
本課程介紹了目前最先進(jìn)的機(jī)器人背后的數(shù)學(xué)和算法知識。這些技術(shù)主要基于概率推理和最優(yōu)化,概率推理和最優(yōu)化也是人工智能系統(tǒng)中應(yīng)用非常廣泛的兩個理論。因此,本課程的一個副作用就是可能會強(qiáng)化你對這兩個理論的理解。
課程鏈接:https://people.eecs.berkeley.edu/~pabbeel/cs287-fa13/
10、CS395T科學(xué)計算中的統(tǒng)計和離散方法德克薩斯大學(xué)
本課程是將現(xiàn)代統(tǒng)計技術(shù)應(yīng)用于實(shí)際數(shù)據(jù),特別是生物信息數(shù)據(jù)和大數(shù)據(jù)集的實(shí)踐課程。 本課程的重點(diǎn)是有效地計算和簡潔地編碼,主要用MATLAB和C 實(shí)現(xiàn)。 課程涵蓋的主題包括概率論和貝葉斯推理; 單變量分布 中心極限定理 隨機(jī)偏差的產(chǎn)生; 尾(p值)測試; 多重假說校正; 經(jīng)驗(yàn)分布; 模型擬合; 誤差估計; 應(yīng)變表; 多元正態(tài)分布; 系統(tǒng)發(fā)生聚類; 高斯混合模型; EM方法; 最大似然估計; 馬可夫鏈;蒙特卡羅 ;主成分分析; 動態(tài)規(guī)劃; 隱馬爾可夫模型; 分類器性能指標(biāo); 支持向量機(jī); 維納過濾;小波; 多維插值; 信息理論等等。
課程鏈接:http://numerical.recipes/CS395T/
11、CS4780機(jī)器學(xué)習(xí)康奈爾大學(xué)
本課程將介紹如何在萬維網(wǎng)上構(gòu)建以數(shù)據(jù)為中心的信息系統(tǒng)的技術(shù),展示這些系統(tǒng)的實(shí)際應(yīng)用,并通過研究公共科學(xué)(如數(shù)據(jù)新聞和開放政府)等交叉問題來討論系統(tǒng)的設(shè)計及其在社會和政治中的應(yīng)用。課程涉及講座、閱讀、每周作業(yè),以及一個實(shí)踐項(xiàng)目,學(xué)生在課程中將展示其建立的以數(shù)據(jù)為中心的Web信息系統(tǒng)。
· 課程鏈接:http://www.cs.cornell.edu/courses/cs4780/2014fa/
12、CS4786數(shù)據(jù)科學(xué)中的機(jī)器學(xué)習(xí)康奈爾大學(xué)
本課程是機(jī)器學(xué)習(xí)的入門課程,重點(diǎn)是數(shù)據(jù)建模及數(shù)據(jù)科學(xué)的相關(guān)方法和學(xué)習(xí)算法。 暫定課題如下。維度減少:如主成分分析(PCA)和奇異值分解(SVD),規(guī)范相關(guān)分析(CCA),獨(dú)立分量分析(ICA),壓縮感知,隨機(jī)投影,信息瓶頸(會涵蓋其中一些,但可能不是全部)。聚類:如k均值,高斯混合模型,期望最大化(EM)算法,基于鏈路的聚類(不期望覆蓋分層或頻譜聚類)概率建模主題:如圖形模型,潛變量模型,推理(例如置信傳播),參數(shù)學(xué)習(xí)。如果時間允許,我們也會講解到回歸問題。
課程鏈接:http://www.cs.cornell.edu/courses/cs4786/2015sp/index.htm
13、CXV101凸優(yōu)化斯坦福大學(xué)
本課程側(cè)重于識別和解決實(shí)際應(yīng)用中出現(xiàn)的凸優(yōu)化問題。 涉及的課題包括以下內(nèi)容。:凸集、函數(shù)和優(yōu)化問題; 凸分析的基礎(chǔ);最小二乘法,線性和二次方程,半定規(guī)劃,極小值,極限體積等問題; 最優(yōu)條件,對偶理論,替代定理和應(yīng)用;內(nèi)點(diǎn)方法;信號處理,統(tǒng)計和機(jī)器學(xué)習(xí),控制和機(jī)械工程,數(shù)字和模擬電路設(shè)計以及財務(wù)應(yīng)用。
課程鏈接:https://lagunita.stanford.edu/courses/Engineering/CVX101/Winter2014/info
14、DS-GA1008深度學(xué)習(xí)紐約大學(xué)
本課程在紐約大學(xué)數(shù)據(jù)科學(xué)中心進(jìn)行,自開辦以后日益流行。 本課最初由Yann Lecun先生引入,現(xiàn)在由Zaid Harchaoui主導(dǎo)。 它涵蓋了在計算機(jī)視覺和自然語言處理中的機(jī)器學(xué)習(xí)理論、技術(shù)和技巧。 課后作業(yè)由Kaggle用Lua語言編寫。
課程鏈接:http://cilvr.cs.nyu.edu/doku.php?id=deeplearning2015:schedule
15、EECS E6893 EECS E6895 高級數(shù)據(jù)分析&高級大數(shù)據(jù)分析哥倫比亞大學(xué)
本課程是研究生(大數(shù)據(jù)處理、分析、可視化、存儲以及應(yīng)用等問題)的入門課程。通過學(xué)習(xí),學(xué)生將獲得分析大數(shù)據(jù)的能力。
課程鏈接:http://www.ee.columbia.edu/%7Ecylin/course/bigdata/
16、EECS E6984 計算機(jī)視覺和自然語言處理中的深度學(xué)習(xí)哥倫比亞大學(xué)
本課程屬于研究生水平的研究課程,重點(diǎn)是視覺和自然語言處理問題中的深度學(xué)習(xí)技術(shù)。 本課概述了各種深度學(xué)習(xí)模型和技術(shù),并對相關(guān)領(lǐng)域的最新進(jìn)展進(jìn)行了調(diào)查。 本課程使用Theano作為主要的編程工具。 盡管不需要GPU編程經(jīng)驗(yàn),本堂課需要學(xué)生積極的論文發(fā)表和較多的編程工作。
課程連接:http://llcao.net/cu-deeplearning15/index.html
17、EE103矩陣方法導(dǎo)論斯坦福大學(xué)
本課程涵蓋了矩陣和向量的基礎(chǔ)理論、如何求解線性方程、最小二乘法及其他許多應(yīng)用。 本課程會涵蓋數(shù)學(xué)內(nèi)容,但重點(diǎn)將是在諸如斷層攝影、圖像處理、數(shù)據(jù)擬合、時間序列預(yù)測和金融等應(yīng)用中使用矩陣的方法。 EE103基于Stephen Boyd和Lieven Vandenberghe目前正在撰寫的一本書的內(nèi)容展開。 學(xué)生將使用一種叫Julia的新語言進(jìn)行矩陣和向量的計算。
課程鏈接:http://stanford.edu/class/ee103/
18、Info290通過Twitter進(jìn)行大數(shù)據(jù)分析加州大學(xué)伯克利分校信息學(xué)院
針對應(yīng)用于Twitter數(shù)據(jù)的算法和軟件,在本課程中加州大學(xué)伯克利分校的教授和Twitter的工程師做出了詳細(xì)的講解。 課題包括情緒分析、大規(guī)模異常檢測、實(shí)時搜索、信息擴(kuò)散和爆發(fā)檢測、社會流中的趨勢檢測、推薦算法和分布式計算的高級框架等應(yīng)用于自然語言處理的算法。
課程鏈接:https://www.ischool.berkeley.edu/courses/info/290/abdt
19、機(jī)器學(xué)習(xí):2014-2015牛津大學(xué)
本課程側(cè)重于神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí),并利用Torch深度學(xué)習(xí)庫(使用Lua語言)來進(jìn)行課堂練習(xí)及作業(yè)。 主題包括:邏輯回歸,反向傳播,卷積神經(jīng)網(wǎng)絡(luò),最大邊緣學(xué)習(xí),孿生網(wǎng)絡(luò),循環(huán)神經(jīng)網(wǎng)絡(luò),LSTM,循環(huán)神經(jīng)網(wǎng)絡(luò)手寫體識別,變分自動編碼器,圖像生成和強(qiáng)化學(xué)習(xí)。
課程鏈接:https://www.cs.ox.ac.uk/people/nando.defreitas/machinelearning/
20、StatLearning統(tǒng)計學(xué)學(xué)習(xí)導(dǎo)論斯坦福大學(xué)
本課程是有監(jiān)督學(xué)習(xí)的入門級課程,課程的重點(diǎn)是回歸和分類方法。 課程大綱包括:線性和多項(xiàng)式回歸,邏輯回歸和線性判別分析; 交叉驗(yàn)證和引導(dǎo),模型選擇和正則化方法(ridge和lasso); 非線性模型,樣條和廣義加法模型; 基于樹的方法,隨機(jī)森林; 支持向量機(jī)。本課程將涵蓋An Introduction to Statistical Learning, with Applications in R書中所有內(nèi)容,同時該書也是Elements of Statistical Learning一書更為實(shí)用的版本。
課程鏈接:https://lagunita.stanford.edu/courses/HumanitiesandScience/StatLearning/Winter2015/about
21、10-601 機(jī)器學(xué)習(xí)卡耐基梅隆大學(xué)
本課程由機(jī)器學(xué)習(xí)領(lǐng)域的領(lǐng)先專家之一Tom Mitchell教授主講,涵蓋了各種角度的機(jī)器學(xué)習(xí)理論和實(shí)踐算法。 本課程涵蓋了諸如貝葉斯網(wǎng)絡(luò),決策樹學(xué)習(xí),支持向量機(jī),統(tǒng)計學(xué)習(xí)方法,無監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí)等主題。 課程涵蓋理論知識,如歸因偏差,PAC學(xué)習(xí)框架,貝葉斯學(xué)習(xí)方法,基于邊際的學(xué)習(xí)和奧卡姆剃刀問題。 課后作業(yè)會有小的編程任務(wù),如各種學(xué)習(xí)算法的實(shí)現(xiàn)實(shí)驗(yàn)。 本課程旨在使研究生級的學(xué)生能夠深入了解機(jī)器學(xué)習(xí)的方法論、技術(shù)、數(shù)學(xué)和算法。
課程鏈接:http://www.cs.cmu.edu/%7Eninamf/courses/601sp15/
22、10-708概率圖模型卡耐基梅隆大學(xué)
人工智能、統(tǒng)計學(xué)、計算機(jī)系統(tǒng)、計算機(jī)視覺、自然語言處理及計算生物學(xué)中的許多問題,都可以被看作是通過局部信息來得到一個通用的全局結(jié)論。 概率圖模型框架為這類問題提供了一個統(tǒng)一的觀點(diǎn),它可以通過大量的屬性和數(shù)據(jù)集來進(jìn)行有效的推理、決策和學(xué)習(xí)。 本研究生課程幫助學(xué)生學(xué)如何將圖模型應(yīng)用于復(fù)雜問題、如何解決圖模型中的核心研究課題等。
課程鏈接:http://www.cs.cmu.edu/%7Eepxing/Class/10708-14/index.html
23、11-785深度學(xué)習(xí)康奈爾大學(xué)
本課程通過一系列的研討會和實(shí)驗(yàn)來介紹課題,從最原始的問題探索,直到目前最先進(jìn)的技術(shù)。 研討會將涵蓋深度學(xué)習(xí)的基礎(chǔ)知識和基礎(chǔ)理論及其適用范圍,以及如何從大量數(shù)據(jù)中進(jìn)行學(xué)習(xí)等最新問題。 講義和筆記均可在本頁面上找到。
課程鏈接:http://deeplearning.cs.cmu.edu/
24、CS246大數(shù)據(jù)挖掘斯坦福大學(xué)
本課程將討論用于分析大數(shù)據(jù)的數(shù)據(jù)挖掘算法和機(jī)器學(xué)習(xí)算法。 課程重點(diǎn)是使用Map Reduce作為創(chuàng)建可處理大數(shù)據(jù)的并行算法的工具。
課程鏈接:http://web.stanford.edu/class/cs246/
25、CS276信息檢索和網(wǎng)絡(luò)搜索斯坦福大學(xué)
本課程涵蓋了應(yīng)用于文本信息系統(tǒng)的基礎(chǔ)和高級技術(shù):高效的文本索引; 布爾和向量空間檢索模型; 評估和界面問題; Web搜索,包括爬網(wǎng)、基于鏈接的算法和Web元數(shù)據(jù); 文本/ Web集群、分類; 文字挖掘等。
課程鏈接:http://web.stanford.edu/class/cs276/index.html