免费视频淫片aa毛片_日韩高清在线亚洲专区vr_日韩大片免费观看视频播放_亚洲欧美国产精品完整版

打開APP
userphoto
未登錄

開通VIP,暢享免費(fèi)電子書等14項超值服

開通VIP
機(jī)器學(xué)習(xí)入門資源不完全匯總

基本概念 | 入門攻略 | 課程資源 | 論壇網(wǎng)站 | 東拉西扯

2014-10-14版, 好東西傳送門編輯整理, 原文鏈接 http://ml.memect.com/article/machine-learning-guide.html

感謝貢獻(xiàn)者: tang_Kaka_back@新浪微博

歡迎補(bǔ)充指正,轉(zhuǎn)載請保留原作者和原文鏈接。 本文是 機(jī)器學(xué)習(xí)日報的一個專題合集,歡迎訂閱:請給hao@memect.com發(fā)郵件,標(biāo)題"訂閱機(jī)器學(xué)習(xí)日報"。

基本概念

機(jī)器學(xué)習(xí) 機(jī)器學(xué)習(xí)是近20多年興起的一門多領(lǐng)域交叉學(xué)科,涉及概率論、統(tǒng)計學(xué)、逼近論、凸分析、算法復(fù)雜度理論等多門學(xué)科。機(jī)器學(xué)習(xí)理論主要是設(shè)計和分析一些讓計算機(jī)可以自動“學(xué)習(xí)”的算法。機(jī)器學(xué)習(xí)算法是一類從數(shù)據(jù)中自動分析獲得規(guī)律,并利用規(guī)律對未知數(shù)據(jù)進(jìn)行預(yù)測的算法。因為學(xué)習(xí)算法中涉及了大量的統(tǒng)計學(xué)理論,機(jī)器學(xué)習(xí)與統(tǒng)計推斷學(xué)聯(lián)系尤為密切,也被稱為統(tǒng)計學(xué)習(xí)理論。算法設(shè)計方面,機(jī)器學(xué)習(xí)理論關(guān)注可以實現(xiàn)的,行之有效的學(xué)習(xí)算法。

下面從微觀到宏觀試著梳理一下機(jī)器學(xué)習(xí)的范疇:一個具體的算法,領(lǐng)域進(jìn)一步細(xì)分,實戰(zhàn)應(yīng)用場景,與其他領(lǐng)域的關(guān)系。

圖1:機(jī)器學(xué)習(xí)的例子:NLTK監(jiān)督學(xué)習(xí)的工作流程圖 (source: http://www.nltk.org/book/ch06.html)

圖2:機(jī)器學(xué)習(xí)概要圖 by Yaser Abu-Mostafa (Caltech)(source: http://work.caltech.edu/library/181.html)

圖3:機(jī)器學(xué)習(xí)實戰(zhàn):在python scikit learn 中選擇機(jī)器學(xué)習(xí)算法 by Nishant Chandra(source: http://n-chandra.blogspot.com/2013/01/picking-machine-learning-algorithm.html)

圖4:機(jī)器學(xué)習(xí)和其他學(xué)科的關(guān)系: 數(shù)據(jù)科學(xué)的地鐵圖 by Swami Chandrasekaran(source: http://nirvacana.com/thoughts/becoming-a-data-scientist/)

入門攻略

大致分三類: 起步體悟,實戰(zhàn)筆記,行家導(dǎo)讀

更多攻略

課程資源

TomMitchell 和 Andrew Ng 的課都很適合入門

入門課程

2011 Tom Mitchell(CMU)機(jī)器學(xué)習(xí)

英文原版視頻與課件PDF 他的《機(jī)器學(xué)習(xí)》在很多課程上被選做教材,有中文版。

  • Decision Trees
  • Probability and Estimation
  • Naive Bayes
  • Logistic Regression
  • Linear Regression
  • Practical Issues: Feature selection,Overfitting ...
  • Graphical models: Bayes networks, EM,Mixture of Gaussiansclustering ...
  • Computational Learning Theory: PAC Learning, Mistake bounds...
  • Semi-Supervised Learning
  • Hidden Markov Models
  • Neural Networks
  • Learning Representations: PCA, Deep belief networks, ICA, CCA...
  • Kernel Methods and SVM
  • Active Learning
  • Reinforcement Learning 以上為課程標(biāo)題節(jié)選

2014 Andrew Ng (Stanford)機(jī)器學(xué)習(xí)

  1. Introduction (Week 1)
  2. Linear Regression with One Variable (Week 1)
  3. Linear Algebra Review (Week 1, Optional)
  4. Linear Regression with Multiple Variables (Week 2)
  5. Octave Tutorial (Week 2)
  6. Logistic Regression (Week 3)
  7. Regularization (Week 3)
  8. Neural Networks: Representation (Week 4)
  9. Neural Networks: Learning (Week 5)
  10. Advice for Applying Machine Learning (Week 6)
  11. Machine Learning System Design (Week 6)
  12. Support Vector Machines (Week 7)
  13. Clustering (Week 8)
  14. Dimensionality Reduction (Week 8)
  15. Anomaly Detection (Week 9)
  16. Recommender Systems (Week 9)
  17. Large Scale Machine Learning (Week 10)
  18. Application Example: Photo OCR
  19. Conclusion

進(jìn)階課程

2013年Yaser Abu-Mostafa (Caltech) Learning fromData -- 內(nèi)容更適合進(jìn)階 課程視頻,課件PDF@Caltech

  1. The Learning Problem
  2. Is Learning Feasible?
  3. The Linear Model I
  4. Error and Noise
  5. Training versus Testing
  6. Theory of Generalization
  7. The VC Dimension
  8. Bias-Variance Tradeoff
  9. The Linear Model II
  10. Neural Networks
  11. Overfitting
  12. Regularization
  13. Validation
  14. Support Vector Machines
  15. Kernel Methods
  16. Radial Basis Functions
  17. Three Learning Principles
  18. Epilogue

2014年 林軒田(國立臺灣大學(xué)) 機(jī)器學(xué)習(xí)基石 (Machine LearningFoundations) --內(nèi)容更適合進(jìn)階,華文的教學(xué)講解 課程主頁

WhenCan Machines Learn? [何時可以使用機(jī)器學(xué)習(xí)] The Learning Problem [機(jī)器學(xué)習(xí)問題] --Learning to Answer Yes/No [二元分類] -- Types of Learning [各式機(jī)器學(xué)習(xí)問題] --Feasibility of Learning [機(jī)器學(xué)習(xí)的可行性]

WhyCan Machines Learn? [為什麼機(jī)器可以學(xué)習(xí)] -- Training versus Testing [訓(xùn)練與測試]-- Theory of Generalization [舉一反三的一般化理論] -- The VC Dimension [VC維度] -- Noise and Error [雜訊一錯誤]

HowCan Machines Learn? [機(jī)器可以怎麼樣學(xué)習(xí)] -- Linear Regression [線性迴歸] --Linear `Soft' Classification [軟性的線性分類] -- Linear Classificationbeyond Yes/No [二元分類以外的分類問題] -- Nonlinear Transformation [非線性轉(zhuǎn)換]

HowCan Machines Learn Better? [機(jī)器可以怎麼樣學(xué)得更好] -- Hazard of Overfitting[過度訓(xùn)練的危險] -- Preventing Overfitting I: Regularization[避免過度訓(xùn)練一:控制調(diào)適] -- Preventing Overfitting II: Validation[避免過度訓(xùn)練二:自我檢測] -- Three Learning Principles [三個機(jī)器學(xué)習(xí)的重要原則]

更多選擇

2008年Andrew Ng CS229 機(jī)器學(xué)習(xí) --這組視頻有些年頭了,主講人這兩年也高大上了.當(dāng)然基本方法沒有太大變化,所以課件PDF可下載是優(yōu)點。 中文字幕視頻@網(wǎng)易公開課 英文版視頻@youtube 課件PDF@Stanford

第1集.機(jī)器學(xué)習(xí)的動機(jī)與應(yīng)用 第2集.監(jiān)督學(xué)習(xí)應(yīng)用.梯度下降 第3集.欠擬合與過擬合的概念 第4集.牛頓方法 第5集.生成學(xué)習(xí)算法第6集.樸素貝葉斯算法 第7集.最優(yōu)間隔分類器問題 第8集.順序最小優(yōu)化算法 第9集.經(jīng)驗風(fēng)險最小化 第10集.特征選擇第11集.貝葉斯統(tǒng)計正則化 第12集.K-means算法 第13集.高斯混合模型 第14集.主成分分析法 第15集.奇異值分解第16集.馬爾可夫決策過程 第17集.離散與維數(shù)災(zāi)難 第18集.線性二次型調(diào)節(jié)控制 第19集.微分動態(tài)規(guī)劃 第20集.策略搜索

2012年余凱(百度)張潼(Rutgers) 機(jī)器學(xué)習(xí)公開課 --內(nèi)容更適合進(jìn)階 課程主頁@百度文庫 | 課件PDF@龍星計劃

第1節(jié)Introduction to ML and review of linear algebra, probability,statistics (kai) 第2節(jié)linear model (tong) 第3節(jié)overfitting andregularization(tong) 第4節(jié)linear classification (kai) 第5節(jié)basisexpansion and kernelmethods (kai) 第6節(jié)model selection andevaluation(kai) 第7節(jié)model combination (tong) 第8節(jié)boosting and bagging(tong) 第9節(jié)overview of learning theory(tong) 第10節(jié)optimization inmachinelearning (tong) 第11節(jié)online learning (tong) 第12節(jié)sparsitymodels (tong) 第13節(jié)introduction to graphicalmodels (kai)第14節(jié)structured learning (kai) 第15節(jié)feature learning and deeplearning(kai) 第16節(jié)transfer learning and semi supervised learning (kai)第17節(jié)matrix factorization and recommendations (kai) 第18節(jié)learning onimages (kai) 第19節(jié)learning on the web (tong)

論壇網(wǎng)站

中文

http://www.52ml.net/ 我愛機(jī)器學(xué)習(xí)

http://www.mitbbs.com/bbsdoc/DataSciences.html MITBBS-電腦網(wǎng)絡(luò) - 數(shù)據(jù)科學(xué)版

http://www.guokr.com/group/262/ 果殼> 機(jī)器學(xué)習(xí)小組

http://cos.name/cn/forum/22 統(tǒng)計之都? 統(tǒng)計學(xué)世界 ? 數(shù)據(jù)挖掘和機(jī)器學(xué)習(xí)

http://bbs.byr.cn/#!board/ML_DM 北郵人論壇?>>?學(xué)術(shù)科技?>>?機(jī)器學(xué)習(xí)與數(shù)據(jù)挖掘

英文

https://github.com/josephmisiti/awesome-machine-learning 機(jī)器學(xué)習(xí)資源大全

http://work.caltech.edu/library/ Caltech機(jī)器學(xué)習(xí)視頻教程庫,每個課題一個視頻

http://www.kdnuggets.com/ 數(shù)據(jù)挖掘名站

http://www.datasciencecentral.com/ 數(shù)據(jù)科學(xué)中心網(wǎng)站

東拉西扯

一些好東西,入門前未必看得懂,要等學(xué)有小成時再看才能體會。

機(jī)器學(xué)習(xí)與數(shù)據(jù)挖掘的區(qū)別

  • 機(jī)器學(xué)習(xí)關(guān)注從訓(xùn)練數(shù)據(jù)中學(xué)到已知屬性進(jìn)行預(yù)測
  • 數(shù)據(jù)挖掘側(cè)重從數(shù)據(jù)中發(fā)現(xiàn)未知屬性

DanLevin, What is the difference between statistics, machine learning,AI and data mining?

  • If there are up to 3 variables, it is statistics.
  • If the problem is NP-complete, it is machine learning.
  • If the problem is PSPACE-complete, it is AI.
  • If you don't know what is PSPACE-complete, it is datamining.

幾篇高屋建瓴的機(jī)器學(xué)習(xí)領(lǐng)域概論, 參見原文

幾本好書

  • 李航博士的《統(tǒng)計學(xué)習(xí)方法》一書前段也推薦過,給個豆瓣的鏈接
本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊舉報
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
精心整理 | 林軒田機(jī)器學(xué)習(xí)資源匯總
【數(shù)說學(xué)院】機(jī)器學(xué)習(xí)分類大全
AI:人工智能之十一類機(jī)器學(xué)習(xí)算法(英文表示)詳細(xì)分類之詳細(xì)攻略(持續(xù)更新)
人工智能原理
AI(人工智能)術(shù)語中英文對照表
人工智能之機(jī)器學(xué)習(xí)算法體系匯總
更多類似文章 >>
生活服務(wù)
分享 收藏 導(dǎo)長圖 關(guān)注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服