免费视频淫片aa毛片_日韩高清在线亚洲专区vr_日韩大片免费观看视频播放_亚洲欧美国产精品完整版

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
DMman(數據挖掘青年)--數據挖掘經典算法(轉)

[數據挖掘]數據挖掘經典算法(轉)
網上資源

數據挖掘青年 發(fā)表于 2007-12-13 21:45:38

 

Classification
==============

 #1. C4.5

Quinlan, J. R. 1993. C4.5: Programs for Machine Learning.
Morgan Kaufmann Publishers Inc.


 #2. CART

L. Breiman, J. Friedman, R. Olshen, and C. Stone. Classification and
Regression Trees. Wadsworth, Belmont, CA, 1984.

 #3. K Nearest Neighbours (kNN)

Hastie, T. and Tibshirani, R. 1996. Discriminant Adaptive Nearest
Neighbor Classification. IEEE Trans. Pattern
Anal. Mach. Intell. (TPAMI). 18, 6 (Jun. 1996), 607-616. 
DOI= http://dx.doi.org/10.1109/34.506411

 #4. Naive Bayes

Hand, D.J., Yu, K., 2001. Idiot‘s Bayes: Not So Stupid After All?
Internat. Statist. Rev. 69, 385-398.


Statistical Learning
====================

 #5. SVM

Vapnik, V. N. 1995. The Nature of Statistical Learning
Theory. Springer-Verlag New York, Inc.

 #6. EM

McLachlan, G. and Peel, D. (2000). Finite Mixture Models. 
J. Wiley, New York.


Association Analysis
====================

 #7. Apriori

Rakesh Agrawal and Ramakrishnan Srikant. Fast Algorithms for Mining
Association Rules. In Proc. of the 20th Int‘l Conference on Very Large
Databases (VLDB ‘94), Santiago, Chile, September 1994. 
http://citeseer.comp.nus.edu.sg/agrawal94fast.html

 #8. FP-Tree

Han, J., Pei, J., and Yin, Y. 2000. Mining frequent patterns without
candidate generation. In Proceedings of the 2000 ACM SIGMOD
international Conference on Management of Data (Dallas, Texas, United
States, May 15 - 18, 2000). SIGMOD ‘00. ACM Press, New York, NY, 1-12.
DOI= http://doi.acm.org/10.1145/342009.335372


Link Mining
===========

 #9. PageRank

Brin, S. and Page, L. 1998. The anatomy of a large-scale hypertextual
Web search engine. In Proceedings of the Seventh international
Conference on World Wide Web (WWW-7) (Brisbane,
Australia). P. H. Enslow and A. Ellis, Eds. Elsevier Science
Publishers B. V., Amsterdam, The Netherlands, 107-117. 
DOI= http://dx.doi.org/10.1016/S0169-7552(98)00110-X

 #10. HITS

Kleinberg, J. M. 1998. Authoritative sources in a hyperlinked
environment. In Proceedings of the Ninth Annual ACM-SIAM Symposium on
Discrete Algorithms (San Francisco, California, United States, January
25 - 27, 1998). Symposium on Discrete Algorithms. Society for
Industrial and Applied Mathematics, Philadelphia, PA, 668-677.


Clustering
==========

 #11. K-Means

MacQueen, J. B., Some methods for classification and analysis of
multivariate observations, in Proc. 5th Berkeley Symp. Mathematical
Statistics and Probability, 1967, pp. 281-297.

 #12. BIRCH

Zhang, T., Ramakrishnan, R., and Livny, M. 1996. BIRCH: an efficient
data clustering method for very large databases. In Proceedings of the
1996 ACM SIGMOD international Conference on Management of Data
(Montreal, Quebec, Canada, June 04 - 06, 1996). J. Widom, Ed. 
SIGMOD ‘96. ACM Press, New York, NY, 103-114. 
DOI= http://doi.acm.org/10.1145/233269.233324


Bagging and Boosting
====================

 #13. AdaBoost

Freund, Y. and Schapire, R. E. 1997. A decision-theoretic
generalization of on-line learning and an application to
boosting. J. Comput. Syst. Sci. 55, 1 (Aug. 1997), 119-139. 
DOI= http://dx.doi.org/10.1006/jcss.1997.1504


Sequential Patterns
===================

 #14. GSP

Srikant, R. and Agrawal, R. 1996. Mining Sequential Patterns:
Generalizations and Performance Improvements. In Proceedings of the
5th international Conference on Extending Database Technology:
Advances in Database Technology (March 25 - 29, 1996). P. M. Apers,
M. Bouzeghoub, and G. Gardarin, Eds. Lecture Notes In Computer
Science, vol. 1057. Springer-Verlag, London, 3-17.

 #15. PrefixSpan

J. Pei, J. Han, B. Mortazavi-Asl, H. Pinto, Q. Chen, U. Dayal and
M-C. Hsu. PrefixSpan: Mining Sequential Patterns Efficiently by
Prefix-Projected Pattern Growth. In Proceedings of the 17th
international Conference on Data Engineering (April 02 - 06,
2001). ICDE ‘01. IEEE Computer Society, Washington, DC.


Integrated Mining
=================

 #16. CBA

Liu, B., Hsu, W. and Ma, Y. M. Integrating classification and
association rule mining. KDD-98, 1998, pp. 80-86. 
http://citeseer.comp.nus.edu.sg/liu98integrating.html
   

Rough Sets
==========

 #17. Finding reduct

Zdzislaw Pawlak, Rough Sets: Theoretical Aspects of Reasoning about
Data, Kluwer Academic Publishers, Norwell, MA, 1992


Graph Mining
============

 #18. gSpan

Yan, X. and Han, J. 2002. gSpan: Graph-Based Substructure Pattern
Mining. In Proceedings of the 2002 IEEE International Conference on
Data Mining (ICDM ‘02) (December 09 - 12, 2002). IEEE Computer
Society, Washington, DC.


閱讀全文(2911) | 回復(7) | 編輯 | 精華
 


怎樣在weka中加入新算法

初學者(游客)發(fā)表評論于2008-6-23 9:19:59

能大致說一下怎樣在weka中加入新算法嗎?

非常感謝!!!!

以下為blog主人的回復:

 http://blogger.org.cn/blog/more.asp?name=DMman&id=24788


個人主頁 | 引用回復 | 主人回復 | 返回 | 編輯 | 刪除
 


回復:數據挖掘經典算法(轉)

someone(游客)發(fā)表評論于2008-6-20 1:20:17

能不能給我PreSpan和FreeSpan的源代碼,謝謝!

郵箱是fireshade@163.com


個人主頁 | 引用回復 | 主人回復 | 返回 | 編輯 | 刪除
 


回復:數據挖掘經典算法(轉)
網上資源

崇拜(游客)發(fā)表評論于2008-4-4 11:23:21

已經給您發(fā)過EMAIL了,請問有沒有Naive Bayes的源代碼呢?我的郵箱是bhugs@163.com。期待您的回復!感謝!

以下為blog主人的回復:

 請在google代碼搜索.http://google.com/codesearch


個人主頁 | 引用回復 | 主人回復 | 返回 | 編輯 | 刪除
 


回復:數據挖掘經典算法(轉)
網上資源

luo ye(游客)發(fā)表評論于2007-12-19 21:10:39

thank you


個人主頁 | 引用回復 | 主人回復 | 返回 | 編輯 | 刪除
 


回復:數據挖掘經典算法(轉)
網上資源

Data Mining Search(游客)發(fā)表評論于2007-12-16 11:22:06

Data Mining and Knowledge Discovery Search Engine
http://www.google.com/coop/cse?cx=006422944775554126616%3Aixcd3tdxkke

個人主頁 | 引用回復 | 主人回復 | 返回 | 編輯 | 刪除
 


回復:數據挖掘經典算法(轉)
網上資源

DMFighter發(fā)表評論于2007-12-15 9:57:21

不錯啊 我也收藏 呵呵

個人主頁 | 引用回復 | 主人回復 | 返回 | 編輯 | 刪除
 


回復:數據挖掘經典算法(轉)
網上資源

Jorden發(fā)表評論于2007-12-14 12:05:48

很好,我收藏了


個人主頁 | 引用回復 | 主人回復 | 返回 | 編輯 | 刪除
本站僅提供存儲服務,所有內容均由用戶發(fā)布,如發(fā)現有害或侵權內容,請點擊舉報。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
DMman(數據挖掘青年)--數據挖掘新手常見疑問解答(2)
數據挖掘10大算法(from ICDM 2006)
數據挖掘中數據集資源的收集
數據挖掘十大經典算法
個性化推薦十大挑戰(zhàn)[科普+完整版本] 精選
關聯(lián)規(guī)則挖掘綜述
更多類似文章 >>
生活服務
分享 收藏 導長圖 關注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服