最近一直在看机器学习相关内容,主要是看的斯坦福的Andrew Ng教授的公开课视频,可以点这里
看了前四讲,最大的感觉就是这简直就是概率论+线代,用到的数学知识着实不少,不过也挺有趣的,继续学下去。
初步总结一下,主要是关于监督学习,回归分类方面的。
1,机器学习中主要有两个基本的学习方法:监督学习和非监督学习。简单来说,监督学习是告诉了机器某个训练集并且指明了
这个集中每个训练样本的特征,机器通过每次训练样本的学习生成学习函数并对之后的问题进行预测,例如拿出几个苹果,并告诉机器
这是苹果,有哪些特征,之后拿出某个水果,预测该水果是苹果的概率是多大。而非监督学习则是不指明特征,仅仅给定训练集,由机器
自己学习生成学习函数。例如,仅仅给定某苹果集和某橘子集而不告诉机器具体是苹果还是橘子,机器提取特征得到学习函数,然后给定
某样本,由机器划分是属于苹果还是橘子。这就是非监督学习。具体定义见这里 http://en.wikipedia.o