=================================版权声明=================================
版权声明:原创文章 禁止转载
请通过右侧公告中的“联系邮箱(wlsandwho@foxmail.com)”联系我
勿用于学术性引用。
勿用于商业出版、商业印刷、商业引用以及其他商业用途。
本文不定期修正完善。
本文链接:http://www.cnblogs.com/wlsandwho/p/7512119.html
耻辱墙:http://www.cnblogs.com/wlsandwho/p/4206472.html
=======================================================================
很显然我没有足够的巩俐,啊功力去讲解机器学习的大道理,但是我愿意把我的读书笔记分享出来。
当然,我保留版权。
=======================================================================
关于kNN算法的伪代码描述,我这里得写一下,因为《机器学习实践》这本书里写的不是很清楚。(当然我的用词更通俗,毕竟不能照抄原文啊:)
1 计算目标点与数据集中每个点的距离。
这个求距离的算法应当是根据实际情况具体问题具体分析采取的。书中使用的是欧几里德几何体系里的两点之间的距离。对,就是初中学的那个。
2 对距离的结果按照从小到大的顺序排序。
这里要记录哪个结果是由哪个点产生的。总不能排序之后结果排序了,但是对应点找不到了吧?
3 从结果中取前k个点。
kNN算法之所以叫kNN算法,是因为它选取了前k个点。
4 记录这k个点对应类别的频率。
比方说在这k个点中,a类出现了5次,b类出现了2次,c类出现了7次
5 取出现频率最高的类别作为结果。
通俗地讲,就是发现跟a有5成像,跟b有2成像,跟c有7成像。当然是选最像的啦。
=======================================================================
话是这么说,看起来也很简单。但是用指定的编程语言实现,就得看对于该语言的熟练程度了。
比方说,我用C++写的话,比较麻烦的地方是矩阵运算,其他就很简单了。
但是用Python的话,我需要熟悉相关的类库和代码。
=======================================================================
对于我这种只看过《Python编程:从入门到实践》的人来说,看《机器学习与实践》的代码还是要查资料的。
要理解下面的内容:
1 tile(x,(m,n))
通俗的说就是把指定的块x,按行复制m次,按列复制n次。m和n是可以取0的,但这没有意义,因为把没有复制了0次,还是没有啊:)
为什么我说的是块x呢?因为这个x可以是一个数,也可以是一个矩阵。对,大学线性代数课程里对矩阵运算时,就是可以把某一部分看成一个子矩阵的。这个同理。
2 x.sum(axis=?)
手册上说,是垂直求和还是水平求和。
3 a.argsort()
这个得画个图。一图胜千言。输入5316,输出2103。
贴出示例小代码有助于理解。毕竟我们用事实说话。
1 from numpy import * 2 import operator 3 4 5 r=array([[1,2,3,4],[5,6,7,8],[9,10,11,12]]) 6 rows=r.shape[0] 7 print(rows) 8 9 x=[5,6] 10 xxx=tile(x,(3,2)) 11 print(xxx) 12 13 a=array([5,3,1,6]) 14 #1,3, 5, 6 15 #2,1, 0, 3 16 b=a.argsort() 17 print(b) 18 print(b[0]) 19 20 c={} 21 c['c']=1 22 c["b"]=2 23 c["a"]=1 24 c["a"]=c.get('a')+5 25 print(c["a"]) 26 27 d=sorted(c.items(),key=operator.itemgetter(1),reverse=True) 28 print(d) 29 print(d[0][0]) 30 31 mm=array([[1,2,3],[5,6,7]]) 32 print(mm.sum(axis=0)) 33 print(mm.sum(axis=1))
=======================================================================
好了,可以贴我的kNN代码了。Python的风格不习惯,随手写了下。
1 from numpy import * 2 import operator 3 4 5 def create_data_set(): 6 group=array([[1.0,1.1],[1.0,1.0],[0,0],[0,0.1]]) 7 labels=["A","A","B","B"] 8 9 return group,labels 10 11 def classify_kNN(dest,sample,labels,k): 12 rows=sample.shape[0] 13 dests=tile(dest,(rows,1)) 14 res=(((dests-sample)**2).sum(axis=1))**0.5 15 resrank=res.argsort() 16 17 clfy={} 18 19 for i in range(k): 20 index=resrank[i] 21 sometype=labels[index] 22 clfy[sometype]=clfy.get(sometype,0)+1 23 24 sclfy=sorted(clfy.items(),key=operator.itemgetter(1),reverse=True) 25 26 return sclfy[0][0]
这是算法。
下面是调用。
1 g,l=create_data_set() 2 r=classify_kNN([0.5,0.6],g,l,2) 3 print(r)
这个是结果
=======================================================================
那么问题来了:
新分类值是否可以加入样本扩充原来的数据?