K-近邻算法(KNN)

KNN分类算法
KNN核心思想:             你的"邻居"来推断出你的类别
如果取的最近的电影数量不一样?会是什么结果?                 k 值取得过小,容易受到异常点的影响                 k 值取得过大,样本不均衡的影响
优点:简单,易于理解,易于实现,无需训练缺点:     1)必须指定K值,K值选择不当则分类精度不能保证     2)懒惰算法,对测试样本分类时的计算量大,内存开销大使用场景:小数据场景,几千~几万样本,具体场景具体业务去测试
API
sklearn.neighbors.KNeighborsClassifier(n_neighbors=5,algorithm='auto')
n_neighbors:k值
algorithm:{'auto', 'ball_tree', 'kd_tree', 'brute'},
可选用于计算最近邻居的算法:
'ball_tree':将会使用BallTree
'kd_tree':将会使

K-近邻算法(KNN)最先出现在Python成神之路

版权声明:
作者:lichengxin
链接:https://www.techfm.club/p/26632.html
来源:TechFM
文章版权归作者所有,未经允许请勿转载。

THE END
分享
二维码
< <上一篇
下一篇>>