本文教程操作环境:windows7系统、Python 3.9.1,DELL G3电脑。
1、优点
(1)简单而有效
(2)再培训成本低。
(3)适合跨领域的抽样。
基于KNN的方法主要依赖有限数量的临近样本,而基于类域的KNN方法无法确定其所属的类,因此KNN方法更适用于重叠较多的待划分样本集或重叠的类域。
(4)适用于各种样本量的分类。
所提方法适用于类域中样本量较大、更容易出错的类动态分类。
2、缺点
(1)是惰性学习。
KNN算法是一种惰性学习方法(lazylearning,基本不学习),主动学习算法的速度要快很多。
(2)类评分未规格化。
不同之处在于通过概率评分进行分类。
(3)输出的可解释性较差。
比如,决策树的输出可以很好地解释。
(4)不善于处理不均衡的样品。
当样本不平衡时,比如一个类的样本量小,而其他类的样本量小,可能会导致同一个K邻域出现新样本时,该类的K个邻居占多数在域中。该算法只计算“最近”的邻域样本,而某一类的样本数很少,因此该类的样本数可能与另一类的样本数不接近,或者该类的样本数不多本类与另一类样本不接近。但是,金额的大小并不影响操作的结果。在这方面,可以使用改进的同位素方法(即同位素同位素同位素同位素同位素)。
以上就是python K-NN算法优缺
点的介绍,希望能对大家有所帮助。
更多Python学习指路:
本文为原创文章,版权归知行编程网所有,欢迎分享本文,转载请保留出处!
你可能也喜欢
- ♥ 如何安装python rsa11/26
- ♥ 什么类型的python集是09/22
- ♥ python如何递归函数09/20
- ♥ 如何编写python自定义类01/08
- ♥ Python字典遍历的三种情况10/17
- ♥ 如何在python中遍历字典08/30
内容反馈