问题

与逻辑回归类似的分类问题,但SVM通过最大化分类间隔来获得更好的泛化性能

基本思想

相比逻辑回归的主要区别:

损失函数

使用hinge loss代替对数损失

其中参数C控制正则化强度(

  • C大:低偏差,高方差(类似小λ)
  • C小:高偏差,低方差(类似大λ)

核函数 (Kernels)

动机

对于非线性可分的数据,SVM使用核函数将数据映射到高维空间,使其在高维空间中线性可分

常用核函数

1. 线性核 (Linear Kernel)

2. 高斯核/RBF核 (Gaussian/RBF Kernel)

3. 多项式核 (Polynomial Kernel)

优化

核函数的选择

  • n >> m(特征数远大于样本数):使用线性核
  • n小,m适中:使用高斯核
  • n小,m很大:增加特征后使用逻辑回归或线性核SVM

SVM vs 逻辑回归

算法优势适用场景
SVM内存效率高,适合高维文本分析,基因分析
逻辑回归输出概率,可解释性强需要概率输出的场景

特征缩放

使用高斯核时,特征缩放尤为重要,因为核函数基于欧几里得距离计算

参数调优

  • 交叉验证选择最优的C和σ²
  • 网格搜索:尝试不同参数组合