描述
支持向量机(SVM)最初是设计用于二分类问题的,但在实际应用中经常要处理多分类问题。为了使用SVM解决多分类问题,研究者们提出了多种策略,主要分为两类:一对多(one-vs-all )和一对一(one-vs-one)。
sklearn 中的svm多分类算法实现采用的是one-vs-one;dlib虽然提供了多分类算法实现,但使用起来相对繁琐(也可以说是太灵活了)。
one-vs-one
one-vs-one 策略是一种将多类分类问题转化为多个二元分类问题的经典方法。对于具有 N 个类别的分类任务,它会训练 N*(N-1)/2 个二元分类器,每个分类器专门用于区分两个不同的类别。在预测阶段,所有二元分类器都会对测试样本进行投票,最终得票最多的类别即为预测结果。
定义trainer
这里以鸢尾花分类为例(鸢尾花分类的例子相当于编程入门的"hello world",很多机器学习的入门案例都是这三朵花)
c++
typedef dlib::matrix<double, 4, 1> iris_type;
typedef dlib::one_vs_one_trainer<dlib::any_trainer<iris_type>> ovo_trainer; // one-vs-one 训练器
typedef dlib::polynomial_kernel<iris_type> poly_kernel; // 多项式核
typedef dlib::radial_basis_kernel<iris_type> rbf_kernel; // 径向基函数核
训练过程:ovo_trainer可以设置多个二分类trainer(首先要设置一个默认的二分类训练器);可以根据数据特征,指定哪些类别用特定的trainer,具体可见下例。
c++
void SvmOvoClassifier(const string &pfile)
{
vector<iris_type> train_datas;
vector<double> train_labels;
map<int, string> label_map = LoadIrisVec(pfile, train_datas, train_labels);
ovo_trainer trainer;
dlib::svm_c_trainer<rbf_kernel> rbf_trainer;
rbf_trainer.set_kernel(rbf_kernel(0.001)); // gamma 参数
rbf_trainer.set_c(10); // 大C参数
trainer.set_trainer(rbf_trainer); // 设置默认trainer,这里是3分类问题,需要创建三个trainer,如果后面不指定,三个分类器都一样
dlib::svm_nu_trainer<poly_kernel> poly_trianer;
poly_trianer.set_kernel(poly_kernel(0.1, 2, 3)); // 多项式核参数
trainer.set_trainer(poly_trianer, 2, 3); // 指定poly_trianer处理(2,3)标签的分类;另外的(1,2)、(1,3)的分类使用rbf_trainer处理
dlib::one_vs_one_decision_function<ovo_trainer,
dlib::decision_function<rbf_kernel>,
dlib::decision_function<poly_kernel>>
learned_func = trainer.train(train_datas, train_labels);
int ok_count = 0;
for (int i = 0; i < train_datas.size(); i++)
{
iris_type ii_type = train_datas.at(i);
double ret = learned_func(ii_type);
if (ret == train_labels.at(i))
ok_count += 1;
cout << "predicted label:" << ret << "(" << label_map[ret] << ");"
<< "real label:" << label_map[train_labels.at(i)] << endl;
}
cout << "accurary:" << (ok_count * 1.0) / train_datas.size() << endl;
}
one-vs-all
与 one-vs-one 策略相比,one-vs-all 的优势是需要训练的分类器数量更少(N 个 vs N*(N-1)/2 个),对于类别较多的任务计算成本更低。但它可能受类别不平衡影响更大,因为每个二元分类器都要处理 "该类别" 与 "所有其他类别" 的不平衡数据。
该实现的灵活性体现在可以轻松替换基础二元分类器,例如将svm_nu_trainer替换为kernel_ridge_regression_trainer,而无需修改 one-vs-all 框架本身。
定义trainer
还以鸢尾花为例
c++
typedef dlib::one_vs_all_trainer<dlib::any_trainer<iris_type>> ova_trainer;
训练过程:ova_trainer也可以指定多个分类器(不推荐,如果需要多个不同的分类器,建议使用one-vs-one)
c++
void SvmOvaClassifier(const string &pfile)
{
vector<iris_type> train_datas;
vector<double> train_labels;
map<int, string> label_map = LoadIrisVec(pfile, train_datas, train_labels);
ova_trainer trainer;
dlib::svm_nu_trainer<poly_kernel> poly_trianer;
poly_trianer.set_kernel(poly_kernel(0.1, 2, 3)); // 多项式核参数
trainer.set_trainer(poly_trianer); // 也可以指定多个trianer,但不推荐
// dlib::svm_c_trainer<rbf_kernel> rbf_trainer;
// rbf_trainer.set_kernel(rbf_kernel(0.001)); // gamma 参数
// rbf_trainer.set_c(10); // 大C参数
// trainer.set_trainer(rbf_trainer, 1); // 指定处理分类1
dlib::one_vs_all_decision_function<ova_trainer, dlib::decision_function<poly_kernel>>
learned_func = trainer.train(train_datas, train_labels);
int ok_count = 0;
for (int i = 0; i < train_datas.size(); i++)
{
iris_type ii_type = train_datas.at(i);
double ret = learned_func(ii_type);
if (ret == train_labels.at(i))
ok_count += 1;
cout << "predicted label:" << ret << "(" << label_map[ret] << ");"
<< "real label:" << label_map[train_labels.at(i)] << endl;
}
cout << "accurary:" << (ok_count * 1.0) / train_datas.size() << endl;
}
数据加载
加载iris.csv数据
c++
typedef struct
{
float ft[4];
std::string specie;
} Iris;
vector<Iris> LoadIris(const string &fpath)
{
vector<Iris> vec;
fstream input_file(fpath);
string line;
if (input_file.is_open())
{
getline(input_file, line); // 跳过头
while (getline(input_file, line))
{
vector<string> sp_vec = SplitString(line, ',');
if (sp_vec.size() == 0)
continue;
Iris iris;
for (int i = 0; i < 4; i++)
{
iris.ft[i] = atof(sp_vec.at(i).c_str());
}
iris.specie = sp_vec.at(sp_vec.size() - 1);
vec.push_back(iris);
}
}
return vec;
}