记录一次c++ xgboost的简单使用以及分类实现

相关资料挺少的,对于我这种新手来说太难搞了。找了很多资料才弄出来,故记录一下。

1 .首先跟着这篇文章弄:在Windows中如何安装XGBoost的C++版本进行模型训练和推理-CSDN博客 。但是他第5点是我参考了中文文档里面来弄的,也就是cmake .. -G "Visual Studio 17 2022"。实际上直接用中文文档里面的反而还不行,所以我结合了一下两者。不过上面csdn原文的直接用应该也没毛病。

这里说几个坑:

a.我因为网络原因clone 443。所以去下载的压缩包,但是这样不行!!!

看官方文档说是有子模块,直接下载压缩包会缺失文件。算了,干脆开梯子下载,开梯子要配置git代理为梯子的地址,不然开了也没用。

b.然后就是克隆下来要使用不同版本的话,可以在构建好之后打开sln,选择git界面切换到想要的版本分支,再重新构建就行了。

附上中文版文档:XGBoost入门指引 - 安装指南 - 《XGBoost 中文文档》 - 书栈网 · BookStack

2.一个简单的c++示例代码(我使用了1.4.0版本,下面代码拿gpt生成初版然后改的,直接生成的没法用,gpt那边不知道生成的哪个版本的代码):

cpp 复制代码
#include <iostream>
#include <vector>
#include <random>
#include <xgboost/c_api.h>

int main() {
    // 随机生成二分类数据集
    const int n_samples = 100;
    const int n_features = 10;
    std::vector<float> data(n_samples * n_features);
    std::vector<float> labels(n_samples);
    std::mt19937 rng;  // 随机数生成器
    std::uniform_real_distribution<float> dist(-1.0, 1.0);  // 均匀分布
    for (int i = 0; i < n_samples; i++) {
        labels[i] = (dist(rng) > 0) ? 1.0 : 0.0;
        for (int j = 0; j < n_features; j++) {
            data[i * n_features + j] = dist(rng);
        }
    }

    // 将数据转换为 DMatrix
    DMatrixHandle dtrain;
    XGDMatrixCreateFromMat(data.data(), n_samples, n_features, 0, &dtrain);
    XGDMatrixSetFloatInfo(dtrain, "label", labels.data(), n_samples);

    // 设置参数
    const char* params[] = { "objective=binary:logistic", "max_depth=3", "eta=0.1" };
    const int n_params = sizeof(params) / sizeof(char*);
    BoosterHandle booster;
    XGBoosterCreate(&dtrain, 1, &booster);
    XGBoosterSetParam(booster, "seed", "0");
    for (int i = 0; i < n_params; i++) {
        XGBoosterSetParam(booster, params[i], "");
    }

    // 训练模型
    const int n_rounds = 10;
    for (int i = 0; i < n_rounds; i++) {
        XGBoosterUpdateOneIter(booster, i, dtrain);
    }

    // 预测数据
    DMatrixHandle dtest;
    XGDMatrixCreateFromMat(data.data(), n_samples, n_features, 0, &dtest);
    bst_ulong* out_len=new bst_ulong(n_samples);
    const float* out_result=new float[n_samples];
    // 分配内存给 out_result

    XGBoosterPredict(booster, dtest, 0, 0,0, out_len, &out_result);

    // 输出预测结果
    std::cout << "Predictions:" << std::endl;
    for (int i = 0; i < n_samples; i++) {
        std::cout << out_result[i] << std::endl;
    }

    XGDMatrixFree(dtrain);
    XGDMatrixFree(dtest);
    XGBoosterFree(booster);

    return 0;
}

貌似有点小问题,预测结果出来有负数(期待大神纠正),但是能运行就算成功🤣

个人吐槽一波:我是真**的无语了,好好的python不用让我用c++搞,我屁都不会我拿头搞啊🤬🤬🤬

相关推荐
Liqiuyue8 小时前
Transformer:现代AI革命背后的核心模型
人工智能·算法·机器学习
And_Ii8 小时前
LCR 168. 丑数
c++
CoderMeijun9 小时前
C++ 时间处理与格式化输出:从 Linux 时间函数到 Timestamp 封装
c++·printf·stringstream·时间处理·clock_gettime
龙文浩_12 小时前
AI梯度下降与PyTorch张量操作技术指南
人工智能·pytorch·python·深度学习·神经网络·机器学习·自然语言处理
wayz1113 小时前
Day 3:逻辑回归与分类预测
算法·分类·逻辑回归
tankeven13 小时前
HJ176 【模板】滑动窗口
c++·算法
OxyTheCrack13 小时前
【C++】一文详解C++智能指针自定义删除器(以Redis连接池为例)
c++·redis
whitelbwwww13 小时前
C++基础--类型、函数、作用域、指针、引用、文件
开发语言·c++
leaves falling13 小时前
C/C++ const:修饰变量和指针的区别(和引用底层关系)
c语言·开发语言·c++