记录一次c++ xgboost的简单使用以及分类实现

相关资料挺少的,对于我这种新手来说太难搞了。找了很多资料才弄出来,故记录一下。

1 .首先跟着这篇文章弄:在Windows中如何安装XGBoost的C++版本进行模型训练和推理-CSDN博客 。但是他第5点是我参考了中文文档里面来弄的,也就是cmake .. -G "Visual Studio 17 2022"。实际上直接用中文文档里面的反而还不行,所以我结合了一下两者。不过上面csdn原文的直接用应该也没毛病。

这里说几个坑:

a.我因为网络原因clone 443。所以去下载的压缩包,但是这样不行!!!

看官方文档说是有子模块,直接下载压缩包会缺失文件。算了,干脆开梯子下载,开梯子要配置git代理为梯子的地址,不然开了也没用。

b.然后就是克隆下来要使用不同版本的话,可以在构建好之后打开sln,选择git界面切换到想要的版本分支,再重新构建就行了。

附上中文版文档:XGBoost入门指引 - 安装指南 - 《XGBoost 中文文档》 - 书栈网 · BookStack

2.一个简单的c++示例代码(我使用了1.4.0版本,下面代码拿gpt生成初版然后改的,直接生成的没法用,gpt那边不知道生成的哪个版本的代码):

cpp 复制代码
#include <iostream>
#include <vector>
#include <random>
#include <xgboost/c_api.h>

int main() {
    // 随机生成二分类数据集
    const int n_samples = 100;
    const int n_features = 10;
    std::vector<float> data(n_samples * n_features);
    std::vector<float> labels(n_samples);
    std::mt19937 rng;  // 随机数生成器
    std::uniform_real_distribution<float> dist(-1.0, 1.0);  // 均匀分布
    for (int i = 0; i < n_samples; i++) {
        labels[i] = (dist(rng) > 0) ? 1.0 : 0.0;
        for (int j = 0; j < n_features; j++) {
            data[i * n_features + j] = dist(rng);
        }
    }

    // 将数据转换为 DMatrix
    DMatrixHandle dtrain;
    XGDMatrixCreateFromMat(data.data(), n_samples, n_features, 0, &dtrain);
    XGDMatrixSetFloatInfo(dtrain, "label", labels.data(), n_samples);

    // 设置参数
    const char* params[] = { "objective=binary:logistic", "max_depth=3", "eta=0.1" };
    const int n_params = sizeof(params) / sizeof(char*);
    BoosterHandle booster;
    XGBoosterCreate(&dtrain, 1, &booster);
    XGBoosterSetParam(booster, "seed", "0");
    for (int i = 0; i < n_params; i++) {
        XGBoosterSetParam(booster, params[i], "");
    }

    // 训练模型
    const int n_rounds = 10;
    for (int i = 0; i < n_rounds; i++) {
        XGBoosterUpdateOneIter(booster, i, dtrain);
    }

    // 预测数据
    DMatrixHandle dtest;
    XGDMatrixCreateFromMat(data.data(), n_samples, n_features, 0, &dtest);
    bst_ulong* out_len=new bst_ulong(n_samples);
    const float* out_result=new float[n_samples];
    // 分配内存给 out_result

    XGBoosterPredict(booster, dtest, 0, 0,0, out_len, &out_result);

    // 输出预测结果
    std::cout << "Predictions:" << std::endl;
    for (int i = 0; i < n_samples; i++) {
        std::cout << out_result[i] << std::endl;
    }

    XGDMatrixFree(dtrain);
    XGDMatrixFree(dtest);
    XGBoosterFree(booster);

    return 0;
}

貌似有点小问题,预测结果出来有负数(期待大神纠正),但是能运行就算成功🤣

个人吐槽一波:我是真**的无语了,好好的python不用让我用c++搞,我屁都不会我拿头搞啊🤬🤬🤬

相关推荐
Mr_WangAndy31 分钟前
C++设计模式_行为型模式_状态模式State
c++·设计模式·状态模式
郝学胜-神的一滴36 分钟前
Effective STL 第5条:区间成员函数优先于单元素成员函数
开发语言·c++·程序人生·stl·软件工程
大千AI助手37 分钟前
加权分位数直方图:提升机器学习效能的关键技术
人工智能·机器学习·xgboost·直方图·加权直方图·特征分裂
星期天要睡觉1 小时前
深度学习——基于ResNet18迁移学习的图像分类模型
人工智能·python·分类·迁移学习
mit6.8241 小时前
c++|表达最值的更好方法|clamp
c++
AI数据皮皮侠1 小时前
中国博物馆数据
大数据·人工智能·python·深度学习·机器学习
强哥之神1 小时前
从零理解 KV Cache:大语言模型推理加速的核心机制
人工智能·深度学习·机器学习·语言模型·llm·kvcache
中达瑞和-高光谱·多光谱2 小时前
多光谱图像颜色特征用于茶叶分类的研究进展
人工智能·分类·数据挖掘
涤生z2 小时前
list.
开发语言·数据结构·c++·学习·算法·list
FFZero12 小时前
【C++/Lua联合开发】 (三) C++调用Lua
c++·junit·lua