记录一次c++ xgboost的简单使用以及分类实现

相关资料挺少的,对于我这种新手来说太难搞了。找了很多资料才弄出来,故记录一下。

1.首先跟着这篇文章弄:在Windows中如何安装XGBoost的C++版本进行模型训练和推理-CSDN博客 。但是他第5点是我参考了中文文档里面来弄的,也就是cmake .. -G "Visual Studio 17 2022"。实际上直接用中文文档里面的反而还不行,所以我结合了一下两者。不过上面csdn原文的直接用应该也没毛病。

这里说几个坑:

a.我因为网络原因clone 443。所以去下载的压缩包,但是这样不行!!!
看官方文档说是有子模块,直接下载压缩包会缺失文件。算了,干脆开梯子下载,开梯子要配置git代理为梯子的地址,不然开了也没用。

b.然后就是克隆下来要使用不同版本的话,可以在构建好之后打开sln,选择git界面切换到想要的版本分支,再重新构建就行了。

附上中文版文档:XGBoost入门指引 - 安装指南 - 《XGBoost 中文文档》 - 书栈网 · BookStack

2.一个简单的c++示例代码(我使用了1.4.0版本,下面代码拿gpt生成初版然后改的,直接生成的没法用,gpt那边不知道生成的哪个版本的代码):

#include 
#include 
#include 
#include 

int main() {
    // 随机生成二分类数据集
    const int n_samples = 100;
    const int n_features = 10;
    std::vector<float> data(n_samples * n_features);
    std::vector<float> labels(n_samples);
    std::mt19937 rng;  // 随机数生成器
    std::uniform_real_distribution<float> dist(-1.0, 1.0);  // 均匀分布
    for (int i = 0; i < n_samples; i++) {
        labels[i] = (dist(rng) > 0) ? 1.0 : 0.0;
        for (int j = 0; j < n_features; j++) {
            data[i * n_features + j] = dist(rng);
        }
    }

    // 将数据转换为 DMatrix
    DMatrixHandle dtrain;
    XGDMatrixCreateFromMat(data.data(), n_samples, n_features, 0, &dtrain);
    XGDMatrixSetFloatInfo(dtrain, "label", labels.data(), n_samples);

    // 设置参数
    const char* params[] = { "objective=binary:logistic", "max_depth=3", "eta=0.1" };
    const int n_params = sizeof(params) / sizeof(char*);
    BoosterHandle booster;
    XGBoosterCreate(&dtrain, 1, &booster);
    XGBoosterSetParam(booster, "seed", "0");
    for (int i = 0; i < n_params; i++) {
        XGBoosterSetParam(booster, params[i], "");
    }

    // 训练模型
    const int n_rounds = 10;
    for (int i = 0; i < n_rounds; i++) {
        XGBoosterUpdateOneIter(booster, i, dtrain);
    }

    // 预测数据
    DMatrixHandle dtest;
    XGDMatrixCreateFromMat(data.data(), n_samples, n_features, 0, &dtest);
    bst_ulong* out_len=new bst_ulong(n_samples);
    const float* out_result=new float[n_samples];
    // 分配内存给 out_result

    XGBoosterPredict(booster, dtest, 0, 0,0, out_len, &out_result);

    // 输出预测结果
    std::cout << "Predictions:" << std::endl;
    for (int i = 0; i < n_samples; i++) {
        std::cout << out_result[i] << std::endl;
    }

    XGDMatrixFree(dtrain);
    XGDMatrixFree(dtest);
    XGBoosterFree(booster);

    return 0;
}

貌似有点小问题,预测结果出来有负数(期待大神纠正),但是能运行就算成功

个人吐槽一波:我是真**的无语了,好好的python不用让我用c++搞,我屁都不会我拿头搞啊

你可能感兴趣的:(机器学习,c++,分类)