【opencv】示例-essential_mat_reconstr.cpp 从两幅图像中恢复3D场景的几何信息

  1. 导入OpenCV的calib3d, highgui, imgproc模块以及C++的vector, iostream, fstream库。

  2. 定义了getError2EpipLines函数,这个函数用来计算两组点相对于F矩阵(基础矩阵)的投影误差。

  3. 定义了sgn函数,用于返回一个双精度浮点数的符号。

  4. 定义了getPlanes函数,用于通过RANSAC算法和3D点集从一系列点中找到若干平面,同时这些点会被分类到对应的平面。

  5. main函数则完成了整个立体视觉的重建流程,具体步骤包括:

  • 读取数据文件和图像;

  • 从图像中检测关键点并提取SIFT特征描述符;

  • 使用FLANN库进行高效特征匹配,并使用Lowe's比率测试筛选优秀的匹配;

  • 通过匹配的特征点计算本质矩阵(Essential Matrix);

  • 计算特征点到极线(epipolar lines)的平均误差;

  • 本质矩阵分解得到旋转矩阵和平移矩阵;

  • 通过三角化方法恢复出3D空间中的点;

  • 对恢复出的3D点进行平面拟合,以识别出可能的物理平面;

  • 显示和保存最终处理后的图像。

总的来说,这段代码展示了如何使用OpenCV库在计算机视觉中从两幅图像中恢复3D场景的几何信息。

leuvenA

leuvenB

essential_mat_data.txt

终端输出:

properties 复制代码
RANSAC essential matrix time 88023mcs.
Number of inliers 212
Mean error to epipolar lines 0.219943
Number of object points 212
cpp 复制代码
#include "opencv2/calib3d.hpp"  // 包含OpenCV相机校准和3D重建的库
#include "opencv2/highgui.hpp"  // 包含OpenCV图像显示的库
#include "opencv2/imgproc.hpp"  // 包含OpenCV图像处理的库


#include <vector>  // 包含向量容器类的头文件
#include <iostream>  // 包含标准输入输出流的头文件
#include <fstream>  // 包含文件输入输出流的头文件


using namespace cv;  // 使用OpenCV命名空间
static double getError2EpipLines(const Mat &F, const Mat &pts1, const Mat &pts2, const Mat &mask) {
    Mat points1, points2;
    // 将点坐标扩展为齐次坐标形式(在原坐标基础上增加一维,设为1)
    vconcat(pts1, Mat::ones(1, pts1.cols, pts1.type()), points1);
    vconcat(pts2, Mat::ones(1, pts2.cols, pts2.type()), points2);


    double mean_error = 0;
    // 计算并累积所有点到极线的距离作为误差
    for (int pt = 0; pt < (int)mask.total(); pt++)
        if (mask.at<uchar>(pt)) { // 如果该点是内点,则计算
            const Mat l2 = F * points1.col(pt); // 使用基础矩阵F计算极线
            const Mat l1 = F.t() * points2.col(pt); // 使用F的转置计算极线
            // 计算点到极线的距离并取平均
            mean_error += (fabs(points1.col(pt).dot(l1)) / sqrt(pow(l1.at<double>(0), 2) + pow(l1.at<double>(1), 2)) +
                           fabs(points2.col(pt).dot(l2)) / sqrt(pow(l2.at<double>(0), 2) + pow(l2.at<double>(1), 2))) / 2;
        }
    return mean_error / mask.total(); // 返回平均误差
}
static int sgn(double val) { return (0 < val) - (val < 0); } // 符号函数


/*
 * @points3d - vector of Point3 or Mat of size Nx3
 * @planes - vector of found planes
 * @labels - vector of size point3d. Every point which has non-zero label is classified to this plane.
 */
// getPlanes函数,从3D点云中拟合多个平面
// @points3d - 3D点的集合,可以是Point3的向量或者是Nx3的Mat类型
// @planes - 存储找到的平面
// @labels - 和points3d大小相同的向量,每个非0标签的点都被归类到对应的平面
static void getPlanes (InputArray points3d_, std::vector<int> &labels, std::vector<Vec4d> &planes, 
                       int desired_num_planes, double thr_, double conf_, int max_iters_) {
    // 获取输入点并转换为双精度浮点数类型
    Mat points3d = points3d_.getMat();
    points3d.convertTo(points3d, CV_64F);  // 将点转换为双精度


    // 如果输入是一个向量,将其转换为Mat
    if (points3d_.isVector())
        points3d = Mat((int)points3d.total(), 3, CV_64F, points3d.data);
    else {
        // 如果输入的是单通道的Mat,转换为有1个通道
        if (points3d.type() != CV_64F)
            points3d = points3d.reshape(1, (int)points3d.total());
        // 如果点的行数小于列数,转置矩阵
        if (points3d.rows < points3d.cols)
            transpose(points3d, points3d);
        // 校验点的维度是否3
        CV_CheckEQ(points3d.cols, 3, "Invalid dimension of point");
    }


    // 接下来是RANSAC拟合平面的代码
    /*
     * 3D plane fitting with RANSAC
     * @best_model contains coefficients [a b c d] s.t. ax + by + cz = d
     *
     */
    // 使用RANSAC算法拟合3D平面
    // @best_model 包含最佳模型的系数[a b c d],使得ax + by + cz = d
    auto plane_ransac = [] (const Mat &pts, double thr, double conf, int max_iters, Vec4d &best_model, std::vector<bool> &inliers) {
        const int pts_size = pts.rows;  // 点集的大小
        const int max_lo_inliers = 15;  // 局部优化时考虑的最大内点数
        const int max_lo_iters = 10;  // 局部优化的最大迭代次数
        int best_inls = 0;  // 最佳内点数
        // 如果点的个数小于3,则无法拟合平面
        if (pts_size < 3) return false;
        RNG rng;  // 随机数生成器
        const auto * const points = (double *) pts.data;  // 点集的数据指针
        std::vector<int> min_sample(3);  // 最小样本点集
        inliers = std::vector<bool>(pts_size);  // 内点向量
        const double log_conf = log(1-conf);  // 对数置信度
        Vec4d model, lo_model;  // 当前模型和局部优化模型
        std::vector<int> random_pool(pts_size);  // 随机数池
        for (int p = 0; p < pts_size; p++)
            random_pool[p] = p;
    
        // 使用协方差矩阵估计平面系数
        auto estimate = [&] (const std::vector<int> &sample, Vec4d &model_) {
            // 省略详细的数学计算部分,最终目标是根据选取的样本点估计出平面的法向量和中心点坐标,以求得平面的参数
    
            // 根据法向量和质心找到平面模型
            model_ = Vec4d(weighted_normal(0), weighted_normal(1), weighted_normal(2),
                           weighted_normal.dot(Vec3d(c_x, c_y, c_z)));
            return true;
        };
    
        // 计算内点数量
        auto getInliers = [&] (const Vec4d &model_) {
            // 模型参数
            const double a = model_(0), b = model_(1), c = model_(2), d = model_(3);
            int num_inliers = 0;  // 内点数量
            std::fill(inliers.begin(), inliers.end(), false);
            for (int p = 0; p < pts_size; p++) {
                // 判断每个点是否为内点
                inliers[p] = fabs(a * points[3*p] + b * points[3*p+1] + c * points[3*p+2] - d) < thr;
                if (inliers[p]) num_inliers++;
                // 提前中断循环
                if (num_inliers + pts_size - p < best_inls) break;
            }
            return num_inliers;
        };
        // RANSAC算法的主循环
        for (int iters = 0; iters < max_iters; iters++) {
            // 寻找最小样本点集,即随机选取的3个点
            min_sample[0] = rng.uniform(0, pts_size);
            min_sample[1] = rng.uniform(0, pts_size);
            min_sample[2] = rng.uniform(0, pts_size);
            // 如果无法根据当前样本点估计出平面模型则跳过
            if (! estimate(min_sample, model))
                continue;
            // 获取内点数量
            int num_inliers = getInliers(model);
            // 如果当前模型的内点数量是目前最好的,则进行进一步的局部优化
            if (num_inliers > best_inls) {
                // 保存最好的内点集
                std::vector<bool> best_inliers = inliers;
                // 局部优化
                for (int lo_iter = 0; lo_iter < max_lo_iters; lo_iter++) {
                    std::vector<int> inliers_idx; inliers_idx.reserve(max_lo_inliers);
                    randShuffle(random_pool);
                    for (int p : random_pool) {
                        if (best_inliers[p]) {
                            inliers_idx.emplace_back(p);
                            if ((int)inliers_idx.size() >= max_lo_inliers)
                                break;
                        }
                    }
                    if (! estimate(inliers_idx, lo_model))
                        continue;
                    int lo_inls = getInliers(lo_model);
                    if (best_inls < lo_inls) {
                        best_model = lo_model;
                        best_inls = lo_inls;
                        best_inliers = inliers;
                    }
                }
                // 更新最佳模型
                if (best_inls < num_inliers) {
                    best_model = model;
                    best_inls = num_inliers;
                }
                // 更新最大迭代次数
                const double max_hyp = 3 * log_conf / log(1 - pow(double(best_inls) / pts_size, 3));
                if (! std::isinf(max_hyp) && max_hyp < max_iters)
                    max_iters = static_cast<int>(max_hyp);
            }
        }
        // 全部迭代结束后,更新内点集
        getInliers(best_model);
        // 如果存在内点,则返回true
        return best_inls != 0;
    };
    // 初始化标签为0
    labels = std::vector<int>(points3d.rows, 0);
    Mat pts3d_plane_fit = points3d.clone();
    // 保持点的索引数组,对应原始的points3d
    std::vector<int> to_orig_pts_arr(pts3d_plane_fit.rows);
    for (int i = 0; i < (int) to_orig_pts_arr.size(); i++)
        to_orig_pts_arr[i] = i;
    // 进行期望数量的平面拟合
    for (int num_planes = 1; num_planes <= desired_num_planes; num_planes++) {
        Vec4d model;
        std::vector<bool> inl;
        // 调用RANSAC进行平面拟合;如果未找到平面,则退出循环
        if (!plane_ransac(pts3d_plane_fit, thr_, conf_, max_iters_, model, inl))
            break;
        // 将找到的平面模型添加到planes中
        planes.emplace_back(model);


        const int pts3d_size = pts3d_plane_fit.rows;
        // 清空用于下一次拟合的pts3d_plane_fit
        pts3d_plane_fit = Mat();
        pts3d_plane_fit.reserve(points3d.rows);


        int cnt = 0;
        for (int p = 0; p < pts3d_size; p++) {
            // 若点未被当前平面拟合,则保留以进行下一次迭代
            if (!inl[p]) {
                to_orig_pts_arr[cnt] = to_orig_pts_arr[p];
                pts3d_plane_fit.push_back(points3d.row(to_orig_pts_arr[cnt]));
                cnt++;
            } else {
                // 否则将点标记为当前平面的成员
                labels[to_orig_pts_arr[p]] = num_planes;
            }
        }
    }
}
// 主函数入口
int main(int args, char** argv) {
    // 定义存储数据文件和图像目录的字符串变量
    std::string data_file, image_dir;
    // 检查命令行参数是否足够
    if (args < 3) {
        data_file = "essential_mat_data.txt";
        image_dir = "./";
       /*CV_Error(Error::StsBadArg,
                "Path to data file and directory to image files are missing!\nData file must have"
                " format:\n--------------\n image_name_1\nimage_name_2\nk11 k12 k13\n0   k22 k23\n"
                "0   0   1\n--------------\nIf image_name_{1,2} are not in the same directory as "
                "the data file then add argument with directory to image files.\nFor example: "
                "./essential_mat_reconstr essential_mat_data.txt ./");*/
       // 如果参数不足,提示错误信息并退出
    } else {
       // 获取数据文件和图像目录的路径
       data_file = argv[1];
       image_dir = argv[2];
    }
    // 打开并检查数据文件
    std::ifstream file(data_file, std::ios_base::in);
    CV_CheckEQ((int)file.is_open(), 1, "Data file is not found!");
    // 读取图像文件名
    std::string filename1, filename2;
    std::getline(file, filename1);
    std::getline(file, filename2);
    // 加载图像
    Mat image1 = imread(image_dir+filename1);
    Mat image2 = imread(image_dir+filename2);
    // 检查图像是否加载成功
    CV_CheckEQ((int)image1.empty(), 0, "Image 1 is not found!");
    CV_CheckEQ((int)image2.empty(), 0, "Image 2 is not found!");


    // 读取相机内参矩阵
    Matx33d K;
    for (int i = 0; i < 3; i++)
        for (int j = 0; j < 3; j++)
            file >> K(i,j);
    file.close();


    // 定义描述子和关键点向量
    Mat descriptors1, descriptors2;
    std::vector<KeyPoint> keypoints1, keypoints2;


    // 使用SIFT检测关键点
    Ptr<SIFT> detector = SIFT::create();
    detector->detect(image1, keypoints1);
    detector->detect(image2, keypoints2);
    // 计算关键点的描述子
    detector->compute(image1, keypoints1, descriptors1);
    detector->compute(image2, keypoints2, descriptors2);


    // 创建Flann基于KD树的匹配器
    FlannBasedMatcher matcher(makePtr<flann::KDTreeIndexParams>(5), makePtr<flann::SearchParams>(32));


    // 获取最佳匹配点,对其应用Lowe's比率测试
    std::vector<std::vector<DMatch>> matches_vector;
    matcher.knnMatch(descriptors1, descriptors2, matches_vector, 2);


    // 使用Lowe的比率测试过滤关键点
    std::vector<Point2d> pts1, pts2;
    pts1.reserve(matches_vector.size()); pts2.reserve(matches_vector.size());
    for (const auto &m : matches_vector) {
        if (m[0].distance / m[1].distance < 0.75) {
            // 内点用于后续处理
            pts1.emplace_back(keypoints1[m[0].queryIdx].pt);
            pts2.emplace_back(keypoints2[m[0].trainIdx].pt);
        }
    }


    // 通过RANSAC算法寻找基础矩阵
    Mat inliers;
    const int pts_size = (int) pts1.size();
    const auto begin_time = std::chrono::steady_clock::now();
    const Mat E = findEssentialMat(pts1, pts2, Mat(K), RANSAC, 0.99, 1.0, inliers);
    // 打印RANSAC寻找基础矩阵的时间和内点数量
    std::cout << "RANSAC essential matrix time " << std::chrono::duration_cast<std::chrono::microseconds>
            (std::chrono::steady_clock::now() - begin_time).count() <<
            "mcs.\nNumber of inliers " << countNonZero(inliers) << "\n";


    // 将图像坐标转换为矩阵
    Mat points1 = Mat((int)pts1.size(), 2, CV_64F, pts1.data());
    Mat points2 = Mat((int)pts2.size(), 2, CV_64F, pts2.data());
    points1 = points1.t(); points2 = points2.t();
    
    // 计算并打印平均误差至极线
    std::cout << "Mean error to epipolar lines " <<
        getError2EpipLines(K.inv().t() * E * K.inv(), points1, points2, inliers) << "\n";


    // 分解本质矩阵得到旋转和平移
    Mat R1, R2, t;
    decomposeEssentialMat(E, R1, R2, t);//平移向量通常是单位向量,它表示方向而非具体距离,因为本质矩阵本身并不包含关于真实世界尺度的信息。


    // 创建两个相对姿势
    // P1 = K [  I    |   0  ]
    // P2 = K [R{1,2} | {+-}t]
    // 定义第一个相机的投影矩阵P1为内参矩阵K乘以[单位矩阵|零向量]的形式
    Mat P1;
    hconcat(K, Vec3d::zeros(), P1);
    // 定义一个容器,用来存储第二个相机的所有可能的投影矩阵P2s
    std::vector<Mat> P2s(4);
    // 分别为P2s的每个元素计算可能的投影矩阵,考虑R1、R2和t以及-t的四种组合
    hconcat(K * R1,  K * t, P2s[0]);
    hconcat(K * R1, -K * t, P2s[1]);
    hconcat(K * R2,  K * t, P2s[2]);
    hconcat(K * R2, -K * t, P2s[3]);
    
    // 创建两个向量,用于存储每个相机视角下的物体点和对应的图像点索引
    std::vector<std::vector<Vec3d>> obj_pts_per_cam(4);  // 存储物体点
    std::vector<std::vector<int>> img_idxs_per_cam(4);  // 存储对应图像点的索引
    // 初始化相机索引、最佳相机索引和最大物体点数的变量
    int cam_idx = 0, best_cam_idx = 0, max_obj_pts = 0;
    // 遍历四个可能的第二个相机的投影矩阵P2
    for (const auto &P2 : P2s) {
        obj_pts_per_cam[cam_idx].reserve(pts_size);  // 预留空间,优化性能
        img_idxs_per_cam[cam_idx].reserve(pts_size);
        // 遍历每一个点对
        for (int i = 0; i < pts_size; i++) {
            // 只处理内点
            if (! inliers.at<uchar>(i))
                continue;
    
            Vec4d obj_pt;  // 创建一个4D物体点
            // 使用三角化计算物体点的位置
            triangulatePoints(P1, P2, points1.col(i), points2.col(i), obj_pt);
            obj_pt /= obj_pt(3); // 归一化物体点
            // 检查如果投影点拥有正深度
            if (obj_pt(2) > 0) { 
                // 添加到当前相机的物体点向量中
                obj_pts_per_cam[cam_idx].emplace_back(Vec3d(obj_pt(0), obj_pt(1), obj_pt(2)));
                img_idxs_per_cam[cam_idx].emplace_back(i);
            }
        }
        // 更新包含最多物体点的相机投影矩阵的索引
        if (max_obj_pts < (int) obj_pts_per_cam[cam_idx].size()) {
            max_obj_pts = (int) obj_pts_per_cam[cam_idx].size();
            best_cam_idx = cam_idx;
        }
        cam_idx++;  // 增加相机索引以便在下一个循环中使用下一个投影矩阵
    }


    // 打印物体点数量
    std::cout << "Number of object points " << max_obj_pts << "\n";


    // 绘制图像中的内点
    const int circle_sz = 7;
    // 在两个图像中绘制内点
    std::vector<int> labels;  // 存储点云分割后每个点的标签
    std::vector<Vec4d> planes;  // 存储检测到的平面
    // 调用之前解释过的 getPlanes 函数,从3D点中找到最多4个平面
    getPlanes (obj_pts_per_cam[best_cam_idx], labels, planes, 4, 0.002, 0.99, 10000);
    // 获取找到的平面数量
    const int num_found_planes = (int) planes.size();
    RNG rng;  // 随机数生成器,用于颜色生成
    // 为每个平面生成一个随机颜色
    std::vector<Scalar> plane_colors(num_found_planes);
    for (int pl = 0; pl < num_found_planes; pl++)
        plane_colors[pl] = Scalar(rng.uniform(0,256), rng.uniform(0,256), rng.uniform(0,256));
    // 遍历所有的物体点
    for (int obj_pt = 0; obj_pt < max_obj_pts; obj_pt++) {
        // 获取图像点的索引
        const int pt = img_idxs_per_cam[best_cam_idx][obj_pt];
        // 如果这个点属于某个平面,用对应颜色画圆表示
        if (labels[obj_pt] > 0) {
            circle(image1, pts1[pt], circle_sz, plane_colors[labels[obj_pt]-1], -1);
            circle(image2, pts2[pt], circle_sz, plane_colors[labels[obj_pt]-1], -1);
        } else {
            // 否则用黑色画圆表示内点
            circle(image1, pts1[pt], circle_sz, Scalar(0,0,0), -1);
            circle(image2, pts2[pt], circle_sz, Scalar(0,0,0), -1);
        }
    }


    // 连接两个图像
    hconcat(image1, image2, image1);
    // 将图像尺寸调整为新的大小,保持同样的宽高比
    // 假设新的图像大小为1200x800
    const int new_img_size = 1200 * 800;
    resize(image1, image1, Size((int)sqrt((double)image1.cols * new_img_size / image1.rows),
                                (int)sqrt((double)image1.rows * new_img_size / image1.cols)));
    // 显示连接后的图像,并将其保存至文件
    imshow("image 1-2", image1);
    imwrite("planes.png", image1);
    // 等待按键事件以进行交互
    waitKey(0);
}

代码实现了一个复杂的计算机视觉流程,主要步骤如下:

  1. 检查并确保命令行参数中提供了有效的数据文件和图像目录路径。

  2. 读取数据文件中提供的两张图像的文件名并加载这些图像。

  3. 读取相机的内参矩阵。

  4. 使用SIFT算法检测关键点,并计算这些关键点的描述符。

  5. 使用FLANN库基于KD树的方法对描述符进行匹配,并使用Lowe的比率测试过滤匹配。

  6. 计算两组匹配关键点的本质矩阵,并基于本质矩阵的RANSAC算法输出内点。

  7. 通过内点和本质矩阵计算重投影误差。

  8. 分解本质矩阵以获得旋转矩阵和平移向量,并使用P1和P2s(四种可能的相机位姿)进行三角测量以重建场景的3D点。

  9. 在图像上绘制这些重建的3D点,并将它们分配到不同的平面上。

  10. 使用getPlanes函数分析从三角化计算获得的3D点云,并试图将点云中的点分配到最多四个平面上。

  11. 绘制出与这些平面相关联的点的投影,并将它们用不同颜色标记在两张图像上;未与任何平面相关联的内点将以黑色绘制。

  12. 将两张标记好的图像拼接成一张图像,并根据设定的新尺寸调整其大小,保持宽高比不变。

  13. 使用OpenCV的GUI功能展示拼接后的图像,并将其保存为文件。

  14. 等待用户的按键事件,以结束程序或进行进一步的交云用户交互。

代码的核心功能是从两张有重叠视野的图像中,恢复出场景的三维结构,并尝试将3D点分类到不同的平面上 。最终,代码通过可视化库将结果显示出来,并保存 绘制了3D点和平面分割的图像文件 。这些步骤完成了对场景立体重建和平面分割的处理流程 ,并通过图像展示了结果。利用这种方法,开发者可以在两个视图之间识别公共结构,并估计它们在空间中的相对位置和姿态。

cs 复制代码
CV_CheckEQ((int)file.is_open(), 1, "Data file is not found!");
javascript 复制代码
const Mat E = findEssentialMat(pts1, pts2, Mat(K), RANSAC, 0.99, 1.0, inliers);
css 复制代码
getError2EpipLines(K.inv().t() * E * K.inv(), points1, points2, inliers)

getError2EpipLines函数

css 复制代码
triangulatePoints(P1, P2, points1.col(i), points2.col(i), obj_pt);
css 复制代码
getPlanes(obj_pts_per_cam[best_cam_idx], labels, planes, 4, 0.002, 0.99, 10000);

这段代码的功能主要包括以下几个部分:

  1. 读取和预处理图像数据:
  • 通过命令行参数接收图像数据文件和图像目录。

  • 读取两张图像的文件路径,并加载对应的图像数据。

读取相机校准参数:

  • 从文件中读取相机的内部校准矩阵K

特征点检测和描述:

  • 使用SIFT算法检测两张图片中的关键点,并计算对应的描述子。

特征点匹配:

  • 使用带有FLANN的快速近似最近邻搜索算法进行关键点之间的匹配。

  • 使用Lowe的比率测试过滤匹配,去除错误的匹配点对。

计算本质矩阵:

  • 使用RANSAC算法估计两视图间的本质矩阵E

  • 计算并输出RANSAC对本质矩阵计算耗时和内点数量。

计算双视图间的误差:

  • 计算并输出关键点对应的集合到极线的平均距离误差。

分解本质矩阵获得位姿:

  • 从本质矩阵中分解出两组旋转和一个平移向量。

重建3D点:

  • 根据计算出的位姿信息,对内点进行三角测量以获得3D坐标。

  • 遍历四种可能的相机第二视角的投影矩阵,寻找最多3D点的相机模型。

平面检测:

  • 对3D点进行多平面拟合,得到最多四个平面的参数。

  • 将3D点分类到各个检测到的平面上。

图形可视化:

  • 在图片上绘制内点和所属平面的关键点。

  • 将两张图像首尾拼接,并对图像大小进行调整。

  • 显示最终结果,输出保存有平面信息的图像。

整个程序是一个图像处理和3D点重建的流程,涉及从图像中提取和匹配特征点、利用相机校准信息计算本质矩阵、分解获得相对位姿、三角测量获取3D坐标、平面拟合与分类,以及结果的可视化。

The End

相关推荐
biter00882 分钟前
opencv(15) OpenCV背景减除器(Background Subtractors)学习
人工智能·opencv·学习
吃个糖糖9 分钟前
35 Opencv 亚像素角点检测
人工智能·opencv·计算机视觉
IT古董1 小时前
【漫话机器学习系列】017.大O算法(Big-O Notation)
人工智能·机器学习
凯哥是个大帅比1 小时前
人工智能ACA(五)--深度学习基础
人工智能·深度学习
m0_748232921 小时前
DALL-M:基于大语言模型的上下文感知临床数据增强方法 ,补充
人工智能·语言模型·自然语言处理
szxinmai主板定制专家1 小时前
【国产NI替代】基于FPGA的32通道(24bits)高精度终端采集核心板卡
大数据·人工智能·fpga开发
海棠AI实验室1 小时前
AI的进阶之路:从机器学习到深度学习的演变(三)
人工智能·深度学习·机器学习
机器懒得学习2 小时前
基于YOLOv5的智能水域监测系统:从目标检测到自动报告生成
人工智能·yolo·目标检测
QQ同步助手2 小时前
如何正确使用人工智能:开启智慧学习与创新之旅
人工智能·学习·百度
AIGC大时代2 小时前
如何使用ChatGPT辅助文献综述,以及如何进行优化?一篇说清楚
人工智能·深度学习·chatgpt·prompt·aigc