games101 作业1及作业2分析及解决 详解透视矩阵

games101 作业1及作业2分析及解决

去年的时候把games101的课程以及作业完成,但是整个过程比较粗略,也借助了不少外界的力量(doge),于是最近准备抽几天集中再把作业(1-7)过一遍,常看常新嘛 环境配置直接用:https://github.com/roeas/GAMES101-Premake 之前是在虚拟机上 这次用vs也方便一些

有时间也会研究一下大作业

作业一

代码分析

简要分析一下整体的一个绘制流程

首先定义了绘制的视口 同时初始化了像素缓冲区 与 深度缓冲区:

rst::rasterizer r(700, 700);
rst::rasterizer::rasterizer(int w, int h) : width(w), height(h)
{
    frame_buf.resize(w * h);
    depth_buf.resize(w * h);
}

定义相机位置、三角形三个顶点在空间中的位置,三个顶点的索引顺序,注意我这里相机位置和顶点位置设置的都和原来不一样,这里后面再提:

Eigen::Vector3f eye_pos = {0, 0, 0};

std::vector<Eigen::Vector3f> pos{{2, 0, 12}, {0, 2, 12}, {-2, 0, 12}};

std::vector<Eigen::Vector3i> ind{{0, 1, 2}};

然后创建对应三角形的顶点缓冲区以及索引缓冲区:

auto pos_id = r.load_positions(pos);
auto ind_id = r.load_indices(ind);
rst::pos_buf_id rst::rasterizer::load_positions(const std::vector<Eigen::Vector3f> &positions)
{
    auto id = get_next_id();
    pos_buf.emplace(id, positions);

    return {id};
}

rst::ind_buf_id rst::rasterizer::load_indices(const std::vector<Eigen::Vector3i> &indices)
{
    auto id = get_next_id();
    ind_buf.emplace(id, indices);

    return {id};
}

然后就是设置模型、观察以及透视矩阵,最后绘制

绘制部分:

void rst::rasterizer::draw(rst::pos_buf_id pos_buffer, rst::ind_buf_id ind_buffer, rst::Primitive type)
{
    if (type != rst::Primitive::Triangle)
    {
        throw std::runtime_error("Drawing primitives other than triangle is not implemented yet!");
    }
    读取对应的三角形的顶点以及索引信息
    auto& buf = pos_buf[pos_buffer.pos_id];
    auto& ind = ind_buf[ind_buffer.ind_id];

    float f1 = (100 - 0.1) / 2.0;
    float f2 = (100 + 0.1) / 2.0;

    Eigen::Matrix4f mvp = projection * view * model;
    for (auto& i : ind)
    {
        Triangle t;
        转换到屏幕空间
        Eigen::Vector4f v[] = {
                mvp * to_vec4(buf[i[0]], 1.0f),
                mvp * to_vec4(buf[i[1]], 1.0f),
                mvp * to_vec4(buf[i[2]], 1.0f)
        };
        透视除法
        for (auto& vec : v) {
            vec /= vec.w();
        }
        转换到像素空间
        for (auto & vert : v)
        {
            vert.x() = 0.5*width*(vert.x()+1.0);
            vert.y() = 0.5*height*(vert.y()+1.0);
            vert.z() = vert.z() * f1 + f2;
        }
        设置三角形的各个顶点
        for (int i = 0; i < 3; ++i)
        {
            t.setVertex(i, v[i].head<3>());
            t.setVertex(i, v[i].head<3>());
            t.setVertex(i, v[i].head<3>());
        }
        设置各个顶点的颜色
        t.setColor(0, 255.0,  0.0,  0.0);
        t.setColor(1, 0.0  ,255.0,  0.0);
        t.setColor(2, 0.0  ,  0.0,255.0);
        绘制 这里是用线框形式绘制 使用的画线算法是Bresenham
        rasterize_wireframe(t);
    }
}

理论分析

贴一张大致的总结图

重点分析透视矩阵的推导

这里我介绍一下d3d12龙书的推导过程

把点投影到我们的投影平面上 利用相似我们可以得到的关系是(假设投影平面到我们摄像机的距离为1):

\[x^{'} = \frac{x}{z} \]

\[y^{'} = \frac{y}{z} \]

为了规范化归一化 我们是要把投影平面\(x\in [-width/2,width/2]\)与\(y\in [-height/2,height/2]\) 转换到[-1,1]的这个平面上,要经历变换:

\[x^{'} = \frac{x*2}{W} \]

\[y^{'} = \frac{y*2}{H} \]

如果我们使用fov 与 宽高比(r)来表示 则可以转化为:

\[x^{'} = \frac{x}{(r* tan \frac{Fov}{2})} \]

\[y^{'} = \frac{y}{tan \frac{Fov}{2}} \]

可以看出我们其实是要对x,y进行两步变换 我们可以第一步先进行归一化变换

同时为了进行透视除法 我们需要存储z坐标,所以在第一步中我们要利用w分量来存储z值,得到的变换过程如下:

\[\begin{bmatrix} \frac{1}{r\tan \frac{Fov}{2}} & 0 &0 &0 \\ 0& \frac{1}{\tan \frac{Fov}{2}}&0 &0 \\ 0& 0& A& B\\ 0& 0& 1&0 \end{bmatrix} \begin{bmatrix} x\\ y \\ z\\ 1 \end{bmatrix}= \begin{bmatrix} \frac{x}{(r* tan \frac{Fov}{2})}\\ \frac{y}{tan \frac{Fov}{2}} \\ Az+B\\ z \end{bmatrix}\]

之后第二步再进行透视除法:

\[\begin{bmatrix} \frac{x}{(rz* tan \frac{Fov}{2})}\\ \frac{y}{ztan \frac{Fov}{2}} \\ A+\frac{B}{z}\\ 1 \end{bmatrix}\]

最后我们还需要对z深度值进行归一化操作 将z值转换到0-1 在上述矩阵中我们可以直接利用 A与B来进行,令近平面上的点深度值为0,远平面上的点深度值为1:

最终的透视矩阵:

\[\begin{bmatrix} \frac{1}{r\tan \frac{Fov}{2}} & 0 &0 &0 \\ 0& \frac{1}{\tan \frac{Fov}{2}}&0 &0 \\ 0& 0& \frac{f}{f-n} & \frac{-nf}{f-n} \\ 0& 0& 1& 0 \end{bmatrix}\]

实际解决

注意这里我设置的相机以及顶点位置发生变化:

Eigen::Vector3f eye_pos = {0, 0, 0};

std::vector<Eigen::Vector3f> pos{{2, 0, 12}, {0, 2, 12}, {-2, 0, 12}};
r.set_projection(get_projection_matrix(45, 1, 0.1, 50));

这样设置就不会出现原来三角形倒置的问题了

因为按照原来的设置 z轴是朝外的 近平面原平面都设置为正 相当于相机朝向是z轴正方向 而三角形却在z轴负半轴方向 这样会产生问题

我觉得这样改会比网上那个直接改透视矩阵要简单一些

Eigen::Matrix4f get_model_matrix(float rotation_angle)
{
    Eigen::Matrix4f model = Eigen::Matrix4f::Identity();

    // TODO: Implement this function
    // Create the model matrix for rotating the triangle around the Z axis.
    // Then return it.
    float Cos = cos(rotation_angle / 180.f * MY_PI);
    float Sin = sin(rotation_angle / 180.f * MY_PI);
    model << Cos, -Sin, 0, 0,
        Sin, Cos, 0, 0,
        0, 0, 1, 0,
        0, 0, 0, 1;
    return model;
}

Eigen::Matrix4f get_projection_matrix(float eye_fov, float aspect_ratio,
                                      float zNear, float zFar)
{
    // Students will implement this function

    Eigen::Matrix4f projection = Eigen::Matrix4f::Identity();
    float TanFov = tan((eye_fov / 2) / 180.f * MY_PI);

    projection << 1 / (aspect_ratio * TanFov), 0, 0, 0,
        0, 1 / TanFov, 0, 0,
        0, 0, zFar / zFar - zNear, -zFar * zNear / zFar - zNear,
        0, 0, 1, 0;

    return projection;
}

效果展示:

作业二

理论分析

整个代码框架和作业一变化不大

最大的差别就是将之前使用画线算法绘制线框 改为 实际填充像素光栅化 即

draw函数的变化

整个绘制过程如下:

1.找到三角形图元的boundingbox

2.判断范围内每个像素块是否在三角形内(使用叉积判断)叉积得到的是一个三维向量 我们应该使用z坐标来判断(xy平面上做叉积得到的是一个垂直于xy平面的向量)如果三个叉积的结果同号 则说明点(像素块中心点)在三角形内

3.使用面积比例计算得到重心坐标

4.使用重心坐标插值得到三角形内像素点的深度 这里要进行透视校正插值 但是原代码的方法是有错误的 应该使用三维空间中的正确深度值 而不是像素空间被压缩之后的深度值 详细说明见:https://www.cnblogs.com/dyccyber/p/17873365.htmlhttps://zhuanlan.zhihu.com/p/509902950

5.进行深度测试

实际解决

覆盖测试:

这里我直接计算了z坐标 没有整体计算叉积

static bool insideTriangle(float x, float y, const Vector3f* _v)
{   
    // TODO : Implement this function to check if the point (x, y) is inside the triangle represented by _v[0], _v[1], _v[2]
    Vector2f v0P(x - _v[0].x(), y - _v[0].y());
    Vector2f v1P(x - _v[1].x(), y - _v[1].y());
    Vector2f v2P(x - _v[2].x(), y - _v[2].y());
    Vector2f v0v1(_v[1].x() - _v[0].x(), _v[1].y() - _v[0].y());
    Vector2f v1v2(_v[2].x() - _v[1].x(), _v[2].y() - _v[1].y());
    Vector2f v2v0(_v[0].x() - _v[2].x(), _v[0].y() - _v[2].y());
    float Xp0 = v0v1.x() * v0P.y() - v0v1.y() * v0P.x();
    float Xp1 = v1v2.x() * v1P.y() - v1v2.y() * v1P.x();
    float Xp2 = v2v0.x() * v2P.y() - v2v0.y() * v2P.x();
    return (Xp0 < 0 && Xp1 < 0 && Xp2 < 0) || (Xp0 > 0 && Xp1 > 0 && Xp2 > 0);

}

屏幕空间光栅化:

这里我使用了4xssaa进行抗锯齿 要建立一个四倍的framebuffer与depthbuffer 依次对每个采样点进行覆盖与深度测试 然后求平均颜色

void rst::rasterizer::clear(rst::Buffers buff)
{
    if ((buff & rst::Buffers::Color) == rst::Buffers::Color)
    {
        std::fill(frame_buf.begin(), frame_buf.end(), Eigen::Vector3f{0, 0, 0});
        std::fill(frame_sample.begin(), frame_sample.end(), Eigen::Vector3f{ 0, 0, 0 });
    }
    if ((buff & rst::Buffers::Depth) == rst::Buffers::Depth)
    {
        std::fill(depth_buf.begin(), depth_buf.end(), std::numeric_limits<float>::infinity());
    }
}

rst::rasterizer::rasterizer(int w, int h) : width(w), height(h)
{
    frame_buf.resize(w * h);
    depth_buf.resize(w * h * 4);
    frame_sample.resize(w * h * 4);
    helper[0].x() = 0.25;
    helper[0].y() = 0.25;

    helper[1].x() = 0.75;
    helper[1].y() = 0.25;

    helper[2].x() = 0.25;
    helper[2].y() = 0.75;

    helper[3].x() = 0.75;
    helper[3].y() = 0.75;
 
}

void rst::rasterizer::rasterize_triangle(const Triangle& t) {
    auto v = t.toVector4();
    int XMin = std::min(std::min(v[0].x(), v[1].x()), v[2].x());
    int XMax = std::max(std::max(v[0].x(), v[1].x()), v[2].x());
    int YMin = std::min(std::min(v[0].y(), v[1].y()), v[2].y());
    int YMax = std::max(std::max(v[0].y(), v[1].y()), v[2].y());
    for (int x = XMin; x < XMax; x++) {
        for (int y = YMin; y < YMax; y++) {
            int index = get_index(x, y) * 4;
            for (int i = 0; i < 4; i++) {
                if (insideTriangle(x + helper[i].x(), y + helper[i].y(), t.v)) {
                    auto [alpha, beta, gamma] = computeBarycentric2D(x + helper[i].x(), y + helper[i].y(), t.v);
                    float w_reciprocal = 1.0 / (alpha / v[0].w() + beta / v[1].w() + gamma / v[2].w());
                    float z_interpolated = alpha * v[0].z() / v[0].w() + beta * v[1].z() / v[1].w() + gamma * v[2].z() / v[2].w();
                    z_interpolated *= w_reciprocal;
                    if (z_interpolated < depth_buf[index+i]) {
                        depth_buf[index+i] = z_interpolated;
                        frame_sample[index+i] = t.getColor();
                    }
                }
            }
            frame_buf[index / 4] = (frame_sample[index] + frame_sample[index + 1] + frame_sample[index + 2] + frame_sample[index + 3]) / 4;
            
        }
    }

}

结果展示: