AI人工智能从入门到实战:完整教程

文章目录

    • 一、AI核心认知(入门必懂)
      • [1.1 什么是人工智能?](#1.1 什么是人工智能?)
      • [1.2 AI、机器学习与深度学习的关系](#1.2 AI、机器学习与深度学习的关系)
      • [1.3 关键学习范式(AI任务分类)](#1.3 关键学习范式(AI任务分类))
      • [1.4 AI主流应用领域](#1.4 AI主流应用领域)
    • 二、开发环境搭建(多系统适配)
      • [2.1 安装Anaconda(环境管理工具)](#2.1 安装Anaconda(环境管理工具))
      • [2.2 创建AI专属虚拟环境](#2.2 创建AI专属虚拟环境)
      • [2.3 启动Jupyter Notebook](#2.3 启动Jupyter Notebook)
    • 三、数学与编程基础(必备能力)
      • [3.1 核心数学基础](#3.1 核心数学基础)
      • [3.2 Python编程基础(核心语法)](#3.2 Python编程基础(核心语法))
      • [3.3 数据可视化(Matplotlib/Seaborn)](#3.3 数据可视化(Matplotlib/Seaborn))
    • 四、AI核心理论(模型与架构)
      • [4.1 神经网络基础](#4.1 神经网络基础)
      • [4.2 经典神经网络架构](#4.2 经典神经网络架构)
        • [4.2.1 卷积神经网络(CNN)------ 图像任务首选](#4.2.1 卷积神经网络(CNN)—— 图像任务首选)
        • [4.2.2 循环神经网络(RNN)------ 序列任务基础](#4.2.2 循环神经网络(RNN)—— 序列任务基础)
        • [4.2.3 Transformer ------ 大模型核心架构](#4.2.3 Transformer —— 大模型核心架构)
      • [4.3 过拟合与欠拟合(模型训练陷阱)](#4.3 过拟合与欠拟合(模型训练陷阱))
    • 五、机器学习完整流程(实战基础)
      • [5.1 流程拆解(6步闭环)](#5.1 流程拆解(6步闭环))
      • [5.2 特征工程核心技巧](#5.2 特征工程核心技巧)
    • 六、经典实战案例(3个入门项目)
    • 七、调试技巧与避坑指南
      • [7.1 环境配置坑](#7.1 环境配置坑)
      • [7.2 模型训练坑](#7.2 模型训练坑)
      • [7.3 数据处理坑](#7.3 数据处理坑)
      • [7.4 大模型应用坑](#7.4 大模型应用坑)
      • [7.5 调试技巧](#7.5 调试技巧)
    • 八、核心总结与学习路径
      • [8.1 核心学习要点](#8.1 核心学习要点)
      • [8.2 新手3个月学习计划](#8.2 新手3个月学习计划)

一、AI核心认知(入门必懂)

明确AI的核心概念、技术层级与应用场景,建立完整的知识框架,避免盲目入门。

1.1 什么是人工智能?

人工智能(AI)是研究、开发用于模拟、延伸和扩展人类智能的理论、方法、技术及应用系统的一门新的技术科学,终极目标是让机器具备学习、推理、解决问题、感知环境乃至创造性思维的能力。

AI技术层级从低到高可分为三层:

  • 计算智能:机器具备快速计算和存储能力,如计算器、数据库,是AI的基础;

  • 感知智能:机器能"看懂""听懂"世界,如语音识别、图像识别,核心是模拟人类感官能力;

  • 认知智能:机器能"思考""决策",如大模型对话、自动驾驶,核心是模拟人类思维能力。

1.2 AI、机器学习与深度学习的关系

三者是包含与被包含的关系,核心脉络为:AI ⊇ 机器学习(ML) ⊇ 深度学习(DL)

  • 机器学习:AI的核心实现路径,让计算机无需显式编程,通过学习数据中的模式自主提升任务表现,如通过海量照片学会识别"猫";

  • 深度学习:机器学习的子领域,模仿人脑神经元结构构建深层神经网络(DNN),能自动从原始数据中提取抽象特征,在图像、文本领域取得突破性进展。

1.3 关键学习范式(AI任务分类)

  • 监督学习:使用"带标签"数据训练,学习输入与输出的映射关系,典型任务为分类(如垃圾邮件识别)、回归(如房价预测);

  • 无监督学习:处理"无标签"数据,发现数据内在结构,典型任务为聚类(如客户分群)、异常检测(如欺诈识别);

  • 强化学习:智能体通过与环境交互,根据奖励/惩罚信号调整策略,追求长期回报最大化,典型案例为AlphaGo击败人类棋手。

1.4 AI主流应用领域

  • 计算机视觉(CV):图像识别、目标检测、人脸识别、自动驾驶视觉感知;

  • 自然语言处理(NLP):机器翻译、情感分析、大模型对话、文本摘要;

  • 推荐系统:电商商品推荐、视频平台内容推荐、音乐推荐;

  • 智能制造:工业质检、机器人巡检、智能调度;

  • 医疗AI:医学影像诊断、疾病预测、药物研发。

二、开发环境搭建(多系统适配)

AI开发以Python为主,核心工具为Anaconda(环境管理)、Jupyter Notebook(交互式开发),以及TensorFlow/PyTorch(深度学习框架),适配Windows、macOS、Linux三大系统。

2.1 安装Anaconda(环境管理工具)

  1. 访问Anaconda官网(https://www.anaconda.com/),下载对应系统的安装包(建议Python 3.9+版本);

  2. Windows:双击安装包,勾选"Add Anaconda to my PATH environment variable",默认路径安装即可;

  3. macOS/Linux:打开终端,执行安装命令(以.sh文件为例):
    bash Anaconda3-2025.02-Linux-x86_64.sh

    按提示输入"yes",默认路径安装,最后执行source ~/.bashrc刷新环境变量;

  4. 验证安装:打开终端/命令提示符,执行conda --version,显示版本信息即成功。

2.2 创建AI专属虚拟环境

bash 复制代码
# 创建名为ai_env的虚拟环境,指定Python 3.10
conda create -n ai_env python=3.10
# 激活虚拟环境(Windows)
conda activate ai_env
# 激活虚拟环境(macOS/Linux)
source activate ai_env
# 安装核心依赖库
conda install numpy pandas matplotlib scikit-learn
pip install tensorflow==2.15.0 torch==2.1.0 jupyter notebook

2.3 启动Jupyter Notebook

  1. 在激活的虚拟环境中,执行jupyter notebook,自动打开浏览器;

  2. 点击"New"→"Python 3",创建新的Notebook文件;

  3. 验证环境:在单元格中输入以下代码,按Shift+Enter执行,无报错即成功:

    `import numpy as np

    import pandas as pd

    import tensorflow as tf

    import torch

print("NumPy版本:", np.version )

print("TensorFlow版本:", tf.version )

print("PyTorch版本:", torch.version)`

三、数学与编程基础(必备能力)

AI技术的核心是数学与编程,无需深入推导,但需掌握基础概念与应用场景,为后续学习打牢基础。

3.1 核心数学基础

  • 线性代数:AI运算的骨架,核心是向量、矩阵、张量及其运算(加法、乘法、转置),用于神经网络的正向传播与反向更新;

  • 概率与统计:处理不确定性的基石,核心是概率分布、贝叶斯定理、评估指标(准确率、精确率、召回率、F1值),用于模型评估与决策;

  • 微积分:优化模型的工具,核心是导数、偏导数、梯度下降,用于寻找模型最优参数,最小化损失函数。

3.2 Python编程基础(核心语法)

python 复制代码
# 1. 基础数据类型与容器
import numpy as np
import pandas as pd

# 列表与字典
data_list = [1, 2, 3, 4, 5]
data_dict = {"name": "AI教程", "type": "入门", "difficulty": "简单"}

# 2. 数组运算(NumPy)
arr = np.array([[1, 2], [3, 4]])
print("数组形状:", arr.shape)
print("数组求和:", arr.sum())
print("矩阵乘法:", np.dot(arr, arr))

# 3. 数据处理(Pandas)
df = pd.DataFrame({
    "id": [1, 2, 3],
    "feature1": [0.5, 0.8, 0.2],
    "label": [0, 1, 0]
})
print("\n数据基本信息:")
print(df.info())
print("\n数据描述统计:")
print(df.describe())
print("\n缺失值统计:")
print(df.isnull().sum())

3.3 数据可视化(Matplotlib/Seaborn)

python 复制代码
import matplotlib.pyplot as plt
import seaborn as sns

# 设置中文字体
plt.rcParams['font.sans-serif'] = ['SimHei']
plt.rcParams['axes.unicode_minus'] = False

# 1. 折线图
x = np.linspace(0, 10, 100)
y = np.sin(x)
plt.plot(x, y, label="正弦曲线")
plt.xlabel("x")
plt.ylabel("y=sin(x)")
plt.title("正弦函数图像")
plt.legend()
plt.show()

# 2. 直方图(数据分布)
data = np.random.normal(0, 1, 1000)  # 正态分布数据
sns.histplot(data, kde=True, bins=30)
plt.title("正态分布直方图")
plt.xlabel("数值")
plt.ylabel("频数")
plt.show()

# 3. 散点图(变量关系)
df = pd.DataFrame({
    "x": np.random.rand(100),
    "y": np.random.rand(100) + np.random.rand(100)*0.2
})
sns.scatterplot(x="x", y="y", data=df)
plt.title("x与y的散点图")
plt.show()

四、AI核心理论(模型与架构)

掌握AI核心模型与架构的原理,重点理解神经网络、CNN、RNN、Transformer,无需深入数学推导,聚焦应用场景。

4.1 神经网络基础

神经网络是深度学习的计算核心,由输入层、隐藏层、输出层构成,每个层包含多个"神经元"(节点),节点间通过"权重"连接。

  • 正向传播:数据从输入层流入,经过隐藏层的加权计算与激活函数(ReLU、Sigmoid)变换,最终在输出层产生预测结果;

  • 反向传播:根据预测误差(损失函数),通过梯度下降调整各层权重,最小化误差,实现模型训练;

  • 激活函数:解决线性模型表达能力不足的问题,常用ReLU(隐藏层)、Sigmoid(二分类输出层)、Softmax(多分类输出层)。

4.2 经典神经网络架构

4.2.1 卷积神经网络(CNN)------ 图像任务首选

专为处理网格结构数据(如图像像素)设计,核心是卷积层、池化层,能自动提取图像的局部特征(边缘、纹理、形状)。

  • 卷积层:通过卷积核滑动提取局部特征,减少参数数量;

  • 池化层:对特征图下采样,保留关键特征,降低计算量;

  • 应用场景:图像识别、目标检测、人脸识别。

4.2.2 循环神经网络(RNN)------ 序列任务基础

专为处理序列数据(如文本、语音)设计,包含反馈回路,能捕捉序列的时序依赖关系,但存在梯度消失/爆炸问题。

  • 变体:LSTM(长短期记忆网络)、GRU(门控循环单元),通过门控机制解决长期依赖问题;

  • 应用场景:文本生成、语音识别、时序预测。

4.2.3 Transformer ------ 大模型核心架构

摒弃循环与卷积层,核心是"注意力机制",能并行计算,捕捉全局上下文依赖,是BERT、GPT等大模型的基础。

  • 注意力机制:让模型聚焦输入的关键部分,通过查询(Q)、键(K)、值(V)计算权重,公式为:
    Attention(Q, K, V) = softmax((Q·K^T)/√d_k) · V

  • 多头注意力:并行多个注意力层,捕捉不同子空间的特征;

  • 应用场景:大模型对话、机器翻译、文本理解。

4.3 过拟合与欠拟合(模型训练陷阱)

  • 过拟合:模型在训练数据上表现完美,却无法泛化到新数据(过度记忆细节),解决方案:增加数据量、正则化(L1/L2)、Dropout、早停;

  • 欠拟合:模型未学好训练数据的基本模式(模型过简单),解决方案:增加模型复杂度、增加训练轮次、优化特征工程。

五、机器学习完整流程(实战基础)

任何AI项目都遵循固定流程,从问题定义到模型部署,一步一步推进,确保项目落地。

5.1 流程拆解(6步闭环)

  1. 问题定义:明确业务目标,转化为AI任务(如"预测用户是否流失"→ 二分类任务);

  2. 数据准备:获取数据(CSV/Excel/数据库/API)→ 数据清洗(处理缺失值、异常值)→ 特征工程(特征缩放、编码、转换);

  3. 数据划分:将数据分为训练集(70%80%,训练模型)、验证集(10%15%,调参)、测试集(10%~15%,评估性能);

  4. 模型选择与训练:根据任务类型选择模型(分类→逻辑回归/随机森林/CNN;回归→线性回归/XGBoost),用训练集训练模型;

  5. 模型评估:用测试集评估性能,分类任务看准确率、精确率、召回率、F1值;回归任务看MAE、MSE、R²;

  6. 模型部署与监控:将模型集成到应用(如API接口),持续监控实际表现,迭代优化。

5.2 特征工程核心技巧

python 复制代码
import pandas as pd
from sklearn.preprocessing import StandardScaler, OneHotEncoder
from sklearn.impute import SimpleImputer
from sklearn.compose import ColumnTransformer
from sklearn.pipeline import Pipeline

# 加载数据
df = pd.read_csv("data.csv")
X = df.drop("label", axis=1)
y = df["label"]

# 划分数值型与分类型特征
numeric_features = X.select_dtypes(include=["int64", "float64"]).columns
categorical_features = X.select_dtypes(include=["object", "category"]).columns

# 数值型特征处理:填补缺失值→标准化
numeric_transformer = Pipeline(steps=[
    ("imputer", SimpleImputer(strategy="mean")),  # 用均值填补缺失值
    ("scaler", StandardScaler())  # 标准化(均值0,方差1)
])

# 分类型特征处理:填补缺失值→独热编码
categorical_transformer = Pipeline(steps=[
    ("imputer", SimpleImputer(strategy="most_frequent")),  # 用众数填补缺失值
    ("onehot", OneHotEncoder(handle_unknown="ignore"))  # 独热编码
])

# 组合特征处理流程
preprocessor = ColumnTransformer(
    transformers=[
        ("num", numeric_transformer, numeric_features),
        ("cat", categorical_transformer, categorical_features)
    ])

# 应用特征处理
X_processed = preprocessor.fit_transform(X)
print("处理后的数据形状:", X_processed.shape)

六、经典实战案例(3个入门项目)

结合前文知识点,实现3个新手友好的实战项目,代码可直接运行,巩固核心技能。

案例1:MNIST手写数字识别(CNN入门)

6.1.1 功能需求

使用TensorFlow/Keras构建CNN模型,识别MNIST数据集(0~9手写数字),准确率达到98%以上。

6.1.2 核心代码
python 复制代码
import tensorflow as tf
from tensorflow.keras import layers, models
from tensorflow.keras.datasets import mnist
import matplotlib.pyplot as plt

# 1. 加载并预处理数据
(x_train, y_train), (x_test, y_test) = mnist.load_data()
# 归一化:将像素值缩放到0~1之间
x_train = x_train.reshape((60000, 28, 28, 1)).astype("float32") / 255.0
x_test = x_test.reshape((10000, 28, 28, 1)).astype("float32") / 255.0
# 标签独热编码
y_train = tf.keras.utils.to_categorical(y_train, 10)
y_test = tf.keras.utils.to_categorical(y_test, 10)

# 2. 构建CNN模型
model = models.Sequential([
    # 卷积层1:32个3×3卷积核,ReLU激活
    layers.Conv2D(32, (3, 3), activation="relu", input_shape=(28, 28, 1)),
    # 池化层1:2×2最大池化
    layers.MaxPooling2D((2, 2)),
    # 卷积层2:64个3×3卷积核,ReLU激活
    layers.Conv2D(64, (3, 3), activation="relu"),
    # 池化层2:2×2最大池化
    layers.MaxPooling2D((2, 2)),
    # 卷积层3:64个3×3卷积核,ReLU激活
    layers.Conv2D(64, (3, 3), activation="relu"),
    # 扁平化:将二维特征转为一维
    layers.Flatten(),
    # 全连接层1:64个神经元,ReLU激活
    layers.Dense(64, activation="relu"),
    # 输出层:10个神经元,Softmax激活(多分类)
    layers.Dense(10, activation="softmax")
])

# 3. 编译模型
model.compile(
    optimizer="adam",
    loss="categorical_crossentropy",
    metrics=["accuracy"]
)

# 4. 训练模型
history = model.fit(
    x_train, y_train,
    epochs=5,  # 训练轮次
    batch_size=64,  # 批次大小
    validation_split=0.1  # 用10%训练集作为验证集
)

# 5. 评估模型
test_loss, test_acc = model.evaluate(x_test, y_test)
print(f"测试集准确率:{test_acc:.4f}")

# 6. 预测示例
plt.imshow(x_test[0].reshape(28, 28), cmap="gray")
plt.title(f"预测结果:{tf.argmax(model.predict(x_test[0:1])[0]).numpy()}")
plt.show()

案例2:文本情感分析(NLP入门)

6.2.1 功能需求

使用IMDB电影评论数据集,构建RNN模型,判断评论是正面还是负面(二分类)。

6.2.2 核心代码
python 复制代码
import tensorflow as tf
from tensorflow.keras import layers, models
from tensorflow.keras.datasets import imdb
from tensorflow.keras.preprocessing.sequence import pad_sequences

# 1. 加载数据(保留最常见的10000个单词)
vocab_size = 10000
(x_train, y_train), (x_test, y_test) = imdb.load_data(num_words=vocab_size)

# 2. 文本序列填充(统一长度为200)
max_len = 200
x_train = pad_sequences(x_train, maxlen=max_len, padding="post", truncating="post")
x_test = pad_sequences(x_test, maxlen=max_len, padding="post", truncating="post")

# 3. 构建RNN模型
model = models.Sequential([
    # 嵌入层:将单词ID转为向量
    layers.Embedding(input_dim=vocab_size, output_dim=128, input_length=max_len),
    # LSTM层:128个神经元
    layers.LSTM(128, return_sequences=False),
    # 输出层:1个神经元,Sigmoid激活(二分类)
    layers.Dense(1, activation="sigmoid")
])

# 4. 编译与训练
model.compile(
    optimizer="adam",
    loss="binary_crossentropy",
    metrics=["accuracy"]
)

history = model.fit(
    x_train, y_train,
    epochs=3,
    batch_size=64,
    validation_split=0.1
)

# 5. 评估模型
test_loss, test_acc = model.evaluate(x_test, y_test)
print(f"测试集准确率:{test_acc:.4f}")

# 6. 预测示例
def predict_sentiment(text):
    # 文本预处理(转为单词ID)
    word_index = imdb.get_word_index()
    word_index = {k: (v + 3) for k, v in word_index.items()}
    word_index["<PAD>"] = 0
    word_index["<START>"] = 1
    word_index["<UNK>"] = 2
    word_index["<UNUSED>"] = 3
    sequence = [word_index.get(word, 2) for word in text.lower().split()]
    sequence = pad_sequences([sequence], maxlen=max_len, padding="post")
    # 预测
    score = model.predict(sequence)[0][0]
    return "正面评论" if score > 0.5 else "负面评论", score

# 测试预测
print(predict_sentiment("This movie is amazing! I love it so much."))
print(predict_sentiment("This movie is terrible. I will never watch it again."))

案例3:简单提示词工程(大模型应用)

6.3.1 功能需求

学习高质量提示词(Prompt)编写技巧,让大模型(如GPT、通义千问)生成精准结果。

6.3.2 核心技巧与示例
text 复制代码
# 低质量提示词(结果模糊、无逻辑)
"帮我写一篇AI学习计划"

# 高质量提示词(结构化、需求明确)
"请帮我制定一份3个月AI入门学习计划,要求如下:
1. 目标:从零基础到能独立完成MNIST手写数字识别项目;
2. 受众:Python基础薄弱的新手,每天可学习2小时;
3. 结构:分阶段(每月1个阶段),每个阶段包含学习内容、重点任务、资源推荐;
4. 输出格式:Markdown表格,内容简洁,避免过于学术化;
5. 额外要求:标注每个阶段的难点及解决方法。"

# 提示词工程核心原则
1. 明确任务:告知模型要做什么(分类、总结、生成、分析);
2. 结构化需求:用列表、表格等格式拆解需求;
3. 限定输出格式:指定Markdown、表格、代码块等;
4. 补充上下文:提供背景信息、受众、约束条件;
5. 示例引导:复杂任务可给出示例,让模型更易理解。

七、调试技巧与避坑指南

汇总新手高频错误,针对性给出解决方案,提升开发效率,少走弯路。

7.1 环境配置坑

  • 坑1:TensorFlow与PyTorch版本冲突 → 解决方案:使用Anaconda虚拟环境,为不同项目创建独立环境,避免版本冲突;

  • 坑2:安装框架时缺少依赖 → 解决方案:Windows用户安装Visual Studio C++ Build Tools,Linux用户安装gcc/g++,macOS用户安装Xcode Command Line Tools;

  • 坑3:Jupyter Notebook无法加载内核 → 解决方案:激活虚拟环境后,执行python -m ipykernel install --user --name=ai_env,在Notebook中选择对应内核。

7.2 模型训练坑

  • 坑1:过拟合 → 解决方案:增加Dropout层(layers.Dropout(0.2))、使用L2正则化、增加训练数据、早停(EarlyStopping(patience=3));

  • 坑2:梯度消失/爆炸 → 解决方案:使用ReLU激活函数、BatchNormalization层、调整学习率(减小学习率);

  • 坑3:训练集准确率高,测试集准确率低 → 解决方案:检查是否数据泄露(训练集与测试集有重叠)、增加数据多样性、优化特征工程。

7.3 数据处理坑

  • 坑1:缺失值处理不当 → 解决方案:数值型用均值/中位数填补,分类型用众数填补,避免直接删除缺失值过多的行;

  • 坑2:未做特征缩放 → 解决方案:神经网络、SVM、线性回归等模型必须做特征标准化/归一化,避免数值范围差异导致模型偏差;

  • 坑3:类别不平衡 → 解决方案:使用SMOTE算法生成少数类样本、调整类别权重(class_weight="balanced")、改变损失函数。

7.4 大模型应用坑

  • 坑1:提示词模糊,结果不符合预期 → 解决方案:按"明确任务+结构化需求+输出格式"编写提示词,避免模糊表述;

  • 坑2:大模型生成错误信息 → 解决方案:提示词中加入"标注信息来源""核查事实",重要内容人工校验;

  • 坑3:数据隐私风险 → 解决方案:本地部署开源大模型(如Llama3、Qwen),避免敏感数据上传至公有云。

7.5 调试技巧

  • 打印调试:用print()tf.print()输出数据形状、模型参数、损失值,定位数据流动问题;

  • 可视化调试:用TensorBoard监控训练过程(tensorboard --logdir=logs),查看损失曲线、准确率曲线;

  • 分步调试:将代码拆分为数据处理、模型构建、训练、评估四部分,分步执行,定位问题模块;

  • 官方文档查询:遇到API问题,优先查看TensorFlow/PyTorch官方文档,避免依赖过时教程。

八、核心总结与学习路径

AI学习核心是"理论+实战+复盘",总结关键要点和3个月学习计划,帮助新手快速提升。

8.1 核心学习要点

  • 基础优先:数学与Python是AI的基石,不要跳过基础直接学模型;

  • 实战为王:从简单项目(MNIST、情感分析)入手,逐步进阶到复杂项目,通过实践巩固理论;

  • 框架选型:新手优先学习PyTorch(API更简洁,适合研究)或TensorFlow(生态更完善,适合工程),不要同时学两个;

  • 持续跟进:AI领域更新快,关注顶级会议(NeurIPS、ICML)、优质博客(李宏毅、吴恩达)、开源项目(GitHub)。

8.2 新手3个月学习计划

  1. 第1个月(基础阶段):学习Python基础、NumPy/Pandas数据处理、Matplotlib可视化,掌握Anaconda环境配置,完成简单数据处理项目;

  2. 第2个月(理论与入门实战):学习AI核心概念、神经网络基础,掌握Scikit-learn传统机器学习算法,完成MNIST手写数字识别项目;

  3. 第3个月(进阶实战):学习CNN/RNN/Transformer基础,完成文本情感分析项目,学习提示词工程,尝试大模型应用。

AI学习虽有一定门槛,但新手只要遵循"基础→理论→实战"的路径,坚持动手实践,3-6个月可入门,1年可独立完成中小型AI项目。AI领域就业前景广阔,无论是算法工程师、数据科学家,还是AI产品经理,都需要扎实的AI基础。祝大家快速掌握AI核心技能,开启智能时代的学习之旅!

相关推荐
他们叫我技术总监1 天前
2025年,第一次出国,第一次布道AI
人工智能·年度总结
余生H1 天前
2026编程语言趋势分析-Javascript将统治客户端开发-分析其在开发效率、AI 兼容性与跨平台性能上的优势和不可替代性
开发语言·javascript·人工智能·客户端开发
风止何安啊1 天前
一个切图仔的2025年度总结:AI 与 Vibe Coding 教会了大学生啥?
前端·人工智能·ai编程
丹宇码农1 天前
模型量化之BitsAndBytes篇
人工智能
KG_LLM图谱增强大模型1 天前
企业级实用本体论的实践指南(2/4):Palantir Foundry如何将组织数据映射到本体概念及关键设计考量
数据库·人工智能
CareyWYR1 天前
每周AI论文速递(251229-260102)
人工智能
Sunflower_ac1 天前
线性代数学习笔记(未完结)
人工智能·笔记·学习·线性代数·机器学习
独自归家的兔1 天前
Doubao-图片生成解析与试用 模型:Doubao-Seedream-4.5
人工智能·豆包
简简单单OnlineZuozuo1 天前
构建能够从失败中学习的自进化AI代理
人工智能·深度学习·学习·语言模型·prometheus·图像识别