深度学习辅助下的法庭口供真实性分析:图像特征揭示证人情感

随着人工智能技术的迅猛发展,其在各个领域的应用逐渐深入,其中包括司法系统。法庭口供真实性分析一直是司法领域的关键问题之一。传统的口供真实性判断主要依赖于人工审查,然而,这种方法可能受到主观因素的影响,而人工智能技术能够通过客观的图像特征分析提供更加科学和客观的支持。本文将探讨基于图像特征的法庭口供真实性分析,并提供相应的代码实例。

图像特征在法庭口供真实性分析中的应用

图像特征的重要性

在法庭口供真实性分析中,图像特征包括面部表情、眼神、身体语言等因素,这些特征可以为法官提供被告在作证过程中的真实感知。通过分析这些特征,可以更全面地了解证人的情感状态和真实性。

深度学习在图像特征分析中的应用

深度学习技术在图像处理领域取得了显著的进展。通过卷积神经网络(CNN)等深度学习模型,可以自动提取图像特征,并通过训练模型来识别真实的面部表情、眼神等信息。这为法庭口供真实性分析提供了更为高效和准确的手段。

基于图像特征的法庭口供真实性分析的代码实例

数据收集与准备

首先,需要收集包含证人口供的图像数据集。这些图像应该包括不同情境下的证人表情、眼神等特征。数据集的准备包括标注每个图像的真实性,即是否属于真实的口供。

深度学习模型的建立

使用深度学习框架如TensorFlow或PyTorch,建立一个用于口供真实性分析的卷积神经网络模型。模型的输入是证人的图像,输出是真实性的二元分类结果。

ini 复制代码
import tensorflow as tf
from tensorflow.keras import layers, models
​
# 模型定义
model = models.Sequential()
model.add(layers.Conv2D(32, (3, 3), activation='relu', input_shape=(128, 128, 3)))
model.add(layers.MaxPooling2D((2, 2)))
model.add(layers.Conv2D(64, (3, 3), activation='relu'))
model.add(layers.MaxPooling2D((2, 2)))
model.add(layers.Conv2D(64, (3, 3), activation='relu'))
model.add(layers.Flatten())
model.add(layers.Dense(64, activation='relu'))
model.add(layers.Dense(1, activation='sigmoid'))
​
# 模型编译
model.compile(optimizer='adam',
              loss='binary_crossentropy',
              metrics=['accuracy'])

模型训练与评估

使用准备好的数据集对模型进行训练,并评估其在测试集上的性能。

ini 复制代码
# 模型训练
model.fit(train_images, train_labels, epochs=10, validation_data=(val_images, val_labels))
​
# 模型评估
test_loss, test_acc = model.evaluate(test_images, test_labels)
print(f'Test accuracy: {test_acc}')

法庭口供真实性分析

以下是一个简单的基于图像特征的法庭口供真实性分析的Python代码案例。请注意,这只是一个基本的示例,实际应用中可能需要更大规模的数据集和更复杂的模型来提高准确性。

ini 复制代码
import tensorflow as tf
from tensorflow.keras import layers, models
from tensorflow.keras.preprocessing import image
from tensorflow.keras.preprocessing.image import ImageDataGenerator
import numpy as np
import os
​
# 数据集路径
train_dir = 'path/to/training_data'
test_dir = 'path/to/testing_data'
​
# 数据预处理
train_datagen = ImageDataGenerator(rescale=1./255)
test_datagen = ImageDataGenerator(rescale=1./255)
​
train_generator = train_datagen.flow_from_directory(
    train_dir,
    target_size=(128, 128),
    batch_size=32,
    class_mode='binary'
)
​
test_generator = test_datagen.flow_from_directory(
    test_dir,
    target_size=(128, 128),
    batch_size=32,
    class_mode='binary'
)
​
# 搭建卷积神经网络模型
model = models.Sequential()
model.add(layers.Conv2D(32, (3, 3), activation='relu', input_shape=(128, 128, 3)))
model.add(layers.MaxPooling2D((2, 2)))
model.add(layers.Conv2D(64, (3, 3), activation='relu'))
model.add(layers.MaxPooling2D((2, 2)))
model.add(layers.Conv2D(64, (3, 3), activation='relu'))
model.add(layers.Flatten())
model.add(layers.Dense(64, activation='relu'))
model.add(layers.Dense(1, activation='sigmoid'))
​
# 模型编译
model.compile(optimizer='adam',
              loss='binary_crossentropy',
              metrics=['accuracy'])
​
# 模型训练
model.fit(train_generator, epochs=10, validation_data=test_generator)
​
# 模型评估
test_loss, test_acc = model.evaluate(test_generator)
print(f'Test accuracy: {test_acc}')
​
# 使用模型进行预测
def predict_image(file_path):
    img = image.load_img(file_path, target_size=(128, 128))
    img_array = image.img_to_array(img)
    img_array = np.expand_dims(img_array, axis=0)
    img_array /= 255.0
​
    prediction = model.predict(img_array)
    if prediction[0] >= 0.5:
        print("口供真实")
    else:
        print("口供不真实")
​
# 示例使用模型进行预测
sample_image_path = 'path/to/sample_image.jpg'
predict_image(sample_image_path)

在这个例子中,模型使用卷积神经网络,数据集通过ImageDataGenerator进行预处理。请确保替换'path/to/training_data''path/to/testing_data'为实际的数据集路径,并将'path/to/sample_image.jpg'替换为你想要测试的图像文件路径。

这段代码使用 TensorFlow 和 Keras 构建了一个卷积神经网络(CNN)模型,对二进制分类问题进行训练和测试。以下是代码的主要步骤:

  1. 导入必要的库:

    • tensorflow 用于构建深度学习模型。
    • layersmodels 模块用于定义神经网络层和模型。
    • ImageDataGenerator 用于进行图像数据的增强和预处理。
    • numpy 用于在 Python 中进行数值计算。
    • os 用于处理文件路径。
  2. 定义训练和测试数据集的路径。

  3. 使用 ImageDataGenerator 对训练集和测试集进行数据预处理,包括归一化(rescale=1./255)和图像增强。

  4. 构建卷积神经网络模型:

    • 使用 Sequential 模型,逐层添加卷积层、池化层和全连接层。
    • 激活函数使用了 relu,输出层使用 sigmoid 激活函数进行二进制分类。
  5. 编译模型,指定优化器(Adam)、损失函数(binary_crossentropy)和评估指标(accuracy)。

  6. 训练模型,使用 fit 方法将训练集输入到模型中进行指定轮次的训练,并使用测试集进行验证。

  7. 评估模型,在测试集上计算损失和准确率。

  8. 定义了一个函数 predict_image 用于使用训练好的模型进行图像预测:

    • 加载图像,调整大小为模型输入大小。
    • 将图像转换为数组,并进行归一化。
    • 使用模型进行预测,输出为概率值。
    • 如果概率值大于等于 0.5,输出 "口供真实",否则输出 "口供不真实"。
  9. 示例使用模型进行预测,传入一个样本图像的文件路径。

注意:

  • 请替换 'path/to/training_data''path/to/testing_data' 为实际的训练和测试数据集的路径。
  • 请确保训练数据集和测试数据集的文件结构符合 ImageDataGenerator.flow_from_directory 的要求。
  • 请替换 'path/to/sample_image.jpg' 为实际的样本图像文件路径。

卷积神经网络模型(VGG16)

以下是一个更为完整和细致的基于图像特征的法庭口供真实性分析的Python代码案例。这次我们将使用预训练的卷积神经网络模型(VGG16)来提高模型的性能,同时还会使用更大规模的数据集(例如,Kaggle的FER2013表情识别数据集)。

ini 复制代码
import tensorflow as tf
from tensorflow.keras import layers, models
from tensorflow.keras.preprocessing import image
from tensorflow.keras.applications.vgg16 import VGG16, preprocess_input
from tensorflow.keras.models import Model
from tensorflow.keras.optimizers import Adam
from tensorflow.keras.preprocessing.image import ImageDataGenerator
import numpy as np
import os
​
# 下载FER2013表情识别数据集并解压缩到指定路径
# https://www.kaggle.com/c/challenges-in-representation-learning-facial-expression-recognition-challenge/data
# 将数据集中的images文件夹路径替换为下面的train_dir和test_dir
train_dir = 'path/to/fer2013/train'
test_dir = 'path/to/fer2013/test'
​
# 数据预处理
train_datagen = ImageDataGenerator(rescale=1./255)
test_datagen = ImageDataGenerator(rescale=1./255)
​
train_generator = train_datagen.flow_from_directory(
    train_dir,
    target_size=(48, 48),
    batch_size=32,
    color_mode='grayscale',
    class_mode='categorical'
)
​
test_generator = test_datagen.flow_from_directory(
    test_dir,
    target_size=(48, 48),
    batch_size=32,
    color_mode='grayscale',
    class_mode='categorical'
)
​
# 使用VGG16模型作为基础模型
base_model = VGG16(weights='imagenet', include_top=False, input_shape=(48, 48, 3))
​
# 冻结VGG16的前几层
for layer in base_model.layers:
    layer.trainable = False
​
# 在VGG16基础上构建口供真实性分析模型
x = base_model.output
x = layers.Flatten()(x)
x = layers.Dense(256, activation='relu')(x)
x = layers.Dropout(0.5)(x)
x = layers.Dense(1, activation='sigmoid')(x)
​
model = Model(inputs=base_model.input, outputs=x)
​
# 模型编译
model.compile(optimizer=Adam(lr=0.0001), loss='binary_crossentropy', metrics=['accuracy'])
​
# 模型训练
model.fit(train_generator, epochs=10, validation_data=test_generator)
​
# 模型评估
test_loss, test_acc = model.evaluate(test_generator)
print(f'Test accuracy: {test_acc}')
​
# 使用模型进行预测
def predict_image(file_path):
    img = image.load_img(file_path, target_size=(48, 48), color_mode='grayscale')
    img_array = image.img_to_array(img)
    img_array = np.expand_dims(img_array, axis=0)
    img_array = preprocess_input(img_array)
​
    prediction = model.predict(img_array)
    if prediction[0] >= 0.5:
        print("口供真实")
    else:
        print("口供不真实")
​
# 示例使用模型进行预测
sample_image_path = 'path/to/sample_image.jpg'
predict_image(sample_image_path)

请确保替换'path/to/fer2013/train''path/to/fer2013/test'为FER2013表情识别数据集的实际路径,并将'path/to/sample_image.jpg'替换为你想要测试的图像文件路径。此外,确保你已经安装了所需的Python库,可以使用pip install tensorflow scikit-learn安装。

这段代码使用了VGG16模型作为基础模型,并在其基础上构建了一个口供真实性分析模型,用于FER2013表情识别数据集。以下是代码的主要步骤:

  1. 导入必要的库:

    • tensorflow 用于构建深度学习模型。
    • layers 模块用于定义神经网络层。
    • models 模块用于定义模型。
    • VGG16 模型和 preprocess_input 函数用于图像预处理。
    • Model 用于构建复杂的模型。
    • Adam 优化器用于模型编译。
    • ImageDataGenerator 用于进行图像数据的增强和预处理。
    • numpy 用于在 Python 中进行数值计算。
    • os 用于处理文件路径。
  2. 定义FER2013表情识别数据集的训练和测试数据集路径。

  3. 使用 ImageDataGenerator 对训练集和测试集进行数据预处理,包括归一化(rescale=1./255)和图像增强。

  4. 使用 VGG16 模型作为基础模型,通过设置 include_top=Falseinput_shape=(48, 48, 3) 来适应FER2013表情识别数据集。

  5. 冻结 VGG16 的前几层,避免它们在训练过程中更新权重。

  6. 在 VGG16 的基础上构建口供真实性分析模型,包括全连接层和输出层。

  7. 编译模型,指定优化器(Adam)、损失函数(binary_crossentropy)和评估指标(accuracy)。

  8. 训练模型,使用 fit 方法将训练集输入到模型中进行指定轮次的训练,并使用测试集进行验证。

  9. 评估模型,在测试集上计算损失和准确率。

  10. 定义了一个函数 predict_image 用于使用训练好的模型进行图像预测:

    • 加载图像,调整大小为模型输入大小。
    • 将图像转换为数组,并进行预处理。
    • 使用模型进行预测,输出为概率值。
    • 如果概率值大于等于 0.5,输出 "口供真实",否则输出 "口供不真实"。
  11. 示例使用模型进行预测,传入一个样本图像的文件路径。

注意:

  • 请替换 'path/to/fer2013/train''path/to/fer2013/test' 为实际的FER2013表情识别数据集的训练和测试数据集的路径。
  • 请确保训练数据集和测试数据集的文件结构符合 ImageDataGenerator.flow_from_directory 的要求。
  • 请替换 'path/to/sample_image.jpg' 为实际的样本图像文件路径。

向量机(SVM)

下面是一个简单的基于图像特征的法庭口供真实性分析的Python代码案例,使用了OpenCV和Scikit-learn库。这个例子使用了一个基本的图像特征提取方法和支持向量机(SVM)进行分类。

ini 复制代码
import cv2
import numpy as np
from sklearn.model_selection import train_test_split
from sklearn.svm import SVC
from sklearn.metrics import accuracy_score
​
# 读取真实口供和伪口供图像
real_images = []
fake_images = []
​
# 替换以下路径为实际的数据集路径
real_images_path = 'path/to/real_images/'
fake_images_path = 'path/to/fake_images/'
​
for real_image_file in os.listdir(real_images_path):
    real_image = cv2.imread(os.path.join(real_images_path, real_image_file), cv2.IMREAD_GRAYSCALE)
    real_images.append(real_image.flatten())
​
for fake_image_file in os.listdir(fake_images_path):
    fake_image = cv2.imread(os.path.join(fake_images_path, fake_image_file), cv2.IMREAD_GRAYSCALE)
    fake_images.append(fake_image.flatten())
​
# 构建标签
real_labels = np.ones(len(real_images))
fake_labels = np.zeros(len(fake_images))
​
# 合并数据和标签
X = np.vstack((real_images, fake_images))
y = np.concatenate((real_labels, fake_labels))
​
# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
​
# 使用支持向量机进行分类
svm_model = SVC(kernel='linear')
svm_model.fit(X_train, y_train)
​
# 预测测试集
y_pred = svm_model.predict(X_test)
​
# 计算准确率
accuracy = accuracy_score(y_test, y_pred)
print(f'Test accuracy: {accuracy}')
​
# 使用模型进行预测
def predict_image(file_path):
    test_image = cv2.imread(file_path, cv2.IMREAD_GRAYSCALE)
    test_image = test_image.flatten().reshape(1, -1)
    prediction = svm_model.predict(test_image)
    
    if prediction[0] == 1:
        print("口供真实")
    else:
        print("口供不真实")
​
# 示例使用模型进行预测
sample_image_path = 'path/to/sample_image.jpg'
predict_image(sample_image_path)

确保替换'path/to/real_images/''path/to/fake_images/'为实际的数据集路径,并将'path/to/sample_image.jpg'替换为你想要测试的图像文件路径。这个例子中使用了灰度图像,可以根据实际需要调整图像的颜色通道和特征提取方法。

卷积神经网络(CNN)

以下是一个基于深度学习的图像特征法庭口供真实性分析的简单代码案例。这次我们使用了Keras和TensorFlow,构建一个卷积神经网络(CNN)来进行图像分类。同样,确保你已经安装了所需的库,可以使用pip install tensorflow scikit-learn安装。

ini 复制代码
import os
import numpy as np
import tensorflow as tf
from tensorflow.keras.preprocessing.image import ImageDataGenerator
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score
​
# 数据集路径,确保替换为实际路径
real_images_path = 'path/to/real_images/'
fake_images_path = 'path/to/fake_images/'
​
# 读取真实口供图像
real_images = []
real_labels = []
​
for real_image_file in os.listdir(real_images_path):
    real_image = tf.keras.preprocessing.image.load_img(os.path.join(real_images_path, real_image_file), target_size=(128, 128))
    real_image_array = tf.keras.preprocessing.image.img_to_array(real_image)
    real_images.append(real_image_array)
    real_labels.append(1)  # 1表示真实
​
# 读取伪造口供图像
fake_images = []
fake_labels = []
​
for fake_image_file in os.listdir(fake_images_path):
    fake_image = tf.keras.preprocessing.image.load_img(os.path.join(fake_images_path, fake_image_file), target_size=(128, 128))
    fake_image_array = tf.keras.preprocessing.image.img_to_array(fake_image)
    fake_images.append(fake_image_array)
    fake_labels.append(0)  # 0表示伪造
​
# 合并数据和标签
X = np.concatenate((real_images, fake_images), axis=0)
y = np.concatenate((real_labels, fake_labels), axis=0)
​
# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
​
# 数据预处理
X_train = X_train / 255.0
X_test = X_test / 255.0
​
# 构建卷积神经网络
model = tf.keras.Sequential([
    tf.keras.layers.Conv2D(32, (3, 3), activation='relu', input_shape=(128, 128, 3)),
    tf.keras.layers.MaxPooling2D(2, 2),
    tf.keras.layers.Conv2D(64, (3, 3), activation='relu'),
    tf.keras.layers.MaxPooling2D(2, 2),
    tf.keras.layers.Conv2D(128, (3, 3), activation='relu'),
    tf.keras.layers.MaxPooling2D(2, 2),
    tf.keras.layers.Flatten(),
    tf.keras.layers.Dense(128, activation='relu'),
    tf.keras.layers.Dense(1, activation='sigmoid')
])
​
# 编译模型
model.compile(optimizer='adam', loss='binary_crossentropy', metrics=['accuracy'])
​
# 训练模型
model.fit(X_train, y_train, epochs=10, validation_data=(X_test, y_test))
​
# 评估模型
test_loss, test_acc = model.evaluate(X_test, y_test)
print(f'Test accuracy: {test_acc}')
​
# 使用模型进行预测
def predict_image(file_path):
    test_image = tf.keras.preprocessing.image.load_img(file_path, target_size=(128, 128))
    test_image_array = tf.keras.preprocessing.image.img_to_array(test_image)
    test_image_array = np.expand_dims(test_image_array, axis=0)
    test_image_array /= 255.0
    prediction = model.predict(test_image_array)
    
    if prediction[0][0] >= 0.5:
        print("口供真实")
    else:
        print("口供不真实")
​
# 示例使用模型进行预测
sample_image_path = 'path/to/sample_image.jpg'
predict_image(sample_image_path)

确保替换'path/to/real_images/''path/to/fake_images/'为实际的数据集路径,并将'path/to/sample_image.jpg'替换为你想要测试的图像文件路径。这个例子中,我们使用了一个简单的卷积神经网络,实际应用中可能需要更复杂的模型和更大规模的数据集。

这段代码实现了使用卷积神经网络(CNN)对真实和伪造口供图像进行分类。以下是代码的主要步骤:

  1. 导入必要的库:

    • os 用于处理文件路径。
    • numpy 用于在 Python 中进行数值计算。
    • tensorflow 用于构建深度学习模型。
    • ImageDataGenerator 用于进行图像数据的增强和预处理。
    • train_test_split 用于划分训练集和测试集。
    • accuracy_score 用于计算分类准确率。
  2. 定义真实口供和伪造口供图像的路径。

  3. 读取真实口供图像并分别存储图像数组和标签(1表示真实)。

  4. 读取伪造口供图像并分别存储图像数组和标签(0表示伪造)。

  5. 合并真实和伪造图像的数据和标签。

  6. 划分训练集和测试集。

  7. 对图像数据进行归一化(除以255)。

  8. 构建卷积神经网络模型,包括卷积层、池化层和全连接层。

  9. 编译模型,指定优化器(Adam)、损失函数(binary_crossentropy)和评估指标(accuracy)。

  10. 训练模型,使用 fit 方法将训练集输入到模型中进行指定轮次的训练,并使用测试集进行验证。

  11. 评估模型,在测试集上计算损失和准确率。

  12. 定义了一个函数 predict_image 用于使用训练好的模型进行图像预测:

    • 加载图像,调整大小为模型输入大小。
    • 将图像转换为数组,并进行归一化。
    • 使用模型进行预测,输出为概率值。
    • 如果概率值大于等于 0.5,输出 "口供真实",否则输出 "口供不真实"。
  13. 示例使用模型进行预测,传入一个样本图像的文件路径。

注意:

  • 请替换 'path/to/real_images/''path/to/fake_images/' 为实际的真实口供和伪造口供图像的路径。
  • 请替换 'path/to/sample_image.jpg' 为实际的样本图像文件路径。

案例分析与讨论

实际应用与挑战

基于图像特征的法庭口供真实性分析在司法领域中具有广泛的应用前景。通过使用深度学习模型,可以更全面、客观地分析证人的面部表情、眼神等特征,为法官提供更科学的辅助决策手段。然而,这一技术也面临一些挑战,包括数据隐私和伦理问题,以及模型的可解释性等方面的需求。

数据隐私与伦理考量

在使用图像数据进行口供真实性分析时,涉及到被告的面部图像等隐私信息。为了确保合法、公正的使用,需要建立严格的数据保护和隐私法规,并采取措施确保数据的安全性。此外,对于敏感数据的使用应当遵循伦理准则,确保不对被告的个人权利造成侵害。

模型可解释性

深度学习模型在图像特征分析中取得了显著成果,但其内部机制通常被视为黑盒,难以解释模型的决策过程。在司法领域,模型的可解释性尤为重要,法官和律师需要了解模型是如何做出判断的,以确保判决的公正性和合理性。因此,未来的研究需要着重解决模型可解释性的问题。

未来发展方向

数据多样性与模型鲁棒性

为了提高模型的普适性和鲁棒性,未来研究应该注重使用更多样性的数据集进行训练。这包括考虑不同人种、年龄、性别等因素,以确保模型在不同群体中都能具有可靠性和公正性。

引入时间序列信息

法庭口供通常是一系列在时间上连续的陈述,而当前的模型主要关注单一的静态图像。未来的研究可以探索如何利用时间序列信息,例如视频数据,从而更好地捕捉证人口供的动态变化。

结合其他模态信息

除了图像特征,还可以考虑结合其他模态的信息,如语音、文字等,进行综合分析。这种多模态融合可以提供更全面的视角,增强对证人口供真实性的判断。

面向在线法庭的部署

随着科技的进步,未来有望将基于图像特征的法庭口供真实性分析技术应用于在线法庭。这将提高远程审判的效率,并为法官提供更多信息来支持他们的判断。

总结

本文探讨了基于图像特征的法庭口供真实性分析,介绍了相关的深度学习模型,并提供了简单的代码示例。通过使用这种技术,我们能够更客观、科学地分析证人口供,为司法系统提供更强大的工具。然而,这一领域仍然面临着一系列的挑战,包括数据隐私、伦理问题和模型可解释性。未来的研究应该继续改进技术,同时注重考虑社会、法律等多方面的因素,以确保技术的合理应用。随着人工智能技术的不断发展,基于图像特征的法庭口供真实性分析有望在司法实践中发挥更为重要的作用。

基于图像特征的法庭口供真实性分析是人工智能在司法领域中的一项创新应用。通过深度学习模型,我们能够更准确、客观地评估证人口供的真实性,为司法决策提供更科学的支持。然而,该技术仍面临一系列挑战,包括数据隐私、伦理问题和模型可解释性。未来的研究应该在不断改进模型的同时,关注数据隐私保护和模型的可解释性,以确保其在司法系统中的可行性和合理性。随着技术的进一步发展,基于图像特征的法庭口供真实性分析有望在司法实践中发挥更大的作用。

相关推荐
少说多想勤做1 小时前
【计算机视觉前沿研究 热点 顶会】ECCV 2024中Mamba有关的论文
人工智能·计算机视觉·目标跟踪·论文笔记·mamba·状态空间模型·eccv
宜向华2 小时前
opencv 实现两个图片的拼接去重功能
人工智能·opencv·计算机视觉
OpenVINO生态社区2 小时前
【了解ADC差分非线性(DNL)错误】
人工智能
醉后才知酒浓3 小时前
图像处理之蒸馏
图像处理·人工智能·深度学习·计算机视觉
炸弹气旋3 小时前
基于CNN卷积神经网络迁移学习的图像识别实现
人工智能·深度学习·神经网络·计算机视觉·cnn·自动驾驶·迁移学习
python_知世4 小时前
时下改变AI的6大NLP语言模型
人工智能·深度学习·自然语言处理·nlp·大语言模型·ai大模型·大模型应用
愤怒的可乐4 小时前
Sentence-BERT实现文本匹配【CoSENT损失】
人工智能·深度学习·bert
冻感糕人~4 小时前
HRGraph: 利用大型语言模型(LLMs)构建基于信息传播的HR数据知识图谱与职位推荐
人工智能·深度学习·自然语言处理·知识图谱·ai大模型·llms·大模型应用
花生糖@4 小时前
Midjourney即将推出的AI生视频产品:CEO洞见分享
人工智能·ai·aigc·midjourney
小言从不摸鱼4 小时前
【NLP自然语言处理】文本处理的基本方法
人工智能·python·自然语言处理