人工智能基础

前言

2024年新课标I卷的高考作文题目是人工智能。自2023年openai的chatgpt火爆以来,人工智能概念一直热度不减,似乎你做的事和人工智能不挂点边,都不好意思和别人说。到底什么是人工智能,什么是大模型。人工智能感觉非常高大上,做为普罗大众的一份子,可以说真正的人工智能研发和我们真的没多大关系,不过感谢那些无私奉献的开源贡献者,即使我们不懂代码,不懂底层算法,也免费使用这些神奇的AI应用。对于大多数的我们即使不会造车,我们还是可以开车的。好读书不求甚解,不做造车者,做个驾校教练或老司机也是不做的选择。今天从基础概念层面系统介绍人工智能相关概念。了解这些概念并非要深入研究他们的顶层逻辑,只是让我们对人工智能基本概念有一个感性的认识,保证我们以后在阅读开源项目的文档时不至于大脑断电。

一、人工智能发展历史、基础概念和应用

1.1人工智能发展历史

  • 1950s-1960s: AI的诞生和早期探索,如艾伦·图灵的图灵测试和早期的逻辑推理机。
  • 1970s-1980s: 专家系统的兴起,这些系统能够模拟特定领域的专家决策。
  • 1980s-1990s: 神经网络和连接主义的复兴,以及反向传播算法的引入。
  • 1990s-2000s: 机器学习成为主流,支持向量机(SVM)和其他算法的流行。
  • 2000s-2010s: 大数据的兴起和计算能力的提升,为深度学习的发展奠定了基础。
  • 2010s-现在: 深度学习革命,卷积神经网络(CNN)和变换器(Transformer)等模型在图像和语言任务中取得突破性进展。
  • 当下: AI技术的快速发展,包括强化学习、生成对抗网络(GANs)和大型预训练模型等。

1.2人工智能基础概念

人工智能(AI)是一个广泛的领域,涵盖了从简单的自动化任务到复杂的决策和问题解决的各种技术。以下是AI的一些基本概念:

  • 人工智能(Artificial Intelligence, AI): 指使机器模拟人类智能行为的科学,包括学习、推理、自我修正和感知环境等能力。
  • 机器学习(Machine Learning, ML): AI的一个分支,侧重于开发算法和统计模型,使计算机系统能够从数据中学习并做出预测或决策。
  • 深度学习(Deep Learning, DL): ML的一个子集,使用多层神经网络来模拟人类大脑处理信息的方式,特别适用于图像和语音识别等任务。
  • 神经网络(Neural Networks): 一种受人脑结构启发的计算模型,由节点(或称为神经元)和连接这些节点的边组成。
  • 监督学习(Supervised Learning): 算法从标记的训练数据中学习,以便能够预测或决定未见过的数据。
  • 无监督学习(Unsupervised Learning): 算法从未标记的数据中学习,尝试发现数据中的结构和模式。
  • 强化学习(Reinforcement Learning): 通过奖励和惩罚来训练模型,使其能够学习如何在特定环境中做出最优决策。
  • 特征提取(Feature Extraction): 从原始数据中提取有用信息的过程,这些信息对模型的预测或分类是有帮助的。

1.3人工智能应用

  • 自然语言处理(NLP): 使机器能够理解和生成人类语言。
  • 计算机视觉: 使机器能够"看"和理解图像和视频中的内容。
  • 机器人技术: 赋予机器人自主行动和决策的能力。
  • 医疗保健: 在诊断、治疗计划和患者护理中的应用。
  • 金融服务: 用于风险管理、欺诈检测和算法交易。
  • 自动驾驶汽车: 结合多种传感器和算法,使车辆能够自主导航。
  • 推荐系统: 在线服务如电商、音乐和视频流媒体平台的个性化推荐。
  • 游戏: 在视频游戏中,AI用于创建智能对手或队友。
  • 教育: 个性化学习体验和自动化评分系统。

二、基础概念详解

2.1机器学习(Machine Learning, ML)

机器学习是AI的一个子集,它侧重于开发算法和统计模型,使计算机系统能够从数据中学习并做出预测或决策。

机器学习的关键特点包括:

  • 数据驱动: 机器学习模型依赖于数据来提高性能,通过分析数据模式进行学习。
  • 模式识别: 模型能够识别数据中的模式,并利用这些模式进行预测或分类。
  • 自动化: 机器学习可以自动化决策过程,减少人为干预。
  • 适应性: 随着时间的推移,机器学习模型可以适应新数据,不断优化其性能。

机器学习的主要类型:

  • 监督学习: 模型从带有标签的训练数据中学习,以便预测未知数据的输出。
  • 无监督学习: 模型从未标记的数据中学习,以发现数据的内在结构。
  • 半监督学习: 结合了监督学习和无监督学习,使用少量标记数据和大量未标记数据。
  • 强化学习: 模型通过与环境的交互学习如何做出最优决策。

在AI中的作用:

  • 机器学习使计算机能够执行分类、回归、聚类等任务。
  • 它为自动化和智能化提供了基础,广泛应用于各个领域。

2.2 深度学习(Deep Learning, DL)

深度学习是机器学习的一个子集,它使用多层神经网络(称为深度神经网络)来模拟人类大脑处理信息的方式。

深度学习的关键特点:

  • 层次结构: 深度学习模型由多个层次组成,可以学习数据的复杂表示。
  • 特征学习: 模型能够自动学习数据的特征,无需人工设计特征提取器。
  • 大规模数据处理: 深度学习模型可以处理大量数据,从大数据中提取有价值的信息。
  • 泛化能力: 经过适当训练的深度学习模型具有良好的泛化能力,能够处理未见过的复杂任务。

深度学习的主要架构:

  • 前馈神经网络:最基本的神经网络,信息只在一个方向上流动。
  • 卷积神经网络(CNN):特别适用于图像数据,能够捕捉局部特征和空间层次结构。
  • 循环神经网络(RNN):适用于序列数据,能够处理时间序列中的动态特征。
  • 长短期记忆网络(LSTM) 和门控循环单元(GRU):改进的RNN,能够学习长期依赖关系。

关键概念:

  • 神经元(Neurons): 网络中的基本计算单元,类似于人脑中的神经元。
  • 层(Layers): 神经元的集合,数据在网络中前向传播时会逐层经过。
  • 权重(Weights) 和 偏置(Biases): 神经元的参数,决定了信号的传递强度和方向。
  • 激活函数(Activation Functions): 引入非线性,允许网络学习复杂的函数映射。

主要架构:

  • 前馈神经网络(Feedforward Neural Networks): 最简单的网络结构,数据只在一个方向上流动。
  • 卷积神经网络(CNNs): 特别适用于图像数据,能够捕捉局部特征和空间层次结构。
  • 循环神经网络(RNNs): 能够处理序列数据,适用于时间序列分析、语言模型等。
  • 长短期记忆网络(LSTMs) 和 门控循环单元(GRUs): 改进的RNN,能够学习长期依赖关系。

训练过程:

  • 使用大量的标记数据进行训练。
  • 通过反向传播算法和梯度下降来优化网络的权重和偏置。

应用领域:

  • 图像和视频识别、分割和生成。
  • 自然语言处理,包括语言翻译、文本摘要、情感分析等。
  • 语音识别和生成。
  • 推荐系统。
  • 强化学习和游戏AI。

深度学习与机器学习的关系

  • 包含关系: 深度学习是机器学习的一个子集,专注于使用深层神经网络。
  • 特征学习: 深度学习能够自动学习特征,而传统机器学习方法通常需要手动设计特征提取器。
  • 复杂性: 深度学习能够处理更复杂的数据和任务,但也需要更多的数据和计算资源。
  • 泛化能力: 经过适当训练的深度学习模型通常具有更好的泛化能力。

使用深度学习框架的开源应用

  1. TensorFlow: 由Google开发的开源机器学习框架,广泛应用于研究和生产中。
    • 应用:TensorFlow Hub、TensorFlow Lite、TensorFlow.js等。
  2. TPyTorch: 由Facebook的AI研究团队开发,特别受研究社区的欢迎。
    • 应用:PyTorch Geometric、PyTorch Lightning、Caffe2等。
  3. TKeras: 一个高层神经网络API,可以作为TensorFlow、CNTK或Theano的接口。
    • 应用:简化深度学习模型的构建和训练。
  4. TCaffe: 由加州大学伯克利分校的贾安东(Yangqing Jia)和他的团队开发的深度学习框架。
    • 应用:主要应用于图像分类和卷积神经网络。
  5. TMXNet: 由亚马逊开发的开源深度学习框架,支持灵活的编程模型和高效的硬件利用。
    • 应用:MXNet Gluon、Apache MXNet等。
  6. TTheano: 虽然已经停止开发,但曾是一个流行的深度学习库,特别是在学术研究中。
    • 应用:许多早期的深度学习模型和研究使用了Theano。
  7. TFast.ai 基于PyTorch的库,旨在简化深度学习的训练过程,特别是对于初学者。
    • 应用:提供预训练模型和教程,用于快速构建和训练深度学习模型。
  8. Hugging Face: 专注于自然语言处理的开源社区,提供多种预训练模型和工具。
    • 应用:Transformers库、Datasets库、Tokenizers库等。

2.3神经网络(Neural Networks):

神经网络(Neural Networks,简称NNs)是人工智能和机器学习领域的核心算法之一,它们受人脑结构和功能的启发,通过模仿人脑神经元网络的方式来处理信息。

神经网络的基本构成:

  1. 神经元(Neurons):
    • 神经网络由大量节点或称为"神经元"组成,每个神经元与其它神经元相连,模仿人脑中神经元的行为。
  2. 权重(Weights):
    • 连接神经元的边具有权重,这些权重决定了信号在神经元之间的传递强度。
  3. 偏置(Biases):
    • 偏置是加在神经元激活函数输入上的一个值,用于调整神经元的激活阈值。
  4. 激活函数(Activation Functions):
    • 激活函数决定了神经元是否以及何时应该被激活,常见的激活函数包括Sigmoid、Tanh、ReLU等。

神经网络的主要类型:

  1. 前馈神经网络(Feedforward Neural Networks,FNNs):
    • 最基础的神经网络,信息只在一个方向上流动,从输入层到隐藏层,最后到输出层。
  2. 卷积神经网络(Convolutional Neural Networks,CNNs):
    • 专为处理具有网格结构的数据设计,如图像(2D网格)和视频(3D网格)。CNNs能够捕捉局部特征和空间层次结构。
  3. 循环神经网络(Recurrent Neural Networks,RNNs):
    • 适合于处理序列数据,如时间序列、语音、文本等。RNNs能够记住之前处理过的序列信息。
  4. 长短期记忆网络(Long Short-Term Memory,LSTM):
    • 一种特殊类型的RNN,能够学习长期依赖关系,常用于复杂的序列预测问题。
  5. 深度神经网络(Deep Neural Networks,DNNs):
    • 包含多个隐藏层的神经网络,能够学习更复杂的数据表示。

神经网络的训练过程:

  1. 前向传播(Forward Propagation):
    • 数据在网络中从输入层经过隐藏层传递到输出层。
  2. 损失函数(Loss Function):
    • 定义一个损失函数来衡量模型预测与实际结果的差异。
  3. 反向传播(Backpropagation):
    • 利用损失函数的梯度信息,通过反向传播算法更新网络中的权重和偏置。
  4. 优化算法(Optimization Algorithms):
    • 使用优化算法(如SGD、Adam等)来调整权重,以最小化损失函数。

神经网络在AI中的应用:

  1. 图像和视频识别:
    • 神经网络,尤其是CNNs,在图像和视频识别任务中表现出色,用于物体检测、图像分类等。
  2. 自然语言处理:
    • RNNs和LSTMs在文本处理任务中非常有用,如语言翻译、情感分析、文本摘要等。
  3. 语音识别:
    • 神经网络可以处理音频信号,实现语音到文本的转换。
  4. 推荐系统:
    • 神经网络能够分析用户行为和偏好,提供个性化推荐。
  5. 游戏和强化学习:
    • 神经网络在强化学习中用于决策制定,广泛应用于游戏AI和机器人导航。
  6. 医疗诊断:
    • 神经网络分析医学图像和数据,辅助医生进行疾病诊断。
  7. 预测和分类:
    • 在金融、气象、能源等领域,神经网络用于预测和分类任务。

2.4监督学习(Supervised Learning)

监督学习(Supervised Learning)是机器学习中的一种核心方法,它从带有标签的训练数据中学习,以便能够预测或决定未见过的数据。

监督学习的基本要素:

  1. 训练数据(Training Data):
    • 监督学习需要大量带有标签的训练数据。每个训练样本包括输入特征和对应的输出标签。
  2. 特征(Features):
    • 输入数据的特征是用于进行预测的属性或变量。
  3. 标签(Labels):
    • 每个训练样本的标签是正确的输出结果,用于训练模型。
  4. 模型(Model):
    • 模型是一个函数或数学结构,能够根据输入特征进行预测。
  5. 损失函数(Loss Function):
    • 损失函数衡量模型预测与实际标签之间的差异,用于指导模型训练。
  6. 优化算法(Optimization Algorithms):
    • 用于调整模型参数以最小化损失函数的算法,如梯度下降。

监督学习的主要任务类型:

  1. 分类(Classification):
    • 任务目标是将输入数据分配到一个或多个类别中。例如,垃圾邮件检测是一个二分类问题。
  2. 回归(Regression):
    • 任务目标是预测一个连续的数值。例如,房价预测是一个回归问题。
  3. 标注(Annotation):
    • 任务目标是识别数据中的特定实体并对其进行标注,如命名实体识别。
  4. 排序(Ranking):
    • 任务目标是对一组数据进行排序,如搜索引擎的网页排序。
  5. 检测(Detection):
    • 任务目标是在数据集中识别和定位特定的事件或对象,如图像中的对象检测。

监督学习的关键步骤:

  1. 数据预处理(Data Preprocessing):
    • 包括数据清洗、标准化、特征选择等。
  2. 特征工程(Feature Engineering):
    • 从原始数据中提取和构建对模型有用的特征。
  3. 模型选择(Model Selection):
    • 选择适合问题的监督学习算法,如决策树、支持向量机、神经网络等。
  4. 模型训练(Model Training):
    • 使用训练数据来训练模型,调整模型参数。
  5. 模型评估(Model Evaluation):
    • 使用验证集或交叉验证来评估模型性能。
  6. 模型优化(Model Optimization):
    • 通过调整模型结构或参数来提高模型性能。
  7. 模型部署(Model Deployment):
    • 将训练好的模型部署到生产环境中进行实际应用。

监督学习在AI中的应用:

  1. 图像识别:
    • 使用监督学习训练的模型可以识别图像中的物体、场景等。
  2. 语音识别:
    • 监督学习用于将音频信号转换为文本。
  3. 医疗诊断:
    • 通过分析医疗数据,监督学习模型可以帮助诊断疾病。
  4. 股票市场预测:
    • 监督学习模型可以预测股票价格或市场趋势。
  5. 推荐系统:
    • 监督学习可以用于构建推荐系统,为用户推荐商品或内容。
  6. 情感分析:
    • 分析文本数据,确定其情感倾向,如积极、消极或中性。
  7. 自动驾驶:
    • 监督学习在自动驾驶汽车的感知和决策系统中发挥作用。

2.5无监督学习(Unsupervised Learning)

无监督学习(Unsupervised Learning)是机器学习中的一种方法,它处理的数据不带有标签,目标是发现数据中的结构和模式。

无监督学习的基本要素:

数据(Data):

无监督学习使用的数据集不包含标签,即只有特征而没有对应的输出结果。

特征(Features):

数据集中的每个样本由一组特征值组成,这些特征是模型试图理解的原始信息。

模式(Patterns):

无监督学习试图发现数据中的模式,这些模式可以是数据的内在结构或分布。

模型(Model):

无监督学习模型能够处理未标记的数据,并尝试提取数据的有用信息。

无监督学习的主要任务类型:

  1. 聚类(Clustering):
    • 将数据集中的样本分组,使得同一组内的样本相似度高,不同组之间的样本相似度低。
  2. 关联规则学习(Association Rule Learning):
    • 发现数据项之间的有趣关系,如频繁项集和关联规则。
  3. 异常检测(Anomaly Detection):
    • 识别数据集中的异常或离群点,这些点与大多数数据显著不同。
  4. 降维(Dimensionality Reduction):
    • 减少数据的维度,同时尽可能保留原始数据的重要信息。
  5. 特征学习(Feature Learning):
    • 自动发现数据中的有用特征,而不是依赖于人工设计的特征。
  6. 生成模型(Generative Models):
    • 学习数据的生成过程,能够生成新的数据实例。

无监督学习的关键步骤:

  1. 数据预处理(Data Preprocessing):
    • 包括数据清洗、标准化等,以提高模型性能。
  2. 模型选择(Model Selection):
    • 根据数据特性和任务需求选择合适的无监督学习算法。
  3. 模型训练(Model Training):
    • 训练模型以发现数据中的结构和模式。
  4. 模型评估(Model Evaluation):
    • 评估模型的性能,通常使用非监督的指标,如聚类质量指标。
  5. 结果解释(Result Interpretation):
    • 解释模型发现的结构和模式,以获得有用的洞察。

无监督学习在AI中的应用:

  1. 市场细分(Market Segmentation):
    • 使用聚类算法将消费者分成不同的细分市场。
  2. 社交网络分析(Social Network Analysis):
    • 发现社交网络中社区结构和关键影响者。
  3. 推荐系统(Recommendation Systems):
    • 通过分析用户行为模式来推荐商品或服务。
  4. 异常检测(Anomaly Detection):
    • 在信用卡欺诈检测、网络安全等领域识别异常行为。
  5. 图像分析(Image Analysis):
    • 在图像分割、背景提取等任务中发现图像的内在结构。
  6. 自然语言处理(Natural Language Processing):
    • 通过主题建模等技术发现文本数据的主题和结构。
  7. 生物信息学(Bioinformatics):
    • 在基因表达数据分析中发现模式和关联。
  8. 数据压缩(Data Compression):
    • 使用降维技术减少数据存储和传输的需求。

2.6强化学习(Reinforcement Learning,RL)

强化学习(Reinforcement Learning,RL)是机器学习的一个重要分支,它主要关注如何在环境中采取行动以最大化某种累积奖励。

强化学习的基本要素:

  1. 智能体(Agent):
    • 智能体是强化学习中的主体,它通过与环境交互来学习最佳行为策略。
  2. 环境(Environment):
    • 环境是智能体所处并进行交互的外部世界,它根据智能体的行为提供反馈。
  3. 状态(State):
    • 状态是环境在某一时刻的描述,通常是智能体观察到的环境特征。
  4. 行为(Action):
    • 行为是智能体在给定状态下所采取的决策。
  5. 奖励(Reward):
    • 奖励是智能体采取行为后从环境中获得的即时反馈,用于指导学习过程。
  6. 策略(Policy):
    • 策略是从状态到行为的映射,智能体通过学习来优化这个映射。
  7. 价值函数(Value Function):
    • 价值函数评估采取某个策略后获得的累积奖励的期望值。
  8. Q函数(Q Function):
    • Q函数预测在给定状态下采取特定行为的期望累积奖励。

强化学习的主要算法类型:

  1. 模型自由学习(Model-Free Learning):
    • 直接从状态和行为中学习策略和价值函数,而不尝试预测环境的动态。
    • 包括Q学习、SARSA、DQN等。
  2. 模型基础学习(Model-Based Learning):
    • 学习环境的模型,并使用这个模型来预测状态转移和奖励。
  3. 策略梯度方法(Policy Gradient Methods):
    • 直接优化策略的参数,使得期望奖励最大化。
  4. 演员-评论家方法(Actor-Critic Methods):
    • 结合了策略梯度方法和价值函数估计,演员负责决策,评论家负责评估。
  5. 深度强化学习(Deep Reinforcement Learning,DRL):
    • 结合深度学习与强化学习,使用神经网络来处理高维数据。

强化学习的关键步骤:

  1. 探索(Exploration):
    • 智能体需要探索不同的行为以发现更好的策略。
  2. 利用(Exploitation):
    • 智能体利用已知的信息来选择最佳行为。
  3. 学习更新(Learning Update):
    • 根据奖励和观察到的结果更新策略和价值函数。
  4. 策略迭代(Policy Iteration):
    • 迭代地改进策略,直到收敛到最优策略。
  5. 价值迭代(Value Iteration):
    • 迭代地更新价值函数,直到收敛到最优价值。

强化学习在AI中的应用:

  1. 游戏(Games):
    • 强化学习在各种游戏中都有应用,如AlphaGo、Dota 2、StarCraft等。
  2. 机器人(Robotics):
    • 用于机器人的导航、操控和自主决策。
  3. 自动驾驶汽车(Autonomous Vehicles):
    • 强化学习用于自动驾驶系统中的决策制定。
  4. 资源管理(Resource Management):
    • 如电网管理、网络流量控制等。
  5. 推荐系统(Recommendation Systems):
    • 强化学习可以提供个性化的推荐。
  6. 金融交易(Financial Trading):
    • 用于开发交易策略和风险管理。
  7. 健康医疗(Healthcare):
    • 如患者治疗计划的优化。
  8. 自然语言处理(Natural Language Processing):
    • 如对话系统和机器翻译中的决策制定。

三、大模型概念

大模型,特别是在自然语言处理(NLP)和计算机视觉(CV)领域的模型,通常会集成多种人工智能技术来实现其功能。以下是一些常见的技术,以及它们是如何在大模型中应用的:

  1. 深度学习(Deep Learning):
    • 大模型通常基于深度学习架构,尤其是变换器(Transformer)模型,它使用多层神经网络来学习数据的复杂表示。
  2. 变换器(Transformers):
    • 变换器架构因其自注意力机制而成为大模型的核心技术,特别是在处理序列数据时。
  3. 预训练和微调(Pre-training and Fine-tuning):
    • 大模型往往先在大规模数据集上进行预训练,学习通用的语言或视觉模式,然后在特定任务上进行微调。
  4. 自监督学习(Self-Supervised Learning):
    • 通过自监督学习任务,如预测文本中缺失的单词或图像的某些部分,大模型能够从未标记的数据中学习。
  5. 多任务学习(Multi-Task Learning):
    • 大模型可能被设计为执行多个任务,通过共享表示来提高效率和性能。
  6. 注意力机制(Attention Mechanisms):
    • 注意力机制允许模型在处理信息时聚焦于最重要的部分,这对于理解和生成语言和图像至关重要。
  7. 卷积神经网络(CNNs):
    • 尽管主要用于计算机视觉,但CNNs也可能被集成到大模型中,用于图像处理任务。
  8. 循环神经网络(RNNs):
    • RNNs,特别是LSTM和GRU,可以用于处理序列数据,尽管在大模型中不如变换器普遍。
  9. 特征提取(Feature Extraction):
    • 大模型通过其架构自动提取特征,无需手动设计特征提取器。
  10. 生成对抗网络(GANs):
    • 在生成任务中,如图像合成或文本到图像生成,GANs可能被用于生成高质量数据。
  11. 强化学习(Reinforcement Learning):
    • 虽然在大模型中不常见,但强化学习可能用于优化模型的某些方面,如超参数调整。
  12. 知识蒸馏(Knowledge Distillation):
    • 知识蒸馏技术可以用于将大型模型的知识传递给小型模型,以减少部署时的资源需求。
  13. 稀疏注意力(Sparse Attention):
    • 为了提高效率,一些大模型采用稀疏注意力模式,只关注输入序列中的一部分。
  14. 混合精度训练(Mixed Precision Training):
    • 使用混合精度可以减少模型训练时的内存使用和加速计算。
  15. 分布式训练(Distributed Training):
    • 大模型通常在多个GPU或TPU上进行分布式训练,以处理大规模数据集。
  16. 鲁棒性和伦理考量:
    • 在设计和训练大模型时,需要考虑模型的鲁棒性和伦理问题,确保模型的公正性和透明度。
  17. 开源和社区贡献:
    • 开源模型促进了社区的贡献和协作,加速了技术的发展。
相关推荐
Coovally AI模型快速验证3 分钟前
YOLO11全解析:从原理到实战,全流程体验下一代目标检测
人工智能·yolo·目标检测·机器学习·计算机视觉·目标跟踪·yolo11
湫ccc36 分钟前
《Opencv》基础操作详解(2)
人工智能·opencv·计算机视觉
羑悻的小杀马特36 分钟前
【AIGC篇】畅谈游戏开发设计中AIGC所发挥的不可或缺的作用
c++·人工智能·aigc·游戏开发
CES_Asia1 小时前
国资助力科技创新,闪耀CES Asia 2025
人工智能·科技·智能手机·智能音箱·智能电视
eric-sjq1 小时前
基于xiaothink对Wanyv-50M模型进行c-eval评估
人工智能·python·语言模型·自然语言处理·github
是十一月末1 小时前
机器学习之KNN算法预测数据和数据可视化
人工智能·python·算法·机器学习·信息可视化
工业互联网专业1 小时前
基于OpenCV和Python的人脸识别系统_django
人工智能·python·opencv·django·毕业设计·源码·课程设计
ai产品老杨2 小时前
报警推送消息升级的名厨亮灶开源了。
vue.js·人工智能·安全·开源·音视频
智源研究院官方账号2 小时前
智源研究院与安谋科技达成战略合作,共建开源AI“芯”生态
人工智能·开源
积兆科技2 小时前
从汽车企业案例看仓网规划的关键步骤(视频版)
人工智能·算法·汽车·制造