用大模型学大模型03-数学基础 概率论 随机变量 概率分布

deepseek.com:什么是概率,什么是随机变量?深度学习中常用概率的分布有哪些?

1. 什么是概率?

概率是描述事件发生的可能性的数值,范围在 0 到 1 之间:

  • 0:事件不可能发生。
  • 1:事件必然发生。
  • 0.5:事件有一半的可能性发生。

概率用于量化不确定性,是机器学习和深度学习的核心概念之一。


2. 什么是随机变量?

随机变量是将随机事件的结果映射到数值的函数,分为两种类型:

  • 离散随机变量:取有限或可数无限个值(如掷骰子的结果)。
  • 连续随机变量:取无限不可数的值(如某地区的温度)。

随机变量通常用大写字母表示(如 X X X),其具体取值用小写字母表示(如 x x x)。


3. 深度学习中常用的概率分布

深度学习中使用多种概率分布来描述数据和模型的随机性,以下是一些常见的分布:

(1)离散分布
  1. 伯努利分布(Bernoulli Distribution)

    • 描述二值随机变量(如抛硬币)。
    • 参数: p p p(事件发生的概率)。
    • 公式: P ( X = 1 ) = p P(X=1) = p P(X=1)=p, P ( X = 0 ) = 1 − p P(X=0) = 1-p P(X=0)=1−p。
  2. 二项分布(Binomial Distribution)

    • 描述 n n n次独立伯努利试验中成功的次数。
    • 参数: n n n(试验次数), p p p(每次成功的概率)。
    • 公式: P ( X = k ) = C ( n , k ) ⋅ p k ⋅ ( 1 − p ) n − k P(X=k) = C(n,k) \cdot p^k \cdot (1-p)^{n-k} P(X=k)=C(n,k)⋅pk⋅(1−p)n−k。
  3. 多项分布(Multinomial Distribution)

    • 伯努利分布的推广,描述多类别随机变量。
    • 参数:试验次数 n n n,概率向量 p = ( p 1 , p 2 , ... , p k ) \mathbf{p} = (p_1, p_2, \dots, p_k) p=(p1,p2,...,pk)。
    • 公式: P ( X 1 = x 1 , X 2 = x 2 , ... , X k = x k ) = n ! x 1 ! x 2 ! ... x k ! p 1 x 1 p 2 x 2 ... p k x k P(X_1=x_1, X_2=x_2, \dots, X_k=x_k) = \frac{n!}{x_1! x_2! \dots x_k!} p_1^{x_1} p_2^{x_2} \dots p_k^{x_k} P(X1=x1,X2=x2,...,Xk=xk)=x1!x2!...xk!n!p1x1p2x2...pkxk。
(2)连续分布
  1. 均匀分布(Uniform Distribution)

    • 描述区间内所有值概率相等的随机变量。
    • 参数:区间 [ a , b ] [a, b] [a,b]。
    • 公式: f ( x ) = 1 b − a f(x) = \frac{1}{b-a} f(x)=b−a1, x ∈ [ a , b ] x \in [a, b] x∈[a,b]。
  2. 正态分布(Normal Distribution / Gaussian Distribution)

    • 描述大量独立随机变量的总和。
    • 参数:均值 μ \mu μ,方差 σ 2 \sigma^2 σ2。
    • 公式: f ( x ) = 1 2 π σ 2 exp ⁡ ( − ( x − μ ) 2 2 σ 2 ) f(x) = \frac{1}{\sqrt{2\pi\sigma^2}} \exp\left(-\frac{(x-\mu)^2}{2\sigma^2}\right) f(x)=2πσ2 1exp(−2σ2(x−μ)2)。
  3. 指数分布(Exponential Distribution)

    • 描述事件发生的时间间隔。
    • 参数: λ \lambda λ(事件发生率)。
    • 公式: f ( x ) = λ e − λ x f(x) = \lambda e^{-\lambda x} f(x)=λe−λx, x ≥ 0 x \geq 0 x≥0。
  4. 拉普拉斯分布(Laplace Distribution)

    • 类似正态分布,但尾部更重。
    • 参数:位置参数 μ \mu μ,尺度参数 b b b。
    • 公式: f ( x ) = 1 2 b exp ⁡ ( − ∣ x − μ ∣ b ) f(x) = \frac{1}{2b} \exp\left(-\frac{|x-\mu|}{b}\right) f(x)=2b1exp(−b∣x−μ∣)。
  5. Beta 分布(Beta Distribution)

    • 描述区间 [ 0 , 1 ] [0, 1] [0,1]上的随机变量。
    • 参数: α \alpha α, β \beta β。
    • 公式: f ( x ) = x α − 1 ( 1 − x ) β − 1 B ( α , β ) f(x) = \frac{x^{\alpha-1}(1-x)^{\beta-1}}{B(\alpha, \beta)} f(x)=B(α,β)xα−1(1−x)β−1,其中 B ( α , β ) B(\alpha, \beta) B(α,β)是 Beta 函数。
  6. Gamma 分布(Gamma Distribution)

    • 描述正值的随机变量。
    • 参数:形状参数 k k k,尺度参数 θ \theta θ。
    • 公式: f ( x ) = x k − 1 e − x / θ θ k Γ ( k ) f(x) = \frac{x^{k-1} e^{-x/\theta}}{\theta^k \Gamma(k)} f(x)=θkΓ(k)xk−1e−x/θ,其中 Γ ( k ) \Gamma(k) Γ(k)是 Gamma 函数。
(3)深度学习中的常见应用
  • 正态分布:用于初始化神经网络权重(如 Xavier 初始化、He 初始化)。
  • 伯努利分布:用于二分类问题(如逻辑回归)。
  • 多项分布:用于多分类问题(如 Softmax 输出)。
  • Beta 分布:用于贝叶斯优化和概率建模。
  • 拉普拉斯分布:用于稀疏性建模(如 L1 正则化)。

4. 总结

  • 概率:描述事件发生的可能性。
  • 随机变量:将随机事件映射为数值的函数。
  • 常用分布:深度学习中使用多种分布(如正态分布、伯努利分布、多项分布等)来描述数据和模型的随机性。

这些分布在深度学习中被广泛用于模型设计、优化和推理。

deepseek.com:上述所说的分布中,随机事件的结果是什么?映射到数值的函数是什么

在概率论中,随机事件的结果随机变量是两个核心概念。下面我们详细解释这两个问题,并结合具体的概率分布来说明。


1. 随机事件的结果是什么?

随机事件的结果是指某个随机试验的可能输出。例如:

  • 抛硬币:结果是"正面"或"反面"。
  • 掷骰子:结果是 1、2、3、4、5 或 6。
  • 测量温度:结果是某个实数值(如 25.3°C)。

随机事件的结果可以是离散的(如抛硬币、掷骰子)或连续的(如测量温度)。


2. 映射到数值的函数是什么?

随机变量是将随机事件的结果映射到数值的函数。它的作用是将随机事件的结果量化,以便进行数学分析。

举例说明:
  1. 抛硬币

    • 随机事件的结果:{正面, 反面}。
    • 随机变量 X X X的定义:
      X ( 正面 ) = 1 , X ( 反面 ) = 0 X(\text{正面}) = 1, \quad X(\text{反面}) = 0 X(正面)=1,X(反面)=0
    • 这里,随机变量 X X X将"正面"映射为 1,"反面"映射为 0。
  2. 掷骰子

    • 随机事件的结果:{1, 2, 3, 4, 5, 6}。
    • 随机变量 Y Y Y的定义:
      Y ( 结果 ) = 结果对应的数值 Y(\text{结果}) = \text{结果对应的数值} Y(结果)=结果对应的数值
    • 例如, Y ( 掷出 3 ) = 3 Y(\text{掷出 3}) = 3 Y(掷出 3)=3。
  3. 测量温度

    • 随机事件的结果:某个实数值(如 25.3°C)。
    • 随机变量 T T T的定义:
      T ( 温度 ) = 温度值 T(\text{温度}) = \text{温度值} T(温度)=温度值
    • 例如, T ( 25.3°C ) = 25.3 T(\text{25.3°C}) = 25.3 T(25.3°C)=25.3。

3. 结合具体分布说明

以下是一些常见分布中随机事件的结果和随机变量的映射:

(1)伯努利分布(Bernoulli Distribution)
  • 随机事件的结果:{成功, 失败}。
  • 随机变量 X X X
    X ( 成功 ) = 1 , X ( 失败 ) = 0 X(\text{成功}) = 1, \quad X(\text{失败}) = 0 X(成功)=1,X(失败)=0
  • 概率分布
    P ( X = 1 ) = p , P ( X = 0 ) = 1 − p P(X=1) = p, \quad P(X=0) = 1-p P(X=1)=p,P(X=0)=1−p
(2)二项分布(Binomial Distribution)
  • 随机事件的结果 : n n n次独立伯努利试验中成功的次数(0, 1, 2, ..., n)。
  • 随机变量 X X X
    X ( 成功次数 ) = k ( k = 0 , 1 , 2 , ... , n ) X(\text{成功次数}) = k \quad (k = 0, 1, 2, \dots, n) X(成功次数)=k(k=0,1,2,...,n)
  • 概率分布
    P ( X = k ) = C ( n , k ) ⋅ p k ⋅ ( 1 − p ) n − k P(X=k) = C(n,k) \cdot p^k \cdot (1-p)^{n-k} P(X=k)=C(n,k)⋅pk⋅(1−p)n−k
(3)正态分布(Normal Distribution)
  • 随机事件的结果:任意实数值(如测量温度、身高)。
  • 随机变量 X X X
    X ( 测量值 ) = x ( x ∈ R ) X(\text{测量值}) = x \quad (x \in \mathbb{R}) X(测量值)=x(x∈R)
  • 概率分布
    f ( x ) = 1 2 π σ 2 exp ⁡ ( − ( x − μ ) 2 2 σ 2 ) f(x) = \frac{1}{\sqrt{2\pi\sigma^2}} \exp\left(-\frac{(x-\mu)^2}{2\sigma^2}\right) f(x)=2πσ2 1exp(−2σ2(x−μ)2)
(4)均匀分布(Uniform Distribution)
  • 随机事件的结果 :某个区间 [ a , b ] [a, b] [a,b]内的任意实数值。
  • 随机变量 X X X
    X ( 取值 ) = x ( x ∈ [ a , b ] ) X(\text{取值}) = x \quad (x \in [a, b]) X(取值)=x(x∈[a,b])
  • 概率分布
    f ( x ) = 1 b − a ( x ∈ [ a , b ] ) f(x) = \frac{1}{b-a} \quad (x \in [a, b]) f(x)=b−a1(x∈[a,b])
(5)多项分布(Multinomial Distribution)
  • 随机事件的结果 : n n n次独立试验中,每个类别出现的次数。
  • 随机变量 X = ( X 1 , X 2 , ... , X k ) \mathbf{X} = (X_1, X_2, \dots, X_k) X=(X1,X2,...,Xk)
    X i ( 类别 i 出现的次数 ) = x i ( i = 1 , 2 , ... , k ) X_i(\text{类别 } i \text{ 出现的次数}) = x_i \quad (i = 1, 2, \dots, k) Xi(类别 i 出现的次数)=xi(i=1,2,...,k)
  • 概率分布
    P ( X 1 = x 1 , X 2 = x 2 , ... , X k = x k ) = n ! x 1 ! x 2 ! ... x k ! p 1 x 1 p 2 x 2 ... p k x k P(X_1=x_1, X_2=x_2, \dots, X_k=x_k) = \frac{n!}{x_1! x_2! \dots x_k!} p_1^{x_1} p_2^{x_2} \dots p_k^{x_k} P(X1=x1,X2=x2,...,Xk=xk)=x1!x2!...xk!n!p1x1p2x2...pkxk

4. 总结

  • 随机事件的结果:随机试验的可能输出(如抛硬币的"正面"或"反面")。
  • 随机变量:将随机事件的结果映射到数值的函数(如将"正面"映射为 1,"反面"映射为 0)。
  • 概率分布:描述随机变量取值的概率规律(如伯努利分布、正态分布等)。

通过随机变量,我们可以将抽象的随机事件转化为具体的数值,从而利用数学工具进行分析和建模。

deepseek.com:这些概率分布在深度学习中的哪些场景有应用?

在深度学习中,概率分布广泛应用于模型设计、优化、推理和生成任务中。以下是这些分布在深度学习中的具体应用场景:


1. 伯努利分布(Bernoulli Distribution)

  • 应用场景
    • 二分类问题:如逻辑回归(Logistic Regression)中,模型的输出可以看作是一个伯努利分布,表示某个类别的概率。
    • Dropout:在训练神经网络时,Dropout 随机将神经元的输出置为 0,可以看作是一个伯努利分布。
    • 生成模型:在生成对抗网络(GAN)中,判别器的输出可以看作是一个伯努利分布,表示输入数据是真实数据的概率。

2. 二项分布(Binomial Distribution)

  • 应用场景
    • 多批次训练:在深度学习中,训练数据通常被分成多个批次(mini-batch),每个批次的损失可以看作是二项分布的样本。
    • 模型评估:在分类任务中,模型的准确率可以看作是多次独立伯努利试验的结果,服从二项分布。

3. 多项分布(Multinomial Distribution)

  • 应用场景
    • 多分类问题:在 Softmax 回归中,模型的输出是一个多项分布,表示每个类别的概率。
    • 语言模型:在自然语言处理(NLP)中,语言模型预测下一个词的概率分布可以看作是一个多项分布。
    • 词嵌入:在 Word2Vec 等词嵌入模型中,目标词的预测可以看作是一个多项分布。

4. 正态分布(Normal Distribution / Gaussian Distribution)

  • 应用场景
    • 权重初始化:在神经网络中,权重通常使用正态分布进行初始化(如 Xavier 初始化、He 初始化)。
    • 正则化:在贝叶斯神经网络中,权重的先验分布通常假设为正态分布。
    • 变分自编码器(VAE):在 VAE 中,潜在变量的分布通常假设为正态分布。
    • 噪声建模:在生成模型(如 GAN)中,噪声输入通常服从正态分布。

5. 均匀分布(Uniform Distribution)

  • 应用场景
    • 权重初始化:在某些情况下,神经网络的权重可以使用均匀分布进行初始化。
    • 数据增强:在图像处理中,随机裁剪、旋转等操作可以看作是均匀分布的应用。
    • 随机搜索:在超参数优化中,随机搜索可以使用均匀分布来采样超参数。

6. 指数分布(Exponential Distribution)

  • 应用场景
    • 时间序列建模:在时间序列数据中,事件发生的时间间隔可以建模为指数分布。
    • 强化学习:在强化学习中,某些策略的探索可以基于指数分布。

7. 拉普拉斯分布(Laplace Distribution)

  • 应用场景
    • 稀疏性建模:在 L1 正则化中,拉普拉斯分布被用作权重的先验分布,以促进稀疏性。
    • 噪声建模:在某些生成模型中,拉普拉斯分布被用来建模噪声。

8. Beta 分布(Beta Distribution)

  • 应用场景
    • 贝叶斯优化:在超参数优化中,Beta 分布被用来建模超参数的概率分布。
    • 多臂赌博机问题:在强化学习中,Beta 分布被用来建模每个动作的成功概率。

9. Gamma 分布(Gamma Distribution)

  • 应用场景
    • 正则化:在贝叶斯神经网络中,Gamma 分布被用作某些超参数(如精度)的先验分布。
    • 时间间隔建模:在时间序列数据中,Gamma 分布被用来建模事件发生的时间间隔。

10. Dirichlet 分布(Dirichlet Distribution)

  • 应用场景
    • 主题模型:在 Latent Dirichlet Allocation (LDA) 中,Dirichlet 分布被用来建模主题分布。
    • 多分类问题:在贝叶斯多分类问题中,Dirichlet 分布被用作类别的先验分布。

总结

概率分布在深度学习中的应用非常广泛,涵盖了模型设计、优化、推理和生成任务等多个方面。以下是一些常见的应用场景:

分布类型 应用场景
伯努利分布 二分类问题、Dropout、生成模型
二项分布 多批次训练、模型评估
多项分布 多分类问题、语言模型、词嵌入
正态分布 权重初始化、正则化、变分自编码器、噪声建模
均匀分布 权重初始化、数据增强、随机搜索
指数分布 时间序列建模、强化学习
拉普拉斯分布 稀疏性建模、噪声建模
Beta 分布 贝叶斯优化、多臂赌博机问题
Gamma 分布 正则化、时间间隔建模
Dirichlet 分布 主题模型、贝叶斯多分类问题

通过合理选择和使用这些分布,可以更好地建模数据的不确定性,并提升深度学习模型的性能。

期望和方差参见

https://metaso.cn/s/XqbT3Qe

根据您的需求,我将为您整理一个入门级的概率论与统计学教程,涵盖随机变量、概率分布、期望与方差等内容,并结合具体实例进行说明。以下是详细的讲解:

一、概率基础

概率是描述随机事件发生可能性的数学工具,其值介于0到1之间,表示事件发生的可能性大小。例如,抛掷一枚公平的硬币,出现正面的概率为0.5。

二、随机变量

随机变量是将随机试验的结果映射到实数集上的函数,分为离散型和连续型两种类型:

  1. 离散型随机变量:取值为有限或可数无限多个值。例如,掷骰子的结果(1到6)是离散型随机变量。
  2. 连续型随机变量:取值为某一区间内的任意实数。例如,测量某地一天的温度值是连续型随机变量。
具体例子:
  • 离散型随机变量:假设掷两次骰子,记录两次点数之和。可能的取值为2到12,这是一个有限的离散型随机变量。
  • 连续型随机变量:假设测量某地一天的降雨量,其可能的取值范围为[0, ∞),这是一个连续型随机变量。

三、概率分布

概率分布描述了随机变量取值的概率规律,分为离散型和连续型概率分布:

  1. 离散型概率分布 :通过概率质量函数(PMF)描述。例如:
    • 二项分布 :描述n次独立伯努利试验中成功次数的概率分布。设每次试验成功的概率为p,则二项分布的概率质量函数为:
      P ( X = k ) = C n k p k ( 1 − p ) n − k P(X = k) = C_n^k p^k (1-p)^{n-k} P(X=k)=Cnkpk(1−p)n−k

其中, C n k C_n^k Cnk为组合数,表示从n次试验中选择k次成功的方案数。

  • 泊松分布 :用于描述单位时间内某事件发生的次数。设事件发生的平均次数为λ,则泊松分布的概率质量函数为:
    P ( X = k ) = e − λ λ k k ! P(X = k) = \frac{e^{-\lambda} \lambda^k}{k!} P(X=k)=k!e−λλk

泊松分布常用于词频统计等场景。

  1. 连续型概率分布 :通过概率密度函数(PDF)描述。例如:
    • 正态分布(高斯分布) :具有钟形曲线,常用于描述自然和社会现象中的数据。其概率密度函数为:
      f ( x ) = 1 2 π σ e − ( x − μ ) 2 2 σ 2 f(x) = \frac{1}{\sqrt{2\pi}\sigma} e^{-\frac{(x-\mu)^2}{2\sigma^2}} f(x)=2π σ1e−2σ2(x−μ)2

其中,μ为均值,σ为标准差。

  • 均匀分布 :在区间[a, b]内取值的概率相等。其概率密度函数为:
    f ( x ) = 1 b − a , a ≤ x ≤ b f(x) = \frac{1}{b-a}, \quad a \leq x \leq b f(x)=b−a1,a≤x≤b

均匀分布在神经网络权重初始化中经常被使用。

具体例子:
  • 二项分布:假设抛掷一枚硬币10次,计算出现正面次数的概率分布。若正面出现的概率为0.5,则该问题可以用二项分布描述。
  • 泊松分布:假设某网站每分钟收到的访问请求次数为3次,则可以用泊松分布描述该网站在任意一小时内收到的总访问请求次数。
  • 正态分布:假设某城市居民的身高服从均值为170cm、标准差为5cm的正态分布,则可以计算身高在165cm到175cm之间的概率。

四、期望与方差

  1. 期望(均值) :衡量随机变量的中心位置,定义为所有可能取值的加权平均值。

    • 离散型随机变量的期望公式为:
      E ( X ) = ∑ x x P ( X = x ) E(X) = \sum_{x} x P(X = x) E(X)=x∑xP(X=x)

    • 连续型随机变量的期望公式为:
      E ( X ) = ∫ − ∞ ∞ x f ( x ) d x E(X) = \int_{-\infty}^{\infty} x f(x) dx E(X)=∫−∞∞xf(x)dx

    例如,对于二项分布,其期望为np。

  2. 方差:衡量随机变量取值的离散程度,定义为随机变量与其期望的偏差平方的期望值。

    • 离散型随机变量的方差公式为:
      V a r ( X ) = E [ ( X − E ( X ) ) 2 ] = ∑ x ( x − E ( X ) ) 2 P ( X = x ) Var(X) = E[(X - E(X))^2] = \sum_{x} (x - E(X))^2 P(X = x) Var(X)=E[(X−E(X))2]=x∑(x−E(X))2P(X=x)

    • 连续型随机变量的方差公式为:
      V a r ( X ) = E [ ( X − E ( X ) ) 2 ] = ∫ − ∞ ∞ ( x − E ( X ) ) 2 f ( x ) d x Var(X) = E[(X - E(X))^2] = \int_{-\infty}^{\infty} (x - E(X))^2 f(x) dx Var(X)=E[(X−E(X))2]=∫−∞∞(x−E(X))2f(x)dx

    例如,对于二项分布,其方差为np(1-p)。

具体例子:
  • 期望与方差计算 :假设掷一枚骰子,其结果为1到6。计算其期望和方差。
    • 期望 E ( X ) = 1 + 2 + 3 + 4 + 5 + 6 6 = 3.5 E(X) = \frac{1+2+3+4+5+6}{6} = 3.5 E(X)=61+2+3+4+5+6=3.5。
    • 方差 V a r ( X ) = ( 1 − 3.5 ) 2 + ( 2 − 3.5 ) 2 + . . . + ( 6 − 3.5 ) 2 6 = 2.9167 Var(X) = \frac{(1-3.5)^2 + (2-3.5)^2 + ... + (6-3.5)^2}{6} = 2.9167 Var(X)=6(1−3.5)2+(2−3.5)2+...+(6−3.5)2=2.9167。

五、实例分析

以下通过一个简单的实例来说明上述概念的应用:

实例:掷骰子与期望计算

假设掷一枚骰子,记录其点数。定义随机变量 X X X 表示掷出的点数。

  1. 概率分布

    • P ( X = 1 ) = P ( X = 2 ) = . . . = P ( X = 6 ) = 1 6 P(X=1) = P(X=2) = ... = P(X=6) = \frac{1}{6} P(X=1)=P(X=2)=...=P(X=6)=61。
    • 概率质量函数为:
      P ( X = k ) = 1 6 , k = 1 , 2 , . . . , 6 P(X = k) = \frac{1}{6}, \quad k = 1, 2, ..., 6 P(X=k)=61,k=1,2,...,6
  2. 期望计算

    • 根据期望公式:
      E ( X ) = 1 ⋅ P ( X = 1 ) + 2 ⋅ P ( X = 2 ) + . . . + 6 ⋅ P ( X = 6 ) E(X) = 1 \cdot P(X=1) + 2 \cdot P(X=2) + ... + 6 \cdot P(X=6) E(X)=1⋅P(X=1)+2⋅P(X=2)+...+6⋅P(X=6)

计算得:
E ( X ) = 1 ⋅ 1 6 + 2 ⋅ 1 6 + . . . + 6 ⋅ 1 6 = 3.5 E(X) = 1 \cdot \frac{1}{6} + 2 \cdot \frac{1}{6} + ... + 6 \cdot \frac{1}{6} = 3.5 E(X)=1⋅61+2⋅61+...+6⋅61=3.5

  1. 方差计算
    • 根据方差公式:
      V a r ( X ) = E [ ( X − E ( X ) ) 2 ] = ( 1 − 3.5 ) 2 ⋅ 1 6 + ( 2 − 3.5 ) 2 ⋅ 1 6 + . . . + ( 6 − 3.5 ) 2 ⋅ 1 6 Var(X) = E[(X - E(X))^2] = (1-3.5)^2 \cdot \frac{1}{6} + (2-3.5)^2 \cdot \frac{1}{6} + ... + (6-3.5)^2 \cdot \frac{1}{6} Var(X)=E[(X−E(X))2]=(1−3.5)2⋅61+(2−3.5)2⋅61+...+(6−3.5)2⋅61

计算得:
V a r ( X ) = 2.9167 Var(X) = 2.9167 Var(X)=2.9167

六、总结

通过以上内容的学习,您已经掌握了概率论与统计学中关于随机变量、概率分布、期望与方差的基本概念及其计算方法。这些知识在深度学习中有着广泛的应用,例如神经网络权重初始化(均匀分布)、模型性能评估(期望与方差)等。

希望这个教程对您有所帮助!如果还有其他问题,请随时提问!

相关推荐
化作星辰40 分钟前
深度学习_神经网络激活函数
人工智能·深度学习·神经网络
陈天伟教授43 分钟前
人工智能技术- 语音语言- 03 ChatGPT 对话、写诗、写小说
人工智能·chatgpt
llilian_161 小时前
智能数字式毫秒计在实际生活场景中的应用 数字式毫秒计 智能毫秒计
大数据·网络·人工智能
打码人的日常分享1 小时前
基于信创体系政务服务信息化建设方案(PPT)
大数据·服务器·人工智能·信息可视化·架构·政务
硬汉嵌入式2 小时前
专为 MATLAB 优化的 AI 助手MATLAB Copilot
人工智能·matlab·copilot
北京盛世宏博2 小时前
如何利用技术手段来甄选一套档案馆库房安全温湿度监控系统
服务器·网络·人工智能·选择·档案温湿度
搞科研的小刘选手2 小时前
【EI稳定】检索第六届大数据经济与信息化管理国际学术会议(BDEIM 2025)
大数据·人工智能·经济
半吊子全栈工匠2 小时前
软件产品的10个UI设计技巧及AI 辅助
人工智能·ui
机器之心3 小时前
真机RL!最强VLA模型π*0.6来了,机器人在办公室开起咖啡厅
人工智能·openai
机器之心3 小时前
马斯克Grok 4.1低调发布!通用能力碾压其他一切模型
人工智能·openai