第十七周:机器学习

目录

摘要

Abstract

一、MCMC

1、马尔科夫链采样

[step1 状态设定](#step1 状态设定)

[step2 转移矩阵](#step2 转移矩阵)

[step3 马尔科夫链的生成](#step3 马尔科夫链的生成)

[step4 概率分布的估计](#step4 概率分布的估计)

2、蒙特卡洛方法

[step1 由一个分布产生随机变量](#step1 由一个分布产生随机变量)

[step2 用这些随机变量做实验](#step2 用这些随机变量做实验)

3、MCMC算法

4、参考文章

[二、flow-based GAN](#二、flow-based GAN)

1、引入

2、数学基础回顾

总结


摘要

本周主要学习了MCMC算法,其中包含马尔科夫链采样和蒙特卡洛方法。通过视频资料的学习,对以上提到的两种方法进行规律总结以及简单的代码实践。还回顾了flow-based GAN理论的简单数学基础。

Abstract

This week is focused on MCMC algorithm which contains Markov chain sampling and Monte Carlo method. The video material was used to summarize the laws of the two methods mentioned above as well as simple code practice. The simple mathematical foundations of flow-based GAN theory are also reviewed.

一、MCMC

1、马尔科夫链采样

**Markov Chains马尔科夫链:**未来的状态只取决于前一个状态,而不依赖于更往前的状态。并且所有状态出箭头的概率之和都为1。

随机漫步random walk

**问题:**行走着无规则的向着四面八方行走,最终形成的各个方向的概率是否收敛于一定值?

解决: 稳态分布(平衡状态

**稳态分布:**与初始概率分布无关,马尔科夫链在有限次状态转移之后到达的平稳状态分布即为稳态分布。

所得到的向量值代表了某个时刻(第j个时刻)的概率分布值则代表i个状态的概率分布。由于每个状态的输出之和都为1,所以有

step1 状态设定

一家快餐店售卖三种食物:pizza、buger、hotdog。将每种食物设定为不同状态分别为1、2、3

python 复制代码
#定义3种状态
state = {
    0 : "Burger",
    1 : "Pizza",
    2 : "Hotdog"
}
state

step2 转移矩阵

每个数值代表着对应行列的权重,如果两个节点之间用箭头连线连接,那么该数值也叫转移概率

python 复制代码
#定义过渡矩阵
A = np.array([[0.2, 0.6, 0.2], [0.3, 0.0, 0.7], [0.5, 0.0, 0.5]])

step3 马尔科夫链的生成

python 复制代码
#随机生成马尔科夫链------random walk的过程
n = 15
start_state = 0
curr_state = start_state
print(state[curr_state], "--->", end=" ")

while n-1:
    curr_state = np.random.choice([0, 1, 2], p=A[curr_state])
    print(state[curr_state], "--->", end=" ")
    n-=1
print("stop")

随机选定一个初始状态,接着用np库中的random.choice函数在备选状态集中选择下一状态,直至循环到设置最大值。 生成结果如下:

step4 概率分布的估计

法一:Monte Carlo方法

python 复制代码
steps = 10**6
start_state = 0  #其中A[curr_state]只有三种状态:pizza、buger、hotgog
curr_state = start_state
pi = np.array([0, 0, 0])  #初始状态均为0
pi[start_state] = 1   #把初始状态开始的state设为1

i = 0
while i<steps:
    curr_state = np.random.choice([0,1,2], p=A[curr_state])  #随机从p中选择一种状态
    pi[curr_state]+=1
    i +=1

print("π = ", pi/steps)

输出结果如下:

法二:矩阵连乘法

python 复制代码
steps = 10**3  #设置矩阵相乘的次数
A_n = A

i=0
while i<steps:
    A_n =  np.matmul(A_n, A)  #矩阵乘法
    i+=1

print("A^n = \n", A_n, "\n")
print("π = ", A_n[0])

输出结果如下:

法三:求解左特征值

pi向量代表各个状态的概率分布,也就是每一行的概率分布

可以看出,上面关于pi的等式要成立,有些类似于线性代数中特征值和特征向量的求解,pi相当于是特征向量,特征值为1

python 复制代码
import scipy.linalg
values, left = scipy.linalg.eig(A, right = False, left = True)  #计算左特征向量和特征值

print("left eigen vectors = \n", left, "\n")
print("eigen values = \n", values)

特征值和特征向量输出结果如下:

将特征向量进行归一化处理:

python 复制代码
pi = left[:,0]  #提取第一个左特征向量
pi_normalized = [(x/np.sum(pi)).real for x in pi]   #归一化第一个左特征向量

pi的向量输出结果如下:

Markov Chains的概率预测

python 复制代码
def find_prob(seq, A, pi):
    start_state = seq[0]
    prob = pi[start_state]
    prev_state, curr_state = start_state, start_state
    for i in range(1, len(seq)):
        curr_state = seq[i]
        prob *= A[prev_state][curr_state]
        prev_state = curr_state
    return prob

print(find_prob([1, 2, 2, 0], A, pi_normalized))

预测一条给定的markov chains的概率P(pizza------>hotdog------>hotdog------>burger)

预测结果如下:

2、蒙特卡洛方法

step1 由一个分布产生随机变量

step1 分布函数CDF的反函数

python 复制代码
#随机线性选取x,得到概率密度f和概率分布F
x = np.linspace(0,3,100)  #初始、结束、总数
f = 2*np.exp(-2*x)
F = 1-np.exp(-2*x)

#绘图
plt.figure(figsize=(8,3))
plt.plot(x, f, label=r'$f(x)$')
plt.plot(x,F, label=r'$F(x)$')
plt.legend()
plt.xlabel('$x$', fontsize=20)
plt.legend()
plt.show()

上述代码以泊松分布为例

分布函数的反函数

python 复制代码
#设定反函数
Us = np.random.rand(10000)
F_inv_Us = -np.log(1-Us)/2

#绘图
plt.figure(figsize=(8,3))
plt.plot(x, f, label=r'$f(x)$')
plt.hist(F_inv_Us, histtype='step', color='red', density='norm', bins=100, label='$F^{-1}(u)$')
plt.legend()
plt.xlabel('$x$', fontsize=20)
plt.legend()
plt.show()

step2 查找排序算法

python 复制代码
#设定自变量及概率密度和分布函数的定义式
x, y, F1, F2, E1, E2 = smp.symbols('x y F_1 F_2 E_1 E_2', real=True, positive=True)
fs = F1*smp.exp(-smp.sqrt(x/E1)) + F2*smp.exp(-smp.sqrt(x/E2))
Fs = smp.integrate(fs, (x,0,y)).doit()

#写成只需要传递参数的函数形式
Fn = smp.lambdify((y, E1, E2, F1, F2), Fs)  #目的就是输入前面的数值y, E1, E2, F1, F2)带入后面的式子Fs中去
fn = smp.lambdify((x, E1, E2, F1, F2), fs)

#给定参数的实际数值
E1 = E2 = 0.2
F1 = 1.3
F2 = 1.4
x = np.linspace(0,5,1000)
f = fn(x, E1, E2, F1, F2)
F = Fn(x, E1, E2, F1, F2)

#绘图
plt.figure(figsize=(8,3))
plt.plot(x,f, label=r'$f(x)$')
plt.plot(x,F, label=r'$F(x)$')
plt.legend()
plt.xlabel('$x$', fontsize=20)
plt.legend()
plt.show()

加入分布函数的反函数

python 复制代码
#反函数
F_inv_Us = x[np.searchsorted(F[:-1], Us)]

#绘图
plt.figure(figsize=(8,3))
plt.plot(x, f, label=r'$f(x)$')
plt.hist(F_inv_Us, histtype='step', color='red', density='norm', bins=100, label='$F^{-1}(u)$')
plt.legend()
plt.xlabel('$x$', fontsize=20)
plt.legend()
plt.xlim(0,2)
plt.show()

上面的函数分布是正太分布

step3 建立随机变量

python 复制代码
#rayleigh分布
r = np.random.rayleigh(size=1000)

#绘图
plt.hist(r, bins=100)
plt.show()

step2 用这些随机变量做实验

累积计算detector的energy

python 复制代码
N = 100000

# Part 1 
X = np.random.poisson(lam=4, size=N)  #采样泊松分布

# Part 2
x = np.linspace(0,5,1000)   
F = Fn(x, E1, E2, F1, F2)   #分布函数
Us = np.random.rand(X.sum()) #随机生成指定维度的样本数据  
E = x[np.searchsorted(F[:-1], Us)]  #样本数据在分布函数中的索引,E是分布中的原有数据

在n轮实验之后,检测到的粒子总数净和

python 复制代码
idx = np.insert(X.cumsum(), 0, 0)[:-1] #累积求和插入到空列表中
E_10s = np.add.reduceat(E, idx)  #分段求和,E是一个完整的数组,ind给出的是分段的位置,然后每一段分别进行求和
#也就是,0-2求和、3-5求和、6-11求和

#绘图
plt.figure(figsize=(5,3))
plt.hist(E_10s, bins=100)
plt.xlabel('Energy [GeV]', fontsize=20)
plt.ylabel('# Occurences')
plt.show()

结果绘制如下:

3、MCMC算法

**MCMC:**该方法将马尔科夫(Markov)过程引入到Monte Carlo模拟中,实现抽样分布随模拟的进行而改变的动态模拟,弥补了传统的蒙特卡罗积分只能静态模拟的缺陷。

4、参考文章

参考视频:https://www.youtube.com/watch?v=i3AkTO9HLXo

https://www.youtube.com/watch?v=U00Kseb6SB4

参考文章: 动态规划之------矩阵连乘(全网最详细博文,看这一篇就够了!)-CSDN博客

原创 | 一文读懂蒙特卡洛算法

二、flow-based GAN

1、引入

问题: 一般的GAN无法直接optimize模型的function,也就是无法使得取得最大值

**解决:**flow-based GAN

2、数学基础回顾

Jacobian matrix

向量z是输入、向量x是输出 ,Jacobian matrix 就是分别在各自位置上进行偏微分操作。由此引申出了Jacobian的逆矩阵。二者互为逆矩阵的关系,有公式如下:

determinant

几何意义的表示如下:

几维向量就代表了该矩阵能够组成几维空间的图形。

change of variable theorem

已知输入z的正态分布以及输出的一个复杂分布。首先,将z作为输入、x作为输出,f是连接输入输出的函数,体现二者之间的关系;接着,将对应到上去,找到在分布中对应的;最后,找到两个分布之间的关系。

无论输入输出是什么分布,蓝色方块和绿色方块的面积要保持一致。

总结

本周对GAN的变形算法进行数学基础学习,并且拓展学习了MCMC算法的基本内容和代码。下周将继续学习flow-based GAN算法的基本理论推导,并且对MCMC算法进行总结,找到马尔科夫链和蒙特卡罗方法的关联及在该算法中各自的应用。

相关推荐
书鸢123621 分钟前
力扣每日一题合集
java·算法·leetcode
我不会JAVA!1 小时前
排序算法(3) C++
c++·算法·排序算法
Willliam_william1 小时前
SystemC学习(3)— APB_SRAM的建模与测试
学习·算法
Gui林1 小时前
【GL07】C语言要点
c语言·算法
爱编程— 的小李2 小时前
有序序列合并(c语言)
c语言·算法
云卓SKYDROID2 小时前
无人机反步滑膜控制算法!
算法·无人机·知识科普·云卓科技·反步滑膜控制算法
云卓科技2 小时前
无人机之自动控制原理篇
科技·算法·目标检测·机器人·无人机
云卓科技2 小时前
无人机之集群控制方法篇
科技·算法·无人机·交互·制造
混迹网络的权某2 小时前
每天一道C语言精选编程题之求数字的每⼀位之和
c语言·开发语言·考研·算法·改行学it·1024程序员节
Curry_Math2 小时前
LeetCode 热题 100之链表3
算法·leetcode·链表