遗传算法初探

组成要素

编码

分为二进制编码、实数编码和顺序编码

初始种群的产生

分为随机方法、基于反向学习优化的种群产生。

基于反向学习优化的种群其思想是先随机生成一个种群P(N),然后按照反向学习方法生成新的种群OP(N),合并两个种群,得到一个新的种群S(N),对S(N)按适应度排序,选择适应度最高的N个个体作为初始种群。

适应度函数的设计

f ( x ) f(x) f(x)表示目标函数, F ( x ) F(x) F(x)为适应度函数

线性关系为 F ( x ) = a f ( x ) + b F(x)=af(x) + b F(x)=af(x)+b

幂律关系为 F = f a F=f^a F=fa

对数关系为 F ( x ) = a ∗ l n f ( x ) + b F(x)=a*lnf(x) + b F(x)=a∗lnf(x)+b

指数关系为 F ( x ) = a ∗ e b f ( x ) + c F(x)=a*e^{bf(x)} + c F(x)=a∗ebf(x)+c

选择策略

对于个体i,其适应度为 F i F_i Fi,假定规模为n,则个体被选中的概率为 P i = F i ∑ i = 1 n F i P_i=\frac{F_i}{\sum_{i = 1}^n{F_i}} Pi=∑i=1nFiFi

遗传操作

有交叉和变异两种运算。

其中交叉分为有:单点交叉,双点交叉,单形杂交,球形杂交

变异有:按位变异,高斯变异,有向变异

停止条件

设置最大迭代次数或者适应值函数评估次数,也可以规定的搜索精度

算法流程

N Y 开始 初始种群 是否满足停止条件 评价个体 输出结构 选择 遗传操作 产生新种群 结束

数据原理

称为模式定理

模式的原始长度 L ( H ) L(H) L(H):模板中总的基因位数

模板的定义矩 δ ( H ) \delta(H) δ(H):模板中从左到右第一个确定字符与最后一个确定字符的距离

模板的阶数 o ( H ) o(H) o(H):模板中确定字符的个数

模板的容量 D ( H ) D(H) D(H):模板包含字符串的个数,对于二进制编码来说, D ( H ) = 2 L ( H ) − O ( H ) D(H)= 2^{L(H)-O(H)} D(H)=2L(H)−O(H)

设第(t+1)代种群 P ( t + 1 ) P(t+1) P(t+1)含有H中元素个数的期望值为 E ( H ⋂ P ( t + 1 ) ) E(H\bigcap P(t+1)) E(H⋂P(t+1)),l为种群P(t)中个体和串长,在只有选择操作情况下时
E ( H ⋂ P ( t + 1 ) ) = ∣ H ⋂ P ( t ) ∣ ⋅ N ⋅ f ( H , t ) F ( t ) = ∣ H ⋂ P ( t ) ∣ ⋅ f ( H , t ) F ˉ ( t ) E(H\bigcap P(t+1))=|H\bigcap P(t)| \cdot N \cdot \frac{f(H,t)}{F(t)} = |H\bigcap P(t)| \cdot \frac{f(H, t)}{\bar{F}(t)} E(H⋂P(t+1))=∣H⋂P(t)∣⋅N⋅F(t)f(H,t)=∣H⋂P(t)∣⋅Fˉ(t)f(H,t)

在考虑杂交概率情况下 p c p_c pc时,期望值为
E ( H ⋂ P ( t + 1 ) ) = ∣ H ⋂ P ( t ) ∣ ⋅ f ( H , t ) F ˉ ( t ) ⋅ ( 1 − p c ⋅ δ ( H ) l − 1 ) E(H\bigcap P(t+1))= |H\bigcap P(t)| \cdot \frac{f(H, t)}{\bar{F}(t)} \cdot (1 - p_c \cdot \frac{\delta (H)}{l - 1}) E(H⋂P(t+1))=∣H⋂P(t)∣⋅Fˉ(t)f(H,t)⋅(1−pc⋅l−1δ(H))

在考虑变异概率情况下 p m p_m pm时,期望值为 E ( H ⋂ P ( t + 1 ) ) = ∣ H ⋂ P ( t ) ∣ ⋅ f ( H , t ) F ˉ ( t ) ⋅ ( 1 − p c ⋅ δ ( H ) l − 1 ) ⋅ ( 1 − p m ) o ( H ) E(H\bigcap P(t+1))= |H\bigcap P(t)| \cdot \frac{f(H, t)}{\bar{F}(t)} \cdot (1 - p_c \cdot \frac{\delta (H)}{l - 1}) \cdot (1 - p_m)^{o(H)} E(H⋂P(t+1))=∣H⋂P(t)∣⋅Fˉ(t)f(H,t)⋅(1−pc⋅l−1δ(H))⋅(1−pm)o(H)

非线性约束优化

min ⁡ f ( x ) s.t. g i ( x ) ≤ 0 , i = 1 , 2 , ... , m h j ( x ) = 0 , j = 1 , 2 , ... , p \begin{equation} \begin{aligned} \min & \quad f(x) \\ \text{s.t.} \quad & g_i(x) \le 0, \quad i = 1, 2, \ldots, m \\ & h_j(x) = 0, \quad j=1,2,\ldots, p \end{aligned} \end{equation} mins.t.f(x)gi(x)≤0,i=1,2,...,mhj(x)=0,j=1,2,...,p

其中 x = [ x 1 , x 2 , ... , x n ] x=[x_1, x_2, \ldots, x_n] x=[x1,x2,...,xn]

选择策略有

  • 约束违背的度数
    p ( x ) = ∑ i = 1 m + p q i ( x ) 2 q j ( x ) = { m a x ( 0 , g j ( x ) ) , 1 ≤ j ≤ m ∣ h j ( x ) ∣ , 1 ≤ j ≤ p p(x)=\sum_{i=1}^{m+p} {q_i(x)^2} \\ \begin{equation} q_j(x)=\left\{ \begin{aligned} & max(0, g_j(x)), \quad 1 \le j \le m \\ & |h_j(x)|, \quad 1 \le j \le p \end{aligned} \right. \end{equation} p(x)=i=1∑m+pqi(x)2qj(x)={max(0,gj(x)),1≤j≤m∣hj(x)∣,1≤j≤p
  • 约束违背的数目
    s ( x ) = ∑ j = 1 m + p n u m j ( x ) n u m ( x ) = { 0 , q j ( x ) ≤ 0 1 , 其他 s(x)=\sum_{j=1}^{m+p} {num_j(x)} \\ \begin{equation} num(x)=\left\{ \begin{aligned} & 0, \quad q_j(x) \le 0 \\ & 1,其他 \end{aligned} \right. \end{equation} s(x)=j=1∑m+pnumj(x)num(x)={0,qj(x)≤01,其他
    个体的特征向量表达为
    v ( x ) = ( f ( x ) , p ( x ) , s ( x ) ) v(x)=(f(x), p(x), s(x)) v(x)=(f(x),p(x),s(x))
相关推荐
困死,根本不会5 分钟前
蓝桥杯python备赛笔记之(八)动态规划(DP)
笔记·python·学习·算法·蓝桥杯·动态规划
whycthe13 分钟前
c++动态规划算法详解
c++·算法·动态规划
不想看见40423 分钟前
Single Number位运算基础问题--力扣101算法题解笔记
数据结构·算法
靠沿26 分钟前
【优选算法】专题十二——栈
算法
无心水1 小时前
【任务调度:框架】10、2026最新!分布式任务调度选型决策树:再也不纠结选哪个
人工智能·分布式·算法·决策树·机器学习·架构·2025博客之星
我头发还没掉光~1 小时前
【C++写详细总结①】从for循环到算法初步
数据结构·c++·算法
【数据删除】3481 小时前
计算机复试学习笔记 Day41
笔记·学习·算法
上海锟联科技1 小时前
什么是DAS分布式光纤声波传感系统?原理与应用解析
数据结构·分布式·算法·分布式光纤传感
篮l球场1 小时前
LRU 缓存
算法·leetcode
blackicexs2 小时前
第八周第五天
数据结构·c++·算法