Python实现星雀优化算法(Nutcracker Optimizer Algorithm, NOA) (附完整代码)
1.星雀优化算法介绍
星雀优化算法(Nutcracker Optimizer Algorithm, NOA) 是一种新颖的元启发式优化算法,由Mohamed Abdel-Basset等人于2023年受星雀(这里特指生活于北美洲的克拉克星雀)智能觅食和储食行为的启发而提出。这种鸟以其非凡的空间记忆能力而闻名,能够在一年中的不同季节,准确无误地找回自己埋藏的数万颗种子。NOA算法正是通过数学建模这种"存储-检索"的生存策略来解决复杂优化问题。
核心觅食行为与算法对应
NOA主要模拟了星雀的两种典型行为,并对应算法的两个主要阶段:
-
储食阶段: 在夏季和秋季,星雀会将收集到的种子分散储存在广阔地域的数千个不同地点(如土壤裂缝、树皮下)。这对应于算法的探索阶段。在NOA中,搜索代理(星雀)在搜索空间内随机且分散地"隐藏"食物(即候选解)。这种机制鼓励算法在全局范围内广泛探索,避免过早陷入局部最优,为发现潜在的全局最优区域奠定基础。
-
检索阶段: 在冬季和春季,当食物匮乏时,星雀能够凭借强大的空间记忆,精准地找回之前埋藏的种子。这对应于算法的开发阶段。NOA模拟了这一过程,搜索代理会倾向于回到自己之前发现的"有希望"的区域(即适应度值较好的解附近)进行更精细的搜索。同时,算法也引入了一定的随机性,模拟星雀偶尔也会探索新的或其它星雀的储食点,这有助于在局部开发中保持一定的探索能力,防止种群多样性丧失。
算法流程与独特机制
NOA的迭代过程围绕上述两个阶段展开:
-
初始化:生成一组随机的星雀位置(候选解)。
-
重复迭代直至结束:
-
储食模拟(探索):基于随机游走和莱维飞行等策略,让星雀在搜索空间内进行大范围的探索,模拟寻找和创建新的储食点。
-
检索模拟(开发):星雀根据记忆(历史最优位置)和某种概率规则,返回到之前的最佳储食点或其附近进行深度挖掘。
-
评估与更新:评估新位置的适应度,并更新个体和全局最优解。
-
NOA的一个关键特点是其季节性记忆机制,算法会动态地维护和更新一个"记忆池",记录不同季节(迭代阶段)发现的优质解,从而更智能地引导搜索方向。
2.Python代码
python
import numpy as np
import matplotlib.pyplot as plt
# 目标函数:y = sum((x - 0.5)^2)
def objective_function(x):
return np.sum((x - 0.5) ** 2)
# 星雀优化算法
def noa(fun, dim, bounds, pop_size, max_iter):
# 初始化参数
lower_bound, upper_bound = bounds
X = np.random.rand(pop_size, dim) * (upper_bound - lower_bound) + lower_bound # 种群位置
fitness = np.array([fun(ind) for ind in X]) # 适应度
# 初始化最优解
best_idx = np.argmin(fitness)
best_fitness = fitness[best_idx]
best_position = X[best_idx, :].copy()
# 迭代记录
history = []
for t in range(max_iter):
# 计算适应度
fitness = np.array([fun(ind) for ind in X])
# 更新全局最优
current_best_idx = np.argmin(fitness)
if fitness[current_best_idx] < best_fitness:
best_fitness = fitness[current_best_idx]
best_position = X[current_best_idx, :].copy()
# 记录历史
history.append(best_fitness)
# 星雀位置更新
for i in range(pop_size):
# 随机选择一个星雀作为引导
r_idx = np.random.randint(pop_size)
while r_idx == i:
r_idx = np.random.randint(pop_size)
# 位置更新公式(简化版星雀行为)
r1 = np.random.rand()
r2 = np.random.rand()
if r1 < 0.5:
# 探索阶段
X[i, :] = X[i, :] + r2 * (X[r_idx, :] - X[i, :])
else:
# 开发阶段
X[i, :] = best_position + r2 * (X[r_idx, :] - X[i, :])
# 边界处理
X[i, :] = np.clip(X[i, :], lower_bound, upper_bound)
# 打印当前迭代信息
if (t + 1) % 50 == 0:
print(f"迭代 {t + 1}/{max_iter} 最优值: {best_fitness:.6f}")
return best_position, best_fitness, history
# 参数设置
dim = 10 # 维度
bounds = [-100, 100] # 变量范围
pop_size = 100 # 种群大小
max_iter = 1000 # 最大迭代次数
# 运行NOA算法
best_pos, best_val, history = noa(objective_function, dim, bounds, pop_size, max_iter)
# 显示结果
print("\n优化结果:")
print(f"最优位置: {best_pos}")
print(f"最优值: {best_val:.6f}")
# 确保中文显示正常
plt.rcParams["font.family"] = ["SimHei", "Arial Unicode MS", "sans-serif"]
plt.rcParams["axes.unicode_minus"] = False # 解决负号显示问题
# 绘制迭代曲线
plt.figure(figsize=(10, 6))
plt.plot(history, label='NOA 迭代曲线')
plt.title('星雀优化算法迭代曲线')
plt.xlabel('迭代次数')
plt.ylabel('最优适应度值')
plt.grid(True)
plt.legend()
plt.show()
# 保持窗口打开
plt.ioff() # 关闭交互模式
plt.show()
3.程序结果
迭代 900/1000 最优值: 52.891348
迭代 950/1000 最优值: 52.891348
迭代 1000/1000 最优值: 52.891348
优化结果:
最优位置: [ 4.10792753 0.53881239 -1.41450837 2.73103825 1.83998401 -1.57250787
2.07200323 0.95679901 0.94752215 -4.21792801]
最优值: 52.891348
4.代码、程序订制(MATLAB、Python) →QQ:1579325979
4.1 各类智能算法
|-----------|--------------------------------------|---------|----------|
| 中文名称 | 英文全称 | 缩写 | 出现年份 |
| 遗传算法 | Genetic Algorithm | GA | 1975 |
| 粒子群优化算法 | Particle Swarm Optimization | PSO | 1995 |
| 蚁群优化算法 | Ant Colony Optimization | ACO | 1992 |
| 模拟退火算法 | Simulated Annealing | SA | 1983 |
| 免疫优化算法 | Immune Optimization Algorithm | IA | 1986 |
| 贪婪算法 | Greedy Algorithm | - | 1970 |
| 差分进化算法 | Differential Evolution | DE | 1997 |
| 混合蛙跳算法 | Shuffled Frog Leaping Algorithm | SFLA | 2003 |
| 人工蜂群算法 | Artificial Bee Colony | ABC | 2005 |
| 人工鱼群算法 | Artificial Fish Swarm Algorithm | AFSA | 2002 |
| 萤火虫算法 | Glowworm Swarm Optimization | GSO | 2005 |
| 果蝇优化算法 | Fruit Fly Optimization Algorithm | FOA | 2011 |
| 布谷鸟搜索算法 | Cuckoo Search | CS | 2009 |
| 猴群算法 | Monkey Algorithm | MA | 2008 |
| 免疫网络算法 | Immune Network Algorithm | aiNet | 2000 |
| 水滴算法 | Intelligent Water Drops Algorithm | IWD | 2007 |
| 和声搜索算法 | Harmony Search | HS | 2001 |
| 克隆选择算法 | Clonal Selection Algorithm | CLONALG | 2000 |
| 禁忌搜索算法 | Tabu Search | TS | 1986 |
| 爬山算法 | Hill Climbing | HC | 1940 |
| 引力搜索算法 | Gravitational Search Algorithm | GSA | 2009 |
| 细菌觅食优化算法 | Bacterial Foraging Optimization | BFO | 2002 |
| 蝙蝠算法 | Bat Algorithm | BA | 2010 |
| 邻域搜索算法 | Neighborhood Search | NS | 1960 |
| 变邻域搜索算法 | Variable Neighborhood Search | VNS | 1997 |
| 蜜蜂交配优化算法 | Honey Bees Mating Optimization | HBMO | 2001 |
| 文化基因算法 | Memetic Algorithm | MA | 1989 |
| 烟花算法 | Fireworks Algorithm | FWA | 2010 |
| 思维进化算法 | Mind Evolutionary Algorithm | MEA | 1998 |
| 蜻蜓算法 | Dragonfly Algorithm | DA | 2016 |
| 虚拟力场算法 | Virtual Force Field Algorithm | VFF | 1989 |
| 遗传规划 | Genetic Programming | GP | 1992 |
| 鲸鱼优化算法 | Whale Optimization Algorithm | WOA | 2016 |
| 灰狼优化算法 | Grey Wolf Optimizer | GWO | 2014 |
| 狼群算法 | Wolf Pack Algorithm | WPA | 2007 |
| 鸡群优化算法 | Chicken Swarm Optimization | CSO | 2014 |
| 生物地理学优化算法 | Biogeography-Based Optimization | BBO | 2008 |
| 分布估计算法 | Estimation of Distribution Algorithm | EDA | 1996 |
| 帝国竞争算法 | Imperialist Competitive Algorithm | ICA | 2007 |
| 天牛须搜索算法 | Beetle Antennae Search Algorithm | BAS | 2017 |
| 头脑风暴优化算法 | Brain Storm Optimization | BSO | 2011 |
| 人工势场法 | Artificial Potential Field | APF | 1986 |
| 猫群算法 | Cat Swarm Optimization | CSO | 2006 |
| 蚁狮优化算法 | Ant Lion Optimizer | ALO | 2015 |
| 飞蛾火焰优化算法 | Moth-Flame Optimization | MFO | 2015 |
| 蘑菇繁殖优化算法 | Mushroom Reproduction Optimization | MRO | 2020 |
| 麻雀搜索算法 | Sparrow Search Algorithm | SSA | 2020 |
| 水波优化算法 | Water Wave Optimization | WWO | 2015 |
| 斑鬣狗优化算法 | Spotted Hyena Optimizer | SHO | 2017 |
| 雪融优化算法 | Snow Ablation Optimization | SAO | 2022 |
| 蝴蝶优化算法 | Butterfly Optimization Algorithm | BOA | 2019 |
| 磷虾群算法 | Krill Herd Algorithm | KHA | 2012 |
| 黏菌算法 | Slime Mould Algorithm | SMA | 2020 |
| 人类学习优化算法 | Human Learning Optimization | HLO | 2014 |
| 母亲优化算法 | Mother Optimization Algorithm | MOA | 2023 |
4.2各类优化问题
|---------------|------------|
| 各种优化课题 | 各种优化课题 |
| 车间调度 | 路由路网优化 |
| 机场调度 | 顺序约束项目调度 |
| 工程项目调度 | 双层规划 |
| 港口调度 | 零件拆卸装配问题优化 |
| 生产线平衡问题 | 水资源调度 |
| 用电调度 | 库位优化 |
| 公交车发车调度 | 库位路线优化 |
| 车辆路径物流配送优化 | 武器分配优化 |
| 选址配送优化 | 覆盖问题优化 |
| 物流公铁水问题优化 | 管网问题优化 |
| 供应链、生产计划、库存优化 | PID优化 |
| 库位优化、货位优化 | VMD优化 |
4.3各类神经网络、深度学习、机器学习
|--------|----------------------|--------------|-------------|
| 序号 | 模型名称 | 核心特点 | 适用场景 |
| 1 | BiLSTM 双向长短时记忆神经网络分类 | 双向捕捉序列上下文信息 | 自然语言处理、语音识别 |
| 2 | BP 神经网络分类 | 误差反向传播训练 | 通用分类任务 |
| 3 | CNN 卷积神经网络分类 | 自动提取空间特征 | 图像、视频分类 |
| 4 | DBN 深度置信网络分类 | 多层受限玻尔兹曼机堆叠 | 特征学习、降维 |
| 5 | DELM 深度学习极限学习机分类 | 结合 ELM 与深度架构 | 复杂分类任务 |
| 6 | ELMAN 递归神经网络分类 | 含反馈连接的递归结构 | 时间序列、语音 |
| 7 | ELM 极限学习机分类 | 随机生成隐藏层,快速训练 | 小样本学习 |
| 8 | GRNN 广义回归神经网络分类 | 基于径向基函数回归 | 函数逼近、时间序列 |
| 9 | GRU 门控循环单元分类 | 门控机制简化 LSTM | 序列建模 |
| 10 | KELM 混合核极限学习机分类 | 结合多核 ELM | 高维复杂数据 |
| 11 | KNN 分类 | 基于距离的分类方法 | 模式识别 |
| 12 | LSSVM 最小二乘法支持向量机分类 | 最小二乘优化 SVM | 小样本分类 |
| 13 | LSTM 长短时记忆网络分类 | 门控机制处理长期依赖 | 语言建模 |
| 14 | MLP 全连接神经网络分类 | 多层感知机 | 通用分类 |
| 15 | PNN 概率神经网络分类 | 基于贝叶斯原理 | 模式识别 |
| 16 | RELM 鲁棒极限学习机分类 | 增强鲁棒性的 ELM | 噪声数据 |
| 17 | RF 随机森林分类 | 多棵决策树集成 | 高维、非线性数据 |
| 18 | SCN 随机配置网络模型分类 | 随机生成网络结构 | 快速训练 |
| 19 | SVM 支持向量机分类 | 寻找最优分类超平面 | 二分类、多分类 |
| 20 | XGBOOST 分类 | 梯度提升决策树 | 大规模结构化数据 |
| 21 | ANFIS 自适应模糊神经网络预测 | 融合模糊逻辑与神经网络 | 复杂非线性系统建模 |
| 22 | ANN 人工神经网络预测 | 多层神经元网络 | 通用预测任务 |
| 23 | ARMA 自回归滑动平均模型预测 | 线性时间序列建模 | 时间序列预测 |
| 24 | BF 粒子滤波预测 | 基于蒙特卡洛采样 | 动态系统状态估计 |
| 25 | BiLSTM 双向长短时记忆神经网络预测 | 双向捕捉序列信息 | 时间序列、文本预测 |
| 26 | BLS 宽度学习神经网络预测 | 增量学习结构 | 在线学习 |
| 27 | BP 神经网络预测 | 误差反向传播训练 | 通用预测 |
| 28 | CNN 卷积神经网络预测 | 自动特征提取 | 图像、视频预测 |
| 29 | DBN 深度置信网络预测 | 多层无监督预训练 | 特征学习预测 |
| 30 | DELM 深度学习极限学习机预测 | 结合 ELM 与深度结构 | 复杂预测任务 |
| 31 | DKELM 回归预测 | 动态核 ELM 回归 | 时间序列回归 |
| 32 | ELMAN 递归神经网络预测 | 递归结构处理时序 | 时间序列 |
| 33 | ELM 极限学习机预测 | 快速训练 | 小样本回归 |
| 34 | ESN 回声状态网络预测 | 储备池计算 | 时间序列预测 |
| 35 | FNN 前馈神经网络预测 | 前向传播 | 通用预测 |
| 36 | GMDN 预测 | 基因表达数据网络建模 | 生物信息学预测 |
| 37 | GMM 高斯混合模型预测 | 多高斯分布建模 | 密度估计、聚类 |
| 38 | GRNN 广义回归神经网络预测 | 径向基函数回归 | 函数逼近 |
| 39 | GRU 门控循环单元预测 | 门控机制简化 LSTM | 时间序列预测 |
| 40 | KELM 混合核极限学习机预测 | 多核 ELM 回归 | 高维回归 |
| 41 | LMS 最小均方算法预测 | 线性回归的迭代优化 | 自适应滤波 |
| 42 | LSSVM 最小二乘法支持向量机预测 | 最小二乘优化 SVM | 回归预测 |
| 43 | LSTM 长短时记忆网络预测 | 门控处理长期依赖 | 时间序列预测 |
| 44 | RBF 径向基函数神经网络预测 | 径向基函数逼近 | 函数拟合 |
| 45 | RELM 鲁棒极限学习机预测 | 增强鲁棒性的 ELM | 噪声数据回归 |
| 46 | RF 随机森林预测 | 决策树集成 | 回归预测 |
| 47 | RNN 循环神经网络预测 | 循环连接处理序列 | 时间序列预测 |
| 48 | RVM 相关向量机预测 | 稀疏贝叶斯学习 | 回归、分类 |
| 49 | SVM 支持向量机预测 | 寻找最优超平面 | 回归预测 |
| 50 | TCN 时间卷积神经网络预测 | 一维卷积处理时序 | 时间序列预测 |
| 51 | XGBoost 回归预测 | 梯度提升决策树 | 大规模回归 |