0.618算法和基于Armijo准则的线搜索回退法

0.618代码如下:

import math

# 定义函数 h(t) = t^3 - 2t + 1

def h(t):

return t**3 - 2*t + 1

# 0.618 算法

def golden_section_search(a, b, epsilon):

ratio = 0.618

while (b - a) > epsilon:

x1 = b - ratio * (b - a)

x2 = a + ratio * (b - a)

h_x1 = h(x1)

h_x2 = h(x2)

if h_x1 < h_x2:

b = x2

else:

a = x1

return a # 或者返回 b ,因为它们的值非常接近

# t 大于等于 0 的范围内进行搜索

t_min_618 = golden_section_search(0, 3, 0.001)

print("0.618 算法找到的最小值: ", h(t_min_618))

基于Armijo准则的线搜索回退法代码如下:

import numpy as np

def h(t):

return t**3 - 2*t + 1

def h_derivative(t):

return 3*t**2 - 2

def armijo_line_search(t_current, direction, alpha, beta, c1):

t = t_current

step_size = 1.0

while True:

if h(t + direction * step_size) <= h(t) + alpha * step_size * direction * h_derivative(t):

return t + direction * step_size

else:

step_size *= beta

if np.abs(step_size) < 1e-6:

break

return None

def gradient_descent(start, end, alpha, beta, c1, epsilon):

t = start

while True:

if t > end:

break

direction = -h_derivative(t) # 负梯度方向

next_t = armijo_line_search(t, direction, alpha, beta, c1)

if next_t is None or np.abs(h_derivative(next_t)) <= epsilon:

return next_t

t = next_t

return None

# 参数设置

alpha = 0.1 # Armijo 准则中的参数 alpha

beta = 0.5 # Armijo 准则中的参数 beta

c1 = 1e-4 # 自定义参数,用于控制 Armijo 条件的满足程度

epsilon = 1e-6 # 梯度范数的终止条件

# 搜索区间为 [0,3]

start = 0

end = 3

# 执行梯度下降算法,求得近似最小值点

t_min = gradient_descent(start, end, alpha, beta, c1, epsilon)

print(" 求得的最小值点为 :", t_min)

print(" 最小值点的函数值为 :", h(t_min))

相关推荐
松果财经几秒前
蓝思科技赋能灵伴科技:AI眼镜产能与供应链双升级
人工智能·科技
东方芷兰17 分钟前
算法笔记 04 —— 算法初步(下)
c++·笔记·算法
JNU freshman19 分钟前
图论 之 迪斯科特拉算法求解最短路径
算法·图论
青松@FasterAI42 分钟前
【NLP算法面经】本科双非,头条+腾讯 NLP 详细面经(★附面题整理★)
人工智能·算法·自然语言处理
萧鼎1 小时前
智能自动化新纪元:AI与UiPath RPA的协同应用场景与技术实践
人工智能·ui·rpa
旅僧1 小时前
代码随想录-- 第一天图论 --- 岛屿的数量
算法·深度优先·图论
Emplace1 小时前
ABC381E题解
c++·算法
果冻人工智能1 小时前
去中心化 AI:赋权还是混乱?
人工智能·深度学习·机器学习·架构·去中心化·区块链·ai员工
若兰幽竹1 小时前
【机器学习】衡量线性回归算法最好的指标:R Squared
算法·机器学习·线性回归
居然有人6542 小时前
23贪心算法
数据结构·算法·贪心算法