C++ | Python | 机器人 | 集群 | 算法 | 神经网络 | 集群行为 | 导航避障 | 耦合共振 | 同步 | 相机 | 拖拽 | 寻觅 | 搬运 | 可视化 | 物理 | 数学
🏈 指点迷津 | Brief 🎯要点
🎯机器人群行为配置和C++行为实现:🖊脚底机器人狭隘空间导航避让障碍物行为 | 🖊脚底机器人使用摄像头耦合共振,实现同步动作 | 🖊脚底机器群使用相机,计算彼此间“分子间势能”的方式寻觅彼此 | 🖊脚底机器拖拽可移动物体,模拟清理行为 | 🖊预先规划机器群活动轨迹,模拟群机导航避障 | 🖊预先规划机器群身份号,模拟群机导航避障 | 🖊模拟蚂蚁搬运食物,预先划定巢穴和外界食物区,使用OpenGL可视化机群搬运过程,机器人使用上述避障和寻觅方式执行动作 | 🖊模拟蚊虫趋光性,使用神经网络和算法创建脚底机器人趋光性动作 | 🖊模拟上级指挥下级动作,下级机群等待上级主机器人命令,收到命令执行各种动作行为。🎯统计学机器人集群量化属性 | 🎯浮标机器人集群
📜机器人用例
📜人形机算法模型:Python人形机踊跃跨栏举重投篮高维数动作算法模型
📜机器人动力学运动学求解:Python | C++ | MATLAB机器人正逆向运动学动力学求解器及算法
📜机器人动力学运动学:Python | C# | MATLAB 库卡机器人微分运动学 | 欧拉-拉格朗日动力学 | 混合动力控制
📜ROS系统机器人:ROS2(Cpp或Python)机器学习路径选择三维模拟平衡车及YOLOv8视觉消息
📜ROS树莓派Raspberry Pi机器人:Cpp(Python)和MATLAB差动驱动ROS Raspberry Pi全功能机器人原型
📜ROS机器人导航算法:Cpp或Python(ROS2)有限状态机-行为树数学模型及虚拟力场本地导航算法避障
📜树莓派Raspberry Pi机器人:Python远程SSH和HTTP视频流级联分类Raspberry Pi 机器人
📜机器人吸尘器:C(C++)和Python实现STM32F4实时操作系统(FreeRTOS)吸尘器
🍪语言内容构成
🍇Python粒子群优化算法优化葛根函数
在计算科学中,粒子群优化 是一种计算方法,它通过迭代尝试改进候选解决方案来优化问题,以满足给定的质量标准。它通过拥有一组候选解决方案(这里称为粒子)并根据粒子位置和速度的简单数学公式在搜索空间中移动这些粒子来解决问题。每个粒子的运动都受到其局部最佳已知位置的影响,但也被引导到搜索空间中的最佳已知位置,这些位置会随着其他粒子找到更好的位置而更新。这有望使群体向最佳解决方案移动。
此算法的一个基本变体是通过拥有一个候选解决方案(称为粒子)的种群(称为群体)来工作的。这些粒子根据一些简单的公式在搜索空间中移动。粒子的移动由它们自己在搜索空间中的最佳位置以及整个群体的最佳位置引导。当发现改进的位置时,这些位置将引导群体的移动。这个过程不断重复,希望最终能找到令人满意的解决方案,但不能保证。
形式上,令f : R n → R f: R ^n \rightarrow R f : R n → R 为必须最小化的成本函数。该函数将候选解作为实数向量形式的参数,并产生一个实数作为输出,该实数指示给定候选解的目标函数值。 f f f 的梯度未知。目标是为搜索空间中的所有 b b b 找到一个解决方案 a a a ,其中f ( a ) ≤ f ( b ) f( a ) \leq f( b ) f ( a ) ≤ f ( b ) ,这意味着 a 是全局最小值。
令 S S S 为群体中粒子的数量,每个粒子在搜索空间中都有一个位置 x i ∈ R n x _i \in R ^n x i ∈ R n 和一个速度 v i ∈ R n v _i \in R ^n v i ∈ R n 。令 p i p _i p i 为粒子i i i 的最佳已知位置,并令 g g g 为整个群体的最佳已知位置。最小化成本函数的基本粒子群优化算法是:
Copy for 每个粒子 i = 1, ..., S do
使用均匀分布的随机向量初始化粒子的位置: xi ~ U(blo, bup)
将粒子的已知位置初始化为其初始位置: pi ← xi
if f(pi) < f(g) then
更新群体最知名的位置: g ← pi
初始化粒子速度: vi ~ U(-|bup-blo|, |bup-blo|)
while 不满足终止条件 do:
for 每个粒子 i = 1, ..., S do
for 每个维度 d = 1, ..., n do
选择随机数: rp, rg ~ U(0,1)
更新粒子的速度: vi,d ← w vi,d + φp rp (pi,d-xi,d) + φg rg (gd-xi,d)
更新粒子的位置: xi ← xi + vi
if f(xi) < f(pi) then
更新粒子的已知位置: pi ← xi
if f(pi) < f(g) then
更新群体最知名的位置: g ← pi
值 b lo b _{\text {lo }} b lo 和 b up b _{\text {up }} b up 分别表示搜索空间的下边界和上边界。 w w w 参数是惯性权重。参数φ p \varphi_p φ p 和φ g \varphi_g φ g 通常被称为认知系数和社会系数。终止标准可以是执行的迭代次数,也可以是找到足够目标函数值的解决方案。 参数 w w w 、 φ p \varphi_{ p } φ p 和 φ g \varphi_{ g } φ g 由实践者选择,并控制此算法的行为和效果。
在数学优化中,葛根函数是一个非凸函数,用作优化算法的性能测试问题。它是非线性多峰函数的典型示例。由于搜索空间大且局部最小值数量多,因此寻找此函数的最小值是一个相当困难的问题。
在 n n n 维域上,它的定义如下:
f ( x ) = A n + ∑ i = 1 n [ x i 2 − A cos ( 2 π x i ) ] f( x )=A n+\sum_{i=1}^n\left[x_i^2-A \cos \left(2 \pi x_i\right)\right] f ( x ) = A n + i = 1 ∑ n [ x i 2 − A cos ( 2 π x i ) ] 其中 A = 10 A=10 A = 10 和 x i ∈ [ − 5.12 , 5.12 ] x_i \in[-5.12,5.12] x i ∈ [ − 5.12 , 5.12 ] 。有很多极值:
全局最小值位于 x = 0 x = 0 x = 0 ,其中 f ( x ) = 0 f( x )=0 f ( x ) = 0
x i ∈ [ − 5.12 , 5.12 ] x_i \in[-5.12,5.12] x i ∈ [ − 5.12 , 5.12 ] 的最大函数值位于 x i ∈ [ ± 4.52299366 … , … , ± 4.52299366 … ] x_i \in[ \pm 4.52299366 \ldots, \ldots, \pm 4.52299366 \ldots] x i ∈ [ ± 4.52299366 … , … , ± 4.52299366 … ] 附近
维数 最大值为 ± 4.52299366 1 40.35329019 2 80.70658039 3 121.0598706 4 161.4131608 5 201.7664509 6 242.1197412 7 282.4730314 8 322.8263216 9 363.1796117 \begin{array}{|l|l|} \hline \text { 维数 } & \text { 最大值为 } \pm 4.52299366 \\ \hline 1 & 40.35329019 \\ \hline 2 & 80.70658039 \\ \hline 3 & 121.0598706 \\ \hline 4 & 161.4131608 \\ \hline 5 & 201.7664509 \\ \hline 6 & 242.1197412 \\ \hline 7 & 282.4730314 \\ \hline 8 & 322.8263216 \\ \hline 9 & 363.1796117 \\ \hline \end{array} 维数 1 2 3 4 5 6 7 8 9 最大值为 ± 4.52299366 40.35329019 80.70658039 121.0598706 161.4131608 201.7664509 242.1197412 282.4730314 322.8263216 363.1796117 下面是使用此算法优化葛根函数的示例,葛根函数是优化中流行的测试函数。葛根函数有许多局部最小值,使其成为一个具有挑战性的优化问题。
Copy import numpy as np
import matplotlib . pyplot as plt
from mpl_toolkits . mplot3d import Axes3D
def rastrigin ( x ):
n = len (x)
return 10 * n + sum ([xi ** 2 - 10 * np. cos ( 2 * np.pi * xi) for xi in x])
def pso ( cost_func , dim = 2 , num_particles = 30 , max_iter = 100 , w = 0.5 , c1 = 1 , c2 = 2 ):
particles = np . random . uniform ( - 5.12 , 5.12 , (num_particles, dim))
velocities = np . zeros ((num_particles, dim))
best_positions = np . copy (particles)
best_fitness = np . array ([ cost_func (p) for p in particles])
swarm_best_position = best_positions [ np . argmin (best_fitness)]
swarm_best_fitness = np . min (best_fitness)
for i in range (max_iter):
r1 = np . random . uniform ( 0 , 1 , (num_particles, dim))
r2 = np . random . uniform ( 0 , 1 , (num_particles, dim))
velocities = w * velocities + c1 * r1 * (best_positions - particles) + c2 * r2 * (swarm_best_position - particles)
particles += velocities
fitness_values = np . array ([ cost_func (p) for p in particles])
improved_indices = np . where (fitness_values < best_fitness)
best_positions [ improved_indices ] = particles [ improved_indices ]
best_fitness [ improved_indices ] = fitness_values [ improved_indices ]
return swarm_best_position , swarm_best_fitness
solution , fitness = pso (rastrigin, dim = dim)
print ( 'Solution:' , solution)
print ( 'Fitness:' , fitness)
x = np . linspace ( - 5.12 , 5.12 , 100 )
y = np . linspace ( - 5.12 , 5.12 , 100 )
X , Y = np . meshgrid (x, y)
Z = rastrigin ([X, Y])
fig = plt . figure ()
ax = fig . add_subplot ( 111 , projection = '3d' )
ax . plot_surface (X, Y, Z, cmap = 'viridis' )
ax . set_xlabel ( 'x' )
ax . set_ylabel ( 'y' )
ax . set_zlabel ( 'z' )
ax . scatter (solution[ 0 ], solution[ 1 ], fitness, color = 'red' )
plt . show ()
Last updated 6 months ago