selección de parámetros pso
Los parámetros más importantes en el algoritmo de enjambre de partículas son: peso de inercia ω (o factor de compresión χ), factores de aprendizaje c1 y c2, límite de velocidad Vmax, límite de posición Xmax, tamaño de la población y población inicial. Algunos investigadores fijan otros parámetros y estudian el impacto de un solo parámetro en el algoritmo. También hay investigadores que estudian el impacto de múltiples parámetros en el algoritmo al mismo tiempo. Shi proporcionó la primera discusión sobre la selección de parámetros en el algoritmo PSO.
La investigación actual generalmente cree que el peso de inercia tiene el mayor impacto en el rendimiento del algoritmo de enjambre de partículas, por lo que es la mayor parte de la investigación en esta área. Wang Junwei realizó experimentos sistemáticos sobre pesos de inercia en el algoritmo PSO, analizó la selección de pesos fijos y pesos variables en el tiempo, y analizó en detalle el impacto de los pesos de inercia en el rendimiento del algoritmo desde aspectos como la dependencia del problema, el tamaño de la población y la topología. Los resultados muestran que la dependencia del problema del peso de inercia es pequeña a medida que aumenta la población, su valor debe reducirse adecuadamente. La selección del peso de inercia en la versión local tiene un mayor grado de libertad. Chen Guimin propuso estrategias de reducción de peso de inercia no lineal, como abrir una parábola hacia abajo, abrir una parábola hacia arriba y una curva exponencial, y las comparó con estrategias de reducción lineal. Los resultados experimentales muestran que la estrategia de reducción de la función cóncava es mejor que la estrategia lineal, y la estrategia lineal lo es. mejor que la estrategia de función convexa.
En general, se cree que en el algoritmo de enjambre de partículas, el peso de inercia se utiliza para equilibrar las capacidades de búsqueda global y local. Un peso de inercia mayor se inclina más hacia la búsqueda global, mientras que un peso de inercia más pequeño es adecuado para la búsqueda local. . Por lo tanto, el valor del peso de inercia debería disminuir gradualmente con el tiempo, y Zheng afirma que el peso de inercia incremental funciona mejor, pero en el artículo se utiliza un conjunto de factores de aprendizaje diferentes del algoritmo PSO estándar, y este par de rendimiento no es explicado en el artículo.
Dado que el peso de inercia fijo a menudo no puede lograr buenos resultados, el peso de inercia disminuye linealmente con el álgebra de iteración durante el proceso de búsqueda, cambia de manera difusa de forma adaptativa, disminuye según funciones no lineales, disminuye según la ley del coseno, El algoritmo PSO disminuye según la ley hiperbólica y la ley de la función de Sugeno. Al mismo tiempo, hay muchas formas de cambiar adaptativamente el peso inercial de acuerdo con ciertos indicadores de evaluación, como en función del historial de éxito de la búsqueda, la velocidad promedio de las partículas, la diversidad de la población, los cambios en la planitud de la función objetivo y la velocidad de evolución del grupo de partículas. y grado de agregación, Capacidad de búsqueda individual (ISA) para ajustar dinámicamente el peso de inercia. Liu determina si acepta cambios en los pesos de inercia según el criterio de Metropolis.
Algunas personas también utilizan pesos de inercia aleatorios, como establecerlos como números aleatorios distribuidos uniformemente en intervalos. Jiang introdujo un mecanismo de caos en el proceso de selección del peso de inercia, de modo que el valor del peso de inercia pueda atravesar el intervalo [0, 1].
Los factores de aprendizaje c1 y c2 representan el peso del término de aceleración aleatoria que atrae cada partícula hacia las posiciones pBest y gBest (o nBest). Desde una perspectiva psicológica, el término cognitivo representa la tendencia de un individuo a copiar comportamientos pasados que han demostrado ser exitosos, mientras que el término social representa la tendencia a seguir las experiencias exitosas de otros. c1 y c2 a menudo se configuran en 2.0, por la razón obvia de que hará que la búsqueda cubra el área centrada en pBest y gBest. Otro valor comúnmente utilizado es 1,49445, que garantiza la convergencia del algoritmo PSO. A través de una gran cantidad de experimentos, Carlisle propuso un mejor conjunto de configuraciones de parámetros para establecer c1 y c2 en 2,8 y 1,3 respectivamente, y el rendimiento de esta configuración de parámetros se confirmó aún más en [182]. Inspirándose en la idea de pesos inerciales que varían en el tiempo, han surgido una variedad de variantes del algoritmo PSO con factores de aprendizaje que cambian con el tiempo, como disminuciones lineales en los factores de aprendizaje a lo largo del tiempo, ajustes dinámicos basados en el estado evolutivo de las partículas y la El número de cambios continuos en los valores de aptitud y los cambios de la población se ajustan dinámicamente. Gao Ying estableció una relación funcional no lineal entre el factor de aprendizaje y la diferencia entre la aptitud promedio de todas las partículas en el enjambre de partículas y la aptitud de posición óptima general, y ajustó adaptativamente la parte de "cognición" a través del factor de aprendizaje no lineal que varía en el tiempo. la influencia de la parte "social" en las partículas, mejorando así la velocidad de convergencia y la precisión del algoritmo.
En la mayoría de los casos, los valores de los dos factores de aprendizaje son los mismos, por lo que la búsqueda social y la búsqueda cognitiva tienen el mismo peso. Kennedy estudió dos casos extremos: un modelo con solo términos sociales y un modelo con solo términos cognitivos. La conclusión es que ambas partes son fundamentales para el éxito de la búsqueda de enjambres de partículas y no hay una conclusión definitiva sobre el factor de aprendizaje asimétrico. Depuy et al. analizaron el impacto de la velocidad máxima, el factor de aprendizaje social y el factor de aprendizaje cognitivo en la capacidad del algoritmo de enjambre de partículas para encontrar el punto óptimo en el espacio de búsqueda, pero el análisis fue demasiado simple.
Otros estudios determinan al mismo tiempo el peso de la inercia y el factor de aprendizaje. Muchos investigadores utilizan diversas técnicas de optimización para determinar dinámicamente pesos de inercia y factores de aprendizaje, como algoritmos genéticos, métodos de optimización del caos, algoritmos evolutivos, algoritmos de evolución diferencial y tecnología CriticDesign adaptativa. Basado en el mecanismo de generación de ***, Silva utiliza otro algoritmo PSO para determinar dinámicamente los parámetros del algoritmo original. Krohling establece el peso de inercia en cero y reemplaza c1r1 y c2r2 con dos variables aleatorias que obedecen a la distribución, que es una distribución gaussiana con una expectativa de 0 y una varianza de 1. Arumugam determina dinámicamente el peso de inercia y el factor de aprendizaje en función de una función determinada por pBest y gBest. Breaban interpreta cada término de la fórmula de actualización de velocidad como la operación de un operador e introduce algunos operadores nuevos en función de los cuales el peso de inercia y el factor de aprendizaje se determinan de forma adaptativa al mismo tiempo. Ueno utiliza múltiples conjuntos de valores de parámetros para partículas y utiliza el valor promedio de la velocidad de las partículas para determinar dinámicamente el peso de inercia y el factor de aprendizaje. Khosla utiliza el método Taguchi para determinar los parámetros del algoritmo. Kuo utilizó diecisiete problemas de optimización de funciones de baja dimensión y estudió los rangos de valores de los pesos de inercia y los factores de aprendizaje para situaciones de mínimos únicos y mínimos múltiples.
La velocidad de las partículas puede estar limitada por una velocidad máxima Vmax, que se utiliza como restricción para controlar la capacidad de exploración global del enjambre de partículas. En el algoritmo PSO original, los parámetros utilizados eran , y la velocidad de las partículas a menudo aumenta rápidamente a un valor muy grande, lo que afectará el rendimiento del algoritmo, por lo que la velocidad de las partículas debe ser limitada. Más tarde, Clerc señaló que la limitación de la velocidad no es necesaria y que la introducción de un factor de contracción también puede lograr el propósito de limitar la velocidad de las partículas. Sin embargo, incluso con el factor de contracción, los experimentos han demostrado que se pueden obtener mejores resultados si también se incluye un límite de velocidad, por lo que se ha mantenido el límite de velocidad. En términos generales, Vmax se establece en el valor del rango dinámico de cada variable, que suele ser un valor fijo, pero también puede disminuir linealmente con el tiempo o disminuir dinámicamente según el historial de éxito de la búsqueda.
La posición de las partículas puede limitarse por la posición máxima Xmax para evitar que las partículas salgan volando del espacio de solución físicamente significativo. Zhang propuso un método de procesamiento de límites para patrones periódicos. Robinson propuso tres tecnologías de control: paredes atractivas, paredes reflectantes y paredes invisibles. Una vez que una cierta dimensión de la partícula alcanza el límite del espacio de solución, el método de la pared de atracción establece la velocidad en cero y el método de la pared reflectante cambia la dirección de la velocidad, de modo que ambos métodos eventualmente pueden atraer la partícula de regreso a la posición permitida. rango de espacio de solución. El método de la pared invisible no calcula el valor de idoneidad de las partículas que salen del límite para ahorrar tiempo de cálculo y evitar afectar el movimiento de otras partículas. Sin embargo, el rendimiento del algoritmo PSO bajo estas tres condiciones de contorno se ve muy afectado por las dimensiones del problema y la posición relativa del punto óptimo global y el límite del espacio de búsqueda. Para resolver este problema, Huang propuso un límite de amortiguación híbrido basado en las características de las paredes absorbentes y reflectantes para obtener un rendimiento robusto y consistente. Mikki combina una restricción de posición estricta con la tecnología de pared de atracción y pared reflectante, y los experimentos demuestran que puede lograr mejores resultados.
La elección del tamaño de la población es relevante para el problema, pero no es muy sensible al mismo. 20-50 es una opción más común. En algunos casos, se pueden utilizar poblaciones más grandes para satisfacer necesidades especiales.
La inicialización de la población también es un tema muy importante.
Generalmente, la población inicial se genera aleatoriamente, pero también existen una variedad de métodos inteligentes de inicialización de la población, como el uso del método simplex no lineal (NSM), la partición centroide de Voronoi, el diseño ortogonal, el diseño uniforme y otros métodos para determinar la inicialización de la población. Algoritmo PSO para hacer que la distribución de la población inicial sea lo más uniforme posible, ayudando al algoritmo a explorar el espacio de búsqueda de manera más eficiente y encontrar mejores soluciones. Robinson señaló que el algoritmo PSO y el algoritmo GA se pueden usar secuencialmente. La población después de la optimización del algoritmo PSO se usa como población inicial del algoritmo GA, o por el contrario, se usa la población después de la optimización del algoritmo GA. como población inicial del algoritmo PSO. Ambos pueden obtener buenos resultados.
Además, algunas personas ajustan los parámetros del algoritmo PSO mediante análisis de sensibilidad, árboles de regresión, estadísticas computacionales y otros métodos para mejorar el rendimiento del algoritmo y resolver problemas prácticos.