Participa con tu nota. Contacto: daniela_ldl@ieee.org.ar
Nota editorial
Parámetros de parámetros aprendidos: la fórmula del futuro
Entre los sistemas inteligentes hay multitud de estrategias que imitan la inteligencia que la naturaleza aplica pulcra y silenciosamente para resolver problemas vitales empotrados en la compleja maraña de necesidades y oportunidades que vivencia cada elemento de un ecosistema. Los humanos, simples aprendices, seguimos los pasos de nuestra madre sabia para resolver problemas un poco más simples pero necesarios para resolver problemas «humanos».
En la actualidad los algoritmos evolutivos (AE) constituyen una robusta herramienta que permite resolver problemas típicos de optimización. Parientes de ellos encontramos a la familia de los sistemas de evolución diferencial. Ambos comparten una característica fundamental: la sensibilidad a ciertos parámetros de funcionamiento.

(c) Foto de Magda Ehlers: https://www.pexels.com
Durante la última década, han emergido una cantidad considerable de algoritmos evolutivos adaptativos, en los que la información evoluciona en etapas denominadas generaciones, puesto que emulan las generaciones humanas como especie. La idea es que durante el procedimiento de búsqueda evolutiva, la optimización utiliza parte de un resultado obtenido en la generación actual para determinar los parámetros algorítmicos para la próxima generación.
Estudios recientes a menudo suponen que los parámetros algorítmicos siguen algunas distribuciones, mientras que los parámetros de las distribuciones (llamados hiperparámetros) se actualizan con la información recopilada. Ahora los científicos evalúan que el rendimiento de estos AE adaptativos depende en gran medida de los hiperparámetros.
Daniela López De Luise
Academia Nacional de Ciencias de Buenos Aires
Coordinadora Académica CETI

Artículo original de:
Learning Adaptive Differential Evolution by Natural Evolution Strategies.
IEEE Transactions on Emerging Topics in Computational Intelligence, June 2023