En otras publicaciones, p. Ej. demostró cómo implementar la programación lineal en R y Python. También he compartido ejemplos de p. Ej. Optimización de gradiente-descenso para problemas no lineales.
En esta publicación, quiero proporcionar una descripción general de varios tipos de problemas de optimización. En primer lugar, me gusta clasificar los problemas de optimización por su linealidad y convexidad. La siguiente figura muestra lo que quiero decir:
Los problemas lineales son convexos, ya que su función objetivo es lineal y, por tanto, convexa y todas las restricciones son lineales y, por tanto, convexas.
Los problemas no lineales pueden ser convexos o no convexos. Además, categorizo los problemas de optimización no convexa según los programas y algoritmos que se pueden aplicar para resolverlos.
Además del enfoque de categorización anterior, se deben aplicar criterios adicionales al clasificar los problemas de optimización. Estos se muestran en la siguiente figura:
Los problemas continuos tienen variables continuas, mientras que los problemas discretos tienen un espacio de solución discreto.
Los problemas sin restricciones tienen un espacio de solución que no está restringido. Los problemas restringidos tienen un espacio de solución restringido.
Algunos problemas buscan minimizar o maximizar un solo objetivo. Otros problemas consideran múltiples objetivos.
Algunos problemas tienen variables deterministas, mientras que otros problemas tienen cierta incertidumbre relacionada, por ejemplo, con variables incluidas por el problema (por ejemplo, demanda o ventas esperadas, que podría ser un pronóstico que se mueve dentro de algún rango de estimaciones).
Ingeniero industrial especializado en optimización y simulación (R, Python, SQL, VBA)
Leave a Reply