+ All Categories
Home > Documents > Optimizacion

Optimizacion

Date post: 23-Jun-2015
Category:
Upload: javier-petit
View: 147 times
Download: 1 times
Share this document with a friend
Description:
TRABAJO REALIZADO POR JAVIER PETIT PARA LA CATEDRA DE OPTIMIZACION DE SISTEMAS Y FUNCIONES
Popular Tags:
16
REPÚBLICA BOLIVARIANA DE VENEZUELA MINISTERIO DEL PODER POPULAR PARA LA EDUCACIÓN UNIVERSITARIA INSTITUTO UNIVERSITARIO POLITECNICO “SANTIAGO MARIÑO” EXTENCIÓN COL-CABIMAS Autor: Javier Petit 12713275 Optimización de Sistemas Prof. Ing. Sara López Kuhn Tucker y Lagrange
Transcript
Page 1: Optimizacion

REPÚBLICA BOLIVARIANA DE VENEZUELAMINISTERIO DEL PODER POPULAR

PARA LA EDUCACIÓN UNIVERSITARIAINSTITUTO UNIVERSITARIO POLITECNICO

“SANTIAGO MARIÑO”EXTENCIÓN COL-CABIMAS

 Autor: Javier Petit12713275

Optimización de SistemasProf. Ing. Sara López

Kuhn Tucker y Lagrange

Page 2: Optimizacion

Definición:En los problemas de optimización, los multiplicadores de Lagrange, nombrados así en honor a Joseph Louis Lagrange, son un método para trabajar con funciones de varias variables que nos interesa maximizar o minimizar, y está sujeta a ciertas restricciones. Este método reduce el problema restringido en n variables en uno sin restricciones de n + 1 variables cuyas ecuaciones pueden ser resueltas. Este método introduce una nueva variable escalar desconocida, el multiplicador de Lagrange, para cada restricción y forma una combinación lineal involucrando los multiplicadores como coeficientes. Su demostración involucra derivadas parciales, o bien usando diferenciales totales, o sus parientes cercanos, la regla de la cadena. El fin es, usando alguna función implícita, encontrar las condiciones para que la derivada con respecto a las variables independientes de una función sea igual a cero.

Page 3: Optimizacion

Biografía:

Albert William Tucker (28 de noviembre de 1905 – 25 de enero de 1995) fue un matemático estadounidense nacido en Canadá que realizó importantes contribuciones a la Topología, Teoría de juegos y a la Programación no lineal.

Page 4: Optimizacion

OBJETIVOS DE

KUHN TUCKERCubrir todos los aspectos necesarios para satisfacer los problemas

relacionados con la optimización de programaciones lineales y no lineales, independientemente de la causa o de la intensidad de estas, otorgando como resultado final que no existan restricciones de desigualdad que generen incertidumbre.

Page 5: Optimizacion

Consideremos el problema general de optimización:

Min f(x)Sujeto a:

gi(x) ≤ 0,i = 1,…,mhj(x) = 0,j = 1,…,l

Donde f(x) es la función objetivo a minimizar, gi(x) son las restricciones de desigualdad, con m y l con el número de restricciones de desigualdad e igualdad respectivamente.

SU APLICACION

Page 6: Optimizacion

La importancia de este teorema radica en que nos dice que podemos asociar una función de utilidad a unas preferencias, esto nos abre la puerta de la potente herramienta del análisis matemático al estudio del comportamiento del consumidor.

SU IMPORTANCIA

Básicamente el procedimiento consiste en resolver el problema no lineal como uno sin restricciones, luego si la solución óptima de dicho problema no cumple la totalidad o parte de las restricciones del problema se activan dichas restricciones (en conjunto y/o secuencialmente) y se resuelve nuevamente. Esto se repite hasta llegar a un conjunto de restricciones activas cuya solución también satisface las restricciones omitidas. Notar que si se han activado la totalidad de restricciones sin encontrar una solución factible, entonces el problema es infectable. Esta característica particular de los modelos no lineales permite abordar problemas donde existen economías o de economías de escala o en general donde los supuestos asociados a la proporcionalidad no se cumplen.

CAMPO DE APLICACION

Page 7: Optimizacion

1) Cualificación de la restricción de independencia lineal (CRIL): los gradientes de las restricciones activas de desigualdad y los gradientes de las restricciones de igualdad son linealmente independientes en .

CONDICION

2) Cualificación de la restricción de Mangasarian-Fromowitz (CRMF): los gradientes de las restricciones activas de desigualdad y los gradientes de las restricciones de igualdad son linealmente independientes positivos en .

3) Cualificación de la restricción de rango constante (CRRC): para cada subconjunto de las restricciones activas de desigualdad y los gradientes de las restricciones de igualdad, el rango en el entorno de es constante.

4) Cualificación de la restricción de dependencia lineal constante positiva (DLCP): para cada subconjunto de restricciones activas de desigualdad y de gradientes de las restricciones de igualdad, si es linealmente dependiente positivo en entonces es linealmente dependiente positivo en el entorno de . ( es linealmente dependiente positivo si existe distintos de cero tal que )

Page 8: Optimizacion

Uno de los problemas más comunes en el cálculo es el de encontrar máximos o mínimos (en general, "extremos") de una función, pero a menudo es difícil encontrar una forma cerrada para la función que se está extremando. Estas dificultades surgen a menudo cuando se desea maximizar o minimizar una función sujeta a condiciones exteriores fijos o restricciones. El método de los multiplicadores de Lagrange es una herramienta poderosa para resolver esta clase de problemas sin la necesidad de resolver explícitamente las condiciones y los utilizan para eliminar las variables adicionales.

Para decirlo más sencillamente, no es por lo general suficiente para preguntar: "¿Cómo puedo minimizar el aluminio necesario para hacer esta lata?" (La respuesta a eso es claramente "Hacer un muy, muy pequeño puede!") ¡Tienes que preguntar: "¿Cómo puedo minimizar el aluminio mientras se asegura la lata celebrará 10 onzas de sopa ? " O del mismo modo, "¿Cómo puedo maximizar el beneficio de mi fábrica dado que sólo tiene $ 15.000 a invertir ? " O, para tomar un ejemplo más sofisticado ", ¿Cuánto tarda en llegar a la montaña rusa de la tierra suponiendo que se mantiene en el camino ? " En general, los multiplicadores de Lagrange son útiles cuando algunas de las variables en la descripción más sencilla de un problema son despedidos por las restricciones.

METODO DE LAGRANGE

Page 9: Optimizacion

En optimización, se define como un procedimiento para encontrar los máximos y mínimos de funciones de múltiples variables sujetas a restricciones.

DEFINICION

Al permitir encontrar los puntos máximos y mínimos de funciones de múltiples variables sujetas a restricciones, permite que esta teoría se adapte a problemas de la vida cotidiana o inclusive mucho más complejos, por permitir ver los resultados óptimos y peores posibles, manejando con ello una amplia gama de oportunidades para visualizar el panorama con el que se encuentra el o los individuos al ejecutar una actividad o proyecto.

OBJETIVOS

Page 10: Optimizacion

Entre las magnificas creaciones y procesos que perfecciono Lagrange se encuentran:•El haber dado a conocer mucho de lo que en la actualidad se conoce sobre astronomía.•El haber desarrollado la mecánica Lagrangiana.•El haber demostrado el teorema de valor medio.

APORTES

Page 11: Optimizacion

APLICACIÓN DEL METODO DE

LARGRANGE Las dos areas mas importantes donde se aplica este metodo:

Economía: La optimización reprimida desempeña un papel central en

la economía.

Page 12: Optimizacion

Por ejemplo, el problema selecto para un consumidor  se

representa como uno de maximizar una función de

utilidad  sujeta a una coacción de presupuesto .

El multiplicador Lagrange tiene una interpretación económica

como el precio de la oposición asociado con la coacción, en

este ejemplo la utilidad marginal de ingresos.

APLICACIÓN DEL METODO DE

LARGRANGE

Page 13: Optimizacion

APLICACIÓN DEL METODO DE

LARGRANGETeoría de control:

En la teoría de control óptimo , los multiplicadores de Lagrange se interpretan

como constates  variables, y los multiplicadores de Lagrange se formulan de nuevo

como la minimización del hamiltoniano , en el principio mínimo de Pontryagin.

Page 14: Optimizacion

La principal diferencia entre las condiciones de Kuhn Tucker y Lagrange, y a pesar que comparten más similitudes que diferencias, es que la primera fue creada con el fin de dar solución a problemas relacionados con la programación lineal, la segunda se adapta a una mayor cantidad de casos (inclusive cotidianos), por lo que se podría decir que a pesar de tener un mayor tiempo desde su creación, tiende a ser más importante la de Lagrange.

DIFERENCIAS

Page 15: Optimizacion

GRACIAS

Page 16: Optimizacion

Recommended