+ All Categories
Home > Documents > Optimización Multivariable Irrestricta11 (1)

Optimización Multivariable Irrestricta11 (1)

Date post: 06-Mar-2016
Category:
Upload: angelica-alayo
View: 8 times
Download: 0 times
Share this document with a friend
Description:
metodos numericos

of 43

Transcript

OPTIMIZACIN MULTIVARIABLE IRRESTRICTA

OPTIMIZACIN MULTIVARIABLE IRRESTRICTA

Una importante compaa petrolera desea construir una refinera que recibir suministros desde tres ciudades portuarias. El puerto B esta 300 Km. al este y 400 Km. al norte del puerto A, mientras que el puerto C esta 400 al este y 100 Km. al sur del puerto B. Determnese la localizacin de la refinera, de tal manera que la cantidad total de tubera necesaria para conectar la Refinera con los puertos se minimice.

PROBLEMAFormulacin del Modelo

La Optimizacin puede definirse como el proceso de seleccionar dentro de un conjunto de alternativas posibles, aquella que mejor satisfaga el o los objetivos propuestos. Para la resolucin de un problema de optimizacin se requieren 2 etapas principales:DEFINICIONES BSICAS

La Optimizacin multivariable implica un estudio de datos de 2 dimensiones o ms.El caso particular que se estudiar es la optimizacin en 2 dimensiones, ya que las caractersticas esenciales de bsqueda bidimensionales se aprecian mejor grficamente.

Condiciones necesarias y Suficientes

Teorema 6: Cuando f es convexa, cualquier mnimo local x* es un mnimo global de f. Si adems f es diferenciable, cualquier punto estacionario x* es un mnimo global de f.Teorema 7: Cuando f es cncava, cualquier mximo local x* es un mximo global de f. Si adems f es diferenciable, cualquier punto estacionario x* es un mximo global de f

En este estudio, se tomar como criterio de clasificacin la evaluacin de la derivada. Segn ello, se clasifica as:Mtodos no gradientes (Directos): 1. Bsqueda aleatoria 2. Univariabilidad y bsquedas patrnMtodos Gradiente (Indirectos): 1. Gradientes y Matriz de Hessiana 2. Mtodo de pasos ascendentes 3. Mtodo NewtonCLASIFICACIN DE LOS MTODOS DE OPTIMIZACIN MULTIVARIABLEEstos mtodos varan de procedimientos de fuerza bruta simple a tcnicas elegantes que intentan explorar a la funcin.Se caracterizan esencialmente por no ser necesario derivar funciones.

MTODOS DIRECTOS O NO GRADIENTE

El mtodo de bsqueda aleatoria evala en forma repetida la funcin mediante la seleccin aleatoria de valores de la variable independiente.1.Mtodo de Bsqueda Aleatoria

Enunciado:Utilizar un generador de nmeros aleatorios para localizar el mximo de:

En el dominio acotado por x=-2 a 2; y=1 a 3.

Solucin:1) Graficamos la funcin en el espacioEjemplo Mtodo Bsqueda Aleatoria

Cdigo en MatLabclc,clear% grfica de funcionesx=-2:0.1:2;y=1:0.1:3;[x,y]=meshgrid(x,y);z=y-x-2*x.^2-2*x.*y-y.^2;mesh (x,y,z) %3Dgrid onCodificacin: Grfica de la FuncinObtenemos la Grfica en 3D

Para x:El generador de nmeros aleatorios est dado por:Los valores de x estarn determinados por r:Para y:El generador de nmeros aleatorios est dado por:Los valores de y estarn determinados por r:

Generacin de aleatorios

17Cdigo para generar la superficie en el plano xyclc,clear% grfica de funcionesx=-5:0.1:5;y=-5:0.1:5;[x,y]=meshgrid(x,y);z=y-x-2*x.^2-2*x.*y-y.^2;contour (x,y,z,50) % 50 lneas de contornogrid onBsqueda del Mximo en el plano xyGrfica en el plano xy

Aqu se encuentra el mximoLuego de darse el clculo aleatorio de valores, se puede verificar, que el mximo valor para la funcin es f(x, y)=1.25Generacin de valores y clculo del mximo ixYF(x, y)30-0.98861.42821.246260-1.00401.47241.249090-1.00401.47241.2490120-0.98371.49361.2496150-0.99601.50791.2498180-0.99601.50791.2498200-0.99781.50391.2500MXIMOVentajas:1) Es aplicable en discontinuidades y funciones no diferenciables.2) Siempre encuentra al ptimo global, ms que el local.Desventajas:1) A medida que crece el nmero de variables independientes, aumenta considerablemente el esfuerzo de implementacin.2) No se toma en consideracin el comportamiento de la funcin para reducir la velocidad en la optimizacin.Ventajas y Desventajas del M. Bsqueda AleatoriaCaractersticas esenciales del Mtodo:No necesita el clculo de derivadasMtodo eficiente que aprovecha la naturaleza de la funcin para optimizar con mayor rapidez.

2. Mtodo de Univariabilidad y bsquedas patrn

Consiste en trabajar con slo una variable a la vez, para mejorar la aproximacin, mientras que las otras permanecen constantes. Puesto que nicamente cambia una variable, el problema se reduce a una secuencia de bsqueda en una dimensin, que se pueden resolver con una diversidad de mtodos de optimizacin univariable.

Estrategia del Mtodo de Univariabilidad y Bsquedas patrn1) Se comienza en el punto 1 y se mueve a lo largo del plano xy hacia el mximo en el punto 2.2) Luego se mueve a lo largo del eje y con x, constante hacia el punto 3.3) El proceso se repite generando los puntos 4,5,6.

Se fundamenta en el concepto de direcciones-patrn: trayectorias que permiten llegar directamente al mximo.Se basa en bsquedas en una dimensin en la misma direccin, pero con diferentes puntos de partida (direcciones conjugadas).Mtodo de Powell y bsquedas patrn

Los mtodos gradiente usan de forma explcita informacin de la derivada para generar algoritmos eficientes que localicen al ptimo.Antes de la descripcin de los procedimientos de manera especfica, recurriremos al estudio de algunos conceptos y operaciones matemticas clave.MTODOS INDIRECTOS O GRADIENTESDerivada DireccionalLa derivada direccional da la razn de cambio de los valores de la funcin f(x, y) con respecto a la distancia en el plano XY en la direccin del vector unitario Si se quiere saber la pendiente de una regin arbitraria y definimos nuestra posicin como si estuviramos en el origen del nuevo eje (h->0), se tiene:

1.La Gradiente y la Matriz Hessiana

Si se obtiene la pendiente con respecto a una direccin cualquiera, entonces se tiene:

En su forma vectorial para muchas variables:

Definicin de la Gradiente

La matriz Hessiana est definida como una matriz de orden n de la siguiente manera:Para el caso particular de 2 variables se tiene como matriz Hessiana y a su determinante: Matriz Hessiana

Se obtienen los siguientes casos: Para F(x,y)1) Mnimo Local Si y adems 2) Mximo LocalSi y adems 3) Punto de SillaSi4) No se tiene informacinSi Criterio de la Segunda derivada

F(x,y,z,)Esta matriz M se dice definida positiva si cumple con una (y por lo tanto, las dems) de las siguientes formulaciones equivalentes:1.Para todos los vectores no nulos z Cn tenemos que ZT M Z >0Ntese que ZT M Z es siempre real. El producto anterior, recibe el nombre de Producto Cuntico.2.Todos los autovalores i de M son positivos. (Recordamos que los autovalores de una matriz simtrica, son reales.)3.Todos los determinantes de los menores principales de M son positivos. O lo que es equivalente; todas las siguientes matrices tienen determinantes positivo.la superior izquierda de M de dimensin 1x1la superior izquierda de M de dimensin 2x2la superior izquierda de M de dimensin 3x3...Matriz positiva definidala superior izquierda de M de dimensin (n-1)x(n-1)M en s misma.Para matrices semidefinidas positivas, todos los menores principales tienen que ser no negativos (Criterio de Silvestre o Sylvester).Anlogamente, si M es una matriz real simtrica, se reemplaza por , y la conjugada transpuesta por la transpuesta.Este mtodo est caracterizado por 2 pasos fundamentales:1) determinar la mejor direccin para la bsqueda 2) establecer el mejor valor a lo largo de esa direccin de bsqueda.2.Mtodo de pasos ascendentes

Enunciado:Maximizar la siguiente funcin:

Usar como valores iniciales, x=-1,y=1.

Solucin:Ejemplo: Mtodo de pasos ascendentes

1) De manera analtica:*Aplicamos las derivadas parciales:

*Aplicamos 2das derivadas parciales para determinar y evaluar el ptimo:

Ejemplo: Mtodo de pasos ascendente

Punto P(2,1) es Mximo Local2) Mtodo de pasos ascendentes1RA iteracin: Las derivadas parciales se evalan en P(-1,1):

La funcin se expresa a lo largo del eje como:

Ubicamos el mximo (h=h*):

Encontramos los puntos P(x, y):

METODO DE NEWTON RAPHSONRecordar que el mtodo de Newton converger a un mnimo local si la Hf es positiva definida sobre alguna vecindad alrededor del mnimo y si X1 queda dentro de esa vecindad.Recordar que el mtodo de Newton converger a un mximo local si la Hf es negativa definida sobre alguna vecindad alrededor del mximo y si X1 queda dentro de esa vecindad.

Mtodo de NewtonSi no se selecciona correctamente Xo, el mtodo puede converger a un mnimo local en lugar de a un mximo o viceversa o puede no converger en absoluto.En ambos casos el proceso iterativo se da por terminado y se inicia nuevamente con una mejor aproximacin inicial.

Mtodo de NewtonEjemplo: Mtodo de Newton

Ejemplo: Met. Newton-Raphson

Mtodo de Newton Raphson


Recommended