+ All Categories
Home > Documents > Algebra ii armando rojo -

Algebra ii armando rojo -

Date post: 28-Nov-2014
Category:
Upload: yonatan-torres-pereira
View: 859 times
Download: 187 times
Share this document with a friend
Description:
 
402
www.FreeLibros.com A L G E B R A I I ARMANDO 0. ROJO IIIIIIII EL ATENEO www.FreeLibros.com
Transcript
Page 1: Algebra ii   armando rojo -

www.FreeLibros.com

A L G E B R A I I

A R MA N D O 0. ROJ O

IIIIIIIIE L A T E N E Owww.FreeLibros.com

Page 2: Algebra ii   armando rojo -

www.FreeLibros.com

álgebra IIArmando O. Rojo

D é c i m a t e r c e r a e d i c i ó n

I I I 1 1 I I I OBRERIA-EDITORIALJ M U Ü Í E L A T E N E O

www.FreeLibros.com

Page 3: Algebra ii   armando rojo -

www.FreeLibros.com

512 (075) Rojo, A rm a ndo O.R O J A lgebra II. - 13a. ed. - B uenos A ires: El A teneo,

1995.X II, 396 p.; 23 x 16 cm.

ISBN 950-02-5205-8

I. T ítu lo - 1 . M a tem á tica - E nseñanza S ecundaria

A d v e r te n c ia im p o rta n te :

Ei d e re c h o de p ro p ie d a d de esta ob ra com prende pa ra su au tor la facu ltad de d ispo ne r de elia, pub licarla , traducirla , adap ta rla o au torizar su traducc ión y reproducirla en cua lqu ie r fo rm a, to ta l o parc ia lm ente, por m ed ios e lec trón icos o m ecán icos, inc luyendo fo tocop ias , g rabación m agneto fón ica y cua lqu ie r s is tem a de a lm acenam ien to de info rm ación.

P or consigu ien te , nadie tiene facu ltad a e je rc ita r los de rechos precitados s in pe rm iso de l au to r y del ed itor, po r escrito.

Los in fracto res serán reprim idos con las penas de l artícu lo 172 y concordantes del C ód igo Penal (arts. 2 , 9 ,1 0 , 71, 72 ley 11.723).

Queda hecho el depósito que establece la ley Ns 11.723.© 1 9 7 3 , 1975, 1976 (3ay 4 a edición), 1978, 1980,1981, 1983, 1985, 1987, 1991,1993, 1995, "EL ATENEO" Pedro García S. A. Librería, Editorial e Inmobiliaria, Florida 340, Buenos Aires.Fundada en 1912 por don Pedro García.

Impreso en T. G. COLOR EFE,Paso 192, Avellaneda, Bs. As., el 6 de marzo de 1995.Tirada: 2.000 ejemplares.

IMPRESO EN LA ARGENTINA

www.FreeLibros.com

Page 4: Algebra ii   armando rojo -

www.FreeLibros.com

PROLOGO

Este libro responde a los contenidos de la asignatura ALGEBRA LINEAL, que figura en los planes de estudios del ciclo básico de Matemática de las facultades e institutos ote profesorado. Se supone adquirido el conocimiento de los temas relativos al álgebra de conjuntos, relaciones, y funciones, y de las estructuras de grupo, anillo y cuerpo. Esencialmente se desarrolla aquí la estructura de espacio vectorial y se estudian los modelos particulares indispensables en la formación actual de profesionales y en las aplicaciones a disciplinas de uso cotidiano, entre las que citamos, por ejemplo, la Estadística y la Investigación operativa.

El esquema seguido es análogo al expuesto en Algebra I, editado por EL ATENEO en 1972. La teoría es ilustrada con el desarrollo de ejemplos en los que el alumno puede apoyarse. En cada capítulo se propone un trabajo práctico cuyas respuestas se sugieren en el texto.

Agradezco a la editorial EL ATENEO y a su personaI la colaboración que me han brindado en todo lo concerniente a esta publicación.

Buenos Aires, mayo de 1973.

A R M A N D O O . ROJO

www.FreeLibros.com

Page 5: Algebra ii   armando rojo -

www.FreeLibros.com

aI

pi

)It

www.FreeLibros.com

Page 6: Algebra ii   armando rojo -

www.FreeLibros.com

CONTENIDO

apítulo 1. ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIO1 . 2 . Concepto de espacio vectorial1 . 3 . Propiedades de los espacios vectoriales

I 1. 4. Espacio vectorial de funciones! 1. 5. Espacio vectorial de n-uplas, 1 . 6 . Espacio vectorial de matrices, 1 . 7. Espacio vectorial de sucesiones

1. 8 . Subespacios1. 9. Operaciones entre subespacios

Trabajo Práctico I

pítulo 2. DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION2 . 2 . Combinaciones lineales 2. 3. Subespacio generado 2 . 4. Dependencia e independencia lineal 2. 5. Sistema de generadores2. 6 . Base de un espacio vectorial ^2. 7. Dimensión de un espacio vectorial 572 . 8 . Dimensión de la suma

¡ Trabajo Práctico II

iítulo 3. TRASFORMACIONES LINEALES

3. 2 . Trasformación lineal entre dos espacios vectoriales 66I 3. 3. Núcleo e imagen de una trasformación lineal 72

3. 4. Dimensiones del núcleo y de la imagen 803. 5. Teorema fundamental de las trasformaciones lineales 833. 6 . Producto de matrices 853. 7. Matriz asociada a una trasformación lineal 863. 8 . Composición de trasformaciones lineales 923. 9. Trasformación lineal 110 singular 933.10. Composición de trasformaciones lineales y producto de matrices 963.11. Espacio vectorial de trasformaciones lineales 983.12. Espacio dual de un espacio vectorial in i

Trabajo Práctico III ^

1

167

101113152027

303034425153

6063

66

www.FreeLibros.com

Page 7: Algebra ii   armando rojo -

www.FreeLibros.com

X C O N T E N ID O

Capítulo 4. MATRICES 106

4. 2. Producto de matrices 1064. 3. Anillo de matrices cuadradas 1094. 4. Trasposición de matrices 1104. 5. Matrices simétricas y antisimétricas 1124. 6 . Matrices triangulares 1144. 7. Matrices diagonales 1144. 8 . Matrices idempotentes e involutivas 1154. 9. Inversa de una matriz no singular 1164.10. Matrices ortogonales 1174.11. Matrices hermitianas 1184.12. Matrices particionadas 1214.13. Espacios fila y columna de una matriz 1234.14. Operaciones y matrices elementales 1304.15. Equivalencia de matrices 1334.16. Método de Gauss Jordán para determinar el rango 1354.17. Inversión de matrices por Gauss Jordán 1384.18. Inversión de matrices por partición 1414.19. Cambio de base y semejanza de matrices 144

Trabajo práctico IV 149

Capítulo 5. DETERMINANTES 155

5. 2. Determinantes 1555. 3. Propiedades de la función determinante 1575. 4. Existencia de D 1615. 5. Unicidad del determinante 1635. 6 . Determinante de la traspuesta 1665. 7. Determinante del producto de dos matrices 1695. 8 . Adjunta de una matriz cuadrada 1705. 9. Inversión de matrices no singulares 1725.10. Regla de Cilio 174

Trabajo Práctico V 177

Capítulo 6 . SISTEMAS LINEALES 181

6 . 2. Sistemas lineales 1816 . 3. Teorema de Cramer 1876. 4. Compatibilidad de sistemas lineales 1886. 5. Resolución de sistemas lineales 1906. 6. Sistemas homogéneos 1966. 7. Conjunto solución de un sistema lineal 1986. 8. Resolución de sistemas simétricos 2026. 9. Método del orlado 205

Trabajo Práctico VI 210

www.FreeLibros.com

Page 8: Algebra ii   armando rojo -

www.FreeLibros.com

CO N TEN ID O X I

Capítulo 7. PRODUCTO INTERIOR. GEOMETRIA VECTORIAL 214

7. 2. Espacio vectorial euclidiano 2147. 3. Ortogonalidad 2197. 4. Desigualdad de Schwarz 2227. 5. Desigualdad triangular 2237. 6. Angulo de dos vectores 2237. 7. Conjunto ortogonal de vectores 2257. 8. Base ortonormal 2257. 9. Complemento ortogonal 2297.10. Proyección de un vector sobre otro 2327.11. Espacio afín Rn 2337.12. Ecuaciones vectorial y cartesianas de la recta 2367.13. Ecuación normal vectorial del plano 2397.14. Curvas en el espacio 2467.15. Superficie cilindrica 2497.16. Superficie cónica 2517.17. Proyección de una curva sobre un plano 253

Trabajo Práctico VII 257

Capítulo 8. VALORES Y VECTORES PROPIOS. DIAGONALIZACION 263

8. 2. Valores y vectores propios 2638. 3. Polinomio característico de una matriz 2708. 4. Diagonalización de matrices 2768. 5. Triangulación de endomorfismos y de matrices 2798. 6. Teorema de Hamilton-Cayley 282

Trabajo Práctico VIII 285

Capítulo 9. FORMAS BILINEALES Y CUADRATICAS 289

9. 2. Formas bilineales 2899. 3. Formas hermitianas 2939. 4. Formas cuadráticas 2949. 5. Operadores adjuntos y traspuestos 2969. 6. Operadores hermitianos y simétricos 2999. 7. Operadores unitarios y ortogonales 3009. 8. Teorema de Sylvester 3039. 9. Diagonalización de operadores simétricos 3079.10. Matrices simétricas reales y valores propios 3109.11. Descomposición espectral de una matriz 3119.12. Congruencia de formas cuadráticas 3149.13. Signo de una forma cuadrática 318

Trabajo Práctico IX 321

www.FreeLibros.com

Page 9: Algebra ii   armando rojo -

www.FreeLibros.com

X II CO N T E N D IO

Capítulo 10. CONVEXIDAD. PROGRAMACION LINEAL 325

10.2. Conjuntos de puntos en Rn 32510.3= Segmentos, hiperplanos y semiespacios 33010.4. Convexidad en Rn 33610.5. Convexidad y trasformaciones lineales 33910.6. Hiperplanos soportantes 34210.7. Puntos extremos 34410.8. Introducción a la Programación Lineal 346Trabajo Práctico X 356

BIBLIOGRAFIA 359

RESPUESTAS A LOS TRABAJOS PRACTICOS 361

INDICE 393

www.FreeLibros.com

Page 10: Algebra ii   armando rojo -

www.FreeLibros.com

Capítulo 1

ESTRUCTURA DE ESPACIO VECTORIAL SUBESPACIOS

1.1. INTRODUCCION

La estructura de espacio vectorial, que tratamos en este capítulo, es el concepto básico del Algebra Lineal. Confiere unidad y precisión a temas esenciales de la matemática que tienen vastas aplicaciones en la ciencia y en la tecnología actuales. Después de introducir el sistema axiomático y de dar las propiedades fundamentales, proponemos los espacios vectoriales de funciones,de los que se derivan los modelos de los espacios de matrices, n—uplas y sucesiones de elementos de un cuerpo. Se da, finalmente, el concepto de subespacio.

1.2. CONCEPTO DE ESPACIO VECTORIAL

Sean: V un conjunto no vacío, K un cuerpo, + y . dos funciones, que llamaremos suma y producto, respectivamente.

Definición

El objeto (V, + , K , . ) es un espacio vectorial si y sólo si se verifican los siguientes:

Aj . La suma es una ley de composición interna en V.

+ : V2 -> V

O sea

x e V a y e V =>x + y e V

Esto significa que la suma de dos elementos cualesquiera de V es un único elemento deV.

A2 . La suma es asociativa en V.

(x + y) + z = x + (y + z)

cualesquiera que sean x, y, z en V.

www.FreeLibros.com

Page 11: Algebra ii   armando rojo -

www.FreeLibros.com

A3 . Existe un neutro para la suma en V.El elemento neutro se denota con 0.

3 0 e V / V x e V : x + 0 - 0 + x = x

A4 • Todo elemento de V admite inverso aditivo u opuesto en V.

V x e V , 3 y e V / x + y = y + x = 0 Al opuesto de x lo denotamos con —x, o sea, y = —x.

A5 . La suma es conmutativa en V.

X + y = y + x

cualesquiera que sean x, y en V.

A6 . El producto es una ley de composición externa en V con escalares u operadores en K. r

. : K X V - > V

De acuerdo con 5.6, Algebraí, del mismo autor, la imagen del par (a, x), donde a e K y x e V, se escribe a x y se llama producto del escalar a por x.O sea

a e K a x e V =>ax e V

A7 . El producto satisface la asociatividad mixta.

V a e K, V P e K, V x e V : a (0 x ) - (a p) xObservamos aquí que los dos productos que figuran en el primer miembro corresponden a la ley de composición externa. Pero el producto a p del segundo miembro se efectúa en K.

A8 . El producto es distributivo respecto de la suma en K.

V a e K , V 0 e K , V x e V : (a + 0 )x = a x + (}x

La suma a + 0 se efectúa en K, pero la suma que figura en el segundo miembro corresponde a la ley de composición interna en V.

Ag . El producto es distributivo respecto de la suma en V.

V a e K , V x e V , V y e V ; a,(x + y ) - o ,x + o ; y Las dos sumas se realizan en V.

A ,0. La unidad dei cuerpo es neutro para el producto.

V x e V : Ix = xdonde 1 denota la identidad en K.

Los axiomas A ,, A2, A3, A4 y As caracterizan a (V ,+ ) como grupo abeliano. Los últimos cinco axiomas son relativos a la ley de composición externa.

Los elementos de V se llaman vectores; en particular, el elemento neutro para la suma

2 ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS

www.FreeLibros.com

Page 12: Algebra ii   armando rojo -

www.FreeLibros.com

ESPACIO VECTORIAL 3

recibe el nombre de vector nulo. A menudo hablaremos del espacio vectorial V, sobrentendiendo que nos referimos a la cuaterna (V, + , K , .). La simplificación de lasnotaciones hace conveniente el uso de los mismos símbolos para nombrar las leyes decomposición interna en K, la suma en V y el producto de escalares por vectores. O sea, al decir K nos estamos refiriendo al cuerpo (K, +, .), donde los signos “+ ” y denotan las dos leyes de composición interna en K, que no tienen el mismo significado que las que figuran en (V, +, K , .). Distinguiendo adecuadamente los elementos de K y los de V, no hay lugar a confusión.

Así

a + ¡3 es una suma en K x 4- y es una suma en Va (i es un producto en K a x es el producto de un escalar por un vector

Ejemplo 1-1.

Sean: V = R2, K = R, la adición definida en R 2 por

(a , b) + (c , d) = (a + c , b + d) (1)

y el producto de números reales por elementos de R 2 definido mediante

a(a , b ) = (oca, ot b ) ( 2 )

Resulta (R2 , + , R , . ) el espacio vectorial de los pares ordenados de números reales sobre el cuerpo de los números reales.

En efecto, de acuerdo con los ejemplos 5-2 y 5-5 iv) del texto nombrado, es (R2 , +) un grupo abeliano.

Por otra parte se verifican:

A6 . Por la definición (2).

A7 . a = u ( P a , & b ) = (a ¡< p a), a (P Z») ) - ( (a (3) a , (afl) b ) =

= (a 0) (a , b)

Hemos aplicado la definición (2), la asociatividad del producto en R y la definición ( 2).

Aa . (a + (3) (a , b) = ( (a + (i)a, (a+j3) Z>J = ( a a + (3a , a b + (ib) =

= (a a , a b) + (j3 a , 0 b) = a (a , b) + j3 ( a , b)

De acuerdo con (2), la distributividad del producto respecto de la suma en R, y las definiciones (1) y (2).

A9 . a (a , b) + ( c , d) J = a (a + c , b +-d)~ ( a (a + c ) , a (b + rf)| =

= (a a + a c , o t b + a d ) = (Oia, <xb) + (ote, o c d ) ~ a ( a , b ) + a ( c , d)

www.FreeLibros.com

Page 13: Algebra ii   armando rojo -

www.FreeLibros.com

4 ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS

Según (1), (2), distributividad de la multiplicación respecto de la adición en R y las definiciones ( I ) y (2). ’ *

A¡0. 1 ( a , b) = (1 a , Ib) = ( a , b)

El significado geométrico de las operaciones de este espacio vectorial es el siguiente: la suma de dos vectores no colineales del plano queda representada por la diagonal del paraleiogramo que forman. El producto de un número real a por un vector no nulo x ~ ( a , b), es el vector a x que tiene la misma dirección que x; el mismo sentido si <*>0, y sentido opuesto si a < 0 . Corresponde a una dilatación si la l> 1 y a una contracción si I ot I < 1. Si a - 0, entonces se obtiene el vector nulo.

Ejemplo 1-2.

En R2 se definen: la suma, como en el ejemplo anterior, y la ley de composición externa mediante

« ( « , * ) = (a , a) (2’)

Se verifica, como antes, que (R 2 , + ) es un grupo abeliano.En cuanto a ( 2 ) , satisface A6. Su significado geométrico es el siguiente: todos los pares ordenados que tienen la misma absisa, al ser multiplicados por cualquier número real, se proyectan sobre la primera bisectriz paralelamente al eje de ordenadas.

www.FreeLibros.com

Page 14: Algebra ii   armando rojo -

www.FreeLibros.com

ESPACIO VECTORIAL

También se satisface A7, pues

« {$(<*,b)) = <*(a,a) = ( a , a ) = ( a $ ) ( a , b )

No se verifica A8, ya que

(a +i 3 ) ( a , b ) = (a, a)

pero

a (a , b) + 0 (a , b) = (a , a) + ( a , a) = (2a , 2a)

Este hecho es suficiente para afirmar que no se trata de un espacio vectorial.El lector puede comprobar que esta interpretación cumple A9 pero no A 10 . Observamos aquí que la estructura de espacio vectorial no es inherente exclusivamente al conjunto V, sino que, además, depende de K y de las leyes de composición que se definan. Aclaramos que toda vez que se mencione al espacio vectorial (R2, + , R , .) se sobrentenderá que la suma y el producto son los definidos en (1) y en (2) del ejemplo

Ejemplo 1-3.

La estructura de espacio vectorial no es un sistema axiomático independiente, pues As puede deducirse sobre la base de los restantes axiomas.En efecto

www.FreeLibros.com

Page 15: Algebra ii   armando rojo -

www.FreeLibros.com

x + x + y + y ^ l x + lx + ly + ly = (1 + l ) x + ( l + l )y — (1 + 1 ) 0 + y)

= 1 (x + y) + 1 (x + y) = l x + ly + l x + ly = x + y + x + y

en virtud de Aio , Ag, A9, Ag, A9 y A10 .

O seaX + x + y +*y - X + y + x + y

Por ley cancelativa en el grupo (V , + ) resultax + y = y + x

1.3. PROPIEDADES DE LOS ESPACIOS VECTORIALES

Sea (V, + , K , .) un espacio vectorial.

1.3.1. El producto del escalar O por cualquier vector es el vector nulo.

En efecto, por neutro para la suma en K y A8 esa x = (a + 0)x = ax + Ox

Por A 3 se tieneJJHC + O O x

Y por ley cancelativa resulta0 x = 0

1.3.2. El producto de cualquier escalar por el vector nulo es el vector nulo.

Por A 3 y A9 esa x = f l ( x + 0 ) = « x + a 0

Entoncesa x + a O = o i x

Por A3JX-X-+ a O ~xhc + O

Y por regularidad en (V, +), resultaa O = O

5 ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS

www.FreeLibros.com

Page 16: Algebra ii   armando rojo -

www.FreeLibros.com

1.3.3.Si el producto de un escalar por un vectores el vector nulo, entonces el escalar es 0 o el vector es nulo.

a x = 0 ^ a = 0 v x = 0

Se presentan dos posibilidades: a ~ 0, o bien, a 0En el primer caso es verdadera la primera proposición de la disyunción que figura en la

tesis, y por consiguiente ésta es verdadera.En el segundo caso es necesario probar que x = 0.En efecto, siendo 0, existe el inverso multiplicativo en K, a ’1. Partiendo de la

hipótesis, premultiplicando por a 1, usando A7, 1.3.2., el producto de inversos en K y Ai0 se tiene

a x = 0 => a -1 (a x) = a-1 0 => (a’1 a ) x = 0 lx ~ 0 x = 0

1.3.4. El opuesto de cualquier escalar por un vector es igual al opuesto de su producto.

(--«) x = - (a x)

Teniendo en cuenta A4, 1.3.1., la suma de opuestos en K y A8, es

— ( a x ) + a x = 0 = 0 x = (—a + a) x = ( - a ) x + a x

De

( a ) x +-e¿'X'= - (a x) + jxjc

después de cancelar, resulta

( - a) x = - (a x)

En particular se tiene

(—1) x = --(1 x) = - x

PROPIEDADES DE LOS ESPACIOS VECTORIALES 7

1.4. ESPACIO VECTORIAL DE FUNCIONES

El símbolo Kx denota el conjunto de todas las funciones con dominio un conjunto X # 0 y codominio un cuerpo K, o sea

Kx = { f / f : X - > K |

En Kx definimos la suma de funciones y el producto de escalares por funciones mediante

i ) Si f y g son dos elementos cualesquiera de Kx , entonces f + g : X -»■ K es tal que

(f + g) (x) = f (*) + g (x ) V j c c X

ii) Si a es cualquier elemento de K y f es cualquier elemento de Kx , entonces a f : X -> K es tal que

(a f) (x) = a f (x) V x e X

www.FreeLibros.com

Page 17: Algebra ii   armando rojo -

www.FreeLibros.com

Tanto la suma de funciones con dominio X =É 0 y codominio K, como el producto de escalares por funciones, se llaman leyes de composición punto a punto.

Resulta (KX, + , K , . ) un espacio vectorial. Para ello, veamos que se verifican los axiomas.

A ( . f e Kx a g e Kx => f + g e Kx por la definición i)

A2 .Sean f, g y h en Kx . Cualquiera que sea x e X se verifica, teniendo en cuenta ladefinición i) y la asociatividad de la suma en K:

( ( f + g) + h ) (x) = (f + g )(x ) + h (x ) = ( f ( x ) + g (x ) j + h (x) =

= f (x) 4- ( g (X) + h (x) J = f (x) + (g + h) (x) - ( f + (g + h) (x)

Y por definición de funciones iguales resulta

(f + g) + h = f + (g + h)

A3 . El vector nulo es la función nula

e: X K definida por e (x) = 0 cualquiera que sea x e X .

Sea f e Kx . Teniendo en cuenta i), la definición de e y la suma en K, es

(f + e) 0 ) = f (x) + e (x) = f (x) + 0 = f (x) .Luego

f + e = f

Análogamente se verifica que e + f - f.

A4 • Inverso aditivo de f e Kx es la función - f : X -+ K definida por (~ f) (x) = - f (x)En efecto, para todo x e X se verifica

( - f + f) (x) = ( f) (x) + f (x) - - f (x) + f (x) = 0 = e (x)O sea

( - f ) + f = e

Análogamente se prueba que

f + ( - f ) = e

As . La suma en Kx es conmutativa, ya que

(f + g) O ) = f (x) + g (x) = g (x) + f (x) = (g + 0 (x)Luego

f + g = g + f cualesquiera que sean f y g en Kx .

8 ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS

A 6 . a e K A f e K x => a f e K x p o r la d e f in i c i ó n i i ) .

A 7 . S e a n a e K , / 3 e K y f e K x .

www.FreeLibros.com

Page 18: Algebra ii   armando rojo -

www.FreeLibros.com

Entonces

(a<JJf)) W = « ( ( Í O W ) = « ( p f ( x ) ) = (a f l) f ( je ) = ( ( a f í t j (x)

Luego

a(/3 f) = (a /? )fA8 . Considerando

a e K , 0 e K y f e K x es

((« + P) f j (*) = (a + p) f (x) = a f (x) + p f (X) =

= (a f) (jc) + (/i f) (x) = (a f + p f) (x)

en k“ ¡)“ i r “ " 3 tenÍend° “ CUe,,ta i0 ’ 13 d¡S,ributiVÍdad ^ 13 asociatividad del producto Entonces es

(a + |3)f = a f + 0 f

A9 . Sean a e K , f e K x y g e K x .

y 0 » r2 e 0, distdbutividad del pr0duct0 resP“ ‘° de la suma en K y por las definiciones ii)

( “ (f+g)J (*) = <* ((f + g )W ) = , ( f W + g W ) = = a f W + « g W = (oif) (A:) + (a g)(*) = (a f + a g ) w

O sea

a ( ? + g ) ~ a : f + a g

AI0 . Cualquiera que sea f en Kx se verifica

(lf)C *) = 1 f (* ) = f(je)

Luego

1 f = f

no Vedt0rial de laS funci0nes definidas “ 61este espacio IZltZl ^ ^ C° mP° S1CÍÓn PUn‘° 3 P“ ‘°- Los

La figura siguiente explica la situación en el caso particular en que K = R y X = [0,1 ]

ESPACIO VECTORIAL DE FUNCIONES <.

www.FreeLibros.com

Page 19: Algebra ii   armando rojo -

www.FreeLibros.com

10 ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS

1.5. ESPACIO VECTORIAL DE «-UPLAS DE ELEMENTOS DE K

Con relación al espacio vectorial de funciones (Kx , +, K , .) consideremos el caso particular en que X es el intervalo natural inicial I„. Toda función f: ln -*■ fí es una n-upla de elementos de K, y escribiendo K1" = K" es (K", + , K , .) el espacio vectorial de las n-uplas de elementos de K.

Las definiciones i) y ii) dadas en 1.4. se traducen aquí de la siguiente manera:

i ) Si f y g denotan elementos de K", entonces f + g es la función de 1„ en K definida por

(f + g) Í0 ” f (0 + g ( 0 cualquiera que sea i e l„Es decir

c i = ( f + g) (0 = f (0 + g (0 = a¡ + bi donde au b¡ y c¡ son las imágenes de i dadas por f, g y f + g, respectivamente.

En consecuencia, dos n-uplas de elementos de K se suman componente a componente.

ii) Si oí e K y f e K ", entonces a f es la función de I„ en K definida por

(a f) (?) = a f (/) cualquiera que sea / e In .

Denotando mediante c,- la imagen de i dada por a f es

Ci = (a 0 (0 = oc f (/) = a a¡

www.FreeLibros.com

Page 20: Algebra ii   armando rojo -

www.FreeLibros.com

Es decir, el producto de un elemento de K por una n-upla se realiza multiplicando en K a dicho elemento por cada componente de la n-upla.

En particular (K, +, K , .) es el espacio vectorial donde los vectores se identifican con los elementos del cuerpo K. En este caso, la ley de composición externa es interna.

En consecuencia, (R, +, R , .) es el espacio vectorial de los números reales sobre el cuerpo de los reales. Este es un caso particular del espacio vectorial de las n-uplas de números reales sobre el cuerpo de los reales, que denotamos mediante (Rn, + , R , .).

(C", +, C , .) es el espacio vectorial de las n-uplas de números complejos sobre el cuerpo de los complejos.

ESPACIOS DE N-U PLA S Y DE MATRICES j x

1.6. ESPACIO VECTORIAL DE MATRICES n x m

Particularizando nuevamente con relación al espacio vectorial tratado en 1.4., considere­mos X = I„ X lm, o sea, el producto cartesiano de los dos intervalos naturales iniciales: eIm •

Llamamos matriz n x m con elementos en K a toda función

La imagen del elemento ( / , /) perteneciente al dominio se denota por a¡j.

La matriz f queda caracterizada por el conjunto de las imágenes

«11 «12 . . . a Xm «22 • • • a2m

www.FreeLibros.com

Page 21: Algebra ii   armando rojo -

www.FreeLibros.com

12 ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS

y suele escribirse como un cuadro de n.m elementos de K dispuestos en n filas y m columnas.En cada fila o renglón se escriben las imágenes de todos los pares ordenados que tienen la

misma primera componente, y en cada columna se anotan las imágenes de todos los pares ordenados que tienen la misma segunda componente. El elemento de la matriz que figura en la fila i y en la columna j se denota por a¡j, y es la imagen dada por f, del par (i, /). Llamando A a la matriz cuyo elemento genérico es ay, escribiremos

«11 «12 «13«21 «22 «23

A =

«i,l 2 m

« n i « n 2 a n3

Tanto las filas como las columnas de A se llaman líneas de la matriz. Abreviando, puede escribirse

A = (a¡j) donde /= 1, 2 ,. . . , n y / = 1, 2 , . . m

El conjunto de todas las matrices n x m con elementos en K. es K!»XIm y se denota mediante KnXm.

Las definiciones i) y ii) dadas en 1.4, se traducen aquí de la siguiente manera: si A y B son dos matrices de K” x m , su suma es C e K" x m, tal que

c¡j = (f + g) (i, j) = f (/,/) + g (/, /) = au + b¡j

y el producto del escalar a e K por la matriz A es la matriz de Kn x m cuyo elemento genérico cu es tal que

c¡i = (a f) ( i , J) = a f (/ , f ) ~ a au

O sea, dos matrices del tipo n x m se suman elemento a elemento; y para multiplicar un escalar por una matriz n x m se multiplica dicho escalar por todos los elementos de la matriz.

La cuaterna (KnXm, + , K , .) denota el espacio vectorial de las matrices n x m con elementos en K. En este espacio, los vectores son matrices.

En particular (KnXn, + , K , .) es el espacio vectorial de las matrices cuadradas, es decir, de n filas y n columnas.

El vector nulo del espacio K" x m se llama matriz nula; la denotaremos mediante N, y está definida por «y = 0 V i V /.

La matriz inversa aditiva u opuesta de A = (a¡j) es B, cuyo elemento genérico satisface la relación b¡¡ = -a¡j. Escribiremos B = —A.

Por definición de funciones iguales resulta A = B si y sólo si a¡j = b¡j V/ V /.

www.FreeLibros.com

Page 22: Algebra ii   armando rojo -

www.FreeLibros.com

ESPACIO DE SUCESIONES 13

Ejemplo 1-4.

En R2 x 3 se consideran las matrices A y B cuyos elementos genéricos son a a = 2i - j y

¡j .j = 1 — i2. Obtenemos C = A — 2B.La expresión de C es C = A + ( —2)B, y como

1 0 -1

3 2 1 /

resulta

1 0 -1C = +

B =

1.7. ESPACIO VECTORIAL DE SUCESIONES

Sean: X = N y KN el conjunto de todas las funciones de N en K. Los elementos de KN son todas las sucesiones de elementos de K, y retomando lo expuesto en 1.4. resulta (Kn , +, K, .) un espacio vectorial.

Las definiciones i) y ii) de 1.4. se interpretan ahora de la siguiente manera:

Ci = (f + g) (0 = f (0 + g (0 = + bi V ie Nc¡ = (a f) (/) = a f (i) = a a¡ Vi e N

O sea

(«j, a2, + (¿ i, b 2, ■ ■ bn, . . .) = (fli + b i, a2 + b 2, . . an .)

a (fl|, a2, ■ ■ a»t . . .) = (aai , cta2, ■ ■ ocaUi . . .)

El vector nulo es la sucesión

0 = ( 0 , 0 , . . . , 0 , . . .)

Ejemplo 1-5

Sea R [X] el conjunto de los polinomios reales en la indeterminada X. La suma en R [X] se define como en 12.2.2., Algebra 1, del mismo autor. El producto de escalares

www.FreeLibros.com

Page 23: Algebra ii   armando rojo -

www.FreeLibros.com

14 ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS

reales por polinomios es el habitual, o sea si cxeK y P eR [X ], entonces a P es la función de N0 en R definida por (ccP) (i) = a P (i), cualquiera que sea i e N0.

Res ta (R [ X] , + , R , .) el espacio vectorial de los polinomios reales en la indetermina­da X sobre el cuerpo de los números reales.

El conjunto de los polinomios reales de grado 2 no es un espacio vectorial sobre el cuerpo de los reales, porque la suma no es una ley de composición interna en dicho conjunto. Pero el conjunto de los polinomios reales de grado menor o igual que 2 y el polinomio nulo constituye un espacio vectorial sobre R.

Ejemplo 1-6

Sea S el conjunto de las funciones reales definidas en [0,1 ] tales que f (0) = 0, es decir

S = í f : [ 0 , l ] ^ R / f ( 0 ) = 0 j

Como todo elemento de S pertenece a R f0,1 es S C R l0-1)

Considerando las leyes de composición definidas en 1.4., se verifican

A, •feSAges^f(0)=OAg(0)=0=»f(0) + g(0)=c^(f + g)(o) = o=»f + geS

www.FreeLibros.com

Page 24: Algebra ii   armando rojo -

www.FreeLibros.com

SUBESPACIOS 15

A2 Como la suma de funciones es asociativa en R]0,1' , también lo es en S.

A3 . La función nula es el vector nulo de S.

A4 . Todo elemento de S admite un opuesto en S.Si f e S, entonces —f e S, pues (—f) (0) = —f (0) = 0.

As . Cualesquiera que sean f y g en S, se tiene

f+ g = g + f

pues S C R^0,1 ^

A6 a e R a f e S ^ a e R a f (0 ) = 0 = > a f ( 0 ) = 0 =>( a f ) ( 0 ) = 0=»o t f eS

Los restantes axiomas, lo mismo que A2 y A5, por ser identidades en Rl°a í secumplen en S ya que S C R 0’1 J.En consecuencia, (S, + , R , .) es un espacio vectorial.

1.8. SUBESPACIOS

1.8.1. ConceptoDados el espacio vectorial (V, + , K , .) y el conjunto no vacío S C V, si S es un espacio

vectorial sobre el mismo cuerpo K y con las mismas leyes de composición que en V, diremos que (S, + , K , .) es un subespacio de (V, + , K , .), o simplemente, que S es uí? subespacio de V.

DefiniciónS es un subespacio de (V, + , K , .) si y sólo si (S, + , K, .) es un espacio vectorial.

Cualquiera que sea (V, + , K , .), tanto V como j 0} son subespacios de V, llamados triviales.

Ejemplo 1'7

Consideremos el espacio vectorial (R 2 , + , R , .) y los subconjuntos

T = ¡ (x, y ) e R2 i y = x + 1 ¡ S = {(x, y ) e R2 f y = 2 x )

T no es un subespacio, pues el vector nulo (0,0) ¿ T .En cambio, S es un subespacio de R2 , ya que

1° (S, + ) es un subgrupo de (R2 , +). En efecto, de acuerdo con la condición suficiente demostrada en 8.4.2., Algebra I , del mismo autor.se verifica

( x , y ) e S a ( x ’, y r) e S ^ y = 2x a y ’= 2 x ’^ y - y ’= 2 ( x -*•)=>

(x - x \ y - y 1) e S => (x, y ) + ( - x -y*) e S

www.FreeLibros.com

Page 25: Algebra ii   armando rojo -

www.FreeLibros.com

16 ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS

2o Respecto de la ley de composición externa consideramos

Los axiomas A ,, A ,, A , y A ,„ , por ser igualdades en R 2, se cumplen en S ya que S C R

De la definición se deduce que (S, + , K , .) es un subespacio de (V, +, K, .) si y sólo si (S, + ) es un subgrupo de (V, +) y S es cerrado para el producto por escalares.

1.8.2. Condición suficiente

e n t L l T s ^ K n^ ? C‘° ^ V “ Cr ? v ° Para la SUma y Para 61 Pr0duct0 P0r e s c a la r c s .entonces (a, t , K , .) es un subespacio de (V, + , K , .).

Hipótesis) (V, + , K , .) es un espacio vectorial ^ S C V

1 . x e S a y eS=>x + y e S2. oí e K a x e S => a x e S

Tesis) (S, +, K , .) es un subespacio de (V, +, K , .)

Demostración)

1° Consideremos dos vectores cualesquiera x e y en S. De acuerdo con la condición 2 de la hipótesis, por 1.3.4. y por la condición 1. de la hipótesis,se tiene

www.FreeLibros.com

Page 26: Algebra ii   armando rojo -

www.FreeLibros.com

SUBESPACIOS

x e S A y e S = > x e S A ( - l ) y e S = ^ x e S A - y e S => x + ( - y ) e S

En consecuencia,(S, +) es un subgrupo de (V, +).

T S es cerrado para el producto por escalares, de acuerdo con la condición 2 de la hipótesis.

La aplicación del teorema demostrado es esencial para determinar si un conjunto S es un subespacio de (V, + , K, .). Para que lo sea, deben verificarse las condiciones que figuran en la hipótesis del mismo, a saber:

1. S =f=4>2. S C V3. x e S A y e S = > x + y eS4 . a e K A x e S = * a x e S

Estas condiciones son, además, necesarias. Es decir, sabiendo que S es un subespacio son proposiciones verdaderas.

Ejemplo 1-8

Sean: el espacio vectorial (R 3, + , R , .), y el conjunto S de las ternas ordenadas de R tales que la tercera componente es igual a la suma de las dos primeras.O sea

S= { ( x ^ ^ ^ e R 3 l x z = *i + *2 f

Afirmamos que S es un subespacio de R 3, pues

1. (1, 2, 3) e S => S =£02. S C R3 por la definición de S.3. (x¡, X 2 , X 3 ) eS A O i , ^ 2, ^ 3) e S = > X 3 = X t + X 2 A y 3 - y l + y 2

="^3 + ^ 3 = (* 1 + V l ) + (*2 + 7 2 ) =>0Cl + y 1 , X 2 + y 2 , X 3 + J ' 3) e S = >

^ ( x If x 2, x 3) + ( y l t y 2, y 3) e S

Hemos aplicado sucesivamente: la definición de S, la adición en R, la definición de S y la definición de suma de ternas.

4. a e R a (xj , x 2l x 3) e S ^ a e R a x j =a:1 + x 2 =>

^ a x 3 + otx2 :* ( o ix 1 , a x 2, a x 3) eS=*oc ( x l , x 2, x 3) e $

Por definición de S, multiplicación en R, definición de S y la definición de producto de escalares por ternas.Al subespacio S pertenecen las ternas {xx, x 2, x 3) e R 3 que satisfacen la condición

x \ + x 2 - x 3 = 0

Esta ecuación define un plano que pasa por el origen.

17

www.FreeLibros.com

Page 27: Algebra ii   armando rojo -

www.FreeLibros.com

18 ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS

Ejemplo 1-9

Considerando el espacio vectorial de las funciones reales definidas en [0 11 aue denotamos mediante (R , + , R, .), sean los subconjuntos

1. S = { fe R V /(0 ) = 0 )

2. S = {f e RV/tO) = 1 }

f l e\ CT tiene Un subesPacio de R l. como fue tratado en detalle en el eiemolo1-6. Independientemente del análisis realizado en el ejemplo citado se U» a fmisma conclusion aplicando el teorema demostrado, pero en forma más'stapleEn cuanto al caso 2., S no es un subespacio, pues no es cerrado m ra l í pefecto, las funciones f y g de I en R definidas por P" a ‘a SUma' E"

f(r) = j ; + l g (^ )==x2 + 1

satisfacen las condiciones

f ( ° ) = l g(0) = 1

o sea, son elementos de S. Pero la suma f + g está definida por

( f + g) (x) = f(x) + g ( x ) = x 2 + x + 2 y no pertenece a S, ya que

(f + g )(0 ) = 2

Ejemplo 1-10

Dado el espacio vectorial (R4, +, R , .) consideramos

S - j ( x l t x 2, x 3, * 4) e R 4/x1 + x 2 + x 3 + x 4 = 1 j

Se verifica que

1. pues (1, 0 ,0 , 0 ) e S

2. S C R 4 por la definición de S

3. S 110 es cerrado para la suma ya que

(1, 1 , - 1 , 0 ) e S a (I , 1, - 1 , 0) e S pero

(1, 1, —1, 0) +(1, 1, —1, o) = (2, 2, —2, 0)^S

s V e ^ o h ! T Ía’ S n° 68 Un SUbeSpacio- Por otri> porte, el vector nulo no pertenece a y esto basta para que no sea un subespacio. fenece a

Ejemplo 1-11 .

cdum nas"’ + ’ R ' ° ^ ^ * t o matdCeS CUadradas „ filas y „

www.FreeLibros.com

Page 28: Algebra ii   armando rojo -

www.FreeLibros.com

SUBESPACIOS 19

Si A e R” *n escribimos

A =

au a n #21 #22

• « ln \• a 2 n

\ &n 1 • • • ®nn

Por definición, traza .de una matriz cuadrada es la suma de los elementos de su diagonal. La notación es

tr

El conjunto

A = a n + ú¡22 + . . . + ann - 2^ ati

S = ( A e R nx" / fr A = 0

es el conjunto de las matrices de traza nula de R nxn, y constituye un subespacio, pues se verifica:

1. S =£0, pues la matriz nula N es de traza nula, y en consecuencia es un elementode S.

2. S e Rnx" por definición de S.3. S es cerrado para la adición.

Sean A y B dos matrices cualesquiera de S. Entoncesn n

A e S A B e S = > t r A = 0 / \ t r B = 0=>'E aH = 0 a 2 bü = 0 =>i - 1 (=1

=» i a„ + i bu = 0 ¿ (aü + bu) = 0=>í=i «=i i—i

=> tr (A + B) = 0 => A + B e S

4. S es cerrado para el producto por escalares. En efecton

a e R A A e S = >a e R A í í - A = 0=>a e R A 2 «ít- = 0=>í=in n

=> a 2 a a - 0 =► S a a¡i = 0 *=> tr (a A) = 0 =* a A e S i = l i —1

Ejemplo 1-12.

Consideremos S = j ( x u x 2) e R2/* i > x 2 ¡ e investiguemos si S es un subespacio de

(R2,+> R, .)■

Se ve de inmediato que no se verifica A4, pues no todo elemento de S admite opuesto en S. Así

(0, - l ) e S p e r o (0, 1 ) ¿ S

www.FreeLibros.com

Page 29: Algebra ii   armando rojo -

www.FreeLibros.com

Analizando la situación en términos de la condición suficiente demostrada, se verifica:1. S * f )2. S C R 2

3. S es cerrado para la suma.

Oi , x2)eSAOi ,^2)eS=>xl > x 2/ \ y x > y 2 =*^*1 + y i > x 2 + y 2 * ( X l + y i ! x 2 + y 2 ) e s = > ( x i , x 2) + ( y l t y 2 ) e s

£ p t a ° “ Cerrad° Pari> d Pr° dUCt0 P° r eSC!ÜareS' C0m0 Io ^ siguiente

(2,1) e S A (-2 ) (2,1) = (_ 4 , -2 ) j^ S En consecuencia, S no es un subespacio de R 2.

> ESTRUCTURA DE l-SPACIO VECTORIAL. SUBESPACIOS

t *2

1.9. OPERACIONES CON SUBESPACIOS

1.9.1. Intersección de subespacios

Sea I S, | con i e l una familia de subespacios de (V, +, K, .). Denotaremos con S la

intersección de dicha familia, o sea, S = .H S,. Resulta S un subespacio de V.

ir. Tet° ie”la^1;a ¡ " l e c c i ó n de toda familia de subespacios de V, es un subespacio de V Hipótesis) (V, + , K, .) es un espacio vectorial

( Sf ) con i e I es una familia de subespacios de V

www.FreeLibros.com

Page 30: Algebra ii   armando rojo -

www.FreeLibros.com

INTERSECCION DE SUBESPACIOS 21

Tesis) S = .Qj S,- es un subespacio de V.

Demostración) De acuerdo con la condición suficiente 1.8.2. se verifica

1. S no es vacío, pues

0 e S ¡ , Vi e I => 0 e H s¿ =>¿ e l

r i oi e l 1 r r

Por ser cada Sf un subespacio y por definición de intersección.

2. S está incluido en V, ya que

sfcv,v/ei=> sfcv=>scv‘ 16 I

Por ser cada S, un subespacio de V y porque la intersección de toda familia de subconjuntos de V es una parte de éste.

3. S es cerrado para la suma. En efecto

x e S A y e S = ^ x e > l s , A y e i l S / = >¿el ieln s, a y e n¿el 7 iel

=> X € S¡ a y e Si , Vi e I => x + y e S¿, Vi e I ==>

^ x + y e P s ^ x + y e Si e l

Por definición de intersección, y porque todo S¡ es un subespacio.

4. S es cerrado para el producto por escalares.Consideremos ex e K y x e S. Ahora bien

a e K A x e S = * a e K A x e f i s ¿ = *¿el 1

=> a e K a x e S ¡ , V/' e I => a x e S f , V/ e I =*

^ a x e H s . - ^ a x e Siel

Ejemplo 1-13

En (R 3, + , R , .) consideramos los subespacios

Si = j ( x , , x 2 í x 3) e R 3/x3 = 0 j S2 = j ( x I l x 2 l x 3) e R 3/ x I = 0 La intersección de estos es

S = Si n S2 = j (X|, x 2, x 3) e R 3/ x i = 0 a x 3 = 0 }

www.FreeLibros.com

Page 31: Algebra ii   armando rojo -

www.FreeLibros.com

22 ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS

Esto significa que un vector genérico de S es una terna del tipo ( 0 , x 2,0) que puede expresarse mediante (0, a , 0) para algún ol en R.Entonces

S = ((0 , a, 0) e R3 /a e R )

O sea, S es el eje x 2

Subespacios de R3 son: R 3 , {0 }, todas las rectas que pasan por el origen y todos los planos que pasan por dicho punto. Dos rectas distintas que pasan por e! origen son subespacios cuya intersección es el vector nulo, y se llaman disjuntos.

1.9.2. Unión de subespacios

Si Si y S2 son dos subespacios de (V, + , K , .), entonces S i U S2, no es necesariamente un subespacio de V, como lo prueba el siguiente ejemplo:

Consideremos en (R2, + , R , .) los subespacios Sj y S2 de la figura

www.FreeLibros.com

Page 32: Algebra ii   armando rojo -

www.FreeLibros.com

La unión de ambos es el par de rectas, y eligiendo x e S , , y e S2, distintos del vector nulo, se tiene

x e S j =>xeS! U S 2

y e S 2 =>y e S i u s 2

pero

x + y / S ! U S2

1.9.3. Suma de subespacios

Sean Si y S2 dos subespacios de (V, + , K , .). Definimos el conjunto

S = ( x e V / x = xj + x2 a x i e S i a x 2 e S 2 1O sea

S = | x e V / 3 x 1 e S 1A 3 x 2 e S 2 A x = x! + x 2 )

El conjunto S se llama suma de los subespacios S t y S2 y se indica

| S = S1 + S 2

j Teorema. La suma de dos subespacios de V es un subespacio de V.

! Hipótesis) Sj y S2 son dos subespacios de (V, + , K , .)¡ S = S ! + S 2

Tesis) (S, + , K , .) es un subespacio de (V, + , K , .)

Demostración) Se verifican las condiciones expuestas en 1.8.2., a saber

1. S es no vacío, pues

O e S i A 0 e S 2 ^ 0 + 0 = 0 e S i + S2 =>0eS

2. S es una parte de V, por la definición de S.3. S es cerrado para la suma, ya que

xeSAy es=*x = xi + x 2Ay = y_x + y JAxl í yl eSjAXa.ya eS2 =►^ x + y = (Xl + y , ) + (x2 + y 2)AXt + y i e Si a x2 + y 2 6 S2 =*

=*x + y eS

4. S es cerrado para el producto por escalares, porque

a e K A x e S = í>a e K A x = x 1 + x2 axi e S j A x 2 e S 2 =>

=>Q:x = a!x, + a x 2Af t x1 e S l A a x 2 e S 2 = > a x e S

Por consiguiente, la suma de subespacios es un subespacio.Un caso particular importante se presenta cuando los subespacios Si y S2 son disjuntos,

es decir, si Sj n S2 = { 0 j . En esta situación, el subespacio S = Sj + S2 recibe el nombre desuma directa de Si y S2 , y se utiliza la notación

S = S, ©S2

SUMA DE SUBESPACIOS 23

www.FreeLibros.com

Page 33: Algebra ii   armando rojo -

www.FreeLibros.com

Sintetizamos esto en la siguiente definición

s = s j © s2 ^ S = S! + s 2 a Si n s 2 = f o }

24 ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS

Ejemplo 1-14

Consideremos primero los subespacios de R 3

S , = ¡ ( a , ¡3’, 0) /a £RA(J ’ c R | S2 = j ( 0 , 0 ", y ) / r e R a t e R )

El subespacio suma S = Si + S2 está formado por todas las ternas del tipo

(a, 0’ + y) = (<*,(}, y )

y es R 3. Ambos subespacios son los planos indicados en la figura, y como su intersección es el eje x 2, la suma S = S, + S2 “ R 3 no es directa.

En cambio, si

St H ( t t , 0 , 0 ) / a e R [ y S2 = j (0 J , O)/0e R )se tiene

S = S , + S2 ~ 0)/a e RA/ 3 e R )

O sea, la suma es directa y se identifica con el plano horizontal

www.FreeLibros.com

Page 34: Algebra ii   armando rojo -

www.FreeLibros.com

OPERACIONES ENTRE SUBESPACIOS 25

Extendemos la definición de suma de subespacios al caso en que n > 2.

Definición

Suma de los subespacios S j , S2, . . Sn de (V, +, K , .) es el conjunto

S ~ 2 S¿ = ( x e V/x = S x¡ax¿ eS , ( V/' = 1, 2 , . . n)

n

Resulta S = 2 S¡ un subespacio de (V, +, K , .).

Además, si tales subespacios son disjuntos dos a dos, o sea

i ^ / ^ s , - n S j = {o}

entonces diremos que S es la suma directa de ellos, y escribiremos

S = SX ©S2 ®. . . ©S*

Ejemplo 1-15

Sean S, T y U subespacios de (V, + , K , .), tales que T C S . Entonces se verifica que

s n ( T + u ) = T + ( s n u )

Io. x e S n ( T + U ) = > x e S A x e T + U=>

www.FreeLibros.com

Page 35: Algebra ii   armando rojo -

www.FreeLibros.com

ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS

= * x e S Ax = x 1 -f-XjAXi e T A x 2 eU=»

=^(xi + x 2 e S A X ] e S) a x2 e U a Xi e T =>

^ X j € T a x 2 e S A x 2 eU=>

=> x t e Ta x 2 e S n U =► xi + x 2 e T + (S n U) =►

= > x e T + ( S n U )

O sea

s n ( T + u ) c T + ( s n u ) ( i )

2o. x e T + (S n U) => x = xj + x2A x t c T a x 2 e S n u = >

^ X ! e T A x 2 6 S a x 2 e U =>

=>xj e T Ax ! c S a x 2 e S A x 2 eU=>

=*Xi + x 2 eSAX! + x 2 e T + U=>

= > x , + x a e S n ( T + l J ) = > x e S n ( T + U)Luego

T + (S O U) C S n (T + U) (2)

De (1) y (2) resulta la igualdad.

www.FreeLibros.com

Page 36: Algebra ii   armando rojo -

www.FreeLibros.com

fI

TRABAJO PRACTICO I

1-16. Determinar si las cuaternas que se indican denotan espacios vectoriales con las operaciones que se indican

i ) (R, + , Q ,.) iü) (Q} + j r )i i ) (Q, +, Q , .) iv) (R, +, Z , .)

1-17. Sea (V, + , K , .) un espacio vectorial. Demostrar

i ) x + y = 0 = > y ~ —x iü) x + ay = x + a z y ^ 0 ^ y = zi i ) x + y = x=>y = 0 iv) ax = bx y x ¥^0 = b

1-18. Determinar ct sabiendo que y ^ 0 y que

(1 - a ) x + a ( x — y) = x — y

1'19. Considerando V = Rr , o sea, el conjunto de las funciones reales con una variable real, y K = R, investigar si son espacios vectoriales sobre R:

i ) El conjunto de las funciones continuas,i i ) El conjunto de las funciones derivables.iü) El conjunto de las funciones pares, o sea, las funciones f e R R tales que

f 0 0 = f ( - x) .iv) El conjunto de las funciones impares, es decir, las aplicaciones f c R R que

verifican f (x) = —f (-x ) . v ) El conjunto de las funciones constantes, vi) El conjunto de las funciones no negativas.

1-20. Sean V = R2 y K = R. Determinar si las siguientes operaciones definen sobre V una estructura de espacio vectorial.

( a , b ) + (a’ , b ,) = ( l a + l a ’ l ¡ } + l f }’)2 2 2 2 '

oc (a , b) ~ (ota, ab)

1-21. Determinar si (C2, + , C ,.) es un espacio vectorial, definiendo

( z , , z 2) + ( z ’l r z ’2) ^ ( z 1 + z ’l t z 2 + z ’2)

z ( z i , z 2) = ( z z l , z z 2)

www.FreeLibros.com

Page 37: Algebra ii   armando rojo -

www.FreeLibros.com

1-22. Considerando el espacio vectorial (R3 , +, R , .), investigar si los siguientes conjuntos son subespacios de R3

i ) S = ( ( x 1, x 2fx 3) e R 3/ x 1 + x 3 = 0 J

i i ) S = ( ( x 1, X 2 , x 3) e R 3/ i x 1 1= 1^2 l)iii) S = | (x 1( x 2, x 3) e R 3/x 3 =X i + 2 )

1-23. Sea el espacio vectorial (R " ,+ , R , .). Determinar si los siguientes conjuntos son subespacios de R"

i ) S = ((Xi, x 2, . - - x n) e K n¡ xn e Z \

nii) S = ( (x i ,x 2, .. x „ ) e R ^ S ü i X i ^ O A a i eR}

1-24. Demostrar que S = {(z , w) e C2/z = iw } es un subespacio de (C2, + , C , ,).

1-25. Sean C2 y S = | (z , w ) e C2/z - z + w = 0 }. Determinar si son subespacios (S, +, C , .)y ( S , + , R , .).

1-26. Sean S y T subespacios de (V, +, K , .). En el producto cartesiano S X T se definen

(x , y) + (x*, y ’) = (x + x’ , y + y ’)

<x (x , y) = (ax , ay)

Demostrar que ( S X T , + , K , .) es un espacio vectorial. El espacio S X T se llama producto directo de S por T.

1-27. (R” x", + , R , .) denota el espacio vectorial de las matrices reales n x n.Por definición, la matriz A e R nx n se llama triangular superior si y sólo si

i > j => a¡j = 0

Demostrar que (S ,+ , R , .) es un subespacio de R nx", siendo S el conjunto de las matrices triangulares superiores.

1-28. Dado (R2 , + , R , .), determinar si los siguientes subconjuntos son subespacios

0 S - ( ( x , ^ ) / ( x - ^ ) 2 = ( x + ^ ) 2 )

ii) T=( ( x , y ) / - ^ x + y = x ~ ^ y \

1'29. Considerando (C2 , + , R , .) el espacio vectorial de los pares ordenados de números complejos sobre el cuerpo de los reales, investigar si los siguientes conjuntos son subespacios del mismo.

1 ) S = j (z , u) e C2/z 2 + u 2 = 0 Ji i ) S = | (z , u) e C2¡z + 2« e R |iii) S = {(z , u) e C2/R e (z) = R e («))iv) S = J (z , u) e C2 / Im (z) = 0 a R e (z - u) = Im (z) f

28 ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIOS

www.FreeLibros.com

Page 38: Algebra ii   armando rojo -

www.FreeLibros.com

TRABAJO PRACTICO I 29

v ) S = j ( z , i / ) e C 2/z = u |

vi) S = I (z , u) e C2 / ím (z) - /m («) = 0)

1-30. Sean S, T y U subespacios de (V, + , K, .)• Demostrar

i ) S + T = T + S .i i ) S + (T + U) = (S + T) + U.iii) S C S + T .

1-31. Demostrar que si el subespacio S de (V, + , K , .) es la suma directa de los subespaciosSi y S2, entonces todo vector de S puede expresarse de modo único como la suma deun vector de S t y uno de S2.

1-32. Sean (Rnxn, +, R , .) y los subconjuntos

S = { A e R nKn V/V/)

T = 1 A e R,,Xíl I a¡¡ = - a Jt Vi V ;)

Por definición, los elementos de S se llaman matrices simétricas, y los de T se llaman matrices antisimétricas.Demostrar

Io. S y T son subespacios de R "xr*

2 ° . R " X" = S ©T

www.FreeLibros.com

Page 39: Algebra ii   armando rojo -

www.FreeLibros.com

Capitulo 2

DEPENDENCIA E INDEPENDENCIA LINEAL, BASE Y DIMENSION

2.1. INTRODUCCION

En esta unidad introducimos las definiciones de combinación lineal de un conjunto no vacio de un espado vectorial y de subespacio generado por el mismo. Se estudian la dependencia e independencia lineal y los sistemas de generadores, a fin de caracterizar los conceptos de base y de dimensión en el caso finito.

2.2. COMBINACIONES LINEALES

2.2.1. Concepto

A ^ Vr,V2’ ■ ' -;v" j una familia 0 conjunto de vectores del espacio ÍV + K 1

“ r e " : “ t í * " “ ■ ¿

Definición

Combinación lineal de la familia A C V es todo vector del tipon

.2 = a , Vl + ü 2 v2 + . . . + tt„ vn I oc¡ g K. a v¡ c A

o b t t e P“ r n u l o '“ S° n nUl° S’ h C°mbÍ”aCÍÓ" * « “ >• trivial y se

Definición

El vector v e V es combinación lineal de la familia A c V si y sólo si exist™ ,<*i, <*2 , . . tales que y ten escalares

www.FreeLibros.com

Page 40: Algebra ii   armando rojo -

www.FreeLibros.com

COMBINACIONES LINEALES 31

Ejemplo 2-1.

Sean los vectores v, = ( - 1 , 0, 2) y v2 = ( - 1 , 2 ,4 ) en R 3 . Determinamos si los vectores

v = ( - 1 , 1, 3) y u - (1, 2, 2) son combinación lineal de Vj y v2 .

1. Para que v sea combinación lineal de v t y v2 deben existir escalares o¡i y a 2 tales que

« i V! + a 2 v2 = v

O seaa , ( - 1 ,0 , 2) + o¡2 ( - 1 , 2 ,4 ) = (—1, 1, 3)

Por definición de ley externa es

( - a j , 0, 2 ) + ( - a 2, 2aa , 4 aa) - ( - 1 , -1,3)

Por suma de ternas

(-(*! - 0:2 , 20:2 , 20!! + 4ota ) = ( - l , 1, 3)

Por igualdad de temas resulta

— OÍ! — C¿2 = —1

2 0*2 = 1

2 a i + 4 a 2 = 3

Entonces

0¡1 + q¡2 = 1

1ct2 - -

a t + 2 o ^ = -

Sustituyendo a2 =— en la primera ecuación, se tiene

. 1 1 Oíj + - = 1 = * 0 t i = —

2 . 2

Como ambos valores a , = ~ y a7 = —satisfacen la tercera relación es v = — v 1 + —v2.2 2 2 2

O sea, v puede expresarse como combinación lineal única de Vj y v2.

2. Si u = (1, 2, 2), entonces procediendo análogamente se llega a

www.FreeLibros.com

Page 41: Algebra ii   armando rojo -

www.FreeLibros.com

32 DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION

- Ci! - 0i2 = l

2 <*2 = 2 o bien

2ú¡i + 4<¡í2 = 2

Oí! + 0i2 - -1

a2 = 1

O'! + 2<*2 = 1De donde

0i2 - 1 =>-0!, + 1 = -1 => o¡! = - 2

Al sustituir en la tercera ecuación

- 2 + 2 . 1 = 0 ^ 1

Entonces u no es combinación lineal de Vi y v2.

Ejemplo 2-2.

En el espacio vectorial de las funciones reales de una variable real (Rr , + , R , .) sean las funciones f y g definidas por

f ( 0 = e í y g ( 0 = e3í

Determinar todas las combinaciones lineales, es decir, los escalares a y b, tales que

a i + ¿>g = 0

donde 0 denota la función nula, definida por 0 (í) = 0 , V t € R.Por definición de funciones iguales, suma de funciones y producto de escalares por funciones (véase 1.4.) se tiene

El propósito es obtener los escalares a y b que satisfagan a (1) para todo t e R. Derivando (1) se tiene

En consecuencia es a = 0.Luego, la única combinación lineal de f y g que da la función nula es la trivial. Toda vez que esto ocurra, diremos que los vectores, en este caso f y g, son linealmente independientes.

a f (?) + b g (f) = 0 cualquiera que sea t e RO sea

aet + b e ^ t = 0 (1)

Y como e3í nunca es cero, resulta b = 0, que sustituido en (1) nos da

a e = 0

www.FreeLibros.com

Page 42: Algebra ii   armando rojo -

www.FreeLibros.com

COMBINACIONES LINEALES 33

Ejemplo 2-3-1.Decidimos si el vector v = (1, 2 ,3 ) es com binación lineal de la familia cuyos elementos

son los vectores de R 3 ,Vl = ( 1 , 0 , - 1 ) va = ( 0 , 1 , - 1 ) v 3 = (1 , 1, —2)

Investigamos si existen escalares reales a , b y c , tales que

a Vi + / j v 2 + c v 3 = v

Entonces, debe sera (1 ,0 , —1) + (0, í , —1) + c (1, 1, —2) = (1 ,2 ,3 )

Efectuando operaciones(a, 0, - a ) + (0, b, - b ) + (c, ct - 2 c ) = (1 ,2 , 3)

(a + c, b + c, ~a - ft‘- 2 c ) - ( l , 2 ,3 )

Por igualdad de ternas esa + c - 1

b + c = 2

—a —b - 2 c = 3

Sumando las tres relaciones se tiene0 = 6

lo que es imposible.En consecuencia, v no es combinación lineal de Vi , v2 , y v 3 .

Ejemplo 2-3-2.En el espacio vectorial (R2X2, + , R , .) se consideran las matrices

Determinar todas las combinaciones lineales de A, B y C que den la matriz nula N. Hay que obtener a, 0 y y en R , tales que

a A + 0 B + 7 C = N

www.FreeLibros.com

Page 43: Algebra ii   armando rojo -

www.FreeLibros.com

34 DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION

Por producto de escalares por matrices es

“ ° W í ° ) + /° ° . u ° °0 a ) \ 0 0 / \ y y ) [ Q q

Por suma en R 2*2 se tiene

/< * + 0 0 \ / o 0 \

\ 0 + 7 a + y ) \ 0 0 /

Por igualdad de matrices resulta

a + 0 = 0

0 + 7 = 0

oc + y = 0De las dos primeras se deduce

Sustituyendo en la tercera es

O sea

0f = _ 0 y <y = _ 0

- 2 0 = 0

0 = 0

Luego a = 0 = 7 = O y l a única combinación lineal que satisface la relación propuesta es la trivial. v

2.3. SUBESPACIO GENERADO

2.3.1. Conjunto de combinaciones lineales

Sea A un conjunto no vacío de vectores del espacio (V, +, K , .). A expensas de A podemos formar el subconjunto de V cuyos elementos sean todas las combinaciones lineales de los vectores de A. A este conjunto lo denotaremos con el símbolo A, que se lee “A raya”

Si A = { V i, v2, . . v„ } , entonces escribiremos

^ = (i? i a¡ v* / “ í e K A vi e A )

Ejemplo 2-4.

El conjunto de todas las combinaciones lineales de los vectores

v, = ( 1 , 0 ,1 ) y v2 =(0,1 , l ) d e R 3

www.FreeLibros.com

Page 44: Algebra ii   armando rojo -

www.FreeLibros.com

SUBESPACIO GENERADO 35

esÁ = {«i ( 1 , 0 , 1 ) + o¡2 (0 ,1 , l )/«*! e RA (*2 e R ¡

O sea

Á = j ( a j , ot a , «! + <*2 ) /<*i c R a a2 e R |

En consecuencia, a A pertenecen todas las temas cuya tercera componente es la suma de las dos primeras.Podemos escribir

A = ) (x i, x 2, x 3) e R 3 1 x 3 =Xi + x 2 )

2.3.2. Subespacio generado por una familia de vectores

Teorema. El conjunto de las combinaciones lineales de toda familia no vacía de un espacio vectorial es un subespacio del mismo.

Hipótesis) (V, + , K , .) es un espacio vectorial

A = ( v i, va, ■ ■ .,v„ ¡ C V

Tesis) (A, + , K , .) es un subespacio de V

Demostración)

1. Siendo Vi = 1 v t + 0 v2 + . . . + 0 v„ se deduce que Vi e A, o sea, A 0

2. Por definición, se tiene_ n

v e A => 3 a t , <x2, . . Q¡„ e K / v = 2 a¡ v¿ a v¿ e A =>í=in

=> v = .2^ a¡ v¡ a dj e K a v¡ e V, pues A C V

Luego

v e Á ^ v e V

O sea

A C V

3. A es cerrado para la suma.Sean v y u en A.

www.FreeLibros.com

Page 45: Algebra ii   armando rojo -

www.FreeLibros.com

36

4. A es cerrado para_el producto por escalares.Sean a e K y v e A.

a e K A v e A = > a e K A v = 2 a, v- =>í=i 1 ‘

DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION

<*/ v, = 2 a (a, v,) = 2 (a a f) v, = 0, v , = » a v e Á

Como se cumplen las hipótesis del teorema 1.8.2., resulta (A, +, K , .), un subespacio de1 ’ 5 i“, IV,

Definición

El subespacio de las combinaciones lineales de la familia no vacía A C V se llama subespacio generado por A.

Ejemplo 2-5.

Determinar el subespacio de (R 3, + ,R ,.) generado por la familia A cuyos elementos son los vectores

v, = ( 2 , 1 , 2 ) y v2 = ( 1 , 2 , 1 )

Por definición, el subespacio A es el conjunto de las temas {xu x 2, x 3) e R 3 tales que

( x i , x 2l x 3) = a 1 (2, 1, 2) + ü2 (1,2, 1)

= (2 , « i , 2a!) + (a2i 2a2, a 2)

= (2 a , + a 2 (a , + 2a2, 2a t + a 2)Por igualdad de ternas es

2 a j + a 2 = x t

a i + 2a2 ~ x 2

2 a j + a 2 = x 3

De la primera y tercera relación se deduce

x i = x 3y x 2 es cualquier número real.En consecuencia

A - ¡ ( x l , x 2, x 1 ) / x l e R A x , e RA es el plano de ecuación

x , - x* = 0

www.FreeLibros.com

Page 46: Algebra ii   armando rojo -

www.FreeLibros.com

SUBESPACIO GENERADO

Ejemplo 2-6.Obtener el subespacio de (R2 x2, + , R ,.) generado por las matrices

1 0 \ / O I

Vl~ ' o - i ) Vs ~ ( 0 0V , =

0 0

1 0

A = | £ o¡¡ V¿ / oíí e K a V,- e A ) \ /=i '

Todo vector de A es una matriz I ^ ¿ I ta 1ue

1 0 ' 0 1 0 0

0)1 o - i / + “2lo o / + “3 U 0,

a b

c d

Realizando operaciones en R2x2 es

www.FreeLibros.com

Page 47: Algebra ii   armando rojo -

www.FreeLibros.com

En consecuencia

- a , oc2 = b , a 3 = c , - a , - dLuego

d — - a y b y c

son números reales cualesquiera.

Los vectores de A son matrices del tipo

( : . * )

Es decir, Á es el subespacio de matrices de traza n ula.

2.3.3. Propiedad

El subespacio generado por una familia no vacía de un espacio vectorial es la intersecciónde todos los subcspaeios que incluyen dicha familia.

Hipótesis) (V, + , K , .) es un espacio vectorial.

(¡>^A= j v j , v 2 l . . ., v„ j C V

( S,- J con i e I es la familia de tocios los subespacios que incluyen A.

Tesis) A = D S,-i e l

Demostración)

Probaremos lasaos inclusiones que conducen a la igualdad.

1. á c n s¿« e l

En efecto_ n

x e A => x = 2 <xj Vj a dj e K a e A =>

n=> x = 2 dj \ j a «y e K a v;- e Sf , Vi e I =>

=*x e S f , V i'el =*xe f l S.-ie I

2. n s¡ c ái e l 1

Como todo v,- de A es combinación lineal de los elementos de A, pues

vf = 0 v, + 0 v2 + . . . + lv (- + . . . + 0 v„,

38 DEPENDENCIA E INDEPENDENCIA LINEAL. BÁSE Y DIMENSION

www.FreeLibros.com

Page 48: Algebra ii   armando rojo -

www.FreeLibros.com

SUBESPACIO GENERADO 39

se tiene que.A C A

Y siendo A un subespacio que incluye a A, se identifica con algún S e s decir, existe; enI tal que S;- = Á.

Por otra parte, como la intersección está incluida en cualquiera de los conjuntos que se intersecan, es

O s.- c Si Ui e I

En consecuencia

Por lo tanto

l \ Si C S, V,

n s¡ c aie l '

A = n s,íel ‘

En virtud del teorema demostrado, observamos que el subespacio generado por una familia no vacía de vectores de V z¡> ei “mínimo” subespacio, en el sentido de inclusión, que incluye a A.

Ejemplo 2-7.

Demostrar que los siguientes conjuntos de vectores generan el mismo subespacio de R 3.

A = j (1, —1, 1) , (3, 0, 1) | B = j ( - 2 , - 1 , 0 ) , ( 5 , - 2 , 3 ) )

Determinaremos Á y B.

1. A A pertenecen las ternas (x, y , z), tales que

Entonces

Luego

Como t = - y , se tiene

( x , y , z ) = t ( 1, —1,1) + « ( 3 , 0 , i )

(x, y, z) = (t, - t , t) + (3u, 0, «)

(x, y , z) = (t + 3« , - t , t + u)

x = t + 3u

y - - tz - t + u

x = - y + 3u

www.FreeLibros.com

Page 49: Algebra ii   armando rojo -

www.FreeLibros.com

DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION

O sea

Restando

Resulta

x = - y + 3u

3 2 = - 3 y + 3 u

x - 3z = 2y

A = j ( x , y , z ) e R 3 ¡ x - 2y - 3 z - 0

2. Procediendo análogamente para obtener B es

(x, y, z) = t ( - 2, — 1 ,0 ) + u (5, —2, 3)

(x, y, z) = ( - 2 1, - t , 0) + (5m, —2«, 3»)

(x, _v, z) = (—2t + Su, —t — 2u, 3«)

O sea

Como u - — z , se tiene3

O bien

Restando

Luego

Resulta

x = —21 4- 5«

y = - t - 2U

z = 3u

x = - 2 t + 7 *

y ~ - t ----- - z3

x = —2 H — ■ z3

2y = - 2 t ----- - z3

x — 2y - 3z

B = \ ( x , y , z ) e R 3 l x ~-2y -3z = 0

A = B

La ecuación x - 2 y - 3 z = 0 corresponde a un plano que pasa por el origen.

www.FreeLibros.com

Page 50: Algebra ii   armando rojo -

www.FreeLibros.com

SUBESPACIO GENERADO 41

Ejemplo 2-8.El subespacio de (V, + , K , .) generado por un vector v es, en particular, el conjunto de todos los múltiplos escalares de v, o sea

{ b / j k e KÍ

Determinamos el subespacio de R2 generado por v = (1,2).Llamando S a tal subespacio, se tiene

S = ( ( x l , x 2) l ( x l , x 2) := k ( l , 2)¡

En consecuencia

{x t , x 2) = (k, 2k)

O seaX i = k y x 2 = 2k

Eliminando el parámetro k entre ambas relaciones, resulta

* 2 = 2 * !

O lo que es lo mismo

2x¡ - x 2 = 0

Entonces

S - j ( X í , x 2 ) e R 2 / 2 x i ~ x 2 = 0 ¡

S es la recta que pasa por el origen representada en la figura

www.FreeLibros.com

Page 51: Algebra ii   armando rojo -

www.FreeLibros.com

42 DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION

2.4. DEPENDENCIA E INDEPENDENCIA LINEAL

2.4.1. Conjunto linealmente independíente

En el ejemplo 2-2 hemos demostrado que la única combinación lineal de los vectores f y g, cuyo resultado es el vector nulo, es la trivial. O sea

a f + b g = 0 =>aí=: b = Q

En este caso, los vectores son las funciones de R en R definidas por

f ( t ) = e t y g ( í) = e3f

y la función que asigna a todo número real t, el valor 0, es el vector nulo. Este hecho se traduce diciendo que los vectores f y g son linealmente independientes, o bien que el

conjunto { f, g } es linealmente independiente.

Sea A = | v j , v2 , . . . , vr | una familia de vectores del espacio (V, +, K ,.).

Definición

La familia A C V es linealmente independiente si y sólo si la única combinación lineal de dicha familia, cuyo resultado sea el vector nulo, es la trivial.

En símbolos

>•A es linealmente independiente o Vz: .2 a¡ v¡ = 0 =► a¡ = 0.

La independencia lineal de un conjunto finito y no vacío de vectores significa que no puede darse una combinación lineal de dicho conjunto que dé el vector nulo, con algún escalar distinto de cero.

Para investigar la independencia lineal de un conjunto de vectores, se propone una combinación lineal de éstos, con escalares a determinar, que sea igual al vector nulo. Si los escalares son necesariamente nulos, entonces el conjunto es linealmente independiente.

Convenimos en que el conjunto vacío es linealmente independiente.

Definición

El conjunto A C V es linealmente independiente si y sólo si todo subconjunto finito de A es linealmente independiente.

Esta definición extiende el concepto de independencia lineal a toda familia de vectores de un espacio V.

www.FreeLibros.com

Page 52: Algebra ii   armando rojo -

www.FreeLibros.com

INDEPENDENCIA LINEAL

Ejemplo 2-9.Dado el espacio vectorial (R 3, +, R , . ) determinar si los siguientes conjuntos de vectores son linealmente independientes.

i ) A = ( ( 1 , 0 , 0 ) , ( 0 , 1 , 0 ) , ( 0 , 0 , 1)|

ii) B = 1 ( 1 , - 1 , 0 ) , ( 1 , 1 , 2 ) , ( 1 , 0 , 1))

i ) Sea«1 ( 1, 0 , 0 ) + ( 0 , 1 , 0 ) + £*3 (0 , o, 1) = (0 , 0 , 0)

( « i , 0, 0 ) + ( 0 , 0 2 , 0 ) + (0, 0, a 3) = (0, 0 ,0 )

(« 1 , 0 2 . « 3) = (0 , 0 , 0 )

Por igualdad de ternas resulta

o¡i = a2 = a 3 = 0

Luego

A es linealmente independiente

ii) Procediendo análogamente

o¡i (1, — 1, 0) + a 2 (1 ,1 , 2 ) +ce3 (1 ,0 ,1 ) = (0 ,0 , 0)( a , , , 0) + (a2, Os, 2«2) + (a3,0 , a 3) = (0 ,0 ,0 )

(<*! + o¿2 + a 3» _ a i + * 2a2 + 0 3 ) = (0 , 0 , 0 )

Entonces

g¡i + a 2 + o¿3 = 0

- a , + <*2 = 0 = > a 1 = a 2

2 a-i + a 3 = 0 =► a 3 = - 2o¿2

Las infinitas soluciones de este sistema de ecuaciones son

<Xx~k

<*2 = k

ot3 = —2 k co n fc e R

En consecuencia, B no es linealmente independiente, ya que los escalares no son necesariamente nulos. Más aún, existen infinitas combinaciones lineales no triviales cuyos resultados son el vector nulo.

Ejemplo 2‘10.

En (R1, + , R , .), donde I = [0,1 ], los vectores v t = sen y v2 = eos son linealmente independientes.

www.FreeLibros.com

Page 53: Algebra ii   armando rojo -

www.FreeLibros.com

44 DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION

Sea

a , sen + a 2 eos = 0V í e [0,1 ] es

(aj sen + oc2 eos) (f) = O (?)

Por definición de suma de funciones y de función nula

(a ^ e n ) (t) + (a2 eos) (í) = 0 Por definición de producto de escalares por funciones

«i sen t + a2 c o s t ^ O (1) V i el

Derivando

o¡i eos t - a2 sen t = 0 (2)

Resolvemos el sistema respecto de a i y a2 :

A =sen t eos t

eos t - sen t = - s e n í t - c o s 2 / = - 1

A a , =0 eos t sen t 0

0- 0 A a2 “

- sen t eos t 0= 0

Y la única solución es

= o ¡2 = 0

O sea

¡ V], v2 } es linealmente independiente

Ejemplo 2-11.

Sabiendo que dos vectores vj y v2 son linealmente independientes en ( V , +, K ) demostrar que Vj + v2 y v2 son linealmente independientes.

Consideremos una combinación lineal de la familia ( v t + v 2 , v2 } que sea igual al vector nulo, con escalares a y b, que determinaremos:

a (v i + v2) + b v2 = 0 Por distributividad respecto de la suma en V

a V i + a v 2 + b v 2 = 0

www.FreeLibros.com

Page 54: Algebra ii   armando rojo -

www.FreeLibros.com

DEPENDENCIA LINEAL 45

Por distributividad respecto de la suma en K

a Vj + (a + b) x-i = 0

Como, por hipótesis, Vj y v2 son linealmente independientes, se deduce

a = 0 y a + b = 0

En consecuenciaa = b = 0

P o r consiguiente, Vi + v2 y v2 son linealmente independientes.

2.4.2. Propiedad.

Si un vector es combinación lineal de una familia linealmente independiente, entonces dicha combinación lineal es única.

Sea v e V combinación lineal de la familia j Vi , v2 , . . .,v r } , y ésta linealmente

independiente. Entonces existen escalares a¡ tales quer

V = 2 0íf v¡1=1 1

Suponemos que existen escalares tales que

v = 2fi¡ vf1=1

Entonces

.2 vf = 2 fr v¿ i = i i—i

O sea

2 aiVf - 2 /3¡v¡ = 0 «=i 1=1

Luego

.2 ( a f - f c ) v , = 0 1=1

Y como la familia es linealmente independiente, se deduce que

a¡ - (3¿ = 0 =► a¡ ~ (3¡ Vi' = 1, 2, . . r

En consecuencia, la combinación lineal es única.

2.4.3. Conjunto linealmente dependiente

En el ejemplo 2-9 ii) hemos probado que existen escalares no simultáneamente nulos a i , a2, a 3 tales que

www.FreeLibros.com

Page 55: Algebra ii   armando rojo -

www.FreeLibros.com

a , ( 1 , - 1 , 0 ) + 0 2 (1, 1 , 2 ) + a 3 ( 1 , 0 , 1 ) - ( 0 , 0 ,0 )

Diremos que los vectores (1, - 1 ,0 ) , (1, 1, 2) y (1 ,0 , 1) son linealmente dependientes.

Definición

La familia A C V es linealmente dependiente si y sólo si no es linealmente independiente.

La familia A = {Vi , v2, . . . , vr [ es un conjunto linealmente dependiente de vectores de V si y sólo si existe una combinación lineal no trivial de dicha familia cuyo resultado sea el vector nulo.

Negando las dos proposiciones que figuran en la definición de independencia lineal, se tiene

rA es linealmente dependiente o 3 / / 2 a, v- = 0 a a • =£ 0

¿=i 1 ' 1

La dependencia lineal de un conjunto finito de vectores significa que tiene que existir, al menos, una combinación lineal de éstos que dé el vector nulo y que no sea trivial.

Para investigar la dependencia lineal de una familia de vectores, se propone unacombinación lineal de dicha familia, con escalares a determinar, que sea igual al vector nulo.Si algún escalar es distinto de 0, entonces la familia es linealmente dependiente.

Ejem plo 2-12.

Los vectores (—2 ,4 ) y (1, - 2 ) son linealmente dependientes en (R2>+, R, •)•En efecto, sea

<*! ( - 2 , 4) + a 2 (1, —2) ~ (0, 0)

Por definición de producto de escalares por pares y por suma de pares es

( - 2 0-! +<*2,4 0!! - 2 oí2) = (0 ,0 )Por igualdad de pares resulta

—2 <*! + a 2 = 0

4 a] - 2 a 2 = 0Dividiendo la segunda relación por - 2 , el sistema se reduce a la única ecuación

—2 a! + a 2 = 0 Esta admite infinitas soluciones, dadas por

a 1 =k

a2 = 2 k y k e R

46 DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION

www.FreeLibros.com

Page 56: Algebra ii   armando rojo -

www.FreeLibros.com

DEPENDENCIA E INDEPENDENCIA LINEAL 47

Ejemplo 2‘13.

Las matrices

/ 1 0 \ /O 1 \ /O ° \ /O OE n = í ) ^12 = | | Eai = | j E22 = i

V o o/ \o o/ \ i o ' 'o 1

son vectores linealmente independientes del espacio vectorial (K2x2, + , K , .), pues cualquiera que sea la combinación lineal de los mismos con escalares en K, cuyo resultado sea la matriz nula, es la trivial. En efecto

a i E n + ct2 E 12 + a 3 E2l + a 4 E22 = N =>

¡ a i 0 \ i 0 0C2 \ /O 0 \ /O 0 \ /O 0

l o 0 / \ o 0 / Va3 0 / ^0 a 4 / \ 0 0

0 0^i / °+

«3 0 '/ \ o

a2 \ 0 0^

a4 / i \0 0;

Luego

a 1 = a 2 “ a 3 = a 4 = 0

www.FreeLibros.com

Page 57: Algebra ii   armando rojo -

www.FreeLibros.com

DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION

En cambio, las matrices

A - r 01 o

y B =1 0 / \ _ , o

son linealmente dependientes, pues

<*i A + a 2 B = N =>

« 1 - 0 2 0 \ / O O

a i - 02 0 / \ 0 0 .

O sea

a i - a 2 = 0 ^ oti~cx.2 = k \ / k e K

Por consiguiente, existen escalares no simultáneamente nulos que satisfacen la relación anterior, lo que prueba la dependencia lineal.

2.4.3. Propiedades

‘ independiente n ° nU'° ^ eSPaCÍ° VeC‘° rial C°n5‘ÍtUye “ '“ á m e n te

Sea v * O en (V, + , K , .). Consideremos

l in e lre m e independiente.’ C° m° ’ # ° ’ " de“UCe qUe " = ° ’ y e" c™ -™ » c ia | v | es

” ^dependiente!^0 ^ CUa‘qUÍer ™ t 0 M C° nStÍtUye un « ta lm en te

En efecto, cualquier escalar, nulo o no, satisface la relación « O = O, según lo demostrado

ni) Todo conjunto al que pertenezca el vector nulo es linealmente dependiente.Sea A í Vj , v2, . . vr J con vy = 0. Se verifica que

Ovi + 0v2 + . . . + <xj vj + . . . + Ovr = OO sea

a j v j = ocj O = O

con dj no necesariamente nulo.

en

www.FreeLibros.com

Page 58: Algebra ii   armando rojo -

www.FreeLibros.com

iv) Un conjunto finito y no vacío de vectores es linealmente dependiente si y sólo si algún vector es combinación lineal de los demás.

Sea A = {v j , v2). • vr í una familia de vectores de ( V, + , K, . ) . Demostramos las dos condiciones en que se desdobla el enunciado: necesaria y suficiente.

nIo. A es linealmente dependiente => 3 / / v¡ = ,S & v¡.

Por definición de dependencia linealA es linealmente dependiente =>

r=►2 ct¡ \¡ = 0 a ocj ¥= 0 =>

í=i n=> Uj \ j + %. a¡ v¡ = 0 a otj ^ 0 =>

rt=>OtjVj = —^2 tt/V/ A

Premultiplicando por a / 1, inverso multiplicativo en K, de oc¡ 0, se tiene

n<*/* (»jV;) = ( - a / i ) £ . «¡Vi

Por A7 y propiedad de la sumatoria

n(ocf1

Por inversos en K y A7 esn

1 v; = ( - a / 1 a*)*.-1 i*}

Teniendo en cuenta A io, y llamando (3/ a — 1 ott se deduce

V; “ Vi*!' l*)

En consecuencia, existe e A, que es combinación lineal de los restantes vectores de A.n

2°.Vj = 2 a¡ v¡ => A es linealmente dependiente.

Por hipótesis y trasposición de términos se tienen n

V,- — 2 a vf => S a,- Vj — V/ = 0 con a;- = -1J i¿j

Como <Xj 0, el conjunto A es linealmente dependiente.

v ) Un conjunto finito y no vacío de vectores es linealmente independiente si y sólo si ningún vector es combinación lineal de los demás.

DEPENDENCIA E INDEPENDENCIA LINEAL 49

www.FreeLibros.com

Page 59: Algebra ii   armando rojo -

www.FreeLibros.com

y Ss : ‘; ^ r ° strar’ pues bas,a ,,egar ias dos prop°sid°nes de ** ^En símbolos

A es linealmente independiente «■ V¿ : v;- =£ £ {J¡ y t

En lo sucesivo, y en algunas ocasiones, abreviaremos las expresiones' “linealmente independiente y linealmente dependiente” mediante “L.I.” y “L.D.” , respectivamente.

vi) Un conjunto finito y ordenado de vectores al que no pertenece el vector nulo es

pTectdemes. P6ndiente S1 V SOl° si al®ún vector es combinación lineal de los

50 DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION

10- A - { v , , v3, . . vr } es LD a 0 /A =* 3 k j 2 < k < r a vh - v¡

Demostración) Sea k el primer entero positivo tal que

| v j , v 2, . . . , Vft ) esL.D. k existe por el principio de buena ordenación.

Por definición se tienefe

0/Vf - O y algún 0

Si = 0 , entonces j Vl, v2 , . . yh^ ¡ sería LD, contra lo supuesto.

Luego $h j= 0, y procediendo como en iv) 1? se deduce quefc-i

vft = , 2 a¡ v¡

O sea, vk es combinación lineal de los precedentes, y k es tal que 2 < k < r.

2?. El recíproco es obvio y puede ser demostrado como ejercicio.

■ o n l S r 105 COn“ PtOS P° dem0S af¡rmar hS Si®uie"‘“a) A es L.I.

b) Toda combinación lineal de la familia A, cuyo resultado sea el vector nulo, as la trivial.c) Ningún vector de A es combinación lineal de ios demás.

Análogamente son equivalentes:a’) A es L.D.

re s u ¿ d te r e ,™ c ^ o ? :b,o aCÍÓn 'Ínea‘ ^ A “ “

c ) Algún vector de A es combinación lineal de los demás.

www.FreeLibros.com

Page 60: Algebra ii   armando rojo -

www.FreeLibros.com

SISTEMA DE GENERADORES 51

Ejemplo 2-14.En el espacio vectorial de los polinomios reales sobre el cuerpo de los reales, P y Q definidos por

P (x) = x 2 + x Q 0 ) = - 2 x

son linealmente independientes.Sea

a? + bQ = 0 donde 0 denota el polinomio nulo

Cualquiera que sea x e R se verifica

(«P + 6 Q )(x ) = 0 (x )

Por definición de suma de funciones y de polinomio nulo es

(flP) (x) + (bQ) (x) = 0 V x e R

Por definición de producto de escalares por polinomios, se tiene

aP (x) + bQ (x) = 0

O seaa (x2 + x ) + b (- 2x ) = 0

Luego

ax2 + (a - 2b) x ~ 0 V x e R

S ix = - l , s e verifica a - a + 2b = 0 , y en consecuencia b = 0 .Entonces es ax2 + ax = 0 ,y haciendo x = 1, resulta 2a = 0, o sea, a = 0.

2.5. SISTEMA DE GENERADORES

2.5.1. Concepto

Si un conjunto no vacío de vectores de un espacio (V, +, K , .) es tal que todo vector de V puede expresarse como combinación lineal de dicho conjunto, entonces se dice que éste es un sistema de generadores de V. Esto equivale a decir que el subespacio de V generado por tal conjunto es el mismo V. El concepto de sistema-de generadores de un espacio vectorial es independiente de la dependencia o independencia lineal del sistema. O sea, un sistema de generadores puede ser linealmente independiente o no.

DefiniciónLa familia A = {v , , v2, . . . , vr ) es un sistema de generadores de V si y sólo si todo vector de V puede expresarse como combinación lineal de los vectores de A. O bien, A es un sistema de generadores de V si y sólo si el subespacio generado por A es V.

Las notaciones “S.G.” y “C.L.” son abreviaturas de “sistema de generadores” y “combinación lineal” , respectivamente.

www.FreeLibros.com

Page 61: Algebra ii   armando rojo -

www.FreeLibros.com

52 DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION

La traducción simbólica de la definición anterior esr

A es un S.G. de V o v e V => v = 2 a¡ v,-¿=i 1 ‘

O bien

A es un S.G. de V o A = V

Ejemplo 2-15.

El conjuntó A = j (1, 0) , (0 ,1 ) , (1, 1) } es un sistema de generadores de R2.

En efecto, si (a , b) es cualquier vector de R2, deben existir escalares a, 0 y y tales que

a (1, 0) 4- 0 (0, 1) + 7 (1, 1) = ( a , ¿)

O sea

(a + y , 0 + 7 ) = (a , b)

Luego

a + y = a A 0 + 7 =

En consecuencia

ot = a - k , p - b - k , y = k V k e R

Este resultado nos dice que, efectivamente, A es un S.G. de R2, y además, que cualquier vector del espacio puede expresarse de infinitas maneras como C.L. de los vectores de A. Por otra parte, es fácil verificar que A constituye una familia L.D.En el ejemplo 2-6 está demostrado que las matrices V1} V2 y V3 constituyen un sistema de generadores del espacio vectorial de las matrices reales de traza nula del tipo 2 X 2 . Además, tales matrices son linealmente independientes.

2.5.2. Propiedad

Si la familia A = { v1}v2 , . . . vr } es un S.G. L.D. de V, entonces existe e A, tal que A - |v ;-| es un S.G. de V.

Demostración) Por ser A un sistema de generadores de V, se verifica

v e V =>v = 2 a ¡v¡ ( 1)

Como A es linealmente dependiente, por 2.4.3. iv), algún vector de A, digamos v/, es combinación lineal de los restantes, o sea

3 Vy tal que vy = 2 (i¡ (2)»*/

Teniendo en cuenta (1) y (2) podemos escribir

www.FreeLibros.com

Page 62: Algebra ii   armando rojo -

www.FreeLibros.com

BASE 53

r r r\ = cc4 y,- + 2 a¡ y,- = a¡ 2 & v¿ + 2 a, v, =3 1 ¡*j 1 1 1 t*r* ' ¡*i ' 1

r r= 2 (píj p¡ + ot¡) v¿ = 2 y t \ i¡ f j V ; r, V i i¥¡J n i

En consecuencia, A - { v¡ j es un sistema de generadores de V.

Ejemplo 2-17.

Determinamos si los vectores Vj = ( 1 , 1 , 1 ) , v2 = ( 1 , 1 , 0 ) y v3 = ( 1 , 0 , 0 ) de (R3, +, R , .) constituyen un sistema de generadores de R 3.El problema se reduce a investigar si existen escalares reales a, (3 y y, tales que cualquiera que sea (a , b , c) e R 3 se verifique

a ( l f l , 1) + 0 ( 1 , 1 , 0 ) + -y (1, 0 , 0 ) = (a , 6 , c)

(a + P + y , a + 0 ,á ) = (a , b , c)Luego

a + P + y =a

■ a + p = b

a = c

De donde resulta

a = c , p = b - c , y ~ a - b

En consecuencia, todo vector de R 3 puede expresarse como C.L. de los vectores propuestos. Observamos, además, que tal C.L. es única para c a d a v e R 3,En el caso en que (a , b , c) sea el vector nulo, los escalares son nulos, y en consecuencia los vectores v t , v2 y v3, además de constituir un S.G., son L.I.Por este motivo se dice que tales vectores son una base de (R 3, +, R , .).

2.6. BASE DE UN ESPACIO VECTORIAL

2,6.1. Concepto de base

Sea A = {Vj , v2 , . . . , vn } una familia de vectores de (V, 4-, K , .).

Definición

La familia A C V es una base de (V, + , K,.) si y sólo si es un. conjunto linealmcnte independiente y sistema de generadores de V.

A C V es una base de V o A es L.I. y A = V

www.FreeLibros.com

Page 63: Algebra ii   armando rojo -

www.FreeLibros.com

Ejemplo 2-18.

Una base de (K", +, K, .) es el conjunto de vectores

ej = ( 1 , 0 , 0 , . . . , 0 )

e2 = (0, 1,0,...,0)

DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION

e„ = (0 , 0 , . . . , 0 , 1)

El lector puede comprobar que la familia { , e 2 , . . e„ | es linealmenteindependiente y un sistema de generadores de K \ Tal familia recibe el nombre de base

canónica.

Ejemplo 2-19.

En el ejemplo 2-13 se demostró que las matrices E n , E 12 , E21 y E22 constituyen una familia linealmente independiente del espacio (K * , + , K , .).Además, tal conjunto es un sistema de generadores de dicho espacio, y en consecuenciaes una base del mismo. La llamaremos también base canónica de K2 *2 .

Ejemplo 2-20.

Determinar una base del subespacio de (R 3 , + , R, ■) estudiado en el ejemplo 1-8.Tal subespacio es

S = { ( x u x 2, x 3) e R 3 ¡ x 3 = x x + x 2 |

Si (a , b , c) es un vector genérico de S, entonces se tiene c = a + b , y en consecuencia podemos escribir, en virtud de las leyes de composición en S:

(a, b, c) = (a, b ,a + b) = (a, 0,fl) + (0, b, b) (1, 0,1) + b (0, 1, 1)

Este resultado nos dice que los vectores de R

vi = ( 1 , 0 , l ) y v2 = ( 0 , 1 , 1)

constituyen un sistema de generadores de S. A d e m á s , son linealmente independientes,

puesa ( 1 , 0 , l ) + 6 (0 , 1 , 1) = (0 , 0 , 0)=>a = b = 0

Por consiguiente, Vi y v2 constituyen una base de S.

2.6.2. Coordenadas o componentes de un vector

En este texto consideraremos únicamente espacios vectoriales de bases finitas. En algunas ocasiones, para indicar que | v „ v 2, . . .,v„ | es una base del espacio vectorial (V + K ) utilizaremos el símbolo [v] para hacer referencia a ella.

Si ’ | ’vi,’v2 , . . v„ f es una base de (V, +, K, .), entonces cada vector de V puede

www.FreeLibros.com

Page 64: Algebra ii   armando rojo -

www.FreeLibros.com

COORDENADAS 55

expresarse de modo único como combinación lineal de la base, ya que los vectores de ésta son linealmente independientes y sistema de generadores, de acuerdo con 2.4.2.

O sea, s ix e V, entonces existen y son únicos los escalares x t , x 2, . . x n tales que

nX = *1 V, + x 2 V2 + . . . + x n vn = 2 x¡ Vi

i- 1

Respecto de la base dada, el vector x e V queda caracterizado por los coeficientes de la combinación lineal, o sea, por la n -u p la de elementos de K: (* ,, x 2 , . . x„). Los escalaresx¡ se llaman coordenadas o componentes del vector x e V, respecto de la base dada. Si se elige otra base en el espacio V, entonces el mismo vector x admite otras coordenadas o componentes: 2 , . .

Demostraremos más adelante que dos bases cualesquiera de un mismo espacio vectorial son coordinables, es decir, tienen el mismo número de vectores.

Dada la base [v] = |v j , v2, . . v„ ) del espacio (V, + , K , .), podemos expresar a cada vector x e V como una matriz columna, cuyos elementos sean las coordenadas de x respecto de [v]; en tal caso escribiremos

Ejemplo 2-21.

Determinar las coordenadas de x = ( - 2 , 3) perteneciente a (R 2 , +, R , .), respecto de las bases:

i ) [v] — 1( 1 , 1) , ( 1 , 0)1

i i ) [w] = | ( - 2 , 3 ) , ( 1 , 2 ) |

iii) canónica

En el primer caso, planteamos la relación lineal

a ( U l) + 6 (1 ,0 ) = ( - 2 , 3)

Efectuando las operaciones, y resolviendo respecto de a y b, se tiene

(a + b ,a ) = (--2, 3) =*■ a + b = - 2 y a = 3 =>

=>a = 3 y b = - 5

En consecuencia, las coordenadas de x, respecto de la base [v], son: 3 y -5Y puede escribirse

www.FreeLibros.com

Page 65: Algebra ii   armando rojo -

www.FreeLibros.com

56 DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION

En el segundo caso, procediendo análogamente, se llega a que las coordenadas de x son 1 y 0 , y por lo tanto

Finalmente, respecto de la base canónica, es

(—2, 3) = ( - 2 , 0) + (0, 3) = - 2 (1, 0) + 3 (0, 1)

O sea, las coordenadas de x son precisamente los elementos del par ordenado, y escribiremos simplemente

2.6.3. Teorema de extensión a una base

[v j = | V l , v 2 , • • v„ | es u n a base del espacio vectorial V, y

[w] = { w t , w2 , . . wm } es un conjunto linealmente independiente, pero no de generado­

res de V , e n to n c e s e x is te n vectores w,n + i> wfn + 2 > • • •> wm+p, ta es ^ue

i w 1,w 2 , . . , w m , w m+I, . . . f wm+pj es una base de V.

Si [w] n [vj = 0, consideramos el conjunto

A = [w] U [ v ] = ( w i , w2 , . . . , w m , v i ! v3 , . . . , v „ )

Como cada w,- es combinación lineal de los vectores de la base [v], A es un conjunto linealmente dependiente por 2.4.3. iv). De acuerdo con 2.4.3. vi), siendo A un conjunto finito y linealmente dependiente al que no pertenece el vector nulo, algún vector es combinación lineal de los precedentes. Tal vector es un elemento de [v], ya que [w] es linealmente independiente. Por otra parte, como A es un sistema de generadores linealmente dependiente de V, y v,- es combinación lineal de los precedentes, resulta

A¡ - A - ( v¡ | = j Wl , w 2, . . . , wm, v , , . . .,vM ,v f+1, . . . ,v„)

un sistema de generadores de V, según 2.5.2.Si A¡ es linealmente independiente, el teorema está demostrado. Si A¿ es linealmente

dependiente, se reitera el proceso, y a lo sumo, al cabo de («—1) etapas se obtiene unconjunto linealmente independiente que es sistema de generadores de V, o sea, una base.

2.6.4. Coordinabilidad de las bases

Dos bases cualesquiera de un mismo espacio vectorial son coordinables.

Hipótesis) (V, + , K , .) es un espacio vectorial.

[v]= ) v l5v2, . . . v„ í y [w ]= ( W! , w2, . . . , w j son bases de V.

www.FreeLibros.com

Page 66: Algebra ii   armando rojo -

www.FreeLibros.com

Tesis) [v] ~ [ w] , o sea, n = m.

Demostración) Consideremos

A = | wm, v l ! v2 , . . . ,v„J

Este conjunto, al que no pertenece el vector nulo, es un sistema de generadores (pues [ v ] es una base), y linealmente dependiente (ya que wm es C.L. de la familia [v]). La propiedad2 .4 .3 . nos dice que algún v¡ es C.L. de los precedentes, y, de acuerdo con 2.5.2,, es A - { v¡ } un sistema de generadores de V.

SeaAi — I wm_j , w m, Vj , . . ., v,-_i, V[+i, . . ., vfl f

Este conjunto es un sistema de generadores linealmente dependiente, y en consecuencia, algún vy es combinación lineal de los precedentes. Lo mismo que en la etapa anterior, se lo extrae y se agrega wm.2, obteniéndose

A2 = | Wm.2l Wm. h . . ,VM ! Vi+ 1 , . . „Vy.^Vy+i, . . -,Vn |

que es un sistema de generadores y linealmente dependiente.Reiterando el procedimiento, afirmamos que no es posible que los se "agoten untes”

que los wk , ya que en este caso los wfe sobrantes serian combinación lineal de los considerados. En consecuencia es

m < n ( 1)Análogamente, a partir de

B = | vb,W1 i W2 .......wm|se prueba que

n K m (2 )

De (1) y (2), por la antisimetría de la relación de menor o igual, resulta

n - m

2.7. DIMENSION DE UN ESPACIO VECTORIAL

2.7.1. Concepto

En 2.6.4. hemos demostrado que si [v] es una base finita del espacio vectorial (V, + , K , .),entonces toda otra base de V es coordinable a [v]. Esto significa que dos bases cualesquierade un mismo espacio vectorial tienen el mismo número de vectores. Tal número se llama la dimensión del espacio.

Definición

Dimensión de un espacio vectorial V es el número cardinal de cualquiera de sus bases.

Si V consiste únicamente en el vector nulo, diremos que su dimensión es 0.

DIMENSION 57

www.FreeLibros.com

Page 67: Algebra ii   armando rojo -

www.FreeLibros.com

58 DEPENDENCIA F. INDEPENDENCIA LINEAL. BASE Y DIMENSION

En ambos casos, V es un espacio de dimensión finita.

Si [v] = { Vi, v2 , . . v„ } es una base de (V, +, K, .), escribiremos

diniR V = «

Ejemplo 2-22.

Analizando ejemplos propuestos anteriormente se tiene que

dimKKn = « dimKK2 x 2 = 4

dimRR rt = « dimRS = 2 siendo S el subespacio del ejemplo 2-20

El lector puede verificar que { 1, X, X2 | constituye una base del espacio vectorial delos polinomios reales en la indeterminada X, de grado menor o igual que 2 y elpolinomio nulo, sobre el cuerpo de los reales. En consecuencia, su dimensión es 3.

2.7.2. Propiedad

Un conjunto de « vectores de un espacio vectorial «-dimensional es una base si y sólo si es linealmente independiente o sistema de generadores.

I o. Si [v] = { V j, v2 , . . vn } es una base de V y dimKV = «, entonces [v] es linealmente independiente y sistema de generadores.

2o • Si dimKV = « y [v] = ¡ V j, v2 , . . v„ } es L.I., entonces [v] es S.G.

En efecto, si [v] no fuera un sistema de generadores, por el teorema de extensión, podrú completarse hasta formar una base de V, en cuyo caso sería dimK V > n, io que es absurdo• Si dimKV = n y [v] = ¡ Vj, v2, . . v„ ¡ es S.G., entonces [v] es L.I.

Si [v] , que es S.G., fuera L.D., entonces existiría \¡ tal que [v] ¡ v ¡ ) es S.G. de V,según 2.5.2. Si este conjunto de n — 1 vectores fuera L.I. constituiría una base de V. S: [v] - { \ j } no fuera L.I. se reitera el procedimiento, y en todo caso se llega a una base de \ cuyo cardinal es menor que «, lo que también es absurdo.

En consecuencia afirmamos que:

1 . « vectores linealmente independientes de un espacio vectorial «-dimensional constitu yen una base del mismo.

2. Todo sistema de generadores de n vectores de un espacio vectorial «-dimensional e¡ una base del mismo.

3 . Todo conjunto de más de n vectores de un espacio vectorial «-dimensional e¡ linealmente dependiente.

La dimensión de un espacio vectorial (V, +, K, .) depende no sólo de V, sino también de! cuerpo K. Seguidamente aclaramos esta observación.

Ejemplo 2-23.

Sean (V, + , R , .) y (V, +, C , .) dos espacios vectoriales, donde el conjunto de vectoreses el mismo en ambos casos y C es el cuerpo de los complejos.

2 .

ve

Eiy,

www.FreeLibros.com

Page 68: Algebra ii   armando rojo -

www.FreeLibros.com

DIMENSION 59

.ent;

stiti

lal

Supongamos que dimc V = n. Entonces es dimRV = 2n.En efecto, si [v] = | Vj, v2 , . . ., vn ) es una base de (V, + , C , .), entonces

[W]= {vi >v2 , . . . , v n>/vI ,rví | es una base de (V, + , R, .).Para ello probaremos que

1 [w] es L.I.Sea

n n n2 a /V.-+ 2 i \ , = 0 = > 2 (<Xj + i p j ) v ;=0=>O/+ i/3y = 0 , V/=*

;=i ;= i 1 1 ;= i

=> (Xj = fy = 0 , V/

2 . [w] es S.G.Por ser [v] una base de (V, 4-, C, .), para todo v e V, existen escalares a¡ + i ty e C tales

que

v = j=.i + 1 & ví ^ v = £ ai vj + 0' v/>

Luego [w] es una base de (V, + , R , . ) ,y en consecuencia

dimR V = 2 dimc V

En particular, es

dimRC" = 2 dimcC" = 2 n

y

dimRC = 2 dimcC = 2

2.7.3. Propiedad

Sea S un subespacio de V. Se verifica que:

dim S = dim V o S = V

1. Si el subespacio S es el mismo V, entonces es obvio que dim S = dim V.

2. Supongamos ahora que S es un subespacio de V que verifica dim S = dim V.^ j. Si la dimensión común es 0, entonces tanto S como V tienen como único elemento al

* vector nulo y son idénticos.Sea dim S = dim V = n > 0. Consideremos una base de S:

[w]= í w1 ,w2, . . w„}Los n vectores de [w] son L.I. en V, y de acuerdo con 2.6.3. constituyen una base de V.

Entonces son un S.G. de V, lo que nos dice que todo vector de V pertenece a S, o sea, V C S, es y, como por definición de subespacio es S C V, resulta S = V.

www.FreeLibros.com

Page 69: Algebra ii   armando rojo -

www.FreeLibros.com

60 DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION

2.8. DIMENSION DE LA SUMA

2.8.1. Propiedad

Si S 4 y S2 son dos subespacios de (V, + , K , .) y la dimensión de V es finita, entonces se verifica que

dim (Sj + S2) = dim Si + dim S2 - dim (Si n S2)

Sean:dim V = « . d i m S , = « ’ di mS2 = /2”

d i m ( s 1 n s 2) = p y d i m S ! + S 2 = q

Se trata de probar queq u ’ + n" - f>

Consideremos S, O S 2 ^ j o ) y fx] = [ Xl , x2 , . . xp ) una base de St n s 2. Teniendo en cuenta que Si n S2 es un subespacio de Sj y de S2, completamos la base [x

a una base en cada uno de éstos.Sean

{ x , , x 2 , . . . , x p>y I , y ;t) . . . , y n ._J, J y

I x ¡ , x2 , . . xp , z , , z2 , . . . , z p | bases en Si y en S2, respectivamente.

El conjunto

A = I X j, x 2 , . . Xp, y i , . . ., y n ’—p , z , , , . , es una base de S i + S2 , pues:

Io. AesS.G. deS! + S 2 .

En efecto, sea v e Sj + S2 . Por definición de subespacio suma es

v = x + y a x e S i a y e S 2

Entonces71 -p

v = , ? i “ í X i + ¡ g b y ' + M “ ’'X I+ . 2 í ’( z ,=P n'-p n"-p

^ . 2 (a¡ + a \ ) x¡ + pi Y i + S p’. z .

2o. A es L.I.

Consideremos

Entonces

i* • » t* t\ ” y

. S a . x . + Z p ,y ¡ + 7¡Zi = 0 ( 1)

www.FreeLibros.com

Page 70: Algebra ii   armando rojo -

www.FreeLibros.com

DIMENSION DE LA SUMA 61

y’ n -P2 y i z¿, que pertenece a S2, también pertence a S i , o sea

n ’’-p

2 T j Z i e S i n S jz=i

En consecuencia es

t=i 7,' Zí = / l i a x *

n " - p p

O seap n ” -p

2 oc'¡ x { - 2 y ¡ z¡ = 0, y por la independencia lineal de la base de S2, se tiene: i=i ¿=i

a ' i = 0 , y¡ = 0Teniendo en cuenta (1) es

p n '-p2 0Ci x¡ + . 2 P¡ y i = 0 ¡ - i i=i

Luego

o¿¡ = 0 , /3j = 0

Siendo A una base de Si + S2 , resulta

j r + ( n ’ - j r ) + ( n ” -p )= < iEs decir

q = n ’ + n ” - p

Lo que se traduce en

dim (Si + S 2) = d imSi + dim S2 - • dim ( S ^ n S2)

2.8.2. Dimensión de la suma directa

Si Si y S2 son dos subespacios disjuntos de (V, +, K , .), entonces la dimensión de la suma directa es igual a la suma de las dimensiones de S t y S2.

En este caso es Si n S2 = {0} , y en consecuencia, dim (Si n S2) = 0.El teorema anterior es válido también en esta situación, y por consiguiente resulta

dim (Si ©S2) = dim Si + dim S 2

Ejemplo 2-24.

Determinar la dimensión de la suma de los siguientes subespacios de (R 3, +, R , .).

51 = ¡ (pe, y , z) e R 3 / x + y - z - 0 j

52 = i (x ,y , z ) e R 3 / * ~ z = 0 )

www.FreeLibros.com

Page 71: Algebra ii   armando rojo -

www.FreeLibros.com

62 DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION

Sj y S2 son planos y la dimensión de cada uno de ellos es 2.

Si n S2 = { (x ,y , z ) e R 3 / x - z a y ~ 0

Todo vector de Si O S2 es del tipo

(a, 0, a ) = a (1 ,0 ,1 ) Va eR

Luego

dim Si n S2 " í

En consecuencia

dim (Si + S 2) = 2 + 2 —1 = 3

O sea

S, + S 2 = R 3

www.FreeLibros.com

Page 72: Algebra ii   armando rojo -

www.FreeLibros.com

TRABAJO PRACTICO ||

2-25. Expresar en cada caso, si es posible, al vector v como combinación lineal de vt y v2. El espacio vectorial es (R 2, +, R , .).

i ) v = ( V 2 " ,- l ) , V l = ( > / 3 , 2 ) , v2 = ( — , 2)

ü) v = (2 , 4 ) , V! = ( - 1 , 3 ) , v2 = (2, - 6 )

2-26. Comprobar que los vectores de R 3

Ví = ( - 1 , 3 , 1 ) va = ( 3 , - 1 , 1) y v3 = ( 4 , 0 , 2 )

son linealmente dependientes, y expresar a v3 como combinación lineal de Vj y v2.

2-27. En (R2 *3 , + , R , .) se consideran las matrices

Probar que son linealmente independientes.

2-28. l'siudiar la dcpendoiu-ui o ¡iklepemlencu liin.\il de los vectores

V ! = 2 1/2 y v2 = 31/4

en cada uno de los espacios vectoriales (R, + , R , .) y (R, + , Q, .)•

2-29. Dados los vectores (1, - 4 , 6 ) , ( 1 , 4 , 4 ) y (0, - 4 ,x ) , del espacio R 3 sobre el cuerpo de los reales, determ inar* para que sean linealmente dependientes.

2-30. Demostrar que si a, b y c son tres números reales distintos, entonces los vectores (1, a, a2 ) , (1, b, b 2 ) y (1, c, c2 ) de (R 3 , + , R , .) son linealmente independientes.

2-31. En el espacio vectorial de las funciones reales definidas en R, se consideran las funciones f, g y h, definidas por

f (f) = t2 + 21 - 1 , g (?) = t2 + 1 , h ( t ) - t 2 + t

Demostrar que son linealmente dependientes.

2-32. En el espacio vectorial (R r \ + ,R , .) se dan las funciones f y g definidas por

f ( 0 = f . e ( 0 = j -

www.FreeLibros.com

Page 73: Algebra ii   armando rojo -

www.FreeLibros.com

64 DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION

Probar que son linealmente independientes.

2-33. En (R2, + , R , .), los vectores (a, b) y (<c , d ) verifican la condición a d - b c 4 o Demostrar que son linealmente independientes.

2-34. Determinar si los vectores (1,1, 1), ( 1 , 1, 0) y (0, 1, - 1 ) son linealmente independien­tes en (R 3, + , R , .) y en (C3, C ,.).

2-35. Sabiendo que v1} v2 y v3 son vectores linealmente independientes del espacio (V, +, K , .), investigar la dependencia o independencia lineal de los siguientes conjuntos de vectores:

i ) { v, + ÜV2 + ¿>V3 , V2 + Cl> 3 , V3 )

ii) { V!, V2 + av3 , v3 + bv2 ¡

donde a, b y c son elementos de K.

2'36. Sean: | x , , x2, . . ., x„ ) un conjunto L.I. de (V, +, K , .) y k eK .

es L .u ., entonces u es comoinacion lineal de la tamilia A.

2-38. Sabiendo que el conjunto A, a que se refiere el ejercicio anterior, es L.I. en (V, +, K, ) y que x n o e s combinación lineal de dicho conjunto, entonces A U { x} es L.I.

se verifica que el vector X ix¡ ¥= 0 .

2-40. Demostrar la independencia lineal de los vectores f , , f2 , y f3 del espacio (R1, +, R, .), donde I es el intervalo cerrado de extremos 0 y 1 , sabiendo que

2-42. Determinar el subespacio de (R 3 , + , R , .) generado por los vectores v, = (1, - 1 , 2), v2 = (0. —1, 1) y v3 = (1 ,1 ,0 ) . Obtener una base de dicho subespacio.

2-39. Demostrar que si el conjunto A = j X l, x2 , . . x„ ) es L.I. en (V, +, K , .), entonces

2 s i Q < x < l3

fi (x) =0 s ix e [ — ,11

3 1Osi — < x < 1

3

f3 (x) = 2 - x s ix e [0 , l j

2-41. Proponer una base en cada uno de los siguientes espacios vectoriales:

i ) (R, + , R , .) i i ) (R 4, + , R, .)

iii) (R2 x3 , + , R , .)

iv) ( C . + X , ■)

v ) (C, +, R, .)

www.FreeLibros.com

Page 74: Algebra ii   armando rojo -

www.FreeLibros.com

2-43. Demostrar que los siguientes conjuntos de vectores de (R 3, + , R , .) generan el mismo subespacio

A = ((1, 0 , - 1 ) , ( 0 , - 2 , 1)) B = j ( 1 , - 2 , 0 ) , ( 2 , - 2 , - 1 ) |

2-44. Determinar una base y la dimensión del subespacio de matrices de traza nula de (R2 x2, +, R, .)•

245. En (C2 , + , R , .) se considera el subespacio S = { (z, u) e C2 / z - 2u = 0 }Obtener una base y la dimensión de S.

2-46. En (R2x2, + , R, .) se considera S = ( A e R 2x2 / á 12 (an + a 22) = 0 }Investigar si S es un subespacio, y en caso afirmativo obtener una base del mismo.

2-47. Investigar si S = \ ( z , u) e C2 / z - J + u = 0} es un subespacio en (C2 , + , C , . ) y (C2 , + , R, .)• Si lo es, determinar una base y la dimensión.

2-48. Determinar el subespacio S de (R3, + , R , .) generado por los vectores (2 ,0 ,1 ) y ( - 1 , 0 , 1 ) . Hallar una base de S y su dimensión. Proponer un subespacio T que no contenga a los vectores dados.

2-49. Dados los subespacios de (R4 , + , R , .)

51 = { ( X x , X 7 , X - i , X A ) ¡ X x + X 2 - * 3 + * 4 = 0 )

5 2 = I ( X l , X 2 , X 3 , X 4 ) / X i - x 2 - X 3 - x 4 = o )

Obtener la dimensión de S! + S2 .

2-50. Sea j v l( v2 , . . vn ) una familia de vectores de (V, + , K , .) y r < n . Por definición, elconjunto j V! , v2, . . vr J es un subconjunto maximal de vectores L.I. si y sólo sii>r=> j V j, v2, . . . , vr, v* J es L.D.Demostrar que si { Vj, v2 , . . v„ } es un S.G. de V y { Vj, v2, . . vr} es un sub­conjunto maximal de vectores L.I., entonces éste es una base de V.

2-51. Demostrar que si V es un espacio de dimensión finita y V = Sj ®S2, entonces se verifica que dim V = dim S x + dim S2 .

TRABAJO PRACTICO II 65

www.FreeLibros.com

Page 75: Algebra ii   armando rojo -

www.FreeLibros.com

Capítulo 3

TRA SFORMACIONES LINEALES

3.1. INTRODUCCION

Exponemos en este capítulo el concepto de trasformación lineal entre dos espacios vectoriales sobre un mismo cuerpo, las propiedades generales y los tipos especiales de trasformaciones lineales. Se introducen las estructuras de núcleo y de imagen de una trasformación lineal y se da la relación entre sus dimensiones. Fijada una base en cada espacio, siempre en el caso finito, se determina la matriz asociada a una trasformación lineal. Después del estudio de la composición de trasformaciones lineales, se conecta este concepto con el producto de matrices. Finalmente, se mencionan los espacios vectoriales de trasformaciones lineales y el espacio dual de un espacio vectorial.

3.2. TRASFORMACION LINEAL ENTRE DOS ESPACIOS VECTORIALES SOBRE UN MISMO CUERPO

Sean (V, + , K, .) y (W, + , K , .) dos espacios vectoriales sobre un mismo cuerpo K.

3.2.1. Concepto

La función / : V -*■ W es una trasformación lineal u homomorfismo si y sólo si

i ) l a imagen de la suma de dos vectores cualesquiera de V es igual a la suma de sus imágenes en W

/ ( * + y ) = / ( x ) + / ( y )

ii) la imagen del producto de cualquier escalar por todo vector de V es igual al producto del escalar por la imagen de dicho vector.

f (a x) = a f (x)

www.FreeLibros.com

Page 76: Algebra ii   armando rojo -

www.FreeLibros.com

TRASFORMACiON LINEAL 67

Las condiciones i) y ii) se pueden reducir a la única siguiente:/ : V -*■ W es una trasformación lineal si y sólo si

f ( a x + 0 y ) = a / ( x ) + |3 /(y )

cualesquiera que sean a y 0 en K, y x e y en V.El lector puede demostrar por inducción completa que si / : V -> W es una trasformación

lineal, entonces se verifica que

/ ( J cc¡ x () = ¿ a f/(x ¿)1=1 i= i

cualquiera que sea n e N.Esto nos permite afirmar que las trasformaciones lineales preservan las combinaciones

lineales.

Ejemplo 3-1

Sean los espacios vectoriales (R3, +, R , .) y (R2 , +, R, .)•La función / : R3 -*■ R2 definida por

f ( x u x 2, x 3) = (Xt - x 3, x 2 - x 3)

es una trasformación lineal, ya que se verifican las condiciones:

i ) f [ ( x i , x 2, x 3) + (y1, y 2, y 3) ] = f ( x l + y u x 2 + ya , x 3 + y 3) =

= ( x i + y i ~ x 3 - y 3, x 2 + y 2 - x 3 ~ y 3) (1)

por suma en R3 y definición d e /. Por otra parte, teniendo en cuenta la definición d e / y la suma en R2 , es

f (x\ , x 2, X 3 ) + f ( y u V2 , y 3 ) = (xi - x 3 , x 2 - x 3) + O i — y 3, y 2 - y 3) =

= (*1 - x 3 + V j - y 3, x 2 - x 3 + y 2 - y 3) (2)De ( 1) y (2 ) se deduce que la imagen de la suma es igual a la suma de las imágenes.

ii)Por definición de producto de escalares por ternas, definición de /, propiedad

www.FreeLibros.com

Page 77: Algebra ii   armando rojo -

www.FreeLibros.com

68 TRASFORMACIONES LINEALES

distributiva del producto en R, producto de escalares por pares, y por definición de / .e s

f [ cc ( x lt x 2, x 3) ] = f ( a x l , a x 2, a * 3) = (o:jct ~ a x 3, a x 2 - a x 3) =

= a ( x t - x 3, x 2 ~ x 3) = a f ( x 1, x 2, x 3)

0 sea, la imagen del producto de cualquier escalar por todo vector es igual al producto del escalar por la imagen del vector.

Ejemplo 3-2.

La función / : R3 R 2 tal que / ( * , , x 2, x 3) = ( x t - x 3,x 2 - x 3 + 1) no es una trasformación lineal, pues

f [ ( x l l x 2, x 3) + ( y 1, y 2l y 3) ] = f ( x 1 + y i , x 2 + y 2l x 3 + y 3) =

= (*i + y i - x 3 - y 3t x 2 + y 2 ~ x 3 - y 3 + 1)pero

f ( x i , x 2, x 3) + f ( y u y 2, y 3) ^ ( x x - x 3, x 2 - X 3 + 1) + (y x ~ y 3, y 2 - y 3 + 1) =

= (* i ~ x 3 + y x - y 3, x 2 - x 3 + ^ 2 - y 3 + 2 )

Ejemplo 3-3.

Supongamos q u e / : R 2 -* R 3 es una trasformación lineal que verifica

/ ( ! > 0) = (1, 2, 3) y /(O , 1) = (0, - 1 , 2)

Podemos obtener la imagen de (2, —3) de la siguiente manera

/ ( 2 , - 3 ) = / [(2, 0) + (0, —3)] = / [ 2 (1, 0) 4* ( - 3 ) (0, 1)] =

“ 2 / ( 1 , 0 ) + (—3 )/ (0 , 1) = 2 ( 1 , 2 , 3 ) + ( —3) (0 , - 1, 2 ) =

= (2,4, 6 ) + ( 0 , 3 , - 6 ) = (2, 7,0)

3.2.2. Propiedades y clasificación de las trasformaciones lineales

Sea / : V- *W una trasformación lineal. Denotaremos mediante 0V y 0W a los vectores nulos en V y en W, respectivamente.

1 . La imagen del vector nulo del primer espacio por toda trasformación lineal es el vectornulo del segundo espacio.

Teniendo en cuenta que el producto del escalar 0 por cualquier vector es el vector nulo, y la condición ii) de la definición de trasformación lineal, se tiene

/ (0 V) = / (0 x) = 0/ (x) = 0W

II. La imagen del opuesto de todo vector del primer espacio es igual al opuesto de su imagen.

www.FreeLibros.com

Page 78: Algebra ii   armando rojo -

www.FreeLibros.com

PROPIEDADES 69

Considerando la propiedad I.3.4., y la definición de trasformación lineal, es

/ ( - X ) = / [ ( - l)x] = ( - l ) / ( x ) = -/(X )

De acuerdo con la definición, una función / : V W es una trasformación lineal si y sólo si satisface las condiciones i) y ii), pero nada se exige a / , salvo que sea una aplicación. En particular diremos que

/ es un monomorfismo <*/es inyectiva

/ es un epimorfismo *>f es sobreyectiva

/ es un isomorfismo o / e s biyectiva

Si W = V, entonces la trasformación lineal / se llama un endomorfismo, y si éste es biyectivo recibe el nombre de automorfismo. O sea, un automorfismo es toda trasformación lineal biyectiva de un espacio vectorial en sí mismo.

Ejemplo 3-4.

La aplicación / : R3 -> R 3 definida por

f ( x i , x 2, x 3) = {x2, - x u x 3)es un automorfismo en R 3.Debemos probar que / es una trasformación lineal biyectiva.

1. / e s una trasformación lineal, ya que verifica:

i ) La imagen de la suma es igual a la suma de las imágenes

f [ ( x \ >x i , x 3) + (yl , y 2l y?i) \ = f ( x l + y i , x 2 + y 2, x 3 + y 3) =

= (*2 + y 2, - * i ~ y l t x 3 + y ¡ ) = (x2, - x u x 3) + ( y2, - y l t y 3) == f ( X i , x 2l x 3) + f ( y l l y 2l y 3)

ii) La imagen del producto de cualquier escalar por todo vector es igual al producto del escalar por la imagen del vector.

f [ a ( X t , x 2, x 3) ] = f ( a x i , a x 2, a x 3) ~ (<*x2, - a x u u x 3) =

~<x (x2l - x ¡ , x 3) = a f ( x u x-2, x 3)

2 . f e s inyectiva.

Sean (*], x 2l x 3) y {y {, y 2, y 3) en el dominio, tales que

f ( x i, x 2, x 3) = f ( y í f y 2, y 3)O sea

(x2, - x¡, x 3)= (y2l - y i, y 3)Por lo tanto es

x -2 = y 2 , *1 = V, , x 3 = y 3

www.FreeLibros.com

Page 79: Algebra ii   armando rojo -

www.FreeLibros.com

70 TRASFORMACIONES LINEALES

Luego

( x í , x 2, x 3) = ( y l , y i , y 3)

3. f e s sobreyectiva.

Cualquiera que sea (a, b, c) en el codominio, existe ( - b, a, c) en el dominio, tal que

/ ( -b , a, c) = (a, b, c)

Queda probado así que f es un automorfismo en R 3. La trasformación lineal/puede interpretarse como una trasformación del espacio en sí mismo que corresponde aúna rotación de 90° alrededor del eje x 3.

Ejemplo 3-5.

1. La función / : V W que asigna a todo vector de V e l vector nulo en W es una trasformación lineal, pues

/ ( x + y) = 0w = (V + 0w = /( x ) + / (y)

/ ( « x ) a O w - « 0w « a / ( x )

f se llama trasformación lineal nula.

2. La fu n c ió n /: V -> V tal que / (x) = ax cualquiera que sea x e V, y a un escalar dado en K, es una trasformación lineal.

www.FreeLibros.com

Page 80: Algebra ii   armando rojo -

www.FreeLibros.com

PROPIEDADES 71

En efecto:f (x + y) = a ( x + y ) = a x + a y = / ( x ) + /( y )

f (a x) = a (a x) « a (a x) = a / (x)

La trasformación lineal / así definida se llama homotecia de razón a.

Ejemplo 3-6.

Sea/ : R2 ->R2x2 definida por

/ n o es inyectiva ni sobreyectiva.

Ejemplo 3-7.

Si (V, +, R , .) denota el espacio vectorial de los polinomios reales en la indeterminada X, entonces la función

/ es una trasformación lineal, pues

f [ ( a . 6 ) + ( c , d)) = / ( « + c , b + d)a + c + b + d 0

0 a + b + c + d

y

/ : V -* V,

www.FreeLibros.com

Page 81: Algebra ii   armando rojo -

www.FreeLibros.com

72

es una

TRASFORMACIONES LINEALES

trasfoTmación lineal, pueT"*0 * V * P r e m i o derivado,

/ ( P + Q ) = ( p + Q ) ’ „ p . + q , ^ / ( p ) + / ( Q )

f { a ¥ ) = { a¥y = a ? ' =a f ( V)El endoinorfismo / no es inyectivo.

3.3. NUCLEO E IMAGEN DE UNA TRASFORMACION LINEAL

Consideremos una trasformación lineal / : V -» W.

3.3.1. Concepto de núcleo

cuerpo^es VeC*°riaks « -del codominio. d0mmi° CUyaS inia^enes P” / s o n el vector nulo

El símbolo N (f) se lee núcleo de f. Por definición es

N ( / ) = j x e V / / ( x ) = 0

El núcleo de toda trasformación lineal es laespacio. O sea p re imagen del vector nulo del segundo

K ( j ) = f l ( ( 0W| )

Por definición, un vector perteneciente a V es un elemento del núcleo si v sólo «■ imagen es el vector nulo de W. y so!o SJ su

x e N (/) ^ / ( x ) = Ow

www.FreeLibros.com

Page 82: Algebra ii   armando rojo -

www.FreeLibros.com

NUCLEO 73

Ejemplo 3-8.

Determinamos el núcleo de la trasformación lineal definida en el ejemplo 3-1.

N ( 0 = { (x 1, * 2 , x 3 ) e R 3 / / ( * ! , *2 l x 3) = (0 - ° ) íSe tiene

(*i. e N ( f ) o f ( x u x 2, x 3) = (0 ,0)<>

^ (*1 ~ * 3. *2 - * 3) = (O , 0) OXj - JC3 = O A x 2 - *3 = 0 o

^ X i =Xi = x 2 =a

Luego

N (/) = ( ( a , a , a ) ¡ a e R )

Por definición de ley de composición extema en R 3 se tiene

N ( / ) = { f l ( l , l , l ) / « e R |

Esto nos dice que el núcleo de / es el conjunto de todos los múltiplos escalares del vector ( l , 1, 1). La representación d e l N( / ) es t á dada en el gráfico siguiente

Volviendo a la definición de núcleo de una trasformación l i neal/V -> W, observamos que

N O ) C V

Por otra parte, de acuerdo con 3 .2 .2 .1., es

/ (0 V) = 0 WEn consecuencia

Ov e N ( / )

Luego, el núcleo de toda trasformación lineal / ’es no vacío.

www.FreeLibros.com

Page 83: Algebra ii   armando rojo -

www.FreeLibros.com

74 TRASFORMACIONES LINEALES

3.3.2. Propiedad del núcleo

El núcleo de toda trasformación lineal entre dos espacios vectoriales es un subespacio del primero.

Hipótesis) f : V -*• W es una trasformación lineal.

Tesis) ( N (f), + , K, . ) es un subespacio de (V, +, K, .).

Demostración) Ya hemos visto que el núcleo de toda trasformación lineal entre dos espacios vectoriales es una parte no vacía del dominio. De acuerdo con la condición suficiente, demostrada en 1 .8 .2 ., falta demostrar:

1. N (/) es cerrado para la suma.

Sean x e y dos vectores cualesquiera de N (/).

x e N ( / )A y e N ( / ) =>/(x) = 0W a / ( y ) = Ow =>

=>/'(x + y)==0 w =>=>x + y e N (f)

Por definición de núcleo, suma en W, definición de t rasformación lineal y definición de núcleo.

2. N (f) es cerrado para el producto por escalares.

Sean a e K y x e V

aeKAxeV=>aeKA/(x) = Ow s> a f ( x ) = a ) ^ =►=»/(a x) = 0W ^ a x e N (/)

Por definición de núcleo, producto de escalares por elementos de W, definición de tras- formación lineal, propiedad 1.3.2. y definición de núcleo.

3.3.3. Concepto de imagen

Imagen de una trasformación lineal / : V -+ W es el conjunto imagen del dominio, o sea, es la totalidad de las imágenes de los vectores del primer espacio.

El símbolo I (/) se lee: imagen de f.

I < / ) = { / ( x ) / x e V |

También

1 ( 0 = 1 y € W / 3 x e V a /( x ) = y j

www.FreeLibros.com

Page 84: Algebra ii   armando rojo -

www.FreeLibros.com

IMAGEN 75

Sabemos que f (0V) ~ 0W. En consecuencia, 0W e I (f), lo que significa que

1 (0 * 0

Además, de acuerdo con la definición, es

I ( / ) C W

3.3.4. Propiedad de la imagen

La imagen de toda trasformación lineal entre dos espacios vectoriales es un subespacio del codominio.

Hipótesis) / : V -»• W es una trasformación lineal.

Tesis) f I (f), + , K, . ) es un subespacio de (W, +, K, .).

Demostración) Sabemos que la imagen de toda trasformación lineal entre dos espacios vectoriales es una parte no vacía del segundo. Teniendo en cuenta la condición suficiente para la existencia de subespacio, probaremos:

1 . I (/) es cerrado para la suma.

Sean u y v dos vectores de í (/).

u e I (/) a v e I ( / ) ^ 3 x ^ y e n V / / ( x ) = u a / ( y ) = v =>

= >/(x) + / ‘(y) = u + v a x e V a y e V ^

= > /(x + y) = u + v a x + y e V ^ u + v e l ( / )

Hemos aplicado la definición de imagen, de trasformación lineal y de imagen.

2 . I (f) es cerrado para el producto por escalares.

Consideremos a e K y u e I (f)

a e K a u e I (/) => a e K a / (x) = u a x e V =>

=> a / (x) = a u a x e V = > / ( a x ) = a u a a x e V = >

=> a u e I (f)

www.FreeLibros.com

Page 85: Algebra ii   armando rojo -

www.FreeLibros.com

^ Ímagen> Pr° dUCt0 “ W> - trasformación

Ejemplo 3-9.

eD„e7eT em pto°31 * '* Íma8en "* " trasformació" lta^ / : R2 - R 2 *2 definida1.

N ( / ) = | (x\ , x 2) € R . 2 / f ( x l , * 2) = N}

/O 0 \( ^ i , x 2) e N ( / ) » / ( XliJCjj = J

\ 0 0 /

x i + *2 0 , / O 0 \

, ) = J + x 2 = 0 ^o x , + x 2 f \ 0 o /

* x t = - x 2Luego

N (J) = f ( - a, a ) / a e R )

o sea, ei núcleo de / es el conjunto de los pares ordenados de componentes opuestas.

76 TRASFORMACIONES LINEALES

1 0 ) = |A e R 2» / / ( * , . * 2) = A}

(c J e I W <>3 f e . ^ ) e R 2 / / ( I l | Í ! ) = AA =

* i 0 \ ja b \] =[ + * 2 = a= d a b = c = O

O x x + x 2 I \ c d J

Luego a í (f) pertenecen las matrices del tipo

¡ a O

\ 0 a

Ejemplo 3-10.

Dada la trasformación lineal del ejemplo 3-9, determinamos las dimensiones de N (/) e

www.FreeLibros.com

Page 86: Algebra ii   armando rojo -

www.FreeLibros.com

NUCLEO E IMAGEN 77

1. Hemos visto que

N ( 0 = ¡ ( - a , a ) / a e R í

Teniendo en cuenta la definición de ley de composición externa en R 2 , es

N ( / ) = í « ( - 1 , l ) / « e R l

Esto significa que N (f) está generado por el vector ( - 1 , 1), es decir, este vector constituye un sistema de generadores del núcleo. Además es linealmente independiente según 2.4.3. i). Por consiguiente, { ( - 1 , 1) } es una base del núcleo.Entonces

es un sistema de generadores de I (/), y además linealmente independiente. En consecuencia, constituye una base.Luego

dim N (f) = 1

2. Como

podemos escribir, por definición de producto de escalares por matrices:

O sea, la matriz

dim I (0 = 1

3.3.5. Núcleo de un monomorfismo

Una trasformación lineal / : V -> W es inyectiva si y sólo si el único elemento del núcleo es el vector nulo del dominio.

1. Sea / : V -> W un monomorfismo. Debemos probar qu e N (f) = { 0 V | •

Ov eN (f)=> {0V( CN(/) (1)

www.FreeLibros.com

Page 87: Algebra ii   armando rojo -

www.FreeLibros.com

78 TRASFORMACIONES LINEALES

Sea x e N (J). Se tienex e N ( j ) = > f ( x ) ~ O w = f ( O v )=>x = Ov =>xe j 0V}

Por definición de núcleo, 3.2.2. 1. y por ser/ inyectiva.Entonces

N ( 0 C | 0 V ¡ (2)

De (1) y (2) resulta

N ( 0 = | 0 V)

2. Sean / : V -> W una trasformación lineal y N (f) = ( Oy )

Para demostrar que / es inyectiva consideremos dos vectores cualesquiera x e y en V, tales q u e /(x ) = / (y).

Ahora bien, por suma en W, definiciones de trasforma ción lineal y de núcleo, por hipótesis y suma en V, se tiene

/ ( x ) = / ( y ) ^ / ( x ) - / ( y ) -O w =* / ( x — y) =0 W =>

^ x - y e N C O ^ x - y ^ O v ^ x ^ y

O sea, basta que el núcleo tenga un único elemento para que la trasformación sea inyectiva.

Ejemplo 3-11.

La imagen de cualquier conjunto linealmente dependiente, por toda trasformación lineal, es linealmente dependiente.

Sea / : V W una trasformación lineal,y { Vi, v 2 , . . vr } un conjunto linealmente dependiente en V. Debemos probar que { / (v ^ , / ( v 2) , . . . ,/ ( v r) } es linealmente dependiente en W.

En efecto, por definición de dependencia lineal se verifica quer

3 i l . 2 a ¡ v ¡ - 0 V a ctj i= 0

Aplicando / es

/ ( . 2 ^ v ^ / O M a ^ O

Por s e r / una trasformación lineal y por imagen del vector nulo se tiener

2 O!|/(Vi) = 0w A 1=1En consecuencia

í / ( V i ) , / ( V2) , . . . , / ( v r) ¡

es linealmente dependiente.

www.FreeLibros.com

Page 88: Algebra ii   armando rojo -

www.FreeLibros.com

IMAGEN

Ejemplo 3-12.

Si / : V -*■ W es una trasformación lineal y Vi, v2, . . -, vr son vectores de V tales que sus imágenes constituyen un conjunto linealmente independiente en W, entonces v , , v2 , . . . , vr son linealmente independientes.

En efecto., consideremos una combinación lineal, con escalares a determinar, de los vectores Vj , v2 , . . vr, que sea el vector nulo de V

r2 a, v,- = 0 V

i—1

Entonces, por definición de función, es

/ ( S a f ví) = / (O v ) i=i

Por s e r/u n a trasformación lineal y por imagen del vector nulo, se tiene

. 2 «i / (Vf) = 0 W i= i

Como los vectores/(v ,), /= 1, 2 , . . r s on linealmente independientes en W, resulta

ot, = 0 V / = l , 2 , . . . , r

Luego

Vi ,v2 f . . vr

son linealmente independientes en V.

Ejemplo 3-13.La imagen de todo conjunto linealmente independiente, dada por cualquier trasforma­ción lineal inyectiva, es un conjunto linealmente independiente.

Hipótesis) / '. V -> W es una trasformación lineal 1-1.

{ Vj, v2 , . . vr ) es L.I. en V.

Tesis) ( f (yi \ f (v2) , . . . ,/( v ,) ¡ es L.I. en W.

Demostración) Sea

.J 1 « í/(v í) = 0 w

Por ser / una trasformación lineal es

/ ( 2 a i v,) = 0 w 1=1

Por definición de núcleo se tiene

www.FreeLibros.com

Page 89: Algebra ii   armando rojo -

www.FreeLibros.com

Y co m o /es inyectiva, el núcleo se reduce al vector nulo de V, o sear

.2 «, = 0 V

Aplicando la definición de independencia lineal a los vectores de la hipótesis es

a¡ = 0 V í - 1 , 2, . . . , rEn consecuencia

í / ( V l ) , / ( v 2), . . . , / ( v r)} es un conjunto linealmente independiente.

3.4. DIMENSIONES DEL NUCLEO Y DE LA IMAGEN

La trasformación lineal / : R2 ^ R 2 * 2 , estudiada en los ejemplos 3-9 y 3-10, verifica

dim N (/) = 1 y dim I (f) = 1O sea

dim N (/) + dim 1 (/) = 2 = dim R2

Este hecho se verifica cualquiera que sea la trasformación lineal definida en un espacio vectorial de dimensión finita.

Propiedad

Si (V, + , K , .) es un espacio vectorial de dimensión finita y / : V - > W es una trasformación lineal, entonces la suma de las dimensiones del núcleo y de la imagen es igual a la dimensión del primer espacio.

Hipótesis) / : V -» W es una trasformación lineal

dim V = n

Tesis) dim N (f) + dim I (f) ~ dim V

Demostración)

1. I (f) tiene dimensión finitaSabiendo que cualquier base de V es finita, se deduce que I (f) tiene dimensión finita. En

efecto si I w , , w2 , . . wr } es un conjunto L.I. en I {/), entonces existe un conjunto L 1 en V :( vj , v2, . . vr j tal que

/(v¿) = w¿ i = 1, 2 , . . . ,r

de acuerdo con el ejemplo 3-12. Esto significa que si 1 (f) no tuviera dimensión finita entonces V no tendría dimensión finita.

2. Sea ( x , , x2 , . . xp ) una base de N (J).Si n - p , entonces N (/) = V y dim I (f) = 0, pues en este caso es I (f)= j 0W J .

80 TRASFORMACIONES LINEALES

www.FreeLibros.com

Page 90: Algebra ii   armando rojo -

www.FreeLibros.com

DIMENSIONES DEL NUCLEO Y DE LA IMAGEN 81

Si p < « , entonces, por el teorema de extensión, existen y , , y2, . . ys en V, tales que

A_ | xj,Xj, . . Xp,yi, y2, - • -,ys }es una base de V.

V W

Se tiene p + s = n, y el teorema se reduce a probar que dim I (f) - s. Consideremos las imágenes de los vectores y i , y2 ,. . . , ys. Sean éstas

Z /= /(y ¡) c o n / = 1, 2 , s ( 1)

Demostraremos que | z ¡ , z2 , . . zg } es una base de I {/). En efecto:

i ) ( z ! , z 2, . . . , zs ) es L.I.

Sea£

¡=i a‘ Z‘ =

P o r (1)

. 2 a¡ f ( y¡ ) = *>w a¡ y ;)= °w ^ «¿ y. e n (o =>

=>2^ a¡ y ¡ = 2 j3;- Xj =*• 2^ (3;- x;- - 2^ ot¡ y¡ = 0V => (3,- = 0 a = 0 Ví V/

ii) I z l , z 2, . . . , z s } es S.G. de l ( f )

Sea z cualquier vector de I (f). Por definición de conjunto imagen se verifica

z e I ( 0 = > 3 x e V / / ( x ) = z ^ z = / ( x ) a x = 2 a¡ x¡ + . 2 13, y ¡ =»

P s P S

www.FreeLibros.com

Page 91: Algebra ii   armando rojo -

www.FreeLibros.com

82 TRASFORMACIONES LINEALES

En i) hemos tenido en cuenta q u e /e s una trasformación lineal, la definición de núcleo, la base de éste, suma en V, y el hecho de que A es una base de V.

En ii) hemos expresado a x como combinación lineal de la base de V, se ha tenido en cuenta que / es una trasformación lineal, que todo x¡ es un elemento del núcleo, y que el producto de cualquier escalar por el vector nulo es el vector nulo.

Queda demostrado entonces que

dim N (f) + dim I (f) ~ dim V

Ejemplo 3-14.

Consideremos la trasformación lineal/: R4 -► R 2 definida por

f ( x u x 2, x 3, x 4) = ( x l - x 2 - x 3 + * 4 ) 0 )

Determinamos:

1. El N (/), una base del mismo y su dimensión

(* i, * 2 . * 3, * 4) e N £/)■*■/(*,, * 2l x 3, * 4) = (0 , 0) o

o ( * i ~ x 2 - * 3 + x 4 , 0 ) = (O, 0 ) o Xl - x 2 - x 3 + x 4 = 0 o

ojc j ~ x 2 + * 3 - * 4

En consecuencia, los vectores del núcleo .son del tipo (a + b - c, a, b, c), y por definición de suma en R 4 y producto de escalares por cuaternas, se tiene

(a + b - c , a , b, c) - (a, a, 0 , 0 ) + (b, O, b, 0 ) + ( -c , O, O, c) ~

= a ( 1, 1, 0 , 0 ) + 6 ( 1 , O, 1, 0 ) + c ( - 1, O, 0 , 1)O sea, los vectores

V ! = ( l , 1 , 0 , 0 ) v2 = ( 1 , 0 , 1, 0 ) v3 = ( - 1, 0 , 0 , 1)

son un sistema de generadores de N (f). Además, son linealmente independientes y por lo tanto constituyen una base del mismo. Luego

dim N (f) = 32. Una base de I (f).

De acuerdo con el teorema anterior es

dim N (f) + dim I (/) = 4O sea

dim I (f) = 1

Entonces, toda base de 1 (J) tiene un único vector.Como

1 ( f ) = f (o ~ b - c + d , 0) / a , b , c y d e R Íse verifica que

www.FreeLibros.com

Page 92: Algebra ii   armando rojo -

www.FreeLibros.com

TEOREMA FUNDAMENTAL 83

O í. y i ) e I (f) O í , y i ) = (a - b - c + d , 0 ) o

^ (y 1, y 2) = (a , 0 ) + ( -b , 0 ) + ( - C , 0 ) + ( d , 0 ) o

«■(yi .>a) = « ( l , 0 ) - ¿ ( l , 0 ) - c ( l , 0 ) + d ( l , 0 ) o

^ 0 1 . ^ 2 ) = ( a - 6 - c + c í ) ( l , 0 ) o ( y l i ^ 2) = 0¡ ( i , 0 )

Luego

( 1, 0 ) es una base de I (f).

En consecuenciadim I (/) — 1

3.5. TEOREMA FUNDAMENTAL DE LAS TRASFORMACIONES LINEALES

Sean (V, +, K , .) y (W, +, K , .) dos espacios vectoriales y [v]= j v j , v 2 , . . v„ ) una base de V. Si W j, w2 , . . wn son n vectores cualesquiera de W, entonces existe una úni ca trasformación lineal / : V W tal que f (v,) = w,- V/ = 1 , 2 , . . . , n.

Hipótesis) (V, 4-, K , .) y (W, +, K , .) son espacios vectoriales

[v] = { v , , v2 , . . vn | es una base de V

c w

Tesis) Existe f : V -»■ W trasformación lineal única, tal que / (v¿ ) = w¿, Vi = 1, 2, . . ., n

Demostración) Sea cualquier vector x e V. Entonces existen y son únicos los escalares o»!, a2 , . . 0ín , tales que

nX = 2 di V;

¿ = 1 '

ya que todo vector del espacio puede expresarse de modo único como combinación lineal de los vectores de la base, según 2.4.2.

Definimos

f : V -*■ W mediante / (x) = 2 cc¡ wf1=1

La asignación (1) caracteriza a / como una función de V en W.Necesitamos probar las siguientes afirmaciones:

1. /e s una trasformación lineal

Si x e y son dos vectores cualesquiera de V, y a e K, entonces

n nx = í? i ai v< A

www.FreeLibros.com

Page 93: Algebra ii   armando rojo -

www.FreeLibros.com

y se verifica

84TRASFORMACIONES LINEALES

i ) / ( x + y ) = / ( | aiV¡ + ¿ f tv ,) = / ( | ( a ¡ + f t ) v ¡ ) = | (a, + WW( =

= .2 «, w( + | ft w , = / (x ) + / ( y)

") r x > =/■(“ g v,) = / ( . 2 (a a,.) v , ) =

- V ”C“ « / ) W , - t t S ttíWí = « / ( * )

2 . / - 1, 2 , . . « = > /(v.) ^ w .

En efecto

vf = 0 v, + . . . + o vM + j v . + + 0Luego

f (y ¡ ) = 0 w , + . . . + o wM + 1 Wi + . . . + o W)j =

= 1 wf = w,

3. Bajo la condición/(v ,) = w,. / e s única.

S ig : V -> W es una trasformación lineal tal que g (y.) - w . y / = 1 ?& \ o wt, vi i , / , . . . , n, entonces

g ( x ) = g ( .£ «,■ Ví) = .£ aig (Ví) a . w. =

" A a i f (yí) /| 1 a¡ v, ) - / ( X)

cualquiera que sea x e V.Luego

“ neal entre dosdel primero. determinada poi los valores que toma sobre cualquier base

Ejemplo 3-15.

Definimos la trasformación lineal / : R3 R 2 0hp 1t ion, iO» 1. 1) , (1 1 0 ) (i 0 í» ™ r 3 , q gna a los vect° res de la base» /»v. en R , los vectores (T 2) ( \ v ( i n «2respectivamente. y ( - 1, 1) en R 2,

Necesitamos determinar la imagen de un vector genérico (a b peste como combinación lineal de la base dada ' A s a m o s a

www.FreeLibros.com

Page 94: Algebra ii   armando rojo -

www.FreeLibros.com

Entonces

( a , b , c ) = a , ( 1, 1 , \ ) + a 2 ( 1, 1, 0 ) + o¡3 ( 1 , 0 , 0 ) -

= (<*i + a 2 + a 3 , a , + <x2 , ctj) =>

^ = c , ot2 = b — c , a 3 = a -- b

( f f , ¿ , c ) = c ( l , 1, 1) + (¿> - c ) ( l , 1, 0 ) + (a - b) ( i , 0 , 0 )

f ( a , b , c ) = c ( 1, 2) + (¿ - c) ( 1, 2) + (« - £>) (— 1, |) =

= ( c> 2c) + (b — c, 2b — 2c) + (—a + b, a — b) =

= (2 b - a , b + a )

PRODUCTO DE MATRICES 85

3.6. PRODUCTO DE MATRICES

Sean las matrices A e Kmxjs y B e K px". Llamaremos producto de las matrices A y B en ese orden, a la matriz C cuyo elemento genérico cu es la suma de los productos d e ’los elementos de la fila i de A, por los correspondientes elementos de la columna / de B.

Escribiremos

C = ABdonde

cü = í*íi b u + a i2 b 2j + . . . + aip bpjO sea

cü a¡k bh}

cualesquiera que sean /' = 1, 2 , . . ., m y / = 1, 2 , . . . n.De acuerdo con la definición, para que dos matrices se puedan multiplicar, el número de

columnas de la primera debe ser igual al número de filas de la segunda.Por ejemplo, si

y 1 o 1 - 21 2 - 2 / '0 - 1 --I l

entonces

www.FreeLibros.com

Page 95: Algebra ii   armando rojo -

www.FreeLibros.com

86 TRASFORMACIONES LINEALES

Si A es la misma que en el caso anterior y B =

entonces1 0 - 1 \ f - 2 \ i -5

AB = I 21 2 - 2 / \ 3 / \ - 4

En ninguno de los dos casos existe BA

En particular, si m = n, los elementos de K"xn se llaman matrices cuadradas y se verifica que (K'IXrt, + , .) es un anillo no conmutativo, con divisores de cero y con identidad. El tema está tratado en el capítulo 9 del texto Algebra I ya citado, y se estudiará en detalle en el capítulo siguiente.

El elemento unidad o identidad en Knxn es la matriz I definida por

a¡j = 1 si / = / y c y = 0 si /=£/

y verifica

Al = IA cualquiera que sea A e K nx",

3.7. MATRIZ ASOCIADA A UNA TRASFORMACION LINEAL

Consideremos una trasformación lineal / : V W, entre los espacios V y W de dimensiones finitas n y m , respectivamente. Probaremos que si se fija una base en cada espacio, entonces la trasformación lineal / queda caracterizada por una matriz del tipo mx n, que llamaremos matriz de la trasformación lineal respecto del par de bases dado.

Sean entonces

[v] = | Vj, v2 , . . ., vn ) una base de V

y[w] = ( w , , w2, . . wm I una base de W

Si x es cualquier vector de V, por ser [v] una base, existen escalares a , , a 2> ■ ■ -,a n> únicos, tales que

x = ^ ai vi 0 )

Tales escalares caracterizan a x respecto de la base de V, y según vimos en 2.6.2. se llaman las coordenadas de x respecto de dicha base. Podemos escribir

www.FreeLibros.com

Page 96: Algebra ii   armando rojo -

www.FreeLibros.com

Si la imagen de x e V es y e W, se tiene

y=/(x)Como y es un vector de W, puede expresarse de modo único como combinación lineal de

la base [w], o seam

y = . 2 a ’,w , (2)

donde a ’i , a ’2, . . a ’m son las coordenadas de la imagen de x, respecto de la base [w]. En consecuencia

MATRIZ DE UNA TRASFORMACION LINEAL 87

Por el teorema fundamental de las trasformaciones lineales, / queda caracterizadaunívocamente por los valores que toma sobre cualquier base de V. O sea es suficienteobtener las imágenes, por / , de cada vector de la base [v]. Ahora bien, para cada/ - 1 , 2 , . . . , e W, y por consiguiente puede expresarse como combina ción lineal de labase [w].

O seam

f ( v j ) = .2 a¡j W( (3) V/ = 1, 2, . . n

Asignamos a cada escalar a¡j un doble subíndice; el primero, asociado a cada vector de labase { W i, w2, . . wm ) , y el segundo, en correspon dencia con el vector de la base fvl

Así

/ ( v i ) = a u wi +f l 2i w2 + . . . + a ml wm

f (y-i) ~ a n w 1 + ^ 2 2 w2 + . + a mi wm

f (vn) n Wx + a2n w2 -K . . + a mn wm

Los n.m escalares au, que figuran en las combinaciones de los vectores que son imágenes de los elementos de la base de V, constituyen una matriz cuya traspuesta, que denotamos con A, recibe el nombre de matriz de la trasformación lineal/respecto de las bases [v] y [wj.

O sea

www.FreeLibros.com

Page 97: Algebra ii   armando rojo -

www.FreeLibros.com

88 TRASFORMACIONES LINEALES

La matriz de la trasformación lineal es del tipo m x n , donde m es la dimensión del segundo espacio y n la del primero.

Por consiguiente, para hallar la matriz de una trasformación lineal f respecto de una base en cada espacio, se determinan las imágenes dadas por / de los vectores de la base del primer espacio. Se expresan estas imágenes en términos de la base del segundo espacio, o sea, como combinaciones lineales de los vectores de la segunda base. La traspuesta de la matriz de coeficientes es la matriz de la trasformación lineal respecto de las bases dadas en ambos espacios.

Probaremos ahora si A es la matriz de la trasformación lineal f , respecto de las bases [v] y [w], y si X[vj denota la matriz columna correspondiente al vector x e V, cuyos elementos son las coordenadas de éste respecto de la base de V, entonces la imagen de x , expresada en términos de la base de W, se obtiene premultiplican do por A al vector columna X[v], o sea

/ ( x ) = A X[v) = Y[wj

En efecto, dado x e V, es

« . mx = 2 a J (!) y /(x ) = y = 2 a ’ i w, (2)

En consecuencia, teniendo en cuenta (1) y la definición de trasformación lineal, es

f ( * ) = f <Xj vy) = 2 aj f (v;)

Por (3) resulta

n mf (x) = ;2 aj 2^ a¡j w¡

Introduciendo ot¡ en la segunda sumatoria, por ser constante respecto del índice i, y permutando las dos sumatorias, se tiene

n m m n/O O ^ . S a¡ a¡j w,- = ,2 ^ 2 a¡) w¡ (4)

De (2) y (4), por la unicidad de la combinación lineal que expresa a f ( x ) en términos dela base [w], es

notj

Se deduce de esto que la i-sima fila o componente de Y [ w j, o sea es igual a la suma de los productos de los elementos de la fila i de A por los correspondientes elementos de laúnica columna de X[vj, y por la definición de producto de matrices resulta

www.FreeLibros.com

Page 98: Algebra ii   armando rojo -

www.FreeLibros.com

MATRIZ DE UNA TRASI ORMACION LINEAL 89

a >.. " .2 ••• a i„\ /■<a{«2 \ \

ai\ <*i2 ■ ■. ain

\am I am2 • • ■ &ntnJ Oí,n / /O bien

Reiterando lo enunciado, afirmamos que la imagen de cualquier vector del primer espacio es igual al producto de la matriz de la trasformación lineal por la matriz de coordenadas de dicho vector, respecto de la base [v]. Tal imagen resulta expresada en términos de la base del segundo espacio.

Ejemplo 3-16.

Consideremos la trasformación lineal / : R3 -> R2 tal que

f ( X \ , X 2 , JC3 ) — ( # 1 — J Í3 ) ( 1 )

1. Determinamos la matriz de f respecto de las bases

M = | (1 , 1 , 1) , ( 1, 1 , 0 ) , ( 1 , 0 0 )} e n R 3

Mediante (1) obtenemos las imágenes de los vectores de la base [v], y expresamos dichas imágenes como combinaciones lineales de los vectores de la segunda base

[ w ] = | (2 , 0 ) , (0 , 1)| en R2

/ ( 1 , 1 , 1) = (2 , 0 ) = 1 (2 , 0 ) + 0 (0 , 1)

/ ( l f 11 0 ) = ( 1, 1) = “ (2 , 0 ) + 1 (0 , 1)

/ ( 1 , 0 , 0 ) = ( 1, 0 ) =_~ ( 2 , 0 ) + 0 (0 , 1)

Se tiene

2 ~2

0 1 0

A es la matriz de la trasformación lineal / , respecto de las bases [v] y [w].

2. Utilizando la matriz A, obtenemos la imagen de x = (1, 2, 3).

www.FreeLibros.com

Page 99: Algebra ii   armando rojo -

www.FreeLibros.com

Para ello es necesario determinar las coordenadas de x respecto de la base en R 3, o sea, a i > a2 y a 3 tales que

( 1 , 2 , 3 ) = *! ( l . l . O + a a ( 1 , 1 , 0 ) + a 3 ( 1, 0 , 0 ) =

= (a, + a2 + 0 :3 , 0:, +<x2,(*ü

90 TRASFORMACIONES LINEALES

a i = 3 , a 2 = - 1 , a 3 = - 1

Resulta

Entonces

Su imagen es

/ l ü \2

1

Los escalares 2 y l son las componentes d e /( x ) respecto de la base [w].

Si aplicamos directamente / a la tem a (1, 2 ,3 ) , se tiene

/(1> 2, 3) = (4, - 1 )

Expresando esta imagen como combinación lineal de la base [w] es

(4, — 1) = 2 (2, 0) + (--1) (0, 1)

Ejemplo 3-17.

Obtenemos la matriz de la trasformación lineal / : R2 *2 -+R definida por

j x i x 2 \

/ “ ( * 1 + * 4 , X 2 - X 3 )

\ x 3 x j

respecto de la base canónica en ambos espacios.Las imágenes de los vectores de la base canónica de R2*2 son

/ ( ) = (1, 0 ) = 1 ( 1, 0 ) + 0 (0 , 1)' 0 0 /

f f ) = ( 0 , 1 ) = 0 ( 1 , 0 ) + 1 ( 0 , 1 )' 0 0 /

www.FreeLibros.com

Page 100: Algebra ii   armando rojo -

www.FreeLibros.com

MATRIZ DE UNA TRASFORMACION LINEAL 91

f f ) = (0 , - 1) = 0 ( 1 , 0 ) + ( - 1) (0 , 1) \ 1 0 /

1° ° \/ = (1 , 0) = 1 ( 1 , 0 ) + 0 (0 , 1)

\ 0 1 /

Resulta

/ I 0 0 1H\ 0 1 —1 o

Nótese que, en el caso de la base canónica, los coeficientes de la combinación lineal son los elementos de la matriz, o las componentes del par.Así, la matriz

/ 2P =' i - i

es un vector de R2 * 2 cuyas coordenadas, respecto de la base canónica [v] ~ { E n , Ej2 , E2i , E22 } , son 2, —3, 1 y —1. De modo tal que la matriz puede expresarse así

Su imagen p o r/, utilizando A, es

/ ( P ) « A P (V] = / 1 \ 0

Tal imagen resulta expresada en la base canónica de R2 y se identifica con la que se obtiene al aplicar directamente la definición d e /. Así

/ | j = ( 2 - l , - 3 - l ) = ( l , - 4 )

www.FreeLibros.com

Page 101: Algebra ii   armando rojo -

www.FreeLibros.com

3.8. COMPOSICION DE TRASFORMACIONES LINEALES

Sean / : V - > U y g : U - * W dos trasformaciones o aplicaciones lineales. La función compuesta

£ ° / : V- »Wse define como en 4.6., Algebra I, o sea

(£0/)( x) = £ [ /( x)]Demostramos que la composición de dos trasformaciones lineales en las condiciones

dadas, es una trasformación lineal.En efecto:

1- ( f f ° / ) ( x + y ) = * | / ( x + y ) ] ^ [ / ( x ) + / ( y ) ] - =8 |/( x ) ] + g [/(y )] = (g o J) (X) + (g o f ) ( y )

2- f e “ / ) ( M ) ^ [ f ( a x ) ] = g [ a / ( x ) l = f t í [ f ( x )] =

“ a (S ° f ) (x)

Hemos aplicado sucesivamente la definición de composición, las hipótesis ( f y g son trasformaciones lineales) y la definición de composición.

Ejemplo 3-18.

Consideremos las trasformaciones lineales

/ : R 3 R y g : R R2

definidas por

f ( x lt x 2, x 3) = x 1 - x 2 + X3 y g ( y ) = (y¡ 0 )

Determinamos el núcleo de g ° f . Para ello caracterizamos primero la ley de asignación, utilizando la definición de composición ’

f e 0 / ) ( ^ 1 ^ 2 , ^ 3 ) = í ( / ( x 1 , X 2 , X 3 ) ] - ^ ( x 1 + X 3 ) =

= (x\ - x 2 + x 3 , 0)Por definición de núcleo, se tiene

( Xi , x2l X3) e N f e o / ) o ^ o / ) ( Xl iX2)^ 3) = (0) 0 ) o

^ ( * 1 - * 2 + x 3>0 ) = (0 , 0 ) o Xl - X 2 + X 3 = q &

* X x = x 2 ~ x 3Entonces

N ( ¿ ° / ) = { ( b ~ c , b , c ) / b e R a c c R )Como

( b - c , b , c ) = ( b , b , 0) + (—c, 0, c) = 6 ( 1 , l , 0 ) + c ( - 1 , 0 , 1 )

92 TRASFORMACIONES LINEALES

www.FreeLibros.com

Page 102: Algebra ii   armando rojo -

www.FreeLibros.com

COMPOSICION DE TRASFORMACIONES LINEALES 93

es

{ (1, 1 , 0 ) , ( - 1 , 0 , 1))

un S.G. del núcleo de g « / . Como además es L.I., tal conjunto es una base del núcleo, y por consiguiente su dimensión es 2 .

3.9. TRASFORMACION LINEAL NO SINGULAR

3.9.1. Concepto

La trasformación lineal / : V -> W es no singular, reg ular o inversible si y sólo si es biyectiva.

En símbolos

/ : V -»■ W es no singular o / e s un isomorfismo.

O bien

/ : V -*• W es trasformación lineal no singular o / e s biyectiva.

Sabemos que una función / : V - * W es biyectiva si y sólo si admite inversa. En consecuencia, podemos escribir

Una trasformación lineal / : V -> W es no singular o E xiste f ~ l .

3.9.2. Propiedad

La inversa de una trasformación lineal no singular es una trasformación lineal.

Sea / : V -+ W una trasformación lineal no singular, es decir, un isomorfismo de V en W. Probaremos que / 1 : W -> V es una trasformación lineal.

www.FreeLibros.com

Page 103: Algebra ii   armando rojo -

www.FreeLibros.com

94 TRASFORMACIONES LINEALES

Consideremos y i y y 2 en W. Por ser/biyectiva, existen y son únicos los ve ctores x t y x 2 en V, tales que

/ ( x i ) = yi y / ( x 2) = y2

Se verifica que

1. r (y, +y2)= / ‘ ‘ [ f M + f ( x 2) ] = r [T(Xl + x2)] = t r ‘ ° f ) ( x i + x 3) =

= íV (xi + x 2) = Xl + x 2 - r 1 ( y O + r 1 (y2)

2. S e a n a e K y y i eW Entonces

/"* ( « y i ) = r 1 [ a / ( x1) ] = r I [ / (ocXi ) ]^

= (f ~ l ° / ) ( a x 1) = i'v ( a xO ^ a x j - a / ' 1 (yt )

/ y / 1 se llaman trasformaciones lineales inversas, y se verifica que

/ " ‘ ° f = h y / ° r 1 = íw donde /v e *w denotan las identidades en V y en W, r espectivamente.

Ejemplo 3-19.

La trasformación lineal / : R2 R2 definida por

f ( a , b ) = ( a , - b )

es no singular, por ser biyectiva.En efecto1. Sean ( a , b) y (a*, b 0 en el dominio, tales que f ( a , b) ~ f ( a ’, h*).Entonces es

( a , - b ) = (a’ , ~ b ’)

En consecuencia

a = a ' y b = b ’

O sea, f e s inyectiva.

2. Sea (a , b) cualquier vector del codominio.Existe (a , - b ) en el dominio, tal que

f (a , - b ) = (a , b)

Y, por consiguiente, f e s sobreyectiva.El significado geométrico de esta trasformación lineal es una simetría respecto del eje de abscisas

www.FreeLibros.com

Page 104: Algebra ii   armando rojo -

www.FreeLibros.com

96 TRASFORMACIONES LINEALES

1. Hipótesis) / : V -*■ V es una trasformación lineal inyectivadim V = rt

Tesis) / e s sobreyectiva.

Demostración) Por h ipó tesis,/es inyectiva. En consecuencia, por 3.3.5., es

N ( 0 = | 0 V )

ydim N (J) = 0

Como

dim N (/) + dim I (f) = dim V

resulta

dim I (f) = n = dim V

En consecuencia, I (f) ~ V, o s e a ,/e s sobreyectiva.

2. Hipótesis) / : V -*■ V es una trasformación lineal sobreyectiva

dim V = n

Tesis) / e s inyectiva.

Demostración) Sea ( W j, w2 , . . w„ ) una base del codominio V. Por ser / sobreyectiva, existen V!, v2 , . . v„ en V, tales que

/ ( v í) = wí Vf = 1 , 2 , . . . , «

Los n vectores Vj, v2 , . . v„ son linealmente independientes en V, y de acuerdo con2.7.2. constituyen una base de V.

Consideremos ahora un vector x cualquiera perteneciente al núcleo de /. Se verifica que

x e N ( / ) = * x = 2 a¡ vf a / ( x ) = 0 => / ( x ) - ctt f ( y t) = 0 =* w, = 0 =>

=>oti = 0 , Vi = 1,2.......n

Siendo N (f) = Oy, resulta/inyectiva.

3.10. COMPOSICION DE TRASFORMACIONES LINEALESY PRODUCTO DE MATRICES

Consideremos las trasformaciones lineales

/ : V-+ U y ^ : U ^ Wy sean

M = ( v i , v 2 , . . v„ } , [u]= ( u ! , u2 , . . up J y [w ]= { wl t w2 ) ----- , w m J

bases de U, V y W, respectivamente.

www.FreeLibros.com

Page 105: Algebra ii   armando rojo -

www.FreeLibros.com

MATRIZ DE LA COMPOSICION 97

Las trasformaciones lineales / y g quedan caracterizadas por las matrices

A £ Kp Xíl y B e Km xp

respecto de las bases dadas en cada espacio.Se verifica que la trasformación lineal compuesta

g o f : V ^ W

está asociada a la matriz

C = BA e K mxn

respecto de las bases [v] y [w].

En efecto, sabemos que para determinar C se necesita obtener las imágenes de los vectores de la base [v] y expresarlas en función de los vectores de [w], o sea

m(g ° /) ( v j ) = . 2 w, ( 1)

Por otra parte, teniendo en cuenta la definición de composición de funciones, que f y g son trasformaciones lineales de matrices A y B, respectivamente, y propiedades de la sumatoria, se deduce

(g ° f ) (V})=8 \ f(y j)] = g (fcS x akj uft) = X ^ahJ g (ufe) =

p m p m m p

= akj , 2 bik w, - 2^ . 2 akj bik w, = . 2 ( ^ b ik ahj) wf (2)

De (1) y (2), por unicidad de la imagen, se deduce quep

c ij “ bih ahj H—1

En consecuencia, por definición de producto de matrices, resulta

C = BA

Ejemplo 3-20.

Sean / : R 3 - + R y £ : R - » - R 2 trasformaciones lineales definidas por

f ( x l , x 2, x 3) ^ x l + x 2 ~ x 3

g ( y ) = (y. t y )Se consideran las bases

[v] = { ( 1 , 0 , 0 ) ,(0 , 1 , 0 ) , ( 0 , 0 , 1 ) 1 e n R 3

[u] = ( 1 ) en R

[w ]= ¡ (2 , 0 ) , (0 , 2 )) e n R 2

www.FreeLibros.com

Page 106: Algebra ii   armando rojo -

www.FreeLibros.com

98 TRASFORMACIONES LINEALES

Determinamos las matrices asociadas a f g y g ° f , y verificamos el teorema anterior

/ ( l , 0 , 0 ) = 1 = 1 . 1 |

A 0 , 1 , 0 ) = 1 = 1 . 1 U A = ( l 1 - 1 )

/ (0 , 0 , 1) = —1 = (—1) 1J

¡ Lí (1) = (1, 2) = - ~ (2, 0) + 1 (0, 2) =* B = ( 2

1

1 \ / I 1 - 1

Resulta

C = B A = ( 2 j (1 ! _ 1 ) = ^ 2 2 _ 2 J

Definimos ahora

£ ° / : R3 -*R2

(g ° f ) (Xi, * 2 -*3> = 8 [ f ( x u x 2> x 3)] =

= £ (* i + * 2 ~ x 3) = (xt + x 2 - x 3, 2 x ! + 2 x 2 - 2 x 3)Luego

O sea

< * • / ) ( 1, 0 , 0 ) = ( 1 , 2) = - - (2 , 0 ) + 1 (0 , 2 )

< ¿r°/)(0 , 1, 0 ) = ( 1 , 2) = ~ ( 2 , 0 ) + 1 (0 , 2)

(?«»/)(0 , 0 , l ) = ( _ i f _ 2) = - i . ( 2 f 0 ) + ( ^ I ) ( 0 , 2 )

I l iC = | 2 2 2

1 1 - 1

3.11. ESPACIO VECTORIAL DE TRASFORMACIONES LINEALES

3.11.1. Concepto

Con el símbolo L (V, W) denotaremos el conjunto de todas las trasform aciones lineales entre los espacios vectoriales V y W, sobre el cuer po K, o sea

www.FreeLibros.com

Page 107: Algebra ii   armando rojo -

www.FreeLibros.com

ESPACIO DE TRASFORMACIONES 99

¿(V , W) = { / : V -> W ¡ f e s trasformación lineal}

En L (V, W) definimos la suma de funciones y el producto de escalares por funciones mediante las asignaciones

< y + ¿ r ) ( x ) = / ( x ) + g ( x ) ( i )

(a f ) (x) = o í f (x) (2)

Demostraremos las siguientes afirmaciones:

1. La suma de dos trasformaciones lineales de V en W e s una trasformación lineal de V enW.

En efecto:

i ) ( / + £ ) (x + y) = / ( x + y) + # (x + y) =

= /( x ) + / ( y ) + g (x) + g ( y ) = ( f + £ ) (x) + ( f + g ) (y)

ü) í /+ í ) ( a x ) = /( o :x ) + g - ( o ¡ x ) =

= a / ( x ) + a g ( x ) = a [ / ( x ) + í (x)] =

= Ot(f + g)(x )

2. El producto de cualquier escalar por cualquier trasformación lineal de V en W es una trasformación lineal de V en W.

Utilizando la definición (2), y con procedimiento análogo al utilizado en 1., el lector puede probar que

( a f ) (x + y) = ( a f ) (x) + ( a f ) (y)

(a f ) (0 x) = 0 ( a /) ( x )

Además, las definiciones (1) y (2) permiten comprobar que el conjunto L (V, W) tiene estructura de espacio vectorial sobre el cuerpo K.

La cuaterna [,L (V, W), + K , . ) denota el espacio vectorial de las t rasformaciones lineales de V en W, sobre el cuerpo K.

El vector nulo de este espacio es la trasformación lineal nula

e : V ~> W definida por e (x) = Ow V x eV

3.11.2. Isomorfismo de L (V, W) en Kmx”

Sean (V, +, K , .) y (W, + , K , .) dos espacios vectoriales de dimensiones finitas n y m, respectivamente, y las bases

[V]= | v , , v2 í . . . , v n } e n V

[ w ] = | w , , w2 ) . . , w m ) en W

Entonces, L (V, W) es isomorfo a Km Xfl

www.FreeLibros.com

Page 108: Algebra ii   armando rojo -

www.FreeLibros.com

100 TRASFORMACIONES LINEALES

En efecto, definimos

F : Z, (V, W)mediante

F < / ) = Adonde A es la matriz d e/resp ec to de las bases [v]y [w].

De acuerdo con el teorema fundamental de las trasformaciones lineales, A queda unívocamente determinada para cada f e L (V, W), respecto de las bases [v] y [w]. O sea, la definición dada satisface las condiciones de existencia y unicidad de toda función. Además, se verifica que:

1. F es inyectiva, pues s i / y g s o n dos vectores d e l (V, W) que satisfacen

FC0 = FGr)

entonces sus matrices respecto de las bases [v] y [w] son iguales, lo que significa

/ ( ví) = ^ ( v¡) V ,= l f 2 , . . . f «En consecuencia

n n n n/ ( x) = / ( . 2 a , V/) = 2 a , / ( v f) = . 2 a t g ( v t) ^ g ( f2 a (V|) = ? ( x )

O sea

f = S

2. F es sobreyectiva, ya que, cualquiera que sea A e K mxn> e x is te /: V -+W definida porm

f (Vj) = 2 au w,

tal que

F t f ) = A

3. F es una trasformación lineal.' En efecto:

F ( / + £) = A + B = F ( / ) + F(g)

F ( a f ) = a A = a F ( f )

donde A y B son las matrices de / y g respecto de las bases [v] y [w].En consecuencia

F : L ( V , W ) ^ K mxn

es un isomorfismo para cada elección de una base en V y una en W.Resulta entonces que

dim L (V , W) = dim K m Xíl= mn

www.FreeLibros.com

Page 109: Algebra ii   armando rojo -

www.FreeLibros.com

ESPACIO DUAL 101

Llamaremos espacio dual de un espacio vectorial (V, +, K , .), al espacio vectorial de las trasformaciones lineales de V en K.

V* denota al espacio dual de (V, + , K , .), o sea

V* = L (V, K) = { f : V K / /e s trasformación lineal )

Los espacios dominio y codominio son, respectivamente

(V, + , K , .) y (K, +, K , .)

Los elementos de V*, es decir, las trasformaciones lineales de V en K, se llaman formas lineales o funcionales.

De acuerdo con el teorema fundamental de las trasformaciones lineales, toda forma lineal queda unívocamente determinada por los valores que toma sobre cualquier base de V. Esdecir, si [v] = { Vi, v2, . . v„ f es una base de V, y x 1( x 2, . . , , x n son n elementoscualesquiera de K, entonces la función

/ : V -*■ K definida por

f ( x ) = f ( £ i ai v i) = Í i ai x ¡

es un elemento de V* = L (V, K), donde a lt c2, • • •, an son las coordenadas de x respecto de la base [v].

3.12. ESPACIO DUAL DE UN ESPACIO VECTORIAL

www.FreeLibros.com

Page 110: Algebra ii   armando rojo -

www.FreeLibros.com

TRABAJO PRACTICO III

3-21. Determinar cuáles de las siguientes aplicaciones de R 3 en R 3 son trasformaciones lineales, donde K = R.

1 . f ( X \ , X 2 , X3 ) = ( X 2l Xi, JC3 )

2 . g ( x l , x 2, x 3) = ( x l + l , x 2 + 2 , 0 )

3. T ( x 1 , x 2 , x 3) = ( 0 , x 1 + x 2 , 0 )

4. T (.Vi, X 3 ) — X2 , .X3 , A!] )

3-22. Investigar cuáles de las siguientes aplicaciones/son lineales.

1. / : R3 -*R 2 definida por f ( x , y , z) = (y, x)

2. / ; R2 ->R3 definida p o r / ( * 1( x 2) = ( x lt x 2,0 ) + ( - 1 , 0 , 0)

3. / : R 2 R 3 definida p o r / ( x lt x 2) = (2x¡ ~ x 2, X l )

4. f : R 2 ->R definida p o r /( ^ i , x 2) = x i x 2

3-23. Sea / : V -+ W una trasformación lineal y sean x e y en V tales que / ( x ) *= z. Sabiendo que / (y) = 0 W, demostrar que / (x + y) = z,

3-24. Sea la función / :R2 -*R 2 definida por f ( x lt x 2) = ( ~ x lf ~ x 2). Demostrar que es lineal, clasificarla e interpretarla geométricamente.

3-25. La función / : R2 -»■ R 3 es lineal, y verifica

/ ( 1, 2 ) « ( - 1, 0 , 2 ) / (2 , 1) = (0 , 2 , —1)

Determinar las imágenes de los vectores (3, 3) y (0, - 1).

3-26. Consideremos un espacio vectorial V sobre un cuerpo K, y dos trasformaciones lineales

/ : V -»■ K y £ : V -> K Sea F : V K2 tal que F (v ) = ( / (v ),^ (v ) )

Demostrar que F es una trasformación lineal.

3-27. Sea T una aplicación lineal de R2 en sí mismo, tal que

T (1, 0) = (1, 1) y T (0, 1) = (—1, 2)

www.FreeLibros.com

Page 111: Algebra ii   armando rojo -

www.FreeLibros.com

TRABAJO PRACTICO III 103

Determinar la imagen del cuadrado de vértices ( 0 , 0 ) , (1, 0 ) , (1, 1) y (0, 1).

3'28. Investigar si existe una trasformación lineal / : R2 -»■ R tal que

/ ( 1 ,2 ) = 3 , / ( 2 , 2 ) = - l y / ( 2 ,5 ) = —2

3-29. Sean / : R2 -»■ R 3 y g: R 3 -> R 2 definidas por

f ( a , b) *= ( a , a + b , b) y g ( a , b , c) = (a + b , c)

1. Probar que f y g son trasformaciones lineales.

2. Clasificar f y g.

3. Definir £ ° / y / o g,

3-30. Demostrar que si / : V -*■ W es un epimorfismo, entonces / trasforma sistemas de generadores de V, en sistemas de generadores de W.

3-31. Consideremos (C, 4- , R, .) y / : C -> C definida por / (z ) = z + Im (z).Determinar s i/e s una trasformación lineal, y en caso afirmativo clasificarla.

3.32. Sea/ : R2 R 3x3 definida por

/ * i 0 V/ ( * 1>*2) = ( - X 1 *1 *2 )

\ 0 x 2 X i - x 2 I

Probar que / es lineal y determinar el conjunto de los vectores de R 2 cuyas imágenes p o r/s o n la matriz nula.

3-33. Demostrar que si / : V -► W es una trasformación li neal y S es un subespacio de I (f), entonces / _1 (S) es un subespacio de V.

3-34. Determinar el núcleo, la imagen y las dimensiones de ambos en las siguientes trasformaciones lineales.

1. / : R3 -+R2 definida p o r/(x , , x 2 ,x 3) = (xj + x 2 +x 3, x 2 + x 3)2. / : R2 ~»R definida p o r / ( x lf x 2) = Xl — 2x2

3'35. Definir una trasformación lineal / : R4 -+ R” para un n conveniente, de modo que

N C/)= í * 3 , x 4 ) e R 4 f x x + x 2 = 0 , ^ ! - x 4 = 0 , x 2 + x 3 + x 4 = o )

Obtener después una base y la dimensión del núcleo.

3-36. Una trasformación lineal / : R3 -* R2 está definida por

f ( x I , x 2, x 3 ) = ( x i - 2x 3, x 2 + x 3)

•' 1. Hallar la matriz A de / , respecto de las bases

1(1, 1, 1 ) , (2, 2 , 0 ) , ( 3 ,0 ,0 ) ) e n R 3

1(2 , 0 ) , ( 0 , 2 ) | e n R2

www.FreeLibros.com

Page 112: Algebra ii   armando rojo -

www.FreeLibros.com

104 TRASFORMACIONES LINEALES

2. Mediante A, obtener la imagen de ( - 2 , 2, - 2 ) e R3 .

3. Determinar la matriz B d e /, respecto de las bases canónicas en ambos espacios.

4. Obtener la matriz C de la misma trasformación lineal, respecto de la base canónica en R3 y la base del punto 1 . en R2 .

3-37. Sea la trasformación lineal/ : R2 -* R 3 definida por

respecto de la base canónica. Determinar N (f), I (f) y siis dimensiones.

3-39. Determinar la matriz de la trasformación lineal del ejercicio 3-32, respecto de las bases canónicas en R2 y en R 3x3

3-40. Dada la trasformación lineal / : R2 x2 -> R3 definida por

/ ( * 1»*2 ) = (*1 + x 2, x { - x 2, x x + 2 x 2 )

1. Determinar N (J) , I (/), una base en cada uno y sus dimensiones.

2. Hallar la matriz de / respecto de las bases

( ( 1, 2 ) , (2 , 0 ) ) e n R 2

j (1, Ó, 0) , (0, 2, 0) > (0, 0 , 3) ) e n R 3

3-38. La trasformación lineal / : R3 ->• R3 está caracterizada por la matriz

/

1. Obtener la matriz de/respecto de las bases

1 (0 , 2 , 1) , ( 2 , 0 , 1) , (0 , 1, l )}en R3

2. Utilizando la matriz hallada, obtener la imagen de2 2

3-41. Definir la trasformación lineal / : R3 -► R2 , tal que respecto de las bases

((0 , 1 , 1 ) , ( 1 , 0 , 1 ) , ( 1 , 1 , 0 ) ) e n R 3

1(1, 2 ) , ( 2 , 1 ) ) en R2

www.FreeLibros.com

Page 113: Algebra ii   armando rojo -

www.FreeLibros.com

su matriz sea

/ 1 0 0

\ 1 - 1 1

3-42. Hallar la matriz de la trasformación lineal g o /d e l ejercicio 3-29, respecto de las bases

( ( 1, 1) , (0 , —1)} en el dominio

{ (2 , 0 ) , (2 , 2) í en el codominio

3-43. Determinar la matriz de la rotación del plano de ángulo 0, respecto de la base canónica, con centro en el origen.

3-44. Sea la trasformación lineal f 0 : R2 -> R2 representada por la matriz

eos 6 - sen Q

sen 6 eos 6respecto de la base canónica.Demostrar que si Q y 6' son números reales cualesquiera, entonces

fo ' 0 fe = fe + o '

f 1 - f-e

3-45. Demostrar que si [v]= f v lt va , . . .,v„ } es una base de ( V , +, K , .), y si f¡ con/ = 1, 2 , . . . , n son las formas lineales definidas mediante

f¡ (v;) ~entonces f ¡ es una base de L (V, K), o sea, del espacio dual de V.

3-46. En (V, +, K , .) sean los subespacios S x y S2 tales que V = S! ®S2. Se considera la función

P t : V-> Vdefinida por

P i ( x ) = x!

Siendo x = x t + x2 y x 1 e S 1 ,x 2 6 S2.La función Pj se llama proyección sobre S t , según S2.Demostrar:

1. Pj es una trasformación lineal.

2. P, es idempotente, o sea P2 = P, o Pj = P,

3. Si P2 es la proyección sobre S2, entonces P , + P2 = 1

TRABAJO PRACTICO III 105

www.FreeLibros.com

Page 114: Algebra ii   armando rojo -

www.FreeLibros.com

Capítulo 4

MATRICES

4.1. INTRODUCCION

Hemos creído oportuno dedicar un capítulo al estudio de las matrices con elementos en un cuerpo K, dado el rol fundamental que este tema desempeña en todos los campos de la Matemática y en las aplicaciones. Conocido el espacio vectorial (Kmxn, +, K , .), se trata ahora el producto de matrices, anticipado en el capítulo anterior, y el anillo de matrices cuadradas. Sin pretender agotar el tema, se estudian la trasposición y algunos tipos de matrices especiales: simétricas, antisimétricas, triangulares, diagonales, idempotentes, involu- tivas, hermitianas, etcétera. Se trata, además, la inversión de matrices, el concepto de matrices particionadas, el rango de una matriz y su invarianza frente a operaciones elementales. Después de dar métodos para la determinación de la inversa de una matriz se estudian la equivalencia de matrices y los cambios de bases en espacios vectoriales.

4.2. PRODUCTO DE MATRICES

4.2.1. Concepto

Recordemos la definición de producto de matrices dada en 3.6. y su conexión con la composición de trasformaciones lineales estudiada en 3.10. Si V, U y W son tres espacios vectoriales sobre un mismo cuerpo K, de dimensiones finitas, con bases

[v]= ¡ V l t v 2 , . . .,v„ j , [u] = j u , , u 2 l . . . ,u p j y [w] = I W l ) w 2 , . . wm j respecti­vamente, y B e Kpxn y A e Kmx;> son las matrices asociadas a las trasformaciones lineales

/ : V - > U g : U - * W

entonces la trasformación lineal compuesta

g o f : V - W

está caracterizada por la matriz producto C = AB e Kmx" cuyo elemento genérico es

www.FreeLibros.com

Page 115: Algebra ii   armando rojo -

www.FreeLibros.com

PRODUCTO 107

Observamos que para que exista el producto de dos matrices, el número de columnas de la primera debe ser igual al número de filas de la segunda.

Si A e K mx" y B e K nxm, entonces coexisten los productos A B e K mxm y B A e K ' 1*", pero son distintos si mi=-n.

En el caso en que m = n , tanto AB como BA son matrices del tipo n x n, es decir, cuadradas y pertenecientes a KMX” , pero en general se verifica que

A B ^ B A

O sea, el producto de matrices no es conmutativo.

Ejemplo 4-1.

Verificamos la no conmutatividad del producto de matrices en el siguiente caso:

Este hecho es coherente con lo que sabemos: la composición de trasformaciones lineales, que son funciones, no es conmutativa.Si AB = BA entonces diremos que A y B son matrices permutables.

4.2.2. Asociatividad del producto de matrices

Sean V, U, S y W espacios vectoriales de dimensiones n, p, q, m respectivamente, y una base en cada uno. Si

/ : V - » U £ : U S y h : S- »W

son trasformaciones lineales, C e K px", B e K 9xp y A e K mxfl son las correspondientes matrices,

www.FreeLibros.com

Page 116: Algebra ii   armando rojo -

www.FreeLibros.com

108 MATRI CES

entonces, teniendo en cuenta la asociatividad de la composición de funciones es

h o g o f = (h o g ) o / = h o ( g o / )

Denotando con D a la matriz m x rt, asociada a la composición, es

D = (AB) C = A (BC)

Escribiremos entonces D = ABC

Ejemplo 4-2.

Calculamos ABC, siendo

A = ' 3 " 1 01 2

- 1 1 0

0 1 2 C

3 2 1 0 /

A BC

2 X 3 3 X 4 4 X 1

2 X 4 4 X 1 2 X 1

4.2.3, Matriz identidad

En K "xn la matriz I cuyo elemento genérico es 5y, o sea, es 1 si i = / y es 0 si / # ; , es neutro para el producto.

I se llama matriz identidad n x n, y verifica

AI = IA = A

cualquiera que sea A € K71™.En efecto, el elemento genérico de la matriz producto AI es

nc¡j — 2 aik 8kj — a¡j = a¡¡

En consecuencia, por definición de producto, es

AI = A

Análogamente se prueba que IA = A.

www.FreeLibros.com

Page 117: Algebra ii   armando rojo -

www.FreeLibros.com

A N ILLO D E M A TR IC E S nXn

Si A e Km xn, entonces la identidad mx m verifica

109

y la identidad n x n satisface

IA = A

AI = A

Ejem plo 4-3.

Calculamos AB - I, siendo

1 0 - 2A =

/ 1 0 - 2 AB= 0 1 3

\ 0 0 1

Luego

AB - I = N

donde N denota la matriz nula de R3 x3.

4.2.4. Distributividades del producto

Si A y B son elementos de K "xp y C eK pxm , entonces es

(A + B) C - AC + BC

Esto significa que el producto de matrices es distributivo a derecha, respecto de la suma. Para demostrar esta afirmación, consideremos el elemento genérico d¡j, de la matriz

(A + B) C. Por las definiciones de suma y producto y propiedades de la sumatoria esp p p

^>1 ~ c k j = a iU c h ¡ + f £_1 b ¡k c k j

O sea

(A + B) C = AC + BC

Si C e Km xn y A y B son las matrices anteriores, entonces se verifica la distributividad a izquierda.

C (A + B) = CA + CB

4.3. ANILLO DE MATRICES CUADRADAS

En K "x” el producto es una ley de composición interna, asociativa, con elemento neutro igual a la identidad nx n.

www.FreeLibros.com

Page 118: Algebra ii   armando rojo -

www.FreeLibros.com

110 MATRI CES

Por otra parte, sabemos que (K "x" f +) es grupo abeliano, y de acuerdo con 4.2.4. el producto es doblemente distributivo respecto de la suma.

En consecuencia (K "xn, +, .) es el anillo no conmutativo, con unidad, de las matrices cuadradas n x n con elementos en K.

Este anillo tiene divisores de cero; es decir, existen matrices no nulas cuyo producto es la matriz nula.

Por ejemplo:

A = l l o r N y B=( i i l#Npero

AB 0 0 0 0

Considerando en el espacio vectorial (R 2, +, R, .) la base canónica, la matriz B representa una trasformación del plano en sí mismo que asigna a cada vector (x, y ) la imagen (0 ,x + y ), y A caracteriza la aplicación lineal que trasforma cada vector (x , y ) en ( x , x), ya que

0x + y

La trasformación lineal compuesta, asigna a todo vector el vector nulo. Es decir, es la trasformación lineal nula.

4.4. TRASPOSICION DE MATRICES

4.4.1. Concepto

Sean los espacios vectoriales (K»x™, + , K , .) y (Km* \ +, K , .). Por definición, la matriz B e Kmxn es la traspuesta de A € K "xm si y sólo si b¡j= a ji, y se escribe B = A'.

El símbolo A* se lee: “A traspuesta” .

/ - i 2 0 \ ¡ ~ l l \\ 1 2 3 ]’ entonces es A I 2 2 )

En consecuencia, para hallar la traspuesta de una matriz, se cambian filas por columnas. Observamos, además, que toda matriz 1 X 1 es igual a su traspuesta.

www.FreeLibros.com

Page 119: Algebra ii   armando rojo -

www.FreeLibros.com

TRASPOSICION 111

4.4.2. Traspuesta de ia suma y del producto por escalares

La función f : Knxm -> Kmxn que asigna a cada matriz del dominio su traspuesta en el codominio, es decir, definida por

2. La traspuesta del producto de un escalar por cualquier matriz es igual al producto del escalar por la traspuesta de la matriz.Teniendo en cuenta que si C = (a A)4 entonces cy = a aj¡, resulta

4.4.3. Traspuesta del producto

La traspuesta de un producto de matrices es igual al producto de las traspuestas en orden permutado.

Sean A e K "xp y B e Kpxm . Demostraremos que

(AB)' - Bf Af

/ (A) = A*

/ ( A + B) = (A + B )' = A t + Bt - f (A ) + /(B )

f ( a A ) = (a A)* = o¿ A* = ct/(A )

Ejemplo 4-4.

Dadas las matrices A =

calculamos (Bf A)*.

Como B( A = (a b c) = ( - a c b), resulta

www.FreeLibros.com

Page 120: Algebra ii   armando rojo -

www.FreeLibros.com

Si C = AB, entonces

112 MATRI CES

cti " aih K i ~ a¡i bu + ai2 b2j +. ,. + aip bpj

es el elemento de la fila / y de la columna i de Ct = (AB)f.Los elementos b ljt b 2}, . . bpj de la columnaj-sima de B, son los de la fila / de BfAnálogamente, an , ai2.......... aip son los elementos de la columna i-sima de Afentonces, el elemento de la filaj y de la columna i de Bf A* es

b li a¡i + bV an + - - - + bpj aip = aik bkj

En consecuencia.

(AB)Í = BÍAÍ

Ejem plo 4-5.

La trasposición verifica (A ')' = A. Teniendo en cuenta este resultado y el teorema anterior, calculamos (B<A)Í, en el caso del ejemplo 4-4.

(B‘A)‘ = A '( B ') '= A 'B = ( o V j i : \ f l

4.S. MATRICES SIMETRICAS Y ANTISIMETRICAS

4.5.1. Matriz simétrica

Una matriz cuadrada es simétrica si y sólo si es igual a su traspuesta.A e K "xn es simétrica o A = Af o a „ - n . . w.- w.-

En R3*3, la matriz

1 - 1-1 20 3

4.5.2. Matriz antisimétrica

Una matriz cuadrada es antisimétrica si y sólo si es igual a la opuesta de su traspuesta.

A e K nx" es antisimétrica o A = - A t ^ a iJ= -a ji Vi V/

Los elementos de la diagonal de toda matriz antisimétrica son nulos, pues

A es antisimétrica =^au ~ - a u . Vi=> 2a„= 0 , V / ^ fl„ = 0 t W

y “/i vj

03 J es simétrica 0

www.FreeLibros.com

Page 121: Algebra ii   armando rojo -

www.FreeLibros.com

MATRI CES SIMETRICAS Y ANTISIMETRICAS 113

La matriz

O 1 - 2A = ( —1 O 3

2 —3 O / es antisimétrica

Ejemplo 4-5.

Demostraremos las siguientes propiedades:

i ) El producto de toda matriz por su traspuesta es una matriz simétrica.En efecto:

(A A y ^ iA * ) * A( = AA(

Luego, por ser igual a su traspuesta,

AA* es simétrica

Observamos que no es necesario que A sea cuadrada para que existan AA* y A*A, las que son, en todos los casos, matrices cuadradas.

i i ) La suma de toda matriz cuadrada y de su traspuesta es simétrica.Sea A e K nxn. Se verifica que

(A + Aí) í = A* + (A*)* = Af + A ~ A + Af

Es decir, A 4- A* es simétrica.

iii) La diferencia de toda matriz cuadrada con su traspuesta es antisimétrica.Si A e K"xn, entonces, aplicando propiedades anteriores, se verifica

(A - Af) ( - A( - (A ()f = A* - A = - (A - A*)

En consecuencia, A — A 1 es antisimétrica.

iv) Toda matriz cuadrada es la suma de una matriz simétrica y de una matrizantisimétrica. jA e K ',xn =* A + A 1 es simétrica y A - A* es antisimétrica =*— (A + A*) es

simétrica y — (A — A*) es antisimétrica => A = — (A + Af) + - - (A — Af) es la suma2 2 2

de una matriz simétrica y de una antisimétrica.

Ejemplo 4-6.

Sean A e K nx,! una matriz simétrica, X e K ” xl y Y e K " x l . Desarrollaremos el producto (X — Y / A (X — Y).Teniendo en cuenta que la trasposición es una trasformación lineal, la distributividad del producto respecto de la suma y que X*AY es del tipo 1 X 1, o sea, simétrica, tenemos

www.FreeLibros.com

Page 122: Algebra ii   armando rojo -

www.FreeLibros.com

114 MATRI CES

(X - Y )' A (X - Y) = (X f - Y ') (AX - AY) - X(AX - X(AY - Y£AX + Y '.W -

= X fAX (X 'A Y )' - Y*AX i- > 1 AY -

= X*AX - Y tA t(X t) t - YfAX + Y(AY =

- X£AX - Y'AX - Y tÁ X + Y(AY =

= X'AX - 2 Y tA X + Y tA Y

4.6. MATRICES TRIANGULARES

La matriz A e K "xn es triangular superior si y sólo si i > /' = 0 .En R 3x3

1 - 2 3 \0 0 2 es una matriz triangular superior.0 0 5 1

Análogamente

A e Krtxn es triangular inferior si y sólo si i < / => a¡¡ = 0.

El lector puede demostrar que el conjunto S de las matrices triangulares superiores oinferiores de (K "Xf,> + , K, .)e su n subespacio de KMXn.

Ejemplo 4-7.

Efectuamos el producto de las matrices triangulares A y B pertenecientes a R 3x3, tales que o/y = 0 si i > j, a¡j = i + / s i / < / , b tj = 0 si i > j, b¡j ~ i - 2 / si i </.

/ 2 3 4 \ / - I —3 - 5 \ f —2 - 1 2 —34 \A B = 0 4 5 0 - 2 - 4 = 0 - 8 - 3 1

\ 0 0 6 / \ 0 0 - 3 I \ 0 0 - 1 8 /

Observamos que el producto de matrices triangulares es una matriz triangular.

4.7. MATRICES DIAGONALES

4.7.1. Concepto

La matriz A e K,,x" es diagonal si y sólo si i ¥= j =>a¡j = 0.Toda matriz diagonal tiene nulos los elementos que no figuran en la diagonal.Para denotar que A es una matriz diagonal, escribiremos

www.FreeLibros.com

Page 123: Algebra ii   armando rojo -

www.FreeLibros.com

MATRI CES TRIANGULARES 115

c

«! O . . . O O o2 •• • o

A = = diag (a1,a-2, . . . ,a n)

O O . . . an

En particular, en Knxn, I y N son matrices diagonales.Si todos los elementos de la diagonal son iguales, o sea, si a¡ = a, Vi, entonces la matriz

diagonal se llama escalar. Siendo A una matriz escalar, se verifica

A = a l

4.7.2. Propiedad

El conjunto S de las matrices diagonales de (K "x” , + , K , .) es un subespacio de Knx", y su dimensión es n.

La demostración se propone como ejercicio.

4.7.3. Propiedad

El conjunto S de las matrices diagonales de Knxn es un subanillo de (K "xn, + ,.) .Para demostrar esta afirmación es suficiente probar que el producto de matrices

diagonales es una ley de composición interna en S.

4.8. MATRICES IDEMPOTENTES EINVOLUT1VAS

4.8.1. Concepto

Una matriz cuadrada es idempotente si y sólo si es igual a su cuadrado.

A e K nxn es idempotente o A2 - A

verifica A2 = A, es decir, es idempotente.

Una matriz cuadrada es involutiva si y sólo si su cuadrado es la identidad.

A e KnxM es involutiva o A2 = I

La matriz A = es involutiva, pues A2 = = 1

www.FreeLibros.com

Page 124: Algebra ii   armando rojo -

www.FreeLibros.com

118 MATRI CES

4.10.3. Propiedad

El producto de dos matrices ortogonales es ortogonal.

A y B son ortogonales => AB es ortogonal

En efecto:

(AB) (AB)4 = ABBf A( = AIA* - AA* = I

por traspuesta del producto y 4.10.2.Análogamente es

(AB)'(AB) = I

En consecuencia, por 4.10.2. resulta AB ortogonal.

Ejemplo 4-10.

Toda matriz

cos a -sen a° \

sen a cos a0

donde a e R

0 0 i /es ortogonal.En efecto:

eos a -sen a 0 \ ¡ c o s a sena 0AA* = | sena cosa 0 -se n a cosa 0

0 0 1 / \ 0 0 1

4.11. MATRICES HERMITIANAS

4.11.1. Matrices complejas

(Cnxm, + , R , .) y (Crtxm, 4-, C , .) denotan los espacios cuyos elementos son las matrices complejas del tipo «x m, sobre el cuerpo de los reales y de los complejos, respectivamente.

- / 1 + i 2 \1 es una matriz compleja del tipo 2 X 3.

/ - 2 3 - 2 ( /

Matriz compleja conjugada de A e Cnxm es la matriz B e Cn*m tal que by = a¡¡O sea, dada una matriz, su conjugada se obtiene sustituyendo cada elemento por el

complejo conjugado.

www.FreeLibros.com

Page 125: Algebra ii   armando rojo -

www.FreeLibros.com

MATRIZ HERMITIANA 119

Para denotar la matriz conjugada de A, escribiremos A.Si A es la matriz anterior, entonces

1)\ - i - 2 3 + 2i j

Diremos que A y A son matrices conjugadas, una de la otra, pues A = A.Dado_el espacio vectorial (C'ixm, +, R , .), la función / : Cnxm -> cnxm definida por

f (A) = A es una trasformación lineal, puesto que se verifica

i ) la conjugada de la suma es igual a la suma de las conjugadas,

ii) la conjugada del producto de un escalar por una matriz es igual al producto del escalar por la conjugada de la matriz.

El lector puede demostrar que / es un automorfismo.Se verifica que la traspuesta de la conjugada de cualquier matriz es igual a la conjugada de

su traspuesta, o sea

a ' - á *

Para designar esta matriz, escribiremos A*.En el caso ya tratado es

A* = í \ - i - 2 ]\ 2 3 + 2 i /

El operador * satisface las siguientes propiedades:1 (A*)* = a

2. (A + B)* = A + B * ^ (A + B)* = A* + B* = A* + B*

3. (A B)* - B* A*

Para demostrar esta afirmación es necesario probar que la matriz conjugada de un producto es igual al producto de las conjugadas.

Sean A e C nxp y B eC J5Xm. Si C = AB, entonces el elemento genérico de C esp

c ij j aik bkj

y teniendo en cuenta que el conjugado de una suma es la suma de los conjugados y que el conjugado de un producto es el producto de los conjugados, se tiene

p ___ca = a¡k H j

O sea

AB = Á B

www.FreeLibros.com

Page 126: Algebra ii   armando rojo -

www.FreeLibros.com

120 MATRI CES

Retomando nuestro propósito

(AB)* = ÁB* = (Á S)f =WA* = B* A*

4.11.2. Matriz hermitiana

La matriz A e Cnxn es hermitiana si y sólo si es igual a la traspuesta de su conjugada.

A es hermitiana « A = Á í «, A = A * o ff¡ j= í/¡ Vi V/.

Los elementos de la diagonal de toda matriz hermitiana son números reales, pues

A es hermitiana =*au = a¡i a e R.

La matriz

/ 1 - i 2 + iA = ( i - 2 - 3 - 2 i | es hermitiana

\ 2 — z —3 + 2/ 3

Toda matriz simétrica y real es hermitiana, ya que verifica ay = aj{ = áj¡7

Ejemplo 4-11.

Si a e C y A e C " xm, entonces (a A)* = a A*.En efecto:

(a A*) - a A 1 = ( a Á )í ~ a A f = 0íA*

Ejemplo 4-12.

Dadas las matrices X = ( ) y A = [ ) , calculamos\ 1 + i f \ 1 - i 2 /

i ) X*X = (1 1 - i) ^ . j = 1 + (1 - 0 ( 1 + () = 1 + 1 - i2 = 3

• o x ' A x ^ 1

Ejemplo 4-13.

Si H = { A e C 3X3/A es h erm itian a} , entonces H no es un subespacio de (C3 x3, + , C , .), ya que H no es cerrado para el producto por escalares.En efecto:

www.FreeLibros.com

Page 127: Algebra ii   armando rojo -

www.FreeLibros.com

PARTICION 121

/ e (. : y A =

iA = (1 - i - 2 i 3 i—1 0 —2 / 1 H , pues la diagonal no es real.

/ 1 - 1 + í

El lector puede comprobar que H es un subespacio de (C3x3, + , R , .).

4.12. MATRICES PARTICIONADAS

4.12.1. Submatrices de A e Kn x

Eliminando r filas y s columnas de la matriz A e K " xm se obtiene una submatriz de A, que denotaremos así:

A ( í i , i 4, ■ - . , i r | A ,/ 2 i . . . ,/ ,)

donde /', es el número de la primera fila eliminada, / , es el número de la primera columna eliminada, etcétera.

Si eliminamos las filas indicadas en

(

a n a 2 a 4 $■Cht—^ 2—^23—^ í—& Ta31 8.2 O-n a ;S

2—#43—ííj ¡t—<?; y

entonces

Si se mencionan las filas y columnas que se conservan, la notación es

4.12.2. Partición de una matriz

Sean A e K xm, n - v x + v ^ y m - Mi + Mí > y consideremos las submatrices

A n = A [1, 2 , . . Ui 1 1 ,2 , . . . , Mi]

Ai2 = A [1, 2 , . . . , vx l^ i + 1, Mi + 2 , . . m]

n x m

www.FreeLibros.com

Page 128: Algebra ii   armando rojo -

www.FreeLibros.com

122 MATRI CES

Escribiremos A=

A21 = A [ v í + l , V i + 2 I 1, 2, . . .,Mi]

A22 “ A + l , ^ i + 2 ,. . n lMi + 1,Mí + 2 ,. . .,m j

A h A 12 ' A2i A22 /

o bloques. Las descomposiciones n= v x + v2 y rn = l¿i + fh se denominan esquemas de la partición para filas y columnas, respectivamente.

Por ejemplo, la partición de A que se indica a continuación

y diremos que A está particionada en cuatro submatrices

/ 1 - 1 0 3 0 —4 \2 3 3 2 1 0

= 2 2 1 1 1 3-3 0 0 3 1 2 4

l --1 0 1 0 2 - 2 3 /

n = V\ + ^2 = 2 + 3

m = Mi + íh = 2 + 3 + 2

corresponde al esquema

y se obtiene

A - / ^ 12 ^ 13

\ A2i A22 A23

donde cada bloque A e s un elemento de la matriz particionada.En general, si A e K ,lxm, n ~ + v2 + . . . + vr y m = Mi + M2 + • • ■> + entonces

las submatrices Ay con /= 1, 2, . . ., r, / = 1, 2 ,. . ., s son los elementos de A particionada enbloques, y se escribe

A n A t2 . , . A |,A2i A22 . . • A2s

A = ‘

A r i Ar2 A,

4.12.2. Operaciones con matrices particionadas

I. Adición

Sean A y B matrices en K "xm y los esquemas de partición n s* v l + v 2 + . . . + v r, m = Mi + Ih + • ■ ■ + Si A = (Ay) y B - (By) son las notaciones de A y B particionadas, entonces es

A + B = (A u + B¿J)

co n /= 1,2, . . . , r y / = 1 ,2 , . . .,5.

www.FreeLibros.com

Page 129: Algebra ii   armando rojo -

www.FreeLibros.com

ESPACIOS FILA Y COLUMNA 123

II. Producto por escalares

Se define de la siguiente manera:

“ A = (a Ay)

III. Multiplicación

Sean las matrices A e Knxp , B e Kpxm y los esquemas de partición

n - Vi + v2 + . . . + vr , P = 7r1 +7r2 +.. .+7 Tí ,m = jLíl+M2 + . . . + jLísosea, A = (Aife) y B = (BW) donde /= 1 ,2 , . . r, j = 1, 2, . . 5 y k = 1, 2, . . t.

El producto en forma particionada es

A B = ((2 i A lk Bw )

Ejemplo 4-14.

Consideremos las matrices A y B particionadas como se indica

A n A 12

A2i A 22

í 1 0 0 2 \0 1 1 2 1

V -l - 1 2 3 2 Ì

/ I 0 1 1 \0 1 2 2

-1 1 - 2 21 2 3 - 1

\ o 1 0 0 /

B u B12

b21 b 22

El producto en forma particionada es

, A n A j2AB =

A2i A22 B2j b 22

Así:

Cn - An B u 4- A i2 B2i —1 0

0 1

B u + A i 2 CO A n B 12 + A 12

B „ + A 22 B 2 i A 2 i B l 2 + A 22

/ i 0 \ / ° 1 2 '\ í ~ l l \

+ 1 2

\ o 1 / \ l 2 1 ./ V o i /

) - /2

r \ 1 7 /-G :)*(: iAnálogamente se calculan C J2 , C22 y C2J , que son los restantes bloques del producto.

4.13. ESPACIOS FILA Y COLUMNA DE UNA MATRIZ

Sea A e K'1Xfn y sean los esquemas de partición r t= i'i ,m = : l + l + . . . + l.

www.FreeLibros.com

Page 130: Algebra ii   armando rojo -

www.FreeLibros.com

124 MATRI CES

Entonces A queda particíonada en matrices columnas y se escribe

A - (A n A12 . . . A iwl ) — ( A i A2 . . . A,,,)

donde k¡ e K" y / = 1 , 2 , . .m.

DefiniciónEspacio columna de la matriz A e K "xm es el subespacio de K" generado por las m columnas de A.

Denotamos el espacio columna de la matriz A mediante SC(A). Los elementos de Sc(A) son todas las combinaciones lineales de las m columnas de A.

O sea

SC(A) X oij A j I oij e K;=1

Definición

Rango columna de una matriz es la dimensión del espacio columna de dicha matriz.

pc (A) se lee: rango columna de A, y es

iOc (A) = dim Sc(A )

Si A es una matriz nula, el espacio columna es un vector nulo y el rango columna es 0. Si A # Ñ, entonces el rango columna de A es el máximo n úmero de vectores columnas linealmente independientes.

Análogamente se definen el espacio fila y el rango fila de una matriz A, y se indican mediante Sp(A) y Pf (A), respectivamente.

SF(A) es el subespacio de Km generado por las n filas de A y dimSp(A) es el máximo número de vectores filas linealmente independientes de A.

La partición de A € Knxm en vectores filas se indica así:

AiN A2

, donde A¡ e Kw ; i - 1, 2 , . . ., n .

Si es necesario, para referirnos a la submatriz columna de lugar r escribiremos A r, y para indicar la submatriz fila de lugar k, pondremos A*.. El punto en A r significa que el primer índice varía desde 1 hasta n. En el segundo caso, el punto indica que el segundo índice es variable desde 1 hasta m.

Ejemplo 4-15.

Determinamos los rangos fila y columna de la matriz

www.FreeLibros.com

Page 131: Algebra ii   armando rojo -

www.FreeLibros.com

RANGO 125

2 0 - 1 4 \A = 0 4 1 - 2

\ 1 2 0 1/Observamos que las dos primeras filas son linealmente independientes y que la tercera

es combinación lineal de aquéllas: A3> = “ A j. + - A 2.. En consecuencia, el rango fila2 2

de A es 2. El lector puede comprobar que el máximo número de vectores columnas linealmente independientes de A también es 2.Ambos rangos, fila y columna, coinciden.

4.13.2. Propiedad

Los rangos fila y columna de toda matriz son iguales

Hipótesis) A e K " Km Tesis) Pc(A) = Pf (A)Demostración)

Si A = N, entonces pc (A ) = 0 = p F(A).Sea A ^ N y pc(A) = r. Probaremos que p F(A) = r.Podemos suponer, sin pérdida de generalidad, que las r primeras columnas de A son L.I.

/ ü \ \ a i 2 • • • d \ r Æl>r + 1 • • • a ï , r + h ■ ■ ■ ^ l m

A — I Üi2 ■ . ■ Oír tfj,r + l ■ ■ ■ + ■ • ■ aim

a n \ a n2 ■ ■ ■ & n r a r t , r + 1 • • • & n ,r + k ■ ■ ■ a nm

Particionando A en vectores columnas es

A = (A.i A_2 ••• A r . . . A.f+ft . . . A.m)

Por lo supuesto, las r primeras columnas de A constituyen una base de SC(A). En consecuencia

A.r+fe =o¡.\k A ., + ct2k A.2 + . . . + ark A.r =

r= ,12 a # A J (1) V k= 1 , 2 , . . ., m-r

Sea { e í t eJ t . . . ,e m } la base canónica de Km. Como las filas de A son vectores de Km , se verifica que

m

A ¡ = g ¡ i e i + a ¡2 ©2 + • • • + a ¡r er + o ¡ r + 1 ®r+ 1 + • • • e m — 2 æ,t, e /j ( 2 )h =1

V / = 1 , 2 , . . . , «

www.FreeLibros.com

Page 132: Algebra ii   armando rojo -

www.FreeLibros.com

De (1) y (2) resulta

A i, ~a,'i ej + a¡ 2 e2 + . . . + <*,> er +

+ ( a u an + 0¡21 a ¡2 + . . . + <xr i atr) e r+l +

+ (a l2 an + a22 a i2 + . . . + ar2 air) er+2 +

+ . . . +

(^1 ,m-r ^ il 0C2 m.f- a 12 + • • • + &r,m-r &ir ) ®m= a ¡! (e! + 0-1, er + | + a 12 er+2 + . . . + « 1>m.r em) +

+ a i2 (e2 + a21 er+1 + a 2 2 er+2 + . . . + a 2>m.r em) +

126 MATRI CES

+ a¡r (er + a rl er+ x 4- <xr2 er+ 2 + . . . + a r m ,r em ) -

= ¿rfl e’i + a ¡2 e*2 + . . . + air eV

En consecuencia { e’j , e’2j . . e’r } es un sistema de generadores de las filas de A.Si P f(A ) = r \ entonces es

(3)

ya que el máximo número de filas L.I. de A es menor o igual que el cardinal de todosistema de generadores de las filas de A.

Análogamente, razonando a partir del rango fila de A, se prueba que

r < r ’ (4)De (3) y (4) resulta

r = r’

O sea

Pc(A) = Pf (A)

4.13.3. Rango de una matriz

Hemos demostrado que los rangos fila y columna de toda matriz son iguales. Este número se llama rango de la matriz. Para denotar el rango de una matriz A, escribiremos P (A)

Definición

Rango de una matriz es su rango fila o su rango columna.

p (A) = Pc(A) = Pf(A )

Dos matrices traspuestas tienen igual rango, pues

P (A) = Pe (A) = Pf(A ') = p (A ')

Si I e K n*rt, entonces es p (I) = « , ya que los n vectores columna de I son linealmente independientes.

www.FreeLibros.com

Page 133: Algebra ii   armando rojo -

www.FreeLibros.com

RANGO 127

4.13.4. Rango del producto

Propiedad

El rango del producto de dos matrices es menor o igual que el mínimo de los rangos.

Hipótesis) A e K"xp ,B eK p5<m

Tesis) p (AB) < mín j p (A) , p (B) }

Para probar esta afirmación, demostraremos que el rango del producto es menor o igual que los rangos de cada una de las dos matrices, es decir

p (A B) < p (A) y p ( A B ) < p ( B )

Consideremos B particionada en los p vectores filas, y efectuemos el producto en forma particionada

AB =p

a ¡ i a { i . . . a ip B ; j lì

Pa n i a n i . . . a n p ¡ 1 » J \ j = ! a V B"

Este resultado nos indica que las filas de AB son combinaciones lineales de las filas de B con coeficientes en A. En consecuencia, todo vector del espacio fila de AB pertenece al espacio fila de B, y por consiguiente

Entonces, resulta

Luego

SF(A B )C S F (B)

dim SF(AB) < dim SF(B)

p (A B )< p (B ) (1)

Esta relación nos dice que el rango del producto de dos matrices es menor o igual.que el rango de la segunda matriz.

Además, teniendo en cuenta que la trasposición no modifica el rango y (1), es

p (AB) = p (AB)‘ = p (Bf A() < p (A ') = p (A)

Luego

p (A B )< p (A ) (2)

Es decir, el rango del producto de dos matrices es menor o igual que el rango de la primera matriz.

www.FreeLibros.com

Page 134: Algebra ii   armando rojo -

www.FreeLibros.com

128 MATRI CES

De (1) y (2) resulta

p (A B )< m ín j p ( A ) ,p ( B ) | I

4.13.4. Invarianza del rango

Propiedad '

Si en un producto de dos matrices una de ellas es no singular, entonces el rango del ¡ producto es igual al rango de la otra matriz.

Hipótesis) A e K nxm

B e K nx” esnosingular

Tesis) p (B A) = p (A)

Demostración) Sabemos que

p ( B A ) < p (A) (1)

pues el rango del producto es menor o igual que el rango de cada factor.Como B es no singular, existe B"1 tal que BB'1 = B"1 B = I Ahora bien

A = IA = (B_1 B)A = B"1 (BA)

Por consiguiente

P (A) = p [B"1 (B A)]Y por rango del producto, es

p ( A ) < p ( B A ) (2)

De (1) y (2) se deduce que

p (B A) - p (A)

Análogamente se demuestra que si B e K mxm es no singular, entonces

p (A B) = p(A )

Una consecuencia inmediata del teorema anterior es la siguiente: si A e K nxm, P e K " xn y Q e K mxm son dos matrices no singulares, entonces

P (P A Q) = p (P A) - p (A)

4.13.5. Propiedad

Una matriz A e Knxn es no singular si y sólo si su rango es n.

A e K "x" es no singular p (A) = n

Io. A e KriXfl es no singular => 3 A-1 / A A"1 = I =>

=> p (A A"1) = p (I) => p (A) = n

www.FreeLibros.com

Page 135: Algebra ii   armando rojo -

www.FreeLibros.com

Hemos utilizado la propiedad 4.13.4., teniendo en cuenta que A"1 es no singular, y p (I) = «.

2o. Sea A e K ” Xfl tal que p (A ) = n. Entones las n columnas de A son linealmente independientes, y constituyen una base del espacio columna de A.

Sea la trasformación lineal / : K" -+K ", definida por la matriz A respecto de la base canónica en K".

Si x e K", entonces e s /( x ) = Ax.Como el espacio columna de A es el subespacio de Kn generado por las n columnas de A,

y éstas son linealmente independientes, se verifica que

dim Sc (A) = n

Por otra parte, I (f) = SC(A), es decir, la imagen de la trasformación lineal es igual al espacio columna de A. Luego

dim I (f) = n

y, en consecuencia,/es sobreyectiva.De acuerdo con 3 .9 .4 ./es biyectiva, y por lo tanto A es no singular.

4.14. OPERACIONES Y MATRICES ELEMENTALES

4.14.1. Operaciones elementales

Operaciones elementales sobre una matriz A e K”xm son las siguientes:

1. Permutación de dos filas entre sí, o de dos columnas entre sí.

2. Adición de una fila a otra, o adición de una columna a otra.

3. Multiplicación de una fila o de una columna por un escalar no nulo.

Si se efectúan operaciones elementales sobre las filas o columnas de una matriz, se obtiene otra matriz; pero demostraremos que su rango no varía.

4.14.2. Propiedad

Toda operación elemental sobre las filas de una matriz A e K nxm puede realizarse premultiplicando A por una matriz no singular del tipo nxn.

Antes de probar esta afirmación definimos Ehfe e Knxn mediante

1 ú i — h / \ j = k

0 si / =£ h v / =£ k

Por ejemplo, en K4 x4 es

0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0

OPERACIONES ELEMENTALES 129

www.FreeLibros.com

Page 136: Algebra ii   armando rojo -

www.FreeLibros.com

130 MATRI CES

1. La permutación de las filas i y j puede obtenerse premultiplicando A por la matriz no singular

P y - I - E « - E » + EU + En e n K ":En K4x4 es

P23 ~

1 0 0 0 0 0 1 0 0 1 0 0 0 0 0 1

Py se deduce de la matriz identidad permutando las filas o columnas i y j. Particionando A en vectores filas, se tiene

}, i 0

0 1

PkA =

0 ___ 0 _______ 1 ____ 0

0 ____ 1_______ 0 _____0

i0 0

/ A . /A i

/ a m / a 2

A; A;

A, Af_■

\ k ¡

En consecuencia, la premultiplicación de A por P¡j permuta las filas i y /.Además, como en ?u se tienen exactamente n vectores columna linealmente indepen­

dientes, es p (P¡j) = n, y en consecuencia

P¡j es no singular

2. La adición de la fila i a la fila / puede obtenerse premultiplicando A por la matriz no singular

Ay = I + E,-f

En K4x4 es

1 0 0 0 0 1 0 0 0 1 1 0 0 0 0 1

Ay se deduce de la matriz identidad al sustituir 0 por 1 en el lugar (J, í). Se verifica

www.FreeLibros.com

Page 137: Algebra ii   armando rojo -

www.FreeLibros.com

MATRI CES ELEMENTALES 131

AyA - i

/1 0 ° \0 1 0

_0_0_1 di -.0

.0_-0_1 i _0

lo<0 1 /

/ A1\ / Al \f / A2 1;

A¿:

A;

, : 1

Af + Ay •

\ Anl u /

O sea, la premultiplicación de A por Ay suma a la fila / la fila i.Se sabe que las filas de la matriz identidad-.ei, e2 , . . e f>. . . , e„ constituyen un

conjunto linealmente independiente. En consecuencia

í e i>e2 > ■ ■ ■»e¿> ■ • .,e;- + e ¿ , . . .,e„ f

es un conjunto linealmente independiente, o sea

P (Ay) = fi

Luego

Ay es no singular

3. El producto de la fila i de A por el escalar a i= 0 puede obtenerse premultiplicando A por la matriz no singular

M K c O - I + C a - O E y

EnK 4 *4 es

M3 (a) =

1 0 0 0 ’

0 1 0 00 0 a 00 0 0 1

Mj(a) se obtiene multiplicando por a el elemento de lugar (/,*) de la matriz identidad. Se verifica

M^a). A

h o 0 1

_0_0_a_0

0 0

AiA2

A,-

A n i

AiA2

a

I

Como p (M¿ (a)) = n, es M,- (a) no singular.

www.FreeLibros.com

Page 138: Algebra ii   armando rojo -

www.FreeLibros.com

132 MATRI CES

Análogamente, se demuestra que toda operación elemental sobre las columnas de unamatriz A e K nxm puede obtenerse posmultiplicando A por una matriz no singular del tipom xm .

Definición

Las matrices que realizan las operaciones elementales sobre las líneas de una matriz se llaman elementales.

Como las matrices elementales son no singulares, de acuerdo con 4.13.4., se deduce que el rango de una matriz no varía frente a las operaciones elementales.

Ejemplo 4-16.

Mediante operaciones elementales determinamos el rango de A, siendo

/ I 2 1 - 1

A = [ 1 1 ° 2l o 1 2 - 1\ 2 2 - 1 2 .

Efectuamos, sucesivamente, las operaciones elementales que trasforman las primeras filas y columnas de A en vectores canónicos:

A la segunda columna de A se le sumó la primera multiplicada por -2 .A la tercera columna de A se le sumó la primera multiplicada p o r —1. .A la cuarta columna se le sumó la primera.

A la segunda fila de la matriz anterior se le sumó la primera multiplicada por -1 .A la cuarta fila se le sumó la primera multiplicada por -2 .

Se multiplicó la segunda fila de la matriz anterior por -1 .

A la tercera columna se le restó la segunda, o sea, se le sumó la segunda multiplicando por —1.A la cuarta columna se le sumó el triplo de la segunda.

A la tercera fila se le restó la segunda.A la cuarta fila se le sumó el duplo de la segunda.

0 0 0-1 -1 3

1 2 - 1—2 -3 4

0 0 0-1 -1 3

1 2 -1- 2 -3 4

0 0 01 1 - 31 2 -1

- 2 —3 4,0 0 01 0 01 1 2

- 2 -1 - 2

0 0 01 0 00 1 20 -1 - 2

www.FreeLibros.com

Page 139: Algebra ii   armando rojo -

www.FreeLibros.com

EQUIVALENCIA 133

1 0 0 00 1 0 00 0 1 00 0 -1 0

1 0 0 00 1 0 00 0 1 00 0 0 0

A la cuarta columna se le restó el duplo de la tercera.

A la cuarta fila se le sumó la tercera.

Esta matriz tiene tres columnas linealmente independientes, o sea, su rango es 3, y como es igual al de A, resulta

p (A ) = 3

4.15. EQUIVALENCIA DE MATRICES

4.15.1. Concepto

Sean A y B dos matrices pertenecientes a K" xm. Diremos que B es equivalente a A si y sólo si B puede obtenerse efectuando un número finito de operaciones elementales sobre A.

El símbolo B ~ A se lee: “B es equivalente a A” .La equivalencia de matrices es reflexiva, simétrica y transitiva, o sea, es una relación de

equivalencia en Knxm.La matriz

B =

1 0 0 00 1 0 00 0 1 00 0 0 0

obtenida a partir de A, en el ejemplo 4-16, mediante un número finito de operaciones elementales, es equivalente a A y recibe el nombre de forma canónica de A. La forma canónica de la matriz nula en Knxm es dicha matriz.

4.15.2. Propiedad

Toda matriz no nula A e K "xm de rango r es equivalente a la matriz

B =N ( n » - r ) x r N ( m . r j X( „ _ r j

donde B es la forma canónica de A.La demostración es sencilla, y el lector puede hacerla basándose en la definición de

matrices equivalentes y teniendo en cuenta lo realizado en el ejemplo 4-16.

www.FreeLibros.com

Page 140: Algebra ii   armando rojo -

www.FreeLibros.com

134 MATRI CES

Si A es una matriz no singular en Knx", entonces su forma canónica es la matriz identidad.

A e Knxn es no singular o F.C.(A) = I

El símbolo F.C.(A) se lee: “ forma canónica de A” .

4.15.3. Propiedad

Las siguientes proposiciones son equivalentes:

i ) A ~ B

ü ) P (A) = p (B)

iii) F.C.(A) = F.C.(B)

1. A ~ B = * p ( A ) = p(B )

Si A ~ B , entonces B puede obtenerse efectuando un número finito de operaciones elementales sobre A, y de acuerdo con lo afirmado en 4.14.2. el rango se conserva. En consecuencia es p (A) = p (B).

2. p (A ) = p (B) => F.C.(A) = F.C.(B)

Es inmediato por la propiedad 4.15.2.

3. F.C.(A) = F.C.(B) =>■ A ~ B

Por la propiedad 4.15.2. es F.C.(A) ~ A y F.C.(B) ~ B. Como A y B son equivalentes a una misma matriz, resulta A ~ B.

4.15.4. Propiedad

Si A e K " xm, entonces existen matrices no singulares P e K nxn y Q e K mxm tales que F.C.(A) = PAQ.

En efecto, la forma canónica de A se obtiene premultiplicando A por un número finito de matrices elementales del tipo n x n y posmultiplicándola por un número finito de matrices elementales pertenecientes a Kmxm. Como tales matrices elementales son no singulares, sus productos P y Q, respectivamente, también lo son, y a que las matrices no singulares forman grupo multiplicativo.

4.15.5. Propiedad

Toda matriz no singular es un producto de matrices elementales.

En efecto, si A e K nxn es no singular, entonces su forma canónica es la identidad, y de acuerdo con 4.15.4. existen P y Q no singulares (am bas son productos de matrices elementales) tales que

P A Q = I

www.FreeLibros.com

Page 141: Algebra ii   armando rojo -

www.FreeLibros.com

DETERMINA CION DEL RANGO 135

En consecuencia

P"1 PAQQ”1 = F l Q " !

Luego

A = P_1 Q”1

El segundo miembro es un producto de matrices elementales, ya que la inversa de toda matriz elemental es una matriz elemental o un producto de éstas.

4.15.6. Propiedad

Las matrices A y B pertenecientes a K "Xfn son equivalentes si y sólo si existen matrices no singulares P e K nx" y Q e K mxm tales que B =PAQ.

1. A ~ B => F.C.(A) = F.C.(B) =► 3 K, L, M, R no singul ares / KAL = MBR =>

=> B = K A L R " 1 => B = P A Q donde P = M-1 K y Q - L R"1

Hemos aplicado 4.15.3., 4.15.4., premultiplicado por M'1 y posmultiplicado por R"1.

2. Supongamos que A y B son matrices n x m , y que existen P y Q no singulares tales queB = P A Q. Por 4.15.5., P y Q son productos de matri ces elementales, loque significa que Bse obtiene efectuando un número finito de operaciones elementales sobre A. Enconsecuencia, A ~ B.

4.16. METODO DE GAUSS JORDAN PARA DETERMINAR EL RANGO

El método que exponemos a continuación nos permite determinar el rango de una matriz mediante un número finito de operaciones elementales del tipo: multiplicación de una fila por un escalar no nulo y adición de una fila a otra. Señalamos que se opera exclusivamente sobre las filas de la matriz, y que además el método se hace extensivo a la determinación de la inversa de una matriz no singular y a la resolución de sistemas lineales.

Esencialmente, mediante las operaciones elementales indicadas, se trata de formar el máximo número posible de vectores canónicos linealmente independientes. Tal número es, precisamente, el rango de la matriz.

Sea A una matriz no nula. Se elige cualquier elemento distinto de cero, al cual se lo llama pivote. Para fijar ideas, sin pérdida de generalidad, supongamos que el pivote es au =a, y sea la matriz

® b c . . . .

d e f . . . .

de la que se han indicado sólo algunos elementos.

www.FreeLibros.com

Page 142: Algebra ii   armando rojo -

www.FreeLibros.com

136 MATRI CES

Dividiendo la primera fila por a =£ 0, o sea, multiplicándola por el recíproco del pivote, se obtiene

1b ca a

d e f . . . .

En la etapa siguiente, se reducen a cero los restantes elementos que figuran en la columna del pivote. Entonces, a la segunda fila se le suma la primera multiplicada por - — . De este

a

modo, d se trasforma en 0, e se trasforma e n e - — , y / s e trasforma en / - — . Se obtienea a

Si a 31 = g, en la misma etapa, al sumarle a la tercera fila la primera multiplicada por - - , ga

g - bse trasforma en 0. Ysi¿z32 = h, entonces h se trasforma en h ---------

aEn las dos etapas descritas se ha obtenido un vector canónico en la columna del pivote. Observamos en la matriz dada que todo elemento que no figure en la fila, ni en la

columna del pivote, forma con éste una diagonal de un “rectángulo” . Los otros dos vértices determinan lo que llamaremos la “contradiagonal” . Por ejemplo, asociado al elemento e se tiene

b c

e f

Como el trasformado de e es e ------- , operaremos así: el trasformado de cada elementoa

www.FreeLibros.com

Page 143: Algebra ii   armando rojo -

www.FreeLibros.com

GAUSS JORDAN 137

que no figure en la fila y columna del pivote es igual a la diferencia entre dicho elemento y el producto contradiagonal dividido por el pivote.

En las etapas siguientes se reitera el procedimiento eligiendo un pivote que no figure ni en las filas ni en las columnas de los pivotes anteriores. De este modo las operaciones elementales indicadas preservan los vectores canónicos.

Él procedimiento se termina cuando no es posible ob tener ningún pivote (distinto de cero) en las condiciones ya señaladas.

Ejemplo 4-17.

Mediante el método de Gauss Jordán, obtener el rango de

El pivote puede ser cualquier elemento no nulo. Si algún elemento es la unidad, se lo elegirá como pivote para evitar cálculos.Procedemos de acuerdo con el siguiente esquema:

f f i— 2 -— 1 - 11-— 1-- 0 20 1 2 - 12 2 - 1 2

1 2 1 -10 - 1 -1 30 C O - 2 -10 - 2 - - 3 4

1 0 - 3 100

01 t- 2

0 0 1 - - 2

1 0 0 70 0 1 20 1 0 —50 0 0 0

El trasformado de a23 = 0 es

1 . 101

El trasformado de a43 = —3 es

1

El trasformado d ea 44 = 2 es

2 - i ^ = 0

El procedimiento ha terminado, ya que no es posible elegir un nuevo pivote.El rango de A es el número de vectores canónicos, o sea, 3. El cuarto vector columna

www.FreeLibros.com

Page 144: Algebra ii   armando rojo -

www.FreeLibros.com

138 MATRICES

es combinación lineal de los tres primeros, pues es la suma de los productos de ellos por 7, - 5 y 2, respectivamente.Si en alguna etapa intermedia se eligiera como pivote un elemento no nulo que figure en la fila de algún pivote ya seleccionado, la columna que entonces se trasformó en un vector canónico dejaría de serlo.

Resumimos la mecánica del procedimiento:

1. Se elige como pivote cualquier elemento no nulo de la matriz dada, y se divide por él la fila correspondiente.

2. Los restantes elementos de la columna del pivote se trasforman en ceros.3. El trasformado de todo elemento que no figure en la fila ni en la columna del pivote se

determina siguiendo la regla del “rectángulo” , es decir, es igual a su diferencia con el producto contradiagonal dividido por el pivote.

4. Se reitera el mecanismo eligiendo como pivote un elemento no nulo que no pertenezca ni a las filas ni a las columnas de los pivotes anteriores.

5. El número de vectores canónicos linealmente independientes es el rango de la matriz.

4.17. INVERSION DE MATRICES POR GAUSS JORDAN

El método explicado en 4.16. permite determinar la inversa de una matriz no singular. Sea A e K'lx'1 no singular; a su derecha se escribe la identidad en KrtXr*.

A I

La matriz así indicada es del tipo n x2 n , y a ella se le aplica el método de Gauss Jordán hasta lograr que A se trasforme en la identidad. La identidad que figura en el esquema anterior queda trasformada en una matriz B e K "*n .

A I

I B

La trasformación de A en la identidad siempre es posible, ya que, siendo A no singular, su rango es n, y en consecuencia es posible obtener n vectores canónicos linealmente independientes mediante las operaciones elementales indicadas en 4.16. Si los vectores canónicos obtenidos no resultan ordenados de modo que constituyan una matriz diagonal, la identidad se logra mediante una adecuada permutación de filas de la matriz completa. La matriz resultante a la derecha es la inversa pedida.

Las operaciones elementales realizadas sobre las filas de A, que la convierten en la identidad, son las mismas que las efectuadas sobre las filas de I y que la trasforman en B. Si E

www.FreeLibros.com

Page 145: Algebra ii   armando rojo -

www.FreeLibros.com

INVERSION 139

es el producto de las matrices elementales correspondientes a las sucesivas operaciones elementales, entonces se verifica que

E A = I (1) y E I = B (2)

De (2) resulta E = B, y considerando (1) es

B A = I

Luego

B = A"1

Como en general- no se sabe a priori si A es inversible, igualmente el método puede ser utilizado. En el caso en que A no tenga inversa no será posible formar la identidad, por ser su rango menor que n. Es decir, con el método de Gauss Jordán se determina la existencia de la inversa o no, y en caso afirmativo se la obtiene.

Ejemplo 4-18.

Utilizando el método de Gauss Jordán, obtenemos la inversa de

/ I 0 “ 1\A = J 1 2 - 2

\ 2 -1 1/

Aplicamos el procedimiento mencionado a la matriz del tipo 3 X 6 que se forma escribiendo la identidad 3 X 3 a la derecha de A, y convertimos a ésta en la identidad

® 0 - 1

1 2 - 2

2 - 1 1

1 0 0

0 1 0

0 0 1

1 0 - 1 0 © - 1

0 - 1 3

1 0 0

-1 1 0

- 2 0 1

1 0 - 1

0 1 ~—2

0 0 ( 1 ] \ 2 j

1 0 0

“ l i o 2 2

- i l l 2 2

1 0 0

0 1 0

0 0 1

o i l5 5

- i l l 5 5

- 1 1 1 5 5

Los pivotes han sido señalados en cada etapa.El trasformado de 3 es:

3 ( - 1 X - 1 ) , 3 _ 1 = !2 2 2

El trasformado de a2$ = —es:

tiA2

= ± + 1 2 10

www.FreeLibros.com

Page 146: Algebra ii   armando rojo -

www.FreeLibros.com

140 MATRI CES

La matriz inversa de A es

/ o i 25 T

- i 2 5

i5

- 1 1 5

25

Ejem plo 4-19.

Determinamos la inversa de

f f i -1 1 1 0 00 0 1 0 1 01 • 2 1 0 0 1

1 -1 1 1 0 00 0 (1) 0 1 00 3 0 - 1 0 1

1 -1 0 1 „1 00 0 1 0 00 (3) 0 - 1 0 1

2 11 U 0 -1

3 30 0 1 0 0

0 1 0„1

01

3 3

Para trasformar A en la identidad, es necesario aún permutar las dos últimas filas de toda la matriz. Resulta

www.FreeLibros.com

Page 147: Algebra ii   armando rojo -

www.FreeLibros.com

INVERSION 141

1 2_ —i 13 3

0 1y 3

0 1 o 1

4.18. INVERSION DE MATRICES POR PARTICION

Consideremos una matriz no singular M e K nxn, La particionamos en cuatro bloques según la descomposición

n ~ p + q para filas y para columnas

/ A BM =

' C D

En consecuencia A e Kp xp, D e KQXQ, B e Kpxíí y C e K qxp .Supongamos que D sea no singular. Proponemos el mismo esquema de partición para la

inversa de M:

/ X YM”1 =\ Z U

donde X, Y, Z y U son matrices a determinar y del mismo tipo que A, B, C y D, respectivamente.

La matriz D, que hemos supuesto no es singular, se elegirá de modo tal que su inversa pueda obtenerse con facilidad.

Siendo M"1 1a inversa de M, debe verificarse que

A B\ /X Y \ ¡lp N \

C D/ ' Z U ' ' N I q !

O seaA X + B Z - I P (1) A Y + B U = N (3)

C X + D Z = N (2) c Y + D U = 1Q (4)

De (2) se deduceD Z " — C X

Y premultiplicando por D '1Z ~ — D-1 C X (5)

www.FreeLibros.com

Page 148: Algebra ii   armando rojo -

www.FreeLibros.com

Sustituyendo (5) en (1)

142 MATRICES

Por distributividad

Luego

De (4)

En consecuencia

Sustituyendo en (3)

A X - B D"! C X = Ip

(A - B D '1 C) X = lp

X = (A — B D"1 c y l (6)

d u = i9 - c y

U = D"1 - D"1 c Y (7)

A Y + B D~' - B D ’1 C Y = N Por distributividad y /trasposición

(A — B D"1 C) Y = - B D"1 PremultipÜcando por ( A - B D '1 C )'1 = X, resulta

Y “ - X B D"1 (8)

Las relaciones (6), (5), (7) y (8) permiten la determinación respectivamente, en función de los datos y de la inversa de D.

Ejemplo 4-20.

Utilizando el método de particiones, invertir la matriz

/ I - 1 0 0

M = [ * 1 1 02 1 1 0

\1 - 2 0 1

Particionamos en cuatro bloques del tipo 2 X 2, y consideramos

V . - D .\ o 1

Resulta

l .X = ( A - B D - > e ) '1 = (A — B C)"1

www.FreeLibros.com

Page 149: Algebra ii   armando rojo -

www.FreeLibros.com

INVERSION

Calculamos

Obtenemos la inversa de ésta por Gauss Jordan

© - 1 -1 0

1 0 0 1

1 -1 0 0

1 0 1 1

1 0 0 1

0 -1- 1 -1

Luego

www.FreeLibros.com

Page 150: Algebra ii   armando rojo -

www.FreeLibros.com

144 MATRI CES

Con los cuatro bloques obtenidos formamos la matriz inversa

0 -1 1 0- í - 1 1 0

1 3 - 2 0- 2 -1 1 1

4.19. CAMBIO DE BASE Y SEMEJANZA DE MATRICES

4.19.1. Matrices de pasaje

En el espacio vectorial (V, + , K , .), de dimensión finita, consideramos las bases [v]= I V ! , V 2 , . . . , V „ } y |V’] = ( V* ! , V *2 , . . v*„ }

Definimos dos endomorfismos:

1. g : V -» V tal que g (v;) “ v¿ V/ = 1, 2, . . n

Expresando cada imagen como combinación lineal de la base [v], se tiene

0 )

La matriz P de esta trasformación lineal respecto de la base [v] en cada espacio es

P = ( * /) 'P recibe el nombre de matriz de pasaje de la base [v] a la base [v’].

2. h : V -> V tal que h (v’;-) = v;- V/' = 1, 2, . . . , n

Procediendo como en el caso anterior es

vj = A P U y’i (2)

p ’ = es la matriz de h respecto de la base [v’j en cada espacio, y diremos que es lamatriz de pasaje de la base [v’j a la base [v].

4.19.2. Propiedad

Las matrices de pasaje P y P’ son inversas entre sí.Demostraremos que P P* = P’ P = I.Teniendo en cuenta (1) y (2) escribimos

www.FreeLibros.com

Page 151: Algebra ii   armando rojo -

www.FreeLibros.com

CAMBIO DE BASE 145

ComoVj = 0 Vj + 0 v2 + . . . + 1 \ j + . . . + 0 v„

resulta que el único término no nulo de la sumatoria anterior se obtiene para i = /, y vale 1

En consecuencia, ambas matrices de pasaje son inversibles, y cada una es la inversa de la otra.

4.19.3. Trasformación de coordenadas

Sea P la matriz de pasaje de la base [v] a la base [v’], y sea x e V.Demostraremos que

donde X[v] y X[v.j son las matrices de las coordenadas de x e V en las bases [v] y [v’] respectivamente.

En efecto, expresando a x como combinación lineal de cada base y teniendo en cuenta (1) de 4.19.1., escribimos

Luegon

S Pik p ’kj = ô<7H —1

Por definición de producto de matrices y de matriz identidad resulta

P P ’ = I

Análogamente se deduce que

P’ P = I

X,v, - P X j v.j

n n n

x = jS1 ai>v,} = jS 1 Ci'i Á Pi}V¡"

Peron

x = 2 Vi

Por la unicidad de la C.L. es

~ p¡j cCj Vi = 1, 2, . . n

Por definición de producto de matrices, de las relaciones anteriores se deduce

www.FreeLibros.com

Page 152: Algebra ii   armando rojo -

www.FreeLibros.com

146 MATRI CES

O sea

Xt v r P X [v.| (3)Y como P es no singular, premultiplicando por P"1 resulta

X[V. , = P - ‘ X[V| (4)(3) y (4) se llaman fórmulas de trasformación de coordenadas.

4.19.4. Matrices de una trasformación lineal y cambio de bases.

Sea / : V -> W una trasformación lineal de matriz A e K mxn respecto de las bases [v]~ í v i , v 2, . . .,v„ } e n V y [ w ] = ( w , , w 2 , . . , w m ) enW.

Si se efectúa un cambio de base en cada espacio, entonces la misma trasformación lineal/ está caracterizada por una matriz B e Kmxn respecto del nuevo par de bases fv’] y [w’l.

Sean P e K.nxn y Q e K”1 X"1 las matrices de pasaje de [v] a [v’J y de [w] a [w’].Demostraremos que las matrices A y B de la trasformación lineal /respecto de los dos

pares de bases verifican

es decir, son equivalentes.Para ello consideremos el diagrama

B = Q '1 A P

V, [v]

P

V, [v’]

AW, [w]

Q

W, [w’l

Se verifica que

l .Xjvj = P X [v.j por 4.19.4. (3)

2 Y(w] = Q Y [w,, por4.19.4. (3)3. Yí,„t -

[w].(w] - A X[v] por ser / trasformación lineal de matriz A respecto de las bases [v] y

[w’].4. Y[w.j - B X|v ,, pues / e s trasformación lineal de matriz B respecto de las bases [v’] y

De 2., 3. y 1. se deduce

Y . . . . n - m[W] - O' Y(wj = Q- 1 A X[v) = Q-‘ A P X(v,|

www.FreeLibros.com

Page 153: Algebra ii   armando rojo -

www.FreeLibros.com

SEMEJANZA 147

De esta relación y de 4 resultaB = Q 1 A P

0 sea, B ~ A.R e c íp r o c a m e n te , si A y B son matrices equivalentes en Kmx", y V y W son e s p a c io s

ectoriales sobre K, de dimensiones n y m , respectivamente, entonces A y B caracterizan a una misma trasformación l in e a l/: V-> W respecto de dos pares de bases.

4.19.5. Matrices semejantes

Consideremos el caso particular del endomorñsmo

/ : V —>V

siendo dim V = n y A la matriz d e/resp ec to de la base [v] = [w] en cada espacio.Si se efectúa un cambio a la nueva base [v*] = [w’] con matriz de pasaje P = Q, entonces se

tieneB = P '1 A P

donde B es la matriz de/respecto de la nueva base [v*].Las matrices A y B de Knxn, que representan el mismo endomorfismo respecto de las

bases [v] y [w], se llaman semejantes.Diremos queA es semejante a B o 3 P no singular / B = P '1 A P La semejanza de matrices es una relación de equivalencia.

Ejemplo 4-21.

Sea la trasformación lineal / : R 3 —*R3 definida por

f ( a , b , c ) - ( a + b , a - b + c , a - c )

1 ) Determinamos la matriz A de / , respecto de la base canónica [v] en cada espacio

/ ( 1 ,0 ,0 ) = (1, 1, 1) = l e , + l e 2 + l e 3

/ ( 0 , 1 , 0 ) = (1, —1 , 0 ) = 1 ej - 1 e2 + 0 e 3

/ ( 0 ,0 , 1) = (0, l , - l ) = 0 e t + 1 e2 - l e 3

Entonces

¡\ 1 0A = ( 1 -1 1

\ l 0 - 1

ii ) Obtenemos la matriz P de pasaje de la base canónica [v] a la base [v’] = f ( l , 1 , 1 ) , ( 1 , 1 , 0 ) , (1,0, 0)}

( 1 , 1 , 1 ) = l e , + 1 e2 + 1 e 3

www.FreeLibros.com

Page 154: Algebra ii   armando rojo -

www.FreeLibros.com

148

( 1, 1» 0 )= 1 e, + 1 e2 + Oe3

(1, 0 ,0 ) = 1 e, + 0 e2 + 0 e3

MATRI CES

Luego

/ 1 i i P = 1 1 0

\ 1 o o

m\ " T f n “ ad°a,e<: ; : i UltadOS CakUlam0S “ ™ ‘riZ B de la baseSe sabe que

Empleando Gauss Jordan resulta

Luego

B = P"1 A P

h » ? ) / : ; :1 -1 0 / \ i o 1 / \ 1 o o

1 1 1 \ / o 1 11 1 0 ] = [ 1 —1 o1 0 0 / \ 1 2 0

El lector puede verificar este resultado obteniendo directamente B, como en i).

www.FreeLibros.com

Page 155: Algebra ii   armando rojo -

www.FreeLibros.com

TRABAJO PRACTICO IV

4-22. Calcular la matriz— A — 2 B, sabiendo que2

y B

4-23. Determinar la matriz X = / X ^ ) sabiendo que X + ( ^ M = I\.z u f \ 2 - 2 /

4-24. Sean las matrices

1 1 \ / 1 - 11 0 B = 0 01 2 / \ - 2 2

- 3

-3

Obtener: A2 , A B C y B fAt ,

4-25. Desarrollari ) (A + I) (A — I)

ii) (A + B) (A - B)

Sabiendo que A, I y B son matrices cuadradas n x n.

4-26. Siendo

PQ q 2

- P 2 ~PQ

Calcular A2.

www.FreeLibros.com

Page 156: Algebra ii   armando rojo -

www.FreeLibros.com

150 MATRI CES

4-27. Obtener A2 sabiendo que

A =0

0

4-28. Dada la matriz

A =

calcular A2, A3, A4 , etcétera, y vincular los elementos resultantes con los términos dela sucesión de Fibonacci: 1,1, 2 , 3 , 5, 8, 13 , . . . donde, a partir del tercero, cada uno es igual a la suma de los dos anteriores.

4-29. Demostrar que A (B C) = (A B) C, sabiendo que los productos indicados existen.

4-30. Demostrar por inducción completa que

4-33. Siendo B e Knxn, C e K " xn, C2 = N y B C = C B, demostrar

A = B + C ^ A ftti = B** ( B + (fc + 1) C )

4-34. Sabiendo que en K nxn se verifica X A = I y A Y = I, demostrar que X = Y.

4-35. Determinarlas matrices X e R2x2 tales que X2 = N .

4-36. Demostrar que si A y B son matrices diagonales en K "x'!, entonces AB es diagonal y

4-31. Sabiendo que

demostrar

4-32. Resolver la ecuación A2 + X2 = I, donde A, X, l'son matrices 2 X 2 y

AB = BA.

www.FreeLibros.com

Page 157: Algebra ii   armando rojo -

www.FreeLibros.com

4-37. DemostrarA A Í =N = > A = N

4.38 Demostrar que si A y B son matrices idempotentes y permutables en K”xn, entonces A B es idempotente.

4.39 Demostrar que si una matriz es simétrica, idempotente y con algún elemento nulo en la diagonal, entonces la fila y la columna de dicho elemento son el vector nulo.

440. Demostrar que si A es idempotente y B es ortogonal, entonces B* A B es idempotente.

441. Demostrar

A2 = A a A + B = I=>B2 = B a AB = BA = N

442. DemostrarA + B = I A A B = N = >A y B son idempotentes

443. Demostrar

A B = A a B A = B => A, B, Af, B* son idempotentes

444. Demostrar que si A es simétrica, entonces Bf A B es simétrica cualquiera que seaB e K”x".

445. Sean A y B dos matrices simétricas en Knxn. Demostrar

A B es simétrica 0 A y B son permutables

446. Demostrar que la matriz A e Knx" es involutiva si y sólo si (I - A) (1 + A) = N.

447. Demostrar que A y B son permutables si y sólo si A — al y B - a l son permutables, cualquiera que sea el escalar a.

448. En K3 x 3 se consideran una matriz cualquiera B y A tal que a¡¡ = 1 Vi V/Analizar las filas de AB y las columnas de BA.

449. Demostrar que si A y B son no singulares y permutables, entonces sus inversas son permutables y sus traspuestas también lo son.

4'50. Demostrar que si A es una matriz diagonal y todos los elementos de la diagonal son no nulos, entonces A es no singular y su inversa es la matriz diagonal formada por los inversos de tales elementos no nulos en la diagonal.

4-51. Demostrar que si A es no singular e idempotente, entonces A = I.

4-52. Verificar que las siguientes matrices forman grupo multiplicativo.

TRABAJO PRACTICO IV 151

www.FreeLibros.com

Page 158: Algebra ii   armando rojo -

www.FreeLibros.com

152 MATRI CES

4-53. Mediante una partición adecuada efectuar el producto

2 0 0\ /O 0 0 11 0 0 \ / 0 0 2 0

0 0 0 1 j 1 1 0 0 00 0 2 2 / ' 0 1 0 0

4-54. Determinar una base del espacio fila de

4'55. Demostrar que si A es no singular y B A = N, entonces B = N.

4-56. Siendo A e Knxn no singular y X e Y matrices en Knx 1 tales que A X = Y, entonces c X = A"1 Y.

4-57. Demostrar que si A y B son matrices de Knxn tales que AB=N, entonces A = N i B = N o A y B son singulares.

4-58. Determinar los rangos de

- 2 4 - 2 - 2A = f —1 —1 1 0 | B

- 2 1 2 - 1

4-59. Obtener, si existen, las inversas de

/ 1 - 1 0 \ / 1 - 1 0 A = 0 1 - 1 B = | 0 1 - 1

4-60. Sea

1 0 1 / V —1 0 2

2 31 4

2 - 7

Verificar que p (A) = p (A A*)

4'61. Demostrar que el rango de la suma de dos matrices es menor o igual que la suma de su rangos.

4-62. Demostrar las siguientes propiedades relativas a la traza de matrices en K"xn :

i ) ír(A B )= tr (BA).

i i ) tr (ABC) = tr (CAB) = tr (BCA), o sea, la traza no varía frente a permutacione cíclicas.

www.FreeLibros.com

Page 159: Algebra ii   armando rojo -

www.FreeLibros.com

TRABAJO PRACTICO IV 153

iii) Si C es ortogonal, entonces tr (C*AC) = tr A.

4-63. Sea A una matriz idempotente en R "xn, y sea X un vector no nulo de R n que verifica AX *= aX, con a e R. Demostrar que a = 0 o a ss l.

4-64. Si A e Rnxn es involutiva y X e R " es no nulo y verifica AX = aX, entonces a = 1 o a ~ - 1 .

4-65. Sea X e R "x 1. Se define el escalar X (X raya) mediante— i nX = - 2

n i=i 1Determinar las matrices A e Rnxn que verifican

i ) X( A X = X2

Ü ) X Í A X = n X 2

iii) X^ A X = £ ( X i - X f í=i

4-66. Sea T e JC™” estrictamente triangular superior. Demostrar que

(I _ t )-i =1 + T + T 2 + . . . + T fl_l

4-67. Sean

'0 0 1 0. . ° ° 0 1 .

A 1 i o o o I y b =, 0 1 0 0

donde C y D son matrices 2 X 4 . Verificar que A B\ C

4-68. S e a /u n a trasformación lineal de V en V caracterizada por la matriz A.Sabiendo que A verifica la relación A3 + A2 - A + I = N, demostrar que / es no singular.

4-69. Determinar la inversa de

A =

4-70. Sean A = | ) y B e R2 x2. DemostranA y B son permutables o B = a A + J310 3,

1 -v 0 00 1 -p 00 0 1 -p0 0 0 1

www.FreeLibros.com

Page 160: Algebra ii   armando rojo -

www.FreeLibros.com

154 MATRI CES

4-71. Las matrices A y B de Km xm son tales que A y (A B - B A) son permutables. Demostrar que

A” B ~ B A " = n A'1-1 (A B - B A) V « e N

4-72. S e a / : R3 -» R2 una trasformación lineal definida por

f ( a , b , c) ~ (a + b - c , a - tí)

i ) Hallar la matriz de /resp ec to de las bases canónicas en R 3 y en R2.

ii ) Obtener las matrices de pasaje de las bases anteriores a las bases

[V] = 1 ( 0 , 1 , 1 ) , ( 1 , - 1 , - 2 ) , ( 1 , - 1 , - 1 ) )

[w’] = 1(1, 3 ) , (0, - 2 ) |

iii) Calcular la matriz B d e /, respecto del nuevo par de bases.

www.FreeLibros.com

Page 161: Algebra ii   armando rojo -

www.FreeLibros.com

Capítulo 5

DETERMINANTES

5.1. INTRODUCCION

En esta sección se define axiomáticamente la función determinante de orden n y se demuestran las propiedades que se derivan de tales axiomas. Se encara después el problema de la existencia del determinante y se llega al desarrollo por los elementos de una fila. A continuación, y sobre la base del concepto de inversiones de una permutación, se da el desarrollo del determinante en función de los elementos de la matriz, y se demuestra la igualdad de los determinantes de dos matrices cuadradas y traspuestas. Se encara el desarrollo de los determinantes por los elementos de una línea cualquiera, y se demuestra el teorema relativo al determinante del producto de dos matrices. Después de exponer el concepto de matriz adjunta de una matriz cuadrada, se da un método para invertir matrices no singulares.

5.2. DETERMINANTES

En lo que sigue, supondremos que K es tal que 1 + 1 =£0, y si A e K " x", escribiremos A = (Aj Á2 . . . A„), donde A¡ con 1 < / ' < « denota la columna de lugar i de la matriz cuadrada.

Definición

Determinante de orden n es toda función

D : Knxn -» K

que verifica

1 . D( A, . . . a ; + a ; \ . . a „ ) - d ( a i . . . a ; . . . a „ ) + d ( a 1 . . . a ? . . . a »)

cualquiera que s e a / = 1, 2 , . . . , n.

2. D (Aj . . . a A ; . . . A „ ) = f tD (A 1 . . . A , . . . A„)

para todo / = 1, 2 , . . .,n.

www.FreeLibros.com

Page 162: Algebra ii   armando rojo -

www.FreeLibros.com

156 DETERMINANTES

3. A¡ ~ AJ+ ! => D (Ai . . . A; Aj + 1 . . . A„) - O

cualquiera que sea / = 1, 2 , . . n - 1.

4. D (I) =1 .

Haremos algunas aclaraciones acerca de la notación usada y de los axiomas propuestos en la definición. La función D asigna a cada matriz n x n un escalar llamado determinante de la matriz. Así, el símbolo D (A) se lee “ determinante de A” , y es un elemento de K.

Los axiomas 1. y 2. caracterizan a D como una función lineal respecto de cada columna de la matriz.

El axioma 3. establece que si dos columnas consecutivas de una matriz son idénticas, entonces su determinante es nulo.

El axioma 4. expresa que el determinante de la identidad vale 1.Si

A =

a n a n • ■ ■ a \n a 2 l a 22 ■ ■ ■ @2n

escribiremos

a n 1 a n 2 ■ ■ ■ flfin

Û11 d \1 . . . d \ n a21 Û22 • • • a2n

& n 1 0 -n 2 ■ ■ ■ a n n

Ejemplo 5-1.

La función D : K2*2 ->K definida por

a bD (A) =

c d= ad - be

es un determinante. En efecto:

1.a b ’ + b ”

c d ’ + d ”

a b ’ + a b ”c d ’ c d ”

2 .a a b a c d

= a (d ’ + d ,T) - ( b , + b ”) c = ( a d , - b ’c) + ( a d ’’ - b ”c) =

a b c d

a a d - b a c ~ a . ( a d - b c ) = a

www.FreeLibros.com

Page 163: Algebra ii   armando rojo -

www.FreeLibros.com

r

PROPIEDADES 157

3_ a a =a c - a c = 0c c

4 - D ( I ) = | o i = u ~ 0 0 = 1

os en d e la

Análogamente lo es la función D : K 1 x 1 -► K definida por

D (A) = \a\ = a

im na

5.3. PROPIEDADES DE LA FUNCION DETERMINANTEticas,

5.3.1. Teorema

Si se permutan dos columnas de una matriz, entonces los correspondientes determinantes son opuestos.

Razonamos inductivamente:

i ) Las columnas que se permutan son consecutivas.

Sea A = (Ai . . . Ay Ay+i . . . An)

D (Aj . . . Ay + A/+i Ay+i + Ay . . . An) 0

Aplicando 2. se tiene

D (Aj . . . Ay Ay+i . . . A n) + D iA J_ _ ^ A r -Ar^ r A í í ) - +

4- D_( A i . ■ . —Ay+i . . . A ny + D (Ai . . . Ay+ i A¡ . . . A n) — 0

Los dos términos centrales son nulos por 3.Luego

D (Ai . . . Ay Ay+i . . . A„) = — D (Ai . . . Ay+j Ay . . . A„)

ii) Suponemos válida la propiedad para h - j = k y la demostramos para h - j = k + \

Por 3. es

D (A! . . . Ay Ay+1 . . . Ah . . . A„)

= — D (Ai . . . Ay+1 A y . . . A h . . . A „ ) Pori)

= D (Aj . . . Ay+1 Ah . . . Ay . . . A„) Por hipótesis

= — D (A, . . . A h Ay+i . . . Ay . . . A„) Por i)

5.3.2. Teorema

El determinante de toda matriz que tenga dos columnas idénticas es nulo.

ii= j a A¡ = Ay => D (Ai A2 . . . A ¡. . . Ay. . . A„) = 0

www.FreeLibros.com

Page 164: Algebra ii   armando rojo -

www.FreeLibros.com

158 DETERMINANTES

En efecto, permutando tales columnas idénticas por 5.3.1. es

O sea n)

D (A) = - D (A) pues A* = A,Luego

1 D (A) + 1 D (A) = 0En consecuencia

(1 + 1) D (A) = 0Y como l + l ^ o , resulta

D (A) = 0

5.3.3. Teorema

Hemos aplicado 1.3.1. y el axiom a 2. de la función determinante.

5.3.4. Teorema

linfa! de“ ante n ° S¡ a ™ “ » - u » Se le suma una combi nación

/ ^ ^ D ( A 1 . . . A J. . . . A , . . . A „ ) = D ( A 1 . . . A ; . . . A f c + a A . . ,

Aplicando los axiomas 1. y 2., y teniendo en cuenta 5.3.2., resulta ' " '

D (A, • ■ • A , . . . A * + a A / . . . A „ ) =

l>IA' ' A - -A». (A, . . . A ; . . . A / . . . A„) =

= D (A. . . . A j . . . A k . . . A n) + a .0 =

= D (A 1 ■ ■ ■ Aj . . . A k . , . A„)

Ejemplo 5-2,

Sea

/ 1 ° l \

A - ^ 1 ° / eR3X3

www.FreeLibros.com

Page 165: Algebra ii   armando rojo -

www.FreeLibros.com

PROPIEDADES

Calculamos D (A) de la siguiente manera:

i ) A la tercera columna le sumamos la primera multiplicada por - 1 .

1 0 1 1 0 0

-1 1 0 = - 1 1 12 1 -1 2 1 - 3

D.(A) =

i i ) A la primera columna le sumamos la segunda.

D (A) =

iii) A la tercera columna le sumamos la segunda multiplicada por - 1

D (A) =

1 0 00 1 13 1 - 3

1 0 00 1 03 1 - 4

iv) De la tercera columna extraemos el factor - 4 .1 0 0

D (A ) = ( - 4 ) 0 1 03 1 1

v ) A la primera columna le restamos el triplo de la tercera.1 0 0

D (A) = ( - 4 ) 0 1 00 1 1

vi) A la segunda columna le restamos la tercera(1 0 0

D (A) = (—4) '

Por 4. resulta

0 1 0 0 0 1

D (A) = ( - 4 ) . 1 = - 4

Ejemplo 5-3.

S i a e K y A e K " * " , entoncesD ( a A ) = a "D (A)

www.FreeLibros.com

Page 166: Algebra ii   armando rojo -

www.FreeLibros.com

160 DETERMINANTES

En efecto:

D ( a A ) = D [ a (A 1 A2 . . . A „ ) ] =

= D(o: Aj a A2 . . .a A n) =

= an D (A)

Ejemplo 5-4.

Sl Al«x^2 ’ ‘ A" son vectores columnas de Kn tales que D (Ai A2 . . . A„) 0 yB e K" x es combinación lineal de aquéllos, o sea

B = ;? i* íA ‘' con x ¡ e K , i = 1,2 ,. . .,n,

entonces

„ D ( A t . . . B . . . A „ )D (A )

donde B es la columna de lugar j.En efecto:

D (Ai . . . B . . . Am) = D (A, . . . ¿ x¡ . An) =

- * i D (A t . . . Ai . . . A„) + * 2 D (Ai A2 . . . A2 . . . A„) ++ xj D (Ai . . . Ay . . . A„) + . . . + Xn D (Aj . . . An . . . A„) -

: Xj D (A)

Luego

5.3.5. Teorema

. _ D(A i ...B...A„1D(A)

D( A, A i ' * AAa ) = o " A " S° n Une a l me n t e dependientes en K n, entonces e

Siendo por hipótesis Í A t l Aa........ A „ | un conjunto Unealmente dependiente algúnvector, digamos A;-, es combinación lineal de los restantes, o sea

A,- = S « / A f

En consecuencia resulta

D ( A ) - D ( A j A2 . . . . S ft¡ AI. . . . A „ ) = 0

www.FreeLibros.com

Page 167: Algebra ii   armando rojo -

www.FreeLibros.com

EXISTENCIA 161

El teorema contrarrecíproco expresaD (A) =£0 => A i, A2 , . . A„ son L.I.

Por consiguienteD (A) 0 => { A j , A2 , . . A„ ) es una base de K"

5.4. EXISTENCIA DE D

Definiremos los determinantes por inducción sobre n. Sea A e K " x", Para cada (/ /) e l n X I„ consideramos la matriz A ( / 1 f) del tipo (n - 1) X (n - 1), que se deduce de A al suprimir la fila i y la columna;.

/d\\ . . . . . . a in \

ay

an 1 an1 . . . a,

Denotaremos con Ay al producto de ( - l ) w por el determinante de A (i \j), o sea

A„ = ( - 1 ) w D ( a (í I/))

El determinante Ay recibe el nombre de cofactor del elemento (/, /') de la matriz A.

1 2 3Por ejemplo, si A = J 1 0 —2

2 1 - 3

entonces los cofactores de los nueve elementos de A, son

A n — (—l)20 - 2 1! to > II '“

w 1 - 2

1 - 3 2 - 3= - 1 , etcétera.

Probaremos la existencia de D procediendo inductivamente.

i ) Sean n = 1 y A = (a) e K1 x 1. Definiendo

D : K lxl -»K mediante

D (A) = a

se satisfacen los axiomas propuestos en 5.2.

ii) Supongamos definido D : K(" 1 >x(fl 1) K.Esto significa que se satisfacen los axiomas 1 2 . , 3. y 4.

www.FreeLibros.com

Page 168: Algebra ii   armando rojo -

www.FreeLibros.com

Daremos ahora una expresión para ]a función * j

determinante de orden » - i. Para ello definimos, para cada f la / = 1 , 2 . ^ 6XPenSaS deI

D : K n x n ~>Kmediante la asignación

D (A ) = . § 1 au A ¡í ( i )

donde A¡j « ( - 1 ) « d f A( í / / ) ) .0 sea

„ , D ( A ) - s „ Afl + a ¡2 A „ + . . . + a¡n A¡n V ; e l „ .Probaremos que la definición (1) satisface los axiomas nombrados !• D (A, A2 . . . A ' k + A”fe . , . A „ ) =

n "~ jS x aa Ay = aik A ik + X a¡j Ay =

j&h

= (a ¡k + a \ ) A ik + 2 a a = j^ k w u

2 . D ( A i Á 2 . . . a A k . . . A „ ) = 2 a .. a -= a n A 4 . vn) Á a* Av a atk Aik 4 ^ 2 ay Atf.

puede extraerse en virtud de lá U p ó t e Í t d u c t í v a “ ^ u ta “ " 3 ^ 1U8" * ^ faC‘° r qUe

D ( A 1 A2 . . . a Af t . . . A„) = a D ( A i A 2 Aft ^

3 . A » = A * +1 =>D(A, . . . A * A* + 1 . . . A „ ) =n

=¡St aH A ü = a ik A ik + a¡i h+1 At h+í =

- ““ D ÍA (í 1 *}! + (_1)i" +1 a**+■D i*4 c 14+ >)) =( 1) ath D (A (; Ik ) ) + (_!)<♦**, ^ D ( A ( / 1 *) J = 0

4- D W = , 4 ( ~ l ) w 5i í D ( l ( ¡ | / ) j =

- ( - I )‘+i Su D f I (/ [ /) J = 1

Entonces, Vn e N , V/ e l n , la función

D : Knx” K

162 d e t e r m i n a n t e s

www.FreeLibros.com

Page 169: Algebra ii   armando rojo -

www.FreeLibros.com

UNICIDAD 163

definida por

D ( A ) = . |i a í ; Ai;-

es un determinante de orden n.La fórmula anterior corresponde al desarrollo del determinante por la i-sima fila y expresa

que todo determinante es la suma de los productos de los elementos de la fila i por sus correspondientes cofactores.

5,5. UNICIDAD DEL DETERMINANTE

Expondremos primero algunos conceptos relativos a permutaciones e inversiones de una permutación, sin entrar en detalles de demostraciones. Después hallaremos una expresión del determinante en términos de los elementos de la matriz, de modo tal que se satisfagan los cuatro axiomas de la definición.

5.5.1. Permutaciones

Sea el intervalo natural inicial = { 1 , 2 .

DefiniciónPermutaciones de I„ son todas las funciones biyectivas de I„ en sí mismo.

Si o : I„ -*■ In es una permutación, entonces O queda caracterizada por el conjunto ordenado de las imágenes

a ~ { a ( l ) a ( 2 ) . . . ff(tt))

Como o es biyectiva, existe la permutación inversa de a, a 1 : ln ■ + definida por

a 1 ( O= / si o ( j ) ~ i

Como la composición de funciones biyectivas de I„ en l n es también una función biyectiva, resulta que la composición de dos permutaciones de I„ es una permutación de l n.

Permutación idéntica es la función identidad en I„.

5.5.2. Trasposiciones

Sea ¡ e l — i • Trasposición /-sima de la permutación O es la permutación

Ja : I/j ln

definida pori o ( i ) si i + } a / = £ / + 1

www.FreeLibros.com

Page 170: Algebra ii   armando rojo -

www.FreeLibros.com

164 DETERMINANTES

Por ejemplo, dada la permutación de l 5

a = (2 1 3 4 5)entonces es

2CT “ (2 3 1 4 5)

Toda trasposición de una permutación intercambia dos imágenes consecutivas y deja fijas a las restantes. ,

Se verifica que la permutación inversa de una trasposición es una trasposición. Por ejemplo, la permutación inversa de la trasposición

20 = (2 3 1 4 5)es la trasposición !

2'¿ = (3 1 2 4 5) i

Se demuestra que si o es una permutación de I„ y n > 1, entonces existe un número finito Ide trasposiciones cuya composición es la identidad.

Por ejemplo, si i

o = (2 3 1 4 5) ;entonces

2(j = (2 1 3 4 5) ¡

y !l2 0 = ( l ° 2 ) 0 = ( i 2 3 4 5) = I !

5.5.3. Signo de una permutación

Sea a una permutación de l n . El símbolo e(ff) denota el mínimo número de trasposiciones que trasforman a o en la identidad. Convenimos en que e (I) = 0.

Diremos que o es par si e (a) es par. Si e (a) es impar, entonces a es impar.A cada permutación a de I„ se le puede asignar el signo + si a es par, y el signo menos si

es impar. Tal signo queda caracterizado por ( -- l ) e(0)Se verifica que dos permutaciones inversas tienen la misma paridad. O sea

(_ !)« «*> = ( ~ i ) e « ^ >

5.5.4. Teorema

Los determinantes están unívocamente determinados por los axiomas 1., 2., 3. y 4. El determinante satisface la expresión

D (A) = S ( ~ l ) e (CT) ao0 M • • - aa{n) n

donde la suma se realiza sobre todas las permutaciones de I„.

www.FreeLibros.com

Page 171: Algebra ii   armando rojo -

www.FreeLibros.com

Consideremos A = (A , A2 . . . An) e K " x". Si E j , E2, . . Ert son los vectores columnas de la base canónica de K", entonces

UNICIDAD 165

n

A2 ~ £ a ¡2 E¡ 1=1

A„ = 2 ain E, í=i

O sea

D (A) = D (A, A i . . . A„) = D ( i a„ E, 2 a¡2 E , . . . J ain E,)1=1 1=1 l - l

Mediante 1. podemos expresarlo como una suma de términos del tipo

D ( a ff( i ) ti E0(1) fla (2),2 Eg(2) . . . aa („),n Ea(„))

donde o( 1), o(2 ) , . . o(«) denota una elección de n enteros entre 1 y n.Por 2. se tienen términos de la forma

#<7 ( 1) , ! a o {2),2 • • • a a { n ) sn D (ECT(i) Eff(2) . . . ECT(n))

Si algún o asigna el mismo entero a valores distintos i y /, el determinante es nulo en virtud de 5.3.2. Esto significa que debemos considerar sólo las permutaciones de In.

Luego

D (A) = 2 Í70(1 1 J 2 . . . na(n),n L) (EC(1 ) Ea (2 ) . . . ECT(„))

Los vectores canónicos ECT(1), ECT(2 Ea („) constituyen en cada término unapermutación de E j , E2 , . . En . Si e ( a ) denota el número mínimo de trasposiciones necesarias para obtener la permutación identidad es

D (E*d) Eaia)- ■ ■ **(»>)■ = ( -1 y <a) D (Ei E2 . . . E„) donde (—l)e(a) es el signo de la permutación.

Por 4. resulta

D (E „(1, E0(2>. . . E„(n)) = ( - 1 ) £<°> D (I) = ( - l ) eí<7)

Por consiguiente es

D (A) = 2 (— l ) eí<7í ü0(i «0(2),2 ■ ■ ■ ao(n),n

Este desarrollo del determinante no es útil para el cálculo, pero sí lo es desde el punto de vista teórico.

www.FreeLibros.com

Page 172: Algebra ii   armando rojo -

www.FreeLibros.com

166 DETERMINANTES

5.6. DETERMINANTE DE LA TRASPUESTA

“ k " x" — * - — .Sabemos que

D (A ) ~~ ^ _ 1 ) eÍCT)fla ( l ) , i « „ ( I ) ,2 ■ ■ • a a{n) n

Sea una permutación de I S i o (j) = k, entonces a 1 (*) = /

ao(j)J=ak,o~l (k)En todo producto del tipo

ao (i),i a<ji 2 ) t 2 ■ ■ ■

cada entero k e \ n figura una sola vez entre los enteros a( f t P™ • • puede escribirse así: ^ consiguiente, tal producto

y la suma es

ya que

( - l ) c<°>=(-I)e<cT ')

permutación caracteriza unívocamente a su inversa. ’ aPor consiguiente, la suma es igual a

2 ^ l>°a l .a( l )«2,a(2>. . . a n,0(n) = D (A í)

Ejemplo 5-5.

Calculamos, según 5.5.4., el determinante de C = (A B)í siendo

-■íri).Efectuamos primero

www.FreeLibros.com

Page 173: Algebra ii   armando rojo -

www.FreeLibros.com

DETERMINANTE DE LA TRASPUESTA 167

Entonces

/ 3 - 3 - 4 C ~ (A B)( - - 2 2 0

\ 5 - 5 - 2

Para obtener los seis términos del desarrollo 5.5.4. podemos aplicar la conocida regla de Sarros, repitiendo debajo del determinante las dos primeras filas de la matriz, y efectuando los productos indicados

D (C) = = 3 . 2 . ( - 2 ) + ( - 2 ) . ( - 5 ) . ( - 4 ) + 5 . ( - 3 ) . 0 - —5 . 2 . ( - 4 ) - 3 . ( - 5 ) . 0 - ( - 2 ) . ( - 3 ) . ( -2 )

= - 1 2 - 4 0 + 4 0 + 12 = 0

En el caso de un determinante de orden 4, esta regla no es aplicable, y la obtención de los 24 términos del desarrollo es muy penosa. En todos los casos de cálculo es preferible el desarrollo del determinante por los elementos de una fila o columna, como se indica en 5.3.5.En este sentido, primero extraemos el factor 2 de la segunda fila, y después sumamos a la segunda columna la primera:

3 - 3 - 4 3 0 - 4D (C) - 2 - 1 1 0 = 2 -1 0 0

5 - 5 - 2 5 0 - 2= 0 por tener una columna de ceros.

El lector puede verificar que

D (C) = D (A B)

Ejemplo 5-6.

Calculamos el siguiente determinante:

D (A) =

A la primera fila le sumamos las dos últimas y extraemos el factor 9

9 9 9 1 1 1D (A) = 3 5 = 9 3 5 1

5 3 5 1 3

A la segunda y tercera columnas les restamos la primera

, 1 0 0D (A) = 9 2

- 4

www.FreeLibros.com

Page 174: Algebra ii   armando rojo -

www.FreeLibros.com

168 DETERMINANTES

Desarrollamos por la primera fila, según 5.3.5.

2 - 2D (A) = 9 . 1 .

- 4 - 2= 9 ( - 4 - 8 ) = -1 0 8

Teniendo en cuenta que los determinantes de dos matrices traspuestas son iguales, los axiomas y propiedades relativos a las columnas son válidos para las filas.

En consecuencia, el desarrollo de un determinante por los elementos de una fila propuesto en 5.3.5., se hace extensivo a los elementos de una columna. Podemos decir’ entonces, que todo determinante es igual a la suma de los productos de los elementos de um línea (fila o columna) por sus respectivos cofactores.

Ejemplo 5-7.

Desarrollamos por los elementos de la primera columna.

1 1 1 1

D ( A) = a c d c2 d 2a2 b2

a3 b3 c 3 d 3 .

Antes de efectuar el desarrollo pedido reduciremos a 0 los tres últimos elementos de la primera columna, para lo cual restaremos a cada fila la anterior multiplicada pora.

D (A) =

1b -a

1c—a

1d -a

0 b2 -a b c2 -a c d 2 -a d0 b : -ab2 c3-a c 2

Desarrollando por la primera columna y factoreando

b—a c -aD (A) = b(b~a) c(c-a )

b2(b -a ) c2(c -a )

Extrayendo factores en cada columna

d 3 - ad2

d - ad (d -a )

d 2(d -a )

D (A) = (b -a ) (c -a ) (d -a )1b

b2El determinante de orden 3 que resulta es del mismo tipo que el primero. Ahora restamos a cada fila la anterior por b

1 1 1D (A) = (b -a ) (c -a ) (d -a ) 0 c - b d - b

0 c2- b c d 2~bd Desarrollando por la primera columna y extrayendo factores se obtiene

D (A) - (b -a ) (c - a) (d a) (c -b ) (d -b )

www.FreeLibros.com

Page 175: Algebra ii   armando rojo -

www.FreeLibros.com

DETERMINANTE DEL PRODUCTO 169

D (A) = (b - á )(c - a) (d - a )(c - tí) (d ~ b ) ( d - c)

El determinante propuesto recibe el nombre de determinante de Vandermonde, y considerando la fila de elementos a, b, c y d,su desarrollo es igual al producto de los binomios que se obtienen restando cada elemento de la misma de todos los que le siguen.

0 sea

5.7. DETERMINANTE DEL PRODUCTO DE DOS MATRICES

Demostraremos que si A y B son matrices n «, entonces se verifica que

D (A B) = D (A) D (B)

O sea, el determinante del producto de dos matrices es igual al producto de sus determinantes.

Considerando la matriz A particionada en vectores columnas, se tiene

C = A B = (A 1 A2 . . . A n)

b 11 b 12 • • • b 1„ ¿21 b 22 . . . b2 n

bn i b n2 . . . b nn

A j j = i b i2 A i • ■ ■ y ? ! b jn A i)

Luego

D (A B) = D ( 2 ò yi Ay .2 bj2 . . . .2 bjn A}) =

= 2 D (^0(1 >,1 Aff( i) 6a(2),2 Act(2) • • • ^ ( n ) ,n A 0(n) ) =

“ ^ <7(1 ),1 ba(2),2 • • • ^ ( iì) ,n D (A(j(i ) A(j(2 ) - • • Aff(n)) ■

= £ (— ¿>o(1 J(1 60(2),2 • • ■ ^a(n),n D (A ( A2 . . . Art)

= D (A) 2 (— l ) et°> ¿0(1 ),i ^o(2 ),2 ■ ■ ■ &(r(n),n =

= D (A) D (B)

www.FreeLibros.com

Page 176: Algebra ii   armando rojo -

www.FreeLibros.com

170d e t e r m i n a n t e s

5.8. ADJUNTA DE UNA MATRIZ CUADRADA

5.8.1. Definición

Si- - >— » * - — - — *

Ia n a 12 . . . aan <*22 . . . a2n

ln

an 1 an2 . . . ann>

entonces la matriz adjunta de A se denota mediante el símbolo Adj A,

/ An A:

y es

Adj A =

Por ejemplo, la matriz adjunta de

k2i ••• Anl A 12 A22 . . . A„2

Aln A2 „ . . . Ann

es

- 1 0 2 A = [ 2 1 3

1 —2 —3

3 9 - 5 \ 'Adj A = ¡ - 4 j _ 2

-2 7 - 15.8.2. Propiedad

3 - 4 -2 = [ 9 1 7

, - 5 - 2 - 1

Sea

rn a \2 a 1 n

ai2 . . . ff;.A =

donde h¥=iah\ ah2 . . .

www.FreeLibros.com

Page 177: Algebra ii   armando rojo -

www.FreeLibros.com

ADJUNTA 171

tuir

OS

Sumando a la fila h la fila i, el determ inante de esta m atriz no varía, es decir

#11 #12 • • • aln

D (A ) =

an a¡ 2 . . . air

ah l+ aÜ ^ h 2 ^ i2

• n i

Desarrollando el segundo m iem bro por los elem entos de la fila h, se tiene

D (A ) = .2 {ahj + au) A hj

Entoncesn n

D (A) = 2 ah¡ Ahj + .2 a ¡3 A hj

La primera sumatoria es D (A), y en consecuencia

D (A ) = D ( A ) + J if l f fAw

Luego

.2 a¡j A hj = 0

Esta propiedad también es válida para columnas. A continuación demostraremos que el producto de toda matriz cuadrada a izquierda y a derecha por su adjunta es igual al determinante de dicha matriz por la identidad.

5.8.3. Teorema

Cualquiera que sea A e K "xn se verifica que

A . Adj A = Adj A . A = D (A) . I

En efecto, aplicando la definición de adjunta de una matriz cuadrada, el producto de matrices, 5.4. y 5.8.2. se tiene

A Adj A =

#11 #12 • •■ #1* ’ Au A21 • •■ A„i#21 #22 • •• a 1n Aj2 a 22 • • • A„2

&n l #r«2 ■■ ■ a nn Aln A2 n * • A„n

www.FreeLibros.com

Page 178: Algebra ii   armando rojo -

www.FreeLibros.com

172 DETERMINANTES

n n

a H A 2 ; - ' ' } S x ü l Jn n

A 2 j • ■ ■ a v A n i

n n

' a n j A n j

D (A ) O . . . OO D (A) . . . O

0 O . . . D (A )

= D (A )

1 0 . . . 00 1 . . . 0

= D ( A ) . I

o 0 . . . 1En forma análoga se prueba que

Adj A . A = D (A) I

5.9. INVERSION DE MATRICES NO SINGULARES

d isto to de cerrom0S matóZ “ ÍnVerSÍWe * sól° ■* -> determinante esSea A e K nxn.

1. Supongamos que A es inversible. Entonces existe B e K nxn tal que

A B = B A = ILuego

D (A B) = D (B A) = D (I)Por determinante del producto y de la identidad es

D ( A ) D ( B ) = D ( B ) D ( A ) = I Resulta D (A) * 0, pues en caso contrario su producto por D (B) sería 0, y no 1.

2. Sea A e K»*" tal que D (A) * 0. Demostraremos que A es inversible

detenriinante ■ * * « * - -

A . Adj A = Adj A . A = D (A) . I

www.FreeLibros.com

Page 179: Algebra ii   armando rojo -

www.FreeLibros.com

INVERSION DF, MATRICES 173

Por hipótesis, el escalar D (A) es distinto de cero, y dividiendo por él resulta

Adj A _ Adj A TA - F ( x r ^ ( X )

Entonces, por definición, existe A 1 y es

A-l - AdÍ AD( A)

Se obtiene de este modo otro método efectivo para el cálculo de la inversa de una matriz

110 singular.

Ejemplo 5-8.Obtenemos la inversa de la matriz del ejemplo 5-6.

/ I 3 5 A = I 3 5 1

V 5 1 3

Como D (A) = -1 0 8 , existe A-1.Primero obtenemos la í '

Adj A =

Luego

O sea

14 - 4 --22 \* / 14 - 4 -2 2

- 4 -2 2 14 - - 4 -2 2 14

-2 2 14 - 4 / \ -2 2 14 - 4

/ 14 - 4 - 2 2 \A"1 =

1 -22 14~ 108 \ -2 2 14 - 4 /

7 2 1 1~ 54 54 54

2 11 7

54 54 ” 5411 7 2

54 ~ 54 54

Ejemplo 5-9.Demostramos que los determinantes de dos matrices inversas son escalares recíprocos. Sea A e Knx'' no singular, es decir, tal que existe A 1.Entonces se tiene

A A"1 = I

www.FreeLibros.com

Page 180: Algebra ii   armando rojo -

www.FreeLibros.com

174d e t e r m i n a n t e s

D (A A_1) = D (I) Por determinante del producto y de la identidad es

D ( A ) D ( A ~ 1) = 1O sea

Ejemplo 5’10.

D (A "') = [D (A )r'

qs - ^ SK™ ÍCeS Semejanfes determinantes iguaies. ' S l B e K CS SemCJ;1,' te a A- 0 "'« "« » existe P no singular tal que

Entonces

Como K es conmutativo

B = P '1 A P

D (B) = D (P~* ) D (A) D (P)

D ( B ) = D ( P - ' ) D ( P ) D (A ) Por determinante del producto

D (B) = D (P"1 P) D (A)

D (B ) = D ( I ) D ( A )

O sea

Y resulta

D (B) = D( A)

5.10. REGLA DE CfflO

det“ n :

™ de“ rminaaCnteta;eel “ 7 E.T O a^atai^ ^ Pr°P° rCÍOna el método de Gauss ^ rd a n para la determinación

Sea

D (A) =

« u «12 . . . a u . . . a ln «2i a 22 . . . a2j . . . a2n

«« ai2 • •. (a

am an2 . . . anj . . . ann

www.FreeLibros.com

Page 181: Algebra ii   armando rojo -

www.FreeLibros.com

REGLA DE CHIO 175

Fledmos como pivote un elemento no nulo, digamos Después de extraerlo como facwr de la fría i, reduciremos a cero los demás elementos de la columna del pivote.

a n a 12 • • • <*1/ • • • a in a21 a22 . . . a2¡ • • • a2n

D (A) = a ad j \ a i2

a¡j a¡j. 1

dn \ an2 • • • anj ■ ■ ■ ar

A cada fila A, con h * i, le restamos la fila i multiplicada por aHh y resulta

D (A ) = fly

a u -&t]an

an 1an¡an

a i

012Q i j a ¡2

(*i2«y

an2an¡a i2

. . 0 . . . a i „ -fllj

«y

i . . .din

Gni &

Al desarrollar por los elementos de la columna / resulta un determinante de orden n 1

“ t f i n d w X t o M i r í a l l a o la columna del pivote por él. En el segundo caso se reducen a Es indistinto ^ m . te En ambas situaciones el procedimiento

mecánico consiste en aplicar el m étodo de Gauss Jordán teniendo en cuenta, además, el

factor ( - 1 ) '+* «y•

Ejemplo 5-11.Calcular, usando la regla de Chio.

D (A) -

2 0 - 1 2 3 2 - 2 - 30 - 2 (3) 2 2 3 0 - 1

del pivote se anulan, y a los elementos del determinante que no figuran ni en la

www.FreeLibros.com

Page 182: Algebra ii   armando rojo -

www.FreeLibros.com

176d e t e r m i n a n t e s

en h columna del pivote se los trasfonna de acuerdo con la regla del -rectángulo’

2 1 0 13 4 0 - 50 1 -12 3 0 -1

Desarrollando por la tercera columna resulta

D (A ) = ( - 2 )© 14 - 5 3 - 1

Tomando como pivote « u = i , y reiterando el procedimiento se obtiene

2 1 lD (A ) = ( - 2 )

Desarrollando por la tercera columna resulta

- 5 - 9

2 1 1-5 0 - 9-4 0 - 4

D (A ) = 2- 4 - 4 = 2 (20 - 36 )= —32

www.FreeLibros.com

Page 183: Algebra ii   armando rojo -

www.FreeLibros.com

TRABAJO PRACTICO V

$.12 Calcular los siguientes determinantes desarrollando por los elementos de una linea, reduciendo a ceros todos los elementos de la misma, salvo uno:

2 1 2 2 4 3

D (A) = 0 3 1 D (B) = -1 3 1

4 1 1 4 1 2

1 1 - 2 4 -1 1 2 1

0 1 1 3 0 3 2 -1D (C) =

2 - 1 1 0D (E ) = 1 4 2 1

3 4 2 --1 3 1 3 2

5-13. Demostrar que el determinante de toda matriz triangular es igual al producto de los elementos de su diagonal.

5-14. Demostrar que si un determinante tiene dos líneas proporcionales, entonces es nulo.

5-15. Resolver las siguientes ecuaciones:

1 - X 0 - 2 ü) 2 - x - 3 6

0 1 0 = 0 4 1 - 2

- 2 0 4 - X 2 -1 2 + x

0

5.16. Sea la matriz

Resolver la ecuación D (A - X1) - 0

5-17. Resolver la ecuación D (A - X I) = 0

j_3

A = 1

= 0

siendo

J_3

0

i'2

www.FreeLibros.com

Page 184: Algebra ii   armando rojo -

www.FreeLibros.com

178 DETERMINANTES

5-18. Demostrar que el determinante de toda matriz ortogonal vale 1 o — 1.

5-19. Sea A e K nxn. Demostrar que

D (Adj A) = [D (A)]”-1

5-20. Demostrar que

1 1x 2

1

í x i)

5-21. S e a n /y g funciones reales de una variable real con derivadas primeras y segundas. Demostrar que si

5-22. Demostrar que si n vectores columnas de K" son Unealmente independientes, entonces el determinante de la matriz cuyas columnas son tales vectores es no nulo.

5-23. Determinar los signos de las permutaciones de I3, y la inversa de cada una.

5-24. Sean ax , a2 , . . an escalares distintos. Demostrar que las n funciones f x, jf2 , . . definidas por

entonces

f i ( t ) = eaif

son linealmente independientes sobre el cuerpo de los complejos.

5-25. Obtener las matrices inversas de

(a y b son no nulos)

5-26. Determinar, si existen, las inversas de

www.FreeLibros.com

Page 185: Algebra ii   armando rojo -

www.FreeLibros.com

TRABAJO PRACTICO V 179

$.27. Sean las matrices

y B =

Hallar X sabiendo que AX - B.

$-28. Verificar las siguientes identidades en K

i ) 1 1 1x y 2

yz xz xy= ( x - y ) ( y ~ z ) ( z - x )

i i) X y z ty z t X

(x + y + z + 0z t X y

X y z

iii) 1 X y z + 11 y z X + t = 01 z t x + y1 t X y + z

iv) X - y — z 2x 2x

y y - x - z 2y2 z 2 z z - x - y

(x + y + z)3

5-29. Efectuar, mediante el determinante del producto de dos matrices,

5-30. Calcular

1 --1 2 1 10 2 32 --1 1 2 0

0 1 1 1 10 1 1 1

1 1 0 1 11 1 0

1 1 1 1 0

5-31. Dadas las fórmulas de trasformación de coordenadas esféricas a cartesianas

[ x = p eos ip eos 8 I y = p sen eos Q1 z = p sen 6

www.FreeLibros.com

Page 186: Algebra ii   armando rojo -

www.FreeLibros.com

180 DETERMINANTES

obtener el jacobiano de la trasformación, es decir, el determinante cuyas filas son h* derivadas parciales de x, y y z, respecto de p, v?y 0, respectivamente.

5-32. Obtener el jacobiano de la trasformación

U = X + YX

V = ~ donde X > 0 , Y > 0 .

5-33. Demostrar que el detenninante de toda matriz antisimétrica de orden impar es nulo.5-34. Demostrar que

A C B D = lAl ID - B A '1 Cl

donde A y D son cuadradas y A es no singular.

5-35. Si A y D son simétricas e inversibles, entonces

^A B \ 1 /a -i + F E " 1 F í - F E " 1

Bí D / ( - E ' 1 F Í E"1

donde E = D - Bf A '1 B y F = A"1 B.

5-36. Sean A e Knxn no singular. U y V en K "x 1. Demostrar

(A + U V*)”1 = A '1 - A 1 U y t A~*l + V ' A U

www.FreeLibros.com

Page 187: Algebra ii   armando rojo -

www.FreeLibros.com

Capítulo 6

SISTEMAS LINEALES

6.1. INTRODUCCION

En este capítulo se estudian los sistemas de ecuaciones lineales sobre la base de su estrecha relación con las trasformaciones lineales, y se analizan los espacios soluciones de los sistemas lineales y homogéneos. Después de la demostración del teorema de Cramer, se trata la compatibilidad de los sistemas lineales generales. Se dan, finalmente, los siguientes métodos directos de resolución: de Gauss Jordán, de la raíz cuadrada y del orlado.

6.2. SISTEMAS LINEALES

6.2.1. Concepto

Consideremos A e Knxm y la función

/ : Km ~>K"

definida por

/(X ) = AX (1)

donde X denota cualquier vector columna de Kw .Afirmamos que la asignación (1) caracteriza a / como una trasformación lineal de Km en

K” . En efecto:

1 ■ /(X + Y ) “ A ( X + Y ) = A X + A Y = /(X ) + f(Y ).

2. /(aX ) = A (aX) = a A X = o^X ).

Por consiguiente, toda matriz A e Knxm determina una trasformación lineal / : Km -> Krt definida p o r/(X ) = A X.

www.FreeLibros.com

Page 188: Algebra ii   armando rojo -

www.FreeLibros.com

182 SISTEMAS LINEALES

K"

Sea B e K " . La igualdad

AX) = B

o lo que es lo mismo

A X - B

recibe el nombre de sistema de ecuaciones lineales. La traducción de tal igualdad es

«11 «12 • ■ • «lm ' *1 ' bi«21 «22 • • • «2 m *2

=b-i

«/ti «n2 • • • «Jim X m bn .

Efectuando el producto y aplicando la definición de matrices iguales se obtiene la forma escalar del sistema de n ecuaciones lineales con m variables:

’ «11*1 + « 12*2 + •• • + a l mx m = b x

«2 1*1 +«2 2*2 + •• • +«2rn*m =¿2

«t¡l*l "^«n2*2 + • . • + «nm*m

La matriz A, cuyos elementos son los coeficientes de las variables del sistema, recibe el nombre de matriz del sistema. Los escalares que figuran en el segundo miembro se llaman términos independientes. La matriz de coeficientes ampliada con los términos independien­tes se denota mediante

A* = (A B)

www.FreeLibros.com

Page 189: Algebra ii   armando rojo -

www.FreeLibros.com

Conjunto solución del sistema lineal es la preimagen por / , de {B } C K ".

SISTEMAS LINEALES

0 sea, cada m-upla de elementos de K que satisface a todas las ecuaciones del sistema es una solución del mismo.

Entonces

a = (a i , <*2 , • • •, es una solución o a e f 1 | { B | )

Si la preimagen de B e Kn es el conjunto vacío diremos que el sistema lineal

A X = B (I)

es incompatible. Si el conjunto solución es no vacío, entonces se dice que el sistema es compatible.

Afirmamos que

A X = B tiene solución - » B e l(f)

y

A X = B es incompatible o B ¿ l ( f )

En particular, si B es el vector nulo de Kn, entonces

A X = 0 (II)

recibe el nombre de sistema lineal y homogéneo. En la forma escalar, los términos independientes son nulos.

Como 0 e Km satisface a (II), todo sistema lineal y homogéneo es compatible. El vector nulo de Km se llama solución trivial del sistema lineal y homogéneo.

Denotaremos con S al conjunto solución de (II). S es la preimagen p o r / d e OeK". En consecuencia, el conjunto solución del sistema homogéneo es el núcleo de / Resolver el sistema (II) es determinar el N(/). Por lo tanto, S es un subespacio de Km, llamado espacio solución del sistema lineal y homogéneo.

www.FreeLibros.com

Page 190: Algebra ii   armando rojo -

www.FreeLibros.com

SISTEMAS LINEALES

6.2.2. Rango de la matriz de coeficientes

Sea A e K nxm la matriz de coeficientes de un sistema lineal. Consideremos la trasformacion lineal

f : K m -+Kndefinida por

f(X ) = A X

Afirmamos que el rango de A es igual a la dimensión de la imagen de f. En efecto: la imagen d e / e s el espacio columna de A, pues

m = I /(X ) / X e Km ) = ( A X / X e K " * | -

í / ^ 1\ 1= j (Ai Á2 . . . Am) •2 J/Xj -eK con i = 1, 2___, m j =

■xm f II m t= j .X x tA ¡/ jr¡ e K J = SC(A)

Por consiguiente es

dim l(f) = dim SC(A) = p (A)

www.FreeLibros.com

Page 191: Algebra ii   armando rojo -

www.FreeLibros.com

rESPACIO SOLUCION 185

6 2.3. Dimensión del espacio solución de un sistema homogéneo

Consideremos el sistema lineal y homogéneo

A X = 0y sea S el espacio solución, es decir

s = mdonde f es la trasformación lineal a que nos hemos referido.

De acuerdo con 3.4. se verifica que

dim N(/) 4- dim \(f) = dim Km

En consecuencia

dim S + p (A) = m

O sea

dim S = m - p (A)

Luego, la dimensión del espacio solución de todo sistema lineal y homogéneo es igual al número de variables menos el rango de la matriz de coeficientes.

En particular, si p (A) = m, entonces es dim S = dim N(/) = 0. En consecuencia

Es decir, si el rango de la matriz de coeficientes de un sistema lineal y homogéneo es igual al número de variables, entonces dicho sistema admite como única solución la trivial.

Ejemplo 6-1

Interpretamos el siguiente sistema lineal en términos de una trasformación lineal y determinamos la dimensión de su imagen

2 * 1 - * 2 + * 3 + * 4 = 1

* 1 ~ * 2 - * 3 + 2 * 4 = 0

3*! - 2*2 + 3*4 = 1

La matriz del sistema lineal es

2 - 1

A = 1 - 1 - 1 2

3 - 2 0 3

El vector de los términos independientes es

www.FreeLibros.com

Page 192: Algebra ii   armando rojo -

www.FreeLibros.com

Definiendo la trasformación lineal/ : R4 R 3

¡ SISTEMAS LINEALES

medianteAX) = A X

el sistema lineal propuesto nos conduce a la determinación de la preimagen de

Para hallar dim 1(0 obtenemos el p (A) por el método de Gauss Jordán

2 1 1

® - 1 - 1 2

3 - 2 0 3

0 © 3 - 3

1 - 1 - 1 2

0 1 3 - 3

0 1 3 - 3

1 0 2 - 1

0.

0 0 0

Resulta dim 1(0 = p (A) - 2

Ejemplo 6-2Si consideramos el sistema homogéneo

2*1 - x 2 + *3 + *4 = 0

www.FreeLibros.com

Page 193: Algebra ii   armando rojo -

www.FreeLibros.com

entonces la trasformación lineal asociada es la misma del ejemplo anterior. Resolver el sistema homogéneo significa determinar el núcleo de / , cuya dimensión es

dim S = m - p (A) = 3 - 2 = 1

6.3. TEOREMA DE CRAMER

Si A e Kfix'1 es no singular y B e K " , entonces el sistema lineal A X = B admite solución única, y el valor de cada variable es el cociente entre el determinante que se obtiene al sustituir, en el determinante del sistema, la columna de coeficientes de la variable por la columna de los términos independientes, y el determinante del sistema.

Sea el sistema lineal

A X = B

Como A es no singular, premultiplicamos por su inversa

A-1 ( AX) = A‘ 1 BAsociando

(A-1 A) X = A-1 B

Luego

¡ IX = AM BEn consecuencia

X = A“1 B

es la única solución del sistema.De acuerdo con 5.3.5., como D (A ):/ : 0, las n columnas de A son linealmente

independientes y constituyen una base de K". Por consiguiente, cualquiera que sea B eK", existen escalares*!, x 2, . . . , x n, únicos, tales que

B = 2 x¡ A¡ í= i ' ‘

y por lo demostrado en el ejemplo 5-4 resulta

_ D(Aj A3 . . . B . . . A „ )A I ........ ““D(A)

para todo 7 = 1 , 2 , . . . , « , donde B es la columna de lugar /.Los sistemas de n ecuaciones con n variables se llaman cuadrados, y si el determinante de

la matriz de coeficientes es distinto de cero, entonces reciben el nombre de cramerianos.

Ejemplo 6-3

Resolvemos mediante el teorema de Cramer el siguiente sistema:

i X i “ -V 3 = — 1

I + 2 x 2 — 2 x 3 = — 1

2x, - x 2 + x 3 - 3

TEOREMA DE CRAMER 18^

www.FreeLibros.com

Page 194: Algebra ii   armando rojo -

www.FreeLibros.com

188 SISTEMAS LINEALES

La matriz de coeficientes es

y su inversa, determinada en el ejemplo 4-18, es

Como la solución es X = A 1 B, se tiene

1 / 1

_ 1 = - 1

3 0

6.4. COMPATIBILIDAD DE SISTEMAS LINEALES

6.4.1. Teorema de Rouche Frobenius o de Kronecker

Un sistema de ecuaciones lineales es compatible si y sólo si la matriz de coeficientes y la matriz ampliada con los términos independientes tienen igual rango.

Sea el sistema lineal A X = B, donde A eK"*™, X e K mxl y B e K íiXl, y sea A’ la matriz de coeficientes ampliada con la columna de los términos independientes.

El teorema afirma que

A X = B es compatible o p (A) = p (A’)

www.FreeLibros.com

Page 195: Algebra ii   armando rojo -

www.FreeLibros.com

TEOREMA DE ROUCHE 189

En efecto:

A X = B es compatible «■ 3 a e Kmx 1 / A a = B «•

I a i \

......... € K / (A j A 2 . . . A m )

4 > 3 % a 2 , . . . , a m e K / B = | i a ( A¡ «■

B es combinación lineal de las m columnas de A o

^ B e SC(A) o- p (A’) = p (A)

Por definición de sistema compatible, producto de matrices en forma particionada, definición de combinación lineal, definición de espacio columna de una matriz y de rango de una matriz.

Denotando con T el conjunto solución del sistema lineal A X = B, el teorema demostrado puede expresarse así:

T=¿ 0 < * p ( A) = p (A ’)

En consecuencia

T = 0 o p (A) ¥= p (A’)

0 sea, un sistema de ecuaciones lineales es incompatible si y sólo si los rangos de la matriz de coeficientes, y de la matriz ampliada con la columna de los términos independientes, son distintos.

6.4.2. Conjunto solución de un sistema lineal compatible

Sea A X = B un sistema lineal compatible, es decir, tal que p ( A ) = p (A ’), donde A e Knxm, X e Kmxl y B e K n x i . Se presentan las siguientes situaciones:

1. El rango de ambas matrices es igual al número de variables.

Si p (A) = p (A’) = m, entonces las m columnas de A son linealmente independientes y, en consecuencia, B es combinación lineal única de tales columnas. Esto significa que existen escalares , . . . , ccm e K, únicos, tales que

O sea, ot =

«i0i2

B = S tt/A ; i= i

es la única solución del sistema.

2. El rango de ambas matrices es menor que el número de variables.

www.FreeLibros.com

Page 196: Algebra ii   armando rojo -

www.FreeLibros.com

190 SISTEMAS LINEALES

Supongamos que p ( A ) = p (A ’) = r < m . Podemos suponer, sin pérdida de generalidad que las filas y columnas linealmente independientes de A son las r primeras. Las r variables asociadas a las columnas linealmente independientes se llaman principales, y las m-r restantes se llaman secundarias. Las m-r ecuaciones no principales son combinaciones lineales de las, primeras, y el sistema es equivalente a un sistema lineal de r ecuaciones con m variables Trasponiendo al segundo miembro de cada ecuación las m-r incógnitas secundarias, para cada sistema de valores asignados a éstas, se tiene un sistema lineal crameriano de r ecuaciones con r variables con solución única, ya que la matriz de coeficientes es no singular.

En este caso se dice que el sistema es indeterminado.

6.5. RESOLUCION DE SISTEMAS LINEALES

El método de Gauss Jordán permite no sólo la discusión del sistema en el sentido de decidir si es compatible o no, sino también la resolución efectiva de él en el caso de compatibilidad. Esto significa determinar el conjunto solución.

Esencialmente se basa en la determinación de los rangos de A y de A \ para lo cual se escribe a la derecha de la matriz A la columna formada con los términos independientes, y se opera de acuerdo con lo expuesto oportunamente.

Ejemplo 6-4

Discutimos y resolvemos por el método de Gauss Jordán el siguiente sistema:

*1 + X 2 + *3 = 22x , - x 2 - *3 = 1

+ 2x2 - *3 - — 3

® 1 1 22 - 1 - 1 11 2 - 1 - 3

1 1 1 20 - 3 - 3 - 30 © - 2 - 5

1 0 3 7

0 0 ( -) - 18

0 1 - 2 - 5

1 0 0 10 0 1 20 1 0 - 1

www.FreeLibros.com

Page 197: Algebra ii   armando rojo -

www.FreeLibros.com

RESOLUCION DE SISTEMAS 191

Desde el punto de vista geométrico, cada ecuación es la representación analítica de un plano, y la solución única caracteriza al vértice del triedro que forman dichos planos.

Ejemplo 6-5Verificamos que el siguiente sistema es incompatible:

í + x 2 - *3 = 1| - x 2 + 3x 3 - - 3I x t + X3 = 1

Investigamos para ello, los rangos de A y de A’:

© 1 - 1 1

1 - 1 3 — 3

1 0 1 1

1 1 - 1 1

0 - 2 4 — 4

00

2 0

1 0 1 1

0 0 0 ( r * )0 1 - 2 0

1 0 1 0

0 0 0 1

0 1 — 2 0

El único elemento que puede ser tomado como pivote es - 4 . Esto significa que el rango de A’ es 3, pero el rango de A es 2, y en consecuencia el sistema es incompatible. La última etapa es innecesaria y ha sido realizada para poner en evidencia los vecto­res canónicos.

Ejemplo 6-6Determinamos una base del espacio solución del sistema lineal y homogéneo

(A - X I) X - 0

para cada X tal queD (A - X I) = 0

siendo

y X e R3 x 1.

iwww.FreeLibros.com

Page 198: Algebra ii   armando rojo -

www.FreeLibros.com

192 SISTEMAS LINEALES

Resolvemos primero la ecuación D (A - X I) = 0, o sea

1 - X 1 1

0 2 — X 1

0 0 1 - X

= 0

Como la matriz es triangular, el determinante de la misma es el producto de los elementos de su diagonal

(1 -X )2 (2 — X) = 0Las raíces son

\ - X2 = 1 y X3 =21. Para \ = X = 1 se obtiene el sistema homogéneo

Es decir

O sea

0*! + x 2 + * 3 = 00*! + x 2 + * 3 = 0 0*1 + 0*2 + 0*3 = 0

V *! e R se verifica

*2 + * 3 = 0

* 2 ~ * 3

Las infinitas soluciones son las ternas del tipo

www.FreeLibros.com

Page 199: Algebra ii   armando rojo -

www.FreeLibros.com

RESOLUCION DE SISTEMAS

Una base del espacio solución está formada por los vectores

193

Al mismo resultado se llega utilizando el método de Gauss Jordán

0 © 1 00 1 00 0 0 0

0 1 1 00 0 0 00 0 0 0

Como p (A) = p (A’) = 1 y este valor es menor que el número de variables, el sistema tiene infinitas soluciones. La dimensión del espacio solución es

3 - p ( A ) = 2

Las dos primeras ecuaciones caracterizan un plano que pasa por el origen y que contiene al eje x x. La tercera ecuación se satisface para todo (* i , x 2, x 3) e R3, o sea, representa a R 3. La intersección de estos dos subespacios es el plano de ecuación*2 + *3 = 0-

Ejemplo 6-7

Considerando las matrices

l i 2

\0 *1 ^ \

A =4" ~4 2~ •> x= *2

-y 1 =*r l

3 3 i ¡ *3 \ i

resolvemos el sistema lineal

X* A = Xf

? f X = l

www.FreeLibros.com

Page 200: Algebra ii   armando rojo -

www.FreeLibros.com

SISTEMAS LINEALES

Efectuamos primero las operaciones matriciales

l . ( * l * 2 * 3)

i i «(*i X% * 3)

i * . + ^ a + f r , j x . + l

Por igualdad de matrices

* > + ' * 2 + J X 3 j x 2 + ^ X¡

■'*' + 4 Xi + J a:3 = * ,

i + ~ * 2 + T *3 =X2

I r 4 - 19 2 + - * 3 = * 3

Eliminamos los denominadores

Reduciendo términos

6x í + 3*2 + 4 * 3 = 12*1 6x t + 3 * 2 + 4*3 = 12.*2

3 * 2 + 2 * 3 = 6x 3

I 6*1 -3*2 - 4*3 =06*! - 9*2 + 4*3 = 0

( 3*2 - 4*3 = o

2* í* X = 1 => ( l ! ! ) / '~ 1 ^ * 1 + * 2 + * 3 = 1

Teniendo en cuenta 1. y 2 ., el sistema a resolver es

6*! - 3 * 2 - 4 * 3 = 0 6*, - 9*2 + 4*3 = o

3*2 - 4*3 = 0 *1 + *2 + * 3 = 1

(*1 *2 * 3)

www.FreeLibros.com

Page 201: Algebra ii   armando rojo -

www.FreeLibros.com

RESOLUCION DE SISTEMAS 195

Aplicamos Gauss Jordan

6 - 3 - 4 0

6 - 9 4 0

0 3 _ 4 0

© 1 1 1

0 - 9 - 1 0 - 6

0 - 15 - 2 - 60 © - 4 01 1 1 1

0 0 C 22) - 6

0 0 -"22 - 6

0 14

30

1 073

1

0 0 1311

0 0 0 0

0 1 0411

1 0 0 ±11

Se tiene: p (A) = p (A’) = 3 y la única solución es

( 4Xi ~ —11

4

La matriz A de este ejemplo es tal que sus elementos son no negativos y la suma de los elementos de cada fila vale 1. Esto significa que los vectores filas caracterizan una distribución discreta de probabilidades, y por tal motivo la matriz se llama estocástica.

www.FreeLibros.com

Page 202: Algebra ii   armando rojo -

www.FreeLibros.com

196 SISTEMAS LINEALES

El vector solución define también una distribución de probabilidades, llamada estacionaria. Este tipo de distribuciones se estudia en las cadenas finitas de Markov.

6.6. SISTEMAS HOMOGENEOS

6.6.1. Espacio solución de un sistema lineal y homogéneo

Dado el sistema lineal y homogéneo

A X = 0

donde A e K " xm, X e K mxl y O e K n x l , como p ( A ) ~ p ( A ’) = r , ocurre que tal sistema siempre es compatible, de acuerdo con 6.4.1.

En cuanto al espacio solución del mismo, son válidas las conclusiones obtenidas en 6.4.2., o sea

1 .r = m=> existe solución única => S = { 0 }

En este caso la única solución del sistema es la trivial.

2. r < m => el sistema es indeterminado.

6.6.2. Sistemas homogéneos cuadrados

Sea el sistema lineal y homogéneo

A X - 0

donde A e K " x", X e Knxl y O e K ”x l .

Propiedad

Un sistema lineal y homogéneo de n ecuaciones con n variables tiene solución única si y sólo si el determinante de la matriz de coeficientes es no nulo.

1. Si A X = 0, con A e K nx", tiene solución única, entonces es p (A) = n. En consecuen­cia, las n columnas de A son linealmente independientes, y de acuerdo con el ejercicio5-22 resulta D(A) =£ 0.

2. Supongamos que D (A) =£ 0. Según 5.3.5., las n columnas de A constituyen una base de K". Por lo tanto, 0 es combinación lineal única y trivial de tales vectores columnas.

Los teoremas contrarrecíprocos de 1. y 2. nos permiten afirmar que un sistema lineal y homogéneo de « ecuaciones con n variables es indeterminado si y sólo si el determinante de los coeficientes es nulo.

Ejemplo 6-8

Determinamos los espacios soluciones de los siguientes sistemas homogéneos y cuadrados:

www.FreeLibros.com

Page 203: Algebra ii   armando rojo -

www.FreeLibros.com

SISTEMAS HOMOGENEOS 197

i ) X ! - 2*2 + * 3 = 0

- * 2 + * 3 = 0

X i - 2*2 - 2*3 = 0

- 2 1 1 — 2 1D(A) = 0 - 1 1 - 0 - 1 1

1 — 2 - 2 0 0 - 3

= 3 * 0

Luego la única solución es

* i = *2 - * 3 = 0

S ~ { 0 |

Los tres planos forman un triedro cuyo vértice es el origen.

i i ) í * ! - x 2 + 3 x 3 = 0I Xt + X 2 - *3 = 0( *1 + *3 = 0

Como

1 - 1 3 1 - 1 3D(A) = 1 1 - 1 = 2 0 2

1 0 1 1 0 1

= 1 0, el sistema es indeterminado.

Lo resolvemos según Gauss Jordan

www.FreeLibros.com

Page 204: Algebra ii   armando rojo -

www.FreeLibros.com

198 SISTEMAS LINEALES

Se tiene:

/ * , + * 3 = 0i x 2 - 2*3 = 0

Despejando las variables principales

= - * 3 X2 = 2 *3

Las infinitas soluciones están dadas por

i Xi = - a

| x 2 = 2a[ * 3 = 0 V a e R

El espacio solución es la recta de ecuaciones

_ X j_ _ _X2_ _ _*3_- 1 2 1

O sea

S = { ( a, 2a, a ) / a e R í

Geométricamente, este sistema admite la siguiente interpretación: las ecuaciones corresponden a tres planos que pasan por el origen y forman un haz cuyo eje es el espacio solución, o sea, la recta mencionada.

6.7. CONJUNTO SOLUCION DE UN SISTEMA LINEAL

Sea T el conjunto solución del sistema lineal A X = B, y sea S el espacio solución del sistema lineal y homogéneo asociado. Si t es una solución particular del sistema A X = B, y t + S denota la suma de esa solución particular y todas las soluciones del sistema homogéneo asociado, entonces se verifica que

T ~ í + S

En efecto:

1. Consideremos cualquier solución u de A X ~ B, y sea t una solución particular de este sistema.

u e T A í e T = > A(w - t) = Au Af = B B = O =>

=>u - t eS=>u — t = s A.5eS=>u = í + s A s e S = > « e / + S

O sea

T C í + S (1)

2. Sean: t , una solución particular de AX = B, y s cualquier solución de A X = 0.

« = í + s e í + S=;’ AM = A(/ + s) = Aí + As = B + 0 = B =i' MeT.

www.FreeLibros.com

Page 205: Algebra ii   armando rojo -

www.FreeLibros.com

CONJUNTO SOLUCION 199

Luego

f + S C T (2)

D e ( l ) y ( 2 ) resulta

T = í + S

En consecuencia, toda solución de un sistema lineal es igual a una solución particular de dicho sistema, más una solución del sistema homogéneo asociado. En otras palabras, el conjunto solución de un sistema lineal es igual a la suma de una solución particular con todas las soluciones del sistema lineal y homogéneo correspondiente.

Ejemplo 6'9

Interpretamos geométricamente el significado del teorema anterior considerando el sistema lineal de una ecuación con dos variables

2*i - * 2 = 1

En este caso es A = (2 —1) y A’ = (2 -1 1). Ambas matrices tienen rango 1 y elsistema tiene infinitas soluciones.

El sistema homogéneo asociado es

2x j - * 2 = 0

y corresponde a una recta que pasa por el origen. Una solución particular del sistema dado es (1 ,1 ) = t. Sumando a t los vectores correspondientes a todos los puntos de la recta de ecuación 2 xx - x 2 ~ 0, se obtiene la recta T, paralela a S.

www.FreeLibros.com

Page 206: Algebra ii   armando rojo -

www.FreeLibros.com

200 SISTEMAS LINEALES

Ejemplo 6-10

Dado el sistema lineal

/ * j + X 2 + * 3 + * 4 + X5 = • 7J 3 * ! + 2 x 2 + * 3 + * 4 — 3 * 5 = - 2

| * 2 + 2 * 3 + 2 * 4 + 6 * 5 ~ 23 5*t + 4*2 + 3*3 + 3*4 — * 5 = 12

determinamos: el espacio solución del sistema homogéneo correspondiente, una base y la dimensión de éste, una solución particular y el conjunto solución de aquél.

® 1 1 1 1 0 73 2 1 1 - 3 0 - 20 1 2 2 6 0 235 4 3 3 _ 1 0 12

1 1 1 0 70 - — 2 - 2 - 6 0 - 2 30 0) 2 2 6 0 230 - - 2 — 2 - 6 0 - 2 3

1 0 - - 1 - 5 0 - 160 0 0 0 0 0 0

0 2 2 6 0 230 0 0 0 0 0 0

p (A) = p (A’) = 2 => el sistema dado tiene infinitas soluciones.

Resolvemos el sistema homogéneo, cuyo espacio solución tiene dimensión 3.

5 - p (A) = 5 —2 = 3

* j - *3 - * 4 - 5*5 = 0*2 + 2*3 4- 2*4 + 6*5 = 0

Trasponiendo las variables secundarias

*1 = *3 + * 4 + 5* 5*2 = - 2*3 — 2*4 — 6*s

El espacio solución está dado por

www.FreeLibros.com

Page 207: Algebra ii   armando rojo -

www.FreeLibros.com

CONJUNTO SOLUCION 201

= a + p + 5y* 2 = - 2a — 2/3 — 6-y * 3 = a* 4 =0* 5 = 7

cualesquiera que sean a, 0 y y e R. Luego

*1 1 / 1 5 1

*2 ~ 2 - 2 - 6

*3 = Oi 1 + 0 0 + 7 0

*4 0 1 0

X S ■ 1 0 0 1

Una base de S está formada por

1 \ ' 1 / 51- 2 - 2 - 6

1 , 0 y 00 1 00 0 , 1 /

Obtenemos una solución particular del sistema dado haciendo x 2 = *3 = *4 = 0

Luego, la solución general es

t =

- 16 23

000

/ - 16 ' / * 1'

523 _ 2 _ 2 - 6

0 + a 1 + 0 0 + 7 0

0 0 3 0

0 0 0 / 1 /

www.FreeLibros.com

Page 208: Algebra ii   armando rojo -

www.FreeLibros.com

O sea

202 SISTEMAS LINEALES

— 16 + a + 0 + 5y*2 = 23 - loe - 2)3 - 6y* 3 = 0:x 4 = p

* 5 = 7

6.8. RESOLUCION DE SISTEMAS SIMETRICOS POR EL METODO DE

LA RAIZ CUADRADA

EStomséL t o V terativos para, 13 resohidó" deconvergencia, y mediante Z l „ 1 - reqUleren el análisis *> cuestiones * que se desee. A diferencia de éstos los métodos8*0™ ? " 6'1 S° 1UC10nes con la aProximación ^ n e r o finito de operaciones aritméticas elementales.

A X - B ( i )

tal que A = A* en Knx", X e K ” x l , B e K nxi y a J=o Probaremos que existe una matriz triangular T tal que

A - T ' T (2)Proponiendo la forma escalar de (2), debe ser

1 h i ? 12

0

?22I t u

0

*1" h n t3n . . . tn n j o o . . . I

f 12

*2 2h n

h n«U « 2 1

a l 2

« 2 2

«1 n

« 2 n

«n 1 «.n 2 . . «,

Por igualdad de matrices, después de efectuar el producto indicado, resulta:

1. Considerando la primera fila:

í u = «S i / > 1, entonces

i « t , =>ru = V « u

t u t u = a ÍJ

www.FreeLibros.com

Page 209: Algebra ii   armando rojo -

www.FreeLibros.com

SISTEMAS SIMETRICOS 203

Luego

t ti =_ ÜL lALt\ i V«11

O sea, la primera fila de T se deduce de la de A de la siguiente manera: el primer elemento es la raíz cuadrada del primero de A, y los restantes se obtienen dividiéndolos por esta raíz cuadrada.

2. Considerando cualquier fila distinta de la primera, es decir, tal que / > 1, se tiene:

í-ii = i=>au = 2 tl¡= X í j , = r j + 2 tl ,* > tít

h - 1 h = l h = 1 ia-u — 2 t\¡ h= 1

n i i~i/ > i ^ a u = ^ thi t hj = ^ th¡ thj = tu tu + t hi h i

i'-laÜ - 2 h i thi /!= 1

La determinación de los elementos de la matriz triangular se realiza en una sola etapa y por filas sucesivas.

La traducción de las fórmulas obtenidas es la siguiente: todo elemento diagonal, a partir de la segunda fila, es igual a la raíz cuadrada de la diferencia entre el elemento ai¿ correspondiente y la suma de los cuadrados de los elementos de la misma columna de la matriz triangular. Todo elemento no diagonal t¿j es igual a ia diferencia entre ay y la suma de los productos, fila por fila, de los elementos de las columnas correspondientes, dividida por el elemento tu de la diagonal.

Retomando el propósito original, de (1) y (2) se deduce

Tf T X - B

Haciendo

TÍ K = B (3)

se determina el vector K, y considerando

T X = K (4)

conocido K, se obtiene X.La determinación de las componentes del vector K se efectúa de la misma manera que las

columnas de la matriz T. En efecto, considerando (3), es

o o

i ^ l b ' '112 ¿22 • • • 0 k-i = b 2

¡I t i t-in ■ ■ ■ t nn k n j b n 1,

de donde resulta, por producto e igualdad de matrices:

www.FreeLibros.com

Page 210: Algebra ii   armando rojo -

www.FreeLibros.com

204 SISTEMAS LINEALES

1. t i j Aj = b x, o sea

2 . i > \ ^ b i 2 th l k h - X t h i k h -n = I h = i

i -1

- í «A: f + S t h¡ k h => ki = h=i

bi ~ ^ {hi ^h /!= 1

Finalmente, obtenidos T y K en una única etapa, se resuelve fácilmente el sistema

Ejemplo 6-11

Resolvemos el siguiente sistema simétrico por el método de la raíz cuadrada:

Trasformamos, de acuerdo con el esquema propuesto, las filas de la matriz de coeficientes ampliada con la columna de los términos independientes:

2 2 02 5 - 1 - 82 - 1 33 4

1 2 2 00 1 - 5 - 80 0 2 - 18

En consecuencia:

triangular

T X = K

+ 2 x 2 + 2 x 3 = 0

x 2 - 5 x 3 = — 8 2x 3 = — 18

Luego

*3 = - 9 * 2 = - 5 3 x i = 124

www.FreeLibros.com

Page 211: Algebra ii   armando rojo -

www.FreeLibros.com

MET ODO DEL ORLADO 205

La solución es

/ 124

X = - 53

\ - 9

Las condiciones para que el método sea aplicable son: tu *0, \ / i = 1, 2, . . . ,n.

Ejemplo 6'12

Resolvemos por el mismo método

- + x 2 - 2x 3 = 2+ 3 * 3 = - 5

— 2x i + 3;c2 — 2x3 = - 1

No es necesario multiplicar la primera ecuación por - 1 para obtener elementos reales en T.

_ 1 - 2 20 3 - 5

- 2 3 _ 2 - 1

i - i 2 i - 2 i0 1 1 - 30 0 1 - 2

Entonces

x3 = - 2 x 2 = ~ 1 x , -

6.9. METODO DEL ORLADO

Este método, que es directo, permite obtener la inversa de una matriz no singular M e KnXfl. Particionamos M de acuerdo con el esquema

n = (n - 1) + 1para filas y para columnas, y se tiene

A BM = .C ann

donde A e K ^ '1 >x<n-‘ >, B e K (n l ) x l , C e K1 x(íi' 1 > y (ann) e K 1 X1.Suponemos conocida la inversa A”1 del primer bloque y proponemos, para la inversa de

M, el mismo esquema de partición.

www.FreeLibros.com

Page 212: Algebra ii   armando rojo -

www.FreeLibros.com

206 SISTEMAS LINEALES

X YM"1 =

donde an e K - ( 0 ) Considerando que

an

M M ' 1 =1se tiene

I N

N i ,

O sea

A X + BZ = I

a y +- 2 . = n

C X + ann Z = N

C Y + ^ 2 ^ iOi„

0 )

(2)

(3)

(4)

De (2)

Sustituimos (5) en (4):

Luego

De ( l )

Y = - ^ (S)

C A ' 1 B , aot„ u n

« »=«*« - C A ' 1 B (6)

A X - I - B Z = » X = A^1 - A”1 B Z (7) Teniendo en cuenta esta relación, (6) y (3), es

C (A 1 - A~! BZ) + ann Z = N

C A ' 1 — C A"1 B Z + ann Z = N

C ~(<*nn - a n) Z - b a nn 2 = N

C A 1 “ ann Z + an Z + ann Z = N

«n Z = - C A"1

www.FreeLibros.com

Page 213: Algebra ii   armando rojo -

www.FreeLibros.com

MET ODO DEL ORLADO 207

De (7) y (8)

- r a -1 Z = _ J'_A_ (8)

X - A ' 1 + A 1 B C A 1 (9)

Entonces

M"1 =

A-, , A"1 B C A '1 A + -------- ---------

a,

C A

dir,

A"1 B

Se trata de un caso particular de la inversion por partición estudiada en 4.18.Este método se utiliza para invertir matrices por orlados sucesivos, construyendo las

inversas de

( « i , ) , i “ 11 a i 2 ) , etcé' \ #21 fl22/

etcétera

Conociendo la inversa de A e Kín"1 )x(n-1 \ se calcula M*1 e Knxn, para lo cual es preciso obtener:

1.- A " 1 B

bn-1 ,n

2 . -- C A (cn i C,j2 • • • Cn,n -l)

bin I b lnb2n

3- 0tn = a nn - C A“1 B =ann + C ann + (an \ an2 ■ • ■ an,n-1 )

&n- l,M bn-l,n

an =an n + X an j bj}= i

www.FreeLibros.com

Page 214: Algebra ii   armando rojo -

www.FreeLibros.com

208 SISTEMAS LINEALES

También:

ann " C A 1 B ann + (cn> 1 C„2 . . . cn n ., )

I &ln«2 n

«n-l,n

n-I^nn ^ «in *'«< /= 1

4. Los elementos x¡j de la submatriz A 1 +

correspondientes elementos de A"1:

.> i bin Cni

-i . A '1 B C A ' 1son, llamando x \¡ a los

x ¡j = x ’ij + in ni ú i < n - \ , ] < n - \ Oí»

Además

' in

ni

El siguiente esquema denota una etapa del proceso;

Ejemplo 6-12

Calculamos la inversa de A por el método del orlado, siendo

www.FreeLibros.com

Page 215: Algebra ii   armando rojo -

www.FreeLibros.com

METODO DEL ORLADO

Siguiendo el esquema anterior, y aplicando las fórmulas desarrolladas, resulta:

209

- 1

12

- 1

2 - 1

1

_ 1

2M

1 2 - 22 - 1

- 2 5

3 5 114 14 14

5 1 314 14 14

1 3 5" 14 14 14

115

- A"1 B

- - C A"

M‘

Conocida M"1 es posible resolver sistemas del tipo

M X = K

donde M es no singular.

www.FreeLibros.com

Page 216: Algebra ii   armando rojo -

www.FreeLibros.com

TRABAJO PRACTICO VI

6-13. Sea f ‘ i>2^ una S a c i a n lineal caracterizada ^ ^ ^

( I J _ 2 J respecto de la base canónica en cada espacio Determinar I preimagen p o r/d e l vector ( - i i )

r ; r 7 “ do de ^ ^ —11 ¿ * 1 ' * 2 + 2 V , = 1 .1 3 2- i x + 3 y + z = 6

* i + * 2 + * 3 = 2 L /2x v , ) 3 x ~ 2 y ~ 8 z = 7¿ * 1 - * 2 + *3 = 5

El método de Gauss reducido consiste en t j f h ^ ^ = que / > / , y en unos los elementos a„, ™ ar “ °er OS los eIenren ‘os a¡,- tales

sistemas homogéneo™0" S° bre ” ^ eSPaC¡0 S° ludón de cada ™ ° de los s iguientes1- * ! + * 2 ~ * 3 =0

2. j 2 x l + x 2 - * 3 =()

X 1 + * 3 = 0

3. X1 + * 2 + * 3 ~ 0*1 — * 2 = 0

*2 + * 3 = 0

4 ‘ I X1 + * 2 + * 3 = 0

i 2*( + 2*2 + 2at3 = o

5* í = 0

' * 1 + * 2 - * 3 = 0

3 * 1 + 4 * 2 =: Q

5* 1 + * 2 + * 3 = 0

anterior, en los c z s o X Z ^ ó T p o Z L ™ ^ U" ° ^ ‘“ C3SOS deI ejerci“ °

siguientes casos"810" V “na b3Se d d eSpaCio soIución *°bre C en cada uno de los

u l ‘ x + y - z = 0 , l í l + 1| , > +z = o 1 ( I + 0 * - , , + * = o

I ¿x + ¡ y ^ z = 0

www.FreeLibros.com

Page 217: Algebra ii   armando rojo -

www.FreeLibros.com

TRABAJO PRACTICO VI 211

¿./8: En el anillo de las clases de restos módulo 3, determinar una base del espacio solución de! sistema _

X i + * 2 + * 3 = 0

X i + 2 * 2 = 0

6-19. Discutir y hallar el conjunto solución de

X i + 2x:2 = — 5

3*1 + *2 = - 5

i 2 x t + 3 * 2 = - 8

6-20. Resolver por el método de Cramer el sistema del ejercicio 6-14. 1.

6-21. Resolver el sistema homogéneo Xí (A — I) = 0, donde X e R y

1 i2 2

1 A. 3 3

6-22. Obtener el conjunto solución del sistema

f 3*i + 2 s 2 + * 4 = 0

*1 + 2*2 + *3 = 1

5*! + 6*2 + 2*3 + * 4 = 2

6-23. Determinar si existe X e R 3x3 tal que X A = B, siendo

/ 2 4 6 \ / 3 5

A = - 1 2 3 B = - 2 3

\ 1 - 1 1 / \ 3 2 3

6-24. Discutir y hallar los conjuntos soluciones de los siguientes sistemas:

1. ( * 1 — 2 * 2 + * 3 — * 4 — * 5 = 2

2 * ! + * 2 ~ * 3 - * 5 = 4

4*i - 3*2 + * 3 2 * 4 - 3*5 = 1

2 . *1 + *2 3*3 = - 1

2 x t + *2 - 2*3 = 1

*J + *2 + *3 = 3* 1 + 2 * 2 — 3 * 3 = 1

www.FreeLibros.com

Page 218: Algebra ii   armando rojo -

www.FreeLibros.com

212 SISTEMAS LINEALES

3. x x + x 2 - 3 x 3 - x s = 0

*1 - *2 + *3 - *4 = 0

T x i + 2 * 3 - x 4 - * 5 = 0

2*i — *4 — *5 = 0

6-25. En el caso de compatibilidad, obtener el conjunto solución del sistema

*1 + * 2 + 2*3 = — 1

2*i - * 2 + 2*3 = — 4

4* i + * 2 + 6x3 - — 6

en términos de una solución particular y del espacio solución del sistema homogéneo asociado.

6-26. Siendo

- 3 0 - 4

A = 4 4

2 0 3

obtener X tal que D(A - XI) = 0. Después resolver el sistema (A - XI) X = 0 para cada valor de X.

6-27 Determinar para qué valores de k el siguiente sistema tiene soluciones distintas de la trivial:

* + (& + l)_y + z = 0

* + y ± { k + 1)2 = 0

( £ + 1 ) * + y + z = 0

En cada caso, estudiar el espacio solución, e interpretar geométricamente.

6'28. Determinar la inversa de M por el método del orlado, siendo

/ I 1 - 1

M = 1 - 1

1 1&29. Resolver el sistema X*A ~ x \ siendo

n 1

www.FreeLibros.com

Page 219: Algebra ii   armando rojo -

www.FreeLibros.com

TRABAJO PRACTICO V 213

6-30. Obtener todas las soluciones de

+ ¿>1 y + ci 2 - 0a2 x + b2 y + c2 z = 0

sabiendo que

b i

b2Ci

c-i=£0

6-31. Discutir el siguiente sistema según los valores de a:

a x - y + 2z = 1 + a

x + a y - z = — 1

3* + y + z = a

6-32. Estudiar el sistema

2x - a y + z = ~ 2 a + 5

* + y - a z = 1 4x + y - az = a

para los distintos valores de a

6-33. Discutir la compatibilidad de

axi + bx2 + * 3 ~ a + b

b x 1 + a x2 + + x 4 =a - b

x 2 + bx 3 + ax 4 = a + 1

Xi + o x 3 + bx4 = 0 - 1

6-34 Determinar el sistema lineal cuyo espacio solución admita la base

¡ ( 3 , - 2 , 8 ) , ( 4 , - 1 1 , 7 ) }

6-35. Probar que el sistemabx + ay ~ c

ex + az = b

cy + bz = a

tiene solución única si abe =£ 0. Hallar la solución.

6-36. Resolver por el método de la raíz cuadrada

- x x + x 2 + 2 x3 = 7

X i — 2x3 = — 5

2 x t — 2 x 2 + x 3 = 1

www.FreeLibros.com

Page 220: Algebra ii   armando rojo -

www.FreeLibros.com

Capítulo 7

PRODUCTO INTERIOR EN ESPACIOS VECTORIALES GEOMETRIA VECTORIAL.

7.1. INTRODUCCION

En este capítulo introducimos, sobre la base de un producto interior, el concepto de métrica en un espacio vectorial real. Se estudian temas relativos a distancias, longitudes, ortogonalidad y ángulos entre vectores. Se desarrolla el procedimiento de Gram-Schmidt para la construcción de bases ortonormales en espacios de dimensión finita. Después de dar una idea del espacio afín R", se tratan algunos temas básicos de geometría: rectas, planos, superficies y curvas elementales.

7.2. ESPACIO VECTORIAL EUCLIDIANO

Sea (V, + , R , .) un espacio vectorial sobre el cuerpo de los números reales.

7.2.1. Producto interior

El símbolo < x , y ) se lee: producto interior entre los vectores x e y .

Definición

Producto interior en V, es toda función

<, > : V2 R

que satisface las condiciones de simetría, de linealidad respecto del primer argumento y de definida positiva:

i ) < x , y > = < y , x > cualesquiera que sean x e y en V.

i i ) ( x + y , z } = ( x , z > + < y , z > cualesquiera que sean x, y y z en V.

i i i ) < a x , y > = a < x , y ) V x e V , V y e V , V a e R.

iv) < x , x > > 0 V x e V

( x , x >= 0 x = 0

www.FreeLibros.com

Page 221: Algebra ii   armando rojo -

www.FreeLibros.com

ESPACIO VECTORIAL EUCLIDIANO 215

Todo producto interior en un espacio vectorial real asigna a cada par de vectores un único escalar real.

Espacio euclidiano es todo espacio vectorial real con producto interior.La adjunción de un producto interior a un espacio vectorial permite establecer una

métrica en él; o sea, los conceptos de distancia entre pares de vectores, módulo de un vector, ortogonalidad y ángulo entre dos vectores. Estas nociones no son intrínsecas al espacio vectorial, sino que dependen del producto interior que en él se considere. O sea, dos vectores de un espacio,ortogonales con un producto interior, pueden perder este carácter si se define otro producto interior.

Ejemplo 7-1

En (R", + , R> ■), la función

<, >: R" X R" -+ R

definida por

< X, Y> = X*Y (1)

donde

*1x 2 y 2

X ~ Y =

Xn yn ,es un producto interior. Para probar esta afirmación verificamos los axiomas de la definición.

i ) < X , Y > = XÍ Y = (X£Y)Í = YÍ X = < Y , X )

Por (1), por ser X*Y un escalar, por traspuesta de un producto y por (1).

ü ) < X + Y , Z > = ( X + Y)í Z = (Xí + Y í) Z = X í Z + Y f Z = < X , Z ) + ( Y , Z )

Por (1), traspuesta de la suma, distributividad y (1).

iii) < a X , Y > = (ex X y Y = a X* Y = a < X , Y )

Por (1), traspuesta de un escalar por una matriz y (1).

i v ) <X, X> = Xí X = £ x j > Oí=i

Por (1), producto de matrices y suma de números reales no negativos.Además

n( X , X > = 0 « 2 x j = Q*>Xí = 0 , Vi <*X = 0 ;=i * '

La definición (1) caracteriza un producto interior en R ” , llamado también producto interior usual. Efectuando la operación indicada en (1) es

www.FreeLibros.com

Page 222: Algebra ii   armando rojo -

www.FreeLibros.com

216 PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

< X , Y ) = g 1 x i y i

0 sea, el producto interior de dos n*uplas de números reales es igual a la suma de los productos de las componentes correspondientes.En el caso n = 2 esta definición se traduce en

<X ,¥ > = * ! y i + * 2 y 2

Ejemplo 7-2.

Consideremos (R2, + , R, •) y la matriz A =| * ^

La función

( , ) : R 2 X R Í ->Rtal que

< X , Y > = X ( A Y (1) es un producto interior. En efecto

1 ) < X , Y ) = XÍ A Y - ( X Í A Y ) Í = Y Í AÍ X = YÍ A X = <Y, X>

Por (1), por ser Xf A Y un escalar, por traspuesta de un producto, por ser A* = A y por

i i ) ( X + Y , Z > = ( X + Y) ( A Z = ( Xf + Yf) A Z = X Í A Z + Y Í A Z = ( X , Z > + ( Y , Z>

iii) ( a X , Y ) = (a X)* A Y = a X( A Y = a < X , Y >

i v ) < X , X > = X ' A X = ( * , * 2) | j ~ s ) ( * j = <*

“ (*! — 2x2) * ( + (—2*! + 5* 2) *2 ~ x \ — 4 * 1 X 2 + 5*2 =

= x \ - 4 * ! *2 + 4*1 + * ! = (*! - 2 * 2 )2 + * i > 0

Además

(X , X > ~ O ( * j - 2 * 2)2 + * ¡ = 0<*

<**! - 2 * 2 = 0 a * 2 = 0 ^*>xx = * 2 = 0<>X = 0

Ejemplo 7-3.

Sea C [ - 1 , 1 ] el conjunto de las funciones reales continuas definidas en el intervalo cerrado de extremos - 1 y 1.El lector puede verificar, considerando el espacio vectorial

(C [—1 , 1 ], + , R , .)

1 2*2 - 2x¡ + 5* 2) ,x 2

www.FreeLibros.com

Page 223: Algebra ii   armando rojo -

www.FreeLibros.com

que la función definida por

< f , g > = / j f (*) g (x) dx

caracteriza un producto interior en dicho espacio. Para ello es suficiente probar que se cumplen los axiomas de la definición teniendo en cuenta propiedades elementales de la integral definida.

7.2.2. Producto interior de dos combinaciones lineales

Sea (V, + , R , .) un espacio con producto interior, y sean las combinaciones linealesn m

x " ü a ''x¡ y =jS [ y>

donde

c t i J j e K y x ¡ , y ; e V

De acuerdo con los axiomas de la definición, se tienen m

< x , y > = (.2 ctt x¡ ,.2 fy y¡ ) =

n m n m= .2 < ot¡ x f ,.2 § y¿ > = 2 a¡ <x ¿ ,5 ^ fy y ¡ )-

n m n m

= lS 1 y> ’ X i ) " d i “ v?! < yy > xi > =n m

= ( xí »y/ >

Hemos aplicado sucesivamente: ii), iii), i), ii), iii), propiedades de la sumatoria e i).En particular es

< a x + y , « x + y ) = a 2 < x , x ) + a ( x , y ) + a < y , x > +

+ ( y , y > = a 2 ( x , x ) + 2 a < x , y ) + < y , y >

7.2.3. Propiedad

En todo espacio con producto interior, el producto interior de cualquier vector y el vector nulo es cero.

En efecto, por ser 0 neutro para la suma en R, por el axioma A3 de espacio vectorial y por el axioma de linealidad del producto interior, se tiene

0 + ( 0 >x ) = ( 0 , x ) = <0 + 0 , x ) ~

= < 0 , x > + < 0 , x >

Por ley cancelativa en (R, + ) resulta

0 = < 0 , x >

PRODUCTO INTERIOR 217

www.FreeLibros.com

Page 224: Algebra ii   armando rojo -

www.FreeLibros.com

218 PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

Luego

< x , 0 > = < 0 , x > = 0

7.2.4. Módulo o longitud de un vector

Definición

Módulo de un vector en un espacio con producto interior es la raíz cuadrada no negativa del producto interior de dicho vector por sí mismo.

El símbolo llxli se lee: módulo o longitud de x.De acuerdo con la definición es

II XÍI = V <x ,x>

En R2, con la definición dada en el ejemplo 7-1, si x = (3,4), entonces

11x11 = \/3 2_+ 4 2 = \ ¡ 2 S = 5

Al módulo de x se lo llama también norma de x.Se verifica que el cuadrado del módulo de todo vector es igual al producto interior de

dicho vector consigo mismo, es decir

11 x II2 = < X , x >

Definición

Distancia entre dos vectores x e y, en un espacio con producto interior, es el módulo de su diferencia.

d (x, y) = II x y II

www.FreeLibros.com

Page 225: Algebra ii   armando rojo -

www.FreeLibros.com

M ODULO219

El lector puede comprobar que esta definición satisface los axiomas de la función distancia.

7 2 5. Módulo del producto entre un escalar y un vector

En todo espacio con producto interior, el módulo del producto entre un escalar y un vector es igual al valor absoluto del escalar por el módulo del vector.

il a x l l = I a l II x l l

En efecto:

O sea

a x i l 2 = ( a x , a x > = a 2 < x , x > =

= l a i 2 I I x i ! 2 = ( l a l I ! x l l ) 2

llaxí!2 = ( l a l II xll)2

Y como las bases son no negativas resulta

II axi l = lal IIxll

El producto de un vector no nulo por el recíproco de su módulo, o lo que es lo mismo, el cociente entre un vector no nulo y su módulo, es un vector de módulo 1.

XEn efecto, sea x ¥= 0. Considerando — se verifica

II xll

X 1 1l l x l l = —— X

II x l l I l x l l I l x l l ti X 1x l l = l

Si x - ( 1 , —1 , \ / 2 ), entonces es, con el producto interior usual,

y resulta

■ - \ / l M - ( - l ) 2 + ( n/2)2 = 2

= [.L V ?Ilxll \2 ’ 2 ’ 2

un vector de módulo 1, llamado vector unitario

7.3. ORTOGONAUDAD

Sea (V, + , R , .) un espacio vectorial con producto interior.

Definición

Dos vectores son ortogonales si y sólo si su producto interior es nulo.

El símbolo x i y se lee: x es ortogonal a y.Entonces

x l y « * < x , y ) = 0

www.FreeLibros.com

Page 226: Algebra ii   armando rojo -

www.FreeLibros.com

220 PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

Ejemplo 74.

1. En R2, con el producto interior usual, los vectores

x = (—2 , 3) e y = (—3 , —2)

son ortogonales, pues

< x , y > = ( - 2 ) ( —3) + 3 (—2) = 0

2. Determinamos a € R para que los vectores

x = ( - 3 a , - 4 , 1) e y = (-a , a, 1)

sean ortogonales, con el producto interior habitual.De acuerdo con la condición de ortogonalidad, hay que determinar a de modo que

< x , y > = 0

O sea

( - 3 a) ( -a ) + ( - 4 ) a + 1 . 1 = 0

3 a 2 - 4 a + 1 = 0

www.FreeLibros.com

Page 227: Algebra ii   armando rojo -

www.FreeLibros.com

ORTOGONALIDAD 221

Las raíces son:

Los pares de vectores de R 3 que satisfacen la condición son

x ^ C - 3 , - 4 , 1 ) e y ' = ( - l , 1,1)

x” = ( - l , - 4 , l ) e y ” = ( - 1 , 1 , 1 )

Ejemplo 7-5

Demostramos el teorema de Pitágoras: si x e y son dos vectores ortogonales, entonces

llx + yll2 = Ibdl2 + II yII2

En efecto:

llx + yíl2 = < x + y , x + y > = < x , x ) + ( x , y > +

+ < y , x ) + < y , y ) = II x lt2 + 0 + 0 + II y II2 =

= llxll2 + II y II2

Ejemplo 7-6.

En el espacio vectorial de los polinomios reales de grado menor o igual que 2 y el polinomio nulo, donde el producto interior se define como en el ejemplo 7-3, los polinomios

y/2 s / í—— y -^7=*

2 s f l

son ortogonales, pues

www.FreeLibros.com

Page 228: Algebra ii   armando rojo -

www.FreeLibros.com

222 PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

= 0

7.4. DESIGUALDAD DE SCHWARZ

En todo espacio vectorial euclidiano, el valor absoluto del producto interior de dos vectores cualesquiera es menor o igual que el producto de los módulos de dichos vectores.

Demostraremos que

í <x ,y > l < llxll IIyII

cualesquiera que sean x e y en V, donde está definido un producto interior.Se presentan dos situaciones:1. y = 0.

En este caso, de acuerdo con 7.2.3., se verifica que

( x , y > = 0 y II y II = 0Luego

I<x , y > 1= llxll IIyIIEn consecuencia

K x ,y > K llxll II y II

2 . y ^ 0 .

Cualesquiera que sean t y u en R, por el axioma iv) de la definición de producto interior es *

( t x + u y , t x + u y )>0 Desarrollando el primer miembro

t2 ( x , x ) + 2 t u ( x , y ) + u 2 ( y , y )> 0Haciendo

t = ( y , y ) y w = - < x , y >se tiene

( < y , y > ) 2 < x , x > - 2 < y , y > ( < x , y > ) 2 + ( < x , y > )2 <y , y > > 0Por definición de módulo y reducción de términos

llyff4 l l x l l 2 - IIyII2 ( < x , y > ) 2 > 0

Dividiendo por II y II2 , que es no nulo, resulta

IIyII2 Hxll2 - ( < x , y > ) 2 > 0

Teniendo en cuenta que el cuadrado de un número rea! es igual al cuadrado de su valor absoluto, y trasponiendo términos

II y II2 II x II2 > l < x , y > P

2, y/3 x 2x d x = -i-------

2 2

www.FreeLibros.com

Page 229: Algebra ii   armando rojo -

www.FreeLibros.com

DESIGUALDAD DE SCHWARZ 223

O seaI < x , y > I2 < ( II x 11 II y II )2

Y, como las bases son no negativas, resulta

I < x , y > K II x II II y II

7.5. DESIGUALDAD TRIANGULAR

En todo espacio con producto interior, el módulo de la suma de dos vectores cualesquiera es menor o igual que la suma de sus módulos,

probaremos queHx + y lK 11x11+ II y II

En efecto, por definición de módulo y de producto interior es

| l x + y l l 2 ~ < x + y , x + y> = < x , x > + 2 < x , y > + < y , y > (1)

Teniendo en cuenta la desigualdad de Schwarz y propiedades del valor absoluto en R, se verifica

- Ilxll l l y l l < ( x , y X llxll llyll

Luego

D e ( l ) y ( 2 ) resulta

O sea

En consecuencia

2 ( x , y > < 2 l l x l l l l y l l ( 2 )

11 x + y II2 < II x II2 + 2 II x II 11 y II + II y II2

l l x + y l l 2 < ( 1 1 x 1 1 + l l y l l ) 2

II x + y l l < II x l l + II y l l

7.6. ANGULO DE DOS VECTORES

Sean x e y dos vectores no nulos en un espacio con producto interior. De ia desigualdad de Schwarz

l < x , y > l < l l x l l l l y l l

se deduce que- l l x l l H y l K < x , y > < l l x l l l l y l l

Dividiendo por el producto de los módulos de x e y , que es positivo, se tiene

< x , y > ^

www.FreeLibros.com

Page 230: Algebra ii   armando rojo -

www.FreeLibros.com

224 PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

Definición

Angulo de dos vectores no nulos x e y es el número real y? que satisface:

1. 0 < í p <7 T

2 . 0 8 * =llxll IIyII

De la relación 2. se deduce la siguiente expresión del producto interior en función del ángulo de los vectores y de los módulos de éstos:

<x ,y> = llxll IIyííeos v?

Ejemplo 7-7.

Los vectores x e y forman un ángulo de 60° y el módulo de x es 3. Determinamos el módulo de y para que y — x sea ortogonal a x.

y - x

Hay que determinar II y II de modo que

O sea

Luego

En consecuencia

Por ley cancelativa del producto

Resulta

De donde

y - x 1 x

< y - x , x > = O

< y , x ) - < x , x > = 0

y il II x II eos II x l l 2 = O

II y II eos <¿>= II x l l

II y II.— = 3 2

www.FreeLibros.com

Page 231: Algebra ii   armando rojo -

www.FreeLibros.com

BASE ORTONORMAL 225

7.7.1. DefiniciónUn conjunto de vectores | X i, x2, . . xr } en un espacio con producto interior es ortogonal si y sólo si dos vectores cualesquiera y distintos son ortogonales.

{Xi , x 2, . . . , xr } es un conjunto ortogonal •»• / #/ => < x f , x;- > = 0

7.7.2. Propiedad

Todo conjunto ortogonal de vectores, al que no pertenece el vector nulo, es linealmente independiente.

Sea I Xj, x 2, • • xr | un conjunto ortogonal tal que x¿ =£ 0 , Vi - 1, 2 , . . y sea la combinación lineal

r2 a¡ x, = 0

i =i 1 3Para cada / = 1, 2 , . . ., r consideramos

< .2^ oi j X j , x ¡ ) - < 0 , x ¿ ) = 0

Entoncesr

.2^ a.j < X j , x¿ > = 0

Como i=£j => ( X j , x¡ > = 0, la sumatoria se reduce a un único término que se obtiene si / = o sea

a¿ < Xf, x ¡ ) = 0

Siendo x¡ # 0 resulta < x ¡ , x ¿) # 0, y en consecuencia

a ¡ ~ 0 V i= 1,2,

Luego

¡ x , , x 2, . . . , x r } esL.I.

7.8. BASE ORTONORMAL

7.8.1. Concepto

Sea (V, + , R , .) un espacio con producto interior y sea A = { X j, x 2, . . . , x„ } una base del mismo.

DefiniciónDiremos que A es una base ortonormal si y sólo si A es un conjunto ortogonal de vectores de módulo 1.

7.7. CONJUNTO ORTOGONAL DE VECTORES

www.FreeLibros.com

Page 232: Algebra ii   armando rojo -

www.FreeLibros.com

A es ortonormal o A es ortogonal y II x< II = 1 , Vi = 1, 2 ,. . n

Una base ortonormal es tal quei =£; =*■ < x ¡ , xj > = 0

i e I„ < x ¡ , x¡ > = 1

En consecuencia, integrando estas dos expresiones en una sola, se tiene

A es una base ortonormal o ( x ¡ , X j ) = 5y

Ejemplo 7-8.• En R ", con el producto interior usual, la base canónica j e l t e2, . . . , e „ ) es ortonormal.

• En R 2, con el mismo producto interior, la base formada por*

('■ ^

es ortonormal, pues

226 PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

X* T T “ 7 X2 = \ 2 - 2

< X ! , X * > = < X 2 , X 2 > = 1

íx* , X 2 > = 0

7.8.2. Ortonormalización de una base

Todo espacio euclidiano de dimensión finita admite una base ortonormal.

Nos proponemos obtener, a partir de una base cualquiera { X i, x2, . . . , xn } una base ortonormal. En efecto:

1 _ Xl o por ser un vector de la base dada. En consecuencia

II X ! II =£0

El vectorX l

y i = 7 7ItXj II

de acuerdo con 7.2.5., es unitario.

2. Supongamos que | y , , y2 , . . yfe ¡ es un conjunto ortonormal. Se trata de obtener yfc+i tal que

{ y i . y a . - - - . y*+i )

sea ortonormal.Consideramos el vector

kzft + i = xft + i - 2 ( x¡¡ 4.1 j y ¡ ) y /

www.FreeLibros.com

Page 233: Algebra ii   armando rojo -

www.FreeLibros.com

Se verifica que z„ + 1 es ortogonal a y , , V/ = 1, 2 , . . k.

En efecto k( zfe+i > y i ^ = + i ^Xft+1 > y¿ ’ y/

k= <xfe+i ,yy> - S ^ X f e + i ,yf><yi,yy> =

k~ < Xft + i , y j > — <xfe + 1 , y,-) =

= <xh + i ,y/>-<Xft + i ,y,->- 1 = 0

Definiendo

BASE ORTONORMAL 227

Se deduce que II y& + 1 II “ 1 > y en consecuencia

(yi , y2 »---.yfc+i|

es un conjunto ortonormal.Este proceso, llamado de Gram-Schmidt, nos permite construir una base ortonormal a

partir de una base dada.

Ejemplo 7-9En (R2, + , R, •) se considera la base formada por

x, =(1, 1) xa =(-1,2 )Construimos una base ortonormal siguiendo el procedimiento desarrollado en el

teorema anterior.

www.FreeLibros.com

Page 234: Algebra ii   armando rojo -

www.FreeLibros.com

228 PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

M - i ^

-H-í)La base f y , , y2 | es ortonormal.

Ejemplo 7-10

r r grado , , n . , .) se aeiine un producto interior mediante

<P’ Q>=/ ! p W Q W *

Gram-SchmidlJ ’ ’ *' C°m ,ruin,0s una base «rtonormal mediante el proceso de

1.

2 .

x i« í = » m 2 = < i >i > = ^ i . i d * = *

■ II í l i - V T

* i ___ 1 = V2^_Xi II V 2 2

z2 = x 2 - < x a , y, >yi

= 2

-i

y i

Como <x2 ,y , >=<x , X Í ) = 22 '

1 v T * dx V T= 0 ,

resulta

Además

Entonces

Z2

' Z2 11 ' “ <Z2 ,Z2 ) = ( X ' X > = j 1 2 dx =

x 3 l 1 2

3 J - i 3

www.FreeLibros.com

Page 235: Algebra ii   armando rojo -

www.FreeLibros.com

COMPLEMENTO ORTOGONAL 229

Luego

3.

V = z2 - V 3 -,Il z2 ti V 2

= x 3 - . s < * 3 , y ¡ > y ¡ =>Z3

= > z 3 = x 3 ' < x 3 , y i > y i - < x 3 , y 2 > y 2 ( i )

v - í l ^ v 2 Wv =( x 3 ,yi > ~ l i 2 6

i \/3

-i

De (1 ) re su lta

3 3 2 3

Como

II z3 f ^ < Z 3 , Z3 > ^ 1 | * 2 ~ j j 2 ífe =

= P (x4 + i ) í & =— -- - X 3 + i x l ^J_i 3 9 5 9 9 J~i

1 + 1 = ^ - - - = —5 9 9 5 9 45

resulta

1 , 1 43 > / r

Y en consecuencia

Z3y3 ~II z3

= 2 ^ / 2 _ i ) = 3^ / 2 _ i ) 2 y / l l 3 / 4 \ 3 /

La base

es ortononnal.

V f 3Vio / 2 12 ’ s/2 ’ 4

7.9. COMPLEMENTO ORTOGONAL

7.9.1. Complemento ortogonal de un subespacio

Sea (V, + , R , .) un espacio con producto interior, y sea S un subespacio de V.

www.FreeLibros.com

Page 236: Algebra ii   armando rojo -

www.FreeLibros.com

230 PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

Definición

Complemento ortogonal del subespacio S de V, es el conjunto de los vectores de V que son ortogonales a todos los vectores de S.

El símbolo S1 se lee: complemento ortogonal de S.

S1 = j x e V / x l y , V y e S Í

Ejemplo 7-11

En R 3, con el producto interior ordinario, si

S = { (0, 0 , x 3) / * 3 e R |

entonces el complemento ortogonal de S es

S1 ~ f (* lf x 2, * 3) 6 R 3 / * 3 = o )

7.9.2. Propiedad

El complemento ortogonal del subespacio S de (V, + , R , .) es un subespacio de V.

Debemos probar que S1 es un subconjunto no vacío de V, cerrado para la suma y para el producto por escalares.

1. S1 C V por definición de S1.

2 . y e S = > < 0 , y > = O ^ O e S 1 =>Si v¿(/>

S . x e S 1 a y e S1 => <x , z> = 0 A ( y , z > = 0, Vz e S =>

=>< x , z ) + <y , z > = 0 , V z e S ^

^ ( x + y , z ) = 0 , V z e S =>x + y e S i

www.FreeLibros.com

Page 237: Algebra ii   armando rojo -

www.FreeLibros.com

4 . a e R A x e S Í ! ^ « e R A ( x , y > = 0 , V y e S = >

= » < a x , y > = : 0 , V y e S = >,o : x e S i

Por consiguiente

(S1, + , R, .) es un subespacio de V.

9.7.3. Propiedad

Si V es un espacio euclidiano de dimensión finita y si S es un subespacio de dimensión r, entonces la dimensión del complemento ortogonal de S es n -r .

Se trata de probar que

dim S + dim S1 = dim V

En efecto:Si S = {0 } o S = V, la propiedad es obvia. Consideremos, pues, el caso en que S { 0 1 y

S ¥= V, y sea

\ X i , X 2 , . . . , x r )

una base ortonormal de S.Entonces existen vectores xr + 1, xr +2 , . • ., x„, tales que

( X ! , X 2 -------- , X r , X r + l , . . , , X n l

es una base ortonormal de V.Afirmamos que

( X r + i , X r + 2 » • • •> X n }

es una base ortonormal de S1.Para ello es suficiente probar que este conjunto es un sistema de generadores de S1. Sea

entonces un vector cualquiera u e S1.n

u e S i => u e V =* 3 a > , a 2, . . . , o¡M e R / u = 2 a,- x,-í=i

Como u es ortogonal a todos los vectores de S, considerando el producto interior entre u y x ¡ , i = 1, 2 , . . r, resulta

n n0 = < u , x¡ > =.2^ (oi jXj , x,- > =.2^ oí¡ 5y = a ¿

O sean

u = . 2 a¡x¡i = r + 1

Esto prueba que

i X r + i , Xr+2, ■ ■ ■) X n }

es un sistema de generadores de S1.

COMPLEMENTO ORTOGONAL 231

www.FreeLibros.com

Page 238: Algebra ii   armando rojo -

www.FreeLibros.com

232PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

como estos vectores son ortogonales y de módulo 1, constituyen una base ortonormal de

S1 , y se tien e

O sea

dim S1 = n - r

sumadim S + dim S1 — dim V

El lector puede comprobar, como consecuencia de esta propiedad, que V es la directa de S y de su complemento ortogonal.

7.10. PROYECCION DE UN VECTOR SOBRE OTRO

Sean x e y dos vectores de un espacio con producto interior, e y * 0. Entonces existe un

uex - a y l y

escalar a, tal que

En efecto< x - f l y , y > = 0 = * < x , y > — a < y , y > - 0

( x , y >=>a =

<y >y >

El vector_ <x ,y > _ < x , y > X -

“y < y ,y>y_ «y» «ylse llama p ro y e c c ió n o r to g o n a l de x so b re y .

Identificaremos la proyección ortogonal de x sobre y con el numero real

<x ,y>

y escribiremos<x ,y>

www.FreeLibros.com

Page 239: Algebra ii   armando rojo -

www.FreeLibros.com

ESPACIO AFIN 233

O sea, la proyección de un vector x sobre un vector y es igual al producto interior de ambos, dividido por el módulo del vector sobre el cual se proyecta.

En particular, si y es un vector de módulo 1, se tiene

por lo tanto, la proyección de un vector sobre un vector de módulo 1 es iguál al producto interior de ambos.

Ejemplo 7-12

Comprobamos que las proyecciones de un vector de R3, con el producto interior usual, sobre los vectores de una base ortonormal, son las componentes de dicho vector respecto de la base.

Py x = <x ,y >

3 3

3 3= 2 a¡ < e ¡ , e;- > = 2 a¡ óy ~ a¡

7.11. ESPACIO AFIN R"

7.11.1. Concepto

Sea (Rn, + , R , .) el espacio real n-dimensional.

www.FreeLibros.com

Page 240: Algebra ii   armando rojo -

www.FreeLibros.com

234 PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

Para cada A e R " definimos una suma en R " y un producto de escalares por elementos de

Rn , medianteX ©Y = X + Y — A

a © X = a ( X - A ) + A

Estas definiciones hacen de la cuaterna (R n , ©, R, ®) un espacio vectorial con origen A.El vector nulo de este espacio es A.La suma y el producto de este espacio pueden obtenerse “llevando” las flechas AX y AY

al origen 0, operando en (Rn , + , R , .), y desplazando el resultado al origen A. En R 2 esta situación queda indicada por las figuras siguientes:

DefiniciónEspacio afín R" es el conjunto de todas las n*uplas de números reales, y una estructura de espacio vectorial para cada A e R " , con las operaciones definidas.

7.11.2. Vectores fijos

Consideremos V = R ", X e R" e Y e Rn. El par de puntos (X, Y) se llama vector fijo de origen X y extremo Y.'Se lo denota mediante XY*.

Sean los elementos de R ” :

A~(¿fJ( #2, #n) x ~ ( x i , x2> • • • > % n} ^ (yi>y2> • • •>yn)

www.FreeLibros.com

Page 241: Algebra ii   armando rojo -

www.FreeLibros.com

VECTORES UBRES 235

Entonces la suma de X e Y, en el espacio de origen A, esX ® Y = AX + ÁY = X + Y — A

SiendoX + Y - A = (xi +>»i - a u X i + y 2 - a 7 ........x n + y n - a»)

Si a eR , entoncest i 0 X = a A X = « ( X - A ) + A = « X - - ( t t - l ) A

a A - (a - 1) A = ( a x j - (a - . . . , a x n - (a - 1)«„)

7.11.3. Espacio de los vectores libres

Consideremos el espacio afín R", es decir, el conjunto de todas las n-uplas de números reales y las estructuras de espacios de los vectores aplicados en cada punto de R " .

En el espacio afín Rn definimos la siguiente relación de equivalencia:

donde

Escribiremos

A X ~ B Y « > A Y = X ® B = A X © A B

A X ® AJB = A ) ? + AB

Cada clase de equivalencia se llama un vector libre, y el conjunto cociente es el conjunto de los vectores libres de R".

Un vector X e R" se denota:Á"X si se lo considera como vector del espacio de orig en A.

Ó X s i pertenece al espacio de origen 0.

En el último caso se escribe directamente X.Para operar en el espacio de los vectores libres se considera como conjunto de índices una

www.FreeLibros.com

Page 242: Algebra ii   armando rojo -

www.FreeLibros.com

236 PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

estructura de espacio vectorial fija, con origen 0. Entonces el vector fijo XY es equivalente al vector Y - X, con origen 0, y se escribe H edien te aJ

3t v = y x

Y - X

escaTaresiTseT ^ re‘aCÍÓn ^ eqUÍValenCÍa es compatible con la suma y el nry el producto por

a x - b VA~X + AX' ~ ÍT y + B V ’A X’ ~ B Y’

A X ~ B Y A a e R = > « ÀX ~ a B Y*

En consecuencia existen en el conjunto cociente, de ios vectores libres, dos leves de composicion inducidas que lo caracterizan como espacio vectorial.

Resulta así el espacio vectorial de los vectores libres de R"

7.12. ECUACIONES VECTORIAL Y CARTESIANAS DE LA RECTA

En lo que sigue nos referiremos a vectores libres del espacio euclidiano tridimensional sideiaremos una estructura de espacio vectorial, con origen en 0, y la base ortonormal

I = (1, 0. 0) J = (0, 1,0) K = ( 0 , 0 , 1 )

Los subespacios correspondientes a los ejes coordenados serán denotados por * y z ¿>ea A un vector no nulo de componentes /, m y n, es decir

A = / I + m J - l - « K

po X ; s r ¿ r : “ adas (x ° ' Zo)> entonces existe — o » p -

www.FreeLibros.com

Page 243: Algebra ii   armando rojo -

www.FreeLibros.com

RECTA 237

El vector O P0, de origen 0, será denotado por P0 . Sea X un punto genérico de la recta, de coordenadas (x, y , z).

Se verifica que ^

X - P o + P qX

Y como P0X es equivalente a t A, para algún t e R, resulta

X = P0 + íA (1)

Para cada t e R se tiene un punto perteneciente a la recta. La igualdad (1) es la ecuación vectorial paramétrica de la recta que pasa por P0 y es paralela al vector A. La variable X depende de t, que es el parámetro.

Expresando (1) en términos de coordenadas es

(x, y , z ) = (x 0, y o, z 0) + t (l, m, n )

Efectuando el producto por r, sumando e igualando las componentes, resulta

x = x 0 + It ( 2 ) ■ y = y 0 + m t

z = z 0 + nt

Las ecuaciones (2) reciben el nombre de ecuaciones cartesianas paramétricas de la recta.Las componentes l, m y n del vector A suelen llamarse coeficientes directores de la recta.

Si son distintos de cero, eliminando t, se obtiene

* - * o = y - y o _ 2 ~Zq / m n

Las ecuaciones (3) reciben el nombre de ecuaciones cartesianas de la recta.Considerando la recta en un plano, la forma de la ecuación vectorial no se modifica, pero

las ecuaciones cartesianas quedan simplificadas, ya que la tercera componente no figura.

www.FreeLibros.com

Page 244: Algebra ii   armando rojo -

www.FreeLibros.com

238 PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

Ejemplo 7-13Determinamos las ecuaciones vectorial y cartesianas de la recta que pasa por p0 (_} ? o, 2) y es paralela al vector A, siendo A = 3 I — J + 2K .

La ecuación vectorial esX = P0 + t A

O seax I + y J + z K - —I + 2K + í( 3 l — J + 2K)

Efectuando las operaciones

x I + ;> J + z K = (-1 + 3 01 - t J + (2 + 2 t) K

Igualando componentes

( x = — 1 + 3 t \ y = - t

\ z = 2 + 2 íLas relaciones anteriores constituyen el sistema de ecuaciones cartesianas paramétricas de la recta, y eliminando el parámetro t resulta

x + 1 __ y _ z - 2 3 - 1 2

Observamos que los sustraendos de los numeradores son las coordenadas del punto dado, y los denominadores son las componentes del vector A.

Ejemplo 7-14Obtenemos las ecuaciones cartesianas de la recta r que pasa por P0 (1 ,2 ,3 ) y es paralela al vector A = 2 1 + K.Como

X = P 0 + t A

se tiene

x I + _ v J + z K = I + 2 J + 3 K + f ( 2 I + K)

O seax = 1+ 2 t y = 2

z = 3 + íEliminando el parámetro entre la primera y la tercera ecuación, resulta

x " 1 = z - 32 1

y = 2

www.FreeLibros.com

Page 245: Algebra ii   armando rojo -

www.FreeLibros.com

PLANO 239

Efectuando operaciones en la primera de estas ecuaciones se tiene

j x - 2z = — 5

i y = 2Este es el sistema de ecuaciones cartesianas no paramétricas de la recta, y se interpreta de la siguiente manera: r es la intersección de los planos cuyas ecuaciones son x _ 2z = - 5 (paralelo al eje y ) a y = 2 (paralelo al plano x z , por el punto (0, 2, 0)).

7.13. ECUACION NORMAL VECTORIAL DEL PLANO

Consideremos un vector unitario N t I + n 2S + n 3K

www.FreeLibros.com

Page 246: Algebra ii   armando rojo -

www.FreeLibros.com

240 PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

Sus proyecciones sobre los ejes son

n l = < N , I ) = II Nll IIIII eos a = 1 . 1 eos a = eos a

Análogamente

n 2 = eos 0 n 3 = eos y

Los números eos a, eos 0, eos y se llaman cosenos directores del vector N, y se identifican con sus coordenadas, o sea

N = eos a I + eos 0 J + eos y K

Como el módulo de N es 1, se verifica que

eos2 a + eos2 P 4- eos2 y = 1

Esta propiedad es válida para todo vector del espacio. Es decir, la suma de los cuadrados de los cosenos directores de un vector es igual a 1.

Dados un vector unitario N y un número p e R , estamos interesados en determinar la ecuación del plano perpendicular a la dirección de N y tal que la distancia del origen al plano sea p.

El vector N y el número p se llaman parámetros normales del plano.

Sea 7r el plano en cuestión. Cualquiera que sea X e 7T se verifica que

PNX = p (1)Es decir

< X , N > - p = 0

Para denotar el producto interior o escalar < X , N > escribiremos X . N.

www.FreeLibros.com

Page 247: Algebra ii   armando rojo -

www.FreeLibros.com

PLANO 241

Entonces

Tanto (1) como (2) son la ecuación normal vectorial del plano.En términos de coordenadas se tiene

(x \ + y J + 2 K) (eos a I + eos j3 J + eos 7 K - p) = 0

Efectuando el producto interior resulta

x eos a + y eos 0 + z eos y - p = 0 (3)

La relación (3) recibe el nombre de ecuación normal cartesiana del plano. Los coeficientes de las variables son los cosenos directores del vector normal al plano, y el termino independiente cambiado de signo es la distancia del origen al plano.

M u ltip lica n d o la e c u a c ió n (3) p o r k i = 0, re su lta

ax + by + cz + d = 0

Esta relación recibe el nombre de ecuación general del plano.D esa rro llam o s a c o n tin u a c ió n el m é to d o q u e n o s p e rm ite p a sa r de la e cu a c ió n general del

plano a la ecuación normal cartesiana.Sea el plano 7T de ecuación

ax + by + cz + d = 0 (4)

El plano 7T admite la ecuación normalx eos a + y eos /3 + z eos 7 — p = 0 (3)

cuyos coeficientes hay que determinar.Como ambas ecuaciones corresponden al mismo plano, para algún k e R se verifica que

X . N - p = 0 ( 2 )

(5)

a ~ k eos a

b = k eos 0

c = k eos 7

d = k ( - p )

Sea d ± 0; como p es positivo, - p es negativo y, en consecuencia, el signo de k es distinto

del de d.Elevando al cuadrado las tres primeras relaciones y sumándolas, se tiene

a2 + b2 + c2 = k 2 (eos2 a + eos2 0 + eos2 7 )

O seak2 = ü2 + b 2 + c1

En consecuencia

k = ± V a2 + b2 + c 2

www.FreeLibros.com

Page 248: Algebra ii   armando rojo -

www.FreeLibros.com

242 PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

donde el signo de k, por lo observado anteriormente, debe tomarse distinto del de d.De (5) resulta

a Q b c deos a = — y eos p = — ’ eos y ~ — » - p = —k k k k

Sustituyendo en (3), la ecuación normal vectorial es

ax + by + cz + d _ ^

± s/a 2 + b 2 + c2

Luego, para trasformar la ecuación general del plano a la forma normal, se divide el primer miembro de aquella por la raíz cuadrada de la suma de los cuadrados de los coeficientes de las variables, la que se toma con signo distinto al del término independiente.

Ejemplo 7-16

Determinamos la ecuación normal cartesiana del plano cuya ecuación general es

x - y + z - 1 = 0

De acuerdo con la fórmula de pasaje, la ecuación normal cartesiana es

x - y + z - 1 _ n

Vi2 + (- i)2 + i2 ~O sea

x - y + z ^ l =Qy /T

O bien

_ . V L o3 3 3 3

Los tres cosenos directores son y la distancia del origen al plano es

V T 3 3 ’ 3

3Observamos que el vector cuyas componentes son los coeficientes de las variables de la ecuación general del plano es normal al mismo, ya que se deduce del vector normal unitario multiplicándolo por k.

Ejemplo 7-17

Obtenemos la ecuación del plano que pasa por P0 (1 ,2 ,2 ) , sabiendo que es perpendicular al vector A = 3 I + J + K.

www.FreeLibros.com

Page 249: Algebra ii   armando rojo -

www.FreeLibros.com

PLANO 243

Cualquiera que sea X perteneciente al plano pedido es

PqX 1 A

En consecuencia

es la ecuación vectorial del plano.En términos de coordenadas se tiene

P0X . A = 0

P0X - (x - 1) I + O - 2) J + (z - 2) K

Efectuando el producto interior3 ( * - l ) + 0 —2) + ( z — 2) = 0

O sea3 x + y + z — 7 = 0

Ejemplo 7-18Determinamos la distancia entre el plano de ecuación

2 x - j ' - 2 z + 3 - 0

y el punto P0( l , 2, 3)Sea 7T el plano cuya ecuación normal es

PN X - p = 0

y sea P0(^0. yo> z0) un punto dado.

www.FreeLibros.com

Page 250: Algebra ii   armando rojo -

www.FreeLibros.com

244 PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

La distancia entre el plano 7T y el punto P0 es

d ~ - p\O sea la distancia entre un plano y un punto es el valor absoluto del primer miembro

Pian0’ CUand° " SUSt“ Uye h Determinamos primero la ecuación normal del plano dado

J l x - y - 2 z + 3 - V 2 ‘ + ( - l ) ‘ + (—2)2 ~ °

O sea

2 X 1 2? " +? v + I 2 - 1 =o

Sustituyendo x, y , z por las coordenadas de Pft es

d“ | - f 1 + r 2f - 3 - 1

Ejemplo 7-19

Dados los puntos A ( - i 3 2l v R f _ i i n\ a *Plano perpendicular a la recta AB, sabiendo que d i d l o T 08 ^ ° rÍ8en 31del segmento AB. piano pasa por el punto medio

Las coordenadas del punto medio de un semiento «nn ucoordenadas de los extremos de dicho segmento S<!miSUmaS de laSEn efecto:

www.FreeLibros.com

Page 251: Algebra ii   armando rojo -

www.FreeLibros.com

DISTANCIA 245

Restando

Entonces

0 sea

M = A + AM

B = M + MB

M _ fi = A - M pues ÀM y MB son equivalentes

2M = A + B

m = 1 ( a + b )2

En nuestro caso, las coordenadas de M son ( - 1 , 2, 1), y un vector normal al plano es

Á~B = B - A = - 2 J - 2 K

La ecuación vectorial del plano esM~X. ÁB = 0

DondeM~X = (x + 1)1 + 0 - 2 ) J + (z - 1) K

Efectuando el productoO . (x + 1) — 2 (y — 2) — 2 (z — 1) = O

www.FreeLibros.com

Page 252: Algebra ii   armando rojo -

www.FreeLibros.com

246 PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

O sea2 y + 2 z - 6 = 0

es la ecuación del plano pedido. Este plano es ortogonal al vector —2J - 2K, es decir, al plano y z ; en consecuencia, es paralelo al eje x.Observamos que si el coeficiente de una variable de la ecuación de un plano es cero, entonces dicho plano es paralelo al eje correspondiente a esa variable.La ecuación normal del plano hallado es

2 y + 2 z - 6 = 02 s ¡2

O sea

Y la distancia pedida es

d =

\/2 , y/2—— y + —— z 2 2

^ . 0 + ^ . 02 2

_ 3y/2

7.14. CURVAS EN EL ESPACIO

Sea I un intervalo real. Toda función

X : I -> R 3

se llama curva paramétrica en el espacio.Cualquiera que sea r e l , X ( f ) es un vector cuyas coordenadas dependen de t. O sea,

existen funciones x, y, z de I en R, tales que

X ( 0 = ( * ( 0 > . v ( 0 » z ( 0 j

www.FreeLibros.com

Page 253: Algebra ii   armando rojo -

www.FreeLibros.com

CURVAS 247

La ecuación vectorial paramétrica de la curva C es

X = jc (í) 1 + y (í) J + z (t) K

Las ecuaciones cartesianas paramétricas de Cson

x ~ x (í)

y=y{t)Z ~ 2 ( í)

La curva cuya ecuación paramétrica es

X (f) = eos 1 1 + sen t J + K

es tal que sus ecuaciones cartesianas paramétricas son

/ x = eos t

| y - sen t

\ z ~ 1

cualquiera que sea t e R.Elevando al cuadrado las dos primeras y sumando eliminamos el parámetro

x 2 + y 2 = 1

z - 1

La representación de C está caracterizada por la intersección de dos superficies: la superficie cilindrica cuya directriz es la circunferencia de radio 1 centrada en el origen e incluida en el plano horizontal y cuyas generatrices son paralelas al eje z, y el plano de ecuación z = 1.

Se trata de la circunferencia indicada en el gráfico siguiente:

www.FreeLibros.com

Page 254: Algebra ii   armando rojo -

www.FreeLibros.com

La representación de una curva como intersección de dos superficies se llama implícita, y en general se denota mediante

[ F (x , y , z ) = 0C

( G (x , y , z) = 0

248 PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

Donde el sistema anterior es tal que se cumplen las condiciones de regularidad dadas por el teorema de Cauchy Dini, relativo a la existencia de funciones definidas por sistemas de ecuaciones.

Ejemplo 7-20

Deducimos la ecuación vectorial de la hélice circular, definida como la trayectoria de un punto que gira alrededor de un eje y además se traslada paralelamente a él, siendo ambos movimientos uniformes.

www.FreeLibros.com

Page 255: Algebra ii   armando rojo -

www.FreeLibros.com

SUPERFICIE CILINDRICA 249

Suponem os que en el instante t = 0 e l p u n to m óvil está en A (a, 0, 0), y que al cabo del tiem po t está en X (x , y , 2).

Se verifica que

w t y z = v t

Siendo w la velocidad angular del movimiento circular uniforme, y v la velocidad (en módulo) del movimiento rectilíneo y uniforme.Las ecuaciones paramétricas en coordenadas cilindricas de la hélice circular son

p = a

<p= w t

Z - V t

Se tiene así el sistema de ecuaciones horarias de la curva.Haciendo

(£= w t ~ u

Resultay

z = v t —— w t = b u w

Las ecuaciones cartesianas paramétricas son

X ~ Ü eos u

y - a sen u

z = b u

La ecuación vectorial paramétrica de la hélice es

X = a c o s « I + 6 s e n « J + Z>wK

7.15. SUPERFICIE CILINDRICA

Sean: una curva C y una dirección del espacio caracterizada por un vector no nulo A = / I + m J + «K.

DefiniciónSuperficie cilindrica de directriz C y dirección A, es el conjunto de puntos de las paralelas a A, que pasan por todos los puntos de C.

www.FreeLibros.com

Page 256: Algebra ii   armando rojo -

www.FreeLibros.com

r250

PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

Las paralelas a A se llaman generatrices

La ecuación vectorial es, entonces

x=q + \ aEjemplo 7‘21

Determinamos la ecuación de la superficie cilindrica de directriz

x = eos t

y = sen t

z = 0y cuyas generatrices son paralelas

1. Al eje z , o sea, al vector A = K.

X = Í2 + X a ( l )Como 12 (eos t, sen t, 0), de (1) resulta

Luegox I + y J + z K = cos ? I + sen / J + \K

x = eos t

y = sen t

z = \

www.FreeLibros.com

Page 257: Algebra ii   armando rojo -

www.FreeLibros.com

SUPERFICIE CONICA 251

ito

un

es el sistema de ecuaciones paramétricas de la superficie, siendo t y Xlos parámetros. De las dos primeras ecuaciones resulta

x 2 + y 2 ~ 1

siendo z cualquier número real.

2. Al vector A = I + J + KDe (1 )

x l + y J + z K = eos 1 1 + sen ? J + X ( I + J + K )

Luego

Eliminamos los parám etros

Y resulta

x = X + eos t

y = X + sen t

z = X

X — z = eos t

y - z = sen t

( x - z ) 2 + { y - z )2 = 1

7.16. SUPERFICIE CONICA

Consideremos una curva C, llamada directriz, y un punto V no perteneciente a C, llamado vértice.

Definición

Superfìcie cónica de directriz C y vértice V es el conjunto de puntos de las rectas determinadas por V y todos los puntos de la directriz.

K

O

I

www.FreeLibros.com

Page 258: Algebra ii   armando rojo -

www.FreeLibros.com

252 PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

Las rectas consideradas se llaman generatrices.Sea X un punto genérico de la superficie cónica; X pertenece a una generatriz, la c

corta a la directriz en un punto £2.Entonces la ecuación vectorial de la superficie cónica es

x= v+ xvnO bien

X = £2 + XV £2

Ejemplo 7-22Obtenemos la ecuación de la superficie cónica de directriz

x 2 + y 2 - 1 = 0

y vértice V (0 ,0 ,0 )

Como

y

resulta

z = 1

V £2= (a — O)I + (0 — O)J = a I + 0 J

X = V + \V~£2,

x I + 7 J + 2 K = X ( a I + 0 J + K)

www.FreeLibros.com

Page 259: Algebra ii   armando rojo -

www.FreeLibros.com

PROYECCION 253

Luego

De donde

x = X a

y = \(3

z ~ \

A (3= £ z z

Sustituyendo e n ( l )* 2 + y 2 - z 2 = 0 ,

se obtiene la ecuación cartesiana implícita de la superficie cónica.

7.17. PROYECCION DE UNA CURVA SOBRE UN PLANO COORDENADO

En el cálculo de integrales múltiples suelen utilizarse a menudo las ecuaciones de la proyección de una curva sobre uno de los planos coordenados.

Sea la curva C, definida por el sistema de ecuaciones

F ( x , > ’ , z ) = 0 (1)

G ( x , y , z ) = 0 (2)

www.FreeLibros.com

Page 260: Algebra ii   armando rojo -

www.FreeLibros.com

^ L a superficie cilindrica de generatrices paralelas al eje z y de directriz C, se llama «7,**, proyectante de C sobre el plano horizontal. Su ecuación es del tipo

y d e Í X d r o proyectante con el plano de ecuación z = 0, es la proyecció,

de C sobre el plano horizontal.O sea-

f ( x , y ) = 0

4 PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

C ' = P*=oC2 = 0

, a« Aa r cnhr? el olano v 2 hay que eliminar x entre (1) y (2)jPara obtener la proyección de C sobre el piano y ¿ no* 4cortar el cilindro proyectante con el plano de ecuación x 0.

Ejemplo 7-23Determinamos las proyecciones, sobre los planos * j y * z, de la curva

c

1. Eliminamos z entre (1) y (2)

x * + y 2 + 2* = l (1)

x 2 + / = 2 (2)

+ y 2 + ( x 2 + y 2)2 - 1

Pasando a coordenadas polares

Entonces

Resolviendo respecto de p2

La única solución es

O sea

p2 + p 4 = l

p4 4- p2 — 1 = 0

- 1 ± V TP2 = — ; —

La proyección sobre el plano horizontal es la circunferencia de ecuac.ones.

V 5 - 1

www.FreeLibros.com

Page 261: Algebra ii   armando rojo -

www.FreeLibros.com

PROYECCION 255

Su radio es ______

2. Si proyectamos sobre el plano y z, se elimina x entre (1) y (2) restándolas

z 2 = 1 - z

Se obtiene

O sea

Y como 2 > 0 , se tiene

Resulta

z 2 + z — 1 = 0

-1 ±>/5 z --------------

2

y/5 - 1z “ —

P*=0 C{ 2jc = 0

Ejemplo 7-24Obtenemos la proyección de C sobre los planos x y y x z , siendo

I x 2 + y 2 + z 2 = 1 (1)

C ( x 2 + y 2 - x = 0 (2)

1. La ecuación del cilindro proyectante de C sobre el plano horizontal es

x 2 + y 2 - x ~0 (2)

ya que z no figura.Luego

P ,= o Cx 2 + y 2 - x = 0

z = 0

es la circunferencia de radio -^-y centro , 0 j del plano horizontal.

2. Restando (1) y (2)z 2 + x = l

www.FreeLibros.com

Page 262: Algebra ii   armando rojo -

www.FreeLibros.com

256PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

Luego( Z2 = — X + 1

py = o c \ _ n \ y - 0

es la parábola de vértice (1, 0) y eje - x del plano x z.

www.FreeLibros.com

Page 263: Algebra ii   armando rojo -

www.FreeLibros.com

TRABAJO PRACTICO VII

= Xf A Y no es un producto interior en (R 2, +, R, .)•

7-26. Considerar la misma cuestión siendo A =

7-27. En (V, + , R , .) se sabe que v es ortogonal a v 1(v2 y v3. Demostrar que v es ortogonal al subespacio generado por ellos.

7-28. En un espacio con producto interior el ángulo de los vectores y y z es a. Sabiendo que y = x + z, demostrar que

II xll2 = llyli2 + llzll2 - 2 II yl l . II zll cosa

7-29. Demostrar

7-5/. En un espacio euclidiano n-dimensional los vectores v 4, v2, . . v„ son tales que< V( , V, >= 6y. Demostrar que tales vectores forman una base.

7-32. En un espacio euclidiano se considera la función

definida por d (x , y) = II x - y II. Demostrar que (V, d) es un espacio métrico.

7-33. Sea (V, + , R, .) un espacio vectorial con producto interior, y sea y e V. Demostrar que

< x , y > 1= II xll II yll e y son L.D.

7-30. En Rn se considera el producto interior definido por

< X , Y > = Xf Y

Demostrar

d : V2 -► R

la función

/ : V -»■ R

www.FreeLibros.com

Page 264: Algebra ii   armando rojo -

www.FreeLibros.com

258PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

definida por/ ( x ) = < x , y )

es una forma lineal.7-34. Sea < , ) un producto interior en (V, + , R , .), y sea / : V ^ V una T. L. Demostrar que

: V2 -*■ R

tal que ( p ( x , y ) = </(x), /(y)> es un producto interior en V, s i/ es 1 - 1.

7-35. Sea (V, + , R , .) un espacio euclidiano. Demostrar que la función

N : V ^ R

definida porN (x) = ( x , x > f

verifica:

1 . N ( a x ) - a 2 N (x )2. N (x + y) - N (x) - N (y) = 2 < x , y >

3.— N (x + y) - - N (x - y) = < x , y >4 4

7-36, Demostrar que en todo espacio euclidiano las diagonales de un rombo son perpendiculares.

7-37. Sea (V, + , R , .) un espacio vectorial con producto interior.Demostrar

1. ! l x - y l l > | l lxl l - Uyll|

2. llxll2 + IIyII2 = IIx +yl l 2 = > x l y

3. I l x - y l ! > l lxl l - llyll

4 . x l y II x + a y II > II x II, V a e R

7-38. Sean: V un espacio vectorial euclidiano y A C V. Por definición, x e V es ortogonal a A

si y solo siy e A ^ x l y

Demostrar que si x es ortogonal a A, entonces x es ortogonal a A.

7-39. Demostrar que si V es un espacio euclidiano n-dimensional y S es un subespacio de dimensión m, tal que m < n , entonces existe un vector x e V y x / S tal que x es ortogonal a S.

7-40. Sean V y S como en el ejercicio anterior. Demostrar que existe un único subespacio T tal que

l . x e T ^ x l S

www.FreeLibros.com

Page 265: Algebra ii   armando rojo -

www.FreeLibros.com

TRABAJO PRACTICO VII 259

2. dim T = « - W

3. V = S® T

j4 l En (R3, + . R > ■)se considera el producto interior ha bitual.

1 Obtener un vector unitario ortogonal a

V! = (1 , —1, 3) y v2 = ( 2 , 4 , 3)

2. Obtener dos vectores unitarios ortogonales entre sí y ortogonales a

v = (1, —1,3)

3. Sea la base[v]= ¡ ( 1 , 1 , 1 ) , ( 1 , 1 , 0 ) , ( 1 , 0 , 0)(

Construir una base ortonormal a partir de [v] mediante el proceso de Gram Schmidt

742. Sea ( , va , . . v „ ) un conjunto ortogonal en (V, + , R , . ) y sean

v « . S a ¡ v ¡1=1

Demostrar que

7-43. Sean (V, + , R , .) un espacio euclidiano y { Vi, v2 , . . . , vn } una base de V tal que

nx e V a y e V=><x , y > = £ x t y t

n ndonde x = 2 x f vf y y =.2) y ¡ \ i

í—i i—iDemostrar que la base { v , , v2 , . . v„ } es ortonormal.

7-44. Sean: V un espacio euclidiano y A C V. Si £2(A) denota el conjunto de todos los vectores ortogonales a A, entonces

f i ( í2 ( A ) ) = A

7-45. Demostrar que si / Vi, v2 , . . v„ | es una base ortonormal de (V, +, R , .), entoncesn

< x , y > =

746. En (V, + , C , .), la función< , ) : V2 C

es un producto interior o hermitiano si y sólo si

i ) < x , y > = <y ,x>i i ) <x + y , z > = < x , y > + < x , z >

www.FreeLibros.com

Page 266: Algebra ii   armando rojo -

www.FreeLibros.com

260 PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

iii) < a x , y > = a ( x , y >

iv) < x , x ) > 0

( x ) x ) = 0 < í- x - 0

Un espacio vectorial sobre C, con producto interior, se llama unitario.Definiendo

II x ii= v T x T x ) ,

demostrar que

I<x , y ) l< llxil IIyII

7-47. Sean P i ( l , - 1 , 1) y P2( - l , 1 ,0). Obtener:

1. Las ecuaciones vectorial y cartesiana del plano perpendicular a la recta Pi P2 en Pj.

2. Las ecuaciones vectorial y cartesianas de la recta perpendicular al plano anterior, sabiendo que dicha recta pasa por Po(0, 2, -3 ) .

7-48. Determinar el conjunto de los puntos del espacio que equidistan del plano

x + y = 1

y del punto F (2, 2, 1).

7-49. Obtener las ecuaciones vectorial y cartesiana del plano paralelo al plano

a x + y - 0 = 0

que pasa por P0(a, a, 3).

7-50. Hallar la distancia entre el plano que contiene a las rectas

x = y = z

x — 1 = y + 2 = z

y el punto P0(—1, 0, 1).

7-51. Obtener las ecuaciones de la recta determinada por los planos

2 x - y + z — 2 = 0

yx + 2 y - z + 1= 0

7-52. Hallar las ecuaciones de la recta que pasa por el origen y es paralela a la intersección de los planos

2 x + y ~ z =0

yx — 2 y + z = 5

7-53. Obtener la ecuación de la superficie cilindrica de directriz

www.FreeLibros.com

Page 267: Algebra ii   armando rojo -

www.FreeLibros.com

TRABAJO PRACTICO VII 261

C

y cuyas generatrices son paralelas al vector A = I + J 4- K.

7-54. Determinar la ecuación de la superficie cónica cuya directriz es la curva del ejercicio7-53, y cuyo vértice es V (0, - 1 ,1 ) .

7.55 . Obtener las proyecciones de la curva

Obtener la ecuación del conjunto de puntos de tales perpendiculares.

7-57. Hallar las ecuaciones vectorial y cartesiana del helicoide recto, que se define como el conjunto de puntos de las rectas que pasan por todos los puntos de una hélice circular y que son perpendiculares al eje de ésta.

7-58. Sea (V, + , C, .) un espacio unitario, y sea { Vj, v2 , . . v„ } una base ortonormal del mismo.Demostrar que

7-61. Sea dimK V = n > 1 y sea ( , > un producto interior en V.Demostrar que si / ’eV *, entonces existe un único vector x e V , tal que / ( y) =

sobre los tres planos coordenados.

7-56. Por cada punto de la recta

rx + z = 2

y = 0Se considera la perpendicular a la recta

i - i í= i

7-59. Sea P e Rnxn una matriz ortogonal. Demostrar que las líneas de P constituyen una base ortonormal de R", considerando el producto interior habitual.

siendo X = X x¡ y Y — 2 v¡ i - l . „ i

n

i < / ' = > 2 P U = 0

= < x , y > , Vy e V.

www.FreeLibros.com

Page 268: Algebra ii   armando rojo -

www.FreeLibros.com

7-62. Sean: un espacio unitario V de dimensión finita y [v] = { Vi, v2,. . v„ ¡ una base ortonormal del mismo.Demostrar que

nx e V =>x = 2 ( x , v ¿ ) v ¿

j=i '

262 PRODUCTO INTERIOR. GEOMETRIA VECTORIAL

www.FreeLibros.com

Page 269: Algebra ii   armando rojo -

www.FreeLibros.com

Capítulo 8

VALORES Y VECTORES PROPIOS. DIAGONALIZACION

8.1. INTRODUCCION

Desarrollamos en este capítulo los conceptos de valores y vectores propios de un endomorfismo en un espacio vectorial y de la matriz asociada en el caso de dimensión finita. Demostramos las propiedades fundamentales de los mismos y su determinación a partir del polinomio característico. Encaramos después el problema de la diagorialización de trasformaciones lineales y matrices, así como también el de la triangulación. Por último, demostramos el teorema de Hamilton-Cayley.

8.2. VALORES Y VECTORES PROPIOS

8.2.1. Concepto

Consideremos un espacio vectorial (V, + , K , .) y un endomorfismo

/ : V-> V

Definición

El escalar X e K es un valor propio de / si y sólo si existe un vector no nulo x e V, tal que / ( x ) = Xx.

Todo vector no nulo que satisfaga la condición anterior se llama vector propio de f, asociado al valor propio X.

En consecuencia, un vector propio de un endomorfismo es un vector no nulo cuya imagen es un múltiplo escalar del mismo.

Las expresiones “valor propio” , “valor característico” y “autovalor” son sinónimas. También lo son “vector propio” , “vector característico” y “autovector” .

Ejemplo 8-1

Considerando (R 2, +, R , .) y la trasformación lineal

/ : R2 R2

www.FreeLibros.com

Page 270: Algebra ii   armando rojo -

www.FreeLibros.com

264 VALORES Y VECTORES PROPIOS. DIAGONALIZACION

definida por

f ( x i , x 2) = (2jc1 , 7 x 1 - 2 x 2) ,

el escalar X = 2 es un valor propio de / , ya que el vector no nulo (2, 1) es tal que

/ ( 2 , 1 )= (4 , 2) = 2 (2 ,1 )

(2, 1) es un vector propio asociado al valor propio 2.

8.2.2. Propiedad

Si X es un valor propio de una trasformación lineal / : V V, y si S \ es el conjunto de l0s vectores propios asociados a X, entonces S* = S \ U { 0 } es un subespacio de V

En efecto:

1 . Q e S x ^ S x ^ í j ) .

2. S \ C V por definición de S^.

3. Sean x e y pertenecientes a S^.

Si x = 0 v y = 0, entonces x + y e S^.Supongamos que x ¥= 0 e y ¥= 0

xv¿=0 A y ^ 0 ^ x e S \ A y e S \ = >

(x) = Xx A / ( y ) = Xy =>f (x) + / ( y ) = Xx + Xy =►

=> / (x + y) = X (x + y) => x + y e S:\ => x + y e S K

4. Sean f t e K y x e S ^ .Si x = 0 o a = 0, entonces a x e S \ .

Consideremos el caso en que x ¥= 0 y a =£ 0:

a e K A x ^ O ^ a e K a x e S \ = > a e K a / ( x ) - Xx =>

=► a / ( x ) = a (Xx) =>/(a x) = X (a x )= > a x e S ’^^ a x e S ^

En consecuencia, (Sx, + , K , .) es un subespacio de (V, +, K, .).De acuerdo con lo demostrado en 4., afirmamos que si x es un vector propio de/asociado

a X, y a =£ 0, entonces a x es un vector propio asociado al mismo valor propio.Observamos también que la restricción d e / a es una homotecia de razón X

8.2.3. Valores y vectores propios de una matriz

Definición

El escalar X es un valor propio de la matriz A e Knxn si y solo si existe un vector no n u lo X e K " * 1 tal que AX=- a X

www.FreeLibros.com

Page 271: Algebra ii   armando rojo -

www.FreeLibros.com

0 vector no nulo que satisfaga la relación AX ~ X X se llama vector propio de A asociado

al valor entonCes que, un vector propio de una matriz A e Knxn es un vector propio desformación lineal de Kn en K" representada por A en la base canónica.

Ejemplo 8-2.V es el espacio vectorial sobre el cuerpo de los números reales, de las funciones R R infinitamente derivables y

VALORES PROPIOS 265

es el endomorfismo definido por

D : V

d iD (f)

d x _ . á íentonces la función f e V, tal que f (x) = e A * es un vector propio de la trasformación

lineal D, pues

D (f) = — = X e ÁX V X e R d x

Ejemplo 8-3Si A e K nxn es una matriz diagonal, entonces cualquier vector canónico Eí e K ”x l , donde i = 1, 2 , es un vector propio de A.

En efecto, sea

A =

I d i 00 d 2

0 0Entonces

di 0 . . . 0

. o d2

. o

' o 0 . • • d n

1 °

= di - d t Et

\ ó i \ o l

A E¿ =

Los valores propios de A son los elementos de la diagonal.

8.2.4. Propiedad

Los vectores propios asociados a valtíres propios distintos son linealmente independientes. Sean

/ : V -> V

www.FreeLibros.com

Page 272: Algebra ii   armando rojo -

www.FreeLibros.com

una trasformación lineal y x , , x2, . . x„ vectores propios asociados « X ,, \ , .

quei i = j => \ t6 A,-

Demostraremos que X i, x 2, . . x„ son linealmente independientes.

1 . M- 1 ^ x i ^ O ^ x j esL.I.

2. { X j, x2 , . . Xj, ) es L.I. ^ { X j, x2 , . ■ xh, x^ +1 | es L.I.

En efecto, consideremosh + 1

a i x i = 0 (1)

Multiplicamos por X>, + 1

tti X/,+ 1 Xj + . . . + a /i X* + l Xj, + « h + l \ j+ i x h+i

A plicando/a (1)

\ i X! + . . . + oth x ít + 0¡h + l \ j + i x ft + i “ 0

Restamos estas dos igualdades

« i ( \ i + i - M x i + ■ ■ • + í h i + i - b i ) x h = 0

Por la hipótesis inductiva resultacl¡ ( \ + i - \ ) = 0 V /= 1 , 2 , . . .,h

Y como \ , + 1 — X,- ^ 0, resulta«¿ = 0 V /= 1 , 2 , . . .,h

Sustituyendo en (1), se tiene

®h +1 x h + i = 0

O s e a a ft+i = 0 , yaque xh + i ^ 0

En consecuenciad i = a-i = . . . = oth = a h +! = 0

Y por lo tanto( x , , x 2 , . . . , x » } esL.I.

8.2.5. Propiedad

Si / es una trasformación lineal del espacio vectorial V , de dimensión finita, entonces A e K es un valor propio de / s i y sólo si / - Ai es singular.

i denota la trasformación identidad en V.

1. Sea Xun valor propio d e /. Entonces existe x ^O en V, tal q u e /(x ) = Ax

266 VALORES Y VECTORES PROPIOS. DIAGONALIZACION

www.FreeLibros.com

Page 273: Algebra ii   armando rojo -

www.FreeLibros.com

VECTORES PROPIOS267

Ahora bien/( x ) = X x =*/(x) - X i (x) = 0 =►/(x) - (Xí) (x) = 0 => ( f - M) (x) = 0.

En consecuencia, N ( f - Ai) {0 ) , o s e a , / - A/ es singular.

2. Supongamos ahora que / - A i es singular, o sea, no inversible. Esto significa que / - A /: V -»• V es tal que N ( f — A/) =£ {0} . En consecuencia, existe x e V, x =£ 0 talque ( f - A¿) (x) = 0. De acuerdo con el álgebra de las trasformaciones lineales, se tiene

y por consiguiente Xes un valor propio d e /.

En términos de matrices esta propiedad se traduce de la siguiente manera:Si A e K nxn, entonces X eK es un valor propio de A si y sólo si A - XI es singular. Equivalentemente

Ejemplo 8-4

El lector podrá demostrar, al realizar el trabajo práctico, que todo endomorfismo en V, donde V es un espacio vectorial de dimensión finita y mayor o igual que 1 sobre el cuerpo de los complejos, admite un vector propio.Pero si el cuerpo no es C, entonces pueden no existir vectores propios. En efecto, sea (R2, +, R , .) y sea

/ ( x ) — (X i) (x) = 0

Es decir

/ ( x ) = Xí (x) = Xx

Xes un valor propio de A g K nx" D (A - Xl) = 0

entonces

Xi eos 6 - x 2 sen 0 = X x i

x 1 sen 6 + x 2 eos 6 = \ x 2O sea

(X - eos 6) x ! + x 2 sen 6 = 0

- x i sen 0 + (X - eos 6) x 2 = 0

www.FreeLibros.com

Page 274: Algebra ii   armando rojo -

www.FreeLibros.com

Si el sistema admite soluciones no triviales debe ser

268 VALORES Y VECTORES PROPIOS. DIAGONALIZACION

X — eos 0

— sen 0

sen 0

X — eos 0= 0

Luego

Si 0 = 60°, entonces

(X - eos 0)2 + sen2 0 = 0

X2 — 2 Xcos 0 + 1 = 0

X= eos 0 ± \Jeos2 0 —1

\ = — + V " —¿ R

Sólo existen vectores propios si 0 - n ir.Considerando (R2 , + , C , .) existen valores y vectores propios. El endomorfismo f representa una rotación del plano de ángulo 0 alrededor del origen.

8.2.6. Propiedad

Si / : V - ^ V es una trasformación lineal, y si además existe una basejyj = j Vl ( v2........v„ ¡ formada por los vectores propios de/correspondientes a los valorespropios X j, ., X n , entonces la matriz de / respecto de esta base es la matriz diagonal

I X, 0 . . . 0 ’0 Xa . . . 0

D = ; ; ;

o o ... KEn efecto, la matriz de / respecto de [v] se obtiene determinando las imágenes de los

vectores de dicha base, y teniendo en cuenta la definición de vector propio es

/ ( v i ) = Xi Vi = Xi vj + 0 v2 + . . . + 0 vn

/ (V2) = Xa v2 = 0 V! + X2 v2 + . . . + 0 v„

/(v „ ) = Xfl vM = 0 v i + 0 v 2 + . . . + X* v„

En consecuencia, resulta

D =

X! 00 X2

0 0 . . . X„

www.FreeLibros.com

Page 275: Algebra ii   armando rojo -

www.FreeLibros.com

m

VECTORES PROPIOS269

En este caso diremos que la trasformación lineal / es diagonalizable.Una consecuencia del teorema demostrado es la siguiente:Si dim V = n y / : V-> V es un endomorfismo que admite n valores propios distintos

entonces/ es diagonahzable.Esta afirmación es obvia en virtud del teorema anterior y de 8 2 4En términos de matrices diremos que si A e K " x" admite «valores propios distintos

entonces existe P € K no singular, tal que

P 1 A P es diagonal

os

Ejemplo 8-5

Determinamos los valores y vectores propios de A, siendo

3 - 2A =

1De acuerdo con 8.2.5., consideremos

D ( A - X 1 ) = 00 sea

3 - X - 2

- 1 2 - X= 0

Resolvemos respecto de X

( 3 - X ) ( 2 - X ) - 2 = 0

X2 - 5 X + 4 = 0

5 ± V 25 - 16 _ 5 ±32 2

Las raíces son:

Para cada X resolvemos el sistema

~ X :

El sistema es equivalente a

De donde

(A - XI) X = 0

2 x i - 2 x 2 = 0

- X j + * 2 = 0

x i - x 2 = 0

x x —x 2

www.FreeLibros.com

Page 276: Algebra ii   armando rojo -

www.FreeLibros.com

270 VALORES Y VECTORES PROPIOS. DIAGONALIZACION

Luego1

X i =, 1

Xi es un vector propio asociado a \ = 1.

2. a2 = 4 - ( : | : j ) = ( “ ) ■ * - * . - 2 * , + 2 , a = o

= - 2 x 2 =>X2 = ^ ^

X2 es un vector propio asociado a X2 •Los vectores Xj y X2 son L.I. y forman una base de R2.A es diagonalizable, y su forma diagonal es

1 0D =

0 4

Si P es la matriz cuyas columnas son los vectores propios, entonces es

P”1 A P = D

8.3. POLINOMIO CARACTERISTICO DE UNA MATRIZ

8.3.1. Nota sobre polinomios

Sea K [X] el anillo de polinomios del cuerpo K (véase capítulo 12 deAlgebral, del mismo autor).

Si P e K [X], escribimos

P ( X ) = 2 a.-X1' v ' i=0 '

donde a¡ e K y an =£0, o sea# P = n.Dada la matriz cuadrada A, definimos

P (A )= £ a¡ A' v ' i=0 1

Haciendo A° = 1, se tiene

PC A )-«,! A" + a n~l A"-'1 -f . . . + ü t A + a 0 I

La matriz P (A) es la especialización de X por A.

Ejemplo 8-6En R [X] consideremos

P (X ) = 2 X 2 - X - l

www.FreeLibros.com

Page 277: Algebra ii   armando rojo -

www.FreeLibros.com

POLINOMIO CARACTERISTICO 271

y sea

Entonces

1 1A =

0 2

P (A) = 2 A2 - A - I =

— 1 1 \ / —1 1 \ / - I 1 \ / 1 0- 2 . , , , ,

0 2 / \ 0 2 / \ 0 2 / \ 0 1

= 2,1 I U I - 1 + - 1 °0 4 / \ 0 - 2 \ 0 —1

2 2 + / ° - 1 = 2 1 0 8 / 1 0 - 3 / 0 5

Se verifica que

1.(P + Q) (A) = P (A) + Q (A)

2. (P . Q) (A) = P (A) . Q (A)

3. (a P )(A ) = a P ( A )

Si « i , <*2 , • • •> Oín son elementos de K y

P (X ) = ( X - a 1) ( X - a 1) . . . ( X - a II),

entonces es

P (A) = (A — otl I) (A - a2 I) . . . (A - an I)

Ejemplo 8-7

Si A € k " xm, entonces existe un polinomio no nulo P € K [X] tal que P (A) = N, donde N denota la matriz nula del tipo n x n.

En efecto, la dimensión de (K” x” , + , K , .) es n2 . Esto significa que las matrices

I, A, A2 , . . A m

son linealmente dependientes si m > n 2.En consecuencia, existen escalares a lt a2, . . am , no todos nulos, tales que

Am + V i A”1“1 + . . . + « ! A + a0 I = NO sea, existe

P (X )= íim X m + a m-l Xm_1 + . . . + a i X + a 0 en K [X], que satisface

P ( A ) = N

www.FreeLibros.com

Page 278: Algebra ii   armando rojo -

www.FreeLibros.com

272 VALORES Y VECTORES PROPIOS. DIAGONALIZACION

8.3.2. Polinomio característico

DefiniciónPolinomio característico de una matriz A e K " Xíl es el determinante de la matriz

XI — A.

O sea

P (X) = D (X I — A) =

X — ü\\ ~~ #12 . . . Q\n— #21 ^ — a22 • • • ~ ^In

~ «ni an2 . . . X ünn

Desarrollando por los elementos de la primera columna y reiterando el procedimiento los sucesivos cofactores, se obtiene una suma del tipo

en

( X - ¿fu) . . . ( X - ann) + . . .

1 primero, son de grado menor

P (X) = X" + cn-1 X""1 + . . . + ci X + c0

donde los términos, a partir del primero, son de grado menor que n. Resulta

Ejemplo 8-8Determinamos el polinomio característico de A, siendo

■ 1 2 2A = ‘

P (X) = D (XI — A) =

X - 2 - 2

= ( X + 1 ) 6 A + 6

= (X + 1) (X2 + 4 X) + 2 ( - 2 X ) + 3 . 2 X

= X3 + 5 X2 + 4 X - 4 X + 6 X = X 3 + 5 X2 + 6 X

Una raíz es \ = 0. Las otras dos lo son deX2 + 5 X + 6

O sea—5 ± 1

X -t-1 — 2 - 2- 2 X— 2 — 23 6 X + 6

+ 2- 2 - 2

6 X + 6+ 3

- 2 — 2

X - 2 - 2

X =2

www.FreeLibros.com

Page 279: Algebra ii   armando rojo -

www.FreeLibros.com

ResultaX2 = —3 X3 = —2

POLINOMIO CARACTERISTICO 273

8.3.3. Propiedad

El escalar X es un valor propio de A e K nxn si y sólo si X es raíz del polinomiocaracterístico de A.

1. Sea Xun valor propio de A. Entonces, de acuerdo con 8.2.5., A - XI es singular, y por consiguiente también lo es XI - A, o sea, D (XI - A) = 0.En consecuencia, Xes una raíz del polinomio característico.

2. Supongamos que Xsea una raíz del polinomio característico de A. Entonces es

O sea, XI - A y A — XI son singulares. Esto significa que X es un valor propio de A, por 8.2.5.

Usualmente, la determinación de los valores propios de una matriz, es decir, de las raíces de su polinomio característico, no es simple. Los métodos adecuados a este fin son temas de Cálculo Numérico, que no trataremos en este texto.

Ejemplo 8-9

Determinamos los valores y vectores propios de A e C2 x2, siendo

P(X) = 0 ^ ( X - 2)2 + 4 = 0 =>X~ 2 = ± 2/ =*X=2 ± 2i Los valores propios de A son

X, = 2 + 2/ Xj = 2 - 2i

Para determinar un vector propio asociado a X resolvemos el sistema lineal

(XI - A )X = 0

En efecto, si X es un vector propio asociado a X, por 8.2.3. se tiene

D ( X l — A) = 0

El polinomio característico es

P(X) = D (XI — A) = X 2 2 = (X — 2)2 + 42 X — 2

A X = XX

De donde

X X — A X = 0O sea

X I X - A X = 0

www.FreeLibros.com

Page 280: Algebra ii   armando rojo -

www.FreeLibros.com

Por distributividad es

(XI - A ) X = 0

¡ 2i — 2 \ / x A ¡ 0 \ 2i x 1 - 2 x 2 =Q1. Xt = 2 + 2?=* = U

\ 2 2i j \ x 2j \ 0 / 2 x i + 2 i x 2 = 0

=>x2 = ix i

' 1

274 VALORES Y VECTORES PROPIOS. DIAGONALIZACION.

X 2 = ' i

Un vector propio es Xj1 / ■

2. X2 = 2 - a - 2 ( * | ) = ( ° ) - | 2* . - 2 /* , = 0 - x , = i * 2

Un vector propio asociado a X2 es

' i

¡ \ i \Si P = [ I , entonces es

\ i 1 /

/ 2 + 2i 0P"1 A P =

\ 0 2 - 2 i

La matriz A ha sido diagonalizada.

Ejemplo 8-10

Probaremos ahora que los valores propios de toda matriz involutiva son 1 o —1. Sea A e KflXfl, tal que A2 =1.Si X e K71 x 1 es un vector propio asociado al valor propio X, entonces

A X = XX (1)

Premultiplicando por A

Como A2 = I, se tiene

O sea

De (1) y (2) se deduce

Es decir

A2 X = X A X

ix = Xa x

X = XA X (2)

X = XXX

(1 - X 2) X = 0

www.FreeLibros.com

Page 281: Algebra ii   armando rojo -

www.FreeLibros.com

POLINIMIO CARACTERISTICO 275

Como X =£ 0, resulta 1 - X2 = 0, y en consecuencia X= ± 1.

Con procedimiento análogo el lector podrá comprobar que los valores propios de toda matriz idempotente son 0 o 1, es decir

A2 - A =* X - 1 . X = 0

8.3.4. Propiedad

Dos matrices semejantes tienen el mismo polinomio característico, y en consecuencia los mismos valores propios.

Hipótesis) A ~ B e n K ílXfl

Tesis) D( XI - A ) = D ( X l — B)

Demostración)

A ~ B => 3 P n o singular / B = P 1 A P Por 4.19.5.

Entonces es

D (XI — B) = D (XP’1 I P - P ' 1 AP ) =

= D [P_1 (XI - A) P] ~D (P"1) D (XI - A) D (P) =

= D (P-1) D (P) D (XI — A) = D (P*1 P) D (XI — A) =

= D (I) D (XI - A) = 1 . D (XI - A) = D (XI - A)

La recíproca no es cierta, ya que dos matrices pueden tener los mismos valores propios y no ser semejantes.

Un contraejemplo se presenta considerando las matrices

i l 0 \ i 1 3

A - ( o . ) y B = ( o .

8.3.5. Polinomio característico de una trasformación lineal

Sea / : V -*■ V una trasformación lineal y sea [v] = { Vj, v2, . . v„ } una base de V. Entonces/está caracterizada por una matriz A e Knxn respecto de [v].

Si [v’] = { v \ , v’2, . . . , v’n f es otra base de V, entonces existe una matriz no singular P e K.nxn tal que la matriz d e /, respecto de la base [v’]} verifica

B ^ F 1 A P

Las matrices A y B admiten el mismo polinomio característico, de acuerdo con 8.3.4. El polinomio característico de cualquiera de las matrices que caracterizan a / se llama polinomio característico de la trasformación lineal.

www.FreeLibros.com

Page 282: Algebra ii   armando rojo -

www.FreeLibros.com

276 VALORES Y VECTORES PROPIOS. DIAGONALIZACION.

8.4. DIAGONALIZACION DE MATRICES

8.4.1. Definición

Una matriz A e K nxn es diagonalizable si y sólo si es semejante a una matriz diagona]O sea

A e Knx" es diagonalizable o 3 P no singular / P"1 A P = D

donde D es diagonal.

8.4.2. Propiedad

Si A e K "xn es diagonalizable, entonces su forma diagonal es D 6y), donde \i = 1 ,2 , . . n son los valores propios de A.

En efecto:

C0(

di 00 \ - d 2

0 0 \ - d y

A es diagonalizable = > A ~ D = > D ( M — D) =

=.7^ (A - d ¡ )

El polinomio característico de A es

P (k) = ( \ - d l ) ( K - d 2) . . . ( k ~ d tl)

En consecuencia, los elementos de la matriz diagonal son los valores propios de A.

8.4.2. Propiedad

Una matriz A e K nx" es diagonalizable si y sólo si A admite n vectores propio linealmente independientes.

1. Sea A diagonalizable.

A es diagonalizable = > A ~ D = * 3 P n o singular /P " 1 A P = D=> A P = PD (1)

Particionando P en vectores columna, o sea

P = (X 1 X2 . . . X„),

es

P D = (Xj X2 . . . X„)

/ Xj 0 . . . 0 0 ^ 0

0 0 . . .

eleind

dia lo i hoi

www.FreeLibros.com

Page 283: Algebra ii   armando rojo -

www.FreeLibros.com

DIAGONALIZACION277

Además

A P = A( X, X2 . . . X „ ) = ( AX, A X 2 . . . A X „ j (3)

De (1). (2), y (3) resulta

A X ¡ — \ X ¡ i = 1, 2, . . n

Luego las columnas de P son n vectores propios de A, y como P es no singular, talescolumnas son L.I.

En consecuencia, A admite n vectores propios L.I.

2. A admite n vectores propios L.I.Sean tales vectores propios: X j , X2, , . X„.Por definición es

0 sea, A es diagonalizable.

8.4.3. Raíces del polinomio característico y diagonaíización

De acuerdo con 8.2.4., si los valores propios del polinomio característico de A e K nxn son elementos distintos de K, entonces los vectores propios asociados son Ünealmente independientes, y, por 8.4.2.2., A es diagonalizable.

En general, si el polinomio característico de A tiene raíces múltiples, la matriz no es diagonalizable. Para que lo sea, debe cumplirse la condición suficiente demostrada en 8.4.2.,lo que significa que a toda raíz múltiple de orden p debe corresponderle un sistema lineal y homogéneo cuyo espacio solución tenga dimensión p.

Ejemplo 8-11

P - (X! X2 . . . X„) y D - (\- 5 a)Se tiene

A P = (A X ¡ A X2 . . . A X * ) ^ , X t %2 X2 . . . X,, X j,)^

= (x i X2 . . . X„) (A; 5jj) = P DComo P es no singular resulta

P"1 A P = D

La matriz

no es diagonalizable

www.FreeLibros.com

Page 284: Algebra ii   armando rojo -

www.FreeLibros.com

278VALORES Y VECTORES PROPIOS. DIAGONALIZACION.

Determinamos los valores propios

P(A) = D ( X l - A ) =X 1 - 1 o

0 X - l - i 0 0 X - l

= (X l ) 3 ^ Xi — X2 *- X3 1.

Los vectores propios asociados a esta raíz triple satisfacen a

( X I - A) X = 0

O sea

Luego

0 - 1 OWX j 0 1 - 1 |( ^2 0 0 0

0 * ! - x-i + 0 x 3 “ 0

Oxj + 0x 2 - X 3 = 0

El rango de la matriz de coeficiente es 2, y en consecuencia es

dim S = 3 - 2 = 1

O sea, hay un solo vector propio linealmente independiente de la matriz A. Por consiguiente, A no es diagonalizable.

Ejemplo 8-12

La matriz

es diagonalizable y sus valores propios no son todos distintos. En efecto:

P (X) = D (XI - A) =

« C X - 1)

X + 3 0 4- 4 X - l - 4 - 2 0 X - 3

X + 3 4

—2 X - 3

=>Xi =X3 = 1 , X3 = -1

= ( X - 1)(X2 - 1)=*

www.FreeLibros.com

Page 285: Algebra ii   armando rojo -

www.FreeLibros.com

TRIANGUALCION 279

1. Xi - - 1 =*

La matriz del sistema tiene rango i , o sea

diro S = 3 - 1 = 2

2. A Aj = • 1 le corresponde un vector propio linealmente independiente. Luego A esdiagonalizable y su forma diagonal es

' l 0 o ’D = | 0 1 0

0 0 -1

8.5. TRIANGULACION DE ENDOMORFISMOS Y DE MATRICES

Hemos visto que no siempre es posible diagonalizar una trasformación lineal o una matriz cuadrada. Cabe preguntarse si es posible determinar una base tal que, respecto de ella, la matriz de una trasformación lineal de un espacio de dimensión fmita en sí mismo sea triangular. La respuesta es afirmativa si el cuerpo es el de los números complejos.

Consideremos un endomorfismo

/ : V -> V

donde ditrtK V = n > 1.En lo que sigue, introduciremos el vocablo fa n , cuya traducción es abanico, para denotar

una familia de subespacios de V que satisface ciertas condiciones.

8.5.1. Concepto

Un fan d e /e n V es unan-upla de subespacios de V: S i , S2, . . Sn, tales que

i ) Son crecientes en el sentido de inclusión:

S, C S 2 C S 3 C . . . C S «

i i ) dim S,- = i , Vi = 1 , 2 , . . n

iii) Son invariantes, o sea

x e S¿ =*-/(x) e Sf Vi = 1 , 2 , . . . , n

Esta condición equivale a

/(S ¿ )C S¡ Vi = 1, 2 , . . . , «

Es obvio que Sn = V.

Definición

Si { S i , S 2, . . . , S j es un fan de / en V, entonces la familia [v] = ( Vi , v2, • • •, v„ }

www.FreeLibros.com

Page 286: Algebra ii   armando rojo -

www.FreeLibros.com

es una base fan de V si y sólo si { v j . v * , . ■ .,v f \ es una base de Sf para todo / = 1 , 2 , . . . , » .

El teorema de extensión 2.6.3. nos permite afirmar que existe una base fan.

8.5.2. Propiedad

Si [v] es una base fan de V, entonces la matriz asociada a todo endom orfism o/ : V -+ V es

triangular superior.Sabemos aue para obtener la matriz de / respecto de una base, hay que determinar las

imágenes'de los vectores de la misma y expresarlos como combinaciones lineales de tal« vectores. Teniendo en cuenta además la definición de subespacio invariante, resulta

Vi eSi =>/(vi)esi =>/(vi) = fln vi v2 e S 2 =>/(v2) e S 2 =*/(v2) = 0 n Vi + a22 v2

vn e S„ =>f(y») e Sn = > /(vn) - ¿(i „ Vi + a2n v2 + ■ ■ • + «»n v„

Por consiguiente, la matriz de / respecto de la base fan es

011 ^0 022 • • • Q'in

280 VALORES Y VECTORES PROPIOS. DIAGONALIZACION

A =

0 0 . . . ann

Si f : V -*• v es una trasformación lineal y si existe una base respecto de la cual la matride fe s triangular, entonces diremos q u e /e s triangulable. ■

En términos de matrices, diremos que A eK 'lxn es triangulable « y solo si exis P e KrtXfl no singular, tal que P '1 A P es triangular. Demostraremos que toda matriz pued

ser triangulada sobre el cuerpo C.

8.5.3. Propiedad

Si V es un espacio vectorial de dimensión finita mayor o igual que 1, sobre el cuerpo los complejos, y si / : V -> V es una trasformación lineal, entonces existe un fan de / en .

Demostramos esta afirmación inductivamente.

1 Si dim V = 1, entonces nada hay que probar.2. Supongamos que la propiedad es válida si dim V = » - 1. Demostraremos que lo esj

dim V = n.Sea V, un vector propio de / , el cual existe de acuerdo con el ejercicio 8-46, y sea S,

subesoacio generado por Vi. Resulta dim Si — 1. ,, , c _Siendo Sr un subespacio de V, existe un subespacio W cuya suma directa con S,

(ejercicio 7-40), o seaV = Si ®w

www.FreeLibros.com

Page 287: Algebra ii   armando rojo -

www.FreeLibros.com

C onsid e rem o s las proyecciones p , y p 2 de V sobre S t y W, respectivamente.La composición p 2 ° f e s una trasformación lineal de V en V tal que si x e W, entonces

/(x ) e W. Restringiendo el dominio a W, podemos consi derar a p 2 ° f como una trasfo rm ació n lineal de W en W. De acuerdo con la hipótesis inductiva, existe un fan dep 2 o / e n W. Sea éste

( W , , w 2 .........w „ ^ )

Consideremos ahora los subespacios

Sf = Si + W M

para?= 2, 3 , . . . , n.Se verifica que dim Sf = i, ya que si | Wj , w2, . . ., wn_, J es una base de W, entonces

{Vi, Wi , . . WM } es una base de S,-, i « 2 , 3 , . . n.

Además, S¡ C Sí+1 para todo / = 1 , 2 , . . . , « .

Para demostrar que { , S2, . . S„ } es un fan de / en V, es suficiente probar que/ (V í) c V(,

Observamos que

f = i v ° f = ( p i + p 2) f = p 1 ° f + p 2 ° f (1) puespi + p 2 =i y (ver3 4 6 )

Sea x un vector cualquiera de S,-:

x e S,- => x = av^ + w¡ , donde a e C y w ¡e W¡

Teniendo en cuenta (1) es

/ ( X ) = (P ! o f + p 2 o f ) ( x ) = ( p 1 o f ) ( x ) + ( p 2 0 / ) ( x ) ( 2 )

Ahora bien

ÍP i 0 f ) (x) = p i ¡f (x)] e S i , y en consecuencia

( P i ° f ) ( x ) e S ¡ (3)

Por otra parte

(P2 ° f ) (x ) = ip2 o f )(av1) + ( p 2 o f ) ( w¡) ^ a p 2 ( / ( v ! ) j +(p2 ° / ) (w,') —

= a p 2 (Xi vO + (p2 °/ ) ( wi) = a \ i p 2 (y1) + (p2 ° /) (wt) = 0 -t-<>2 °/ )(w,) == (P2 ° f) (W,)

de acuerdo con la descomposición de x, la definición de trasformación lineal, y considerando que Vj es un vector propio de / . Por la hipótesis inductiva se sabe que (p2 ° f ) (W,) C W,-, y por consiguiente

(Pi o f ) (x) = (p2 ° f ) (w¡) e W,O sea

(P 2 o f ) (x ) e S, (4)

TRIANGULACION 2gl

www.FreeLibros.com

Page 288: Algebra ii   armando rojo -

www.FreeLibros.com

282 VALORES Y VECTORES PROPIOS. DIAGONALIZACION.

Considerando (2), (3) y (4) resulta

/(x )e S ,-

Es decir

x e S ¡ ^ / ( x ) eS¡

Luego | S i, S2, . . S„ } es un fan d e /e n V.

Son consecuencias inmediatas de este teorema de existencia y de 8.5.2., las siguientes:

I. Si dimc V = n > 1 y f : V ->V es una trasformación lineal, entonces existe una base deV tal que la matriz de f respecto de dicha base es triangular superior.

II. Si A e C nxn, entonces existe P e C nx", no singular, tal que P '1 A P es triangular superior.

8.6. TEOREMA DE HAMILTON—CAYLEY

El teorema de Hamilton-Cayley, fundamental en la teoría de la resolución de ecuaciones matriciales, afirma que toda matriz cuadrada es raíz de su polinomio característico, esto es, siP (X ) es el polinomio característico de A e K " Xfl, entonces P (A) = N.

Desarrollaremos primero una demostración en el caso particular que se presenta si la matriz A, del tipo n x n , admite n vectores propios.

Para esto utilizaremos la siguiente propiedad que se propone como ejercicio del trabajo práctico: si X,- es un vector propio de la matriz A, asociado al valor propio X¡, entonces X¡ es un vector propio de la matriz A” , correspondiente al valor propio X“ .

Consideremos el polinomio característico de A

P (X) = Xn 4- cn_i X" 1 + . . . + Ci X + cq

Entonces

P (A) = A" + A””1 + . . . + c 1 A + c0 l

Multiplicando a derecha por el vector propio X,- asociado al valor propio X¿, y teniendo en cuenta la propiedad mencionada, es

P (A )X f = A” X, + cn_, A""1 X/ + . . . + c 1 A X i + c 0 X r

= X? X, + e„_, XT1 X, + . . . + c , X¡ X¡ + c0 X¡ =

= (X? + c „ . i X T + . . . + C, X, + c0)X ¡ =

= 0X,. = 0 Vi = 1 ,2 ........ n (1)

Sea P = (Xx X2 . . . XM) la matriz cuyas columnas son los vectores propios de A. Considerando (1), se tiene

P ( A ) . P = ( P ( A ) X , P (A )X 2 . . . P ( A ) X „ ) = N

Y como P es no singular, resulta

P ( A ) . P . P“1 = N . P'1

www.FreeLibros.com

Page 289: Algebra ii   armando rojo -

www.FreeLibros.com

TEOREMA DE HAMILTON - CAYLEY283

0 sea

P (A) = N

A =

Ejemplo 8-13

Utilizando el teorema de Hamilton-Cayley, determinamos la inversa de la matriz A del ejemplo 8-5.

3 - 2

, 1 2El polinomio característico de A, es

P (X) = X2 - 5 X + 4

Entonces es

P (A ) = A2 ~ 5 A + 4 I = N

O sea iI = — — (A2 - 5 A)

En consecuencia, multiplicando por A ;

A '1 =-----(A - 5 I)

Como

Resulta

A - 5 I

A '1 =

- 2 - 2

- 1 - 3

M i2 2

_L 14 4 I

Demostraremos ahora que toda matriz A e Cnx,t satisface a su polinomio característico, osea

A e Cnxn => P (A) = N

En efecto, sea el polinomio característico de A:

P (X) = D (X I — A) (1)

Sabemos que el producto de toda matriz cuadrada por su adjunta es igual al determinante de aquella por la matriz identidad (5,8.3.). Entonces

(XI - A) Adj (XI - A) = D (XI — A) . I

www.FreeLibros.com

Page 290: Algebra ii   armando rojo -

www.FreeLibros.com

VALORES Y VECTORES PROPIOS. DIAGONALIZACION.

Teniendo en cuenta (1) es(X I — A) Adj (X I — A) = P (X) . I (2)

Los elementos de Adj (XI - A), por ser los cofactores de (XI - A), son polinomios de grado menor o igual que n - 1, y en consecuencia

Adj (XI - A) = A n^ X*'1 + A n.2 X"-a + . . . + A1 X + A0 (3)

De (2) y (3) resultaAn_i X" + (A„_2 - A A„_i) X""1 + (A„_3 - A An J ) X"-* + . . . +

+ (A0 - A A O X - A Ao = X" I + c„_i X""1 I + . . . + XI + c0 I

O sea

An-j = IAn-2 ~ A An_i — Cn-1 I

An_3 — A An_2 — Cfí-2 ^

A o — A Aj Cj I

— A Aq = Cq I

Luego de premultiplicar por A ", A n 1, . . A e I, respectivamente, se tiene

A” A n_i = A"

A" 1 A„_2 — A*1 An_i —cn_i A n 1

A""2 Ajj„3 - A""1 A„_i = Cd_2 A”-2

A A0 - A2 A| =Cj A

- - A Aq — C q I

Sumando, después de reducir, es

N = A n 4- cn. i A”"1 + . . . + C , A + c0 I

O seaP (A) = N

www.FreeLibros.com

Page 291: Algebra ii   armando rojo -

www.FreeLibros.com

TRABAJO PRACTICO VIII

8-14. Determinar los valores y vectores propios de las siguientes trasformaciones lineales:

1. / : R 2 ~>R2 definida por f ( x u x 2) = (4x¡ + 3 * 2 , 3 ^ - 4x2)

2. / : R 3 -* R 3 tal q u e /(x, y , z )= (2y ~ z ,2 x - z , 2 x ~ y )

8-15. Obtener los valores y vectores propios, si existen, de las matrices siguientes con elementos en R:

8-16. Demostrar que si X es un valor propio de A e K "x" y ésta es no singular, entonces X es no nulo.

8-17. Demostrar que si X es un valor propio de la matriz no singular A, entonces X'1 es un valor propio de A"1.

8-18. Demostrar que si X, es un vector propio de la matriz A asociado al valor propio X¿, entonces X¡ es un vector propio de A n correspondiente al valor propio Xf

8-19. Demostrar que si X! es un vector propio de la matriz A, correspondiente al valor propio X j, entonces Y = S"1 X, es un vector propio de la matriz S"1 A S, asociado a X!.

8-20. Determinar el polinomio característico, los valores y vectores propios de cada una de las siguientes matrices complejas:

8-21. Demostrar que si P (X) es el polinomio característico de la matriz A eC nxn entonces cn-1 el opuesto de la suma de los valores propios y el término independiente es igual al producto de ( - l ) n y el producto de los valores propios.

www.FreeLibros.com

Page 292: Algebra ii   armando rojo -

www.FreeLibros.com

286 VALORES Y VECTORES PROPIOS. DIAGONALIZACION.

8-22. Demostrar que si A e Cnx' \ entonces la traza de A es igual a la suma de los valores propios y el determinante de A es igual al producto de los valores propios.

8-23. Demostrar que los valores propios de toda matriz idempotente son 0 ó 1.

8-24. Demostrar que dos matrices traspuestas tienen el mismo polinomio característico.

8-25. Investigar si la siguiente matriz es diagonalizable

8-26. Sea una matriz A e Cnxn tal que A k = I. Demostrar que si X es un valor propio de A, entonces Xfe = 1.

8-27. Demostrar que los valores propios de una matriz triangular son los elementos de la diagonal.

8-28. Por definición, una matriz cuadrada A es nilpotente si y sólo si existe un entero positivo k, tal que A k = N. Demostrar que los valores propios de toda matriz nilpotente son nulos.

8-29. Demostrar las siguientes propiedades:

1. Dos matrices semejantes tienen sus trazas iguales.

2. Si k es un entero positivo, entonces tr Ah = 2 X?.

3. La traza de toda matriz idempotente es igual a su rango.

4. La traza de una suma es igual a la suma de las trazas.

5. Las trazas de dos matrices traspuestas son iguales.

6. Las matrices A B y B A tienen trazas iguales.

7. tr (ABC) = tr (BCA) = tr (CAB)

8. Si P es ortogonal, entonces tr (Pf A P) = tr A.

8-30. Considerando el producto interior habitual en R2, determinar una base ortonormal de vectores propios de A, siendo

8-31. Demostrar que si todos los valores propios de una matriz son no nulos, entonces dicha matriz es no singular.

8-32. Calcular P (A), siendo P (X) = X3 — X + 1 y

www.FreeLibros.com

Page 293: Algebra ii   armando rojo -

www.FreeLibros.com

8-33. Demostrar que si A es una m atriz sim étrica y P e R [X], entonces P (A) es una matriz simétrica.

8-34. Demostrar que si A es herm itiana y P e R [X], entonces P (A) es hermitiana.

8-35 Sean A y P elementos de Knxn, tales que P es no singular. Demostrar que

(P't a P)ft = P"1 A h P

8-36. Considerando dos matrices A y B como en el ejercicio anterior, demostrar que si P eK [X], entonces

P (B 1 A B) = B~‘ P (A) B

8-37. Verificar que la matriz

' eos sen y?

TRABAJO PRACTICO VIII 287

A =sen i/? —eos

admite un vector propio en R 2, cualquiera que sea e R. Probar que existe un vector X tal que A X = X.

8-38. Con relación al ejercicio anterior, demostrar que si Y es un vector de R2 ortogonal a X, entonces A Y = —Y. Interpretar geométricamente.

8-39. Demostrar que si P es una matriz ortogonal del tipo 2 X 2 y D (P) = - 1 , entonces existe un número real y? tal que

/ 1 0 \ / eos v? -sen

P = \ 0 - 1 / \ sen eos

8-40. Sean X un valor propio de A e K Hxn y f un polinomio de K [X]. Demostrar que/(X ) esun valor propio d e /(A ).

8-41. Obtener una base fan de los endomorfismos de C2 caracterizados por las matrices

*-(::) h i :8'42. Demostrar que si X es un valor propio de A e K "xn, entonces a + Xes un valor propio

de a I + A , V a K.

8-43. Demostrar que una matriz A e Cnxn es singular si y sólo si admite algún valor propio igual a cero.

8-44. Diagonalizar, si es posible, las matrices

1 l + i• A = | ) eC 2x2

0 • 1

www.FreeLibros.com

Page 294: Algebra ii   armando rojo -

www.FreeLibros.com

288 VALORES Y VECTORES PROPIOS. DIAGONALIZACION.

A -

/ 1___

0

2

01

2

1 1

2 2

j_ 2

_1_2

— 0

e R 3x3

8-45. Sean A = - 22

y P(X ) = X2 - l.

Diagonalizar P (A), si es posible.

8-46, Sabiendo que dimc V > 1 y que / : V V es un endomorfismo, demostrar que existe un vector propio de /.

www.FreeLibros.com

Page 295: Algebra ii   armando rojo -

www.FreeLibros.com

Capítulo 9

FORMAS BILINEALES Y CUADRATICAS

9.1. INTRODUCCION

Presentamos en este capítulo los conceptos de forma bilineal sobre un espacio vectorial, de forma cuadrática asociada, y sus conexiones con la matriz de cada una respecto de una base en el caso de dimensión finita. Se estudian los operadores adjuntos, traspuestos, hermitianos y simétricos, así como también algunas propiedades de sus valores propios. Esta situación se reitera en el caso de operadores unitarios y ortogonales. Después de la demostración del teorema de Sylvester, se trata el tema de la diagonalización de operadores simétricos y de las matrices correspondientes. Además de la descomposición espectral de una matriz diagonalizable, se estudia la congruencia de formas cuadráticas reales, la reducción a la forma canónica y el signo de una forma cuadrática.

9.2. FORMAS BILINEALES

9.2.1. Concepto

Sean: (V, + , K , .) un espacio vectorial y / una función de V2 en K.

Definición

La función / : V2 -+ K es una forma bilineal sobre V si y sólo si es lineal respecto de los dos argumentos.

O sea

/ : V2 K es una forma bilineal sobre V si y sólo si satisface:

1. Linealidad respecto del primer argumento

f ( a x + b x \ y ) = a f ( x , y ) + b f ( x \ y )

2. Linealidad respecto del segundo argumento/ ( x . c y + d y ’) = c f ( x t y ) + d f (x, y ’)

cualesquiera que sean x, x ’, y, y ’ en V y a, b, c, d, en K.

www.FreeLibros.com

Page 296: Algebra ii   armando rojo -

www.FreeLibros.com

290 FORMAS BILINEAI.ES Y CUADRATICAS

S i/e s una forma bilineal sobre V, entonces se verifica que

f ( a x , y ) = a f ( x , y ) = /( x , a y)

El lector puede demostrar que el conjunto de las formas bilineales sobre V es un espacio vectorial sobre el cuerpo K, comprobando que s i / y g son dos formas bilineales cualesquiera y si oc e K, en to n ces/ + g y a f son formas bilineales.

Ejemplo 9-1

Considerando (Kn, + , K , .), la función

/ : K " X K " ^ Kdefinida por

f ( x , y ) = i§ i x t y ¡

es una forma bilineal sobre Kn, ya que verifica las condiciones 1. y 2. de la definición.

Ejemplo 9-2

Asociada a la matriz A e KnXtt, la función

/ : K n x r ^ K

definida por

/ (X, Y) = X( A Y (1)

es una forma bilineal en K", donde la imagen /( X , Y ) e K lxl se identifica con un escalar en virtud del isomorfismo entre K 1 x 1 y K.En efecto:

f ( a X -f b Y, Z) = (a X + b Y)* A Z = (a X* + b Y*) A Z =

- a X* A Z + b Y* A Z = a f (X, Z) + b f (Y, Z)

Análogamente se prueba la linealidad d e/respec to del segundo argumento.La expresión escalar de (1), efectuando el producto de matrices, es

/(X , Y ) = X ‘ A Y = (X l X2 . . . Xn)

011 «12 . . . flih y ia 2 \ #22 • • • O-i „ y 2

1 #n2 ••• flfm y « ¡

( 2 XfOn 2 x ¡ a ¡2 . . . 2 *¿0 ^ )i - i j = i i = i

y i y 2

y n

n n

= 2 y, 2 x ¡ a u = 2 2 a u X t y i i - i 1 i= l 1 y i = l ) = l u

www.FreeLibros.com

Page 297: Algebra ii   armando rojo -

www.FreeLibros.com

FORMAS BILINEALKS SIMETRICAS 291

Sea V un espacio de dimensión n > 1. Consideremos una base [v] = { vt , v2, . . v„ ) deV y la forma bilineal / : V2 K.

’ Entonces/e s tá caracterizada por los valores

a y = / ( v i , v / )

son los elementos de la matriz A e K nxn, llamada matriz de /respecto de la base [v].En efecto, si x e y son dos vectores cualesquiera de V, expresándolos en términos de la

base [v], es

/ ( x ^ / C . I x t v t . j i y j v j ) * % f x iy j f ( v [ ,v]) =

= 2 S ¿ íffx í>/ = Xt A Y

donde X e Y son las matrices columnas cuyos elementos son las coordenadas de x e y respecto de la base [v].

9.2.3. Forma bilineal simétrica

Sea / : V2 -> K una forma bilineal.

DefiniciónLa forma bilineal / es simétrica si y sólo si

/ ( x , y ) = / ( y , x )

cualesquiera que sean x e y en V.

Si K = R, y ( , > es un producto interior en V, entonces / : V2 R definida por

/ ( x , y) = <x, y > (1) ^

es una forma bilineal simétrica.Si [v] = { V |, v2, . . vn ¡ es una base ortogonal de V, o sea

i # / ^ / ( v í,v/) = ay = 0

entonces la matriz A de la forma bilineal (1) es diagonal

ax 0 . . . 0 '

9 2.2. Matriz de una forma bilineal

A =0 a-i . . . 0

0 0 . . . &ri

y la forma se dice diagonalizada. Resulta

/ ( x , y ) - l¡ 1 ai x ¡yi

www.FreeLibros.com

Page 298: Algebra ii   armando rojo -

www.FreeLibros.com

292 FORMAS BIUNEALES Y CUADRATICAS

Si [v] es oríonormal resulta

/ ( x , y) = ¡£ x , y l

9.2.4. Propiedad

T 2 T X l T ¿ reT nta una forma Mineal siraétrica si y só,°s¡ A es. í>ea/ la forma bilineal simétrica asociada a A.

/ e s simétrica « / ( X , Y) = /(Y , X)=>X, A Y = YÍ A XComo

Y 'A X = (Y'AX)« = Xí A'Ypor ser Y A X un escalar y por traspuesta de un producto, resulta

X t A Y = X í Af Y V X , Y e K"O sea

X* (A - A') Y = 0 V X . Y e K 11En consecuencia

A - A* - NY por lo tanto

A - A ¿2. Sea A simétrica. Entonces

/ « Y ) = X ' A Y = (Xl AY)t = Yf A ' x = Y, A X = / ( Y X)Luego / es simétrica.

Ejemplo 9-3.

Desarrollamos la forma bilineal simétrica asociada a la m a t e A, siendo

/ l - l 2 A « - 1 3 1

\ 2 1 - 2Resulta

/(X,Y) = Xl AY = (I l J ¡ l 3 ) ( \ ? '\ 2 1 _ 2

.= ( * i ~ * 2 + 2x3 - * , + 3 x 2 + * 3 2x , + x 2 ~ 2 x 3 )

y i| =

73

www.FreeLibros.com

Page 299: Algebra ii   armando rojo -

www.FreeLibros.com

MATRIZ D E UNA FORMA HERMITIANA

9.3. FORMAS HERMITIANAS

293

9.3.1- Concepto

Sea V un espacio vectorial sobre el cuerpo de los complejos.

DefiniciónLa función / : V2 C es una forma hermitiana sobre V si y sólo s i / satisface las condiciones de linealidad respecto del primer argumento y de simetría conjugada.

0 sea

i ) f ( a x + b x \ y) = a f (x, y) + b f ( x \ y)

¡i) / ( x , y ) = / ( y , x)

Ejemplo 9-4En ( C" , +, C , .) la función

/ : Cn X Cn -v C

definida por

/ ( X , Y ) = X t Y « (S * , 7 ,

es una forma hermitiana definida positiva, ya que satisface los axiomas del producto interior usual en un espacio unitario (véase el ejercicio 7-46).

9.3.2. Matriz de una forma hermitiana

Sea (V, + , C , .) un espacio unitario, es decir, un espacio vectorial sobre el cuerpo C, donde está definido un producto interior como en el ejercicio 7-46.

La función

/ : V2 -+ C

tal que/ ( x , y ) = < x , y )

es una forma hermitiana. Si V es de dimensión n > 1, y [v] = { Vj , V2 , . . v„ J es una base, entonces

- n n n n

/(x,y) = <x,y> = <2 'xfVi.S I x,7,<v,,v,> =l — l J T=1 i““-!- /“ i

au x ¡yj = x t A Y

www.FreeLibros.com

Page 300: Algebra ii   armando rojo -

www.FreeLibros.com

294 FORMAS BILINEALES Y CUADRATICAS

Respecto de la base elegida, la forma hermitiana está caracterizada por la matriz A, cuyo elemento genérico

aü = í Vf , v;- )

es tal que

0y = <vi ,v/ > = <v/ , v l-> = a;-¿

En consecuencia, la matriz A verifica

A - Áf = A*

o sea, A es hermitiana.

9.4. FORMAS CUADRATICAS

9.4.1. Concepto

Sean: (V, +, K , .) un espacio vectorial de dimensión finita y g : V2 K una forma bilineal simétrica sobre V.

Definición

Forma cuadrática asociada a la forma bilineal simétrica g es la función

/ : V- >K

definida por

/ ( x ) = * ( x , x )

Como la forma bilineal simétrica# verifica los axiomas i), ii) y iii) del producto interior definido en 7.2.1., es usual escribir

S (Xj x ) = ( x, x )

Si V = K" y si A e Knxn es la matriz simétrica de la forma bilineal#, entonces la forma cuadrática asociada está definida por

/ ( X ) = X ‘ A X = , 2

Observamos que el desarrollo de una forma cuadrática, en términos de las variables * i, * 2 . • • •> x n> corresponde a un polinomio homogéneo de grado 2, donde los coeficientes de los términos cuadráticos son los elementos de la diagonal de la matriz simétrica correspondiente, y cada coeficiente de un término rectangular x t xj es el duplo del elemento a¡j de la misma.

Definición

Una forma cuadrática X* A X es no degenerada si y sólo si A es no singular.

www.FreeLibros.com

Page 301: Algebra ii   armando rojo -

www.FreeLibros.com

FORMAS CUADRATICAS 295

La matriz correspondiente a la forma cuadrática

f : R3 - R

Ejemplo 9-5

definida porf ( x ) = x \ + 2 x \ + 2 x 1 - 2 x x x 2 + 4 * ! x 3

es

Como

A =

D (A) = - 1 2 0 = 2 = - 6 =£ 01 1 0 1 1

resulta A no singular, y en consecuencia/es no degenerada.

9.4.2. Formas cuadráticas y cambio de base

Sea / : V -> K una forma cuadrática caracterizada por la matriz A e K"xn respecto de la base [v].

Se tiene entonces

/ (x) = X* A X

donde X es la matriz columna cuyos elementos son las coordenadas de x respecto de la base

lvl-Si en V se considera una base [v*], respecto de ésta, el vector x se representa mediante X’. Se verifica que

X = P X ’

donde P es la matriz de pasaje definida en 4.19.Sustituyendo en la primera igualdad

/ ( x ) = (P X’) f A (P X’) - X’* P ' A P X ’

La matriz de / respecto de la nueva base es

B = P ' A P

Las matrices A y B se llaman congruentes.

DefiniciónA e K"*M es congruente a B e K”xn si y sólo si existe P no singular tal que B = Pf A P.

Sabemos que el rango de una matriz no varía si se la multiplica por matrices no singulares. En consecuencia, si dos matrices son congruentes tienen el mismo rango.

www.FreeLibros.com

Page 302: Algebra ii   armando rojo -

www.FreeLibros.com

296FORMAS BILINEALES Y CUADRATICAS

Rango de una forma cuadrática es el rango de cualquiera de h* m t representan. siquiera ae las matrices que la

En consecuencia, una forma cuadrática es no degenerada si v ■ dimensión del espacio. Una forma cuadrátir* a / SU rang0 es ^ ual ala dimensión del espacio. * degenerada S1V si su rango es menor que

Definición

Ejemplo 9-6.

La forma cuadrática/está caracterizada por la matriz

/ JO 0 2 0 6 0

\ 2 0 7respecto de la base canónica en R3 Determinamos la matriz de / respecto de la base

1

La matriz de pasaje es

La matriz B de la forma cuadrática/respecto de la nueva base es

/ 6 0 0 B = P ' A P = ( 0 6 0

0 0 11

9.5. OPERADORES ADJUNTOS Y TRASPUESTOS

Una trasformación lineal f • V -> V sprá \u mt,An * u - operador en V. llamada también operador lineal o simplemente

Propiedad

un en ^

< / ( x ) , y > = < x , / * ( y ) >

www.FreeLibros.com

Page 303: Algebra ii   armando rojo -

www.FreeLibros.com

Demostración)

Sea y cualquier elemento de V. Definimos la función

F : V -» C

mediante

F (x) = < / ( x ) , y ) (1)

La definición (1) caracteriza un funcional, es decir, un elemento de V*. De acuerdo con el enunciado del ejercicio 7-60, existe en V un elemento y ’, único, tal que

F (x) = < x , y ’> (2)

cualquiera que sea x e V.De (1) y (2) resulta

< / ( x ) > y > = ( x , y ’> (3)

En consecuencia, para cada y e V, existe y ’ e V, único, que satisface (3). Podemos definir entonces la función

f* : V-> V

mediante

/* ( y ) = y ’

La función/* satisface la condición

</ ( x ) , y > = < x , / * (y)> V x V y e V

Además es lineal, pues

< x , /* (a y + b y ’)> = < / ( x ) , a y + b y ’ ) = a < / ( x ) , y > + b < /(x ) , y ’) =

= á < x , f* (y) > + b < x , J* (y’) > = < x , a f* ( y ) ) + ( x , b f* (y’) ) -

-< x , a f* (y) + b f* (y’)>

Esta relación se verifica cualquiera que sea x e V. En consecuencia

/*(fly + *y,)=Sfl/*(y) + */*(y’)

O seaf* es un operador lineal.

La unicidad de f* se justifica porque para cada y e V existe y ’ =f* (y), único, tal que

F( x) = < x , / * ( y ) >

El operador f* a que se refiere el teorema anterior, se llama adjunto d e/.

OPERADORES 297

www.FreeLibros.com

Page 304: Algebra ii   armando rojo -

www.FreeLibros.com

298 FORMAS BILINEALES Y CUADRATICAS

En un espacio de dimensión finita con producto interior, un operador f* se llama adjunto d e /s i y sólo si

< /(x ) ,y> = <x, f * (y)>

cualesquiera que sean x e y en V.Si el cuerpo es R, el operador /* se llama traspuesto de f y se denota

r = f

9.5.2. Matriz del operador adjunto

Si A es la matriz del operador f respecto de una base ortonormal, entonces B = Á* e s la matriz del operador adjunto f*.

En efecto, sea [v] = ( Vi , v*, . . . , v„ } una base ortonormal de V. De acuerdo con el ejercicio 7-61, se verifica que

/(v j) = </(vj) ,v , >vx + ( f ( v j ) , v 2 >v2 + . . . + </(v;-) ,v„ >vn V/ = 1 , 2 , . . . , «

En consecuencia, el elemento genérico de la matriz A es

ay = </ (V; )Jvf>

Si B es la matriz d e/* respecto de [vj, entonces

= y¡)

Se verifica que

btj = <f* (v>), Vf) = ( v u f* (v;-) > = ( f ( V i \ v j ) = á¡¡

Luego

B = A * ^ Af

Observamos que si f y g son dos operadores sobre V y a e C, entonces

( f + g)* = f * + g * (otf)* = á f *

(/*)*= f ( f ° g)* = g* ° f*

Los operadores f y f * se llaman adjuntos entre sí.

Ejemplo 9-7

Determinamos el operador adjunto de

/ : C2 C2

tal que

/ ( z , u) = (z + 2i'u, (1 + í)z + u)

Definición

www.FreeLibros.com

Page 305: Algebra ii   armando rojo -

www.FreeLibros.com

OPERADORES 299

La matriz de / respecto de la base canónica, que es ortonormal, es

1 2 iA =

1 + i 1

por consiguiente, la matriz de f * es

'-2 / 1 /

Resulta/* (z, u) = (z + (1 — i) u , — 2iz + u)

9.6. OPERADORES HERMITIANOS Y SIMETRICOS

9.6.1. Concepto

S e a / u n operador lineal sobre V, de dimensión finita, con producto interior, y sea f * el operador adjunto.

En el caso complejo, V es un espacio unitario, y en el caso real, V es euclidiano.

Definición

Un operador / sobre un espacio unitario se llama hermitiano si y sólo si es igual a su adjunto.

/ e s hermitiano o < / (x), y ) = < x , / ( y ) >

La matriz asociada a un operador hermitiano respecto de una base ortonormal es hermitiana.

Definición

El operador / sobre un espacio euclidiano se llama simétrico si y sólo si es igual a su traspuesto.

La matriz asociada a un operador simétrico respecto de una base ortonormal es simétrica. Los operadores simétricos y hermitianos suelen llamarse también autoadjuntos.

9.6.2. Propiedad

Un operado r/es hermitiano si y sólo si < x ,/ ( x ) > e R, V x e V.

1. Sea / un operador hermitiano. Entonces

< x , / ( x ) > = </ (x) ,x> = <x , / (x) >

Luego< x , / (x) > e R

2. Sea/ tal que V x e V : < x, /(x )> e R

www.FreeLibros.com

Page 306: Algebra ii   armando rojo -

www.FreeLibros.com

300 FORMAS BILINEALES Y CUADRATICAS

Se tiene

< / ( x ) , x > = < x , / ( x ) ) - < / * ( x ) , x > = >

=>< / ( x ) - / * ( x ) , x > = 0 =>=* <</-/*) (x) , x > = O . V x e V ^

— f* ~ e, donde e denota el operador nulo.Luego

f = f *O sea, / es hermitiano

9.6.3. Propiedad

Los valores propios de todo operador hermitiano son reales.

Sea Xun valor propio asociado al vector propio x. Se tiene:

X<x , x > = <\ x ,x> = </(x) ,x> = <x ,/(x)> =^ ( x , Xx) = \ < x , x >

Cancelando {x , x > 0 resulta X= XO sea

X e R

Una consecuencia inmediata es la siguiente: los valores propios de toda matriz hermitiana son reales. En particular, los valores propios de toda matriz simétrica y real por ser hermitiana, son reales. ’

9.7. OPERADORES UNITARIOS Y ORTOGONALES

9.7.1. Concepto

Sean (V, + , C , .) un espacio unitario de dimensión finita, y / u n operador sobre V.

Definición

El operador / : V V es unitario si y sólo si preserva el producto interior

/ es unitario o < x , y > = < /( x ) , / ( y ) >

Sean (V, + , R , .) un espacio euclidiano de dimensión finita, y / u n operador sobre V.

Definición

El o p e ra d o r/: V V es ortogonal si y sólo si preserva el producto interior.

En este caso, en que K = R, el operador se llama también real unitario.

www.FreeLibros.com

Page 307: Algebra ii   armando rojo -

www.FreeLibros.com

Ejemplo 9 'T

El operador / : R2 ->• R2 definido por

f ( x , y) = (x eos 8 - y sen 8, x sen 8 + y eos 8)

es ortogonal, considerando ei producto interior usual.En efecto, el producto interior entre (xx, y x) y (x 2, y 2) es

( ( xx, y x) ,{x2, y 2) ) ^ xi x 2 + y x y 2y el producto interior entre sus imágenes es

( f ( x u y i ) , f ( x 2ty 2) ) ^= { (Xi eos 0 - yx sen 8, x x sen 8 + y x eos 8),(x2 eos 8 - y 2 sen 8, x 2 sen0 +y 2 eos 0)) = - X i x 2 eos2 8 + y x y 2 sen2 8 - x xy 2 sen 8 eos 8 - x 2 y i sen 9 eos 8 ++ Xi x 2 sen2 8 + y í y 2 eos2 8 + x x y 2 sen 8 eos 8 + x 2 y t sen 6 eos 8 == Xi X 2 + y 1 y 2 =<(xl , y l )i(x2, y 2))

f representa una rotación del plano de ángulo 8, con centro en el origen,

9.7.2. Propiedad

Si V es un espacio vectorial real con producto interior y / es un operador, entonces/es ortogonal si y sólo si preserva las longitudes de los vectores.

1. Supongamos que / e s ortogonal. Entonces

/eso rto g o n a l =><x, x> = </ ( x ) , / ( x ) > =* IIxII2 = l l / ( x ) l l 2 =>

=> 11x11= II / (x) II

2. S e a /u n operador que conserva las longitudes de los vectores.Entonces es

</(x+y),/(x+y)>-</(x-y),/(x-y)> = <x+y,x+y>—<x-y,x -y)Desarrollando ambos miembros resulta

< / ( x ) , / ( y ) > = <x,y>L uego/es ortogonal.

Una consecuencia inmediata es la siguiente: los operadores ortogonales trasforman vectores unitarios en vectores unitarios.

9.7.3. Propiedad

Los operadores ortogonales conservan la ortogonalidad.

En efecto, s e a /: V V un operador ortogonal, y sea x ortogonal a y.

OPERADORES 3Q1

www.FreeLibros.com

Page 308: Algebra ii   armando rojo -

www.FreeLibros.com

Resulta

< /( x) > / ( y ) > = < x , y > = 0 Luego / (x) es ortogonal a / (y).Observamos que no toda trasformaeión lineal que preserve la ortogonalidad e-

operador ortogonal. En efecto, si

/ : V - > V

es tal que/ ( .* ) - 3a:, entonces/conserva la ortogonalidad, pero no es un operador ortogt

9.7.4. Propiedad

Sea V un espacio euclidiano de dimensión finita. Un operador lineal / : V -M ortogonal si y sólo s i/* ° / = iv .

En efecto:

/ es ortogonal ^ < x , y > = < / ( x ) , /(y )> «■

* < x , y > = < x , (/*<>/) (y) ) o

f* denota el operador adjunto de / , que en el caso real es su traspuesto.Luego

/ es ortogonal /v

En términos de matrices se verifica que un operador es ortogonal si y sólo si la m; asociada respecto de una base ortonormal es ortogonal.

Sea A tal matriz. Entonces

/ es ortogonal «>Af A = I

Observamos que todo operador ortogonal es inversible, y se verifica que

r = fO sea

A”1 = A*

9.7.5. Propiedad

Sea V un espacio unitario, y s e a /u n operador sobre V.Como en el caso real, se verifica que un operador es unitario si y sólo si preserva

longitudes de los vectores.Se demuestra análogamente q u e /e s unitario si y sólo s i/* ° / = iv .Además, si A e C lxn es la matriz de / respecto de una base ortonormal, en tonces/es

operador unitario si y sólo si A* = A"1.Una matriz compleja que satisface la condición anterior se llama unitaria.

302 FORMAS BILINEALES Y CUADRATICAS

www.FreeLibros.com

Page 309: Algebra ii   armando rojo -

www.FreeLibros.com

Definición

A e Cf,Xfl es unitaria A* A = I A* = A"1.

Toda matriz unitaria de elementos reales es ortogonal.Observamos que los operadores y las matrices unitarias son una generalización de los

operadores y matrices ortogonales de los espacios euclidianos.

9.7.6. Propiedad

Los valores propios de todo operador unitario tienen módulo 1.

En efecto, sea X un valor propio del operador unitario f , y sea x un vector propio asociado a X. Entonces

< x , x > ~ < / ( x ) , / ( x ) > = < Áx , \ x> =

= \ \ ( x ,x>

Como < x , x > # 0 resulta

\ Á = 1

O sea

IX P = 1Luego

I Xl= 1

9.8. TEOREMA DE SYLVESTER

9,8.1. Ampliación del concepto de base ortogonal

Sea V un espacio vectorial de dimensión finita sobre un cuerpo K, y sea una forma bilineal simétrica que denotamos con <, > sobre V. Se demuestra que si dim V > 1. entonces existe una base ortogonal respecto de <, > (ejercicio 9*41).

Ejemplo 9-8

En R2 definimos ( , ) mediante

<x ,y> = Xi x 2 - y i y 2 donde x - ( x j , x 2) e y = (y¡ , y 2).Esta forma no es definida positiva, pues, por ejemplo

x = (1, 1)=> <x , x >= 0

x = ( í , 3) => <x , x )= —8

Los vectores = (1, 3) y v2 = (3, 1) forman una base ortogonal respecto de la forma dada.

TEOREMA DE SYLVESTER 3Q3

www.FreeLibros.com

Page 310: Algebra ii   armando rojo -

www.FreeLibros.com

La base formada por x = ( l , 2) e y = (1 ,3 ) no es ortogonal. Para ortogonalizarla, procedemos así:

Seav! = x = (1, 2) y seaVi

V2 = y - < Vi , y > — — -<Vi , Vi >

Es decir

Entonces ( Vj , v2 } es una base ortogonal de V respecto de la forma dada.

9.8.2. Generalización del concepto de base ortonormal

Sea V un espacio de dimensión finita sobre el cuerpo de los números reales, y sea <, > una forma bilineal simétrica sobre V. De acuerdo con 9 . 8 . 1 siempre es posible obtener una baseortogonal. La forma no es necesariamente definida positiva, ya que pueden existir vectoresx e V tales que ( x , x > = 0 ó ( x , x ) { 0 .

Diremos que una base es ortonormal respecto de la forma < ,) si y sólo si

< Vi , v ¡ ) = 1 ó {V,- , V/) = ” 1 ó < v¿ , v¡ > = 0

donde v¿ e [v] = { v , , va , . . v„| .

A partir de una base ortogonal [v’J = { v’i , v ’2}. . v*n \ es fácil construir una base ortonormal asociada.

En efecto, denotando < v’Í5 v’¿ > mediante a¡, se obtiene una base ortonormal haciendo

v¿ = v’,- si a¡ = 0

304 FORMAS BILINEALES Y CUADRATICAS

- v i si a¡ > 0V»

si a¡ < 0■ v = ^

La base [v] resulta ortonormal.Sea [v] una base ortogonal ordenada de modo que

ax, a2, . . . , ap > 0

Si / es la forma cuadrática asociada a la forma bilineal simétrica <,), entonces, respecto de esta base ortogonal, es

/( X ) = «i x \ + . . . + a p x l + i x } + í + . . . + a r x]. 2

www.FreeLibros.com

Page 311: Algebra ii   armando rojo -

www.FreeLibros.com

En este desarrollo figuran p términos positivos, r - p negativos, y n - r variables se haneliminado.

Si la base se ortonormaliza, entonces se tiene

Los números p y r son independientes de la base ortogonal elegida. El entero p se llamaíndice de positividad de la forma. Indice de nulidad de la forma es el entero n - r . Signaturade la forma cuadrática es s = p - (r - p ) = 2p - r.

Ejemplo 9-9

Sea la forma bilineal simétrica sobre R2 definida por la matriz

TEOREMA DE SYLVESTER 3Q5

Los vectores v, - (1, 0) y v2 - (1, 1) constituyen una base ortonormal y se verifica que

< v: , Vi > = - 2 < y2 , v2 > = 0

9.8.3. Propiedad

Sea < ,) una forma bilineal simétrica en el espacio Y de dimensión finita,sobre el cuerpo R, y sea el subespacio

S0 = | x e V / ( x , y > = 0 , V y e V |

Si [v] = { v j , v2 , . . v „ }, es una base ortogonal, entonces la dimensión de S0 es igual al número de enteros i, tales que = 0.

Demostración)

Sea [v] ordenada de modo que

a i &O si / = 1 ,2........ /*

a¡ = 0 si i > r

Por ser [v] ortogonal, se verifica que

i > r = * ( v , -,y> = 0 , V y e V

En consecuencia

^r+1, Vr-f2 >•'<<> V„

son elementos d e S 0.Sea un elemento cualquiera x e S0 , y escribamos

x = x 1 y l + . . . + x r vr + . . . + x n yn

Entonces

/ < r => 0 = < x , ) = Xj < v j , ) = xj a¡

www.FreeLibros.com

Page 312: Algebra ii   armando rojo -

www.FreeLibros.com

Como a ¡ ^ 0, resultax¡ = O s i / < r Luego

x = x r+1 vr+1 + ... + x n vn

O sea

f ^ r+ 1» • • •) Vfl )

es una base de S0. Es decir, dim S0 = n - r.

9.8.4. Teorema de Sylvester

Sea (V , + , R , .) un espacio tal que dim V = n > 1, y sea < ,) una forma bilineal simétri. sobre V. Si [v] es una base ortogonal cualquiera de V, entonces existen exactam ente enteros positivos ta les que < , v¡ > > 0.

Demostración)

Sean [v] y [w] dos bases ortogonales de V ordenadas de modo que si <v¿ ,v , > = a. ( w,-, w¿) ~ b¡, entonces 1

a ¡ > 0 si z = 1,2, „ . . , p b f > 0 si i = 1 , 2 , . . . ,p'

a¡ < 0 ú i ^ p + l , . . . , r b ¡ < 0 sí r = p ’ + 1 , . . r ’

a¡ = 0 si í = r + 1, . . b t - 0 s i i = r ’+ 1 , . . n

Demostraremos que p = p \ Para ello observamos que los vectores

Vi j v2 , . . Vp, wp . + 1, . . w„

son linealmente independientes, pues considerando la relación lineal

(5 1 * 'v' + ,= £ + 1 J’' w' = 0

306 FORMAS BILINEALES Y CUADRATICAS

se tiene

y efectuando

se deduce

* » n

, ' i x¡y¡ = - ,= ? .+

< i X, V, , 1 X,. V, > = < J . + 1 „ W; , J , + 1 y, W, >

a, * ? + . . . + ap Xp = bP’+1 y j ,'+1 + . . . + bry l

El primer miembro es mayor o igual que cero, y el segundo miembro es menor o igual qt cero, o sea, ambos son nulos. Entonces es

= * 2 = • • • = x p = Q

y r ' + i = . . . = y n = 0

www.FreeLibros.com

Page 313: Algebra ii   armando rojo -

www.FreeLibros.com

DIAGONALIZACION 307

Como dim V = n, de lo anterior se deduce que

p +( n - p r) < n

oseap < p ’

Análogamente se prueba quep ’< p, y en consecuencia resultap ~ p \Lo expuesto en 9.8.2., 9.8.3. y 9.8.4. nos permite afirmar que s i/e s la forma cuadrática

asociada a una forma bilineal sobre ( V , + , R , .) y d i mV = w > i , entonces / está representada por una matriz diagonal respecto de cualquier base ortogonal. Toda representación de este tipo admite exactamente p términos positivos y r - p términos negativos.

9.9. DIAGONALIZACION DE OPERADORES SIMETRICOS

Sea (V, + , R , .) un espacio euclidiano de dimensión finita.

9.9.1. Propiedad

Sea / : V -> V un operador simétrico y x un vector propio de / . Si x es ortogonal a y, entonces x es ortogonal a /( y ) .

En efecto

< x , / ( y ) > = < /(x ) , y> = < \ x ,y >=X<x , y >= 0

O sea

x l / ( y )

9.9.2. Propiedad

Sea / : V -*■ V un operador simétrico y dim V = n > 1. Entonces existe una base ortogonal de vectores propios de /.

Demostración)

1. Si dim V = 1, entonces la propiedad se cumple obviamente.

2. Supongamos que d i m V > l , y sea vt un vector propio de /. Consideremos el subespacio

Se verifica que

dim S = dim V - 1 = n — 1

Por 9.9.1., / es un operador simétrico sobre S, donde el producto interior es el inducido por el producto definido en V.

www.FreeLibros.com

Page 314: Algebra ii   armando rojo -

www.FreeLibros.com

308 FORMAS BILINEALES Y CUADRATICAS

verifica q u ^ ’ ' ' " ' 1 " ““ “ S de VeC‘° reS Pr0PÍ0s de ¿ “ ‘•»ce. se

V/iVí c o n / = 2, 3 , . . n

En consecuencia \ Vl, v2 ........ v„ ) es la base ortogonal en V, de vectores propios de fOrtonormahzando los vectores de la base ortogonal, se verifica bajo las L d ic io n e íd e ,

teorema, que existe una base ortonormal de vectores propios de / e n V.

9.9.3. Consecuencia

Traduciendo la propiedad anterior en términos de matrices, se verifica que si A es „„

" “ bolos: y re d ’ ent° nCeS 6XÍSte Una matdZ P’ ° rt0g0nal- ^ di~ a A Una

A e R nx" a A = AÍ ; > 3 P ortogonal/ P* A P = D

Los elementos de D son los valores propios de A. Observamos, además que todamatmsmietnca y real n X n admite n vectores propios ortogonales. Las columnas de P son los n vectores propios de A, ortonormalizados.

Ejemplo 9-10

Dada la matriz A = . a A. \ n/2 1

1. Calculamos los valores propios de A.

- / 2 y/2determinamos una matriz ortogonal que diagonalice

D (X 1 — A)X - 2 —\¡2

— y/2 X - 1

= X2 - 3 XResulta

Xi - 0 y \ 2 = 3

2 Determinamos los vectores propios ortonormales de Aa) \ = 0 .

(Xi i - a > x = o ^ a x = o ^

2 V 2\ /x, \ _ /O

y/2 1 l\x2l (o

2 * j + y /2 x 2 - 0

y / 2x t + x 2 =0 >x2 = - \ / 2 x l

= (X — 2 ) ( X - 1 ) - 2 =

V 2 xx + x 2 = 0

www.FreeLibros.com

Page 315: Algebra ii   armando rojo -

www.FreeLibros.com

DIAGONALIZACION 309

C om ox\ + x j = 1, se tiene

Luego

Entonces

x \ + 2 x \ = 1

v f _ \/6"X ì = ± —— y x - y = + -----

3 3

X , =V i

3

b) Aa = 3. Con el mismo procedimiento se obtiene

v r -3

V T

3

X , =

3. Resulta

P =

V 3 V 6_~ 3 3~

y/6 y/33 ~

tal que

P"1 A P = P* A P =0 0 0 3

Ejemplo 9-11

Efectuamos una trasformación de coordenadas que diagonalice la forma cuadrática / , definida por

f ( x l , x 2) = 3 x j + 10JCj x 2 + 3 x \

La matriz de esta forma cuadrática es

- C 5\ S 3

Sus valores propios son:

Xj = 8 y \ = - 2

www.FreeLibros.com

Page 316: Algebra ii   armando rojo -

www.FreeLibros.com

310 FORMAS BILINEALES Y CUADRATICAS

Resolviendo en cada caso el sistema homogéneo (A l - A) X = 0 y normalizando los correspondientes vectores propios, se obtiene la matriz ortogonal

2 2P =

V2" y/22 2

La trasformación ortogonal de coordenadas está dada por

X = P X ’

O sea

V2 , y/2 ,X . = -------- X , - ---------* 2

2 2

_ V 2 , y/2X 2 -------- X 1 • X 2

2 2

Mediante este cambio, / se convierte en

f ( x \ , x ’2)= íSx’l - 2 x ' l

donde los coeficientes de las variables son los valores propios de la matriz de la forma cuadrática.

9.10. MATRICES SIMETRICAS REALES Y VALORES PROPIOS

9.10.1. Matriz definida positiva

Sea A una matriz, simétrica y real del tipo «xn.

Definición

Una matriz simétrica y real es definida positiva si y sólo si sus valores propios son positivos.

Tal es el caso de la matriz del ejemplo 9-6.

9.10.2. Propiedad

Una matriz real y simétrica es definida positiva si y sólo si existe una matriz Q, no singular, tal que A = Q Qf.

Demostración)

1. Sea A simétrica real del tipo n x n y definida positiva. Por definición, sus valores propios son positivos. Por 9.9.3. existe P ortogonal tal que

P"l A P = P í A P =D (1)

www.FreeLibros.com

Page 317: Algebra ii   armando rojo -

www.FreeLibros.com

MATRIZ DEFINIDA POSITIVA 311

d nde D es la matriz diagonal formada por los n valores propios de A, o sea

D = d i a g ■ ; K )

Consideremos la matriz diagonal

Dj = diag , s/K¡ , . . >Añ)

Se verifica queDi = D (2)

T en ien d o e n c u e n ta (1) y (2) es

a = P D P “1 = P D P Í = P D Í P* = P D , d [ p ^ c p d o c p d , ) *

HaciendoQ = (PD i)

resu lta

A = Q Q (

donde Q es no singular por ser producto de dos matri ces no singulares.

2. Sea A simétrica y real. Supongamos que existe Q no s ingular tal que A Por 9.9.3., existe P ortogonal tal que

P( A P = D = diag (Xi , \ K )

EntoncesP t Q Q , P = D

O sea(Pf Q )(P ( Q)Í = D

Llamando Xf a la i-sima fila de P( Q, y por lo tanto a la i-sima columna de (P( Q )', se tiene, considerando el producto interior habitual en Rn

Xi Xf = X . > o

Si fuera \ = 0, resultaría X, = 0, y en consecuencia P{ Q sería singular, lo que es absurdo. Luego

\ > 0 V/= 1 , 2 , . .

Por lo tanto, A es definida positiva

9.11. DESCOMPOSICION ESPECTRAL DE UNA MATRIZ

Teorema, Si A e R nx" es una matriz diagonalizable, y \ , X 1, ■ ■ son los valores propios distintos de A con multiplicidades m íf m2, -. m s, entonces A puede expresarse en la forma

(3)

- QQ* .

www.FreeLibros.com

Page 318: Algebra ii   armando rojo -

www.FreeLibros.com

312 FORMAS BILINEALES Y CUADRATICAS

A = 2 \ A t i=l 1 '

de modo tal que se verifica

1 . Á f = A¡ V/ = 1 ,2........ s

2 . i ^ j => A¡ A¡ = N

3 . ¿ A¡ = I i=i '

4 . A A ¡= A,- A Ví = 1, 2 , . . s

Demostración)

Por ser A diagonalizable existe P no singular tal que

P A P = D (1)

donde D es la matriz diagonal formada con lo s n valores propios de A, que suponemos * ordenados según las multiplicidades.

O sea

D

donde los elementos no diagonales, que no figuran, son nulos.Denotando con ¿ la matriz identidad del tipo w ¿xw,-, la forma bloque-diagonal de D es

D^2

Considerando las matrices

N,

para / = 1 , 2 , . .

www.FreeLibros.com

Page 319: Algebra ii   armando rojo -

www.FreeLibros.com

DESCOMPOSICION ESPECTRAL

Se verifica, por ser matrices diagonales,

a) E? = Ef

b) i ± j => Ef E; = N

Además

c) 2 E,- = I, donde I es la identidad n x n i=i

D = íS \ E , (2)

De (1) resultaA = P D P"1

Considerando esta relación y (2), se tiene

A = p ( . f i Xi E1) P"1

O sea

Haciendo

resulta

A = 2 \ P E P ¿=i

A¿ = P E, P"

A = 2 A ii -1 n

-i

Se verifican las siguientes proposiciones

1. A \ = P Ef P '1 P Ej = P E? P"1 = P E¡ P"1 = A¡

2. Af A¡ = P E( P '1 P E¡ P 1 = P E¡ Ey F 1 -

= P N P '1 = N

3 " ! _ D T D _ 1 ~3. 2 A,-= 2 P Ef P”1 = P ( 2 E,) P"1 = P I P _1 =1 í=i í=i ¿-i

4. A A¿ = A P E, P 1 = P D E( P"J = P ( . 2 A, E¡) E, F 1 = P ( . 2 ^ E, E¿) F 1 -

^ ? ( \ E ¡) F 1 = \ ? E Í P-1 ^ \ A ¡ (3)

Aj A = P E¡ P"1 A = P E i D P “1 = P E f ( . 2 A, E,) F 1 = P \ Ef F 1 =

- A f P E i P - ^ X f A i (4)

De (3) y (4) resultaA A¡ = At- A V< = 1 ,2 , . . n

313

www.FreeLibros.com

Page 320: Algebra ii   armando rojo -

www.FreeLibros.com

314 FORMAS BIUNEALES Y CUADRATICAS

9.12. CONGRUENCIA DE FORMAS CUADRATICAS

9.12.1. Concepto

Sean f y g dos formas cuadráticas reales caracterizádas por las matrices simétricas A vfi pertenecientes a R"x".

O sea/ (X) = X* A X

g ( Y ) - Y f B Y

Definición

Las formas cuadráticas / y g son congruentes si y sólo si existe P no singular, tal que

B ~ P* A P

Las formas cuadráticas / y g son ortogonalmente congruentes si y sólo si existe P or­togonal, tal que

B = Pf A P = F 1 A P

Las matrices A y B se llaman, respectivamente, congruentes y ortogonalm ente tcongruentes.

9.12.2. Propiedad j

Dos formas ' cuadráticas reales / y g, de matrices A y B respectivamente, son !ortogonalmente congruentes si y sólo si A y B admiten los mismos valores propios con las mismas multiplicidades.

Demostración)

1. Sean f y g ortogonalmente congruentes. Entonces existe P ortogonal, tal que

B = P* A P ~ P"1 A P

En consecuencia, A y B son semejantes y admiten el mismo polinomio característico.

2. Sean A y B con la misma forma diagonal. O sea, existen Q y R ortogonales tales que

Q-J A Q = R’1 B R = D (1)

donde D es la matriz diagonal formada por los valores propios.De (1) resulta

A = Q R “1 B R Q"1Luego

A ~ (Q R() B (Q R f)f

La matriz P = Q R Í es ortogonal, ya que Q y R son ortogonales. Premul tiplicando por P - P , y posmultiplicando por P, resulta

www.FreeLibros.com

Page 321: Algebra ii   armando rojo -

www.FreeLibros.com

CONGRUENCIA 315

B = P ' A P

O s e a ,/y g son ortogonalmente congruentes.

9.12.3. Propiedad

Si / es una forma cuadrática real, entonces es ortogonalmente congruente a la forma cuadrática g, tal que

g 0 0 = 4 h y l1=1

siendo At > X2 , . . A„ los valores propios de A.En efecto, sean D la matriz diagonal formada por los valores propios de A, y Y e Rn* 1.

Consideremos la forma cuadrática g definida por

g ( Y) = YÍ D Y

Sabemos, por 9.9.3., que existe P ortogonal tal que

D = P"1 A P = P<A P

Luego f y g son ortogonalmente congruentes.

9.12.4. Propiedad

Toda forma cuadrática real f es congruente con la forma cuadrática g, tal que g(Y ) = i ± y l + . . . + y l - y l + i . — y \ , siendo r el rango de A y p el índice de positividad de la forma.

Demostración)

La matriz simétrica y real A admite exactamente r valores propios no nulos, ya que p (A) = r. Ordenamos los valores propios de modo que

son positivos

V + i , . . . , A,.

Ar+1 > • • •>

son negativos

son nulos

Consideremos

D =

Xi

Xn

Definimos la matriz diagonal

www.FreeLibros.com

Page 322: Algebra ii   armando rojo -

www.FreeLibros.com

316 FORMAS BILINEALES Y CUADRATICAS

P =V —\ j + i

Como existe Q ortogonal, tal que

resulta

donde

Q* A Q = D

(Q P)' A (Q P) = P* (Q ( A Q ) P = P( D P

P( D P = = B

Sea ahora la trasformación de coordenadas de matriz Q P, es decir

X - Q P YSe verifica que

/( X ) = Xf A X = ( Q P Y ) f A ( Q P Y ) = Y Í (Q P)( A ( Q P ) Y

En consecuencia, f e s congruente a la forma cuadrática g, definida por

g (Y) = Y( B Ydonde

B = ( Q P ) ' A ( Q P)Por la definición de B es

( Y ) = 7 i + y í + . . . + y l - y í + i - . . . y 2rLa forma cuadrática g se llama forma canónica de f . Se verifica que dos formas

cuadraticas son congruentes si y sólo si tienen la misma forma canónica.

www.FreeLibros.com

Page 323: Algebra ii   armando rojo -

www.FreeLibros.com

FORMA CANONICA 317

Ejemplo 9-12.Reducimos a la forma canónica la forma cuadrática / : R2 R definida por

f ( x i , x 2) = x'¡ - Txí x 2 + x l

1 La matriz de la forma cuadrática es

A =1 - 1

1 1

El polinomio característico es

D (X l — A) =X - 1 1

1 X - 1

= X 2 - 2 X

Los valores propios son, entonces

Xi ~ 2 y X¿ = 0

2. Como el número de valores propios positivos es 1, la forma canónica congruente esg, definida por

g ( y i , y 2 ) = y íEfectuamos el procedimiento indicado en el teorema anterior para obtenerla.

Calculando los vectores propios asociados a \ y X2 se obtiene

X, = ( 1 ) y X2 =- 1

La matriz ortogonal correspondiente es

Se verifica que

Q ' A Q

1 1

1 1

2 0

0 0

La forma cuadrática ortogonalmente congruente a / es h, tal que

h ( z 1 , z 2) - 2 z'¡

Sea

P =

1 0 ^ 0v x r 2

0 1 0 1

www.FreeLibros.com

Page 324: Algebra ii   armando rojo -

www.FreeLibros.com

Entonces, haciendo X = Q P Y, se tiene

í ( Y ) = Y f (Q P)Í A ( Q P ) Y =

= Y* P* Q* A Q P Y = Y' Pé D P Y =

- Y* B Ydonde

318 FORMAS BILINEALES Y CUADRATICAS

B = P* D P =

O sea

^ 0 2 0 02 2

0 1 0 0 0 I

y/2 0

0 0

^ 0 1 02

0 1 o o

g ( y i , y i ) = y 2i

9.13. SIGNO DE UNA FORMA CUADRATICA

Sea / una forma cuadrática real definida por

/ ( X ) = X r A X

donde A es una matriz simétrica real del tipo nx n.

9.13.1. Definiciones

1 ./e s definida positiva si y sólo si

X* A X > 0 V X ^ O

2 . / es semidefínida positiva si y sólo si

X ' a X > 0 a 3 X ^ O / X ' A X = O3. f e s definida negativa si y sólo si la forma cuadrática g definida p

g (X) - X* ( -A ) Xes definida positiva.

4. / es semidefínida negativa si y sólo si g tal que

■ ^ ( X ) = XÍ ( - A ) Xes semidefínida positiva.

or

www.FreeLibros.com

Page 325: Algebra ii   armando rojo -

www.FreeLibros.com

FORMA DEFINIDA POSITIVA 319

Ejemplo 9-13.| Determinamos el signo de la forma cuadrática / : R2 -+ R definida por

/( X ) = 3*1 - 2 x ¡ x 2 + 2 x \

Se verifica que/ ( X ) = 2 x \ + x l - 2 x i x 2 + x 2 + x 2

! 0 sea| A X ) = 2 x \ + (x i ~ x 2f + x \

! Com o/(X ) > 0, V X 0, resulta/defin ida positiva.

9,13.2. Propiedad

La forma cuadrática real / , tal que / (X) = X* A X, es definida positiva si y sólo si los valores propios de A son positivos.

i En efecto, sabemos que toda forma cuadrática real es ortogonalmente congruente a unaforma cuadrática g tal que

£ 0 0 = J i

siendo Xj , X2 , . . . ,X„ los valores propios de A. Como ejercicio del trabajo práctico se propone la demostración de que el signo de una forma cuadrática no varía frente a trasformaciones de coordenadas. Esto significa que el signo de / es igual al deg. Luego

' / es definida positiva <*g es definida positiva o \ ( > 0, Vi

Diremos, entonces, que una forma cuadrática es definida positiva si y sólo si la correspondiente matriz es definida positiva.

¡ Análogamente se demuestra que: / es definida negativa si y sólo si sus valores propios sonnegativos; / es semidefinida positiva si y sólo si sus valores propios son mayores o iguales que 0 y alguno de ellos es 0; / es semidefinida negativa si y sólo si sus valores propios son menores o iguales que cero, pero alguno de ellos es 0. Si existen valores propios positivos y negativos, diremos que la forma cuadrática es indefinida.

El lector podrá demostrar como ejercicio del trabajo práctico que una forma cuadrática real / , definida por / ( X ) = X* A X, es definida positiva si y sólo si los menores principales de la matriz A son positivos.

Ejemplo 9-14

Analizamos, utilizando el criterio de los menores principales, si la forma cuadrática/,definida por

www.FreeLibros.com

Page 326: Algebra ii   armando rojo -

www.FreeLibros.com

/ ( *u x 2>x z ) = 2 x \ + x \ + 3 * i + 2 X l x 2 - 2 x 2 x 3

es definida positiva.La matriz de la forma cuadrática dada es

/ 2 l 0A = f 1 1 - 1

\ 0 - 1 3

Sus menores principales son

an = 2 > 0

320 FORMAS BILÍNEALES Y CUADRATICAS

a n a l2 2 1

a 21 a 22 1 1

D ( A ) = 1 > 0

Luego, / es definida positiva.

www.FreeLibros.com

Page 327: Algebra ii   armando rojo -

www.FreeLibros.com

TRABAJO PRACTICO IX

9-15. Sea (V, + , K , .) un espacio vectorial. Demostrar que el conjunto B (V) de todas las formas b ilin ea le s/: V2 -» K es un espacio vectorial sobre K, como se indica en 9.2.1.

9-16. Sea § : V2 -+ K una forma bilineal. Demostrar que gy : V -> K, definida por gy (x) = g (x, y), es una forma lineal.

9-17. Una forma bilineal / sobre R 3 está caracterizada por la matriz

9-18. Determinar la forma escalar de las formas cuadráticas asociadas a las formas bilineales S (X , Y) = X* A Y, en los siguientes casos:

O btenerla matriz de/respec to de la base canónica en R".

9-20. Determinar las matrices de las formas cuadráticas sobre R” definidas por

i) O b ten er/(x , y).

ii) Determinar la matriz de/ respecto de la base

1( 1. 1, 1) , ( 1, 1, 0) , ( 1, 0, 0)1

9-19. S e a /la forma cuadrática real definida por

/( X ) = X2

donde X = — 2 Xf = n «=i n

i) / ( X ) = « X2 ii) / ( X ) - (X,. - X)2

Investigar la idempotencia de tales matrices.

www.FreeLibros.com

Page 328: Algebra ii   armando rojo -

www.FreeLibros.com

921. Sean g una forma bilineal simétrica sobre V v f 1 rDemostrar que V, y / ia forma cuadrát¡ca

i ) y ( x , y ) = - i ( / ( x + y ) _ / ( x _ y ) j

“ > f ( x , y ) = - ± - ( / ( x + y ) - / ( x ) _ / ( y ) j

9-22. Determinar la matriz de la forma cuadrática sobre R3 definida por

/ ( * i .x 2, x 3) = x j ~ 4 Xl x 2 + 2 x%

^ (x > y ) = / ( x + y) - / (x) - f (y)Suponiendo que g es bilineal, y que f i a x \ = a2 f ( n \ ^ v w

r r forma';uadráticayií“ r i ^ i i > r lac L ; : i ? ostrarque

sean [y] y {J¡ ^ Pro^ t o interior y/(V í) - w„ en tonces/es ortogonal. ^ operador que Venfíca

W que "• COn *>***• Amostra,{/( .%)} es una base ortonormal de V. /e S Un Operador Mto8onaI en V, entonces

« * . Sea P una matriz ortogonal diagonal. Demostrar que ,os Cementos de ,a diagona, son ,

9m27. Sean las matrices

/ eos 6 -se n Q \ / j e

' Q = í \ sen 0 eos 0 ) \ 0 e w

Demostrar que existe una matriz unitaria U tal que Q = I T1 P u.

9-28. Demostrar que toda matriz simétrica y real admite un vector propio.

9-29. Obtener, en cada caso, una base ortogonal de R 2 fn rm ^o „ ilas siguientes matrices: P°f vectores propios de

0 / 3 0 \ ü)

A = A \ 0 3 /

9-30. Comprobar que la matriz

322 FORMAS BILINEALES y CUADRATICAS

www.FreeLibros.com

Page 329: Algebra ii   armando rojo -

www.FreeLibros.com

TRABAJO PRACTICO IX 323

* - ( ’ * )\ y / 2 2 I

es definida positiva y obtener Q no singular, tal qu e A = Q Q*.

9 3¡ Obtener una trasform ación ortogonal que diagonalice a la form a cuadrática

/( X ) + 2 \ f 6 Xl x 2 + 2 x \

9 32 Demostrar que el signo de una forma cuadrática real no varía si se efectúa un cambio

de base.9-33. Demostrar que si / ( X ) - X !A X es definida positiva, entonces g (Y) = Y*A-1 Y es

definida positiva.

9-34. Determinar el rango y la signatura de las formas cuadráticas definidas por

i)/(*i,*a.*a) = *i + 2 *2 + 6 *3 - 2 x í X 3 + 4 x 2 x3

i i ) f ( x í , x 2) r ( x í - x 2f

9-35. Obtener la descomposición espectral de la matriz C del ejercicio 8-15.8

9-36. Sea 2 \ A¡ la descomposición espectral de la matriz A. Demostrar í=i

i ) A y B son permutables si y sólo si B permuta con cada A,-.

ii) Si A es no singular, entonces la descomposición espectral de A“1 es

¿ V A ¿

9-37. Demostrar que toda matriz cuadrada real no singular puede expresarse como producto de una matriz ortogonal y una matriz definida positiva.

9-38. Expresar la matriz

1 / - 1 ^ \

k ~ V 5 " \ n / T 2 /

como producto entre una matriz ortogonal y una matriz definida positiva.

9-39. Demostrar que una forma cuadrática real / (X) = Xf A X es definida positiva si y sólo si los menores principales de A son positivos.

9-40. Sean dos formas cuadráticas f y g en R” definidas por f (X) = X t A X y g (X) = X¿ B X. Sabiendo que f es definida positiva, demostrar que existe una trasformación de congruencia que las reduce a

OL) = yí +yl +■ ■ • +yl

www.FreeLibros.com

Page 330: Algebra ii   armando rojo -

www.FreeLibros.com

324 FORMAS BILINEALES Y CUADRATICAS

ySi (Z )=X ! z \ + X 2 z \ + . . . + \ z n

9-41. Sean (V, + , K, .) un espacio vectorial de dimensión finita, y < , ) una forma bilineal simétrica’ sobre V. Una base [v] es ortogonal respecto de <,> si y sólo si

i =£/ =*•<¥* ,v; > = 0.Demostrar que si V { 0 } , entonces V admite una base ortogonal.

www.FreeLibros.com

Page 331: Algebra ii   armando rojo -

www.FreeLibros.com

Capítulo 10

CONVENXIDAD. PROGRAMACION LINEAL

10.1. INTRODUCCION

A partir de la distancia definida sobre la base del producto interior habitual, se estudian y se clasifican puntos y subconjuntos de R” . Se generalizan las nociones de recta, plano, semiplano y semiespacio estudiadas en el capítulo 7. Se presenta una introducción a los conjuntos convexos en R ", y se estudian sus propiedades fundamentales. Después de relacionar la convexidad con las trasformaciones lineales, se desarrollan los conceptos de hiperplano soportante y de puntos extremos. Finalmente, y en conexión con ío anterior, se esboza una introducción al problema general de la Programación Lineal, y al método simplex.

10.2. CONJUNTOS DE PUNTOS EN R"

En lo que sigue consideraremos el espacio vectorial (R n, +, R , .) con el producto interior habitual, es decir, definido por

< x , y > = 2 x ¡ j' , = Xt Y i=i

donde X e Y denotan las matrices columnas asociadas a los vectores x e y.

10.2.1. Esfera abierta en R"

DefiniciónEsfera abierta de centro a e R" y radio r > 0 es el conjunto de puntos de Rn cuyas distancias a a son menores que r.

El símbolo S ( a , r) se lee: “esfera abierta de centro a y radio r’\

S ( a , /■) = ¡ x e R" / d (x , a) < r }

O sea

S ( a , r ) = ¡ x e R " / ! l x - a i i < r |

www.FreeLibros.com

Page 332: Algebra ii   armando rojo -

www.FreeLibros.com

326CONVEXIDAD. PROGRAMACION LINEAL

O bien

S ( a , r ) = ( x e R " < r2 ¡

En particular, si „ = i , se üene el segmento abierto de longtad ^ ^ ^ ^ ^

O

s far)R

S (a, í*)= f x e R / I x - a l O } ={ x e R / a - f < x < a +

En R2, S (a, r) es el interior del círculo de centro a y radio r.

S f a r )

S (a, r )= j x e R 2 / II x - all < ,(*i >x2) i ( x x - axf + (x2 - a2 )2 < r 2\

10.2.2. Punto interior

Sea C un subconjunto de R".

Definición

a e C es un punto interior de C si y sólo si existp í-->n *«i i rcentro a v radio r está mohúA» n taí ^ ue ,a esfera abierta de

sus

y radio r está incluida en C.

a e C es interior d e C * > 3 r > 0 / S ( a , r ) C CLos puntos de todo intervalo abierto en R son interiore« oí • + ,puntos, salvo los extremos ,n„ S' Sl el lnte,yal0 es ce™ do, todosextremos, son interiores.

10.2.3. Punto frontera

S e a C C R " .

www.FreeLibros.com

Page 333: Algebra ii   armando rojo -

www.FreeLibros.com

CLAS IFICAC ION DE PUNTOS 327

a e R" es un Punto fr°ntera de C si y sólo si toda esfera abierta de centro a tiene intersecciones no vacías con C y Cc.

a e R n es frontera d e C « - V / - > O : S ( a , r ) n c ^ 0A S ( a , r) n C * 0

Definición

El punto a í'C , pero es Si C = A U ¡ a 1 , entonces el punto ais-frontera de C. lado a es frontera de C.

10.2.4. Punto de acumulación

Sea C C R ". El símbolo S* (a, r) se lee: “esfera reducida de centro a y radio r" e indica la diferencia entre S (a, r) y { a ) . Es decir, S* (a, r) denota la esfera abierta de centro a y radio r, excluido el centro.

Definicióna e R" es un punto de acumulación de C si y sólo si la intersección entre C y cualquier esfera reducida de centro a es no vacía.

a e Rn es de acumulación de C ^ V r > 0: S* ( a , r) n C # 0

Los puntos de acumulación de un conjunto suelen llamarse puntos límites.Observamos que un punto de acumulación de C C Rn no pertenece necesariamente a C.

Tal es el caso de la figura siguiente:

www.FreeLibros.com

Page 334: Algebra ii   armando rojo -

www.FreeLibros.com

. . J “ p e s p u n t o frontera y también de acumulación de C Si consideramos

3 2 8 CONVEXIDAD. PROGRAMACION LINEAL

a e C es punto frontera de C, pero no es de acumulación de C.

contiene infinitos puntos de redUClda' “ " ‘rada en un punto de acumulación de C,

10.2.5. Conjunto abierto

Sea C C R"

Definición

c es abierto si y sólo si todos sus puntos son interiores.

c es abierto " ^ V a e C , 3 r > o / S ( a , / ' ) n c = S( a r)

- f . " “ K z t í r s r •“ « - > - . .

qus i , ■ ,1 M a n íS ' de la ; 'K l " :

10.2.6. Conjunto cerrado

Consideremos C C Rn.

Definición

c es cerrado si y sólo si todo punto de acumulación de C pertenece a C

„ ■ r ° r pun,os de—derivado de C. Diremos entonces que P ° S e acumulaeión de C, se llama

C es cerrado ^ C ’ C CLa siguiente figura

www.FreeLibros.com

Page 335: Algebra ii   armando rojo -

www.FreeLibros.com

DERIVADO Y CLAUSURA 329

C

representa un conjunto cerrado, donde C’ = A . Los conceptos de abierto y cerrado no son ' cluyentes, ya que existen conjuntos que no son abiertos ni cerrados.6X Este es el caso de un conjunto formado por la unión de un disco abierto y un punto aislado. Observamos, además, que un segmento abierto es un conjunto abierto en R, pero nolo es en R2 ; o sea, el concepto de abierto es relativo al espacio métrico que se considere.

El lector podrá demostrar, como ejercicio del trabajo práctico, que un conjunto escerrado si y sólo si su complementario es abierto.

Se verifica que la intersección de toda familia de cerrados es cerrada, y que la unión detoda familia finita de cerrados es un conjunto cerrado. Estas proposiciones son consecuencia de la propiedad anterior.

10.2.7. Clausura de un conjunto

SeaCC R".

Definición

Clausura de C es la unión entre C y su derivado.

El símbolo C se lee: “clausura de C” .Se tiene

c - c u cO sea, la clausura de C es la unión entre C y el conjunto de sus puntos de acumulación. Se

demuestra que la clausura de un conjunto cualquiera es cerrada. Más aún, que la clausura de un conjunto C es la intersección de todos los cerrados que inlcuyen a C. En este sentido, la clausura de C es el mínimo cerrado, en el sentido de inclusión, que contiene a C.

10.2.8. Conjunto acotado

S e a C C R " .

DefiniciónC es acotado si y sólo si existe r > 0 tal que

a e C ^ IIa I l <r

www.FreeLibros.com

Page 336: Algebra ii   armando rojo -

www.FreeLibros.com

O sea, C es acotado si y sólo si existe r > 0 tal que

C C S ( 0 , r )

Definición

C está acotado por debajo si y sólo si existe a e R " tal que

x f C = > a < x

La notación vectorial a < x significa que a{ < x¡, Vi = 1, 2 , . . n.

Definición

C está acotado por arriba si y sólo si existe a e R" tal que

x e C ^ x < a

El conjunto C C R 2 indicado en la siguiente figura está acotado por debaio arriba

330 CONVEXIDAD. PROGRAMACION LINEAL

10.3. SEGMENTOS, HIPERPLANOS Y SEMIESPACIOS

10.3.1. Rectas y segmentos en R"

Sean Pj y P2 dos puntos distintos de R". La ecuación vectorial de la recta P ( P2

. X = P i + r ( P 2 — Pj ) donde í e R

www.FreeLibros.com

Page 337: Algebra ii   armando rojo -

www.FreeLibros.com

RECTA Y SEGMENTO EN R" 331

Por distributividad respecto de la suma en Rn y en R, se tiene

X = í P 2 + ( l - O ^ i c o n í e R

La recta determinada por Pj y P2 es el conjunto

P, P2 = { X e R" / X = r P2 + (1 - í) P , )

El segmento Pi P2 se obtiene haciendo variar el parámetro t entre 0 y 1, o sea

X e P , P2 <*X = ?P2 + ( 1 - t) ?1 a 0 < í < l

como

si. k. x j * 2 1 V* ‘

Observamos que cualquier punto del segmento determinado por Pj y P2 puede expresarse combinación lineal de éstos, con escalares no negativos y cuya suma es 1.

Ejemplo 10-1

La ecuación vectorial paramétrica de la recta determinada por P j ( 3 , 0) y P2(0, 4) es

( x 1 , x 2 ) - ( 3 , 0 ) + f ( - 3 , 4 )

El sistema de ecuaciones cartesianas paramétricas es

I X i = 3 - 3 í

| x 2 = 4 t

Eliminando el parámetro resulta la ecuación cartesiana

O sea

* i = 3 — 3—4

4 x i + 3 x 2 = 12 (1)

www.FreeLibros.com

Page 338: Algebra ii   armando rojo -

www.FreeLibros.com

La representación es

CONVEXIDAD. PROGRAMACION LINEAL

El vector c = 41 + 3 jes normal a #■. En notación matricial, la ecuación ( 1) se escribe

Ct X = l 2

La distancia entre 0 y r es

La igualdad

(0 , r ) = l pc p 1 1 = | =I IC II 5

c ' x « *

dirección d e '“ ! rt o „ c “ ^ V o r t r y t drectaPara'elamen,e 3 ^ misma en la

Ejemplo 10-2

dEI ~ ° dete™ ¡nado por P, y P2, con laspor coordenadas del ejemplo anterior, está

Pl , „ (0. 4) + ( l _ r) (3, 0) con 0 < r < 1

( 2 .2) ( ° . 4 f ) + ( 3 - 3 / , 0 ) = ( 3 _ 3 / , 4 í )

de donde resulta t = —2 '

www.FreeLibros.com

Page 339: Algebra ii   armando rojo -

www.FreeLibros.com

r10.32. Hiperplanos en R rt

pefinicióttUn hiperplano en R” es un conjunto de puntos de R ” tales que

C*X = k

donde C denota un vector columna de n componentes y k es un número real.

HIPERPLANOS 333

El vector C es ortogonal a 7r. En efecto, sean Pj y P2 pertenecientes a ir. Entonces es

C( P , ^ a C( P 2 =A

Luego

Ct (P2 - P , ) = 0

O sea, el producto interior entre C y cualquier vector de tt es cero.Luego

CJ.7T

La ecuación de un hiperplano que pase por el origen es

C( X = 0

La ecuación normal vectorial se obtiene dividiendo por IIC li y considerando k en valor absoluto, o sea

C*CU

x =l i t i

Esta igualdad puede escribirse

Nf X = p

www.FreeLibros.com

Page 340: Algebra ii   armando rojo -

www.FreeLibros.com

334 CONVEXIDAD. PROGRAMACION LINEAL

donde N es un vector unitario normal al plano. El número — es, en valor absolutoII CII ’

distancia del origen al plano.

Los hiperplanos de ecuaciones C{ X = k , y C$ X = k2 son paralelos si y sólo si C, = a C

En R2 un hiperplano es una recta. En R 3 es un plano.La ecuación cartesiana del hiperplano cuya ecuación vectorial es

C *X = k,se escribe

n2 Ci X i = k

1=1 ‘ '

Consideremos el caso de un hiperplano cuyas intersecciones con los ejes sean positivas I siguiente figura ilustra la situación en R2 ' ‘ u

La ecuación es

C *X = k

donde k > 0. Mostraremos que si el hiperplano se traslada paralelamente a sí mismo en la dirección del vector normal, entonces el término independiente de la ecuación crece En etecto, el hiperplano que pasa por X ! , de vector normal C, está definido por

Cf X -fc i

Si consideramos el hiperplano con el mismo vector normal, que pasa por

X2 = Xj + a C, con a > 0,se tiene

C *X = k 2

www.FreeLibros.com

Page 341: Algebra ii   armando rojo -

www.FreeLibros.com

SEMIESPACIOS335

Como

resulta

Ct X 2 ^ C t ( X l + ttC ) = Cí X1 + a C t C = k l + o: Il CIP

&2 ^ k x

Todos los puntos del hiperplano de ecuación Ct X = k 2 verifican C* X > k Se propone como ejercicio del trabajo práctico la demostración de la siguiente propiedad*

todo hiperplano es un conjunto cerrado.

10.3.3» Semiespacios

Un hiperplano 7T de ecuación

C ( X = A

determina una partición de R" en tres conjuntos: el hiperplano 7r y dos semiespacios abiertos de borde 7T.

Ilustramos esta situación en R2 .

Definición

Semiespacios abiertos de borde tt son los conjuntos

S, = ( X e R n / C í X < / c

S2 = ( X e R n / C f X>ifc

Definición

Semiespacios cerrados de borde 7r son los conjuntos

www.FreeLibros.com

Page 342: Algebra ii   armando rojo -

www.FreeLibros.com

336CONVEXIDAD. PROGRAMACION LINEAL

Si = I X e R n / C t X < k \

“ “ - j u n t o sAabiertos, y que los semiespacil

10.4. CONVEXIDAD EN R"

10.4.1. Conjuntos convexos

S e a C C R ” .

Definición

p u n i d a C ¿ á l “ n CY ^ * * Se8mení° ^ par de

C C R ” es convexo o Pi e C ^ P2 e C ^ p T p , c eSabemos que

Pi P2 ~ f X e R n j X = tV 2 + ( i _ í ) Pl A 0 < ? < i |

oonve*. de dos puntos c a f c * ^ de C ..e. teQece a c ‘f " “ nll,íl,acíó"combinaciones convexas de P VP p s p I ca conjunto de todas lasconvexas ae P , y P2 es el segmento cuyos extremos son estos puntos.

10.4.2. Propiedad

La intersección de dos conjuntos convexos es un conjunto convexo

y ^p e rten ec ien tes C° nVeX0S' C°mÍderem° S d“ «“ " « » - ' ^i e r a P,

P,_eC_A P2 eC =*P^eC¡ a P , e C j A P2 e c , a P2 e C 2 *

^P > P2 c c , A P, p 2 c c 2 =»p , p 2 c c , n c 2 ^ p 7 p ¡ c e

esta incluido en la intersección de éstos. conjuntos, entonces

10.4.3. Combinaciones convexas

Sean P , , P2, . . . ,P m pertenecientes a R".

www.FreeLibros.com

Page 343: Algebra ii   armando rojo -

www.FreeLibros.com

CONVEXIDAD EN RM 337

DefiniciónCombinación convexa de los puntos P t , P2 , . . Pm es todo vector del tipo

cioj .2 di Pfi=i

donde

2 oc¡ = 1 y a.- > 0, V/ = 1 , 2 , . . . , m. í=i

propiedad

El conjunto de las combinaciones convexas de los puntos P j , P2 , . . . , Pm, es convexo.

Hipótesis) j P i , P 2........ P » | C R "i m m >

de Tesis) C = { .2^ c¡f Pf / 2^ ~ 1 a > 0 J es convexo

Demostración)

Se trata de probar que toda combinación convexa de dos puntos cualesquiera de C, pertenece a C. Sean P’ y P” pertenecientes a C. Ahora bien

donde1 2‘ ión

P’ e C a P” e C =► P’ = 2 a) P¿ a P” = 2 a ”, P, í=i f=i ' 1

0 < aj-, 0 < y 2 a|- = .2 a ’) = 1las V ' *-1 ‘ f=i

Comoni m

t P” + (1 - 0 P’ = t .2 a} Pf + ( i - 0 2 a ’;. Pf =

m= 2 ( í a ; + ( l - O « /’) Pf

M 1-1resulta t P” + (1 -- i) P’ una combinación convexa de los m puntos dados, pues

0 < á¡ => 0 < t

0 < a ;-’ = >0 < ( 1 - i ) « ”

Luego

lt0 + - 0 « ”

Ademásm m m2 t a¿ + (1 - i) a ” = t 2 a- + (1 - t) 2 a ” = 1i=l ' 1 1=1 ' v 1=1 1

El conjunto C, representado en la figura siguiente, es el conjunto de las combinacionesconvexas de los puntos P*, P2, P3 y P4 pertenecientes a R 2

www.FreeLibros.com

Page 344: Algebra ii   armando rojo -

www.FreeLibros.com

338 CONVEXIDAD. PROGRAMACION LINEAL

Sea C un conjunto no vacío de R".

Definición

Casco convexo de C es la intersección de todos ios convexos que incluyen a C.

incluye a “ C° nVeX° ^ C C R” “ eI m ínim ° convexo (en el sentid° de inclusión), qu,

Sea C el casco convexo de C. Entonces

c = n c,-donde f Cf / i e IJ es la familia de todos los convexos que incluyen a C.

Ejemplo 10-3

s e s e n t a C° nVeX° “ C° njU nt° C = ' d ° nde P >

• En R 3, si C es la superficie esférica de radio 2 con centro en el origen, entonces C es la esfera correspondiente. En términos analíticos, se tiene

C = ( X e R 3 / IIXII = 2 J

C=. ¡ X e R 3 / IIXII < 2 í

10.4.5. Propiedad

El casco convexo de un número finito de puntos de R" es el conjunto de 1 combinaciones convexas de ellos.

Sean P, P2, . . Pm pertenecientes a R". En 10.4.3. hemos demostrado que el conjunl de las combinaciones convexas de estos puntos es convexo.

Este conjunto que denotamos mediante S, es un convexo que incluye

_ de todos'eHo’s : ^ CU3lqUÍera '° S de

Consideremos ahora la intersección de la familia de todos los convexos que incluyen aO S63

C = n C¡- / C¡ D C a C,- es convexo

co

Hi

Te

DeP”

www.FreeLibros.com

Page 345: Algebra ii   armando rojo -

www.FreeLibros.com

CONVEXIDAD EN Rrt 339

¡ 1;

unt

reicio

i a(

Debemos probar queC C A y A es convexo =► S C A

Razonamos inductivamente sobre m.

1 Si tn = 1, Ia proposición se verifica obviamente, ya que S = C.

2 Suponemos la validez p a ra m -1 . Se tienem m

P e S =*• P = 2 a* Pf a 0 < a 2 a ¡ = 1 ¿=i 1 ‘ ' «=i 1

Sea entonces

• p = ( i - o ( — — p, + — ^ P 2 + . . . + - ^ i - P m n ) +<*m P„,\ 1 - am 1 - am 1 - am J

fti dm _i c | vector ------ — Pi + . . . + — ^ ^ P m - i es una combinación convexa de

1 - Otm * - “ mP P2, . • Pm -i > y Por hipótesis inductiva pertenece a A. Como éste es convexo, P, que es una combinación convexa de dos puntos de A, pertenece a A.

En consecuencia

S C A

O sea, C = S.

Definición

Poliedro convexo generado por un número finito de puntos es el casco convexo que ellos determinan.

El triángulo representado en 10.4.3. es el poliedro convexo generado por P j , P2, P3 y P4.

10.5. CONVEXIDAD Y TRASFORMACIONES LINEALES

10,5.1. Imagen de un conjunto convexo

La imagen de un conjunto convexo, por toda trasformación lineal / : R" -+Rm, es un conjunto convexo.

Hipótesis) / : Rn -» Rm es trasformación lineal

C C R" es convexo Tesis) /(C ) es convexo en Rm

Demostración) Sean Q’ y Q” pertenecientes a f (C). Por definición de imagen, existen P’ y P” en C, tales que

/ ( P ’) = Q* y / ( P ” ) = Q ”

Como C es convexo, se verifica que

í P ” + ( l - r) P’ e C

www.FreeLibros.com

Page 346: Algebra ii   armando rojo -

www.FreeLibros.com

Luego

O sea

340 CONVEXIDAD. PROGRAMACION LINEAL

? / ( n + ( l ~ 0 / ( P ’) e / ( C )

' Q ” + ( l - ? ) Q ’ e /( C )En consecuencia,/(C) es convexo.

10.5.2. Preimagen de un conjunto convexo

c o ¿ m ó eZ I x o de Un C° njUnt0 C° nVeX0’ P° r *°da ' d a c i ó n ü n e a l/: R » ^ * «

Hipótesis) f : R n -> R m es trasformación lineal

C C R m es convexo

Tesis) / 1 (C) es convexo en R".

Demostración) Consideremos dos puntos cualesquiera P’ v P” idefinición de preimagen, de t r a s l a c i ó n lineal yT e convexMad, L t ™ “ * C

P’ e f 1 (C) a P” e n (C) ^ / ( P ’) e C a / ( P”) e C =>tf{P”) + ( i _ ,)/(? > ) e c = > /(?p „ + (1 _ r) F ) e c ^

=>íP” + ( 1 - 0 P ’ e f '1 (C)

En consecuencia,/ 1 (C) es un conjunto convexo.

10.5.3. Convexidad de hiperplanos y de semiespacios

1. Todo hiperplano es un conjunto convexo.Consideremos C e R" y la función / R" -» R definida por

/( X ) = C*X

Rn

esin

elemento e s * e R es'tonvexcf ü T L ' e r i ™ n ‘lO s “ ^ ' ^ C°njUnt° °Uy° Ú“ “ convexo en R". Tal preimagen es el conjunto Premagen por / , es u»

www.FreeLibros.com

Page 347: Algebra ii   armando rojo -

www.FreeLibros.com

CONVEXIDAD Y TRASFORMACIONES LINEALES 341

( X e R " / f ( X ) = Ct X = &}

0 sea, el hiperplano de ecuación C* X = k,

!¡ El conjunto C = 1 * e R / x > f c | es convexo.

Pi P2________________ o-------------------•-----------------------------• ■ --------- »

k x 1 *2 R

Bn efecto:Pj eC a P2 eC =>x4 > k A x 2 >k=>

=*tx2 + ( 1 - t ) x i > t k + { 1 — f) fr - fc

]II Todo semiespacio abierto es un conjunto convexo.

Considerando la trasformación lineal f : R" -> R definida por

/( X ) = C* X,

y que el conjunto

{x e R / x > k }

es convexo, entonces su preimagen, o sea

j x e R ” / / ( X ) = C * X >&} ,

es un conjunto convexo, de acuerdo con 10.5.2.Tal preimagen es el semiespacio de inecuación

C * X > k

IV. Con criterio análogo se prueba que todo semiespacio cerrado es un conjunto convexo.

V . La intersección de un número finito de semiespacios, por ser éstos conjuntos convexos, es un conjunto convexo. Tal intersección, como lo muestran las siguientes figuras, puede ser acotada o no.

www.FreeLibros.com

Page 348: Algebra ii   armando rojo -

www.FreeLibros.com

1

342

10.6.1. Propiedad

CONVEXIDAD. PROGRAMACION LINEAL

10.6. h ip e r p l a n o s s o p o r t a n t e s

Si C es un subconjunto cerrado y convexo HP R« pertenece a C, o bien existe un hiperplano tt T a u l J L T * ^ pUnto en uno de los dos semiespacios ab ie rta de borde * Y “ q“# C 6Stá * * 4

demostraremos^ue6existe un h ip e ^ la n o ^ ^ e ^ e r i f í ^ l110 611*0^ 068 ^ f * C' en ^ * C onsiderem os la func ión afirm ado en el enunciado.

definida por

f P ( X) = IIX-PIJ

La función fp es continua y alcanza el mínimo en C. O sea

p , . 3 A e C / X e C = % ( A ) < / (X)t s decir, existe A e C tal que

IIA — P (|< Hx — P|| v X e C Sea N = A - P. Se verifica que N * 0, pues A e C v P ^ r Af

ortogonal a N que pasa por P es tal que C está incLrf Af™ 0s que el hiperplanabiertos determinados por él. incluido en uno de los dos semiespacio

La ecuación de tal hipeiplano es

NÍ ( X - P ) = 0O sea

semiabierto (o,’ ] se ve rific^q u e^1” 10 ^ A’ ent0nces para todo ‘ Perteneciente al inte™!

1 A ~ P ■ < IA - / (B - A) _ P , = , (A _ p) + , ( ,

www.FreeLibros.com

Page 349: Algebra ii   armando rojo -

www.FreeLibros.com

do al cuadrado y teniendo en cuenta la expresión del cuadrado del módulo y la E-bltfridad del producto interior, en notación matricial, resulta

dÍStri II A - Pll2 < ¡I A - Pli2 + 2 t (A - P)* (B - A) + t% II B - Ail2

Después de cancelar y dividir por V.0 < 2 (A - P)( (B - A) + t II B - AII2

Para t -+ 0 es0 < (A - P)f (B - A) = N f (B - A) = NÍ B - N í A =

=¡ N* B - N* A + N* P - N* P = N( (B - P) - Nf (A - P)

Osea0 < N f (B - P) - N N

De dondeNí N < N t ( B - P )

Y como Ní N > ü, pues N * 0, resulta0 < N ( ( B - P )

Es decirNÍ B > N Í P

En consecuencia, B pertenece al semiespacio de inecuaciónNÍ X > N Í P

O sea, C está incluido en el semiespacio abierto determinado por la inecuación

N * X > N * P

HIPERPLANO SOPORTANTE 34 3

10.6.2. Hiperplano soportante

Sea P un punto frontera del subconjunto convexo C C R ,

Definición7r es un hiperplano soportante del conjunto convexo C en el punto frontera P si y solo si C está incluido en uno de los dos semiespacios cerrados de borde ir.

Queda como ejercicio del trabajo práctico la demost ración de la siguiente propiedad: si P es un punto frontera de un conjunto convexo C, entonces existe un hiperplano soportante de

CenP.

Ejemplo 10-4ni Consideremos un conjunto convexo C y el hiperplano de ecuación

N * X = k

www.FreeLibros.com

Page 350: Algebra ii   armando rojo -

www.FreeLibros.com

344CONVEXIDAD. PROGRAMACION LINEAL

Sabiendo que

X e C ^ N ' x > ¿ ( i )afirmamos que todo p u n to perteneciente a r n *Bn efecto, S1 P no J ra un "

LuegoP - e N e C

N' ( P ' e N ) = Nt P ^ e N ' N = í ; - e N <N < j tlo que es imposible, ya que todo punto de C satisface < 1 ■>

soportante de c en

10.7. PUNTOS EXTREMOS

Sea P un punto del conjunto convexo C C R "

D efinición

pertenec iem efa c S q u Í ° “ Y ^ SÍ ^ GXÍStm dos Puntos t i n t o s P, y P¡

P í -p2 + ( l - / ) P 1 donde 0 < í < j

determinadc^po^dos punto^disüntos d e ^ l“"*0 C° nVeX° n° PerteneCe aI -bta*

■ ■ ■ — — . *Se dem uestra que todo p un to extrem o de '

Propiedad U" C° njUnt° C° nVeX° " “ PUnt0 f™ ‘era.

Todo hipeiplano soportante decontiene un pun to extrem o. C°nVeX° ’ “ y acotadop o r debajo,

www.FreeLibros.com

Page 351: Algebra ii   armando rojo -

www.FreeLibros.com

PUNTOS EXTREMOS 345

r est a afirmación consideremos un hiperplano soportante de C en un punto Para pr° * taJ ^perplano, y su ecuación

n! x = n ' p0

C o n si 1

sea

•derem os el semiespacio cerrado definido porNf X > N ‘ Po VXeC

A - tt n c¿ c u e rd o con las hipótesis y propiedades anteriores, A es convexo, cerrado y acotado

por

De ac debajo.

Probaremos que todo punto extremo de A es un punto extremo de C. En consecuencia, el problema queda reducido a la determinación de los puntos extremos de A.

Supongamos que P sea un punto extremo de A no perteneciente a C; entonces existen Ch

y Q 2 en C tales queP = íQ 2 + (1 — O Q i A 0 < í < l (1)

Ahora bien

De (1) se deduce

P e 7 T ^ N í P = N P0 (2)

Ní P = í N í Q 2 + ( 1 - í ) N ( Qj

De esta igualdad y de (2) resultaN‘ P0 = í N ( Qa + ( l - í ) N ‘ Qi (3)

AdemásQ t eC a Q 2 e C=> Nf Qi > N ( P0 a N ‘ Q 2 > N é P0

Supongamos que se verifica alguna desigualdad estricta, por ejemplo, N( Q 2 > N( P0.

www.FreeLibros.com

Page 352: Algebra ii   armando rojo -

www.FreeLibros.com

346 CONVEXIDAD. PROGRAMACION LINEAL

Entonces, considerando (3) se tiene

N í P0 > / N í p o + ( l - / ) N í P0 = N í Pn lo que es absurdo. En consecuencia, se verifica que

N Í Q1 = N Í P0 a Nf Q2 = N* P0O sea

y esto contradice la suposición de que P es un punto extremo de A

extrem“ C° m ° e je rdd° " * " b* ° • > * « “ * determinación efectiva de un punto

p u n t t “ qUe t0d° C° njUn,° aCOtad° y convexo es el casco convexo de j

^ “ r ° de que un ~ - « *

10.8. INTRODUCCION A LA PROGRAMACION UNEAL10.8.1. Concepto

• r ¡ r s ? x s - r i r r * ? - •• - — - -aphcable a sistemas complejos en los que in te J e ñ e n T e ’rso etCé,era' »dinero. Su objetivo es el asesoramiento a fin de adornar L • e« ° s > materia prima y

La Programación Lineal es un m ^ e lo n a r t i . l T “ co m ^ e s.Los problemas que trata la Programación Lineal s o ^ 6 "n ^ Investi6ación Operativa.

^ E iH n 6 relac ones **neales que vinculan las variabies corólos datos16 PUeden " eXPreSad°S¿fsirtZí'SE. rr.'rr“'soluciones posibles y optimización del objetivo. SU P ’ estrucíura lineal,

www.FreeLibros.com

Page 353: Algebra ii   armando rojo -

www.FreeLibros.com

PROGRAMACION LINEAL 347

oroducir una unidad del producto A x , el dinero insumido por los recursos es, en pesos, pa?0 y 4 respectivamente. En el caso del segundo producto las cantidades son 6 ,2 0 y 4.5’ Esta situación queda indicada en la siguiente tabla o matriz

A) a 2

Mano de obra 5 6

Materia prima 10 20

Equipos 4 4

El dinero disponible para cada uno de los tres recursos es, respectivamente, 15.000,

20.000 y 6.000 pesos. . . .La ganancia o beneficio neto por cada unidad del producto A! es 3 pesos, y por cada

unidad del producto A2 es 4 pesos. Se supone que el mercado puede absorber sincompetencia estos productos.

Con esta información completamos el cuadro anterior:

^ ^ ^ P r o ducto s

Recursos^''“''“''« ^ ^ A! a 2 Disponibilidades

Mano de obra 5 6 15.000

Materia prima 10 20 20.000

Equipos 4 4 6.000

Beneficio 3 4

El problema consiste en determinar las cantidades a producir, Xi y x 2, de los productos Ai y A2í respectivamente, a fin de obtener el máximo beneficio. El objetivo es, entonces,maximizar el beneficio.

Las variables x t y x 2 deben satisfacer las siguientes restricciones:

1. Condiciones de vínculo

5jcx + 6x2 <15.000 ■ 10 x i + 20 x 2 < 2 0 .0 0 0

4 x i + 3 jc2 < 6.0002. Condiciones de no negatividad

\Xl >0

www.FreeLibros.com

Page 354: Algebra ii   armando rojo -

www.FreeLibros.com

348 CONVEXIDAD. PROGRAMACION LINEAL

El número de unidades producidas de cada producto no puede ser negativo.El conjunto solución S del sistema formado por las inecuaciones anteriores es

intersección de los cinco semiespacios (en este caso semiplanos), que tales inecuacio determinan. nes

Para obtenerlo, representamos primero las rectas cuyas ecuaciones son:

5 x i + 6 x 2 = 15.000

10 X ! + 2 0 x 2 = 20.000

4 * i + 4* 2 = 6.000

Las condiciones de no negatividad restringen el problema al primer cuadrante. Obtenemos las intersecciones de las rectas con los ejes escribiendo las ecuaciones en la f0rm segmentaria, o sea, dividiendo por cada término independientemente:

3.000+

2.500

+ *22.000 1.000

+ *21.500 1.500

La representación de las tres rectas y del conjunto S, intersección de los cinco semiespacios, queda indicada en la siguiente figura

www.FreeLibros.com

Page 355: Algebra ii   armando rojo -

www.FreeLibros.com

PROGRAMACION LINEAL 349

■ conjUnto solución S es el cuadrilátero cuyos punto s (x x, x 2) satisfacen las condiciones 'nculo y de no negatividad. S recibe el nombre de conjunto de soluciones posibles o

f6 [¡bles De él hay que elegir el subconjunto cuyos elementos maximicen la función objetivo

f ( x l t x 2)= 3 * ! + 4 x 2 x ) representa el beneficio neto que se obtiene al vender;^ unidades del producto A!

y unidades del producto A2 .La relación

3 * i + 4 x2

r e p r e s e n t a una familia de rectas paralelas, de pendiente m = llamadas rectas de

isobeneficio.De éstas, interesa aquella cuya intersección con S sea no vacia y cuya distancia al origen,

es decir,— , sea máxima. Esto es, hay que determinar la recta de la familia de mayor k y de

intersección no vacía con S.

www.FreeLibros.com

Page 356: Algebra ii   armando rojo -

www.FreeLibros.com

350 CONVEXIDAD. PROGRAMACION LINEAL

En la figura se ha representado la recta de la familia que Dasa n n r .1 •ecuación es 3 que pasa P0r el °«gcn y CUya

3*, +4*2 =0

origDee„SP,aZand° °Sta reC,a “ 18 direcci0n dcl vector “ >"■»> 31 + 4 J cace la distancia a,

b e n e L r ^ r i " : ; : er: r „ dee al pun to a o o ° - 5oo)- p » -* « » ^ ^ * . y „

má x f x 2) ~ 3 . 1000 +4 • 500 = 5000

un idades’del p roducto ^ T ^ r i n T d a d e s ^ ? V ^ C u T P1'°ducicnd° 1-000

Con relación al problema expuesto, utilizando notación matrícial, se tiene

A M 10 20 I * = » = Í 2 O.OOO )

1. Condiciones de vínculo:

2. Condiciones de no negatividad:

3. Función objetivo (a optimizar):

Ejemplo 10-5

6.000 / c =

A X < B

X > 0

/ ( X ) - C f x

Desarrollamos el siguiente problema expuesto por Tucker en el Se,»- ■ ,Royaumont, cuyo enunciado figura en la publicación número 26 escrita 2 7 r LU» A. Santaló, de la colección La Escuela en el T i e m p o S c S ^ a 9 ”Un chacarero tiene a su disposición 100 hectáreas de tierra if.a a - i ' [cultivarlo y 1 , 0 0 pesos para invertir. Desea s e l r a r dÓfcu, ’titosrequiere un día-hombre por hectárea y produce un beneficio de 40 pesos ñor lie * **

www.FreeLibros.com

Page 357: Algebra ii   armando rojo -

www.FreeLibros.com

PROGRAMACION LINEAL 351

Cultivos

R e c u rso s^ ''\. Ci c , Disponibilidades

Hectáreas 1 1 100Días-hombre 1 4 160Inversión por ha. 40 20 1.100

Benefìcio 40 120

Si x j y x 2 son las hectáreas que deben destinarse a los cultivos Ci y C2, el problema consiste en maximizar la función objetivo

4 0 * ! '+ 120x2sujeta a las restricciones

*1 + *2 < 100

*1 + 4* 2 ^ 160 10xi + 2 0 x 2 <1.100

> 0

x2 > 0

En el gráfico siguiente están representados el conjunto S de soluciones posibles, y el punto de coordenadas (60, 25) que optimiza la función objetivo:

www.FreeLibros.com

Page 358: Algebra ii   armando rojo -

www.FreeLibros.com

El máximo beneficio se obtiene sembrando 60 hectáreas del cultivo 1 y 25 hectá del cultivo 2, o sea, dejando 15 hectáreas sin cultivar. eas

10.8.2. Problema general de Programación lineal

Un problema de programación lineal puede expresarse de la siguiente manera:

minimizar /( X ) = C ' X = | ct X, (función objetivo)

sujeta a las restricciones:

A X < B (condiciones de vínculo)

X > 0 (condiciones de no negatividad)donde X e R " x l , A e R mx", B e

Definición

Solución posible o factible de un problema de programación lineal es todo vector de K que satisfaga las restricciones. r de

El conjunto S, de las soluciones posibles es c o n v e n a semiespacios cerrados. Si alguna condición de víncnln p ^ ^ intersecció« deinterviene un hiperplano, que es convexo y cerrado. eCUaC10n’ en tal intersección

Definición

" “na S° 1UdÓn P° SÍble en este caso) ,a

Propiedad

tiene puntos interiores al conjunto d fsd u c to n e s p ^ iM e s0 ^ 1™ ’ en‘° nCeS “ hiperPIano n°

t - í * “ ° 31 mínimo de ia * “ * ■ S de soluciones posibles. 0 ’ que es intenor al conjuntoPor definición de punto interior, existe e > 0, tal que

S (P0 , e) C S

352 CONVEXIDAD. PROGRAMACION LINEAL

El punto

P i = P 0 -€

3 II CU

pertenece a S, ya que es un elem ento de la esfera abierta de cen tro P0 y radio e, pues

r f (P a ,P ,)= IIP, - P 0 II=-1 3

www.FreeLibros.com

Page 359: Algebra ii   armando rojo -

www.FreeLibros.com

SOLUCIONES OPTIMAS Y PUNTOS EXTREMOS 353

El vector Pi verifica, además

p f p _ / - i í p ^ C C _ T_ e l l e II , ,c P‘ ~ c P # ' 7 i d ‘ ^ ~ a

lo que es contradictorio con la hipótesis de que la función objetivo alcanza el mínimo en P0.En consecuencia, podemos afirmar que un hiperplano correspondiente a una solución

óptima es un hiperplano soportante de S en el punto de solución óptima.

10.8.3. Soluciones óptimas y puntos extremos

propiedad

La función objetivo toma el valor óptimo en un punto extremo del conjunto de soluciones posibles. Si toma dicho valor en más de un punto extremo, entonces lo toma en toda combinación convexa de tales puntos.

Consideremos un problema genérico de Programación Lineal, consistente en maximizar la función objetivo

/(X ) = C* X

sujeta a un número finito de restricciones del tipo habitual. Entonces S admite un número finito de puntos extremos, y se identifica con el poliedro convexo generado por ellos. Es decir, S es el casco convexo de sus puntos extremos, y por consiguiente toda solución posible puede expresarse como combinación convexa de los mismos.

Sean P i , P2 , • . Pfc los puntos extremos, y sea P0 un punto de solución óptima, es decir, que maximiza la función objetivo.

Se verifica que

P e S = > / ( P ) < / ( P 0 )

Debemos probar que existe un punto extremo, en el q u e /to m a el v a lo r/(P 0). Como P0 eS, se tiene

k kP0 = 2 oc, P; con 0 < oc¡ a 2 a¡ = 1

u 1=1 * 1 ' «=i

La función

definida por

/ : RH R

/( X ) = Cí X

es una trasformación lineal, y en consecuencia

/ ( P 0)==£ « í / ( P í) ( 0 i=iConsideremos

/(P * ) = máx j/ ( P ¡ ) / i ~ 1>2........ * )i

www.FreeLibros.com

Page 360: Algebra ii   armando rojo -

www.FreeLibros.com

Como P* es un punto extremo de S, y / toma el máximo en P0, es

/(P * ) < /( P 0) (2)Por definición de máximo se tiene

/ ( P * ) > / ( P , ) V/ = 1, 2 , . . £Entonces

O f/(P * )> a //(P i) i = i , 2 , . . . , A Realizando la sumatoria respecto de i, es

x l <xin n > ¡§1 <xi f ( p i)

354 CONVEXIDAD. PROGRAMACION LINEAL

O sea

kComo^S <Xi = 1 , resulta

De ( I ) y (3) se deduce

/( P * ) .2 a, a , f ( P,)

/■ (? * )> 2 a,/-(Pj) (3)

/ ( P * ) > / ( P „ )De esta relación y de (2), por la antisimetría, se verifica que

/ ( P o ) = / ( P * )

m á S n a CÍr’ PüM° eXtK™ ’ e‘ CUai Ia función obj eti™ el valor

P, qUe / 41031123 d ÓPtÍm0 “ d° S PUnt0S extremos y sean éstos

/ ( P í ) = / ( P y ) = M

Consideremos una combinación convexa

P = í P , - + U /)P,Como

/ ( P t = f / ( P ;-j + (l — r j / ( P ¿ ) - / M + ( l /) M = M

de p j y p “ bad° qUe d Va'° r Óp,im° “ alCanZad° en e' PU'ltU P' 4Ue eS combÍMC’°" c°nvexa

10.8.4. Observación

Sabemos, por 10.6.2., que todo conjunto convexo, cerrado y acotado por debajo tiene puntos extremos en cada hiperplano soportante. El conjunto de soluciones posibles de un

www.FreeLibros.com

Page 361: Algebra ii   armando rojo -

www.FreeLibros.com

SOLUCIONES OPTIMAS Y PUNTOS EXTREMOS 355

problema de Programación Lineal es convexo, cerrado y acotado por debajo por el vector nulo ya que X > 0. El teorema anterior asegura que si existe óptimo de la función objetivo, tal valor es alcanzado al menos en un punto extremo. En R ", S tiene un número finito de

puntos extremos. . .El problema se reduce entonces a examinar el valor de la función objetivo en los puntos

extremos a fin de hallar el óptimo. El método Simplex permite determinar analíticamente los puntos extremos y pasar de uno a otro analizando el valor d e /, hasta obtener el óptimo.

www.FreeLibros.com

Page 362: Algebra ii   armando rojo -

www.FreeLibros.com

TRABAJO PRACTICO X

m S e a A ^ J ^ . ^ e R ' / U i K i A ^ K ! ) y j (2 , i ) |

Determinar la frontera y el derivado de A.

¡0-7. Dados los siguientes subconjuntos de R2

A = \ ( x i , x i ) l 2 x \ + 3 * 1 < 6 í

B = \ ( x l t x 2) ¡ x 1 > 1 a x 2 < 2 Í

C ~ j ( x l f X2) / X i X 2 ^ 2 A X ¡ ^ 0 A x 2 ^ l }

clasificar los puntos del plano respecto de ellos, determinar sus fronteras y derivados e investigar si son abiertos o cerrados.

10'8' ab“ qUC Un C° njUnt0 A C R " “ Cerrad° SÍ y SÓ1° Si su «»nphm entario es

10-9. Demostrar que un hiperplano es un conjunto cerrado.

10-10. Investigar si los conjuntos de los ejercicios 10-6 y 10-7 son convexos o no.

10-11. Demostrar que la unión de una familia numerable de abiertos es un conjunto abierto.

10-12. Demostrar que la intersección de una familia finita de abiertos es un conjunto abierto.

10-13. Demostrar que la intersección de una familia numerable de cerrados es un conjunto cerrado, y que la unión de una familia finita de cerrados es un conjunto cerrado.

10-14. Determinar el casco convexo generado por los puntos (1, 2) (1 _ n ( l i w , n ( - 1 ,2 ) , (2, 3), ( - 1 , - 1), (1 ,0 ). Investigar si (0, 0) es combinación convexa (1, - 1 ) y

10-15. Sea/ : R" -*• R" la traslación definida p o r/(x ) = x + a, donde a e R"Demostrar que

S es convexo =>f (S) es convexo

Demostrar que el conjunto solución del sistema lineal A X = B, donde A e R “o e K y X e R , es convexo. ’

10-17. Sea O C R " . Por definición

C es un cono ^ x e C ^ a x e C A a > 0

www.FreeLibros.com

Page 363: Algebra ii   armando rojo -

www.FreeLibros.com

TRABAJO PRACTICO X 357

Demostrar que si A C R*1, entonces el conjuntoC = i a x /a > 0 a x e A )

es un cono. C recibe el nombre de cono generado por A.

¡048. Determinar el cono C C R3 generado por la intersección deA l = {( x i , x 2, x 3) l x 21 + x ¡ < 2 ¡

y el plano de ecuación x 3 = 2 .

1049. Sabiendo que C es un cono, demostrar queC = j - x / x e C |

es un cono. C‘ recibe el nombre de cono opuesto de C.

10-20. Demostrar que si C es un cono, entonces

C1 = j y / { y ,x> = 0 , V x e C j

es un cono. Cx se llama cono ortogonal a C.10-21. Demostrar que el cono ortogonal al cono C C R" es un subespacio de R».

10-22. Sean los conos Cj y C2. Demostrar queC = c 1 + C 2 = | x + y / x e C 1 a y e C 2 |

es un cono.10-23. Plantear el siguiente problema de programación lineal: * Ao

Un mezclador de licores importa licores de tres grados: A, B y C. Mediante mezclas de éstos, ateniéndose a las indicaciones especificadas en la tabla siguiente, obtiene tres

productos finales: L, M y N.

Mezcla Especificación Precio de venta por litro

L No menos del 60 % de ANo más del 20 % de C

68 $

M No más del 60 % de C No menos del 15 % de A

57$

N No más del 50 % de C 45 $

Las disponibilidades de los tres licores básicos y sus costos son

www.FreeLibros.com

Page 364: Algebra ii   armando rojo -

www.FreeLibros.com

358CONVEXIDAD. PROGRAMACION LINEAL

Licor

ABC

Disponibilidad máxima mensual en litros

6.0007.5003.600

Costo por litro

63 $ 45 $ 36$

“ r i " ; : : . saber cutoo debe produdr de ,os L, M y N> a & de m a x i.

^^ ^ s i^ iem es^p ed id o s/3^1 31 ^ Pr° dUCe r0,1° S “e 82 « * ancho. Se han recibido ios

60 rollos de 58 cm 85 rollos de 26 cm 85 rollos de 24 cm 50 rollos de 23 cm

y t S i z ? ; dt p e 3rdfciCoÓm0 C° rtar 108 r° I,0S de 82 a <>• -tisfacer ios pedidos

www.FreeLibros.com

Page 365: Algebra ii   armando rojo -

www.FreeLibros.com

W "

BIBLIOGRAFÍA

Bouteloup, J.: Cálculo de Matrices, EUDEBA, Buenos Aires, 1965.

C otlar-Sadosky: Introducción al Algebra, EUDEBA, Buenos Aires, 1962.

pieudonné J.: Fundamentos de Análisis Moderno. Editorial Reverté S.A., Barcelona, 1966.

Faddeeva, N. A.: Métodos de Cálculo de Algebra Lineal, Editorial Paraninfo, Madrid, 1967.

Faure-K aufm an-D enis: Matemática Moderna. Editorial Paraninfo, Barcelona, 1966.

Gass S.: Programación Lineal. Editorial CECSA, México, 1961.

Gentile E. R.: Espacios Vectoriales. C.E.D.Q., Buenos Aires, 1965.

Graybill, F. A.: A n Introduction to Lineal Statistical Models. Mac Graw-Hill, New York, 1961. ■

Hadley, G.: Linear Algebra. Addison-Wesley Publishing Company, Inc., 1967.

Johnson R.: Algebra Lineal. CECSA, México, 1969.

Lang S.: Linear Algebra. Addison-Wesley Publishing Company Inc., 1967.

Lentin-Rivaud: Lecons d ’Algebra Moderne. Libraire Vuibert, Paris, 1961.

Lipschutz, S.: Teoría y Problemas de Algebra Lineal. Serie de Compendios Schaum, Colombia, 1963.

Lipschutz, S.: Theory and Problems o f Finite Mathematics. Schaum, New York, 1966.

Marcus-Minc: Introducción al Algebra Lineal. CECSA, México, 1969.

Pettofrezzo A. J.: Matrices and Transformations. Prentice-Hall, Inc., New Yersey, 1966.

Rao C. R.: Linear Satistical Inference and its Applications. John Wesley and Sons, Inc., New

York, 1968.Rojo A.: Algebra I. Editorial El Ateneo, Buenos Aires, 1972.Rudin W.: P r i n c i p l e s o f Mathematical Analysis. Mac Graw-Hill Book, 1963.

www.FreeLibros.com

Page 366: Algebra ii   armando rojo -

www.FreeLibros.com

B IB L IO G R A FIA360

Simmons G. F ;: m troaucnon to Topology andM odem Analy^ Mac ^ ^ ^ ^

TUm o ^ Vi“ ;, L L L T 19I “ “ * /flS « h & * * « * *

Villamayor O..- Notes de Geometría /, Buenos Aires, 1966

Villamayor O , Algebra Lineal. Monografía Científica Número 5, O.E.A.

www.FreeLibros.com

Page 367: Algebra ii   armando rojo -

www.FreeLibros.com

T«r

RESPUESTAS A LOS TRABAJOS PRACTICOS

TRABAJO PRACTICO I

j - i6. i ) si i i ) sí iii) no iv)no.

¡‘17. i ) sumar el opuesto de y.

i i ) sumar el opuesto de x.

iii) después de cancelar y de trasponer, aplicar A9 y 1.3.3.

iv) trasponer y aplicar A8 y 1.3.3.

1-18. Después de utilizar As y A9, y de cancelar, mediante 1.3.3. se obtiene a = 1.

149. i ) sí i i ) sí iii) sí iv )sí v ) s í vi) no.

¡■20. No, ya que no existe neutro para la suma en V.

1-21. Sí. El lector debe probar que se verifican los axiomas.

¡•22. i ) síi i ) no, pues (1, 1, 2) e S y (1, - 1 , 3) e S pero la suma (2, 0, 5) £ S

iii) no, porque S no es cerrado para la suma.

1-23. i ) no, pues no se verifica A6

ii) sí. Verificar las condiciones suficientes.

1-24. Aplicar 1.8.2.1-25. S no es subespacio de (C2 , +, C, .) pues no es cerrado para el producto por escalares.

Así, por ejemplo( 1 + / , - 2 ) e S pero / ( l + / , - 2 ) t f S .

En cambio S es un subespacio de (C2, + , R , .).

1-26. Ai y A6 se verifican por definición de cada ley de composición. Mostramos, a modo de ejemplo, la validez de A2 :

{(x, y) + (x \ y ')| + (x’\ y”) = (x + x’, y + y ’) + (x” , y” ) =

= (x + x’ + x ” , y + y’ + y”) - (x, y) + (x* + x” , y’ + y” ) =

= ( x , y ) + l ( x \ y ’) + ( x ” , y ” ) )

www.FreeLibros.com

Page 368: Algebra ii   armando rojo -

www.FreeLibros.com

« A i ) (* , ) e S - + , )2

S e. el conjunto unión de los dos ejes, o sea, no es un subespacio

U) T es el subespacio definido por la ecuación * - 3, = 0.

1-29. i ) „0 , ya que no es cerrado para la suma; por ejemplo

( l , 0 e S y ( í , l ) e S pero (1 + ¡t 1 + A / si i ) s íiii) si

iv) si. s = j (a, a + bí) j a e R a b e R iv ) síVi) sí.

1-30 Teñe, en cuenta las definiciones de suma de subespac.os y de inclusión1-31. Suponer que x eS admite dos descomposiciones del üp L = x x v

y tener en cuenta la definición de suma directa.1-32. I o, Aplicar 1.8.2.

2 . Tener en cuenta el ejemnlo 4-5 iVí or «i ,

suma de una matriz simétrica y de una^ntisimétrica^3 m ,t*

RESPUESTAS A LOS TRABAJOS PRACTICOS

1-27. A plicar 1.8.2.

www.FreeLibros.com

Page 369: Algebra ii   armando rojo -

www.FreeLibros.com

TRABAJO PRACTICO II

2-25. i ) se determinan a y b tales que

a ( v S , 2 ) + 6 ( - V 6 , 2 ) = ( V 2 , l )

Aplicando las leyes de composición habituales se resuelve, después de igualar componentes, un sistema lineal de dos ecuaciones respecto de a y b.

ii) procediendo análogamente, el sistema resultante carece de soluciones y en consecuencia v no es combinación lineal de Vi y v2 .

2-26. Considerar la relación lineal

a x ( - 1 , 3, 1) + a 2 (3, - 1 , 1) + a 3 (4, 0, 2) - (0 ,0 , 0)

y después de aplicar las leyes de composición usuales y de igualar las componentes de las ternas se llega a un sistema lineal cuyas infinitas soluciones están dadas por

o i = k , 0=2 = 3 k , a 3 = — 2 k

En la segunda parte, a partir de

(4, 0, 2) = o¿ ( - 1 , 3, 1) + 0 (3, —1, 1)

1 3se llega a un sistema lineal cuya solución es a = — , 0 = —. Luego

2 2

(4, 0 , 2 ) = ~ ( - l , 3 , l ) + | ( 3 , - l , 1)

2-27. Considerar a A + 0 B = N. Resulta a = (3 = 0,

2-28. En (R, +, R , .) son L.D., pero en (R, +, Q, .) son L.I.

2-29. x = l .

2-30. Considerar<* ( 1 , a , a 2 ) + I K M , &2 ) + 7 0 , c , c 2 ) = ( 0 , 0 , 0 )

En -el sistema resultante, restar a cada ecuación la anterior multiplicada por a, y después, a la tercera restar la segunda multiplicada por b.

2-31. A partir de la relación lineala f + 0 g + 7 h = e

www.FreeLibros.com

Page 370: Algebra ii   armando rojo -

www.FreeLibros.com

^ al S! 2C“nS¡dera ]a de cualquier f e R; derivando

2-32. Se plantea una combinación lineal cuyo resultado i t ■>ejercicio anterior, que se verifica para todo í e R Drndo f*ncion ™la. com° <* el ejemplo 1 y 2 , se llega a un sistema con la solucion un” a a 4 ^ = 1

2-33. Considerar a (a, b) + 0 (c, d ) = (0 , 0).

2-34. Son L.I. en ambos espacios.

2-35. i ) son L.I.

ü) son L.I. si ab * 1, y son L.D. si ab = 1.

2-36. Aplicar la definición de independencia lineal.2-37. Considerar la relación lineal

a i x i + - - . + a n x „ + ^ u = 0y probar que 0 0.

2-38. A partir de a , x , + . + <* x ,

x seria C.L. de los vectores de^í. Te* er"en cuenta^desp^és la "hipótesis °aS° contrar*°

™ r : “ n se puede hacer por inducci6n c°mpkta ° ^ ■>

2-41. i ) cualquier núm ero real no nulo 3 3

i i ) la base canónica

iii) la base canónica

ív) ! i + i i

y ) í i + i, i -/ ¡ .

2-42. El subespacio pedido es el plano de ecuación * - y _ , = n1 0 , l .o ) , ( 1, 0 , 1) ) . ya que °> y u™ base del mismo es

( x . y . z ) e S * ( y + z , y , z ) e S ~ ( y , : ,< o) + (2¡o , z ) e S ~

2-43 y 1 ’ 1 ’ 0) + Z 0 ’ ° ’ 0 e s - 0 sea" los dos vectores son un S.G. de S, y además L I

* * r " ' “ - * ™ b“ * — - . - . i . » ™

2-44. Una base es / / * ® \ ® M ® ® \ I¡ \ 0 - ~ l ) ’ \ o 0 / ’ \ l 0 / ’ la dimensión es 3.

2-45. Una base de S es f (2, 1) , (24 0 ¡ , y la dimensión es 2.

2-46. S no es un subespacio ya que no es cerrado para la suma.

36 4 RESPUESTAS A LOS TRABAJOS PRACTICOS

www.FreeLibros.com

Page 371: Algebra ii   armando rojo -

www.FreeLibros.com

¡47. Está propuesto en 1-2S, y la respuesta es afirmativa si el cuerpo es R. Una base es 11 + í, —2í ) .

248. S es el plano de ecuación = 0. Una base de S está formada por los vectores (1 0 01 v (0, 0, 1). T puede ser el plano de ecuación z = 0. ’ ’

¡49. La dimensión de S, n S2 es 2; aplicando 2.8.1., y considerando gue dim Si - dim S2 = 3, resulta dim (Si + S2) = 4.

2-50. Primero, demostrar

i > r =* vf es C . L . d e v i , v 2 ) . . . , v r .

Luego, probar que ( Vj, v2, . . vr | es un sistema de generadores de V.

2-5L Considerar dos bases: una en Si y otra en S2, y tener en cuenta el ejercicio 1-31

TRABAJO PRACTICO II 365

www.FreeLibros.com

Page 372: Algebra ii   armando rojo -

www.FreeLibros.com

TRABAJO PRACTICO III

3-21.1, sí. 2. no. 3. sí. 4. no.

3-22. l . s í . 2. no. 3. sí. 4. no.

3-23. Aplicar la definición de T.L. a / ( x + y).

^ Pr° bar !a stae tn a del p,ano

3-2S. Expresar los veetores (3, 3) y (0, - 1 ) como C.L. de (1, 2) y de (2, 1). Apliear deSp„é¡

la definición de T.L. R esu lta/(3 , 3) = ( -1, 2, 1) y /(O , - 1) = J

3-26. Considerar F (v + v’) y F (a v).

3-27. Se obtiene el paralelogramo de vértices (1 ,1 ), (0, 3), ( - 1 2) y (0 0)S-28. Sí. ’

3-29. 1. Aplicar la definición de T.L.

2 ./e s inyectiva, pero no sobreyectiva^cs sobreycctiva. pero no inyectiva.

3 -( S ° f ) ( a , b ) = (2a + b, b) y (/•- g ) {a, b) (a + b, a + b + c, c).

3-30. Aplicar la definición de imagen, el hecho de que / v. v2 v J es S c rf* v idefinición de T.L. 1 2 ’ * ‘ ” " ' de V’ y la

3-31. f es trasformación lineal biyectiva.

3-32. Aplicar la definición de T.L. El único vector cuya imagen es la matriz nula, es (0, 0).3-33. Considerar 1.8.2., la definición de preimagen y de T.L.

* « . l . N ( 0 = í ( < U , - * ) / * e R j . Una base de N ( f) es ¡ ( 0 , 1 , - ! ) ) y su dimensión el !■ I,(f) es R2.

1 (2k '¿ k) 1 k S ^ 1 ' ^ b3Se ^ N W 65 ( (2 - 'M • y ^ dimensión es 1.* If) ~ R> y su dimensión es 1.

3-35. n = 3. Se define / ; R4 R 3 mediante

f { X\ , X2, X3, XA) ^ { Xl + ^ 2 , ^! - X 4, X2 + x 3 +X4),

www.FreeLibros.com

Page 373: Algebra ii   armando rojo -

www.FreeLibros.com

TRABAJO PRACTICO III 367

probar que f e s T.L.

N ( /) = í (*> -* , 0 , * ) / * e R | .Una base es { ( 1 , - 1 , 0 , 1 ) } y d i m N ( / ) =L

3-36. l . A =

3. B =

■ 2 . / ( —2, 2, - 2 ) =

1 00 1

3-37. 1. N (f) - ¡ (0 ,0 ) ) ; dim N (f) = 0 . 1 (f) = { (x, y , z) / 3x - y - 2z = 0 j ; una base de la imagen está formada por los vectores (1, 3, 0) y (0, - 2 , 1); su dimensión es 2.

3 2 \

12. A =

\

1

23 1

3-38. Multiplicando A por el vector columna de componentes genéricas x lt x 2 y * 3, se deduce que f ( x u x 2, x 3) = (x1 + x 2 - x 3, 3 x , - 3 x 2 - 3 x 3 , - ^ ! + 4 x 2 + 2 x 3).

N (f) - { (k, 0, k) / k e R f ; N (f) es la bisectriz del plano xz; su dimensión es l . l ( f ) es el plano de ecuación x - y — z = 0, y su dimensión es 2.

1 1 0 - 1 1 0 0 0 13-39. La matriz es la traspuesta de0 0 0 0 0 1 0 1 -1

3-40. 1. A =

- 0 0 - i\

0

4

2. La imagen de la matriz

base dada.

-1 3 2 2

es el vector- 3

0 ) expresado en términos de la 10

3-41. f ( x l f x 2( * 3) = ( - - * ! + - x 2 + ~ x 3 i - - Xl + - x 2 + 2 x 3).** L ¿é ¿0 ¿,

www.FreeLibros.com

Page 374: Algebra ii   armando rojo -

www.FreeLibros.com

368 RESPUESTAS A LOS TRABAJOS PRACTICOS

1 03-42. A

\ 2

J_

2 /

3-43. Hallar las imágenes de los vectores de la base canónica de R 2 ; se obtiene

eos 6 -sen

sen 9 eos

3-44 Considerar que la matriz de la composición de dos trasformaciones lineales es el producto de las correspondientes matrices. En el segundo caso, comprobar qUe fe 0 f-Q =f-e ° fe = i, donde ¿denota la función identidad.

3-45. Probar que ( f u f 2, . . . , f n J es un sistema de generadores de V considerando

cualquier elemento ^ e V y definiendo a¡ - g (i>,); resulta entonces g - Xa¡f¡. Probar

después la independencia lineal a partir de la relación lineal = e donde e denota

la función nula; obteniendo la imagen de cada se prueba que a, = 0, para todo* ” 1> 2 , . . n. Ambos espacios, V y su dual, tienen la misma dimensión.

3-46. 1. Probar que se cumple la definición de trasformación lineal, y tener en cuenta el ejercicio 1-31.

2. Utilizar la definición de composición de funciones.

3. Aplicar las definiciones de suma de funciones y de proyecciones; I denota la función identidad en V.

www.FreeLibros.com

Page 375: Algebra ii   armando rojo -

www.FreeLibros.com

TRABAJO PRACTICO IV

elu e ^ “ I 5 — 2 - U

do

)ar

>ta , 4 -2 4 . A 2 = | 0 i o ) ; ABC = f 0 I ¡ B ' A ^

do

1 0 - 11 0 1

ii) A 2 - AB + BA - B

2 \ , 4 _ / 5 3

el

4-29. Considerar, por ejemplo, que A, B y C son de los tipos nxp, p x q y qxm, respectivamente; expresar la fila i de A, y la columna/ de BC, para formar el elemento (i, j) de A (BC). Proceder análogamente con el segundo miembro.

4-30. Demostrar que la propiedad se cumple para n = 1, y que si se verifica para n = h, entonces se verifica para n = h + 1.

4-31. Demostrarlo por inducción completa, como el ejercicio anterior.

4-32. X - 1.

4-33. Demostrar por inducción sobre k.

4-34. Considerar X = X I.

4-35. Plantear el sistema de ecuaciones no lineales.

4-36. Aplicar la definición de producto de matrices y la conmutatividad del producto en K.

4-37. Utilizar la definición de trasposición y de producto de matrices.

4-38. Partir de (A B)2 .

www.FreeLibros.com

Page 376: Algebra ii   armando rojo -

www.FreeLibros.com

370 RESPUESTAS A LOS TRABAJOS PRACTICOS

n n4-39. Q = X a i k aki = ^ a ^ k =>a[k = 0 , V k. Análogamente se prueba que la columna de

lugar i es el vector nulo.

4-40. Efectuar (Bf A B)2„

4-41. Premultiplicar A + B = I por A, y posmultiplicar por B.

4-42. Como en el ejercicio anterior.

4-43. Determinar el cuadrado de cada una de las cuatro matrices y aplicar las hipótesi-i, propiedades de la trasposición. ^

4-44. Verificar que se cumple la definición de matriz simétrica.

4-45. Para la condición necesaria, considerar A B = ( A B ) ' . Para la condición suficiente partir de (A B )\ me>

4-46. Desarrollar el producto indicado.

4-47. Desarrollar (A - a 1) (B - a I) y utilizar la hipótesis de que A y B son pemiutables

cancelar"011 suriclente> consid« a r que A - al y B - al son permutables; después

4-48. Las filas de AB son iguales entre sí, y cada elemento es igual a la suma de los elementos de la correspondiente columna.

4-49. Tener en cuenta las propiedades relativas a la inversa de un producto y a la traspuesta de un producto.

4-50. Se considera la matriz diagonal B cuyos elementos diagonales son los inversos de los correspondientes de A ,y se verifica que A B = B A = I.

4 '5 l, Considerar A2 = A y multiplicar por A"1.

4-52. Probar que se verifican los cuatro axiomas de grupo.

4-53. Utilizando el mismo esquema de partición en ambas matrices, en bloques de dos filas y dos columnas, se obtiene

0 0 4 10 0 2 00 1 0 0

. 2 2 0 0 ,4-54. Las dos primeras filas constituyen una base del espacio fila de A.

4-55. Multiplicar a derecha B A = N por la inversa de A.

4-56. Premultiplicar por la inversa de A.

4-57. Tener en cuenta que hay que probar la verdad de una disyunción.4 -5 8 .p {A) = 2 ;p (B ) = 3.

/ 2 2 14-59. La inversa de A no existe. B'1 = [ 1 2 1

1 1 1

www.FreeLibros.com

Page 377: Algebra ii   armando rojo -

www.FreeLibros.com

4 0 Determinar los rangos de A y de AA* por Gauss Jordán.

D em ostrar primero que Sc (A + B) C Sc (A) + Sc (B). Al pasar a la relación entre sus dimensiones, tener en cuenta 2 .8 .1 .

462 i ) considerar el elemento genérico de la diagonal de AB y de la diagonal de BA.

Ü) asociar y aplicar i).

iii) aplicar ii).

443 Premultiplicar por A la relación A X = a X, y tener en cuenta que A2 = A.

4-64. Realizar la misma multiplicación que en el ejercicio anterior y considerar que A2 = I.

4-65. i ) Expresar X como producto de matrices, calcular su cuadrado y tener en cuenta que T donde T es la matriz nx 1 formada por unos, es un escalar, y por lo tanto igual a

su traspuesta.

Resulta A = — 1 1 f . o sea, una matriz n x m cuyos elementos son iguales a — n2 n2

1 -*ti i ) Se obtiene A = — 1 1 .n

iii) Después de desarrollar la sumatoria y reducir términos, se llega a que

A = í — - 7 1 *. El lector puede comprobar que esta matriz es idempotente. n

4-66. Efectuar el producto entre I - T y la suma indicada. Considerar que T" = N.

4-67. Particionar A en dos bloques del tipo 4 X 2, y efectuar el producto.

4-68. Trasponiendo términos se prueba que A admite inversa.

4-69. Por Gauss Jordán se obtiene

TRABAJO PRACTICO IV 371

1 p p 2 P 30 p p 20 0 1 p0 0 0 1 1

4-70. Para la condición necesaria, efectuar los productos AB y BA, e igualarlos para obtener a y ($. Para la condición suficiente, efectuar ambos productos sustituyendo B por su

1 expresión.

J 4-71. Aplicar inducción completa.

S / 1 1 - 1; 4*72. i ) A = ! 1 - 1 0

\ 0 1 1

www.FreeLibros.com

Page 378: Algebra ii   armando rojo -

www.FreeLibros.com

RESPUESTAS A LOS TRABAJOS PRACTICOS

www.FreeLibros.com

Page 379: Algebra ii   armando rojo -

www.FreeLibros.com

TRABAJO PRACTICO V

$.12. D (A) = -2 0 . D (B) = 10. D (C) = -1 3 5 . D (E) = 57.

$.¡3. Desarrollar por los elementos de la primera columna.

$.14. Considerar que la fila h, con h # / , es el producto del escalar Ápor la fila i.

5-15. i ) ~ ^2 ~ 0, X3 = 5

ii)* i = 0 >*2 = 2 , x 3 = - 3 .

5-16, \ - 1 > ^2 = 10-

5-17. \ - 1 , \ ~ — •

5-18. Tener en cuenta la definición de matriz ortogonal y 5.7.

5-19. Considerar 5.8.3.

5-20. Tener en cuenta el ejemplo 5-7.

5-21. Desarrollar el determinante y? y derivar.

5-22. Expresar los vectores canónicos E i , E2, . . En de K"x 1, como combinaciones linealesde A i , A2 , . . . , A „, y aplicar los axiomas de la función determinante.

5-23. Aplicar 5.5.1. y 5.5.3.

5-24. Considerar una relación lineal que sea igual a la función nula, expresar la igualdad obtenida para cualquier t y derivar « —1 veces. Resulta un sistema lineal y homogéneo dando a t el valor 0. El determinante de los coeficientes es de Vandermonde.

$-26. En cada caso, examinar el valor del determinante, y si es distinto de cero, aplicar 5.9.

www.FreeLibros.com

Page 380: Algebra ii   armando rojo -

www.FreeLibros.com

5-28, i ) Restar a cada una de las dos primeras columnas, la siguiente.

i i ) Sumar a la primera columna las restantes; factorear; a la cuarta fila sumarle ,segunda y restarle las otras dos; sacar factor común; a la segunda columna sumarie ' tercera, y a esta, sumarle la cuarta. Desarrollar. le la

iii) A la cuarta columna sumarle la segunda y la tercera.

r i i u i l Z Z “ * SUmarle 13 SE8Unda y ^ terCera; faCt° rear; a 18

5-29. Agregar el vector de componentes 0 ,0 , 1, como tercera fila y tercera columna segundo determinante. El producto es -1 8 . ^m m na del

5-30. El valor del determinante es 4.

5-31. El jacobiano es p2 eos 6.

5-32. El jacobiano es - — + ^U

5-33. C o n sid era r(-l)" D (A), y multiplicar el escalar -1 por cada una de lasn columnas.

5-34, Multiplicar el determinante de la matriz particionada por 1 =

374 RESPUESTAS A LOS TRABAJOS PRACTICOS

I N -B A -1 I

El lector puede verificar que P Q N R

IPIIRI.

5-35. Multiplicar las dos matrices y verificar que se obtiene la identidad.

5-36. Proceder como en el ejercicio anterior.

www.FreeLibros.com

Page 381: Algebra ii   armando rojo -

www.FreeLibros.com

TRABAJO PRACTICO Vi

¿ ./i . La preimagen del vector (—1 ,1 ) es j (—2- k , 3 + 3k, k) / k e R } .

6-14. El sistema 1. adm ítela solución única X\ = 5 , x 2 = l , x 3 = —4.

El sistema 2. tiene infinitas soluciones, dadas por x = 3 + 2fc, y ~ 1 — k,z = k.

6-15. Las dimensiones de los espacios soluciones de los sistemas homogéneos, son, respectivamente: 2 , 1 , 0 , 2, 0.

6-16 . 1 . { ( 1 , 0 , 1 ) , ( 0 , 1 , 1 ) ) .

2. ( ( 1 , - 1 , 1 ) ) .

4. ( ( - 1 , 1 , 0 ) , ( - 1 , 0 , 1 ) ) .

6-17. 1. Una base de S es { (—1 —/,/, 1) } y la dimensión es 1.

1 2. Una base de S es { (1, — 3 + /, — 1 — 2i) | y la dimensión es 1.

; 6-18. Una base es { ( I , T , 1 ) J .

6-/9. Como p (A ) = 2, el sistema tiene solución única. El conjunto solución es T = ( ( - 1 , - 2 ) ) .

6-20. Tener en cuenta que X = A"1 B.

6-21. T - j k (2 ,3 ) / k e R ) .

6-22. El sistema tiene infinitas soluciones, dadas por

Xi =oc

x 2 =(i

x 3 = 1 - cí - 2 { }

x 4 - — 3 a — 2 0 con a e R, (3 e R,

1 / S - 1 0 o \1 6-23. Posmultiplicar por la inversa de A. Se obtiene X = - — 4 — 4 —12 .

2 0 \ - l 6 s )

6-24. 1. p (A ) = p ( A’) = 2 < 5. El sistema tiene infinitas soluciones, dadas por

www.FreeLibros.com

Page 382: Algebra ii   armando rojo -

www.FreeLibros.com

376

*l = 2 ~ 3 a + 2 { 3 - y x 2 = a

x 3 =/3

X 4 = y

x s - 8 - 5 a + 3 2 -y con a, 0, y eR .

2. Como p (A) = 3 y p (A’) = 4, el conjunto solución es vacío

3- P (A) = p (A-) = 3 < 5. Existen infinitas soluciones, del tipo

*1 = a + 0

x 2 = a

x 3 = 0

x 4 = 0x s = 2ec + (3

RESPUESTAS A LOS TRABAJOS PRACTICOS

6-25. El sistema es compatible porque p ( Á ) = o fA’l = 1 T™ i

soluciónson + * / 4 2 H \ \ * W4 2 i1 ). k e R .' \ ^ ¿ /

6-26. Las raíces de la ecuación son: \ , = \ , = 1 A = _ i p -x _ isoluciones son del tip o * , = - a x , = h v - \ 3 Ai - A* - 1 las infinitasp \ _ r 1 — (7,

ara A, - - 1 , se obtiene ^ = -2 k , * 2 = 2k , x 3 = k.

k = o T * =1°3.Vpa°raSestosA; ^ C°efidentes- Se obtií®ambas situaciones. Para * = o el e s a d o í T “ “ " * 1 * * 1

6-28.

M'1 =

y ' ^ u c i r té n n in o s , se

Xl =

www.FreeLibros.com

Page 383: Algebra ii   armando rojo -

www.FreeLibros.com

0 0 . Trasponer ai segundo miembro los términos en z y aplicar el teorema de Cramer. Si los tres determinantes son no nulos, puede escribirse

TRABAJO PRACTICO VI 3??

X y zbt c x a t Ci a x b x

b 2 c2 a2 c3 a2 b2

6-31. Proceder como en 6-27. Para a distinto de 2 y de 3, se obtiene solución única. Para a = 2 existen infinitas soluciones y para a = 3 no existe solución.

6-32. Para a # ± 1 existe solución única. Para a = 1 el conjunto solución es infinito y para a = —1 el conjunto solución es vacío.

(>•33. Analizar qué relación vincula a a y a b para que exista solución única, ninguna solución e infinitas soluciones.

(¡.34. Un sistema lineal y homogéneo es 74xj + 1 \ x 2 — 25* 3 = 0.

6-35. Analizar el determinante de los coeficientes. La solución única es

b2 + c2 - a2 a2 + c z - b2 a2 + b2 - c2x ~ ------------------ , y - ------------------ . z = ------------------

2 b e 2 a c 2 a b

6-36. La solución e s x x = l , x 2 = 2 , x 3 =3 .

www.FreeLibros.com

Page 384: Algebra ii   armando rojo -

www.FreeLibros.com

TRABAJO PRACTICO VII

7-25. Se verifican los tres primeros axiomas de la definición, pero no el cuarto.

El vector de componentes - ¿ y i es no nulo, pero < X, X > < 0.

7-26. No se verifica el axioma de simetría.

7'27- 1 “ : ; : i “ definición de orto8onaiidad y ~ ^

7-28. Es el teorema del coseno; despejar x y considerar el producto interior < x , x >.

7-29. Para la condición necesaria proponer una combinación lineal de x e y que sea im.ai , vector nulo y considerar el producto interior entre dicha combinación H . J 1 „ misma. Suponer que ambos vectores son no nulos. yPara probar la condición suficiente, siendo los dos vectora nn n „ u ellos como múltiplo escalar del otro, por ejemplo y = « x . C a s t o r li x y II ^ *

7-30. Partir de la desigualdad de Schwarz y elevar al cuadrado

* " • - “ “ * - C.L. que sea

o ) e7 (nx cuye)n= < r , x T i ? T i; r í m á 6 n d ' v 2 - R **•d( x , y ) = ó í \ = y ( ) " ^ ( X . * ) + < f f e y ) . ( 3 ) d ( x , y ) > 0 y

'7-33. Probar que / e s una trasformación lineal.

^ ^ t r n T c ^ l i ^ “ 108 aX¡0maS ^ Pr° dUCto ÍnteriOT> “ « « * > que / es una

7-35. Utilizar la definición de N.

736. L im ando x e y a doB W o , del rombo que sean consecutivos, las dia gonales son

de rombo, o sea II x I = II yT Pr< y ten" “ CUenta la deflnició"

7-37. Demostrar 3 haciendo x y = z; despejar x y apUcar 7.5.

p á r o l i x /- V y l l ) .eSSUflCÍente demMtr“ ~ »V» « »x - y II y para esto,

www.FreeLibros.com

Page 385: Algebra ii   armando rojo -

www.FreeLibros.com

TRABAJO PRACTICO VII 379

Para probar 2., partir de llx + yll2 . para demostrar 4., considerar II x 4- a y II2 .

7-38. Tener en cuenta la definición de subespacio generado por un conjunto de vectores A = { X j, x2 , . . xr } , y probar que el producto interior entre x y cualquier vector de A es cero.

7.39. Considerar un vector en el complemento ortogonal de S.

1 740. Tener en cuenta 7.9.

741. 1 • Considerar v = (x, y , z ) y resolver el sistema que se obtiene de las relaciones v 1 vt ,

3. y x =(1 , 0, 0), y 2 = (0, 1 ,0 ) y y 3 = ( 0 , 0 , 1 ) son los vectores de la base ortonormal pedida.

742. Efectuar el producto interior entre v y v¿.

' 743. Considerar el producto interior entre v¡ y7.44. Probar que el conjunto de todos los vectores ortogonales a A es un subespacio de V, y

tener en cuenta las definiciones correspondientes.

1 745. Expresar cada uno de los dos vectores como combinación lineal de la base.

746. Desarrollar 0 < < a x + 0 y, a x + |3y>, hacer a = < y , y > y j3 = - ( x, y >, y considerarque < x, y > < x Ty > = K x , y > I2 .

v l v 2 y II vi

2 . Vi (

747. 1. Pj X . P x P2 - 0; 2x - 2y + z - 5 = 0.

2. X = P0 + X A ;~ = - — - = z + 3 .2 — 2

748. Es el paraboloide de ecuación x 2 + y 2 + 2z2 - 2xy - 6x - 6v - 4z + 1 = 0.

7-49. P^ X. A = Q\ax + ay - 2a2 =0.

7-50. d ^ —Ly / H '

7 .v * . - y ~ 1 - z ~ 3

1 3 5

7-53. 2 (x ~ y + 2)2 + ( z - y + 2)2 - 2.

7-54. 18 x 2 + [ 3 ( z - 1) + 0 + l)]2 ~ 2 ( y + l )2

www.FreeLibros.com

Page 386: Algebra ii   armando rojo -

www.FreeLibros.com

[ z = + ^p * = o c r - 2 '

U = 0

I 4 - ^ "Z = ± JL__~ P y=o C 2

1 ^ - 0

7-5<í. 2* = ( 2 - ^ ) (2 — z).

7-57. X = M + X Mí 2 ; z = ¿ > are tg—.*

7-55. Desarrollar el producto hermitiano.

7-59. Efectuar el producto PP* = I.

7-60. Considerar el producto interior entre cualquier fila i, con i < n , y tener en cuenta de acuerdo con el ejercicio anterior, que tal producto es 0.

7-61. Probar que la función F : V V definida por F (x) = /„ , donde / x (y) = < x y ) es un isomorfismo. ’

n7-62. Desarrollar E ( x , v¡ > v,-.

380 RESPUESTAS A LOS TRABAJOS PRACTICOS

www.FreeLibros.com

Page 387: Algebra ii   armando rojo -

www.FreeLibros.com

TRABAJO PRACTICO VIII

8-14. 1. Xt = - 5 , X2 = 5 son los valores propios.

Vectores propios son X: = | * j , X2 =

2. No existen en R.

8-15. 1. Valores propios: 2 y 3.

Vectores propios: y | j

2. No existen en R.

3. X1 =X2 =: 6, X3 = 11. Vectores propios asociados a 6 son

2\X3 = 11, corresponde ( 0 j .

8-16. Suponer que existe algún valor propio nulo.

8-17. Considerar A X = X X y premultiplicar por la inversa de A y por el recíproco de X .

8-18. Probarlo por inducción.

8-19. Partir de S '1 A S Y.

8-20. 1. Para A, es X* = — 1 + i, X2 = — 1 — i. Los vectores propios asociados son ^ ^

11 - i

2. Para B, los valores propios son —1,1, i.

8-21. Considerar P (X )- X” + c n^ X”“1 + . . . + C i X - f c 0

P(X) = ( X - X 1) . . . ( X - \ l).

www.FreeLibros.com

Page 388: Algebra ii   armando rojo -

www.FreeLibros.com

* '2Z X : í v l 0 eXPleSÍÓn “e P(X) = D (X 1 " A); t a e r “ d * " * * > « “ • * » ; dara

8-23. Partir de A X = X X y premultiplicar por A.

Tenel' “ CUe'lta los to o n n ta m t. , de dos matrices traspuestas son iguales8-25. Los tres valores propios son iguales a 1 y a éste le corresponde un sistema h o rnos

cuyo espacio solucion tiene dimensión 1. No es diagonalizable.8-26. Considerar 8-18.

8-27. Sea T una matriz triangular superior; considerar el valor de D (X í - T)

8-28. Tener en cuenta 8-18 y la definición de matriz nilpotente.8-29. 1. Aplicar 8.3.4.

2. Aplicar 8-18.

^ T u V m t i z T '-’r nces — pceros. Aplicar después 7. " a‘nZ r unos *

4. Aplicar la definición de traza.

5. Considerar 8-24.

6. Expresar los valores de tr AB y tr BA.

7. Asociar y aplicar 6.

8. Aplicar 7.

RESPUESTAS A LOS TRABAJOS PRACTICOS

8-30. Hallar los valores y los vectores propios y ortonormalizar éstos. Se obtiene/ 1 / 2

v r V5-P2 =

2 1y /s /

Considerar 8 5.3, II 0 sea, la existencia de una matriz P no smgular, tal que A P I . Aplicai determinantes y tener en cuenta 8-27.

' 3 l '1 6

8-32. P (A)

8-33, Considerar P (A) - a¡ A' y tener en cuenta que Af = A.

8-34. Por ser A hermitiana, es A = Á(. Proceder como en 8-33.8-35. Puede demostrarse por inducción sobre k.

8-36. Partir de P (B'1 A B) - .2 a¡ (B~J A B); y aplicar 8-35.

www.FreeLibros.com

Page 389: Algebra ii   armando rojo -

www.FreeLibros.com

TRABAJO PRACTICO VIII 383

W 7 . X - | i ” MP1 — COS ip

8-38. Y - ( 1 cos ^ ) . Respecto de los vectores Y, / representa una simetría.\ “ sen / *

/ cos ¡p — sen kú \ * . . . .S'39' P = \ - sen l - cos l ) y representa la °°™P<»>“ °n de una rotación de áng ulo „ y

una simetría axial.

8-40. Según 8.5.3. II, existe P no singular tal que P 1 A P es triangular superior. Resulta /(P " 1 A P ) triangular superior cuya diagonal está formada por / ( X j ) , .Además f ( P 1 A P) = P"1 /( A ) P es la forma triangular de /(A ).

8-41. Tener en cuenta 8.5.

8-42. Considerar (a I + A) X.

8-43. Relacionar con 8-16.

8-44. ¡ * "j" *) n0 es diagonalizable.

La matriz 3 X 3 es diagonalizable y su forma diagonal es D =

- 0 0

o l °

0 0 1

8-45. Los valores propios de A son 1 y 4. Los valores propios de P (A) son 0 y 15. La forma

diagonal de P (A) es ( ^ ^\ 0 15

8-46. De acuerdo con 8-7 existe P e C [X] no nulo, tal que P (A) = N, donde A es la matriz de / . Además, es

nP (i) = 7T (í - X¡), donde X,- e C.

O sea

N = P ( A ) = ¿ ( A - M )

3 ¿tal que A — X,-1 es singular, pues si no, P (A ) sería inversible. En consecuencia, existe X ^ 0 tal que

(A - Xí I ) X = 0

O sea

A X = XfX

Luego, existe un vector propio de /.

www.FreeLibros.com

Page 390: Algebra ii   armando rojo -

www.FreeLibros.com

TRABAJO PRACTICO IX

9-15 Desarrollar ( f + g) (ax + b x \y ) , ( /+ „ ) ( x c v + ^ , A ,( « f ) ( x , c y + d y \ definiendo la suma de funciLneTv (“ /»(<«+ 4x', y) yfundones de aeuerdo con las leyes de composición punto a pumo“ '0 680313165 por

9-16. Desarrollar gy (x + x ’) y gr (ax).

9-17- > y ^ ^ y , ^ y 3 + X 2 y 1 - 2 X 2 y 3 + X 3 y 2 + X 3 ^

B = P( A P = / i 4 2 \ 2 3 1 7

donde P es la matriz de pasaje de la base dada a la base canónica

W * , ) « X) = * « X) = X 'A X = 3 I ! + ^ I ^ 2 ^ ü )/ ( X ) = * ? - * 2 + , ¡ .

9-19.

I

A í f ' =

1 1

Ver 4-65, i).

9 - 2 f t i ) A = - ! - l I , í

\ «2 ti2

ii) Desarrollar e, cuadrado, ^aplicar el operador sumatoria, tener en cuenta que

x , = » x = 1 X y que 2 X? = t f X . Se obtiene A = J __- T í 1

Ambas matrices son idempotentes. ”

www.FreeLibros.com

Page 391: Algebra ii   armando rojo -

www.FreeLibros.com

TRABAJO PRACTICO IX 385

9-21. i ) Expresar en términos de g a / ( x + y) - / (x — y).

ii) Lo mismo respecto de / (x + y) — / (x) — / (y).

9-23. La función h : V2 K definida por h (x, y) = ~ g (x, y) es una forma bilineal sisimétricay la forma cuadrática asociada es f.

9-24. Aplicar 9.7.1., desarrollando < /(x ),/(y )> y probando que es igual a <x,y >.

9-25. A partir de S oc¡ f (v¡-) = 0, considerar { X « i/(v /) ,/(v ;) > = 0.

Se prueba que ocj^O para todo /, o sea, / ( v j ) , / ^ ) , . . . J ( v n) son linealmenteindependientes y en consecuencia constituyen una base de V que verifica</(v,) ,/(vy) > = ( y¡, Vy > = 5 ¡j, o sea, es ortonormal.

9-26. Tener en cuenta que P Pf = I y que Pf = P.

9-27. Considerar 9.7.5. y que U Q = P U.

9-28. Sea A la matriz de / : C” -* C "; de acuerdo con el ejercicio 8-46, A admite un vector propio, o sea existe X eC tal que A Z = XZ. Observar que Xe R, según 9.6.3. Considerar que Z = X + ?Y, donde X e Y pertenecen a R " y premultiplicar por A.

n n

U =

9-30. Xi = 1, X$ = 4 ; por 9.10.1. A es definida positiva. La matriz de vectores ortonormales es

/ V 2 V T '

www.FreeLibros.com

Page 392: Algebra ii   armando rojo -

www.FreeLibros.com

386RESPUESTAS.A LOS TRABAJOS PRACTICOS

Siguiendo 9.10.2. se forma D, = ^ 0 j y resul(a

0 = P D , =

9-31. La ma t r i z ortogonal de vectores propios

± / V 3 - V 2 '

12 ^

“ V 3 V3

2 2V 6 V T /

de A = 1 —y/6- y /6 2

V ¡ \ y /2La trasformación de coordenadas está dada por X = P Y, o sea

- V 2y t )

1

es

*1

9-32. Sea /(X ) = X ' A X definida positiva y sea X = P V hS (Y ) = Yf B Y y es ta l que B = P ' A P T a L / ' eS n ° Si” 8ular; e n to n c «

suficien te p ro b a r que Y ' B Y = 0 =» Y = Ó. C o n s id e r a ^ Y ^ V ^ X " ^ mÍSma ™ agen; es9-33. Tener en cuenta el ejercicio 8-17 y 9 .13 2

9-34. i ) p ( A ) = 3;s = 3. ii) p (A) *= l ; s = ].

9-35. Considerar 9.11, Se obtiene

A = S \ Ai = 6 í—1 n 1

9-36. i ) Considerar 9.11.

ii) Considerar el ejercicio 8-17.

9-37. A es no singular y A A* es simétrica. Según 9 10 2 A A f *> h rortogonal tal que Q* A A* Q = D = diae ( \ \ defimda positiva. Existe QJos valores propios de A Af son positivo, Vy/ ’ V ** ÍT d® acuerd<Lcon 9.9.3., donde

/ 1 5

0 25

/1 0 1

20 0 + 11 0 0 025

.

0 4

5 / 2~0 1

4 /

www.FreeLibros.com

Page 393: Algebra ii   armando rojo -

www.FreeLibros.com

TRABAJO PRACTICO IX 387

9-38. Aplicando 9-37 se obtiene A S P, donde S —j | ^ j es simétrica definida

positiva y P = es ortogonal.

j _ V i V 3 \/T

V ? J - V 3 V3

9-ÍP. Probar que si / es definida positiva, existe una trasformación no singular X = T Y donde T es triangular superior y D (T) = 1, que la reduce a la forma í ( Y ) = Y f D

g (Y) = Y( D Y y l » donde a f > 0 , siendo D = ( T 1)* A T"1. En consecuencia,

D (D) = D (A) > 0.Haciendo x„ = 0, f se convierte en una forma cuadrática respecto de n - lque sigue siendo definida positiva; la correspondiente matriz se obtiene prescindiendo de la última fila y de la última columna de A. Reiterar el procedimiento.Para la suficiencia, utilizar el método de Lagrange, que consiste en completar cuadrados. Siendo an > 0 , existe una trasformación no singular, triangular superior, con determinante igual a 1, que la reduce a

m n

a l l z \ "*"f? 2_í=2^í;' Z‘

Probar que b22 > 0 , haciendo x J - z J = 0 para i = 2 , 3 , . . n, y reiterar el proce­dimiento.

9-40. Por ser / definida positiva, según 9.12.4., existe una trasformación de coordenadasn

X = P Y que la reduce a la forma 2 y i ■1 i=iSe tiene Pf A P = 1, o sea A = (P P*)-1 • La trasformación aplicada a g es tal queX* B X = Yf (Pf B P) Y, donde P{ B P es simétrica. En consecuencia, existe unatrasformación ortogonal Y — Q Z que la reduce a una suma de cuadrados cuyoscoeficientes son los valores propios de P* B P.

X‘ B X = Z( (P Q)( B (P Q) Z = 2 \ z\

n

Esta trasformación aplicada a Y( I Y la reduce a z? . La composición de las dos

trasformaciones: X = (P Q) Z, reduce ambas formas.

9-41. Demostrarlo por inducción sobre n = dim V.

www.FreeLibros.com

Page 394: Algebra ii   armando rojo -

www.FreeLibros.com

TRABAJO PRACTICO X

10-6. Frontera de A es el conjunto

I (x i, x 2) e R 2 / f j j j | = i A ¡ j ;2 1< 2 j u ¡ ( i 2) i

vértices ( - 1, _ 2X (If _ 2)( (1 (

„ r ; : : ° • * *■ - — « • • « » & *

interiores. Puntos exteriores a A son los que satisfacen1 S™

El derivado de A es A; o sea, A es cerrado

* = P = s S = = H ......................... ...Todos los puntos de acumulación de B pertenecen a n d

todos los elementos de B son puntos de acumulación d i b"“ ’ " Cerrad°' AdemáS’

3 ' condiciones^0 6 3 SU L<* interiores de C satisfacen las

X I X 2 < 2 y X l > o y X 2 > 1

10-8. 1. Sea A cerrado. Considerar un p u n to a e A c ' re.nl,A. Luego, existe S (a, e) / s (a e) n A - a p ^ 3 ” 0 CS de acumulación de tanto, A es abierto. ^ 1 >' E" con«*«encia, S (a, 6) C A ' y por lo

' a " £ llegrrunaS!o T a d iqcciónXÍSte PU‘' t0 d° aCUmulació» * A que pertenece a

>0-9. Sean: el hiperp,ano „ de ecuación N ' X = *, a e , y Ia esfera abierta S (a e).

C onsiderando b = a + - — *P wrifí

bi enN‘ b > * , 2 " N " ^ i3’ 6)’ P" M b - « = f <«■ Ahora

www.FreeLibros.com

Page 395: Algebra ii   armando rojo -

www.FreeLibros.com

10-10. El conjunto del ejercicio 10-6 no es convexo. Los tres conjuntos de 10-7 son convexos.

10*11. Probar primero que el conjunto vacío es abierto. Sea | A¡¡ i e N } una familia numerable de abiertos. Si esta familia es vacía, entonces A = U A ¡ es el conjunto vacío,

i e Ny en consecuencia es abierto. Si la familia no es vacía, cada abierto de la misma es una unión de esferas abiertas. De este modo, A es la unión de tales esferas abiertas, y por lo tanto es un conjunto abierto.Se ha utilizado la siguiente propiedad: un subconjunto C C R" es abierto si y sólo si es una unión de esferas abiertas.

10-12. Sea { A ¡ / i e In } una familia finita de abiertos. Si esta familia es vacía, entoncesn

A = O A; es el espacio total, que es abierto (probarlo). Supongamos ahora que la i=i

familia es no vacía; si A es vacío, entonces es abierto. Consideremos entonces que A es no vacío y sea a e A.Se tiene

a e A =► a e A¡, Vi => 3 ef / S (a, e¡) C Af, para cada i.

Sea e el mínimo del conjunto { ex , e2 , . . . , en | . Entonces para cada i se verifica que

S (a, e) C S (a, e¡)

en consecuencia, para cada i es

S (a, e) C A¿

por lo tanto S (a, e) C A. Luego, A es abierto.

10-13. Aplicar 10-11, 10-12 y las leyes de De Morgan.

10-14. El casco convexo generado por los puntos dados, es el pentágono convexo de vértices ( - 1 , - 1 ) , ( - 1 , 2), (1 ,3 ), (2, 3), (1, -1 ) . Además, (0, 0) es combinación convexa de

( 1 , - 1 ) y ( - 1 ,1 ) , donde t = -^ .

10-15. Aplicar la definición de convexidad y de la función dada.

10-16. Tener en cuenta que el conjunto solución del sistema es la intersección de n hiperplanos de Rn, y que éstos son convexos.

10-17. Considerar quey e C = * y = a x donde a > 0 , x e A.

Multiplicar por /3 > 0.

10-18. El cono generado por la intersección de los dos conjuntos está caracterizado por

4 x 2 + 4 y 2 - z 2 < 0

z > 0

10-19. Utilizar la definición de cono y de C".

TRABAJO PRACTICO X 389

www.FreeLibros.com

Page 396: Algebra ii   armando rojo -

www.FreeLibros.com

390 RESPUESTAS A LOS TRABAJOS PRACTICOS

10-20. Aplicar Ja definición de C1 y multiplicar por a > 010-21 utilizar la deflnic¡ón de CQno ortogonal y Ja cond ¡ción su& iente ^

conos 31 Un VeC‘°r 2 6 C ’ mUltÍP,ÍCar P » O- y ‘“ eren cuenta que Cl y C_

/ M i . Sea X , a n u d a d de litros de licor / que se destina a la mezcla/, donde / = i , 2,3y

2 son

/

i N.1 2 3 Disponibilidades

en litrosCosto por

litro

1

2

3

* 1 1 x 12 j f J3

* 2 1 * 22 * 23

* 3 1 * 3 2 * 3 3

6 .0 0 07 .5003 .600

634536

Precio--------- -------------- 1

de venta 68 5 7 45por litro

Objetivo: maximizar

F = 5 * n - & . 2 - l & 13+ 2 3 * 2, + 1 2 * * 2 + 3 2 * 3 , + 2 1 ^ + 9 . ^ Sujeta a las restricciones:

* n + * 1 2 + * i 3 < 6 .0 0 0

*21 + * 2 2 + * 2 3 < 7 .5 0 0

* 3 1 + * 32 + * 3 3 < 3 .6 0 0

* 1 1 > 0 . 6 ( x n + x 2i + * 3 1 )

* 3 1 < 0 .2 ( * j j + x 21 + x 3 l )

* 3 2 < 0 . 6 ( x 12 + ^ 22 + ^ 23)

* 1 2 ^ 0 .15 ( x 12 + x 22 + X 32)

* 3 3 < 0 .5 ( * i 3 + X 23 + X 33)

XU > 0 1 , 2 , 3 , j = 1 , 2 , 3

especifica el número de rollos del c t r te / .V o b fe n e faTigÚfente tabla-'' ^ ™ Íable ““

www.FreeLibros.com

Page 397: Algebra ii   armando rojo -

www.FreeLibros.com

TRABAJO PRACTICO X 391

númerorollos

ancho * 1 *2 *3 *4 * 5 *6 * 7 *8 x 9 *10 *11 *12

58 1 1 0 0 0 0 0 0 0 0 0 0

26 0 0 3 2 2 1 1 1 0 0 0 0

24 1 0 0 1 0 2 1 0 3 2 0

23 0 1 0 0 1 0 1 2 0 2 3

Desperdido en cm 0 1 4 6 7 8 9 10 10 11 12 13

.. . .

MinimizarF = x 2 + 4 * 3 + 6* 4 + 7 * s +&x6 + 9 x n + 10*8 + 1 0 x 9 + 1 U 10 + 12xn + 13x12

Sujeta a las restricciones:

* 1 + * 2 > 60

x , + x 4 + 2 * 6 + * 7 + 3 * 9 + 2 x 10 + * 1 1 > 8 5

*2 + * 5 + *7 + 2 * 8 + * 1 0 + 2 * u + 3 * 12 > 5 0

*j > 0 , 7 = 1 , 2 , . . . ,12.

www.FreeLibros.com

Page 398: Algebra ii   armando rojo -

www.FreeLibros.comwww.FreeLibros.com

Page 399: Algebra ii   armando rojo -

www.FreeLibros.com

INDICE

Adjunta de una matriz, 170 Angulo entre vectores, 223 Anillo de matrices, 109 Automorfismo, 69

Base, 53, 54, 58 cambio de, 146 fan, 280 ortogonal, 303 ortonormal, 225,304 teorema de extensión, 56

Cambio de base, 146, 295 Casco convexo, 338 Chio, regla de, 174 Clausura, 329Combinación lineal, 30, 217

convexa, 336 Composición de trasformaciones, 92 Complemento ortogonal, 229 Condiciones de vínculo, 352

de no negatividad, 352 Congruencia de formas cuadráticas, 314

de matrices, 295 Conjunto abierto, 328

acotado, 329 cerrado, 328 convexo, 336de combinaciones lineales, 34 derivado, 328

linealmente dependiente, 45, 78 linealmente independiente, 42, 79 maximal, 65 ortogonal, 225 solución de un sistema, 189

Cono, 356ortogonal, 357

Convexidad en R", 376 Coordenadas, 44

esféricas, 179 trasformación de, 145

Cramer, teorema de, 187 Curvas, 246

Dependencia lineal, 45, 78,160 Descomposición espectral, 311 Desigualdad de Schwarz, 222

triangular, 223 Determinante, 155

de la traspuesta, 166 del producto, 169 de Vandermonde, 168, 178 existencia de, 161 propiedades de, 157 unicidad de, 163

Diagonalización de matrices, 308 de operadores simétricos, 307

Dimensión, 57, 59 de la imagen, 80

www.FreeLibros.com

Page 400: Algebra ii   armando rojo -

www.FreeLibros.com

394

de la suma, 60 del núcleo, 80

Fan, 279Forma bilineal, 289, 291

cuadrática, 29 4 ,3 0 5 ,3 1 4 ,3 1 8 hermitiana, 293 lineal, 101,257

Funcional, 101

Función objetivo, 349, 352

G auss-Jordan, m é to d o de, 135 186 G ram -Schm idt, 228

Hamilton-Cayley, teorema de, 282 Hélice circular, 248Helicoide recto, 261 Hiperplano, 233

soportante, 343

Imagen de una trasformación lineal 7 4 80 propiedades de, 75 ’ ’

Independencia lineal, 42, 58 Indice de positividad, 305

de nulidad, 305 Inversión de matrices, 138, 1 4 1 , 172 Investigación Operativa, 346 Isomorfismo, 69

Jacobiano, 178

Matrices equivalentes, 133 producto de, 85 ,9 6 ,1 0 6 permutables, 107 semejantes, 147, 275 triangulación de, 279

Matriz, 11,33, 71 adjunta, 170 ampliada, 182 antisimétrica, 29,112 compleja conjugada, 118 definida positiva, 310 de pasaje, 144

INDICE

de una forma, 291,293 de traza nula, 19,38, 65 de una T.L., 8 6 , 146 de un sistema lineal, 182 elemental, 114 forma canónica de, 133 hermitiana, 120 idempotente, 115 identidad, 108 inversa, 116,141,172 involutiva, 115, 274 no singular, 134 particionada, 121 rango de, 126,138 rango columna de, 124 rango fila de, 125 simétrica, 29, 112 traspuesta de, 110 traza de, 19, 152, 286 triangular, 28,114

Método de Gauss-Jordan, 135, 138 de Gauss reducido, 210 de la raíz cuadrada, 202 del orlado, 205

Menores principales, 319 Módulo, 218 Monomorfismo, 69, 77

Norma, 218Núcleo de unaT.L., 72, 80, 183

de un monomorfismo, 77

Operaciones elementales, 129 Operadores adjuntos, 298

autoadjuntos, 299 hermitianos, 299 ortogonales, 300 simétricos, 399, 307 traspuestos, 298 unitarios, 300

Ortogonalidad, 219, 225 Ortonormal, base, 225

complemento, 229

www.FreeLibros.com

Page 401: Algebra ii   armando rojo -

www.FreeLibros.com

INDICE 395

Partición de matrices, 121 Permutaciones, 163 Plano, 239Polinomio característico, 270, 277 Producto interior, 214

hermitiano, 259 Programación Lineal, 346 Proyección, 105, 232

de una curva, 253 de un subespacio, 281

Punto de acumulación, 327 extremo, 344 frontera. 326 Interior 326

Rango columna, 124de una matriz. 126,135, 184 del producto, 127 fila, 124

Recta, 236,330 Rotación, 268 Rouche-Frobenius, 188

Segmento, 330 Semiespacio, 335 Semejanza, 147 Signatura, 305 Simplex, 355Sistema de ecuaciones, 181, 190, 198, 202

compatible, 183,188 incompatible, 183

Sistema de generadores, 51, 58 Schwarz, desigualdad de, 222 Suma de subespacios, 23, 29 ,60 , 231

directa, 2 5 ,61 , 105 Solución óptima, 352

posible, 352 Subespacio, 15, 35 Subespacios, intersección de, 20

suma de, 23 unión de, 22

Sylvester, teorema de, 306

Trasformación lineal, 66 ,68 biyectiva, 69 composición, 96 diagonalización de, 269, 276 imagen de, 74 inversa, 93 matriz de, 86 no singular, 93 núcleo de, 72polinomio característico de, 275

Teorema de Cramer, 257 de Hamilton-Cayley, 282 del coseno, 257 de Rouche-Frobenius, 188 de Pitágoras, 221 de Sylvester, 306 de extensión, 56 fundamental de las T.L., 83

Trasformación de coordenadas, 145, 309 de matrices, 279

Trasposición de matrices, 110 de una permutación, 163

Unión de subespacios, 22

Valores propios, 263de un operador hermitiano, 300 de un operador unitario, 303

Vectores, 2ángulo entre, 223 combinación lineal de, 30 cosenos directores, 240 fijos, 234linealmente dependientes, 45, 78, 160 linealmente independientes, 42, 58 módulo de, 218 ortogonales, 225 propios, 263

www.FreeLibros.com

Page 402: Algebra ii   armando rojo -

www.FreeLibros.com

ISBN 950-02-5205-8

www.FreeLibros.com


Recommended