miércoles, 26 de agosto de 2015

UNIDAD 5 TRANSFORMACIONES LINEALES

5.1 Introductorio a las transformaciones lineales.

Definición: Las transformaciones lineales son las funciones y tratan sobre K-espacios vectoriales que son compatibles con la estructura (es
decir, con la operación y la acción) de estos espacios.

Aquí se presentan las funciones entre espacios vectoriales que preservan las cualidades de los
espacios vectoriales. Es decir, de funciones que preservan la suma y la multiplicación por escalares.

Nosotros usaremos el concepto de la función para darle un tratamiento a los sistemas de ecuaciones lineales. La restricción que haremos sera sobre el tipo de funciones: solo estaremos interesados en funciones que preserven las operaciones en el espacio vectorial. Este tipo de funciones serán llamadas funciones lineales. Primeramente las definiremos, veremos algunas propiedades generales y después veremos como se aplican estos resultados a sistemas de ecuaciones.

Sean V y W dos espacios vectoriales posiblemente iguales.
 Una transformación lineal o mapeo lineal de V a W es una función
T : V → W tal que para todos los vectores u y v de V y cualquier escalar c:
         a) T (u + v) = T (u) + T (v)
         b) T (c u) = c T (u)


Demuestre que la transformación T : R2 →R2 definida por                        
es lineal. 
                  
                  
Entonces : 
                    
   
Por otro lado, para todo escalar c, 
                              
          
5.2 Núcleo e imagen de una transformación lineal.

Transformaciones lineales: núcleo e imagen.
Teorema  1
Sea Tuna transformación lineal. Entonces para todos los vectores uv,v1,
v2, . . . , ven y todos los escalares a1a2, . . . , an:
i. T(00
ii. T(vTTv
iii. T(a1v+ a2v+. . .+ anvn= a1Tv+ a2Tv+. . .+ anTvn
Nota. En la parte i) el de la izquierda es el vector cero en V; mientras que el 0de la
derecha es el vector cero en W.


Teorema 2
Sea un espacio vectorial de dimensión finita con base {v1v2, . . . , vn}. Sean w1,
w2, . . . , wvectores en W. Suponga que TTson dos transformaciones lineales de V
en tales que T1vT2vwpara 1, 2, . . . , n. Entonces para cualquier vector 
VT1T2v; es decir TT2.

Ejemplo



Definición 1 Núcleo e imagen de una transformación lineal
Sean V y W dos espacios vectoriales y sea T:V W una transformación lineal. Entonces

i . El núcleo de T, denotado por un, está dado por
ii. La imagen de T, denotado por Im T, esta dado por


Observacion 1. Observe que un T es no vacio porque, de acuerdo al teorema 1, T(0) = 0 de manera que 0 ϵ un T para cualquier transformación lineal T. Se tiene interés en encontrar otros vectores en V que “se transformen en 0”. De nuevo, observe que cuando escribimos T(0) = 0, el 0 de la izquierda está en V y el de la derecha en W.

Observación 2. La imagen  de T es simplemente el conjunto de “imajenes” de los vectores en V bajo la transformación T. De hecho, si w = Tv, se dice que w es la imagen de v bajo T.

Antes de dar ejemplos de núcleos e imágenes , se demostrará un teorema de gran utilidad.

Teorema 4
Si T:V W es una transformación lineal, entonces
i.Un T es un subespacio de V.
ii.Im T es un subespacio de W.

Demostracion
i.Sean u y v en un T; Entonces T(u + v) = Tu + Tv =0 + 0 =0 y T( ) =  = 0 = 0 de forma que u + v y ∝u están en un T.
ii. Sean w y x en Im T. Entonces w = Tu y x = Tv para dos vestores u y v en V. Esto significa que T(u + v)= Tu + Tv = w + x y T(∝u) = ∝Tu =∝w. Por lo tanto, w + x y ∝w están en Im T.

Ejemplo 3.  Núcleo e imagen de la transformación cero
Sea Tv = 0 para todo vϵ V(T es la transformación cero). Entonces un T = v e Im T = {0}.

Ejemplo 4   Núcleo e imagen de la transformación identidad
Sea Tv = v para vϵ V(T es la transformación identidad). Entonces un T= {0} e Im T = V.

Las transformaciones cero e identidad proporcionan dos extremos. En la primera todo se                     encuentra en el núcleo. En la segunda sólo el vector cero se encuentra en el núcleo. Los casos intermedios son más interesantes.

Ejemplo 5 Núcleo e imagen de un operador de proyección 

Sea T:R3 R3 definida por
T es el operador de proyección de R3 en el plano xy.

Entonces x = y = 0. Así, nu T = {(x,y,z):x  = y = 0, zϵR}, es decir, el eje z, e Im T = {(x,y,z): z = 0}, es decir el  plano xy. Observe que dim un T = 1 y dim Im T = 2.

Definición 2      Nulidad y rango de una transformación lineal
Si T es una transformación lineal de v en w, entonces se define.

Toda matriz A de m*n da lugar a una transformación lineal T:R´´ R´´´ definida por Tx = Ax. Es evidente que un T = NA, Im T = Im A = CA, v(T) = v(A) y p(T) = p(A). Entonces se ve que las definiciones de núcleo, imagen, nulidad y rango de una transformación lineal son extensiones del espacio nulo, la imagen, la nulidad y el rango de una matriz.
5.3 La matriz de una transformación lineal.

5.3 Representacion Matricial de una Transformación Lineal


5.4 Aplicación de las transformaciones lineales: reflexión, dilatación, contracción y rotación.

UNIDAD 4 ESPACIOS VECTORIALES

4.1 Definición de espacio vectorial. 
Espacio vectorial real.

Un espacio vectorial real es un conjunto de objetos, denominados vectores, junto con dos operaciones binarias llamadas suma multiplicación por un escalar y que satisfacen los diez axiomas enumerados a continuación.


NotaciónSi “x” y “y” están en V  y si a es un número real, entonces la suma se escribe como
 “y” y el producto escalar de a como ax.

Antes de presentar la lista de las propiedades que satisfacen los vectores en un espacio vectorial deben mencionarse dos asuntos de importancia. En primer lugar, mientras que puede ser útil pensar en R2 o R3  al manejar un espacio vectorial, con frecuencia ocurre que el espacio vectorial parece ser muy diferente a estos cómodos espacios (en breve tocaremos este tema). En segunda instancia, la definición 1 ofrece una definición de un espacio vectorial real. La palabra “real” significa que los escalares que se usan son números reales. Sería igualmente sencillo definir un espacio vectorial complejo utilizando números complejos en lugar de reales. Este libro está dedicado principalmente a espacios vectoriales reales, pero las generalizaciones a otros conjuntos de escalares presentan muy poca dificultad. [1]
Axiomas de un espacio vectorial. [1]

1-     Si X pertenece a V y Y pertenece a V, entonces X+Y pertenece a V.

2-      Para todo X, Y y Z en V, (x+y)+z = x(y+z).
3-     Existe un vector |0 pertenece V tal que para todo X pertenece a V, X+0=0+X=X.
4-     Si x pertenece a V, existe un vector –x en V tal que x+(-x)=0.
5-     Si X y Y están en V, entonces x+y=y+x.
6-     Si x pertenece a V y es un escalar, entonces ax pertenece a V.
7-     Si X y Y están en V y es un ecalar, entonces a(x+y)= ax +ay
8-     Si X pertenece a V y y b son escalares, entonces (a+b) x = ax+ by.
9-     Si X pertenece a V y a y b son escalares, entonces a(bx) = (ab)x.

10-   Para cada vector X pertenece a V, 1x = x.

4.2 Definición de subespacio vectorial y sus propiedades. 
DEFINICION DE SUB ESPACIO VECTORIAL 
Sea H un subconjunto no vacío de un espacio vectorial V y suponga que H es en sí un espacio vectorial bajo las operaciones de suma y multiplicación por un escalar definidas en V. Entonces se dice que H es un sub espacio de V. 
Existen múltiples ejemplos de sub espacio, sin embargo, en primer lugar, se demostrará un resultado que hace relativamente sencillo determinar si un subconjunto de V es en realidad sub espacio de V
Teorema de sub espacio
Un subconjunto no vacio de H de un espacio vectorial V es un sub espacio de V si se cumplen las dos reglas de cerradura:
Reglas de cerradura para ver si un subconjunto no vació es un sub espacio
i)                  Si € H y € H, entonces x + y € H.
ii)               Si € H, entonces α€ para todo escalar α.
Es obvio que si H es un espacio vectorial, entonces las dos reglas de cerradura se deberán cumplir. De lo contrario, para demostrar que es un espacio vectorial, se deberá demostrar que los axiomas i) a x) de la definición cumplen bajo las operaciones de suma de vectores y multiplicación por un escalar definidas en V. Las dos operaciones de cerradura [axiomas i) y iv)] se cumplen por hipótesis, como los vectores en H son también vectores en V, las identidades asociativa, conmutativa, distributiva y multiplicativa [axiomas ii),v), vii), viii), ix) y x)] se cumplen.
Este teorema demuestra que para probar si es o no es un sub espacio de V, es suficiente verificar que:

x + y y αX están en cuando x y  están en y α es un escalar.

4.3 Combinación lineal. Independencia lineal. 
Una combinación lineal de dos o más vectores es el vector que se obtiene al sumar esos vectores multiplicados por escalares.
Cualquier vector se puede poner como combinación lineal de otros que tengan distinta dirección.

Esta combinación lineal es única.
Sean v
1,v2,…,vn vectores en un espacio vectorial V. Entonces cualquier vector de la forma:
α1v1+α2v2+…+αnvn
donde α1v1+α2v2+…+αnvson escalares se denominacombinación lineal de v1,v2,…,vn


Todo vector V = (a, b, c) en R3 se puede expresar como
i = (1,0,0); 
j = (0,1,0); k =(0,0,1)
V = (a, b, c) = a(i) + b(j) + c(k)
Entonces se dice que V es una combinación lineal de los 3 vectores i,j,k.


4.4 Base y dimensión de un espacio vectorial, cambio de base
Base y dimensión de un espacio vectorial
Un conjunto de vectores S={v1, v2,…, vn} en un espacio vectorial V se denomina base de V si se cumplen las siguientes condiciones.
* S genera a V.
* S es linealmente independiente
Una base posee 2 características que se acaban de ver, debe tener suficientes valores para generar a V, pero no tantos de modo que uno de ellos pueda escribirse como una combinación lineal de los demás vectores en S. Si un espacio vectorial consta de un número finito de vectores, entonces V es de dimensión finita. En caso contrario, V es de dimensión infinita.

Base
En términos generales, una “base” para un espacio vectorial es un conjunto de vectores del espacio, a partir de los cuales se puede obtener cualquier otro vector de dicho espacio, haciendo uso de las operaciones en él definidas.

La base es natural, estándar o canónica si los vectores v1, v2,…, vnforman base para Rn.
Si S={v1, v2,…, vn} es una base para un espacio vectorial V entonces todo vector v en V se puede expresar como:
1.      V = c1v1+ c2v2+…+ cnvn
2.      V = k1v1+ k2v2+…+ knvn
Restar 2-1
            0 = (c1- k1) v1+(c2- k2) v2+…+(cn- kn) vn
Ejemplo:
demostrar si S = {v1, v2,…, v3} es base de R3, v= (1,2,1); v= (2,9,0); v= (3,3,4)
Proponer vector arbitrario, combinación lineal
b = c1v1+ c2v2+ c3v3
(b1, b2, b3) = c1(1,2,1)+ c2(2,9,0)+ c3(3,3,4)
(b1, b2, b3) = c1+2c2+3c3;2c1+9c2+3c3; c1+4c3
c1    + 2c+ 3c= b1                                      det A = [(1*9*4)+(2*3*1)+0]-[(1*9*3)+0+(4*2*2)]
2c+ 9c+ 3c= b2                  = [36+6]-[27+16]
  c1               + 4c= b3          = -1                                     
Si genera a R3       
  

4.5 Espacio vectorial con producto interno y sus propiedades. 
Producto Interno:

Un producto interno sobre un espacio vectorial V es una operación que asigna a cada par de vectores u y v en V un número real <u, v>.
Un producto interior sobre V es una función que asocia un número real ‹u, v› con cada par de vectores u y v cumple los siguientes axiomas:
Propiedades:

i. (v, v) ≥ 0
ii. (v, v) = 0 si y sólo si v = 0.
iii, (u, v +w) = (u, v)+ (u, w)
iv. (u + v, w) = (u, w)+(v, w)
v. (u, v) = (v, u)
vi. (αu, v) = α(u, v)
vii. (u, αv) = α(u, v)
Espacios con producto interior:
El producto interior euclidiano es solo uno más de los productos internos que se tiene que definir en Rn Para distinguir entre el producto interno normal y otros posibles productos internos se usa la siguiente notación.
u ●v = producto punto (producto interior euclidiano para Rn)
‹u, v› = producto interno general para espacio vectorial V.

Propiedades de los productos interiores:
1. ‹0, v› = ‹v, 0› = 0
2. ‹u + v, w› = ‹u, w› + ‹v, w›
3. ‹u, cv› = c‹u, v›.
Un espacio vectorial con producto interno se denomina espacio con producto interno.

4.6 Base ortonormal, proceso de ortonormalizacion de Gram Schmidt. 
Definición de conjunto ortogonales y conjuntos ortonormales

Un conjunto de vectores en un espacio V con producto interior se llama ortogonal si todo par de vectores en S es ortogonal, además cada vector en este conjunto es unitario, entonces S se denomina ortonormal

Proceso de ortonormalización de Gram-Schmidt

1.       Sea B = {v1v2, . . ., vn} una base de un espacio V con producto interno
2.      Sea = {w1w2, . . ., wn} donde wi está dado por:

w1= v1

 


Entonces B´ es una base ortogonal de V.
3.      Sea ui= wi ││w1││ entonces el conjunto B´´={ u1, u2, . . ., un} es una base ortonormal de V.

Ejemplo: Forma alternativa del proceso de ortonormalización de Gram-Schmidt
Determine una base ortonormal del espacio solución del siguiente sistema homogéneo de ecuaciones lineales

w+ x +           z= 0

2w+x + 2y+ 6z=0

UNIDAD 3 SISTEMAS DE ECUACIONES LINEALES

3.1 Definición de sistemas de ecuaciones lineales.
En matemáticas y álgebra lineal, un sistema de ecuaciones lineales, también conocido como sistema lineal de ecuaciones o simplemente sistema lineal, es un conjunto de ecuaciones lineales (es decir, un sistema de ecuaciones en donde cada ecuación es de primer grado), definidas sobre un cuerpo o un anillo conmutativo. Un ejemplo de sistema lineal de ecuaciones sería el siguiente:
 
El problema consiste en encontrar los valores desconocidos de las variables x1, x2 y x3 que satisfacen las tres ecuaciones.


El problema de los sistemas lineales de ecuaciones es uno de los más antiguos de la matemática y tiene una infinidad de aplicaciones, como en procesamiento digital de señales, análisis estructural, estimación, predicción y más generalmente en programación lineal así como en la aproximación de problemas no lineales de análisis numérico.

3.2 Clasificación de los sistemas de ecuaciones lineales y tipos de solución.
= Clasificación =

Podemos clasificar los sistemas de ecuaciones lineales según su número de soluciones de la siguiente forma:
  • Sistemas con una solución: Las ecuaciones del sistema son rectas secantes. Se cortan en un punto (x, y) que es la solución del sistema
  • Sistemas sin solución: Las ecuaciones del sistema son rectas paralelas. No tienen ningún punto en común, y por tanto no hay solución
  • Sistemas con infinitas soluciones: Las ecuaciones del sistema son rectas coincidentes. Tienen todos los puntos en común, y por tanto todos ellos son solución
Condiciones que deben cumplir las ecuaciones para que el sistema tenga una, ninguna o infinitas soluciones:
  • Una solución: Los coeficientes de x e y de las dos ecuaciones no son proporcionales. 
Ejemplo: 
  • Ninguna solución: Los coeficientes de x e y de una ecuación son proporcionales a los de la otra, mientras que los términos independientes no lo son. 
Ejemplo: 
  • Infinitas soluciones: Los coeficientes de x e y, y el término independiente de una ecuación, son proporcionales a los de la otra. 
Ejemplo: 

=Tipos de Solución=
=Sustitución=
El método de sustitución consiste en despejar en una de las ecuaciones cualquier incógnita, preferiblemente la que tenga menor coeficiente, para, a continuación, sustituirla en otra ecuación por su valor.

En caso de sistemas con más de dos incógnitas, la seleccionada debe ser sustituida por su valor equivalente en todas las ecuaciones excepto en la que la hemos despejado. En ese instante, tendremos un sistema con una ecuación y una incógnita menos que el inicial, en el que podemos seguir aplicando este método reiteradamente. Por ejemplo, supongamos que queremos resolver por sustitución este sistema:
 

3.3 Interpretación geométrica de las soluciones. 
Cada ecuación representa un plano en el espacio tridimensional. Luego se trata de estudiar la posición relativa de tres planos en el espacio. Las soluciones del sistema son geométricamente los puntos de intersección de los tres planos, los casos son: 

=Un punto único. Sistema compatible determinado.. Los tres planos se cortan en P.

=Una recta. Son soluciones todos los puntos representativos de la recta común. Sistema compatible indeterminado con un grado de libertad. Los planos se cortan en r.
=Un plano. Los planos son coincidentes. El sistema es compatible indeterminado con dos grados de libertad.

=Ningún punto. El sistema es incompatible. Esta situación se presenta geométricamente de distintas maneras. Para estudiar las posiciones relativas de los planos hay que tomarlos de dos en dos.

=Se pueden presentar varios casos: Que los planos sean paralelos:

3.4 Métodos de solución de un sistema de ecuaciones lineales y tipos de solución.

MÉTODO DE RESOLUCIÓN DE GAUSS-JORDAN

Es el método de resolución de sistemas de ecuaciones lineales, que consiste en llegar a un sistema "escalonado" transformando la matriz ampliada en una matriz escalonada por filas. El método de Gauss es una generalización del método de reducción, que utilizamos para eliminar una incógnita en los sistemas de dos ecuaciones con dos incógnitas. Consiste en la aplicación sucesiva del método de reducción, utilizando los criterios de equivalencia de sistemas, para transformar la matriz ampliada con los términos independientes ( A* ) en una matriz triangular, de modo que cada fila (ecuación) tenga una incógnita menos que la inmediatamente anterior. Se obtiene así un sistema, que llamaremos escalonado, tal que la última ecuación tiene una única incógnita, la penúltima dos incógnitas, la antepenúltima tres incógnitas, ..., y la primera todas las incógnitas. 

El siguiente esquema muestra cómo podemos resolver un sistema de ecuaciones lineales aplicando este método. 

Partimos, inicialmente, de un sistema de n ecuaciones lineales con n incógnitas, compatible determinado:
En primer lugar, aplicando sucesivamente el método de reducción, eliminamos en todas las ecuaciones, excepto en la primera, la incógnita x1, obteniéndose un sistema equivalente:
En segundo lugar, aplicando nuevamente el método de reducción de forma sucesiva, eliminamos en todas las ecuaciones, excepto en las dos primeras, la incógnita x2, obteniéndose un sistema equivalente:
Para resolverlo despejamos, en primer lugar, la única incógnita de la última ecuación. Luego sustituimos ésta en la penúltima ecuación y despejamos la otra incógnita. Posteriormente, sustituimos dos de las tres incógnitas de la antepenúltima ecuación por sus valores y despejamos la que queda, y así sucesivamente hasta llegar a la primera ecuación. 

Las transformaciones que podemos realizar en dicha matriz para transformar el sistema inicial en otro equivalente son las siguientes:
  • Multiplicar o dividir una fila por un número real distinto de cero. 
  • Sumarle o restarle a una fila otra fila. 
  • Sumarle a una fila otra fila multiplicada por un número distinto de cero. 
  • Cambiar el orden de las filas. 
  • Cambiar el orden de las columnas que corresponden a las incógnitas del sistema, teniendo en cuenta los cambios realizados a la hora de escribir el nuevo sistema equivalente. Es decir: si, por ejemplo, la 2ª columna corresponde a la incógnita y y la tercera a la incógnita z, y cambiamos el orden de las columnas, ahora la 2ª columna corresponde a la incógnita z y la tercera a la incógnita y. 
  • Eliminar filas proporcionales o que sean combinación lineal de otras. 
  • Eliminar filas nulas (0 0 0 ... 0).

Después de realizar las transformaciones que se consideren pertinentes, se obtendrá un sistema escalonado. Suponiendo que hubiésemos eliminado, si las hubiera, las filas nulas (0 0 0 ... 0), que corresponden a ecuaciones del tipo 0 = 0, el sistema equivalente tendría ahora k ecuaciones lineales con n incógnitas.

3.5 Aplicaciones. 
=Fracciones parciales =
Una técnica muy conveniente utilizada en algunas tareas matemáticas es aquella conocida como fracciones idea principal consiste en cambiar la forma que puede ser expresado un cociente entre polinomios a otra forma más conveniente para cierto tipo de cálculo.

Ejemplo 4.1 Determine los valores de las constantes a y b para que satisfagan:
SOLUCIÓN

UNIDAD 2 MATRICES DETERMINANTES

2.1 Definición de matriz, notación y orden.
Una matriz es una tabla cuadrada o rectangular de datos (llamados elementos) ordenados en filas y columnas, donde una fila es cada una de las líneas horizontales de la matriz y una columna es cada una de las líneas verticales. A una matriz con m filas y n columnas se le denomina matriz m-por-n (escrito m×n). Las dimensiones de una matriz siempre se dan con el número de filas primero y el número de columnas después. 

Comúnmente se dice que una matriz m-por-n tiene un orden de m × n ("orden" tiene el significado de tamaño). Dos matrices se dice que son iguales si son del mismo orden y tienen los mismos elementos.

Ejemplo:

Dada la matriz:



que es una matriz 4x3. El elemento A[2,3] es el 7

La matriz:



es una matriz 1×9, o un vector fila con 9 elementos.

2.2 Operaciones con matrices
SUMA:


Propiedades
-Asociativa
Dadas las matrices m×n A, B y C
(A + B) + C = A + (B + C)

-Conmutativa
Dadas las matrices m×n A y B
A + B = B + A

-Existencia de matriz cero o matriz nula
A + 0 = 0 + A = A

PRODUCTO POR UN ESCALAR:
Dada una matriz A y un escalar c, su producto cA se calcula multiplicando el escalar por cada elemento de A


Propiedades
Sean A y B matrices y c y d escalares.

-Clausura: Si A es matriz y c es escalar, entonces cA es matriz.

-Asociatividad: (cd)A = c(dA)

-Elemento Neutro: 1·A = A

-Distributividad:

    -De escalar: c(A+B) = cA+cB

    -De matriz: (c+d)A = cA+dA
PRODUCTO DE DOS MATRICES:El producto de dos matrices se puede definir sólo si el número de columnas de la matriz izquierda es el mismo que el número de filas de la matriz derecha. Si A es una matriz m×n y B es una matriz n×p, entonces su producto matricial AB es la matriz m×p (m filas, pcolumnas).

2.3 Clasificación de las matrices. 
Matriz fila
Una matriz fila está constituida por una sola fila.


Matriz columna
La matriz columna tiene una sola columna


Matriz rectangular
La matriz rectangular tiene distinto número de filas que de columnas, siendo su dimensión mxn.


Matriz cuadrada
La matriz cuadrada tiene el mismo número de filas que de columnas.
        
        Los elementos de la forma aii constituyen la diagonal principal.
        
        La diagonal secundaria la forman los elementos con i+j = n+1.


Matriz nula
En una matriz nula todos los elementos son ceros.


Matriz triangular superior
En una matriz triangular superior los elementos situados por debajo de la diagonal principal son ceros.


Matriz triangular inferior
En una matriz triangular inferior los elementos situados por encima de la diagonal principal son ceros.


Matriz diagonal
En una matriz diagonal todos los elementos situados por encima y por debajo de la diagonal principal son nulos.


Matriz escalar
Una matriz escalar es una matriz diagonal en la que los elementos de la diagonal principal son iguales.


Matriz identidad o unidad
Una matriz identidad es una matriz diagonal en la que los elementos de la diagonal principal son iguales a 1.


Matriz traspuesta
Dada una matriz A, se llama matriz traspuesta de A a la matriz que se obtiene cambiando ordenadamente las filas por las columnas


Matriz simétrica
Una matriz simétrica es una matriz cuadrada que verifica:

A = At.

Matriz antisimétrica o hemisimétrica
Una matriz antisimétrica o hemisimétrica es una matriz cuadrada que verifica:


A = -At.

2.4 Transformaciones elementales por renglón. Escalonamiento de una matriz. Rango de una matriz. 























2.5  Calculo de la inversa de una matriz. 

2.6 Definición de determinante de una matriz. 

2.7 Propiedades de los determinantes. 

2.8 Inversa de una matriz cuadrada a través de la adjunta. 

2.9 Aplicación de matrices y determinantes.