robot de la enciclopedia para niños

Matriz invertible para niños

Enciclopedia para niños
Archivo:3 planos secantes
Una interpretación espacial de una matriz invisible 3x3 es la de 3 planos secantes sólo en el origen. Las coordenadas de la matriz serían los coeficientes de las tres variables espaciales en una base dada.

En matemáticas, en particular en álgebra lineal, una matriz cuadrada A de orden n se dice que es invertible, no singular, no degenerada o regular si existe otra matriz cuadrada de orden n, llamada matriz inversa de A y denotada por A^{-1} si  A\cdot A^{-1} = A^{-1}\cdot A = I_{n} , donde I_n es la matriz identidad de orden n y el producto utilizado es el producto de matrices usual.

Una matriz cuadrada no invertible se dice que es singular o degenerada. Una matriz es singular si y sólo si su determinante es nulo. La matriz singular A se caracteriza porque su multiplicación por la matriz columna X es igual a cero para algún X no nulo. El conjunto de estos vectores (y al subespacio vectorial formado por ellos) se llamará kerA (de kernel, núcleo en inglés), para una matriz invertible kerA es el vector nulo.

La inversión de matrices es el proceso de encontrar la matriz inversa de una matriz dada.

Ejemplos

Matriz de dos filas (matriz adjunta)

Dada una matriz A de tamaño 2\times 2 con determinante no nulo entonces

A^{-1}= 
\begin{bmatrix} 
    a & b \\ 
    c & d 
\end{bmatrix}^{-1} 
=
\frac{1}{\det(A)} \begin{bmatrix} \,\,\,d & \!\!-b \\ -c & \,a \\ 
\end{bmatrix} =
\frac{1}{ad - bc} \begin{bmatrix}
\,\,\,d & \!\!-b \\ -c & \,a \\ 
\end{bmatrix}

y esta está definida siempre y cuando ad-bc \ne 0 con  a,b,c,d\in\mathbb{R} . Así por ejemplo la inversa de la matriz

    \begin{bmatrix}  2 & 1 \\  5 & 3 \end{bmatrix} \mapsto \begin{bmatrix}  2 & 1 \\  5 & 3 \end{bmatrix}^{-1} = \begin{bmatrix}  3 & -1 \\  -5 & 2 \end{bmatrix},

ya que

 \begin{bmatrix}  2 & 1 \\  5 & 3 \end{bmatrix}  \begin{bmatrix}  3 & -1 \\  -5 & 2 \end{bmatrix}= \begin{bmatrix}  1 & 0 \\  0 & 1 \end{bmatrix}

Matriz de tres filas

Dada una matriz A de tamaño 3\times 3 con determinante no nulo:

A^{-1} = \begin{bmatrix}
a & b & c\\ d & e & f \\ g & h & i\\
\end{bmatrix}^{-1} =
\frac{1}{\det(A)} \begin{bmatrix}
\, A & \, B & \,C \\ \, D & \, E & \, F \\ \, G & \, H & \, I\\
\end{bmatrix}^T =
\frac{1}{\det(A)} \begin{bmatrix}
\, A & \, D & \,G \\ \, B & \, E & \,H \\ \, C & \,F & \, I\\
\end{bmatrix}

donde se definen

\begin{matrix}
A = (ei-fh)  & D = -(bi-ch) & G = (bf-ce)  \\
B = -(di-fg) & E = (ai-cg)  & H = -(af-cd) \\
C = (dh-eg)  & F = -(ah-bg) & I = (ae-bd)  \\
\end{matrix}

Propiedades de la Matriz Inversa

Sea A\in\mathbb{R}^{n\times n} una matriz de rango máximo

  • La matriz inversa de A es única.
  • Si B\in\mathbb{R}^{n\times n} y C\in\mathbb{R}^{n\times n} entonces la matriz inversa del producto BC es
\left(BC\right)^{-1}={C}^{-1}{B}^{-1}
  • Si la matriz A es invertible, también lo es su transpuesta, y el inverso de su transpuesta es la transpuesta de su inversa, es decir
\left(A^{T}\right)^{-1} = \left(A^{-1}\right)^{T}
  • Y, evidentemente:
\left((A^{-1})^{-1}\right) = A
  • Una matriz con coeficientes en los reales es invertible si y sólo si el determinante de A es distinto de cero. Además la inversa satisface la igualdad:
{A^{-1}} =  {1 \over {\begin{vmatrix} A \end{vmatrix}}} \operatorname{adj} (A) \

donde   { {\begin{vmatrix} A \end{vmatrix}}} es el determinante de A y  \operatorname{adj}{(A)} \ es la matriz de adjuntos de A, entendida como a la matriz de cofactores traspuesta. (Ver la explicación de la diferente manera de entender el término adjunto en el artículo matriz de adjuntos).

  • El conjunto de matrices de n\times n con componentes sobre el cuerpo \mathbf{K} que admiten inversa, con el producto de matrices, tiene una estructura isomorfa al grupo lineal \text{GL}(n,\mathbf{K}) de orden n. En este grupo la operación de inversa es un automorfismo (\cdot)^{-1}: \text{GL}(n,\mathbf{K}) \to \text{GL}(n,\mathbf{K}).

Demostración de la unicidad de la inversa

Supongamos que B y C son inversas de A

 AB=BA=I, \quad\text{y} \quad AC=CA=I

Multiplicando ambas relaciones por C

 (BA)C=IC=C, \quad\text{y} \quad (BA)C=B(AC)=BI=B

De modo que B=C y se prueba que la inversa es única.

Demostración del criterio de invertibilidad de las matrices cuadradas

Se probará la doble implicación.

Suficiencia (\Rightarrow)

Supongamos que existe B tal que AB = BA = I. Entonces al aplicar la función determinante se obtiene

\det\left(AB\right)=\det\left(BA\right)=\det\left(I\right).

Utilizando la propiedad multiplicativa del determinante y sabiendo que \det(I) = 1 tenemos que

\det\left(A\right)\det\left(B\right)=1,

por lo que deducimos que \det(A) es distinto de cero.

Necesidad (\Leftarrow)

Supongamos que el determinante de A es distinto de cero. Sea a_{ij} el elemento ij de la matriz  A y sea A_{ij} la matriz A sin la fila i y la columna j (comúnmente conocida como j-ésimo menor de A). Entonces tenemos que

 \det(A)= \sum_{i=1}^n (-1)^{i+j}a_{ij}\det(A_{ij}).

Además, si k\neq j, entonces podemos deducir que

 \sum_{i=1}^n (-1)^{i+j}a_{ik}\det(A_{ij})=0,

pues la parte izquierda de la relación es el determinante de A con la columna j sustituida por la columna k y, de nuevo por propiedades del determinante, sabemos que una matriz con dos filas iguales tiene determinante cero.

De las dos ecuaciones anteriores podemos obtener

 \delta_{jk}\det\left(A\right)= \sum_{i=1}^n (-1)^{i+j}\det\left(A_{ij}\right)a_{ik}.

donde \delta_{jk} es la delta de Kronecker.

Por tanto, sabiendo que (I)_{ij} = \delta_{ij} tenemos que

\det\left(A\right)I = \left(\mbox{adj}(A)\right)A,

es decir, que A tiene inversa por la izquierda

\frac{\left(\text{adj}(A)\right)^T}{\det\left(A\right)}.

Como \left(\text{adj}(A)\right)^T = \text{adj}\left(A^T\right), entonces A^T también tiene inversa por la izquierda que es

\frac{\left(\text{adj}(A^T)\right)^T}{\det\left(A^T\right)}= \frac{\text{adj}(A)}{\det\left(A\right)}.

Entonces

\frac{\text{adj}(A)}{\det\left(A\right)}A^T=I,

luego, aplicando la transpuesta

A\frac{\left(\text{adj}(A)\right)^T}{\det\left(A\right)}=I,

que es lo que se quería demostrar.

Métodos de inversión de matrices

Solución analítica

Inversión de matrices 2×2

Calcular la matriz inversa en matrices de 2x2 puede ser muy sencillo. Se puede hacer de la siguiente manera:

\mathbf{A}^{-1} = \begin{bmatrix}
a & b \\ c & d \\ 
\end{bmatrix}^{-1} =
\frac{1}{\det(\mathbf{A})} \begin{bmatrix}
\,\,\,d & \!\!-b \\ -c & \,a \\ 
\end{bmatrix} =
\frac{1}{ad - bc} \begin{bmatrix}
\,\,\,d & \!\!-b \\ -c & \,a \\ 
\end{bmatrix}

Esto es posible siempre y cuando ad-bc\neq 0, es decir, el determinante de la matriz no es cero.

Ejemplo numérico:


C = \begin{bmatrix}
1 & 2 \\ 
3 & 4
\end{bmatrix} ,     \      
C^{-1} = \begin{bmatrix}
1 & 2 \\ 
3 & 4
\end{bmatrix}^{-1} =
\frac1{-2} \begin{bmatrix}
\,\,\,\,\, 4 &           -2 \\ 
          -3 & \,\,\,\,\, 1
\end{bmatrix}

Inversión de matrices de órdenes superiores

Para matrices de órdenes superiores puede utilizarse la siguiente fórmula:

{A^{-1}} =  {1 \over {\begin{vmatrix} A \end{vmatrix}}} \ \operatorname{adj} (A)  \

Donde   { {\begin{vmatrix} A \end{vmatrix}}} es el determinante de A y  \ \operatorname{adj}{(A)} \ es la matriz de adjuntos de A.

Cuando la matriz tiene más de tres filas, esta fórmula es muy ineficiente y conduce a largos cálculos. Hay métodos alternativos para calcular la matriz inversa que son bastante más eficientes.

Métodos numéricos

El método de eliminación de Gauss-Jordan puede utilizarse para determinar si una determinada matriz es invertible y para encontrar su inversa. Una alternativa es la descomposición LU, que descompone una matriz dada como producto de dos matrices triangulares, una inferior y otra superior, mucho más fáciles de invertir. Utilizando el método de Gauss-Jordan se coloca a la izquierda la matriz dada y a la derecha la matriz identidad. Luego por medio del uso de pivotes se intenta formar en la izquierda la matriz identidad y la matriz que quede a la derecha será la matriz inversa a la dada.

Grupo lineal

El conjunto de todas las matrices n\times n que admiten inversa es una representación lineal del grupo lineal de orden n, denotado como \textrm{GL}(n). Este grupo tiene importantes aplicaciones en álgebra y física. Además \textrm{GL}(n) \subset M_{n\times n} es un conjunto abierto (con la topología inducida de \R ^{n^2}).

Véase también

Kids robot.svg En inglés: Invertible matrix Facts for Kids

  • Matriz involutiva
kids search engine
Matriz invertible para Niños. Enciclopedia Kiddle.