Análisis Matricial de un Sistema de Ecuaciones Lineales de n Variables

En los problemas de sistemas de ecuaciones lineales hay varios métodos para poder resolverlas, tales como la sustitución o igualación. No obstante es mucho más sencillo de resolver los sistemas de ecuaciones lineales el análisis matricial. 

Sistema de ecuaciones lineales de n variables

Una matriz cuadrada M = [m_{ij}]_{ n \times n} se representa de la siguiente forma:

{\large \begin{equation} M = [m_{ij}]_{n \times n} = \begin{bmatrix} M_{11} & M_{12} & \cdots & M_{1n} \\ M_{21} & M_{22} & \cdots & M_{2n} \\ \vdots & \vdots & \ddots & \vdots\\ M_{n1} & M_{n2} & \cdots & M_{nn} \end{bmatrix} \end{equation} }


Definiciones Previas

  • El determinante de la matriz M = [m_{ij}]_{ n \times n} se representa de la siguiente forma:

{\large \begin{equation*} Det (M) = \sum_{i=1}^{n} \left[ (-1)^{i + j} \cdot m_{ij} \cdot Det ({m_{ij}} ) \right] \end{equation*}}

  • La adjunta de la matriz M = [m_{ij}]_{ n \times n} se representa de la siguiente forma:


{\large \begin{equation*} Adj (M) =  \left[ (-1)^{i + j} \cdot Det ({m_{ij}}) \right]_{n \times n} \end{equation*}}


  • La multiplicación de dos matrices cuadradas M = [m_{ij}]_{ n \times n} y W = [w_{ij}]_{ n \times n} resulta una nueva matriz cuadrada H = [h_{ij}]_{ n \times n} se representa de la siguiente forma:

{\large \begin{align*}  H  &= M \cdot W  \\ H  &=  \sum_{r=1}^{n} \left[ M_{ir}W_{rj} \right]\end{align*}}

  • La matriz identidad I = [\delta_{ij}]_{ n \times n} esta dada representada por la delta de kronecker  \delta_{ij} = \left\{ \begin{array}{lcc} 1 &  si & i = j \\  0 &  si &  i \not= j \\ \end{array} \right.

{\large \begin{align*} I = \begin{bmatrix} 1 & 0 & \cdots & 0 \\ 0 & 1 & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots\\ 0 & 0 & \cdots & 1 \end{bmatrix} \end{align*} }

  • Un sistema lineal de ecuaciones lineales con n variables esta dado por la siguiente ecuación matricial 


{\large \begin{align*} B &= A \cdot X \\ \begin{bmatrix} B_{11} \\ B_{21} \\ \vdots \\ B _{n1} \end{bmatrix} &= \begin{bmatrix} A_{11} & A_{12} & \cdots & A_{1n} \\ A_{21} & A_{22} & \cdots & A_{2n} \\ \vdots & \vdots & \ddots & \vdots\\ A_{n1} & A_{n2} & \cdots & A_{nn} \end{bmatrix}  \cdot \begin{bmatrix} X_{11} \\ X_{21} \\ \vdots \\ X _{n1} \end{bmatrix} \end{align*} }


Demostración de la solución de una ecuación matricial de un sistema de ecuaciones lineales

Partiendo de un sistema de ecuaciones lineales de n variables en forma matricial

{\large \begin{align*} B &= A \cdot X \\ A^{-1} \cdot B &= A^{-1} \cdot A \cdot X \\ A^{-1} \cdot B &= I \cdot X \\ X &= A^{-1} \cdot B \hspace{1.0cm}...\hspace{0.2cm}(1) \end{align*}} 
Partiendo de la definición del determinante para una matriz cuadrada A = [a_{ij}]_{ n \times n} 
{\large\begin{align*} Det (A) &= \sum_{i=1}^{n} \left[ (-1)^{i + j} \cdot a_{ij} \cdot Det (a_{ij} ) \right] \end{align*} } Ahora multiplicamos la expresión por la delta de Kronecker \delta_{jk}
{\large \begin{align*} \delta_{jk} \cdot  Det (A) &= \sum_{i=1}^{n} \left[ (-1)^{i + j} \cdot a_{ij} \cdot Det (a_{ij} ) \right] \cdot \delta_{jk} \\ \delta_{jk} \cdot  Det (A) &= \sum_{i=1}^{n} \left[ (-1)^{i + j} \cdot a_{ij} \cdot \delta_{jk} \cdot Det (a_{ij} ) \right] \end{align*}} Recordando una propiedad de la delta de Kronecker: \hspace{0.2cm} u_{pq}\cdot \delta_{qh} = u_{ph}. Por consiguiente tenemos lo siguiente: {\large \begin{align*} \delta_{jk} \cdot  Det (A) &= \sum_{i=1}^{n} \left[ (-1)^{i + j} \cdot a_{ik} \cdot Det (a_{ij} ) \right] \\ \delta_{jk} \cdot  Det (A) &= \sum_{i=1}^{n} \left[ (-1)^{i + j} \cdot  Det (a_{ij} ) \cdot a_{ik} \right] \end{align*}} Utilizando la definición de matriz de adjuntos y la definición de matriz identidad tenemos la siguiente ecuación {\large \begin{align*} I \cdot  Det (A) &= \sum_{i=1}^{n} \left[ Adj (a_{ij}) \cdot a_{ik} \right] \end{align*}} Haciendo uso de la definición de matriz transpuesta en la ecuación anterior {\large \begin{align*} I \cdot  Det (A) &= \sum_{i=1}^{n} \left[ Adj (a_{ji}^{T}) \cdot a_{ik} \right] \\ I &= \sum_{i=1}^{n} \left[ \frac{Adj (a_{ji}^{T})}{Det (A)} \cdot a_{ik} \right] \end{align*} } Por lo cual recordando la definición de producto de matrices, la inversa de la matriz cuadrada A es igual a lo siguiente: {\large \begin{align*} a_{ij}^{-1} &= \frac{Adj (a_{ji}^{T})}{Det( A )} \\ A^{-1} &= \frac{Adj (A^{T})}{Det( A )} \hspace{1.0cm}...\hspace{0.2cm}(2) \end{align*} } Reemplazando (2) en (1)
{\large \begin{align*} X &= A^{-1} \cdot B \\ X &= \left( \frac{Adj (A^{T})}{Det( A )}\right) \cdot B \end{align*} } Toda matriz cuadrada A que tiene una matriz inversa A^{-1 } tiene un respectivo determinante distinto de cero.{\large \begin{align*} I &= A \cdot A^{-1} \\ Det (I) &= Det (A \cdot A^{-1}) \\ 1 &= Det (A) \cdot Det (A^{-1}) \end{align*} } Por lo tanto la solución de la ecuación matricial B = A \cdot X que representa un sistema de ecuaciones lineales es igual a: {\large \begin{equation*} X = \left( \frac{Adj (A^{T})}{Det( A )}\right) \cdot B \hspace{1.0cm},\hspace{0.2cm} Det (A) \not= 0 \end{equation*}}

Demostración de la regla de Cramer

Partiendo de la solución de la ecuación matricial B = A \cdot X que representa un sistema de ecuaciones lineales.{\large \begin{equation*} X = \left( \frac{Adj (A^{T})}{Det( A )}\right) \cdot B \hspace{1.0cm},\hspace{0.2cm} Det (A) \not= 0 \end{equation*} } Ahora aplicamos la definición de matriz y la definición de matriz de adjuntos {\large \begin{align*} X &= \left( \frac{(-1)^{i+j} \cdot Det (a_{ji}) }{Det( A )}\right) \cdot b_{i1} \\ X &= \frac{(-1)^{i+j} \cdot Det (a_{ji}) \cdot b_{i1}}{Det( A )} \end{align*}} Utilizando la definición del determinante de una matriz cuadrada {\large \begin{equation*} X = \frac{ \sum_{i=1}^{n} \left( (-1)^{i+j} \cdot b_{i1} \cdot Det (a_{ji}) \right) }{Det( A )} \end{equation*} } Donde b_{ij} son los elementos que forman el determinante respectivo de las matrices complementarias de la matriz cuadrada A


Problema de Aplicación

Dada la siguiente ecuación matricial: 
{\large \begin{align*}  B &= A \cdot X \\ \begin{bmatrix} \hat{\rho} \\ \hat{\theta} \\ \hat{\varphi} \end{bmatrix} &= \begin{bmatrix} \sin{\theta}\cos{\varphi} & \sin{\theta}\sin{\varphi} & \cos{\theta} \\ \cos{\theta}\cos{\varphi} & \cos{\theta}\sin{\varphi} & -\sin{\theta} \\ -\sin{\varphi} & \cos{\theta} & 0 \end{bmatrix}  \cdot \begin{bmatrix} \hat{x} \\ \hat{y} \\ \hat{z} \end{bmatrix} \end{align*} }
Encontrar los vectores unitarios cartesianos en función de los vectores unitarios esféricos. 

  • Con el uso de la matriz inversa

{\large \begin{align*} X = \frac{Adj (A^{T})}{Det (A)} \cdot B \end{align*}}
Donde:
Det(A) = 1
\begin{equation*} Adj(A^{T}) = \begin{bmatrix} \sin{\theta}\cos{\varphi} & \cos{\theta}\cos{\varphi} & -\sin{\varphi} \\ \sin{\theta}\sin{\varphi} & \cos{\theta}\sin{\varphi} & \cos{\varphi} \\ \cos{\theta} & -\sin{\theta} & 0 \end{bmatrix}\end{equation*}

Por consiguiente la solución de la ecuación matricial B = A \cdot X esta dada por:

{\large \begin{align*} X &= \frac{Adj (A^{T})}{Det (A)} \cdot B \\ \begin{bmatrix} \hat{x} \\ \hat{y} \\ \hat{z} \end{bmatrix} &= \begin{bmatrix} \sin{\theta}\cos{\varphi} & \cos{\theta}\cos{\varphi} & -\sin{\varphi} \\ \sin{\theta}\sin{\varphi} & \cos{\theta}\sin{\varphi} & \cos{\varphi} \\ \cos{\theta} & -\sin{\theta} & 0 \end{bmatrix} \cdot \begin{bmatrix} \hat{\rho} \\ \hat{\theta} \\ \hat{\varphi} \end{bmatrix} \\ \begin{bmatrix} \hat{x} \\ \hat{y} \\ \hat{z} \end{bmatrix} &= \begin{bmatrix} \sin{\theta}\cos{ \varphi}\hat{\rho} + \cos{\theta}\cos{\varphi}\hat{\theta} - \sin{\theta}\hat{\varphi} \\ \sin{\theta}\sin{\varphi}\hat{\rho} + \cos{\theta}\sin{\varphi}\hat{\theta} + \cos{\varphi}\hat{\varphi} \\ \cos{\theta}\hat{\rho} - \sin{\theta}\hat{\theta} \end{bmatrix} \end{align*} } 

  •  Con el uso de la regla de Cramer

{\large \begin{equation*} X = \frac{ \sum_{i=1}^{n} \left( (-1)^{i+j} \cdot b_{i1} \cdot Det (a_{ji}) \right) }{Det( A )} \end{equation*} }
Donde:
{\large \begin{equation*} X_{1} = \frac{\left( (-1)^{1+j} \cdot b_{11} \cdot Det (a_{ji}) \right) }{Det( A )} \end{equation*} }
{\large \begin{equation*} X_{2} = \frac{\left( (-1)^{2+j} \cdot b_{21} \cdot Det (a_{ji}) \right) }{Det( A )} \end{equation*}}
{\large \begin{equation*} X_{3} = \frac{\left( (-1)^{3+j} \cdot b_{31} \cdot Det (a_{ji}) \right) }{Det( A )} \end{equation*}}
Det (A) = 1

Por consiguiente las elementos de la solución de la ecuación matricial B = A \cdot X estan dadas por las siguientes ecuaciones:

{\large \begin{align*} X_{1} &=  \frac{\left( (-1)^{1+j} \cdot b_{11} \cdot Det (a_{ji}) \right) }{Det( A )} \\ \hat{x} &= \begin{bmatrix} \hat{\rho} & \sin{\theta}\sin{\varphi} & \cos{\theta} \\ \hat{\theta} & \cos{\theta}\sin{\varphi} & -\sin{\theta} \\ \hat{\varphi} & \cos{\varphi} & 0 \end{bmatrix} \\ \hat{x} &= \sin{\theta}\cos{\varphi}\hat{\rho} + \cos{\theta}\cos{\varphi}\hat{\theta} - \sin{\varphi}\hat{\varphi} \\ \\ \\ X_{2} &= \frac{\left( (-1)^{2+j} \cdot b_{21} \cdot Det (a_{ji}) \right) }{Det( A )} \\ \hat{y} &= \begin{bmatrix} \sin{\theta}\cos{\varphi} & \hat{\rho} & \cos{\theta} \\  \cos{\theta}\cos{\varphi} & \hat{\theta} & -\sin{\theta} \\ \sin{\varphi} & \hat{\varphi} & 0 \end{bmatrix} \\ \hat{y} &= \sin{\theta}\sin{\varphi}\hat{\rho} + \cos{\theta}\sin{\theta}\hat{\theta} + \cos{\varphi}\hat{\varphi} \\ \\ \\ X_{3} &= \frac{\left( (-1)^{3+j} \cdot b_{31} \cdot Det (a_{ji}) \right) }{Det( A )} \\ \hat{z} &= \begin{bmatrix} \sin{\theta}\cos{\varphi} & \sin{\theta}\sin{\varphi} & \hat{\rho} \\ \cos{\theta}\cos{\varphi} & \cos{\theta}\sin{\varphi} & \hat{\theta} \\ -\sin{\varphi} & \cos{\theta} & \hat{\varphi} \end{bmatrix} \\ \hat{z} &= \cos{\theta}\hat{\rho} - \sin{\theta}\hat{\theta} \end{align*} }

Por lo tanto agrupando los elementos de la solución de la ecuación matricial B = A \cdot X
nos queda la siguiente matriz: 

{\large \begin{equation*} \begin{bmatrix} \hat{x} \\ \hat{y} \\ \hat{z} \end{bmatrix} = \begin{bmatrix} \sin{\theta}\cos{ \varphi}\hat{\rho} + \cos{\theta}\cos{\varphi}\hat{\theta} - \sin{\theta}\hat{\varphi} \\ \sin{\theta}\sin{\varphi}\hat{\rho} + \cos{\theta}\sin{\varphi}\hat{\theta} + \cos{\varphi}\hat{\varphi} \\ \cos{\theta}\hat{\rho} - \sin{\theta}\hat{\theta} \end{bmatrix} \end{equation*} }



Comentarios