Análisis Matricial de un Sistema de Ecuaciones Lineales de n Variables

En los problemas de sistemas de ecuaciones lineales hay varios métodos para poder resolverlas, tales como la sustitución o igualación. No obstante es mucho más sencillo de resolver los sistemas de ecuaciones lineales el análisis matricial. 

Sistema de ecuaciones lineales de n variables

Una matriz cuadrada $M = [m_{ij}]_{ n \times n}$ se representa de la siguiente forma:

$${\large \begin{equation} M = [m_{ij}]_{n \times n} = \begin{bmatrix} M_{11} & M_{12} & \cdots & M_{1n} \\ M_{21} & M_{22} & \cdots & M_{2n} \\ \vdots & \vdots & \ddots & \vdots\\ M_{n1} & M_{n2} & \cdots & M_{nn} \end{bmatrix} \end{equation} }$$


Definiciones Previas

  • El determinante de la matriz $M = [m_{ij}]_{ n \times n}$ se representa de la siguiente forma:

$${\large \begin{equation*} Det (M) = \sum_{i=1}^{n} \left[ (-1)^{i + j} \cdot m_{ij} \cdot Det ({m_{ij}} ) \right] \end{equation*}}$$

  • La adjunta de la matriz $M = [m_{ij}]_{ n \times n}$ se representa de la siguiente forma:


$${\large \begin{equation*} Adj (M) =  \left[ (-1)^{i + j} \cdot Det ({m_{ij}}) \right]_{n \times n} \end{equation*}}$$


  • La multiplicación de dos matrices cuadradas $M = [m_{ij}]_{ n \times n}$ y $W = [w_{ij}]_{ n \times n}$ resulta una nueva matriz cuadrada $H = [h_{ij}]_{ n \times n}$ se representa de la siguiente forma:

$${\large \begin{align*}  H  &= M \cdot W  \\ H  &=  \sum_{r=1}^{n} \left[ M_{ir}W_{rj} \right]\end{align*}}$$

  • La matriz identidad $I = [\delta_{ij}]_{ n \times n}$ esta dada representada por la delta de kronecker $ \delta_{ij} = \left\{ \begin{array}{lcc} 1 &  si & i = j \\  0 &  si &  i \not= j \\ \end{array} \right.$. 

$${\large \begin{align*} I = \begin{bmatrix} 1 & 0 & \cdots & 0 \\ 0 & 1 & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots\\ 0 & 0 & \cdots & 1 \end{bmatrix} \end{align*} }$$

  • Un sistema lineal de ecuaciones lineales con n variables esta dado por la siguiente ecuación matricial 


$${\large \begin{align*} B &= A \cdot X \\ \begin{bmatrix} B_{11} \\ B_{21} \\ \vdots \\ B _{n1} \end{bmatrix} &= \begin{bmatrix} A_{11} & A_{12} & \cdots & A_{1n} \\ A_{21} & A_{22} & \cdots & A_{2n} \\ \vdots & \vdots & \ddots & \vdots\\ A_{n1} & A_{n2} & \cdots & A_{nn} \end{bmatrix}  \cdot \begin{bmatrix} X_{11} \\ X_{21} \\ \vdots \\ X _{n1} \end{bmatrix} \end{align*} }$$


Demostración de la solución de una ecuación matricial de un sistema de ecuaciones lineales

Partiendo de un sistema de ecuaciones lineales de n variables en forma matricial

$${\large \begin{align*} B &= A \cdot X \\ A^{-1} \cdot B &= A^{-1} \cdot A \cdot X \\ A^{-1} \cdot B &= I \cdot X \\ X &= A^{-1} \cdot B \hspace{1.0cm}...\hspace{0.2cm}(1) \end{align*}}$$ 
Partiendo de la definición del determinante para una matriz cuadrada $A = [a_{ij}]_{ n \times n}$ 
$${\large\begin{align*} Det (A) &= \sum_{i=1}^{n} \left[ (-1)^{i + j} \cdot a_{ij} \cdot Det (a_{ij} ) \right] \end{align*} }$$ Ahora multiplicamos la expresión por la delta de Kronecker $\delta_{jk}$
$${\large \begin{align*} \delta_{jk} \cdot  Det (A) &= \sum_{i=1}^{n} \left[ (-1)^{i + j} \cdot a_{ij} \cdot Det (a_{ij} ) \right] \cdot \delta_{jk} \\ \delta_{jk} \cdot  Det (A) &= \sum_{i=1}^{n} \left[ (-1)^{i + j} \cdot a_{ij} \cdot \delta_{jk} \cdot Det (a_{ij} ) \right] \end{align*}}$$ Recordando una propiedad de la delta de Kronecker: $\hspace{0.2cm} u_{pq}\cdot \delta_{qh} = u_{ph}$. Por consiguiente tenemos lo siguiente: $${\large \begin{align*} \delta_{jk} \cdot  Det (A) &= \sum_{i=1}^{n} \left[ (-1)^{i + j} \cdot a_{ik} \cdot Det (a_{ij} ) \right] \\ \delta_{jk} \cdot  Det (A) &= \sum_{i=1}^{n} \left[ (-1)^{i + j} \cdot  Det (a_{ij} ) \cdot a_{ik} \right] \end{align*}}$$ Utilizando la definición de matriz de adjuntos y la definición de matriz identidad tenemos la siguiente ecuación $${\large \begin{align*} I \cdot  Det (A) &= \sum_{i=1}^{n} \left[ Adj (a_{ij}) \cdot a_{ik} \right] \end{align*}}$$ Haciendo uso de la definición de matriz transpuesta en la ecuación anterior $${\large \begin{align*} I \cdot  Det (A) &= \sum_{i=1}^{n} \left[ Adj (a_{ji}^{T}) \cdot a_{ik} \right] \\ I &= \sum_{i=1}^{n} \left[ \frac{Adj (a_{ji}^{T})}{Det (A)} \cdot a_{ik} \right] \end{align*} }$$ Por lo cual recordando la definición de producto de matrices, la inversa de la matriz cuadrada A es igual a lo siguiente: $${\large \begin{align*} a_{ij}^{-1} &= \frac{Adj (a_{ji}^{T})}{Det( A )} \\ A^{-1} &= \frac{Adj (A^{T})}{Det( A )} \hspace{1.0cm}...\hspace{0.2cm}(2) \end{align*} }$$ Reemplazando (2) en (1)
$${\large \begin{align*} X &= A^{-1} \cdot B \\ X &= \left( \frac{Adj (A^{T})}{Det( A )}\right) \cdot B \end{align*} }$$ Toda matriz cuadrada A que tiene una matriz inversa $A^{-1 }$ tiene un respectivo determinante distinto de cero.$${\large \begin{align*} I &= A \cdot A^{-1} \\ Det (I) &= Det (A \cdot A^{-1}) \\ 1 &= Det (A) \cdot Det (A^{-1}) \end{align*} }$$ Por lo tanto la solución de la ecuación matricial $ B = A \cdot X $ que representa un sistema de ecuaciones lineales es igual a: $${\large \begin{equation*} X = \left( \frac{Adj (A^{T})}{Det( A )}\right) \cdot B \hspace{1.0cm},\hspace{0.2cm} Det (A) \not= 0 \end{equation*}}$$

Demostración de la regla de Cramer

Partiendo de la solución de la ecuación matricial $ B = A \cdot X $ que representa un sistema de ecuaciones lineales.$${\large \begin{equation*} X = \left( \frac{Adj (A^{T})}{Det( A )}\right) \cdot B \hspace{1.0cm},\hspace{0.2cm} Det (A) \not= 0 \end{equation*} }$$ Ahora aplicamos la definición de matriz y la definición de matriz de adjuntos $${\large \begin{align*} X &= \left( \frac{(-1)^{i+j} \cdot Det (a_{ji}) }{Det( A )}\right) \cdot b_{i1} \\ X &= \frac{(-1)^{i+j} \cdot Det (a_{ji}) \cdot b_{i1}}{Det( A )} \end{align*}}$$ Utilizando la definición del determinante de una matriz cuadrada $${\large \begin{equation*} X = \frac{ \sum_{i=1}^{n} \left( (-1)^{i+j} \cdot b_{i1} \cdot Det (a_{ji}) \right) }{Det( A )} \end{equation*} }$$ Donde $ b_{ij} $ son los elementos que forman el determinante respectivo de las matrices complementarias de la matriz cuadrada A


Problema de Aplicación

Dada la siguiente ecuación matricial: 
$${\large \begin{align*}  B &= A \cdot X \\ \begin{bmatrix} \hat{\rho} \\ \hat{\theta} \\ \hat{\varphi} \end{bmatrix} &= \begin{bmatrix} \sin{\theta}\cos{\varphi} & \sin{\theta}\sin{\varphi} & \cos{\theta} \\ \cos{\theta}\cos{\varphi} & \cos{\theta}\sin{\varphi} & -\sin{\theta} \\ -\sin{\varphi} & \cos{\theta} & 0 \end{bmatrix}  \cdot \begin{bmatrix} \hat{x} \\ \hat{y} \\ \hat{z} \end{bmatrix} \end{align*} }$$
Encontrar los vectores unitarios cartesianos en función de los vectores unitarios esféricos. 

  • Con el uso de la matriz inversa

$${\large \begin{align*} X = \frac{Adj (A^{T})}{Det (A)} \cdot B \end{align*}}$$
Donde:
$Det(A) = 1$
$ \begin{equation*} Adj(A^{T}) = \begin{bmatrix} \sin{\theta}\cos{\varphi} & \cos{\theta}\cos{\varphi} & -\sin{\varphi} \\ \sin{\theta}\sin{\varphi} & \cos{\theta}\sin{\varphi} & \cos{\varphi} \\ \cos{\theta} & -\sin{\theta} & 0 \end{bmatrix}\end{equation*} $

Por consiguiente la solución de la ecuación matricial $B = A \cdot X$ esta dada por:

$${\large \begin{align*} X &= \frac{Adj (A^{T})}{Det (A)} \cdot B \\ \begin{bmatrix} \hat{x} \\ \hat{y} \\ \hat{z} \end{bmatrix} &= \begin{bmatrix} \sin{\theta}\cos{\varphi} & \cos{\theta}\cos{\varphi} & -\sin{\varphi} \\ \sin{\theta}\sin{\varphi} & \cos{\theta}\sin{\varphi} & \cos{\varphi} \\ \cos{\theta} & -\sin{\theta} & 0 \end{bmatrix} \cdot \begin{bmatrix} \hat{\rho} \\ \hat{\theta} \\ \hat{\varphi} \end{bmatrix} \\ \begin{bmatrix} \hat{x} \\ \hat{y} \\ \hat{z} \end{bmatrix} &= \begin{bmatrix} \sin{\theta}\cos{ \varphi}\hat{\rho} + \cos{\theta}\cos{\varphi}\hat{\theta} - \sin{\theta}\hat{\varphi} \\ \sin{\theta}\sin{\varphi}\hat{\rho} + \cos{\theta}\sin{\varphi}\hat{\theta} + \cos{\varphi}\hat{\varphi} \\ \cos{\theta}\hat{\rho} - \sin{\theta}\hat{\theta} \end{bmatrix} \end{align*} }$$ 

  •  Con el uso de la regla de Cramer

$${\large \begin{equation*} X = \frac{ \sum_{i=1}^{n} \left( (-1)^{i+j} \cdot b_{i1} \cdot Det (a_{ji}) \right) }{Det( A )} \end{equation*} }$$
Donde:
${\large \begin{equation*} X_{1} = \frac{\left( (-1)^{1+j} \cdot b_{11} \cdot Det (a_{ji}) \right) }{Det( A )} \end{equation*} }$
${\large \begin{equation*} X_{2} = \frac{\left( (-1)^{2+j} \cdot b_{21} \cdot Det (a_{ji}) \right) }{Det( A )} \end{equation*}}$
${\large \begin{equation*} X_{3} = \frac{\left( (-1)^{3+j} \cdot b_{31} \cdot Det (a_{ji}) \right) }{Det( A )} \end{equation*}}$
$Det (A) = 1$

Por consiguiente las elementos de la solución de la ecuación matricial $B = A \cdot X$ estan dadas por las siguientes ecuaciones:

$${\large \begin{align*} X_{1} &=  \frac{\left( (-1)^{1+j} \cdot b_{11} \cdot Det (a_{ji}) \right) }{Det( A )} \\ \hat{x} &= \begin{bmatrix} \hat{\rho} & \sin{\theta}\sin{\varphi} & \cos{\theta} \\ \hat{\theta} & \cos{\theta}\sin{\varphi} & -\sin{\theta} \\ \hat{\varphi} & \cos{\varphi} & 0 \end{bmatrix} \\ \hat{x} &= \sin{\theta}\cos{\varphi}\hat{\rho} + \cos{\theta}\cos{\varphi}\hat{\theta} - \sin{\varphi}\hat{\varphi} \\ \\ \\ X_{2} &= \frac{\left( (-1)^{2+j} \cdot b_{21} \cdot Det (a_{ji}) \right) }{Det( A )} \\ \hat{y} &= \begin{bmatrix} \sin{\theta}\cos{\varphi} & \hat{\rho} & \cos{\theta} \\  \cos{\theta}\cos{\varphi} & \hat{\theta} & -\sin{\theta} \\ \sin{\varphi} & \hat{\varphi} & 0 \end{bmatrix} \\ \hat{y} &= \sin{\theta}\sin{\varphi}\hat{\rho} + \cos{\theta}\sin{\theta}\hat{\theta} + \cos{\varphi}\hat{\varphi} \\ \\ \\ X_{3} &= \frac{\left( (-1)^{3+j} \cdot b_{31} \cdot Det (a_{ji}) \right) }{Det( A )} \\ \hat{z} &= \begin{bmatrix} \sin{\theta}\cos{\varphi} & \sin{\theta}\sin{\varphi} & \hat{\rho} \\ \cos{\theta}\cos{\varphi} & \cos{\theta}\sin{\varphi} & \hat{\theta} \\ -\sin{\varphi} & \cos{\theta} & \hat{\varphi} \end{bmatrix} \\ \hat{z} &= \cos{\theta}\hat{\rho} - \sin{\theta}\hat{\theta} \end{align*} }$$

Por lo tanto agrupando los elementos de la solución de la ecuación matricial $B = A \cdot X$
nos queda la siguiente matriz: 

$${\large \begin{equation*} \begin{bmatrix} \hat{x} \\ \hat{y} \\ \hat{z} \end{bmatrix} = \begin{bmatrix} \sin{\theta}\cos{ \varphi}\hat{\rho} + \cos{\theta}\cos{\varphi}\hat{\theta} - \sin{\theta}\hat{\varphi} \\ \sin{\theta}\sin{\varphi}\hat{\rho} + \cos{\theta}\sin{\varphi}\hat{\theta} + \cos{\varphi}\hat{\varphi} \\ \cos{\theta}\hat{\rho} - \sin{\theta}\hat{\theta} \end{bmatrix} \end{equation*} }$$



Comentarios