En los problemas de sistemas de ecuaciones lineales hay varios métodos para poder resolverlas, tales como la sustitución o igualación. No obstante es mucho más sencillo de resolver los sistemas de ecuaciones lineales el análisis matricial.
 |
Sistema de ecuaciones lineales de n variables |
Una matriz cuadrada M = [m_{ij}]_{ n \times n} se representa de la siguiente forma:
{\large \begin{equation} M = [m_{ij}]_{n \times n} = \begin{bmatrix} M_{11} & M_{12} & \cdots & M_{1n} \\ M_{21} & M_{22} & \cdots & M_{2n} \\ \vdots & \vdots & \ddots & \vdots\\ M_{n1} & M_{n2} & \cdots & M_{nn} \end{bmatrix} \end{equation} }
Definiciones Previas
- El determinante de la matriz M = [m_{ij}]_{ n \times n} se representa de la siguiente forma:
{\large \begin{equation*} Det (M) = \sum_{i=1}^{n} \left[ (-1)^{i + j} \cdot m_{ij} \cdot Det ({m_{ij}} ) \right] \end{equation*}}- La adjunta de la matriz M = [m_{ij}]_{ n \times n} se representa de la siguiente forma:
{\large \begin{equation*} Adj (M) = \left[ (-1)^{i + j} \cdot Det ({m_{ij}}) \right]_{n \times n} \end{equation*}}
- La multiplicación de dos matrices cuadradas M = [m_{ij}]_{ n \times n} y W = [w_{ij}]_{ n \times n} resulta una nueva matriz cuadrada H = [h_{ij}]_{ n \times n} se representa de la siguiente forma:
{\large \begin{align*} H &= M \cdot W \\ H &= \sum_{r=1}^{n} \left[ M_{ir}W_{rj} \right]\end{align*}}
- La matriz identidad I = [\delta_{ij}]_{ n \times n} esta dada representada por la delta de kronecker \delta_{ij} = \left\{ \begin{array}{lcc} 1 & si & i = j \\ 0 & si & i \not= j \\ \end{array} \right..
{\large \begin{align*} I = \begin{bmatrix} 1 & 0 & \cdots & 0 \\ 0 & 1 & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots\\ 0 & 0 & \cdots & 1 \end{bmatrix} \end{align*} }
- Un sistema lineal de ecuaciones lineales con n variables esta dado por la siguiente ecuación matricial
{\large \begin{align*} B &= A \cdot X \\ \begin{bmatrix} B_{11} \\ B_{21} \\ \vdots \\ B _{n1} \end{bmatrix} &= \begin{bmatrix} A_{11} & A_{12} & \cdots & A_{1n} \\ A_{21} & A_{22} & \cdots & A_{2n} \\ \vdots & \vdots & \ddots & \vdots\\ A_{n1} & A_{n2} & \cdots & A_{nn} \end{bmatrix} \cdot \begin{bmatrix} X_{11} \\ X_{21} \\ \vdots \\ X _{n1} \end{bmatrix} \end{align*} }
Demostración de la solución de una ecuación matricial de un sistema de ecuaciones lineales
Partiendo de un sistema de ecuaciones lineales de n variables en forma matricial
{\large \begin{align*} B &= A \cdot X \\ A^{-1} \cdot B &= A^{-1} \cdot A \cdot X \\ A^{-1} \cdot B &= I \cdot X \\ X &= A^{-1} \cdot B \hspace{1.0cm}...\hspace{0.2cm}(1) \end{align*}}
Partiendo de la definición del determinante para una matriz cuadrada A = [a_{ij}]_{ n \times n}
{\large\begin{align*} Det (A) &= \sum_{i=1}^{n} \left[ (-1)^{i + j} \cdot a_{ij} \cdot Det (a_{ij} ) \right] \end{align*} } Ahora multiplicamos la expresión por la delta de Kronecker \delta_{jk}
{\large \begin{align*} \delta_{jk} \cdot Det (A) &= \sum_{i=1}^{n} \left[ (-1)^{i + j} \cdot a_{ij} \cdot Det (a_{ij} ) \right] \cdot \delta_{jk} \\ \delta_{jk} \cdot Det (A) &= \sum_{i=1}^{n} \left[ (-1)^{i + j} \cdot a_{ij} \cdot \delta_{jk} \cdot Det (a_{ij} ) \right] \end{align*}} Recordando una propiedad de la delta de Kronecker: \hspace{0.2cm} u_{pq}\cdot \delta_{qh} = u_{ph}. Por consiguiente tenemos lo siguiente: {\large \begin{align*} \delta_{jk} \cdot Det (A) &= \sum_{i=1}^{n} \left[ (-1)^{i + j} \cdot a_{ik} \cdot Det (a_{ij} ) \right] \\ \delta_{jk} \cdot Det (A) &= \sum_{i=1}^{n} \left[ (-1)^{i + j} \cdot Det (a_{ij} ) \cdot a_{ik} \right] \end{align*}} Utilizando la definición de matriz de adjuntos y la definición de matriz identidad tenemos la siguiente ecuación {\large \begin{align*} I \cdot Det (A) &= \sum_{i=1}^{n} \left[ Adj (a_{ij}) \cdot a_{ik} \right] \end{align*}} Haciendo uso de la definición de matriz transpuesta en la ecuación anterior {\large \begin{align*} I \cdot Det (A) &= \sum_{i=1}^{n} \left[ Adj (a_{ji}^{T}) \cdot a_{ik} \right] \\ I &= \sum_{i=1}^{n} \left[ \frac{Adj (a_{ji}^{T})}{Det (A)} \cdot a_{ik} \right] \end{align*} } Por lo cual recordando la definición de producto de matrices, la inversa de la matriz cuadrada A es igual a lo siguiente: {\large \begin{align*} a_{ij}^{-1} &= \frac{Adj (a_{ji}^{T})}{Det( A )} \\ A^{-1} &= \frac{Adj (A^{T})}{Det( A )} \hspace{1.0cm}...\hspace{0.2cm}(2) \end{align*} } Reemplazando (2) en (1)
{\large \begin{align*} X &= A^{-1} \cdot B \\ X &= \left( \frac{Adj (A^{T})}{Det( A )}\right) \cdot B \end{align*} } Toda matriz cuadrada A que tiene una matriz inversa A^{-1 } tiene un respectivo determinante distinto de cero.{\large \begin{align*} I &= A \cdot A^{-1} \\ Det (I) &= Det (A \cdot A^{-1}) \\ 1 &= Det (A) \cdot Det (A^{-1}) \end{align*} } Por lo tanto la solución de la ecuación matricial B = A \cdot X que representa un sistema de ecuaciones lineales es igual a: {\large \begin{equation*} X = \left( \frac{Adj (A^{T})}{Det( A )}\right) \cdot B \hspace{1.0cm},\hspace{0.2cm} Det (A) \not= 0 \end{equation*}}
Demostración de la regla de Cramer
Partiendo de la solución de la ecuación matricial B = A \cdot X que representa un sistema de ecuaciones lineales.{\large \begin{equation*} X = \left( \frac{Adj (A^{T})}{Det( A )}\right) \cdot B \hspace{1.0cm},\hspace{0.2cm} Det (A) \not= 0 \end{equation*} } Ahora aplicamos la definición de matriz y la definición de matriz de adjuntos {\large \begin{align*} X &= \left( \frac{(-1)^{i+j} \cdot Det (a_{ji}) }{Det( A )}\right) \cdot b_{i1} \\ X &= \frac{(-1)^{i+j} \cdot Det (a_{ji}) \cdot b_{i1}}{Det( A )} \end{align*}} Utilizando la definición del determinante de una matriz cuadrada {\large \begin{equation*} X = \frac{ \sum_{i=1}^{n} \left( (-1)^{i+j} \cdot b_{i1} \cdot Det (a_{ji}) \right) }{Det( A )} \end{equation*} } Donde b_{ij} son los elementos que forman el determinante respectivo de las matrices complementarias de la matriz cuadrada A
Problema de Aplicación
Dada la siguiente ecuación matricial:
{\large \begin{align*} B &= A \cdot X \\ \begin{bmatrix} \hat{\rho} \\ \hat{\theta} \\ \hat{\varphi} \end{bmatrix} &= \begin{bmatrix} \sin{\theta}\cos{\varphi} & \sin{\theta}\sin{\varphi} & \cos{\theta} \\ \cos{\theta}\cos{\varphi} & \cos{\theta}\sin{\varphi} & -\sin{\theta} \\ -\sin{\varphi} & \cos{\theta} & 0 \end{bmatrix} \cdot \begin{bmatrix} \hat{x} \\ \hat{y} \\ \hat{z} \end{bmatrix} \end{align*} }
Encontrar los vectores unitarios cartesianos en función de los vectores unitarios esféricos.
- Con el uso de la matriz inversa
{\large \begin{align*} X = \frac{Adj (A^{T})}{Det (A)} \cdot B \end{align*}}
Donde:
Det(A) = 1
\begin{equation*} Adj(A^{T}) = \begin{bmatrix} \sin{\theta}\cos{\varphi} & \cos{\theta}\cos{\varphi} & -\sin{\varphi} \\ \sin{\theta}\sin{\varphi} & \cos{\theta}\sin{\varphi} & \cos{\varphi} \\ \cos{\theta} & -\sin{\theta} & 0 \end{bmatrix}\end{equation*}
Por consiguiente la solución de la ecuación matricial B = A \cdot X esta dada por:
{\large \begin{align*} X &= \frac{Adj (A^{T})}{Det (A)} \cdot B \\ \begin{bmatrix} \hat{x} \\ \hat{y} \\ \hat{z} \end{bmatrix} &= \begin{bmatrix} \sin{\theta}\cos{\varphi} & \cos{\theta}\cos{\varphi} & -\sin{\varphi} \\ \sin{\theta}\sin{\varphi} & \cos{\theta}\sin{\varphi} & \cos{\varphi} \\ \cos{\theta} & -\sin{\theta} & 0 \end{bmatrix} \cdot \begin{bmatrix} \hat{\rho} \\ \hat{\theta} \\ \hat{\varphi} \end{bmatrix} \\ \begin{bmatrix} \hat{x} \\ \hat{y} \\ \hat{z} \end{bmatrix} &= \begin{bmatrix} \sin{\theta}\cos{ \varphi}\hat{\rho} + \cos{\theta}\cos{\varphi}\hat{\theta} - \sin{\theta}\hat{\varphi} \\ \sin{\theta}\sin{\varphi}\hat{\rho} + \cos{\theta}\sin{\varphi}\hat{\theta} + \cos{\varphi}\hat{\varphi} \\ \cos{\theta}\hat{\rho} - \sin{\theta}\hat{\theta} \end{bmatrix} \end{align*} }
- Con el uso de la regla de Cramer
{\large \begin{equation*} X = \frac{ \sum_{i=1}^{n} \left( (-1)^{i+j} \cdot b_{i1} \cdot Det (a_{ji}) \right) }{Det( A )} \end{equation*} }
Donde:
{\large \begin{equation*} X_{1} = \frac{\left( (-1)^{1+j} \cdot b_{11} \cdot Det (a_{ji}) \right) }{Det( A )} \end{equation*} }
{\large \begin{equation*} X_{2} = \frac{\left( (-1)^{2+j} \cdot b_{21} \cdot Det (a_{ji}) \right) }{Det( A )} \end{equation*}}
{\large \begin{equation*} X_{3} = \frac{\left( (-1)^{3+j} \cdot b_{31} \cdot Det (a_{ji}) \right) }{Det( A )} \end{equation*}}
Det (A) = 1
Por consiguiente las elementos de la solución de la ecuación matricial B = A \cdot X estan dadas por las siguientes ecuaciones:
{\large \begin{align*} X_{1} &= \frac{\left( (-1)^{1+j} \cdot b_{11} \cdot Det (a_{ji}) \right) }{Det( A )} \\ \hat{x} &= \begin{bmatrix} \hat{\rho} & \sin{\theta}\sin{\varphi} & \cos{\theta} \\ \hat{\theta} & \cos{\theta}\sin{\varphi} & -\sin{\theta} \\ \hat{\varphi} & \cos{\varphi} & 0 \end{bmatrix} \\ \hat{x} &= \sin{\theta}\cos{\varphi}\hat{\rho} + \cos{\theta}\cos{\varphi}\hat{\theta} - \sin{\varphi}\hat{\varphi} \\ \\ \\ X_{2} &= \frac{\left( (-1)^{2+j} \cdot b_{21} \cdot Det (a_{ji}) \right) }{Det( A )} \\ \hat{y} &= \begin{bmatrix} \sin{\theta}\cos{\varphi} & \hat{\rho} & \cos{\theta} \\ \cos{\theta}\cos{\varphi} & \hat{\theta} & -\sin{\theta} \\ \sin{\varphi} & \hat{\varphi} & 0 \end{bmatrix} \\ \hat{y} &= \sin{\theta}\sin{\varphi}\hat{\rho} + \cos{\theta}\sin{\theta}\hat{\theta} + \cos{\varphi}\hat{\varphi} \\ \\ \\ X_{3} &= \frac{\left( (-1)^{3+j} \cdot b_{31} \cdot Det (a_{ji}) \right) }{Det( A )} \\ \hat{z} &= \begin{bmatrix} \sin{\theta}\cos{\varphi} & \sin{\theta}\sin{\varphi} & \hat{\rho} \\ \cos{\theta}\cos{\varphi} & \cos{\theta}\sin{\varphi} & \hat{\theta} \\ -\sin{\varphi} & \cos{\theta} & \hat{\varphi} \end{bmatrix} \\ \hat{z} &= \cos{\theta}\hat{\rho} - \sin{\theta}\hat{\theta} \end{align*} }
Por lo tanto agrupando los elementos de la solución de la ecuación matricial B = A \cdot X
nos queda la siguiente matriz:
{\large \begin{equation*} \begin{bmatrix} \hat{x} \\ \hat{y} \\ \hat{z} \end{bmatrix} = \begin{bmatrix} \sin{\theta}\cos{ \varphi}\hat{\rho} + \cos{\theta}\cos{\varphi}\hat{\theta} - \sin{\theta}\hat{\varphi} \\ \sin{\theta}\sin{\varphi}\hat{\rho} + \cos{\theta}\sin{\varphi}\hat{\theta} + \cos{\varphi}\hat{\varphi} \\ \cos{\theta}\hat{\rho} - \sin{\theta}\hat{\theta} \end{bmatrix} \end{equation*} }
Comentarios
Publicar un comentario