O que significa e na matriz. Como encontrar a matriz inversa

Então, serviços para resolver matrizes online:

O serviço Matrix permite realizar transformações elementares de matrizes.
Se você tiver uma tarefa para realizar uma transformação mais complexa, esse serviço deverá ser usado como construtor.

Exemplo. Dados da matriz UMA e B, precisa encontrar C = UMA -1 * B + B T,

  1. Você deve primeiro encontrar matriz inversaA1 = UMA-1, usando o serviço para encontrar a matriz inversa;
  2. Além disso, depois de encontrar a matriz A1 faça isso multiplicação da matrizA2 = A1 * B, usando o serviço de multiplicação de matrizes;
  3. Vamos fazer isso transposição de matrizA3 = B T (serviço para encontrar a matriz transposta);
  4. E o último - encontre a soma das matrizes A PARTIR DE = A2 + A3(serviço para cálculo da soma de matrizes) - e obtemos uma resposta com a solução mais detalhada!;

Produto de matrizes

Este é um serviço online dois passos:

  • Insira a primeira matriz de fatores UMA
  • Insira a segunda matriz de fator ou vetor de coluna B

Multiplicação de uma matriz por um vetor

A multiplicação de uma matriz por um vetor pode ser encontrada usando o serviço Multiplicação da matriz
(O primeiro fator será a matriz dada, o segundo fator será a coluna que consiste nos elementos do vetor dado)

Este é um serviço online dois passos:

  • Digite a matriz UMA, para o qual você precisa encontrar a matriz inversa
  • Obtenha uma resposta com uma solução detalhada para encontrar a matriz inversa

Determinante da matriz

Este é um serviço online um passo:

  • Digite a matriz UMA, para o qual você precisa encontrar o determinante da matriz

Transposição de matriz

Aqui você pode seguir o algoritmo de transposição de matrizes e aprender a resolver esses problemas sozinho.
Este é um serviço online um passo:

  • Digite a matriz UMA, que precisa ser transposto

Classificação da matriz

Este é um serviço online um passo:

  • Digite a matriz UMA, para o qual você precisa encontrar a classificação

Autovalores de matriz e autovetores de matriz

Este é um serviço online um passo:

  • Digite a matriz UMA, para o qual você precisa encontrar vetores próprios e valores próprios (valores próprios)

Exponenciação da matriz

Este é um serviço online dois passos:

  • Digite a matriz UMA, que será elevado ao poder
  • Insira um número inteiro q- grau
Atribuição de serviço. A calculadora de matrizes foi projetada para resolver sistemas de equações lineares de forma matricial (veja um exemplo de resolução de problemas semelhantes).

Instrução. Para uma solução online, você deve selecionar o tipo de equação e definir a dimensão das matrizes correspondentes.

Tipo de equação: A X = B XA = B A X B = C
Dimensão da matriz A
Dimensão da matriz B 1 2 3 4 5 6 7 8 9 10 x 1 2 3 4 5 6 7 8 9 10

Dimensão da matriz C 1 2 3 4 5 6 7 8 9 10 x 1 2 3 4 5 6 7 8 9 10

onde A, B, C são matrizes dadas, X é a matriz desejada. Equações matriciais da forma (1), (2) e (3) são resolvidas através da matriz inversa A -1 . Se a expressão A X - B = C é dada, então é necessário primeiro adicionar as matrizes C + B e encontrar uma solução para a expressão A X = D , onde D = C + B (). Se a expressão A*X = B 2 for dada, então a matriz B deve primeiro ser elevada ao quadrado. Também é recomendável familiarizar-se com as operações básicas em matrizes.

Exemplo 1. Exercício. Encontrar uma solução para uma equação matricial
Solução. Indicar:
Então a equação matricial será escrita na forma: A·X·B = C.
O determinante da matriz A é detA=-1
Como A é uma matriz não singular, existe uma matriz inversa A -1 . Multiplique ambos os lados da equação à esquerda por A -1: Multiplique ambos os lados desta equação à esquerda por A -1 e à direita por B -1: A -1 A X B B -1 = A -1 C B -1 . Como A A -1 = B B -1 = E e E X = X E = X, então X = A -1 C B -1

Matriz inversa A -1:
Encontre a matriz inversa B -1 .
Transpor a matriz B T:
Matriz inversa B -1:
Estamos procurando a matriz X pela fórmula: X = A -1 C B -1

Responda:

Exemplo #2. Exercício. Resolva a equação da matriz
Solução. Indicar:
Então a equação matricial será escrita na forma: A X = B.
O determinante da matriz A é detA=0
Como A é uma matriz degenerada (o determinante é 0), portanto, a equação não tem solução.

Exemplo #3. Exercício. Encontrar uma solução para uma equação matricial
Solução. Indicar:
Então a equação matricial será escrita na forma: X·A = B.
O determinante da matriz A é detA=-60
Como A é uma matriz não singular, existe uma matriz inversa A -1 . Multiplique à direita ambos os lados da equação por A -1: X A A -1 = B A -1 , a partir do qual encontramos que X = B A -1
Encontre a matriz inversa A -1 .
Matriz transposta A T:
Matriz inversa A -1:
Estamos procurando a matriz X pela fórmula: X = B A -1


Resposta: >

Matriz inversa- tal matriz UMA −1 , quando multiplicado por qual, a matriz original UMA dá como resultado matriz de identidade E:

matriz quadradaé invertível se e somente se não for degenerado, isto é, sua determinante não é igual a zero. Para matrizes não quadradas e matrizes degeneradas matrizes inversas não existem. No entanto, é possível generalizar este conceito e introduzir matrizes pseudoinversas, semelhante aos inversos em muitas propriedades.

Solução de equações matriciais

As equações matriciais podem ter a seguinte aparência:

AX = B, XA = B, AXB = C,

onde A, B, C são matrizes dadas, X é a matriz desejada.

As equações matriciais são resolvidas multiplicando a equação por matrizes inversas.

Por exemplo, para encontrar a matriz de uma equação, você precisa multiplicar essa equação à esquerda.

Portanto, para encontrar uma solução para a equação, você precisa encontrar a matriz inversa e multiplicá-la pela matriz do lado direito da equação.

Outras equações são resolvidas de forma semelhante.

Exemplo 2

Resolva a equação AX = B se

Solução: Como o inverso da matriz é igual (veja o exemplo 1)

Espaços lineares

Definição de espaço linear

Deixar V- um conjunto não vazio (chamaremos seus elementos de vetores e denotaremos ...), no qual as regras são estabelecidas:

1) quaisquer dois elementos correspondem ao terceiro elemento chamado soma dos elementos (operação interna);

2) cada um corresponde a um determinado elemento (operação externa).

Vários Vé chamado um espaço real linear (vetorial) se os seguintes axiomas valerem:

EU.

III. (elemento zero, tal que ).

4. (elemento oposto ao elemento ), tal que

v.

VIII. Um espaço linear complexo é definido de forma semelhante (em vez de R considerado C).

Subespaço do espaço linear

O conjunto é chamado de subespaço do espaço linear V, E se:

1)

Sistema vetorial de espaço linear eu formulários base dentro eu se este sistema de vetores for ordenado, linearmente independente, e qualquer vetor de eu é expressa linearmente em termos dos vetores do sistema.

Em outras palavras, um sistema ordenado linearmente independente de vetores e 1 , ..., e n forma a base de eu se algum vetor x a partir de eu pode ser apresentado na forma

x= C1 e 1 + C 2 e 2 + ... + C n · e n .

A base pode ser definida de forma diferente.

Qualquer sistema ordenado linearmente independente e 1 , ..., e n vetores n- espaço linear dimensional eu n constitui a base deste espaço.

Porque o n, dimensão do espaço eu n é o número máximo de vetores espaciais linearmente independentes, então o sistema de vetores x,e 1 , ..., e n linearmente dependente e, portanto, o vetor x expresso linearmente em termos de vetores e 1 , ..., e n :

x = x 1 · e 1 + x 2 e 2 + ...+ x n · e n .

Tal decomposição de um vetor em termos da base .

Teorema 1. (Sobre o número de vetores em sistemas de vetores linearmente independentes e geradores.) O número de vetores em qualquer sistema de vetores linearmente independente não excede o número de vetores em qualquer sistema gerador de vetores do mesmo vetor espaço.

Prova. Seja um sistema de vetores linearmente independente arbitrário um sistema gerador arbitrário. Vamos supor que.

Porque sistema gerador, então ele representa qualquer vetor do espaço, incluindo o vetor . Vamos adicioná-lo a este sistema. Obtemos um sistema de vetores linearmente dependente e gerador: . Então existe um vetor desse sistema que é expresso linearmente em termos dos vetores anteriores desse sistema e, em virtude do lema, ele pode ser removido do sistema, e o sistema de vetores restante ainda estará gerando.

Renumeramos o sistema de vetores restante: . Porque este sistema está gerando, então ele representa um vetor e, anexando-o a este sistema, obtemos novamente um sistema linearmente dependente e gerador: .

Então tudo se repete. Existe um vetor neste sistema, que se expressa linearmente em função dos anteriores, e este não pode ser um vetor, pois o sistema original é linearmente independente e o vetor não é expresso linearmente em termos do vetor . Portanto, só pode ser um dos vetores. Retirando-o do sistema , obtemos, após renumeração, o sistema , que será o sistema gerador. Continuando este processo, após os passos obtemos um sistema gerador de vetores: , onde , porque de acordo com nosso palpite. Isso significa que esse sistema, como gerador, também representa o vetor , o que contraria a condição de independência linear do sistema .

O teorema 1 está provado.

Teorema 2. (Sobre o número de vetores em uma base.) Em qualquer base de um vetor espaço contém o mesmo número de vetores.

Prova. Sejam e duas bases do espaço vetorial arbitrário. Qualquer base é um sistema de vetores linearmente independente e gerador.

Porque o primeiro sistema é linearmente independente, e o segundo está gerando, então, pelo Teorema 1, .

Da mesma forma, o segundo sistema é linearmente independente, e o primeiro está gerando, então . Segue-se daqui que , p.t.d.

O teorema 2 está provado.

este teorema permite introduzir a seguinte definição.

Definição. A dimensão de um espaço vetorial V sobre um corpo K é o número de vetores em sua base.

Designação: ou .

Coordenadas vetoriais são os coeficientes dos únicos possíveis combinação linear básico vetores no selecionado sistema de coordenadas igual ao vetor dado.

Uma matriz é um objeto matemático escrito como uma tabela retangular de números e que permite operações algébricas (adição, subtração, multiplicação, etc.) entre ela e outros objetos semelhantes. As regras para realizar operações em matrizes são feitas da seguinte forma,

para tornar conveniente escrever sistemas de equações lineares. Normalmente, a matriz é denotada pela letra maiúscula do alfabeto latino e é distinguida por colchetes "(...)" (também é encontrado

destacando com colchetes “[…]”, linhas retas duplas “||…||”) E os números que compõem a matriz (elementos da matriz) são denotados pela mesma letra da própria matriz, porém pequena. cada elemento da matriz tem 2 subscritos (a ij ) - o primeiro "i" significa

o número da linha em que o elemento está e o segundo "j" é o número da coluna.

Operações de matriz

Multiplicação de uma matriz A por um número

B , cujos elementos são obtidos pela multiplicação de cada elemento da matriz A por esse número, ou seja, cada elemento da matriz B é

b ij = λ a ij

Adição da matriz A

o elemento da matriz C é

c ij = a ij + b ij

Subtração da matriz A

c ij= a ij- b ij

A+Θ=A

Multiplicação da matriz(notação: AB , raramente com sinal de multiplicação) - existe uma operação para calcular a matriz C , cujos elementos são iguais à soma dos produtos dos elementos da linha correspondente do primeiro fator e da coluna do segundo.

c ij= ∑ a ikb kj

O primeiro multiplicador deve ter tantas colunas quantas são as linhas do segundo. Se a matriz A tem dimensão, B -, então a dimensão de seu produto AB = C

há . A multiplicação de matrizes não é comutativa. Isso pode ser visto pelo menos pelo fato de que, se as matrizes não são quadradas, você só pode multiplicar uma pela outra, mas não vice-versa. Por

matrizes quadradas, o resultado da multiplicação depende da ordem dos fatores.

Apenas matrizes quadradas podem ser elevadas a uma potência.

Matriz de identidade

Para matrizes quadradas, existe matriz de identidade E tal que qualquer multiplicação

matriz nele não afeta o resultado, ou seja,

EA=AE=A

A matriz identidade tem unidades apenas em

diagonais, outros elementos são iguais a zero

Para algumas matrizes quadradas pode-se encontrar as chamadasmatriz inversa.

A matriz inversa A - 1 é tal que se você multiplicar a matriz por ela, obtém a matriz identidade

AA − 1 = E

A matriz inversa nem sempre existe. Matrizes para as quais existe a inversa são chamadas

não degenerado, e para o qual não é - degenerado. Uma matriz é não degenerada se todas as suas linhas (colunas) são linearmente independentes como vetores. Número máximo de linhas linearmente independentes

(colunas) é chamado de posto da matriz. O determinante (determinante) de uma matriz é um funcional linear assimétrico normalizado nas linhas de uma matriz. Matriz

é degenerado se e somente se seu determinante é zero.

Propriedades da Matriz

1. A + (B + C ) = (A + B ) + C

2.A+B=B+A

3. A (BC) = (AB)C

4.A(B+C)=AB+AC

5. (B + C) A = BA + CA

9. Matriz Simétrica A é positivo definido (A > 0) se os valores de todos os seus ângulos principais forem menores A k > 0

10. Matriz Simétrica A é negativo definido (A< 0), если матрица (−A )

é positivo-definido, isto é, se para qualquer k o menor principal de k-ésima ordem A k tem o sinal (− 1)k

Sistemas de equações lineares

Um sistema de m equações com n incógnitas

a11 x1 +a12 x2 +…+a1n xn =b1 a21x1 +a22 x2 +…+a2n xn =b2

am x1 + am x2 +…+am xn = bm

pode ser representado em forma de matriz

e então todo o sistema pode ser escrito assim: AX =B

Operações de matriz

Sejam a ij elementos da matriz A e b ij a matriz B .

Multiplicação de uma matriz A por um númeroλ (notação: λA ) é construir uma matriz

B , cujos elementos são obtidos pela multiplicação de cada elemento da matriz A por este número, ou seja, cada elemento da matriz B é b ij = λa ij

Vamos escrever a matriz A

Multiplique o primeiro elemento da matriz A por 2

Adição da matriz A+ B é a operação de encontrar uma matriz C , cujos elementos são todos iguais na soma aos pares de todos os elementos correspondentes das matrizes A e B , ou seja, cada

o elemento da matriz C é

c ij = a ij + b ij

А+В Vamos escrever as matrizes А e В

Realize a adição dos primeiros elementos das matrizes

Estique os valores, primeiro horizontalmente e depois verticalmente (você pode vice-versa)

Subtração da matriz A− B é definido de forma semelhante à adição, é a operação de encontrar uma matriz C cujos elementos

c ij= a ij- b ij

Adição e subtração são permitidas apenas para matrizes do mesmo tamanho.

Existe uma matriz zero Θ tal que sua adição a outra matriz A não altera A, ou seja.

A+Θ=A

Todos os elementos da matriz zero são iguais a zero.

Este tópico é um dos mais odiados entre os estudantes. Pior, provavelmente, apenas determinantes.

O truque é que o próprio conceito de elemento inverso (e não estou falando apenas de matrizes agora) nos remete à operação de multiplicação. Mesmo no currículo escolar, a multiplicação é considerada uma operação complexa, e a multiplicação de matrizes geralmente é um tópico separado, ao qual tenho um parágrafo inteiro e uma vídeo-aula dedicados a ele.

Hoje não entraremos nos detalhes dos cálculos matriciais. Apenas lembre-se: como as matrizes são denotadas, como elas são multiplicadas e o que se segue disso.

Revisão: Multiplicação de Matrizes

Em primeiro lugar, vamos concordar com a notação. Uma matriz $A$ de tamanho $\left[ m\times n \right]$ é simplesmente uma tabela de números com exatamente $m$ linhas e $n$ colunas:

\=\underbrace(\left[ \begin(matrix) ((a)_(11)) & ((a)_(12)) & ... & ((a)_(1n)) \\ (( a)_(21)) & ((a)_(22)) & ... & ((a)_(2n)) \\ ... & ... & ... & ... \\ ((a)_(m1)) & ((a)_(m2)) & ... & ((a)_(mn)) \\\end(matrix) \right])_(n)\]

Para não confundir acidentalmente linhas e colunas em lugares (acredite, no exame você pode confundir um com um deuce - o que podemos dizer sobre algumas linhas lá), basta dar uma olhada na foto:

Determinação de índices para células de matriz

O que está acontecendo? Se colocarmos o sistema de coordenadas padrão $OXY$ no canto superior esquerdo e direcionarmos os eixos para que eles cubram toda a matriz, então cada célula desta matriz pode ser associada exclusivamente às coordenadas $\left(x;y \right) $ - este será o número da linha e o número da coluna.

Por que o sistema de coordenadas está localizado exatamente no canto superior esquerdo? Sim, porque é a partir daí que começamos a ler quaisquer textos. É muito fácil de lembrar.

Por que o eixo $x$ está apontando para baixo e não para a direita? Novamente, é simples: pegue o sistema de coordenadas padrão (o eixo $x$ vai para a direita, o eixo $y$ vai para cima) e gire-o para que ele envolva a matriz. Esta é uma rotação de 90 graus no sentido horário - vemos seu resultado na imagem.

Em geral, descobrimos como determinar os índices dos elementos da matriz. Agora vamos lidar com a multiplicação.

Definição. As matrizes $A=\left[ m\times n \right]$ e $B=\left[ n\times k \right]$, quando o número de colunas da primeira corresponde ao número de linhas da segunda, são chamado consistente.

Está nessa ordem. Pode-se ser ambíguo e dizer que as matrizes $A$ e $B$ formam um par ordenado $\left(A;B \right)$: se forem consistentes nesta ordem, então não é necessário que $B $ e $A$, esses. o par $\left(B;A \right)$ também é consistente.

Somente matrizes consistentes podem ser multiplicadas.

Definição. O produto de matrizes consistentes $A=\left[ m\times n \right]$ e $B=\left[ n\times k \right]$ é a nova matriz $C=\left[ m\times k \right ]$ , cujos elementos $((c)_(ij))$ são calculados pela fórmula:

\[((c)_(ij))=\sum\limits_(k=1)^(n)(((a)_(ik)))\cdot ((b)_(kj))\]

Em outras palavras: para obter o elemento $((c)_(ij))$ da matriz $C=A\cdot B$, você precisa pegar a linha $i$ da primeira matriz, o $j$ -th coluna da segunda matriz e, em seguida, multiplique em pares os elementos desta linha e coluna. Some os resultados.

Sim, essa é uma definição dura. Vários fatos decorrem imediatamente disso:

  1. A multiplicação de matrizes é, em geral, não comutativa: $A\cdot B\ne B\cdot A$;
  2. No entanto, a multiplicação é associativa: $\left(A\cdot B \right)\cdot C=A\cdot \left(B\cdot C \right)$;
  3. E até mesmo distributiva: $\left(A+B \right)\cdot C=A\cdot C+B\cdot C$;
  4. E distributiva novamente: $A\cdot \left(B+C \right)=A\cdot B+A\cdot C$.

A distributividade da multiplicação teve que ser descrita separadamente para a soma multiplicadora esquerda e direita apenas por causa da não comutatividade da operação de multiplicação.

Se, no entanto, ocorrer que $A\cdot B=B\cdot A$, tais matrizes são chamadas permutáveis.

Entre todas as matrizes que são multiplicadas por algo lá, existem algumas especiais - aquelas que, quando multiplicadas por qualquer matriz $A$, novamente dão $A$:

Definição. Uma matriz $E$ é chamada identidade se $A\cdot E=A$ ou $E\cdot A=A$. No caso de uma matriz quadrada $A$ podemos escrever:

A matriz identidade é uma convidada frequente na resolução de equações matriciais. E em geral, um convidado frequente no mundo das matrizes. :)

E por causa desse $E$, alguém veio com todo o jogo que será escrito a seguir.

O que é uma matriz inversa

Como a multiplicação de matrizes é uma operação muito demorada (você tem que multiplicar um monte de linhas e colunas), o conceito de matriz inversa também não é o mais trivial. E precisa de alguma explicação.

Definição de chave

Bem, é hora de saber a verdade.

Definição. A matriz $B$ é chamada de inversa da matriz $A$ se

A matriz inversa é denotada por $((A)^(-1))$ (não confundir com o grau!), então a definição pode ser reescrita assim:

Parece que tudo é extremamente simples e claro. Mas ao analisar tal definição, surgem imediatamente várias questões:

  1. Sempre existe uma matriz inversa? E se nem sempre, então como determinar: quando existe e quando não existe?
  2. E quem disse que tal matriz é exatamente uma? E se para alguma matriz original $A$ houver uma multidão de inversas?
  3. Como são todos esses "reversos"? E como você realmente os conta?

Quanto aos algoritmos de cálculo - falaremos sobre isso um pouco mais tarde. Mas vamos responder o resto das perguntas agora. Vamos organizá-los na forma de asserções-lemas separadas.

Propriedades básicas

Vamos começar com a aparência da matriz $A$ para que ela tenha $((A)^(-1))$. Agora vamos garantir que ambas as matrizes sejam quadradas e do mesmo tamanho: $\left[ n\times n \right]$.

Lema 1. Dada uma matriz $A$ e sua inversa $((A)^(-1))$. Então essas duas matrizes são quadradas e têm a mesma ordem $n$.

Prova. Tudo é simples. Seja a matriz $A=\left[ m\times n \right]$, $((A)^(-1))=\left[ a\times b \right]$. Como o produto $A\cdot ((A)^(-1))=E$ existe por definição, as matrizes $A$ e $((A)^(-1))$ são consistentes nessa ordem:

\[\begin(align) & \left[ m\times n \right]\cdot \left[ a\times b \right]=\left[ m\times b \right] \\ & n=a \end( alinhar)\]

Esta é uma consequência direta do algoritmo de multiplicação de matrizes: os coeficientes $n$ e $a$ são "trânsito" e devem ser iguais.

Ao mesmo tempo, a multiplicação inversa também é definida: $((A)^(-1))\cdot A=E$, então as matrizes $((A)^(-1))$ e $A$ são também consistente nesta ordem:

\[\begin(align) & \left[ a\times b \right]\cdot \left[ m\times n \right]=\left[ a\times n \right] \\ & b=m \end( alinhar)\]

Assim, sem perda de generalidade, podemos assumir que $A=\left[ m\times n \right]$, $((A)^(-1))=\left[ n\times m \right]$. No entanto, de acordo com a definição de $A\cdot ((A)^(-1))=((A)^(-1))\cdot A$, as dimensões das matrizes são exatamente as mesmas:

\[\begin(align) & \left[ m\times n \right]=\left[ n\times m \right] \\ & m=n \end(align)\]

Então acontece que todas as três matrizes - $A$, $((A)^(-1))$ e $E$ - são quadradas em tamanho $\left[ n\times n \right]$. O lema está provado.

Bem, isso já é bom. Vemos que apenas matrizes quadradas são invertíveis. Agora vamos garantir que a matriz inversa seja sempre a mesma.

Lema 2. Dada uma matriz $A$ e sua inversa $((A)^(-1))$. Então esta matriz inversa é única.

Prova. Vamos começar pelo oposto: deixe a matriz $A$ ter pelo menos duas instâncias de inversas — $B$ e $C$. Então, de acordo com a definição, as seguintes igualdades são verdadeiras:

\[\begin(alinhar) & A\cdot B=B\cdot A=E; \\ & A\cdot C=C\cdot A=E. \\ \end(alinhar)\]

Do Lema 1 concluímos que todas as quatro matrizes $A$, $B$, $C$ e $E$ são quadradas da mesma ordem: $\left[ n\times n \right]$. Portanto, o produto é definido:

Como a multiplicação de matrizes é associativa (mas não comutativa!), podemos escrever:

\[\begin(align) & B\cdot A\cdot C=\left(B\cdot A \right)\cdot C=E\cdot C=C; \\ & B\cdot A\cdot C=B\cdot \left(A\cdot C \right)=B\cdot E=B; \\ & B\cdot A\cdot C=C=B\Rightarrow B=C. \\ \end(alinhar)\]

Temos a única opção possível: duas cópias da matriz inversa são iguais. O lema está provado.

O raciocínio acima repete quase literalmente a prova da unicidade do elemento inverso para todos os números reais $b\ne 0$. A única adição significativa é levar em conta a dimensão das matrizes.

No entanto, ainda não sabemos nada sobre se alguma matriz quadrada é invertível. Aqui o determinante vem em nosso auxílio - esta é uma característica chave para todas as matrizes quadradas.

Lema 3. Dada uma matriz $A$. Se a matriz $((A)^(-1))$ inversa a ela existir, então o determinante da matriz original é diferente de zero:

\[\esquerda| A \direito|\ne 0\]

Prova. Já sabemos que $A$ e $((A)^(-1))$ são matrizes quadradas de tamanho $\left[ n\times n \right]$. Portanto, para cada um deles é possível calcular o determinante: $\left| A \right|$ e $\left| ((A)^(-1)) \direito|$. No entanto, o determinante do produto é igual ao produto dos determinantes:

\[\esquerda| A\cdot B \right|=\left| A \right|\cdot \left| B \right|\Rightarrow \left| A\cdot ((A)^(-1)) \right|=\left| A \right|\cdot \left| ((A)^(-1)) \direito|\]

Mas de acordo com a definição de $A\cdot ((A)^(-1))=E$, e o determinante de $E$ é sempre igual a 1, então

\[\begin(align) & A\cdot ((A)^(-1))=E; \\ & \esquerda| A\cdot ((A)^(-1)) \right|=\left| E\direito|; \\ & \esquerda| A \right|\cdot \left| ((A)^(-1)) \direito|=1. \\ \end(alinhar)\]

O produto de dois números é igual a um somente se cada um desses números for diferente de zero:

\[\esquerda| A \right|\ne 0;\quad \left| ((A)^(-1)) \right|\ne 0.\]

Então acontece que $\left| A \right|\ne 0$. O lema está provado.

Na verdade, esse requisito é bastante lógico. Agora vamos analisar o algoritmo para encontrar a matriz inversa - e ficará completamente claro por que, em princípio, nenhuma matriz inversa pode existir com um determinante zero.

Mas primeiro, vamos formular uma definição "auxiliar":

Definição. Uma matriz degenerada é uma matriz quadrada de tamanho $\left[ n\times n \right]$ cujo determinante é zero.

Assim, podemos afirmar que qualquer matriz invertível é não degenerada.

Como encontrar a matriz inversa

Agora vamos considerar um algoritmo universal para encontrar matrizes inversas. Em geral, existem dois algoritmos geralmente aceitos e também consideraremos o segundo hoje.

A que será considerada agora é muito eficiente para matrizes de tamanho $\left[ 2\times 2 \right]$ e - em parte - de tamanho $\left[ 3\times 3 \right]$. Mas a partir do tamanho $\left[ 4\times 4 \right]$ é melhor não usá-lo. Por que - agora você vai entender tudo.

Adições algébricas

Prepare-se. Agora haverá dor. Não, não se preocupe: uma linda enfermeira de saia, meias com renda não vem até você e não lhe dá uma injeção na nádega. Tudo é muito mais prosaico: adições algébricas e Sua Majestade a "Matriz da União" estão chegando até você.

Vamos começar com o principal. Seja uma matriz quadrada de tamanho $A=\left[ n\times n \right]$ cujos elementos são nomeados $((a)_(ij))$. Então, para cada um desses elementos, pode-se definir um complemento algébrico:

Definição. Complemento algébrico $((A)_(ij))$ ao elemento $((a)_(ij))$ na $i$-th linha e $j$-th coluna da matriz $A=\left [ n \times n \right]$ é uma construção da forma

\[((A)_(ij))=((\left(-1 \right))^(i+j))\cdot M_(ij)^(*)\]

Onde $M_(ij)^(*)$ é o determinante da matriz obtida do $A$ original excluindo a mesma $i$-ésima linha e $j$-ésima coluna.

Novamente. O complemento algébrico para o elemento da matriz com coordenadas $\left(i;j \right)$ é denotado como $((A)_(ij))$ e é calculado de acordo com o esquema:

  1. Primeiro, excluímos a $i$-row e a $j$-th coluna da matriz original. Obtemos uma nova matriz quadrada e denotamos seu determinante como $M_(ij)^(*)$.
  2. Em seguida, multiplicamos esse determinante por $((\left(-1 \right))^(i+j))$ - a princípio essa expressão pode parecer alucinante, mas na verdade acabamos de descobrir o sinal na frente de $ M_(ij)^(*) $.
  3. Contamos - obtemos um número específico. Aqueles. a adição algébrica é apenas um número, não uma nova matriz, e assim por diante.

A própria matriz $M_(ij)^(*)$ é chamada de menor complementar ao elemento $((a)_(ij))$. E nesse sentido, a definição acima de um complemento algébrico é um caso especial de uma definição mais complexa - aquela que consideramos na lição sobre o determinante.

Nota importante. Na verdade, na matemática "adulta", as adições algébricas são definidas da seguinte forma:

  1. Tomamos $k$ linhas e $k$ colunas em uma matriz quadrada. Em sua interseção, obtemos uma matriz de tamanho $\left[ k\times k \right]$ — seu determinante é chamado de menor de ordem $k$ e é denotado por $((M)_(k))$.
  2. Em seguida, riscamos essas linhas $k$ "selecionadas" e colunas $k$. Novamente, obtemos uma matriz quadrada - seu determinante é chamado de menor complementar e é denotado por $M_(k)^(*)$.
  3. Multiplique $M_(k)^(*)$ por $((\left(-1 \right))^(t))$, onde $t$ é (atenção agora!) a soma dos números de todas as linhas selecionadas e colunas. Esta será a adição algébrica.

Dê uma olhada no terceiro passo: na verdade, há uma soma de $ 2k$ termos! Outra coisa é que para $k=1$ temos apenas 2 termos - estes serão os mesmos $i+j$ - as "coordenadas" do elemento $((a)_(ij))$, para o qual estamos procurando um complemento algébrico.

Então, hoje usamos uma definição ligeiramente simplificada. Mas, como veremos mais adiante, será mais do que suficiente. Muito mais importante é o seguinte:

Definição. A matriz união $S$ com a matriz quadrada $A=\left[ n\times n \right]$ é uma nova matriz de tamanho $\left[ n\times n \right]$, que é obtida de $A$ substituindo $(( a)_(ij))$ por complementos algébricos $((A)_(ij))$:

\\Rightarrow S=\left[ \begin(matrix) ((A)_(11)) & ((A)_(12)) & ... & ((A)_(1n)) \\ (( A)_(21)) & ((A)_(22)) & ... & ((A)_(2n)) \\ ... & ... & ... & ... \\ ((A)_(n1)) & ((A)_(n2)) & ... & ((A)_(nn)) \\\ end(matrix) \right]\]

O primeiro pensamento que surge no momento de perceber essa definição é “isso é o quanto você tem que contar no total!” Relaxa: tem que contar, mas nem tanto. :)

Bem, tudo isso é muito bom, mas por que é necessário? Mas por que.

Teorema principal

Vamos voltar um pouco. Lembre-se, o Lema 3 afirmou que uma matriz invertível $A$ é sempre não-singular (ou seja, seu determinante é diferente de zero: $\left| A \right|\ne 0$).

Assim, a recíproca também é verdadeira: se a matriz $A$ não é degenerada, então ela é sempre invertível. E existe até um esquema de busca $((A)^(-1))$. Confira:

Teorema da matriz inversa. Seja uma matriz quadrada $A=\left[ n\times n \right]$ e seu determinante seja diferente de zero: $\left| A \right|\ne 0$. Então a matriz inversa $((A)^(-1))$ existe e é calculada pela fórmula:

\[((A)^(-1))=\frac(1)(\left| A \right|)\cdot ((S)^(T))\]

E agora - tudo a mesma coisa, mas em caligrafia legível. Para encontrar a matriz inversa, você precisa:

  1. Calcule o determinante $\left| A \right|$ e certifique-se de que é diferente de zero.
  2. Compile a matriz de união $S$, ou seja conte 100500 adições algébricas $((A)_(ij))$ e coloque-as no lugar $((a)_(ij))$.
  3. Transponha esta matriz $S$ e então multiplique-a por algum número $q=(1)/(\left| A \right|)\;$.

E é isso! A matriz inversa $((A)^(-1))$ é encontrada. Vejamos exemplos:

\[\left[ \begin(matrix) 3 & 1 \\ 5 & 2 \\\end(matrix) \right]\]

Solução. Vamos verificar a reversibilidade. Vamos calcular o determinante:

\[\esquerda| A \direita|=\esquerda| \begin(matrix) 3 & 1 \\ 5 & 2 \\\end(matrix) \right|=3\cdot 2-1\cdot 5=6-5=1\]

O determinante é diferente de zero. Portanto, a matriz é invertível. Vamos criar uma matriz de união:

Vamos calcular as adições algébricas:

\[\begin(align) & ((A)_(11))=((\left(-1 \right))^(1+1))\cdot \left| 2\direita|=2; \\ & ((A)_(12))=((\left(-1 \right))^(1+2))\cdot \left| 5\direita|=-5; \\ & ((A)_(21))=((\left(-1 \right))^(2+1))\cdot \left| 1 \direito|=-1; \\ & ((A)_(22))=((\left(-1 \right))^(2+2))\cdot \left| 3\direita|=3. \\ \end(alinhar)\]

Preste atenção: determinantes |2|, |5|, |1| e |3| são os determinantes de matrizes de tamanho $\left[ 1\times 1 \right]$, não módulos. Aqueles. se houver números negativos nos determinantes, não é necessário remover o "menos".

No total, nossa matriz de união fica assim:

\[((A)^(-1))=\frac(1)(\left| A \right|)\cdot ((S)^(T))=\frac(1)(1)\cdot ( (\left[ \begin(array)(*(35)(r)) 2 & -5 \\ -1 & 3 \\\end(array) \right])^(T))=\left[ \begin (array)(*(35)(r)) 2 & -1 \\ -5 & 3 \\\end(array) \right]\]

OK, está tudo acabado Agora. Problema resolvido.

Responda. $\left[ \begin(array)(*(35)(r)) 2 & -1 \\ -5 & 3 \\\end(array) \right]$

Uma tarefa. Encontre a matriz inversa:

\[\left[ \begin(array)(*(35)(r)) 1 & -1 & 2 \\ 0 & 2 & -1 \\ 1 & 0 & 1 \\\end(array) \right] \]

Solução. Novamente, consideramos o determinante:

\[\begin(alinhar) & \left| \begin(array)(*(35)(r)) 1 & -1 & 2 \\ 0 & 2 & -1 \\ 1 & 0 & 1 \\\end(array) \right|=\begin(matrix ) \left(1\cdot 2\cdot 1+\left(-1 \right)\cdot \left(-1 \right)\cdot 1+2\cdot 0\cdot 0 \right)- \\ -\left (2\cdot 2\cdot 1+\left(-1 \right)\cdot 0\cdot 1+1\cdot \left(-1 \right)\cdot 0 \right) \\\end(matrix)= \ \ & =\left(2+1+0 \right)-\left(4+0+0 \right)=-1\ne 0. \\ \end(align)\]

O determinante é diferente de zero — a matriz é invertível. Mas agora será o mais pequeno: você tem que contar até 9 (nove, caramba!) Adições algébricas. E cada um deles conterá o qualificador $\left[ 2\times 2 \right]$. Voou:

\[\begin(matrix) ((A)_(11))=((\left(-1 \right))^(1+1))\cdot \left| \begin(matriz) 2 & -1 \\ 0 & 1 \\\end(matriz) \right|=2; \\ ((A)_(12))=((\left(-1 \right))^(1+2))\cdot \left| \begin(matriz) 0 & -1 \\ 1 & 1 \\\end(matriz) \right|=-1; \\ ((A)_(13))=((\left(-1 \right))^(1+3))\cdot \left| \begin(matriz) 0 & 2 \\ 1 & 0 \\\end(matriz) \right|=-2; \\ ... \\ ((A)_(33))=((\left(-1 \right))^(3+3))\cdot \left| \begin(matriz) 1 & -1 \\ 0 & 2 \\\end(matriz) \right|=2; \\ \end(matriz)\]

Em resumo, a matriz de união ficará assim:

Portanto, a matriz inversa será:

\[((A)^(-1))=\frac(1)(-1)\cdot \left[ \begin(matrix) 2 & -1 & -2 \\ 1 & -1 & -1 \\ -3 & 1 & 2 \\\end(matrix) \right]=\left[ \begin(array)(*(35)(r))-2 & -1 & 3 \\ 1 & 1 & -1 \ \ 2 & 1 & -2 \\\end(array) \right]\]

Bom, isso é tudo. Aqui está a resposta.

Responda. $\left[ \begin(array)(*(35)(r)) -2 & -1 & 3 \\ 1 & 1 & -1 \\ 2 & 1 & -2 \\\end(array) \right ]$

Como você pode ver, ao final de cada exemplo, realizamos uma verificação. A este respeito, uma nota importante:

Não tenha preguiça de verificar. Multiplique a matriz original pelo inverso encontrado - você deve obter $E$.

É muito mais fácil e rápido realizar essa verificação do que procurar um erro em cálculos posteriores, quando, por exemplo, você resolve uma equação matricial.

Caminho alternativo

Como eu disse, o teorema da matriz inversa funciona bem para os tamanhos $\left[ 2\times 2 \right]$ e $\left[ 3\times 3 \right]$ (no último caso, não é tão "bonito" mais). ”), mas para matrizes grandes, começa a tristeza.

Mas não se preocupe: existe um algoritmo alternativo que pode ser usado para encontrar calmamente a inversa mesmo para a matriz $\left[ 10\times 10 \right]$. Mas, como costuma acontecer, para considerar esse algoritmo, precisamos de um pouco de embasamento teórico.

Transformações elementares

Entre as várias transformações da matriz, existem várias especiais - são chamadas de elementares. Existem exatamente três dessas transformações:

  1. Multiplicação. Você pode pegar a linha $i$-th (coluna) e multiplicá-la por qualquer número $k\ne 0$;
  2. Adição. Adicione à linha $i$-th (coluna) qualquer outra linha $j$-th (coluna) multiplicada por qualquer número $k\ne 0$ (claro, $k=0$ também é possível, mas qual é o ponto disso? ?Nada vai mudar embora).
  3. Permutação. Pegue as linhas $i$-th e $j$-th (colunas) e troque-as.

Por que essas transformações são chamadas de elementares (para matrizes grandes, elas não parecem tão elementares) e por que existem apenas três delas - essas questões estão além do escopo da lição de hoje. Portanto, não entraremos em detalhes.

Outra coisa é importante: temos que realizar todas essas perversões na matriz associada. Sim, sim, você ouviu direito. Agora haverá mais uma definição - a última da lição de hoje.

Matriz Anexada

Certamente na escola você resolveu sistemas de equações usando o método de adição. Bem, subtraia outra de uma linha, multiplique uma linha por um número - isso é tudo.

Então: agora tudo será igual, mas já “de forma adulta”. Preparar?

Definição. Seja a matriz $A=\left[ n\times n \right]$ e a matriz identidade $E$ de mesmo tamanho $n$. Então a matriz associada $\left[ A\left| E\certo. \right]$ é uma nova matriz $\left[ n\times 2n \right]$ que se parece com isso:

\[\esquerda[ A\esquerda| E\certo. \right]=\left[ \begin(array)(rrrr|rrrr)((a)_(11)) & ((a)_(12)) & ... & ((a)_(1n)) & 1 & 0 & ... & 0 \\((a)_(21)) & ((a)_(22)) & ... & ((a)_(2n)) & 0 & 1 & ... & 0 \\... & ... & ... & ... & ... & ... & ... & ... \\((a)_(n1)) & ((a)_(n2)) & ... & ((a)_(nn)) & 0 & 0 & ... & 1 \\\end(array) \right]\]

Resumindo, pegamos a matriz $A$, à direita atribuímos a ela a matriz identidade $E$ do tamanho necessário, separamos com uma barra vertical para beleza - aqui está a anexada. :)

Qual é o problema? E aqui está o que:

Teorema. Seja a matriz $A$ invertível. Considere a matriz adjunta $\left[ A\left| E\certo. \direito]$. Se estiver usando transformações elementares de strings coloque-o no formato $\left[ E\left| Brilhante. \right]$, ou seja multiplicando, subtraindo e reorganizando linhas para obter de $A$ a matriz $E$ à direita, então a matriz $B$ obtida à esquerda é o inverso de $A$:

\[\esquerda[ A\esquerda| E\certo. \right]\to \left[ E\left| Brilhante. \right]\Rightarrow B=((A)^(-1))\]

É simples assim! Resumindo, o algoritmo para encontrar a matriz inversa é assim:

  1. Escreva a matriz associada $\left[ A\left| E\certo. \direito]$;
  2. Realize conversões elementares de strings até que a direita em vez de $A$ apareça $E$;
  3. Claro, algo também aparecerá à esquerda - uma certa matriz $B$. Este será o inverso;
  4. LUCROS! :)

Claro, muito mais fácil falar do que fazer. Vejamos alguns exemplos: para os tamanhos $\left[ 3\times 3 \right]$ e $\left[ 4\times 4 \right]$.

Uma tarefa. Encontre a matriz inversa:

\[\left[ \begin(array)(*(35)(r)) 1 & 5 & 1 \\ 3 & 2 & 1 \\ 6 & -2 & 1 \\\end(array) \right]\ ]

Solução. Compomos a matriz em anexo:

\[\left[ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 3 & 2 & 1 & 0 & 1 & 0 \\ 6 & -2 & 1 & 0 & 0 & 1 \\\end(array) \right]\]

Como a última coluna da matriz original é preenchida com uns, subtraia a primeira linha do resto:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 3 & 2 & 1 & 0 & 1 & 0 \\ 6 & - 2 & 1 & 0 & 0 & 1 \\\end(array) \right]\begin(matrix) \downarrow \\ -1 \\ -1 \\\end(matrix)\to \\ & \to \left [ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 5 & -7 & 0 & -1 & 0 & 1 \\\end(array) \right] \\ \end(align)\]

Não há mais unidades, exceto para a primeira linha. Mas não tocamos nele, caso contrário, as unidades recém-removidas começarão a "multiplicar" na terceira coluna.

Mas podemos subtrair a segunda linha duas vezes da última - obtemos uma unidade no canto inferior esquerdo:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 5 & -7 & 0 & -1 & 0 & 1 \\\end(array) \right]\begin(matrix) \ \\ \downarrow \\ -2 \\\end(matrix)\to \\ & \left [ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right] \\ \end(align)\]

Agora podemos subtrair a última linha da primeira e duas vezes da segunda - desta forma, “zeraremos” a primeira coluna:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right]\begin(matrix) -1 \\ -2 \\ \uparrow \\\end(matrix)\to \\ & \ para \left[ \begin(array)(rrr|rrr) 0 & 6 & 1 & 0 & 2 & -1 \\ 0 & -1 & 0 & -3 & 5 & -2 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right] \\ \end(align)\]

Multiplique a segunda linha por -1 e, em seguida, subtraia 6 vezes da primeira e adicione 1 vez à última:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 0 & 6 & 1 & 0 & 2 & -1 \\ 0 & -1 & 0 & -3 & 5 & -2 \ \ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right]\begin(matrix) \ \\ \left| \cdot \left(-1 \right) \right. \\ \ \\\end(matrix)\to \\ & \to \left[ \begin(array)(rrr|rrr) 0 & 6 & 1 & 0 & 2 & -1 \\ 0 & 1 & 0 & 3 & -5 & 2 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right]\begin(matrix) -6 \\ \updownarrow \\ +1 \\\end (matriz)\to \\ & \to \left[ \begin(array)(rrr|rrr) 0 & 0 & 1 & -18 & 32 & -13 \\ 0 & 1 & 0 & 3 & -5 & 2 \\ 1 & 0 & 0 & 4 & -7 & 3 \\\end(array) \right] \\ \end(align)\]

Resta apenas trocar as linhas 1 e 3:

\[\left[ \begin(array)(rrr|rrr) 1 & 0 & 0 & 4 & -7 & 3 \\ 0 & 1 & 0 & 3 & -5 & 2 \\ 0 & 0 & 1 & - 18 & 32 & -13 \\\end(array) \right]\]

Preparar! À direita está a matriz inversa necessária.

Responda. $\left[ \begin(array)(*(35)(r))4 & -7 & 3 \\ 3 & -5 & 2 \\ -18 & 32 & -13 \\\end(array) \right ]$

Uma tarefa. Encontre a matriz inversa:

\[\left[ \begin(matrix) 1 & 4 & 2 & 3 \\ 1 & -2 & 1 & -2 \\ 1 & -1 & 1 & 1 \\ 0 & -10 & -2 & -5 \\\end(matriz) \right]\]

Solução. Novamente compomos o anexo:

\[\left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 1 & -2 & 1 & -2 & 0 & 1 & 0 & 0 \ \ 1 & -1 & 1 & 1 & 0 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\\end(array) \right]\]

Vamos pegar emprestado um pouco, se preocupar com o quanto temos que contar agora... e começar a contar. Para começar, “zeramos” a primeira coluna subtraindo a linha 1 das linhas 2 e 3:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 1 & -2 & 1 & -2 & 0 & 1 & 0 & 0 \\ 1 & -1 & 1 & 1 & 0 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\\ end(array) \right]\begin(matrix) \downarrow \\ -1 \\ -1 \\ \ \\\end(matrix)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 0 & -6 & -1 & -5 & -1 & 1 & 0 & 0 \\ 0 & -5 & -1 & -2 & -1 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\\end(array) \right] \\ \end(align)\]

Observamos muitos "menos" nas linhas 2-4. Multiplique todas as três linhas por -1 e, em seguida, queime a terceira coluna subtraindo a linha 3 do resto:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 0 & -6 & -1 & -5 & - 1 & 1 & 0 & 0 \\ 0 & -5 & -1 & -2 & -1 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\ \end(array) \right]\begin(matriz) \ \\ \left| \cdot \left(-1 \right) \right. \\ \esquerda| \cdot \left(-1 \right) \right. \\ \esquerda| \cdot \left(-1 \right) \right. \\\end(matrix)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 0 & 6 & 1 & 5 & ​​1 & -1 & 0 & 0 \\ 0 & 5 & 1 & 2 & 1 & 0 & -1 & 0 \\ 0 & 10 & 2 & 5 & 0 & 0 & 0 & -1 \\ \end (array) \right]\begin(matrix) -2 \\ -1 \\ \updownarrow \\ -2 \\\end(matrix)\to \\ & \to \left[ \begin(array)( rrrr| rrrr) 1 & -6 & 0 & -1 & -1 & 0 & 2 & 0 \\ 0 & 1 & 0 & 3 & 0 & -1 & 1 & 0 \\ 0 & 5 & 1 & 2 & 1 & 0 & -1 & 0 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array) \right] \\ \end(align)\]

Agora é hora de "fritar" a última coluna da matriz original: subtraia a linha 4 do resto:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & -6 & 0 & -1 & -1 & 0 & 2 & 0 \\ 0 & 1 & 0 & 3 & 0 & -1 & 1 & 0 \\ 0 & 5 & 1 & 2 & 1 & 0 & -1 & 0 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array ) \right]\begin(matrix) +1 \\ -3 \\ -2 \\ \uparrow \\\end(matrix)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 & -6 & 0 & 0 & -3 & 0 & 4 & -1 \\ 0 & 1 & 0 & 0 & 6 & -1 & -5 & 3 \\ 0 & 5 & 1 & 0 & 5 & 0 & -5 & 2 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array) \right] \\ \end(align)\]

Rolagem final: "queime" a segunda coluna subtraindo a linha 2 da linha 1 e 3:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & -6 & 0 & 0 & -3 & 0 & 4 & -1 \\ 0 & 1 & 0 & 0 & 6 & -1 & -5 & 3 \\ 0 & 5 & 1 & 0 & 5 & 0 & -5 & 2 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\ end( array) \right]\begin(matrix) 6 \\ \updownarrow \\ -5 \\ \ \\\end(matrix)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 & 0 & 0 & 0 & 33 & -6 & -26 & -17 \\ 0 & 1 & 0 & 0 & 6 & -1 & -5 & 3 \\ 0 & 0 & 1 & 0 & -25 & 5 & 20 & -13 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array) \right] \\ \end(align)\]

E novamente, a matriz identidade à esquerda, então o inverso à direita. :)

Responda. $\left[ \begin(matrix) 33 & -6 & -26 & 17 \\ 6 & -1 & -5 & 3 \\ -25 & 5 & 20 & -13 \\ -2 & 0 & 2 & - 1 \\\end(matriz) \right]$