Was bedeutet e in der Matrix. So finden Sie die inverse Matrix

Also, Dienste zum Lösen von Matrizen online:

Mit dem Matrixdienst können Sie elementare Transformationen von Matrizen durchführen.
Wenn Sie eine Aufgabe haben, eine komplexere Transformation durchzuführen, sollte dieser Dienst als Konstruktor verwendet werden.

Beispiel. Matrixdaten EIN und B, ich muss finden C = EIN -1 * B + B T ,

  1. Sie sollten zuerst finden inverse MatrixA1 = EIN-1 , unter Verwendung des Dienstes zum Finden der inversen Matrix ;
  2. Weiter nach dem Finden der Matrix A1 Tu es Matrix-MultiplikationA2 = A1 * B, Verwendung des Dienstes für die Matrixmultiplikation;
  3. Machen wir das MatrixtranspositionA3 = B T (Dienst zum Finden der transponierten Matrix);
  4. Und das letzte - finden Sie die Summe der Matrizen AUS = A2 + A3(Dienst zur Berechnung der Summe von Matrizen) - und wir erhalten eine Antwort mit der detailliertesten Lösung!;

Produkt von Matrizen

Dies ist ein Online-Dienst Zwei schritte:

  • Geben Sie die erste Faktormatrix ein EIN
  • Geben Sie die zweite Faktormatrix oder den Spaltenvektor ein B

Multiplikation einer Matrix mit einem Vektor

Die Multiplikation einer Matrix mit einem Vektor kann über den Dienst gefunden werden Matrix-Multiplikation
(Der erste Faktor ist die gegebene Matrix, der zweite Faktor ist die Spalte, die aus den Elementen des gegebenen Vektors besteht.)

Dies ist ein Online-Dienst Zwei schritte:

  • Matrix eingeben EIN, für die Sie die inverse Matrix finden müssen
  • Erhalten Sie eine Antwort mit einer detaillierten Lösung zum Finden der inversen Matrix

Matrixdeterminante

Dies ist ein Online-Dienst ein Schritt:

  • Matrix eingeben EIN, für die Sie die Determinante der Matrix finden müssen

Matrixtransposition

Hier können Sie dem Matrixtranspositionsalgorithmus folgen und lernen, wie Sie solche Probleme selbst lösen können.
Dies ist ein Online-Dienst ein Schritt:

  • Matrix eingeben EIN, die umgesetzt werden muss

Matrix-Rang

Dies ist ein Online-Dienst ein Schritt:

  • Matrix eingeben EIN, für die Sie den Rang finden müssen

Matrixeigenwerte und Matrixeigenvektoren

Dies ist ein Online-Dienst ein Schritt:

  • Matrix eingeben EIN, für die Sie Eigenvektoren und Eigenwerte (Eigenwerte) finden müssen

Matrix-Potenzierung

Dies ist ein Online-Dienst Zwei schritte:

  • Matrix eingeben EIN, die an die Macht erhoben werden
  • Geben Sie eine Ganzzahl ein q- Grad
Dienstzuweisung. Der Matrizenrechner wurde entwickelt, um lineare Gleichungssysteme auf Matrizenbasis zu lösen (siehe Beispiel zur Lösung ähnlicher Probleme).

Anweisung. Für eine Online-Lösung müssen Sie den Gleichungstyp auswählen und die Dimension der entsprechenden Matrizen einstellen.

Art der Gleichung: A X = B XA = B A X B = C
Dimension der Matrix A
Dimension der Matrix B 1 2 3 4 5 6 7 8 9 10 x 1 2 3 4 5 6 7 8 9 10

Dimension der Matrix C 1 2 3 4 5 6 7 8 9 10 x 1 2 3 4 5 6 7 8 9 10

wobei A, B, C gegebene Matrizen sind, X die gewünschte Matrix ist. Matrixgleichungen der Form (1), (2) und (3) werden durch die inverse Matrix A –1 gelöst. Wenn der Ausdruck A X - B = C gegeben ist, müssen zuerst die Matrizen C + B addiert und eine Lösung für den Ausdruck A X = D gefunden werden, wobei D = C + B (). Wenn der Ausdruck A*X = B 2 gegeben ist, dann muss die Matrix B zuerst quadriert werden. Es wird auch empfohlen, sich mit den grundlegenden Operationen auf Matrizen vertraut zu machen.

Beispiel 1. Übung. Finden Sie eine Lösung für eine Matrixgleichung
Lösung. Bezeichnen:
Dann wird die Matrixgleichung in der Form geschrieben: A·X·B = C.
Die Determinante der Matrix A ist detA=-1
Da A eine nichtsinguläre Matrix ist, gibt es eine inverse Matrix A –1 . Multipliziere beide Seiten der linken Gleichung mit A -1: Multipliziere beide Seiten dieser Gleichung links mit A -1 und rechts mit B -1: A -1 A X B B -1 = A -1 C B -1 . Da A A -1 = B B -1 = E und E X = X E = X, dann ist X = A -1 C B -1

Inverse Matrix A -1:
Finden Sie die inverse Matrix B -1 .
Matrix B T transponieren:
Inverse Matrix B -1:
Wir suchen die Matrix X nach der Formel: X = A -1 C B -1

Antworten:

Beispiel #2. Übung. Matrixgleichung lösen
Lösung. Bezeichnen:
Dann wird die Matrixgleichung in der Form geschrieben: A X = B.
Die Determinante der Matrix A ist detA=0
Da A eine entartete Matrix ist (die Determinante ist 0), hat die Gleichung daher keine Lösung.

Beispiel #3. Übung. Finden Sie eine Lösung für eine Matrixgleichung
Lösung. Bezeichnen:
Dann schreibt man die Matrixgleichung in der Form: X·A = B.
Die Determinante von Matrix A ist detA=-60
Da A eine nichtsinguläre Matrix ist, gibt es eine inverse Matrix A –1 . Multipliziere rechts beide Seiten der Gleichung mit A -1: X A A -1 = B A -1 , woraus wir finden, dass X = B A -1
Finden Sie die inverse Matrix A -1 .
Transponierte Matrix A T:
Inverse Matrix A -1:
Wir suchen die Matrix X nach der Formel: X = B A -1


Antwort: >

Inverse Matrix- eine solche Matrix EIN −1 , wenn mit which multipliziert, die ursprüngliche Matrix EIN gibt als Ergebnis Identitätsmatrix E:

quadratische Matrix ist genau dann invertierbar, wenn es nicht entartet ist, d. h. es ist bestimmend ist nicht gleich null. Für nichtquadratische Matrizen und entartete Matrizen Inverse Matrizen existieren nicht. Es ist jedoch möglich, dieses Konzept zu verallgemeinern und einzuführen pseudoinverse Matrizen, ähnlich wie Umkehrungen in vielen Eigenschaften.

Lösung von Matrixgleichungen

Matrixgleichungen können wie folgt aussehen:

AX = B, XA = B, AXB = C,

wobei A, B, C gegebene Matrizen sind, X die gewünschte Matrix ist.

Matrixgleichungen werden gelöst, indem die Gleichung mit inversen Matrizen multipliziert wird.

Um beispielsweise die Matrix aus einer Gleichung zu finden, müssen Sie diese Gleichung mit links multiplizieren.

Um eine Lösung für die Gleichung zu finden, müssen Sie daher die inverse Matrix finden und sie mit der Matrix auf der rechten Seite der Gleichung multiplizieren.

Andere Gleichungen werden ähnlich gelöst.

Beispiel 2

Lösen Sie die Gleichung AX = B, wenn

Lösung: Da die Inverse der Matrix gleich ist (siehe Beispiel 1)

Lineare Räume

Lineare Raumdefinition

Lassen v- eine nicht leere Menge (wir nennen ihre Elemente Vektoren und bezeichnen ...), in der die Regeln festgelegt sind:

1) zwei beliebige Elemente entsprechen dem dritten Element, das als Summe der Elemente bezeichnet wird (interne Operation);

2) jeder entspricht einem bestimmten Element (externe Operation).

Viele v heißt reeller linearer (Vektor-)Raum, wenn folgende Axiome gelten:

ICH.

III. (Nullelement, so dass ).

IV. (Element gegenüber Element ), so dass

v.

VIII. Ein komplexer linearer Raum wird ähnlich definiert (anstelle von R betrachtet C).

Unterraum des linearen Raums

Die Menge heißt Unterraum des linearen Raums v, wenn:

1)

Lineares Raumvektorsystem L Formen Basis in L wenn dieses System von Vektoren geordnet ist, linear unabhängig, und jeder Vektor aus L wird linear durch die Vektoren des Systems ausgedrückt.

Mit anderen Worten, ein linear unabhängiges geordnetes System von Vektoren e 1 , ..., e n bildet die Grundlage von L wenn irgendein Vektor x aus L können im Formular dargestellt werden

x= C1 e 1 +C2 e 2 + ... + C n · e n .

Die Basis kann unterschiedlich definiert werden.

Jedes geordnete linear unabhängige System e 1 , ..., e n Vektoren n- dimensionaler linearer Raum L n bildet die Basis dieses Raumes.

Weil die n, räumliche Dimension L n die maximale Anzahl linear unabhängiger Raumvektoren ist, dann das Vektorsystem x,e 1 , ..., e n linear abhängig und damit der Vektor x linear in Form von Vektoren ausgedrückt e 1 , ..., e n :

x = x eines · e 1 + x 2 e 2 + ...+ x n · e n .

Eine solche Zerlegung eines Vektors in Bezug auf die Basis nur.

Satz 1. (Über die Zahl der Vektoren in linear unabhängigen und erzeugenden Vektorsystemen.) Die Zahl der Vektoren in irgendeinem linear unabhängigen Vektorsystem übersteigt nicht die Zahl der Vektoren in irgendeinem erzeugenden Vektorsystem desselben Vektor Platz.

Nachweisen. Ein beliebiges linear unabhängiges System von Vektoren sei ein beliebiges erzeugendes System. Gehen wir mal davon aus.

Da Erzeugungssystem, dann stellt es einen beliebigen Vektor des Raums dar, einschließlich des Vektors . Fügen wir es diesem System hinzu. Wir erhalten ein linear abhängiges und erzeugendes Vektorsystem: . Dann gibt es einen Vektor dieses Systems, der durch die vorherigen Vektoren dieses Systems linear ausgedrückt wird, und aufgrund des Lemmas kann er aus dem System entfernt werden, und das verbleibende System von Vektoren wird immer noch erzeugen.

Wir nummerieren das verbleibende Vektorsystem neu: . Da erzeugt dieses System, dann stellt es einen Vektor dar, und indem wir es an dieses System anhängen, erhalten wir wieder ein linear abhängiges und erzeugendes System: .

Dann wiederholt sich alles. Es gibt einen Vektor in diesem System, der durch die vorherigen linear ausgedrückt wird, und das kann kein Vektor sein, da das ursprüngliche System ist linear unabhängig und der Vektor wird nicht linear durch den Vektor ausgedrückt. Es kann also nur einer der Vektoren sein. Wenn wir es aus dem System entfernen, erhalten wir nach der Umnummerierung das System , das das erzeugende System sein wird. Wenn wir diesen Prozess fortsetzen, erhalten wir nach den Schritten ein erzeugendes System von Vektoren: , wobei , weil nach unserer Vermutung. Das bedeutet, dass dieses System als Generator auch den Vektor darstellt, was der Bedingung der linearen Unabhängigkeit des Systems widerspricht.

Satz 1 ist bewiesen.

Satz 2. (Über die Anzahl der Vektoren in einer Basis.) In jeder Basis eines Vektors Platz enthält die gleiche Anzahl von Vektoren.

Nachweisen. Seien und zwei beliebige Vektorraumbasen. Jede Basis ist ein linear unabhängiges und erzeugendes System von Vektoren.

Da das erste System ist linear unabhängig, das zweite erzeugt also nach Satz 1 .

Ebenso ist das zweite System linear unabhängig, und das erste erzeugt, dann . Daraus folgt, dass p.t.d.

Satz 2 ist bewiesen.

Dies Satz erlaubt uns, die folgende Definition einzuführen.

Definition. Die Dimension eines Vektorraums V über einem Körper K ist die Anzahl der Vektoren in seiner Basis.

Bezeichnung: oder .

Vektorkoordinaten sind die Koeffizienten der einzig möglichen lineare Kombination Basic Vektoren im ausgewählten Koordinatensystem gleich dem gegebenen Vektor.

Eine Matrix ist ein mathematisches Objekt, das als rechteckige Zahlentabelle geschrieben ist und algebraische Operationen (Addition, Subtraktion, Multiplikation usw.) zwischen ihr und anderen ähnlichen Objekten ermöglicht. Die Regeln zum Ausführen von Operationen an Matrizen lauten wie folgt:

um es bequem zu machen, lineare Gleichungssysteme zu schreiben. Normalerweise wird die Matrix mit dem Großbuchstaben des lateinischen Alphabets bezeichnet und durch runde Klammern "(...)" unterschieden (es wird auch gefunden

Hervorhebung durch eckige Klammern „[…]“, doppelte gerade Linien „||…||“) Und die Zahlen, aus denen die Matrix besteht (Matrixelemente), werden mit dem gleichen Buchstaben wie die Matrix selbst bezeichnet, aber klein. jedes Matrixelement hat 2 Indizes (a ij ) - das erste "i" steht für

die Zeilennummer, in der sich das Element befindet, und das zweite "j" ist die Spaltennummer.

Matrixoperationen

Multiplikation einer Matrix A mit einer Zahl

B , deren Elemente durch Multiplizieren jedes Elements der Matrix A mit dieser Zahl erhalten werden, d. h. jedes Element der Matrix B ist

b ij = λ ein ij

Matrixaddition A

das Element der Matrix C ist

c ij = a ij + b ij

Matrixsubtraktion A

c ij = a ij - b ij

A+Θ=A

Matrix-Multiplikation(Notation: AB , selten mit Multiplikationszeichen) - Es gibt eine Operation zur Berechnung der Matrix C , deren Elemente gleich der Summe der Produkte der Elemente in der entsprechenden Zeile des ersten Faktors und der Spalte des zweiten sind.

c ij= ∑ a ikb kj

Der erste Multiplikator muss so viele Spalten haben, wie der zweite Zeilen hat. Wenn die Matrix A die Dimension B hat, dann ist die Dimension ihres Produkts AB = C

Es gibt . Die Matrixmultiplikation ist nicht kommutativ. Das sieht man zumindest daran, dass man, wenn die Matrizen nicht quadratisch sind, nur miteinander multiplizieren kann, aber nicht umgekehrt. Zum

Bei quadratischen Matrizen hängt das Ergebnis der Multiplikation von der Reihenfolge der Faktoren ab.

Nur quadratische Matrizen können potenziert werden.

Identitätsmatrix

Für quadratische Matrizen gibt es Identitätsmatrix E so dass jede Multiplikation

Matrix darauf hat keinen Einfluss auf das Ergebnis, nämlich

EA=AE=A

Die Identitätsmatrix hat nur Einheiten in

Diagonalen, andere Elemente sind gleich Null

Für einige quadratische Matrizen findet man die soginverse Matrix.

Die inverse Matrix A - 1 ist so, dass Sie die Identitätsmatrix erhalten, wenn Sie die Matrix damit multiplizieren

AA − 1 = E

Die inverse Matrix existiert nicht immer. Matrizen, für die die Inverse existiert, werden aufgerufen

nicht entartet, und für die es nicht ist - entartet. Eine Matrix ist nicht ausgeartet, wenn alle ihre Zeilen (Spalten) als Vektoren linear unabhängig sind. Maximale Anzahl linear unabhängiger Zeilen

(Spalten) wird Rang der Matrix genannt. Die Determinante (Determinante) einer Matrix ist eine normalisierte schiefsymmetrische lineare Funktion auf den Zeilen einer Matrix. Matrix

ist genau dann entartet, wenn ihre Determinante Null ist.

Matrix-Eigenschaften

1. A + (B + C) = (A + B) + C

2.A+B=B+A

3. A (BC) = (AB)C

4.A(B+C)=AB+AC

5. (B + C) A = BA + CA

9. Symmetrische Matrix A ist positiv definit (A > 0), wenn die Werte aller seiner Hauptwinkel Minoren A k > 0 sind

10. Symmetrische Matrix A ist negativ definit (A< 0), если матрица (−A )

positiv-definit ist, das heißt, wenn für beliebige k der Hauptminor k-ter Ordnung A k das Vorzeichen (− 1)k hat

Systeme linearer Gleichungen

Ein System von m Gleichungen mit n Unbekannten

a11 x1 +a12 x2 +…+a1n xn =b1 a21 x1 +a22 x2 +…+a2n xn =b2

am x1 +am x2 +…+am xn =bm

kann in Matrixform dargestellt werden

und dann kann das ganze System so geschrieben werden: AX =B

Matrixoperationen

Seien a ij Elemente der Matrix A und b ij die Matrix B .

Multiplikation einer Matrix A mit einer Zahlλ (Notation: λA ) soll eine Matrix konstruieren

B , deren Elemente erhalten werden, indem jedes Element der Matrix A mit dieser Zahl multipliziert wird, d. h. jedes Element der Matrix B ist b ij = λa ij

Schreiben wir die Matrix A

Multiplizieren Sie das erste Element der Matrix A mit 2

Matrixaddition A+ B ist die Operation zum Finden einer Matrix C , deren Elemente alle gleich sind in der paarweisen Summe aller entsprechenden Elemente der Matrizen A und B , dh jeder

das Element der Matrix C ist

c ij = a ij + b ij

А+В Schreiben wir die Matrizen А und В

Führen Sie die Addition der ersten Elemente der Matrizen durch

Strecken Sie die Werte zuerst horizontal und dann vertikal (Sie können umgekehrt)

Matrixsubtraktion A− B ist ähnlich wie Addition definiert, es ist die Operation, eine Matrix C zu finden, deren Elemente

c ij = a ij - b ij

Addition und Subtraktion sind nur für Matrizen gleicher Größe erlaubt.

Es gibt eine Nullmatrix Θ, so dass ihre Addition zu einer anderen Matrix A A nicht ändert, d.h.

A+Θ=A

Alle Elemente der Nullmatrix sind gleich Null.

Dieses Thema ist eines der am meisten gehassten unter Studenten. Schlimmer noch, wahrscheinlich nur Determinanten.

Der Trick besteht darin, dass das eigentliche Konzept des inversen Elements (und ich spreche jetzt nicht nur von Matrizen) uns auf die Operation der Multiplikation verweist. Selbst im Schullehrplan wird die Multiplikation als komplexe Operation betrachtet, und die Matrizenmultiplikation ist im Allgemeinen ein separates Thema, dem ich einen ganzen Absatz und eine Videolektion gewidmet habe.

Auf die Details der Matrizenrechnung gehen wir heute nicht ein. Denken Sie nur daran, wie Matrizen bezeichnet werden, wie sie multipliziert werden und was daraus folgt.

Rezension: Matrixmultiplikation

Zunächst einmal einigen wir uns auf die Notation. Eine Matrix $A$ der Größe $\left[ m\times n \right]$ ist einfach eine Zahlentabelle mit genau $m$ Zeilen und $n$ Spalten:

\=\underbrace(\left[ \begin(matrix) ((a)_(11)) & ((a)_(12)) & ... & ((a)_(1n)) \\ (( a)_(21)) & ((a)_(22)) & ... & ((a)_(2n)) \\ ... & ... & ... & ... \\ ((a)_(m1)) & ((a)_(m2)) & ... & ((a)_(mn)) \\\end(matrix) \right])_(n)\]

Um nicht versehentlich Zeilen und Spalten an einigen Stellen zu verwechseln (glauben Sie mir, in der Prüfung kann man eine Einheit mit einer Zwei verwechseln - was sollen wir da zu einigen Zeilen sagen), werfen Sie einfach einen Blick auf das Bild:

Bestimmung von Indizes für Matrixzellen

Was ist los? Wenn wir das Standard-Koordinatensystem $OXY$ in die obere linke Ecke legen und die Achsen so richten, dass sie die gesamte Matrix abdecken, dann kann jede Zelle dieser Matrix eindeutig den Koordinaten $\left(x;y \right) zugeordnet werden. $ - dies ist die Zeilennummer und die Spaltennummer.

Warum ist das Koordinatensystem genau in der oberen linken Ecke platziert? Ja, denn von dort aus beginnen wir alle Texte zu lesen. Es ist sehr leicht zu merken.

Warum zeigt die $x$-Achse nach unten und nicht nach rechts? Auch hier ist es einfach: Nehmen Sie das Standardkoordinatensystem (die $x$-Achse geht nach rechts, die $y$-Achse geht nach oben) und drehen Sie es so, dass es die Matrix umschließt. Dies ist eine Drehung um 90 Grad im Uhrzeigersinn – wir sehen das Ergebnis im Bild.

Im Allgemeinen haben wir herausgefunden, wie die Indizes der Matrixelemente bestimmt werden. Kommen wir nun zur Multiplikation.

Definition. Die Matrizen $A=\left[ m\times n \right]$ und $B=\left[ n\times k \right]$, wenn die Anzahl der Spalten in der ersten mit der Anzahl der Zeilen in der zweiten übereinstimmt, sind konsequent genannt.

Es ist in dieser Reihenfolge. Man kann zweideutig sagen, dass die Matrizen $A$ und $B$ ein geordnetes Paar $\left(A;B \right)$ bilden: Wenn sie in dieser Reihenfolge konsistent sind, dann ist es überhaupt nicht notwendig, dass $B $ und $A$, die. das Paar $\left(B;A \right)$ ist ebenfalls konsistent.

Nur konsistente Matrizen können multipliziert werden.

Definition. Das Produkt der konsistenten Matrizen $A=\left[ m\times n \right]$ und $B=\left[ n\times k \right]$ ist die neue Matrix $C=\left[ m\times k \right ]$ , deren Elemente $((c)_(ij))$ nach folgender Formel berechnet werden:

\[((c)_(ij))=\sum\limits_(k=1)^(n)(((a)_(ik)))\cdot ((b)_(kj))\]

Mit anderen Worten: Um das Element $((c)_(ij))$ der Matrix $C=A\cdot B$ zu erhalten, müssen Sie die $i$-Zeile der ersten Matrix, die $j$, nehmen -te Spalte der zweiten Matrix, und dann paarweise Elemente aus dieser Zeile und Spalte multiplizieren. Addieren Sie die Ergebnisse.

Ja, das ist eine harte Definition. Daraus ergeben sich unmittelbar mehrere Tatsachen:

  1. Die Matrixmultiplikation ist im Allgemeinen nicht kommutativ: $A\cdot B\ne B\cdot A$;
  2. Die Multiplikation ist jedoch assoziativ: $\left(A\cdot B \right)\cdot C=A\cdot \left(B\cdot C \right)$;
  3. Und sogar distributiv: $\left(A+B \right)\cdot C=A\cdot C+B\cdot C$;
  4. Und wieder distributiv: $A\cdot \left(B+C \right)=A\cdot B+A\cdot C$.

Die Distributivität der Multiplikation musste wegen der Nichtkommutativität der Multiplikationsoperation für linke und rechte Multiplikatorsumme getrennt beschrieben werden.

Stellt sich dennoch heraus, dass $A\cdot B=B\cdot A$, so heißen solche Matrizen permutierbar.

Unter all den Matrizen, die dort mit etwas multipliziert werden, gibt es spezielle - solche, die, wenn sie mit einer beliebigen Matrix $A$ multipliziert werden, wieder $A$ ergeben:

Definition. Eine Matrix $E$ heißt Identität, wenn $A\cdot E=A$ oder $E\cdot A=A$. Im Fall einer quadratischen Matrix $A$ können wir schreiben:

Die Einheitsmatrix ist ein häufiger Gast beim Lösen von Matrixgleichungen. Und im Allgemeinen ein häufiger Gast in der Welt der Matrizen. :)

Und deswegen $E$ hat sich jemand das ganze Spiel ausgedacht, das als nächstes geschrieben wird.

Was ist eine inverse matrix

Da die Matrizenmultiplikation eine sehr zeitaufwändige Operation ist (Sie müssen eine Reihe von Zeilen und Spalten multiplizieren), ist das Konzept einer inversen Matrix auch nicht das trivialste. Und es braucht eine Erklärung.

Schlüsseldefinition

Nun, es ist Zeit, die Wahrheit zu erfahren.

Definition. Die Matrix $B$ heißt die Inverse der Matrix $A$ wenn

Die inverse Matrix wird mit $((A)^(-1))$ bezeichnet (nicht zu verwechseln mit dem Grad!), die Definition lässt sich also folgendermaßen umschreiben:

Es scheint, dass alles sehr einfach und klar ist. Bei der Analyse einer solchen Definition stellen sich jedoch sofort mehrere Fragen:

  1. Existiert immer eine inverse Matrix? Und wenn nicht immer, wie kann man dann feststellen, wann es existiert und wann nicht?
  2. Und wer hat gesagt, dass eine solche Matrix genau eine ist? Was ist, wenn es für eine ursprüngliche Matrix $A$ eine ganze Menge Inverser gibt?
  3. Wie sehen all diese "Umkehrungen" aus? Und wie zählt man sie eigentlich?

Was die Berechnungsalgorithmen betrifft - wir werden etwas später darüber sprechen. Aber den Rest der Fragen werden wir gleich beantworten. Ordnen wir sie in Form von separaten Assertions-Lemmata an.

Grundeigenschaften

Beginnen wir damit, wie die Matrix $A$ aussehen sollte, damit sie $((A)^(-1))$ hat. Jetzt stellen wir sicher, dass diese beiden Matrizen quadratisch und gleich groß sein müssen: $\left[ n\times n \right]$.

Lemma 1. Gegeben sei eine Matrix $A$ und ihre Inverse $((A)^(-1))$. Dann sind diese beiden Matrizen quadratisch und haben dieselbe Ordnung $n$.

Nachweisen. Alles ist einfach. Sei die Matrix $A=\left[ m\times n \right]$, $((A)^(-1))=\left[ a\times b \right]$. Da das Produkt $A\cdot ((A)^(-1))=E$ per Definition existiert, sind die Matrizen $A$ und $((A)^(-1))$ in dieser Reihenfolge konsistent:

\[\begin(align) & \left[ m\times n \right]\cdot \left[ a\times b \right]=\left[ m\times b \right] \\ & n=a \end( ausrichten)\]

Dies ist eine direkte Folge des Matrixmultiplikationsalgorithmus: Die Koeffizienten $n$ und $a$ sind "transit" und müssen gleich sein.

Gleichzeitig ist auch die inverse Multiplikation definiert: $((A)^(-1))\cdot A=E$, also die Matrizen $((A)^(-1))$ und $A$ auch konsistent in dieser Reihenfolge:

\[\begin(align) & \left[ a\times b \right]\cdot \left[ m\times n \right]=\left[ a\times n \right] \\ & b=m \end( ausrichten)\]

Daher können wir ohne Beschränkung der Allgemeinheit annehmen, dass $A=\left[ m\times n \right]$, $((A)^(-1))=\left[ n\times m \right]$. Allerdings sind nach der Definition von $A\cdot ((A)^(-1))=((A)^(-1))\cdot A$ die Dimensionen der Matrizen exakt gleich:

\[\begin(align) & \left[ m\times n \right]=\left[ n\times m \right] \\ & m=n \end(align)\]

Es stellt sich also heraus, dass alle drei Matrizen - $A$, $((A)^(-1))$ und $E$ - quadratisch sind $\left[ n\times n \right]$. Das Lemma ist bewiesen.

Nun, das ist schon gut. Wir sehen, dass nur quadratische Matrizen invertierbar sind. Stellen wir nun sicher, dass die inverse Matrix immer gleich ist.

Lemma 2. Gegeben sei eine Matrix $A$ und ihre Inverse $((A)^(-1))$. Dann ist diese inverse Matrix eindeutig.

Nachweisen. Beginnen wir mit dem Gegenteil: Die Matrix $A$ soll mindestens zwei Instanzen von Inversen haben – $B$ und $C$. Dann gelten laut Definition die folgenden Gleichungen:

\[\begin(align) & A\cdot B=B\cdot A=E; \\ & A\cdot C=C\cdot A=E. \\ \end(align)\]

Aus Lemma 1 schließen wir, dass alle vier Matrizen $A$, $B$, $C$ und $E$ Quadrate der gleichen Ordnung sind: $\left[ n\times n \right]$. Daher ist das Produkt definiert:

Da die Matrizenmultiplikation assoziativ (aber nicht kommutativ!) ist, können wir schreiben:

\[\begin(align) & B\cdot A\cdot C=\left(B\cdot A \right)\cdot C=E\cdot C=C; \\ & B\cdot A\cdot C=B\cdot \left(A\cdot C \right)=B\cdot E=B; \\ & B\cdot A\cdot C=C=B\Rechtspfeil B=C. \\ \end(align)\]

Wir haben die einzig mögliche Option: Zwei Kopien der inversen Matrix sind gleich. Das Lemma ist bewiesen.

Die obige Argumentation wiederholt fast wörtlich den Beweis der Eindeutigkeit des inversen Elements für alle reellen Zahlen $b\ne 0$. Die einzige wesentliche Ergänzung ist die Berücksichtigung der Dimension von Matrizen.

Wir wissen jedoch immer noch nichts darüber, ob eine quadratische Matrix invertierbar ist. Hier kommt uns die Determinante zu Hilfe – sie ist ein wesentliches Merkmal aller quadratischen Matrizen.

Lemma 3 . Gegeben sei eine Matrix $A$. Wenn die dazu inverse Matrix $((A)^(-1))$ existiert, dann ist die Determinante der ursprünglichen Matrix ungleich Null:

\[\links| A \right|\ne 0\]

Nachweisen. Wir wissen bereits, dass $A$ und $((A)^(-1))$ quadratische Matrizen der Größe $\left[ n\times n \right]$ sind. Daher ist es möglich, für jede von ihnen die Determinante zu berechnen: $\left| Ein \right|$ und $\left| ((A)^(-1)) \right|$. Die Determinante des Produkts ist jedoch gleich dem Produkt der Determinanten:

\[\links| A\cdot B \right|=\left| Ein \right|\cdot \left| B \rechts|\Rechtspfeil \links| A\cdot ((A)^(-1)) \right|=\left| Ein \right|\cdot \left| ((A)^(-1)) \right|\]

Aber nach der Definition von $A\cdot ((A)^(-1))=E$, und die Determinante von $E$ ist immer gleich 1, also

\[\begin(align) & A\cdot ((A)^(-1))=E; \\ & \links| A\cdot ((A)^(-1)) \right|=\left| E\right|; \\ & \links| Ein \right|\cdot \left| ((A)^(-1)) \right|=1. \\ \end(align)\]

Das Produkt zweier Zahlen ist nur dann gleich eins, wenn jede dieser Zahlen von Null verschieden ist:

\[\links| A \right|\ne 0;\quad \left| ((A)^(-1)) \right|\ne 0.\]

Es stellt sich also heraus, dass $\left| Ein \right|\ne 0$. Das Lemma ist bewiesen.

Eigentlich ist diese Forderung ganz logisch. Wir analysieren nun den Algorithmus zum Auffinden der inversen Matrix – und es wird völlig klar, warum es im Prinzip keine inverse Matrix mit Nulldeterminante geben kann.

Aber zuerst formulieren wir eine „Hilfs“-Definition:

Definition. Eine entartete Matrix ist eine quadratische Matrix der Größe $\left[ n\times n \right]$, deren Determinante Null ist.

Somit können wir behaupten, dass jede invertierbare Matrix nicht entartet ist.

So finden Sie die inverse Matrix

Nun betrachten wir einen universellen Algorithmus zum Auffinden inverser Matrizen. Im Allgemeinen gibt es zwei allgemein akzeptierte Algorithmen, und wir werden heute auch den zweiten betrachten.

Die jetzt betrachtete ist sehr effizient für Matrizen der Größe $\left[ 2\times 2 \right]$ und - teilweise - der Größe $\left[ 3\times 3 \right]$. Aber ab der Größe $\left[ 4\times 4 \right]$ sollte man besser darauf verzichten. Warum - jetzt werden Sie alles verstehen.

Algebraische Additionen

Sich fertig machen. Jetzt wird es Schmerzen geben. Nein, keine Sorge: Eine schöne Krankenschwester in einem Rock, Strümpfe mit Spitze kommt nicht zu Ihnen und wird Ihnen keine Spritze in den Po geben. Alles ist viel prosaischer: Algebraische Additionen und Ihre Majestät die "Union Matrix" kommen zu Ihnen.

Beginnen wir mit dem wichtigsten. Gegeben sei eine quadratische Matrix der Größe $A=\left[ n\times n \right]$, deren Elemente $((a)_(ij))$ heißen. Dann kann man für jedes solche Element ein algebraisches Komplement definieren:

Definition. Algebraisches Komplement $((A)_(ij))$ zum Element $((a)_(ij))$ in der $i$-ten Zeile und $j$-ten Spalte der Matrix $A=\left [ n \times n \right]$ ist eine Konstruktion der Form

\[((A)_(ij))=((\left(-1 \right))^(i+j))\cdot M_(ij)^(*)\]

Wobei $M_(ij)^(*)$ die Determinante der Matrix ist, die aus dem ursprünglichen $A$ durch Löschen derselben $i$-ten Zeile und $j$-ten Spalte erhalten wird.

Noch einmal. Das algebraische Komplement zum Matrixelement mit den Koordinaten $\left(i;j \right)$ wird mit $((A)_(ij))$ bezeichnet und nach folgendem Schema berechnet:

  1. Zuerst löschen wir die $i$-Zeile und die $j$-te Spalte aus der ursprünglichen Matrix. Wir erhalten eine neue quadratische Matrix und bezeichnen ihre Determinante als $M_(ij)^(*)$.
  2. Dann multiplizieren wir diese Determinante mit $((\left(-1 \right))^(i+j))$ - dieser Ausdruck mag zunächst umwerfend erscheinen, aber tatsächlich finden wir nur das Vorzeichen vor $ heraus M_(ij)^(*) $.
  3. Wir zählen - wir bekommen eine bestimmte Zahl. Diese. die algebraische Addition ist nur eine Zahl, keine neue Matrix und so weiter.

Die Matrix $M_(ij)^(*)$ selbst heißt komplementärer Minor zum Element $((a)_(ij))$. Und in diesem Sinne ist die obige Definition eines algebraischen Komplements ein Sonderfall einer komplexeren Definition – derjenigen, die wir in der Lektion über die Determinante betrachtet haben.

Wichtiger Hinweis. Tatsächlich werden in der "erwachsenen" Mathematik algebraische Additionen wie folgt definiert:

  1. Wir nehmen $k$ Zeilen und $k$ Spalten in einer quadratischen Matrix. An ihrem Schnittpunkt erhalten wir eine Matrix der Größe $\left[ k\times k \right]$ — ihre Determinante heißt Minor der Ordnung $k$ und wird mit $((M)_(k))$ bezeichnet.
  2. Dann streichen wir diese "ausgewählten" $k$-Zeilen und $k$-Spalten durch. Wieder erhalten wir eine quadratische Matrix - ihre Determinante heißt komplementärer Minor und wird mit $M_(k)^(*)$ bezeichnet.
  3. Multiplizieren Sie $M_(k)^(*)$ mit $((\left(-1 \right))^(t))$, wobei $t$ (Achtung jetzt!) die Summe der Zahlen aller ausgewählten Zeilen ist und Spalten. Dies wird die algebraische Addition sein.

Schauen Sie sich den dritten Schritt an: Es gibt tatsächlich eine Summe von 2.000 $ Begriffen! Eine andere Sache ist, dass wir für $k=1$ nur 2 Terme erhalten - das sind die gleichen $i+j$ - die "Koordinaten" des Elements $((a)_(ij))$, für das wir sind Suche nach einem algebraischen Komplement.

Deshalb verwenden wir heute eine leicht vereinfachte Definition. Aber wie wir später sehen werden, wird es mehr als genug sein. Viel wichtiger ist folgendes:

Definition. Die Vereinigungsmatrix $S$ zur quadratischen Matrix $A=\left[ n\times n \right]$ ist eine neue Matrix der Größe $\left[ n\times n \right]$, die aus $A$ gewonnen wird durch Ersetzen von $((a)_(ij))$ durch algebraische Komplemente $((A)_(ij))$:

\\Rightarrow S=\left[ \begin(matrix) ((A)_(11)) & ((A)_(12)) & ... & ((A)_(1n)) \\ (( A)_(21)) & ((A)_(22)) & ... & ((A)_(2n)) \\ ... & ... & ... & ... \\ ((A)_(n1)) & ((A)_(n2)) & ... & ((A)_(nn)) \\\end(matrix) \right]\]

Der erste Gedanke, der beim Erkennen dieser Definition aufkommt, ist „so viel muss man insgesamt zählen!“ Entspannen Sie sich: Sie müssen zählen, aber nicht so viel. :)

Nun, das ist alles sehr schön, aber warum ist es notwendig? Aber wieso.

Hauptsatz

Gehen wir ein wenig zurück. Denken Sie daran, Lemma 3 besagt, dass eine invertierbare Matrix $A$ immer nichtsingulär ist (das heißt, ihre Determinante ist nicht Null: $\left| A \right|\ne 0$).

Also gilt auch die Umkehrung: Wenn die Matrix $A$ nicht entartet ist, dann ist sie immer invertierbar. Und es gibt sogar ein Suchschema $((A)^(-1))$. Hör zu:

Inverser Matrixsatz. Gegeben sei eine quadratische Matrix $A=\left[ n\times n \right]$, deren Determinante nicht Null ist: $\left| Ein \right|\ne 0$. Dann existiert die inverse Matrix $((A)^(-1))$ und wird nach folgender Formel berechnet:

\[((A)^(-1))=\frac(1)(\left| A \right|)\cdot ((S)^(T))\]

Und jetzt - egal, aber in lesbarer Handschrift. Um die inverse Matrix zu finden, benötigen Sie:

  1. Berechnen Sie die Determinante $\left| Ein \right|$ und stellen Sie sicher, dass es nicht Null ist.
  2. Kompilieren Sie die Vereinigungsmatrix $S$, d.h. zähle 100500 algebraische Additionen $((A)_(ij))$ und setze sie ein $((a)_(ij))$.
  3. Transponiere diese Matrix $S$ und multipliziere sie dann mit einer Zahl $q=(1)/(\left| A \right|)\;$.

Und alle! Die inverse Matrix $((A)^(-1))$ wird gefunden. Schauen wir uns Beispiele an:

\[\left[ \begin(matrix) 3 & 1 \\ 5 & 2 \\\end(matrix) \right]\]

Lösung. Prüfen wir die Reversibilität. Lassen Sie uns die Determinante berechnen:

\[\links| A \rechts|=\links| \begin(matrix) 3 & 1 \\ 5 & 2 \\\end(matrix) \right|=3\cdot 2-1\cdot 5=6-5=1\]

Die Determinante ist von Null verschieden. Die Matrix ist also invertierbar. Lassen Sie uns eine Vereinigungsmatrix erstellen:

Lassen Sie uns die algebraischen Additionen berechnen:

\[\begin(align) & ((A)_(11))=((\left(-1 \right))^(1+1))\cdot \left| 2\right|=2; \\ & ((A)_(12))=((\left(-1 \right))^(1+2))\cdot \left| 5\right|=-5; \\ & ((A)_(21))=((\left(-1 \right))^(2+1))\cdot \left| 1 \right|=-1; \\ & ((A)_(22))=((\left(-1 \right))^(2+2))\cdot \left| 3\rechts|=3. \\ \end(align)\]

Achtung: Determinanten |2|, |5|, |1| und |3| sind die Determinanten von Matrizen der Größe $\left[ 1\times 1 \right]$, nicht von Modulen. Diese. Wenn es negative Zahlen in den Determinanten gab, ist es nicht notwendig, das "Minus" zu entfernen.

Insgesamt sieht unsere Gewerkschaftsmatrix so aus:

\[((A)^(-1))=\frac(1)(\left| A \right|)\cdot ((S)^(T))=\frac(1)(1)\cdot ( (\left[ \begin(array)(*(35)(r)) 2 & -5 \\ -1 & 3 \\\end(array) \right])^(T))=\left[ \begin (array)(*(35)(r)) 2 & -1 \\ -5 & 3 \\\end(array) \right]\]

OK, jetzt ist alles vorbei. Problem gelöst.

Antworten. $\left[ \begin(array)(*(35)(r)) 2 & -1 \\ -5 & 3 \\\end(array) \right]$

Eine Aufgabe. Finden Sie die inverse Matrix:

\[\left[ \begin(array)(*(35)(r)) 1 & -1 & 2 \\ 0 & 2 & -1 \\ 1 & 0 & 1 \\\end(array) \right] \]

Lösung. Wieder betrachten wir die Determinante:

\[\begin(align) & \left| \begin(array)(*(35)(r)) 1 & -1 & 2 \\ 0 & 2 & -1 \\ 1 & 0 & 1 \\\end(array) \right|=\begin(matrix ) \left(1\cdot 2\cdot 1+\left(-1 \right)\cdot \left(-1 \right)\cdot 1+2\cdot 0\cdot 0 \right)- \\ -\left (2\cdot 2\cdot 1+\left(-1 \right)\cdot 0\cdot 1+1\cdot \left(-1 \right)\cdot 0 \right) \\\end(matrix)= \ \ & =\left(2+1+0 \right)-\left(4+0+0 \right)=-1\ne 0. \\ \end(align)\]

Die Determinante ist von Null verschieden – die Matrix ist invertierbar. Aber jetzt wird es am blechernsten: Sie müssen bis zu 9 (neun, verdammt noch mal!) algebraische Additionen zählen. Und jeder von ihnen enthält den Qualifizierer $\left[ 2\times 2 \right]$. Geflogen:

\[\begin(matrix) ((A)_(11))=((\left(-1 \right))^(1+1))\cdot \left| \begin(matrix) 2 & -1 \\ 0 & 1 \\\end(matrix) \right|=2; \\ ((A)_(12))=((\left(-1 \right))^(1+2))\cdot \left| \begin(matrix) 0 & -1 \\ 1 & 1 \\\end(matrix) \right|=-1; \\ ((A)_(13))=((\left(-1 \right))^(1+3))\cdot \left| \begin(matrix) 0 & 2 \\ 1 & 0 \\\end(matrix) \right|=-2; \\ ... \\ ((A)_(33))=((\left(-1 \right))^(3+3))\cdot \left| \begin(matrix) 1 & -1 \\ 0 & 2 \\\end(matrix) \right|=2; \\ \end(matrix)\]

Kurz gesagt, die Vereinigungsmatrix sieht folgendermaßen aus:

Daher lautet die inverse Matrix:

\[((A)^(-1))=\frac(1)(-1)\cdot \left[ \begin(matrix) 2 & -1 & -2 \\ 1 & -1 & -1 \\ -3 & 1 & 2 \\\end(matrix) \right]=\left[ \begin(array)(*(35)(r))-2 & -1 & 3 \\ 1 & 1 & -1 \ \ 2 & 1 & -2 \\\end(array) \right]\]

Nun, das ist alles. Hier ist die Antwort.

Antworten. $\left[ \begin(array)(*(35)(r)) -2 & -1 & 3 \\ 1 & 1 & -1 \\ 2 & 1 & -2 \\\end(array) \right ]$

Wie Sie sehen können, haben wir am Ende jedes Beispiels eine Überprüfung durchgeführt. In diesem Zusammenhang ein wichtiger Hinweis:

Seien Sie nicht faul, dies zu überprüfen. Multiplizieren Sie die ursprüngliche Matrix mit der gefundenen Inversen - Sie sollten $E$ erhalten.

Diese Überprüfung ist viel einfacher und schneller durchzuführen, als in weiteren Berechnungen nach einem Fehler zu suchen, wenn Sie beispielsweise eine Matrixgleichung lösen.

Alternativer Weg

Wie gesagt, der inverse Matrixsatz funktioniert gut für die Größen $\left[ 2\times 2 \right]$ und $\left[ 3\times 3 \right]$ (in letzterem Fall ist es nicht so "schön" mehr). “), aber für große Matrizen beginnt die Traurigkeit.

Aber keine Sorge: Es gibt einen alternativen Algorithmus, mit dem man auch für die $\left[ 10\times 10 \right]$-Matrix ruhig die Inverse finden kann. Aber wie es oft der Fall ist, um diesen Algorithmus zu betrachten, brauchen wir ein wenig theoretischen Hintergrund.

Elementare Transformationen

Unter den verschiedenen Transformationen der Matrix gibt es einige spezielle - sie werden elementar genannt. Es gibt genau drei solche Transformationen:

  1. Multiplikation. Sie können die $i$-te Zeile (Spalte) nehmen und mit einer beliebigen Zahl $k\ne 0$ multiplizieren;
  2. Zusatz. Addieren Sie zur $i$-ten Zeile (Spalte) eine beliebige andere $j$-te Zeile (Spalte) multipliziert mit einer beliebigen Zahl $k\ne 0$ (natürlich geht auch $k=0$, aber was bringt das? Daran wird sich nichts ändern).
  3. Permutation. Nehmen Sie die $i$-ten und $j$-ten Zeilen (Spalten) und vertauschen Sie sie.

Warum diese Transformationen elementar genannt werden (bei großen Matrizen sehen sie nicht so elementar aus) und warum es nur drei davon gibt – diese Fragen sprengen den Rahmen der heutigen Lektion. Daher gehen wir nicht ins Detail.

Eine andere Sache ist wichtig: Wir müssen all diese Perversionen auf der zugehörigen Matrix durchführen. Ja, ja, Sie haben richtig gehört. Jetzt wird es eine weitere Definition geben – die letzte in der heutigen Lektion.

Angehängte Matrix

Sicherlich hast du in der Schule Gleichungssysteme mit der Additionsmethode gelöst. Also, subtrahieren Sie eine weitere Zeile von einer Zeile, multiplizieren Sie eine Zeile mit einer Zahl - das ist alles.

Also: jetzt wird alles beim Alten, aber schon „auf erwachsene Art“. Bereit?

Definition. Gegeben sei die Matrix $A=\left[ n\times n \right]$ und die Einheitsmatrix $E$ gleicher Größe $n$. Dann die zugehörige Matrix $\left[ A\left| E\richtig. \right]$ ist eine neue $\left[ n\times 2n \right]$-Matrix, die so aussieht:

\[\links[ A\links| E\richtig. \right]=\left[ \begin(array)(rrrr|rrrr)((a)_(11)) & ((a)_(12)) & ... & ((a)_(1n)) & 1 & 0 & ... & 0 \\((a)_(21)) & ((a)_(22)) & ... & ((a)_(2n)) & 0 & 1 & ... & 0 \\... & ... & ... & ... & ... & ... & ... & ... \\((a)_(n1)) & ((a)_(n2)) & ... & ((a)_(nn)) & 0 & 0 & ... & 1 \\\end(array) \right]\]

Kurz gesagt, wir nehmen die Matrix $A$, rechts weisen wir ihr die Identitätsmatrix $E$ der erforderlichen Größe zu, wir trennen sie mit einem vertikalen Balken für die Schönheit - hier haben Sie die angehängte. :)

Was ist der Haken? Und hier ist was:

Satz. Die Matrix $A$ sei invertierbar. Betrachten Sie die adjungierte Matrix $\left[ A\left| E\richtig. \rechts]$. Bei Verwendung elementare Zeichenfolgentransformationen bringen Sie es in die Form $\left[ E\left| Hell. \right]$, d.h. durch Multiplizieren, Subtrahieren und Neuanordnen von Zeilen, um die Matrix $E$ rechts von $A$ zu erhalten, dann ist die links erhaltene Matrix $B$ die Inverse von $A$:

\[\links[ A\links| E\richtig. \right]\nach \left[ E\left| Hell. \right]\Rightarrow B=((A)^(-1))\]

So einfach ist das! Kurz gesagt, der Algorithmus zum Finden der inversen Matrix sieht folgendermaßen aus:

  1. Schreiben Sie die zugehörige Matrix $\left[ A\left| E\richtig. \right]$;
  2. Führen Sie elementare String-Konvertierungen durch, bis anstelle von $A$ rechts $E$ erscheint;
  3. Natürlich erscheint auch links etwas - eine bestimmte Matrix $B$. Dies wird umgekehrt sein;
  4. PROFITE! :)

Natürlich viel leichter gesagt als getan. Schauen wir uns also ein paar Beispiele an: für die Größen $\left[ 3\times 3 \right]$ und $\left[ 4\times 4 \right]$.

Eine Aufgabe. Finden Sie die inverse Matrix:

\[\left[ \begin(array)(*(35)(r)) 1 & 5 & 1 \\ 3 & 2 & 1 \\ 6 & -2 & 1 \\\end(array) \right]\ ]

Lösung. Wir erstellen die beigefügte Matrix:

\[\left[ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 3 & 2 & 1 & 0 & 1 & 0 \\ 6 & -2 & 1 & 0 & 0 & 1 \\\end(array) \right]\]

Da die letzte Spalte der ursprünglichen Matrix mit Einsen gefüllt ist, subtrahieren Sie die erste Zeile vom Rest:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 3 & 2 & 1 & 0 & 1 & 0 \\ 6 & - 2 & 1 & 0 & 0 & 1 \\\end(array) \right]\begin(matrix) \downarrow \\ -1 \\ -1 \\\end(matrix)\to \\ & \to \left [ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 5 & -7 & 0 & -1 & 0 & 1 \\\end(array) \right] \\ \end(align)\]

Außer der ersten Zeile gibt es keine Einheiten mehr. Aber wir berühren es nicht, sonst beginnen sich die neu entfernten Einheiten in der dritten Spalte zu "vermehren".

Aber wir können die zweite Zeile zweimal von der letzten subtrahieren - wir erhalten eine Einheit in der unteren linken Ecke:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 5 & -7 & 0 & -1 & 0 & 1 \\\end(array) \right]\begin(matrix) \ \\ \downarrow \\ -2 \\\end(matrix)\to \\ & \left [ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right] \\ \end(align)\]

Jetzt können wir die letzte Zeile von der ersten und zweimal von der zweiten subtrahieren – auf diese Weise „nullen“ wir die erste Spalte:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right]\begin(matrix) -1 \\ -2 \\ \uparrow \\\end(matrix)\to \\ & \ bis \left[ \begin(array)(rrr|rrr) 0 & 6 & 1 & 0 & 2 & -1 \\ 0 & -1 & 0 & -3 & 5 & -2 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right] \\ \end(align)\]

Multiplizieren Sie die zweite Zeile mit −1 und subtrahieren Sie sie dann 6 Mal von der ersten und addieren Sie 1 Mal zur letzten:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 0 & 6 & 1 & 0 & 2 & -1 \\ 0 & -1 & 0 & -3 & 5 & -2 \ \ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right]\begin(matrix) \ \\ \left| \cdot \left(-1 \right) \right. \\ \ \\\end(matrix)\to \\ & \to \left[ \begin(array)(rrr|rrr) 0 & 6 & 1 & 0 & 2 & -1 \\ 0 & 1 & 0 & 3 & -5 & 2 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right]\begin(matrix) -6 \\ \updownarrow \\ +1 \\\end (Matrix)\to \\ & \to \left[ \begin(array)(rrr|rrr) 0 & 0 & 1 & -18 & 32 & -13 \\ 0 & 1 & 0 & 3 & -5 & 2 \\ 1 & 0 & 0 & 4 & -7 & 3 \\\end(array) \right] \\ \end(align)\]

Es bleibt nur, die Zeilen 1 und 3 zu vertauschen:

\[\left[ \begin(array)(rrr|rrr) 1 & 0 & 0 & 4 & -7 & 3 \\ 0 & 1 & 0 & 3 & -5 & 2 \\ 0 & 0 & 1 & - 18 & 32 & -13 \\\end(array) \right]\]

Bereit! Rechts ist die benötigte inverse Matrix.

Antworten. $\left[ \begin(array)(*(35)(r))4 & -7 & 3 \\ 3 & -5 & 2 \\ -18 & 32 & -13 \\\end(array) \right ]$

Eine Aufgabe. Finden Sie die inverse Matrix:

\[\left[ \begin(matrix) 1 & 4 & 2 & 3 \\ 1 & -2 & 1 & -2 \\ 1 & -1 & 1 & 1 \\ 0 & -10 & -2 & -5 \\\end(matrix) \right]\]

Lösung. Wieder verfassen wir das beigefügte:

\[\left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 1 & -2 & 1 & -2 & 0 & 1 & 0 & 0 \ \ 1 & -1 & 1 & 1 & 0 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\\end(array) \right]\]

Lassen Sie uns ein wenig leihen, uns Gedanken darüber machen, wie viel wir jetzt zählen müssen ... und anfangen zu zählen. Zunächst „nullen“ wir die erste Spalte, indem wir Zeile 1 von den Zeilen 2 und 3 subtrahieren:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 1 & -2 & 1 & -2 & 0 & 1 & 0 & 0 \\ 1 & -1 & 1 & 1 & 0 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\\end(array) \right]\begin(matrix) \downarrow \\ -1 \\ -1 \\ \ \\\end(matrix)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 0 & -6 & -1 & -5 & -1 & 1 & 0 & 0 \\ 0 & -5 & -1 & -2 & -1 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\\end(array) \right] \\ \end(align)\]

Wir beobachten zu viele "Minuspunkte" in den Zeilen 2-4. Multiplizieren Sie alle drei Zeilen mit −1 und brennen Sie dann die dritte Spalte aus, indem Sie Zeile 3 vom Rest subtrahieren:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 0 & -6 & -1 & -5 & - 1 & 1 & 0 & 0 \\ 0 & -5 & -1 & -2 & -1 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\ \end(array) \right]\begin(matrix) \ \\ \left| \cdot \left(-1 \right) \right. \\ \links| \cdot \left(-1 \right) \right. \\ \links| \cdot \left(-1 \right) \right. \\\end(matrix)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 0 & 6 & 1 & 5 & ​​1 & -1 & 0 & 0 \\ 0 & 5 & 1 & 2 & 1 & 0 & -1 & 0 \\ 0 & 10 & 2 & 5 & 0 & 0 & 0 & -1 \\ \end (array) \right]\begin(matrix) -2 \\ -1 \\ \updownarrow \\ -2 \\\end(matrix)\to \\ & \to \left[ \begin(array)( rrrr| rrrr) 1 & -6 & 0 & -1 & -1 & 0 & 2 & 0 \\ 0 & 1 & 0 & 3 & 0 & -1 & 1 & 0 \\ 0 & 5 & 1 & 2 & 1 & 0 & -1 & 0 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array) \right] \\ \end(align)\]

Jetzt ist es Zeit, die letzte Spalte der ursprünglichen Matrix zu "braten": Subtrahieren Sie Zeile 4 vom Rest:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & -6 & 0 & -1 & -1 & 0 & 2 & 0 \\ 0 & 1 & 0 & 3 & 0 & -1 & 1 & 0 \\ 0 & 5 & 1 & 2 & 1 & 0 & -1 & 0 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array ) \right]\begin(matrix) +1 \\ -3 \\ -2 \\ \uparrow \\\end(matrix)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 & -6 & 0 & 0 & -3 & 0 & 4 & -1 \\ 0 & 1 & 0 & 0 & 6 & -1 & -5 & 3 \\ 0 & 5 & 1 & 0 & 5 & 0 & -5 & 2 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array) \right] \\ \end(align)\]

Letzter Wurf: "brennen" Sie die zweite Spalte aus, indem Sie Zeile 2 von Zeile 1 und 3 subtrahieren:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & -6 & 0 & 0 & -3 & 0 & 4 & -1 \\ 0 & 1 & 0 & 0 & 6 & -1 & -5 & 3 \\ 0 & 5 & 1 & 0 & 5 & 0 & -5 & 2 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end( array) \right]\begin(matrix) 6 \\ \updownarrow \\ -5 \\ \ \\\end(matrix)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 & 0 & 0 & 0 & 33 & -6 & -26 & -17 \\ 0 & 1 & 0 & 0 & 6 & -1 & -5 & 3 \\ 0 & 0 & 1 & 0 & -25 & 5 & 20 & -13 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array) \right] \\ \end(align)\]

Und wieder die Identitätsmatrix links, also die Inverse rechts. :)

Antworten. $\left[ \begin(matrix) 33 & -6 & -26 & 17 \\ 6 & -1 & -5 & 3 \\ -25 & 5 & 20 & -13 \\ -2 & 0 & 2 & - 1 \\\end(matrix) \right]$