Sto scrivendo delle dispense di Algebra lineare, visto che non sono riuscito a trovare alcun testo che mi soddisfi totalmente.
Poiché non ho alcun posto dove scriverle in latex se non vi dispiace le lascio qui, del resto a qualcuno potrebbe interessare dare un'occhiata
Manca la parte iniziale sulle matrici e i sistemi lineari, ma in seguito l'aggiungerò.
------------------------------------------------------
Determinante
Sia [tex]\mathbb{F}[/tex] un campo.
L'insieme [tex]\mathfrak{M}_n( \mathbb{F})[/tex] delle matrici quadrate di ordine [tex]n[/tex] ad entrate in [tex]\mathbb{F}[/tex] è un monoide rispetto all'operazione tra matrici di prodotto righe per colonne.
Il sottoinsieme di [tex]\mathfrak{M}_n( \mathbb{F})[/tex] le cui matrici ammettono inversa forma un gruppo rispetto all'operazione di prodotto righe per colonne, esso è chiamato gruppo lineare e denotato come [tex]\boldsymbol{GL}(n, \mathbb{F})[/tex].
Ci proponiamo di caratterizzare le matrici del gruppo [tex]\boldsymbol{GL}(n, \mathbb{F})[/tex].
Casi semplici:
[tex]\boxed{n=1}[/tex]
[tex]\mathfrak{M}_1( \mathbb{F})[/tex] può essere identificato a [tex]\mathbb{F}[/tex], di modo che gli elementi invertibili siano tutti e soli gli scalari non nulli di [tex]\mathbb{F}[/tex].
[tex]\boxed{n=2}[/tex]
Sia [tex]A= \left( \begin{array}{ccc}
a & b \\
c & d \end{array} \right) \in \mathfrak{M}_2 (\mathbb{F})[/tex], sia [tex]\left( \begin{array}{ccc}
x_1 & x_2 \\
x_3 & x_4 \end{array} \right) \in \mathfrak{M}_2 (\mathbb{F})[/tex] la sua inversa, allora deve essere soddisfatta la relazione
[tex]\left( \begin{array}{ccc}
a & b \\
c & d \end{array} \right) \left( \begin{array}{ccc}
x_1 & x_2 \\
x_3 & x_4 \end{array} \right)= \left( \begin{array}{ccc}
1 & 0 \\
0 & 1 \end{array} \right)[/tex]
Indubbiamente deve dunque valere
[tex]\begin{equation}
\begin{cases}
ax_2+bx_4=0\\cx_1+dx_3=0
\end{cases}
\end{equation}[/tex]
Banalmente una soluzione del sistema è la quaterna [tex](x_1,x_2,x_3,x_4)=(d, -b,-c,a)[/tex], quindi
[tex]\left( \begin{array}{ccc}
a & b \\
c & d \end{array} \right) \left( \begin{array}{ccc}
d & -b \\
-c & a \end{array} \right)= \left( \begin{array}{ccc}
ad-bc & 0 \\
0 & ad-bc \end{array} \right)[/tex]
In definitiva, se [tex]ad-bc \not = 0[/tex] risulta
[tex]\displaystyle A^{-1}=\frac{1}{ad-bc} \left( \begin{array}{ccc}
d & -b \\
-c & a \end{array} \right)[/tex]
La quantità [tex]ad-bc=[A]_{11}[A]_{22}-[A]_{12}[A]_{21}[/tex] prende il nome di determinante della matrice [tex]A[/tex].
Per procedere nello studio dobbiamo vedere alcune proprietà del gruppo [tex]\mathfrak{S}_n[/tex] delle permutazioni dell'insieme [tex]\{1,2,...,n\}[/tex] dei primi [tex]n[/tex] interi positivi.
Sia [tex]\sigma \in \mathfrak{S}_n[/tex], definiamo il seguente prodotto
[tex]\displaystyle \epsilon(\sigma)= \prod_{i<j}{\frac{\sigma(j)-\sigma(i)}{j-i}}[/tex]
La funzione [tex]\epsilon:=\{\sigma \mapsto \epsilon(\sigma): \mathfrak{S}_n \rightarrow \{-1,1\}\}[/tex] prende il nome di funzione segno.
Lemma 1: la funzione segno è moltiplicativa (più precisamente, è un omomorfismo del gruppo moltiplicativo [tex]\mathfrak{S_n}[/tex] nel sottogruppo moltiplicativo dei reali nonnulli [tex]\{-1,1\}[/tex]).
DIMOSTRAZIONE: Siano [tex]\sigma_1,\sigma_2 \in \mathfrak{S}_n[/tex]
[tex]\displaystyle \epsilon(\sigma_1 \circ \sigma_2)=\prod_{i<j}{\frac{\sigma_1(\sigma_2(j))-\sigma_1(\sigma_2(i))}{j-i}}=\prod_{i<j}{ \left ( \frac{\sigma_1(\sigma_2(j))-\sigma_1(\sigma_2(i))}{\sigma_2(j)-\sigma_2(i)} \cdot \frac{\sigma_2(j)-\sigma_2(i)}{j-i} \right )}=\epsilon(\sigma_1) \cdot \epsilon(\sigma_2)[/tex]
dacché [tex]\displaystyle \prod_{i<j} \frac{\sigma_1(\sigma_2(j))-\sigma_1(\sigma_2(i))}{\sigma_2(j)-\sigma_2(i)}[/tex] è uguale a [tex]\displaystyle \prod_{i<j}{\frac{\sigma_1(j)-\sigma_1(i)}{j-i}}[/tex] a meno dell'ordine dei fattori.
Una permutazione [tex]\sigma \in \mathfrak{S}_n[/tex] che scambi tra di loro due elementi e mantenga gli altri fissi è chiamata trasposizione.
Ad esempio
[tex]\sigma = \begin{pmatrix} 1 & 2 & 3 & 4 \\ 3 & 2 & 1 & 4 \end{pmatrix}[/tex]
è una trasposizione di [tex]\mathfrak{S}_4[/tex] che indicheremo con [tex]\left ( 1 3 \right )[/tex].
Il segno della permutazione identica è [tex]1[/tex] mentre il segno di una qualsiasi trasposizione è [tex]-1[/tex].
Lemma 2: [tex]\forall \sigma \in \mathfrak{S}_n:\epsilon(\sigma)=\epsilon(\sigma^{-1})[/tex]
DIMOSTRAZIONE
[tex]\displaystyle 1=\epsilon(\sigma^{-1} \circ \sigma)=\epsilon(\sigma^{-1})\epsilon(\sigma) \rightarrow \epsilon(\sigma^{-1})=\frac{1}{\epsilon(\sigma)}=\epsilon(\sigma)[/tex]
Ogni permutazione può essere scritta in modo non unico come composizione di traspozioni, in particolare vale il seguente
Lemma 3: ogni permutazione [tex]\sigma \in \mathfrak{S}_n[/tex] ([tex]n \ge 2[/tex]) può essere scritta come prodotto di al più [tex]n-1[/tex] trasposizioni di [tex]\mathfrak{S}_n[/tex].
DIMOSTRAZIONE (per induzione):
[tex]\boxed{n=2}[/tex]
Gli elementi di [tex]\mathfrak{S}_2[/tex] sono la permutazione identica [tex]\begin{pmatrix} 1 & 2 \\ 1 & 2 \end{pmatrix}[/tex] e la permutazione [tex]\begin{pmatrix} 1 & 2 \\ 2 & 1 \end{pmatrix}[/tex], entrambe sono trasposizioni.
[tex]\boxed{n>2}[/tex]
Identifichiamo [tex]\mathfrak{S_{n-1}}[/tex] al sottogruppo di [tex]\mathfrak{S}_n[/tex] delle permutazioni che mandano [tex]n[/tex] in sé mediante il monomorfismo
[tex]\mathfrak{S}_{n-1} \ni \tau \rightarrow \overline{\tau} \in \mathfrak{S}_{n}[/tex]
definito da
[tex]\overline{\tau}(i)=\tau(i)[/tex] se [tex]1 \le i <n[/tex]
[tex]\overline{\tau}(n)=n[/tex]
Consideriamo [tex]\sigma \in \mathfrak{S}_n[/tex].
Se [tex]\sigma(n)=n[/tex] allora possiamo scrivere [tex]\sigma = \overline{\sigma'}[/tex] per [tex]\sigma' \in \mathfrak{S}_{n-1}[/tex], per ipotesi quest'ultima è esprimibile come prodotto di al più [tex]n-2[/tex] trasposizioni, ossia
[tex]\sigma'=\sigma_1 \circ \sigma _2 \circ ... \circ \sigma_{m}[/tex]
[tex]0 \le m \le n-2<n-1[/tex]
conseguentemente
[tex]\sigma=\overline{\sigma'}=\overline{\sigma_1} \circ \overline{\sigma_2} \circ ... \circ \overline{\sigma_{m}}[/tex]
è prodotto di al più [tex]n-2<n-1[/tex] trasposizioni.
Se [tex]\sigma(n)=i \not = n[/tex], consideriamo [tex]\sigma'=\sigma \circ \left( i \space n \right )[/tex], ques'ultima è una permutazione di [tex]\mathfrak{S_n}[/tex] tale che l'ultimo elemento viene mandato in sé quindi per quanto mostrato poco fa sappiamo che è esprimibile come prodotto di al più [tex]n-2[/tex] trasposizioni, allora
[tex]\sigma'=\sigma \circ \left (i \space n \right )= \sigma_1 \circ \sigma_2 \circ ... \circ \sigma_m \rightarrow \sigma=\sigma_1 \circ \sigma_2 \circ ... \circ \sigma_m \circ \left (i \space n \right )[/tex]
è prodotto di al più [tex]n-1[/tex] trasposizioni (si è usato il fatto che una traspozione è inversa di se stessa).
Sia [tex]E[/tex] un insieme, sia [tex]\mathfrak{F} := \{f| f: E^n \rightarrow \mathbb{F} \}[/tex].
Il gruppo [tex]\mathfrak{S}_n[/tex] agisce su [tex]\mathfrak{F}[/tex] mediante
[tex]\mathfrak{S}_n \times \mathfrak{F} \ni (\sigma, f) \rightarrow \sigma f \in \mathfrak{F}[/tex]
ove
[tex]\sigma f(x_1,...,x_n)=f(x_{\sigma(1)},...,x_{\sigma(n)})[/tex]
Se per ogni [tex]\sigma \in \mathfrak{S}_n[/tex] vale [tex]\sigma f=f[/tex] allora la funzione [tex]f:E^n \rightarrow \mathbb{F}[/tex] è detta simmetrica.
Se valgono
(i) [tex]\sigma f= \epsilon(\sigma) f[/tex] per ogni [tex]\sigma \in \mathfrak{S}_n[/tex]
(ii) [tex]f(x_1,...,x_n)=0[/tex] se [tex]x_i=x_j[/tex] per una coppia di indici [tex]i,j[/tex] con [tex]1 \le i <j \le n[/tex]
la funzione [tex]f: E^n \rightarrow \mathbb{F}[/tex] è detta antisimmetrica.
Sia [tex]A \in \mathfrak{M}_{n}(\mathbb{F})[/tex], utilizzando la notazione per colonne possiamo scriverla come [tex]A=(A^1,A^2,...,A^n)[/tex].
Vogliamo definire una funzione [tex]det:\mathfrak{M}_n(\mathbb{F}) \rightarrow \mathbb{F}[/tex] che goda delle seguenti proprietà:
(1) [tex]det[/tex] è una funzione antisimmetrica delle colonne;
(2) [tex]det(I_n)=1[/tex];
(3) Siano [tex]A_1,...,B,C,...,A_n \in \mathfrak{M}(n,1, \mathbb{F})[/tex] [matrici colonna] e [tex]h,k \in \mathbb{F}[/tex], allora
[tex]det(A_1,...,kB+hC,...,A_n)=k\cdot det(A_1,...,B,...,A_n)+h \cdot det(A_1,...,C,...,A_n)[/tex]
Inoltre
[tex]det(A)=det(^t A)[/tex]
Sia [tex]e_i[/tex] il vettore colonna che ha un [tex]1[/tex] nella i-esima riga e 0 in tutte le altre, allora una qualsiasi colonna di [tex]A \in \mathfrak{M}_n(\mathbb{F})[/tex] può essere decomposta come [tex]\displaystyle A^j=\sum_{i=1}^{n}a_{ij}e_i[/tex], quindi
[tex]det(A)=det(A^1,A^2,...,A^n)=det(\sum_{i_{1}=1}^n a_{{i_1}1} e_{i_1},A^2,...,A^n)=[/tex]
[tex]\displaystyle \sum_{{i_1}=1}^n a_{{i_1}1} det(e_{i_1},A^2,...,A^n)=[/tex]
[tex]\displaystyle \sum_{{i_1}.{i_2}=1}^n a_{{i_1}1}a_{{i_2}2} det(e_{i_1},e_{i_2},A^3,...,A^n)=[/tex]
[tex]\displaystyle \sum_{{i_1},{i_2},...,{i_n}=1}^n a_{{i_1}1}a_{{i_2}2}...a_{{i_n}n} det (e_{i_n},e_{i_2},...,e_{i_n})[/tex]
Dove abbiamo ripetutamente usato la proprietà (3).
Notiamo che [tex](e_{i_n},e_{i_2},...,e_{i_n})[/tex] corrisponde alla matrice identica con le colonne permutate se [tex]i:\{1,2,...,n\} \rightarrow \{1,2,...,n\}[/tex] è una permutazione di [tex]\mathfrak{S}_n[/tex], in tal caso se [tex]\sigma[/tex] è la permutazione che ha permutato le colonne della matrice identica vale [tex]det(e_{i_n},e_{i_2},...,e_{i_n})= \epsilon(\sigma)[/tex]; altrimenti il determinante è nullo [abbiamo usato le proprietà (1) e (2)].
In definitiva
[tex]\displaystyle det(A)=\sum_{\sigma \in \mathfrak{S}_n}{ \epsilon(\sigma)a_{\sigma(1)1}a_{\sigma(2)2}...a_{\sigma(n)n}}[/tex]
In tal modo abbiamo dimostrato che la funzione determinante, se esiste, è unica.
Resta da dimostrarne l'esistenza.
Definiamo la funzione determinante come sopra e mostriamo che effettivamente gode delle proprietà richieste.
[tex]\displaystyle det(A)=\sum_{\sigma \in \mathfrak{S}_n}{ \epsilon(\sigma)a_{\sigma(1)1}a_{\sigma(2)2}...a_{\sigma(n)n}}[/tex]
(1) [tex]Det(A)=Det(^t A)[/tex]
[tex]Det(A)=\sum_{\sigma \in \mathfrak{S}_n} \epsilon(\sigma) a_{\sigma(1)1}a_{\sigma(2)2}...a_{\sigma(n)n}= Det(A)=\sum_{\sigma \in \mathfrak{S}_n} \epsilon(\sigma) a_{1\sigma^{-1}(1)}a_{2\sigma^{-1}(2)}...a_{n \sigma^{-1}(n)}[/tex]
[L'uguaglianza è vera perché se [tex]\sigma(k)=a[/tex] allora [tex]\sigma^{-1}(a)=k[/tex], quindi [tex]k \sigma (k)=\sigma^{-1}(a)a[/tex], di modo che il prodotto rimanga uguale a meno dell'ordine].
Infine, ponendo [tex]\tau= \sigma^-1[/tex] si ha
[tex]\displaystyle Det(A)=\sum_{\sigma \in \mathfrak{S}_n} \epsilon(\sigma) a_{1\sigma^{-1}(1)}a_{2\sigma^{-1}(2)}...a_{n \sigma^{-1}(n)}=Det(A)=\sum_{\tau^{-1} \in \mathfrak{S}_n} \epsilon(\tau^{-1}) a_{1\tau (1)}a_{2 \tau (2)}...a_{n \tau (n)}=Det(A)=[/tex]
[tex]=\sum_{\tau^{-1} \in \mathfrak{S}_n} \epsilon(\tau) a_{1\tau (1)}a_{2 \tau (2)}...a_{n \tau (n)}= Det(^t A)[/tex]
(2) [tex]Det[/tex] è una funzione antisimmetrica delle colonne
Notazione: se [tex]A=(A^1,...,A^n) \in \mathfrak{M}_n(\mathbb{F})[/tex], allora [tex]\tau A=(A^{\tau(1)},...,A^{\tau(n)})[/tex]
(2.1) [tex]\forall \tau \in \mathfrak{S}_n, \forall A \in \mathfrak{M}_n(\mathbb{F}): det(\tau A)=\epsilon(\tau) det(A)[/tex]
[tex]\displaystyle det(\tau A)= \sum_{\sigma \in \mathfrak{S}_n} \epsilon(\sigma) a_{\tau(\sigma(1))1}a_{\tau(\sigma(2))2}...a_{\tau(\sigma(n))n}[/tex]
Posto [tex]\tau \circ \sigma=\sigma'[/tex] si ha
[tex]\displaystyle det(\tau A)=\sum_{\sigma \in \mathfrak{S}_n} \epsilon(\sigma) a_{\tau(\sigma(1))1}a_{\tau(\sigma(2))2}...a_{\tau(\sigma(n))n}= \sum_{\sigma' \in \mathfrak{S}_n} \epsilon( \tau^{-1} \circ \sigma') a_{\sigma'(1)1}a_{\sigma'(2)2}...a_{\sigma'(n)n}=[/tex]
[tex]\displaystyle = \sum_{\sigma' \in \mathfrak{S}_n} \epsilon( \tau) \epsilon(\sigma') a_{\sigma'(1)1}a_{\sigma'(2)2}...a_{\sigma'(n)n}=\epsilon(\tau) det(A)[/tex]
(2.2) Il determinante di una matrice che ha due colonne uguali è nullo.
[tex]A=(A^1,...,A^n) \in \mathfrak{M}_n(\mathbb{F})[/tex]
Supponiamo [tex]A^i=A^j[/tex].
Sia [tex]\tau[/tex] la trasposizione che scambia la colonna [tex]i[/tex] con la colonna [tex]j[/tex], allora
[tex]det(A^1,...,A^i,...,A^j,...,A^n)=\epsilon(\tau)det(A^1,...,A^j,...,A^i,...,A^n)=[/tex]
[tex]=-det(A^1,...,A^i,...,A^j,...,A^n) \rightarrow 2det(A)=0 \iff det(A)=0[/tex]
3) [tex]Det(I_n)=1[/tex], [tex]I_n \in \mathfrak{M}_n{\mathbb{F}}[/tex]
Definiamo, come usuale, la matrice identità nel seguente modo: [tex][I_n]_{ij}=\delta_{ij}[/tex], dove quest'ultima è la delta di kronecker, la quale vale [tex]1[/tex] se [tex]i=j[/tex] e [tex]0[/tex] in caso contrario; questo vuol dire che di tutti gli [tex]n![/tex] addendi presenti nell'espressione del determinante l'unico non nullo è quello determinato dalla permutazione identica, ossia
[tex]det(I_n)= a_{11}a_{22}...a_{nn}=1^{n}=1[/tex]
4) Siano [tex]A^1,...,B,C,...,A^n \in \mathfrak{M}(n,1, \mathbb{F})[/tex] [matrici colonna] e [tex]h,k \in \mathbb{F}[/tex], allora
[tex]H=det(A^1,...,kB+hC,...,A^n)=k\cdot det(A^1,...,B,...,A^n)+h \cdot det(A^1,...,C,...,A^n)[/tex]
[tex]\displaystyle Det(H)=\sum_{\sigma \in \mathfrak{S}_n} \epsilon(\sigma) a_{1\sigma(1)}...(kb_{j\sigma(j)}+hc_{j \sigma(j)})...a_n \sigma(n)=k \sum_{\sigma \in \mathfrak{S}_n} \epsilon(\sigma) a_{1\sigma(1)}...b_{j\sigma(j)}...a_n \sigma(n)+h \sum_{\sigma \in \mathfrak{S}_n} \epsilon(\sigma) a_{1\sigma(1)}...c_{j\sigma(j)}...a_n \sigma(n)=[/tex]
[tex]= det(A^1,...,B,...,A^n)+det(A^1,...,C,...,A^n)[/tex]
Abbiamo così dimostrato che il determinante esiste ed è unico.
TEOREMA: Il determinante definisce un epimorfismo del gruppo [tex]\boldsymbol{GL}(n,\mathbb{F})[/tex] sul gruppo moltiplicativo [tex]\stackrel{.}{\mathbb{F}}=\mathbb{F}-\{0\}[/tex]
La verifica della suriettività è immediata, infatti per ogni [tex]k \in \stackrel{.}{\mathbb{F}}[/tex] è sufficiente prendere la matrice
[tex]\left(\begin{matrix}k & 0 & 0 & ... & 0 & 0 \\ 0 & 1 & 0 & ... & 0 & 0 \\ 0 & 0 & 1 & ... & 0 & 0 \\ \vdots & \vdots & \vdots & \ddots & \vdots & \vdots \\ 0 & 0 & 0 & ... & 1 & 0 \\ 0 & 0 & 0 & ... & 0 & 1\end{matrix}\right)[/tex]
il cui determinante è [tex]k[/tex].
Non resta da dimostrare che [tex]det: \mathfrak{M}_n(\mathbb{F}) \rightarrow \stackrel{.}{\mathbb{F}}[/tex] è un omomorfismo di gruppi, e ciò costituisce l'enunciato di un altro teorema fondamentale per lo scopo che ci siamo posti
TEOREMA (DI BINET): Siano [tex]A,B \in \mathfrak{M}_n(\mathbb{F})[/tex], allora
[tex]det(AB)=det(A) \cdot det(B)[/tex]
Come noto il prodotto di matrici righe per colonne è definito nel seguente modo
[tex]\displaystyle [AB]_{ij}=\sum_{s=1}^{n}a_{is}b_{sj}[/tex]
[tex]\displaystyle det(AB)=\sum_{\sigma \in \mathfrak{S}_n} \epsilon(\sigma) [AB]_{1 \sigma(1)}[AB]_{2\sigma(2)}...[AB]_{n \sigma(n)}=[/tex]
[tex]=\displaystyle det(AB)=\sum_{\sigma \in \mathfrak{S}_n} \sum_{s_1,s_2,...,s_n=1}^n \epsilon(\sigma) a_{1s_1}b_{s_1 \sigma(1)}a_{2s_2}b_{s_2\sigma(2)}...a_{ns_n}b_{s_n\sigma(n)}=[/tex]
[tex]=\displaystyle \sum_{s_1,s_2,...,s_n=1}^n { a_{1 s_1}a_{2 s_2}...a_{n s_n} \sum_{\sigma \in \mathfrak{S}_n}\epsilon(\sigma) b_{s_1\sigma(1)}b_{s_2\sigma(2)}...b_{s_n\sigma(n)}}=[/tex]
[tex]\displaystyle = \sum_{s_1,s_2,...,s_n=1}^n a_{1 s_1}a_{2 s_2}...a_{n s_n} det(B_{s_1},B_{s_2},...,B_{s_n})[/tex]
Come visto precedentemente, se [tex]s[/tex] non è una permutazione di [tex]\{1,2,...,n\}[/tex] il determinante sarà nullo e dunque l'intero addendo, quindi quel che rimane è
[tex]\displaystyle \sum_{s \in \mathfrak{S}_n} \epsilon(s) a_{1s(1)}a_{2s(2)}...a_{n s(n)}det(B)=det(A)det(B)[/tex]
COROLLARIO: Se [tex]A \in \mathfrak{M}_n(\mathbb{F})[/tex] è invertibile, allora [tex]det(A) \not = 0[/tex].
[tex]\displaystyle 1= det(AA^{-1})=det(A)det(A^{-1}) \rightarrow det(A^{-1})=\frac{1}{det(A)}[/tex]
Sia [tex]A \in \mathfrak{M}_n{\mathbb{F}}[/tex], allora denotiamo con [tex]C_{ij}(A) \in \mathfrak{M}_{n-1}(\mathbb{F})[/tex] la matrice ottenuta cancellando la [tex]i-esima[/tex] riga e la [tex]j-esima[/tex] colonna di [tex]A[/tex]; indichiamo con [tex]A_{ij}[/tex] il determinante della suddetta.
Denotiamo con [tex]e_i[/tex] la matrice di [tex]\mathfrak{M}(n,1,\mathbb{F})[/tex] che ha un [tex]1[/tex] nella [tex]i-esima[/tex] riga e [tex]0[/tex] nelle restanti.
Infine, indichiamo con [tex]M_{ij}(A)[/tex] la matrice ottenuta da [tex]A[/tex] sostituendo alla [tex]j-esima[/tex] colonna la matrice colonna [tex]e_i[/tex].
Ci proponiamo di calcolare il determinante di quest'ultima, il motivo per cui ci interessa sarà chiaro nel seguito.
Vale
[tex]Det(A^1,...,A^{j-1},e_i,A^{j+1},...,A^n)=(-1)^{n-j} Det(A^1,...,A^{j-1},A^{j+1},...,A^n,e^i)=(-1)^{n-j}det(N)[/tex].
Come visto in precedenza tutte le proprietà del determinante valide per le colonne sono valide anche per le righe, esprimiamo dunque [tex]N[/tex] con la notazione per righe.
[tex]N=(N_1,...,N_{i-1},N_{i},N_{i+1},...,N_n)[/tex].
Vale
[tex]det(N)=(-1)^{n-i} det(N_1,...,N_{i-1},N_{i+1},...,N_n,N_i)=(-1)^{n-i}A_{ij}[/tex].
In definitiva
[tex]det(M_{ij}(A))=(-1)^{(n-j)+(n-i)}A_{ij}=(-1)^{i+j}A_{ij}[/tex]
Data [tex]A \in \mathfrak{M}_n{\mathbb{F}}[/tex], una sua qualsiasi colonna [tex]A^j[/tex] può essere decomposta come [tex]\displaystyle \sum_{i=1}^{n}a_{ij} e_i[/tex], quindi
[tex]\displaystyle det(A^1,...,A^j,...,A^n)=det(A^1,..., \sum_{i=1}^{n}a_{ij} e_i,...,A^n)=\sum_{i=1}^n {a_{ij} det(M_{ij}(A))}=\sum_{i=1}^n{(-1)^{i+j}a_{ij}A_{ij}}[/tex]
Questo risultato prende il nome di Primo teorema di Laplace e ha grande importanza operativa, infatti permette di ridurre il calcolo del determinante di una matrice quadrata di ordine [tex]n[/tex] al calcolo di più determinanti di ordine via via inferiore.
Esempio:
[tex]A=\left(\begin{matrix}1 & 2 & 3 \\ 4 & 5 & 6 \\ 7 & 8 & 9 \end{matrix}\right)[/tex]
Sviluppiamo secondo la terza colonna:
[tex]det(A)=(-1)^{(1+3)}3 \left| \begin{matrix}4 & 5 \\ 7 & 8 \end{matrix}\right|+(-1)^{(2+3)}6\left| \begin{matrix}1 & 2 \\ 7 & 8 \end{matrix}\right|+(-1)^{(3+3)}9\left| \begin{matrix}1 & 2 \\ 4 & 5 \end{matrix}\right|=3(4\cdot 8 -5 \cdot 7)-6(1\cdot 8 -2 \cdot 7)+9(1 \cdot 5-2 \cdot 4)=-9+36-27=0[/tex]
Questo ci dice anche che [tex]A[/tex] non è invertibile.
------------------------------------------------------
Da completare.
Gran parte di quanto scritto è basato sul Nacinovich.
Algebra Lineare
Algebra Lineare
Ultima modifica di Gizeta il 31/01/2015, 12:03, modificato 6 volte in totale.
Re: Algebra Lineare
Ottimo! Sono proprietà del determinante che poi nella pratica si danno per scontate, ma è bello vederle almeno una volta!