Teorema do núcleo e da imagem

Em matemática, mais especificamente em álgebra linear, o teorema do núcleo e da imagem, em sua forma mais simples, afirma que o posto e a nulidade de uma matriz têm como soma o número de colunas da matriz. Especificamente, se A é uma matriz m-por-n (com m linhas e n colunas) sobre um corpo, então:

rk ( A ) + nul ( A ) = n . {\displaystyle \operatorname {rk} (A)+\operatorname {nul} (A)=n.}
Isto também se aplica a transformações lineares. Sejam V e W espaços vetoriais sobre algum corpo e seja T : VW uma transformação linear. Então o posto de T é a dimensão da imagem de T e a nulidade de T é a dimensão do núcleo de T. Tem-se:
dim ( im ( T ) ) + dim ( ker ( T ) ) = dim ( V ) , {\displaystyle \operatorname {dim} (\operatorname {im} (T))+\operatorname {dim} (\operatorname {ker} (T))=\operatorname {dim} (V),}
ou, equivalentemente,
rk ( T ) + nul ( T ) = dim ( V ) . {\displaystyle \operatorname {rk} (T)+\operatorname {nul} (T)=\operatorname {dim} (V).}
Pode-se refinar esta afirmação (por meio do lema de splitting ou a prova abaixo) para que seja sobre um isomorfismo de espaços, em vez de apenas sobre as respectivas dimensões.

Mais geralmente, pode-se considerar a imagem, o núcleo, a co-imagem e o co-núcleo, que estão relacionados pelo teorema fundamental da álgebra linear.

Demonstrações

Serão apresentadas duas demonstrações. A primeira utiliza a notação das transformações lineares, mas pode ser facilmente adaptada para matrizes escrevendo T(x) = Ax, onde A é m × n. A segunda prova examina o sistema homogêneo Ax = 0 associado a uma matriz A m × n de posto r e mostra explicitamente que existe um conjunto de nr soluções linearmente independentes que geram o espaço nulo de A. Essas provas também estão disponíveis no livro de Banerjee e Roy (2014)[1]

Primeira demonstração: Suponha que { u 1 , , u m } {\displaystyle \{\mathbf {u} _{1},\ldots ,\mathbf {u} _{m}\}} forma uma base de ker T. Pode-se estender esta base para formar uma base de V: { u 1 , , u m , w 1 , , w n } . {\displaystyle \{\mathbf {u} _{1},\ldots ,\mathbf {u} _{m},\mathbf {w} _{1},\ldots ,\mathbf {w} _{n}\}.} Como a dimensão de ker T é m e a dimensão de V é m + n, é suficiente mostrar que a dimensão da image of T (im T) é n.

Para ver que { T w 1 , , T w n } {\displaystyle \{T\mathbf {w} _{1},\ldots ,T\mathbf {w} _{n}\}} é uma base de im T, seja v um vetor arbitrário em V. Existe uma única sequência de escalares tais que:

v = a 1 u 1 + + a m u m + b 1 w 1 + + b n w n {\displaystyle \mathbf {v} =a_{1}\mathbf {u} _{1}+\cdots +a_{m}\mathbf {u} _{m}+b_{1}\mathbf {w} _{1}+\cdots +b_{n}\mathbf {w} _{n}}
T v = a 1 T u 1 + + a m T u m + b 1 T w 1 + + b n T w n {\displaystyle \Rightarrow T\mathbf {v} =a_{1}T\mathbf {u} _{1}+\cdots +a_{m}T\mathbf {u} _{m}+b_{1}T\mathbf {w} _{1}+\cdots +b_{n}T\mathbf {w} _{n}}
T v = b 1 T w 1 + + b n T w n T u i = 0 {\displaystyle \Rightarrow T\mathbf {v} =b_{1}T\mathbf {w} _{1}+\cdots +b_{n}T\mathbf {w} _{n}\;\;\because T\mathbf {u} _{i}=0}
Assim, { T w 1 , , T w n } {\displaystyle \{T\mathbf {w} _{1},\ldots ,T\mathbf {w} _{n}\}} gera im T.

Agora, é preciso mostrar que esta lista não tem redundâncias; isto é, que { T w 1 , , T w n } {\displaystyle \{T\mathbf {w} _{1},\ldots ,T\mathbf {w} _{n}\}} é linearmente independente. Pode-se fazer isso mostrando que uma combinação linear destes vetores é zero se, e somente se, os coeficientes de cada vetor são zero. Seja:

c 1 T w 1 + + c n T w n = 0 T ( c 1 w 1 + + c n w n ) = 0 {\displaystyle c_{1}T\mathbf {w} _{1}+\cdots +c_{n}T\mathbf {w} _{n}=0\Leftrightarrow T(c_{1}\mathbf {w} _{1}+\cdots +c_{n}\mathbf {w} _{n})=0}
c 1 w 1 + + c n w n ker T {\displaystyle \therefore c_{1}\mathbf {w} _{1}+\cdots +c_{n}\mathbf {w} _{n}\in \operatorname {ker} \;T}
Então, como ui geram ker T, existe um conjunto de escalares di tais que:
c 1 w 1 + + c n w n = d 1 u 1 + + d m u m {\displaystyle c_{1}\mathbf {w} _{1}+\cdots +c_{n}\mathbf {w} _{n}=d_{1}\mathbf {u} _{1}+\cdots +d_{m}\mathbf {u} _{m}}
Mas, como { u 1 , , u m , w 1 , , w n } {\displaystyle \{\mathbf {u} _{1},\ldots ,\mathbf {u} _{m},\mathbf {w} _{1},\ldots ,\mathbf {w} _{n}\}} é uma base de V, todos os ci, di devem ser zero. Portanto, { T w 1 , , T w n } {\displaystyle \{T\mathbf {w} _{1},\ldots ,T\mathbf {w} _{n}\}} é linearmente independente e de fato uma base de im T. Isto prova que a dimensão de im T é n, como desejado.

Em termos mais abstratos, a aplicação T : V → im T cinde.

Segunda demonstração: Seja A uma matriz m × n com r colunas linearmente independentes (isto é o posto de A é r). Será mostrado que: (i) existe um conjunto de nr soluções linearmente independentes para o sistema homogêneo Ax = 0, e (ii) que toda outra solução é uma combinação linear destas nr soluções. Em outras palavras, será produzida uma matriz X de ordem n × (nr) cujas colunas formam uma base do espaço nulo de A.

Sem perda de generalidade, assuma que as primeiras r colunas de A são linearmente independentes. Então, pode-se escrever A = [A1:A2], em que A1 é m × r com r vetores colunas linearmente independentes e A2 é m × (nr), sendo cada uma de suas nr colunas combinações lineares das colunas de A1. Isto significa que A2 = A1 B para alguma matriz B (ver fatoração de posto) e, assim, A = [A1:A1B]. Seja X = ( B I n r ) , {\displaystyle \displaystyle \mathbf {X} ={\begin{pmatrix}-\mathbf {B} \\\mathbf {I} _{n-r}\end{pmatrix}},} em que I n r {\displaystyle \mathbf {I} _{n-r}} é a matriz matriz identidade (n − r) × (n − r). Note que X é uma matriz n × (nr) que satisfaz

A X = [ A 1 : A 1 B ] ( B I n r ) = A 1 B + A 1 B = O . {\displaystyle \mathbf {A} \mathbf {X} =[\mathbf {A} _{1}:\mathbf {A} _{1}\mathbf {B} ]{\begin{pmatrix}-\mathbf {B} \\\mathbf {I} _{n-r}\end{pmatrix}}=-\mathbf {A} _{1}\mathbf {B} +\mathbf {A} _{1}\mathbf {B} =\mathbf {O} \;.}
Portanto, cada uma das nr colunas de X são soluções particulares de Ax = 0. Além disso, as nr colunas de X são linearmente independentes, pois Xu = 0 implica u = 0:
X u = 0 ( B I n r ) u = 0 ( B u u ) = ( 0 0 ) u = 0 . {\displaystyle \mathbf {X} \mathbf {u} =\mathbf {0} \Rightarrow {\begin{pmatrix}-\mathbf {B} \\\mathbf {I} _{n-r}\end{pmatrix}}\mathbf {u} =\mathbf {0} \Rightarrow {\begin{pmatrix}-\mathbf {B} \mathbf {u} \\\mathbf {u} \end{pmatrix}}={\begin{pmatrix}\mathbf {0} \\\mathbf {0} \end{pmatrix}}\Rightarrow \mathbf {u} =\mathbf {0} \;.}
Portanto, os vetores coluna de X constituem um conjunto de nr soluções linearmente independentes de Ax = 0.

A seguir será provado que qualquer solução de Ax = 0 tem de ser uma combinação linear das colunas de X. Para isso, seja u = ( u 1 u 2 ) {\displaystyle \displaystyle \mathbf {u} ={\begin{pmatrix}\mathbf {u} _{1}\\\mathbf {u} _{2}\end{pmatrix}}} qualquer vetor tal que Au = 0. Note que como as colunas de A1 são linearmente independentes, A1x = 0 implica x = 0. Portanto,

A u = 0 [ A 1 : A 1 B ] ( u 1 u 2 ) = 0 A 1 ( u 1 + B u 2 ) = 0 u 1 + B u 2 = 0 u 1 = B u 2 {\displaystyle \mathbf {A} \mathbf {u} =\mathbf {0} \Rightarrow [\mathbf {A} _{1}:\mathbf {A} _{1}\mathbf {B} ]{\begin{pmatrix}\mathbf {u} _{1}\\\mathbf {u} _{2}\end{pmatrix}}=\mathbf {0} \Rightarrow \mathbf {A} _{1}(\mathbf {u} _{1}+\mathbf {B} \mathbf {u} _{2})=\mathbf {0} \Rightarrow \mathbf {u} _{1}+\mathbf {B} \mathbf {u} _{2}=\mathbf {0} \Rightarrow \mathbf {u} _{1}=-\mathbf {B} \mathbf {u} _{2}}
u = ( u 1 u 2 ) = ( B I n r ) u 2 = X u 2 . {\displaystyle \Rightarrow \mathbf {u} ={\begin{pmatrix}\mathbf {u} _{1}\\\mathbf {u} _{2}\end{pmatrix}}={\begin{pmatrix}-\mathbf {B} \\\mathbf {I} _{n-r}\end{pmatrix}}\mathbf {u} _{2}=\mathbf {X} \mathbf {u} _{2}.}
Isso prova que qualquer vetor u que é uma solução de Ax = 0 tem de ser uma combinação linear das nr soluções especiais dadas pelas colunas de X. E já foi mostrado que as colunas de X são linearmente independentes. Assim, as colunas de X constituem uma base para o espaço nulo de A. Por conseguinte, a nulidade de A é nr. Como r é igual ao posto de A, segue-se que rk(A) + nul(A) = n. QED.

Reformulações e generalizações

Este teorema é uma instância do primeiro teorema de isomorfismo da álgebra para o caso de espaços vetoriais; ele se generaliza para o splitting lemma.

Em uma linguagem mais moderna, o teorema também pode ser expresso como segue:

0 → UVR → 0

é uma sequência exata curta de espaços vetoriais, então

dim(U) + dim(R) = dim(V).

Aqui R desempenha o papel de im T e U é o ker T, isto é

0 ker T   I d   V   T   im T 0 {\displaystyle 0\rightarrow \ker T~{\overset {Id}{\rightarrow }}~V~{\overset {T}{\rightarrow }}~\operatorname {im} T\rightarrow 0}
No caso de dimensão finita, esta formulação é suscetível a uma generalização: se

0 → V1V2 → ... → Vr → 0

é uma sequência exata de espaços vetoriais de dimensão finita, então

i = 1 r ( 1 ) i dim ( V i ) = 0. {\displaystyle \sum _{i=1}^{r}(-1)^{i}\dim(V_{i})=0.}
[2] O teorema do núcleo e da imagem para espaços vetoriais de dimensão finita também podem ser formulado em termos do índice de uma transformação linear. O índice de uma transformação linear T : VW, em que V e W têm dimensão finita, é definido por

índice T = dim(ker T) − dim(coker T).

Intuitivamente, dim(ker T) é o número de soluções independentes x da equação Tx = 0 e dim(coker T) é o número de restrições independentes que devem ser impostas sobre y que Tx = y tenha solução. O teorema do núcleo e da imagem para espaços vetoriais de dimensão finita é equivalente à afirmação de que

índice T = dim(V) − dim(W).

Pode-se obter o índice da transformação linear T a partir dos espaços envolvidos, sem a necessidade de se analisar T em detalhe. Este efeito também ocorre em um resultado muito mais profundo: o teorema do índice de Atiyah–Singer afirma que o índice de certos operadores diferenciais pode ser obtido da geometria dos espaços envolvidos.

Notas

  1. Banerjee, Sudipto; Roy, Anindya (2014), Linear Algebra and Matrix Analysis for Statistics, ISBN 978-1420095388, Texts in Statistical Science 1st ed. , Chapman and Hall/CRC 
  2. Zaman, Ragib. «Dimensions of vector spaces in an exact sequence». Mathematics Stack Exchange. Consultado em 27 de outubro de 2015 

Referências

  • Banerjee, Sudipto; Roy, Anindya (2014), Linear Algebra and Matrix Analysis for Statistics, ISBN 978-1420095388, Texts in Statistical Science 1st ed. , Chapman and Hall/CRC 
  • Meyer, Carl D. (2000), Matrix Analysis and Applied Linear Algebra, ISBN 978-0-89871-454-8, SIAM .