Prontu´ario de
´Algebra Linear e Geometria Anal´ıtica
R. Albuquerque
14 de Fevereiro de 2013
Prontu´ario de
´Algebra Linear e Geometria Anal´ıtica
Segunda vers˜ao
Rui Albuquerque
rpa@uevora.pt
Departamento de Matem´atica da Universidade de ´Evora
Rua Rom˜ao Ramalho, 59, 7000-671 ´Evora, Portugal
Introdu¸c˜ao
Estes apontamentos serviram de guia `a disciplina ´Algebra Linear e Geometria
Anal´ıtica das licenciaturas em ´areas da Engenharia e da F´ısica da Universidade de
´Evora do ano lectivo 2008/09. A mat´eria segue a das aulas te´oricas, complementada
com exemplos e problemas novos.
Percorrem-se diversos temas da ´algebra ligados `a geometria dos espa¸cos vec-
toriais e das aplica¸c˜oes lineares, estruturas fundamentais da F´ısica-Matem´atica-
Engenharia.
2
Desejamos cumprir objectivos pr´aticos e concretos de transmiss˜ao do conheci-
mento. Todavia, queremos que estas notas contrariem, ou mesmo n˜ao permitam, a
redu¸c˜ao da mat´eria “a um punhado de receitas” e a desvaloriza¸c˜ao do saber te´orico.
E por duas raz˜oes: nem o conhecimento pr´atico ser´a sempre ´util, nem “o saber
te´orico ocupa assim tanto lugar”, parafraseando o c´elebre ad´agio popular.
O conhecimento te´orico dever´a ser ali´as o esteio de toda a forma¸c˜ao cient´ıfico-
t´ecnica de base.
Vemos a necessidade, como em qualquer outra disciplina nuclear da Matem´atica,
de demonstrar os teoremas e proposi¸c˜oes que vamos escrevendo. Estas demon-
stra¸c˜oes apoiam-se em defini¸c˜oes e, naturalmente, em teoremas e proposi¸c˜oes anteri-
ores. Assumimos de conhecimento do leitor outras teorias ou delas uma ligeir´ıssima
parte, como a dos conjuntos, da l´ogica, da geometria euclidiana ou dos n´umeros
naturais.
Explicada a extens˜ao aparente do conte´udo, deve o leitor acompanhar-se de uma
folha de papel e l´apis para resolver algumas afirma¸c˜oes n˜ao provadas — aquelas
que s˜ao apenas auxiliares de objectivos maiores ou que julgamos ser˜ao exerc´ıcios
interessantes.
Vejamos um resumo dos cap´ıtulos.
Come¸camos com a ´algebra abstracta, que tem algumas defini¸c˜oes essenciais para
a parte linear da mat´eria. S˜ao particularmente importantes a no¸c˜ao de fun¸c˜ao e
a no¸c˜ao de grupo, que desde cedo devem ser assimiladas. Outras defini¸c˜oes neste
primeiro cap´ıtulo servem apenas para ilustrar problemas com que os matem´aticos se
debatem, esperando que este contacto traga mais luz que permita ao leitor superar
alguns dos purismos que a teoria exige.
Segue-se o estudo das matrizes e dos sistemas de equa¸c˜oes lineares, onde reina o
espa¸co vectorial Rn
posto que nos limitamos a coeficientes reais. Para os sistemas,
invocamos princ´ıpios cl´assicos de equivalˆencia ou indepedˆencia de equa¸c˜oes. Para
levar `a compreens˜ao da no¸c˜ao de caracter´ıstica de uma matriz e `a de indepedˆencia
linear de um sistema de vectores.
Neste contexto segue o cap´ıtulo dos determinantes para matrizes quadradas de
coeficientes em R. Apoia-se em elementos da teoria dos grupos de permuta¸c˜oes.
Depois vemos as propriedades multilineares da fun¸c˜ao determinante, a linguagem
que permitir´a o aluno interessado prosseguir em Geometria-F´ısica modernas.
O cerne da ´Algebra Linear encontra-se no cap´ıtulo quatro, com a introdu¸c˜ao e
manuseio dos conceitos de espa¸co vectorial e aplica¸c˜ao linear.
Mesmo em dimens˜ao finita, em que escolhida uma base poderemos fazer a iden-
tifica¸c˜ao de um dado espa¸co vectorial com Rn
, os conceitos abstractos s˜ao os mais
valiosos. S˜ao as bases e a dimens˜ao do espa¸co, a partir da no¸c˜ao fundamental de
sistema de vectores linearmente indepedente, s˜ao os exemplos em dimens˜ao infinita,
´e o retorno `as matrizes com o importante conceito de representa¸c˜ao e s˜ao, final-
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 3
mente, as transforma¸c˜oes lineares entre espa¸cos vectoriais e a procura de vectores
pr´oprios, como direc¸c˜oes singulares que s˜ao, de um endomorfismo linear.
No cap´ıtulo cinco mostramos aplica¸c˜oes na geometria do espa¸co euclidiano Rn
,
com o seu produto interno can´onico: o mais elementar produto interno decorre da
generaliza¸c˜ao do teorema de Pit´agoras. ´E de notar que nesse modelo se verifica o
axioma das paralelas para hiperplanos afins. Temos por isso tamb´em uma geometria
euclidiana no sentido axiom´atico.
Apresentamos uma classifica¸c˜ao dos s´olidos plat´onicos, exemplo da geometria
anal´ıtica e combinat´oria n˜ao usual no contexto de cursos como este. Por muitos
considerada uma autˆentica maravilha da matem´atica, aqueles s´olidos poli´edricos,
infelizmente, ainda s˜ao pouco conhecidos dos estudantes. A nossa necessidade de
referir os poliedros vem de uma sec¸c˜ao final, em que se define volume como “´area
da base vezes altura’, a qual tem m´ultiplas aplica¸c˜oes e literalmente nos permite
fechar o c´ırculo, retornando `as matrizes e aos determinantes de cap´ıtulos iniciais.
Na elabora¸c˜ao deste prontu´ario fizemos uso dos manuais dos nossos mestres,
[Agu83], [Mac90] e [Mon89], e de outras gratas referˆencias para n´os como a de
[Aud03].
Tamb´em benefici´amos da consulta `a enciclop´edia [Wik] e assim poder´a e dever´a
acontecer, acautele-se a falta de demonstra¸c˜oes, com o leitor ´avido de mais con-
hecimento.
Conte´udo
1 6
1.1 T´opicos elementares da Teoria dos Conjuntos . . . . . . . . . . . . 6
1.1.1 Primeiras no¸c˜oes . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.2 Rela¸c˜oes de equivalˆencia . . . . . . . . . . . . . . . . . . . . 7
1.1.3 Fun¸c˜oes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2 T´opicos de Estruturas Alg´ebricas . . . . . . . . . . . . . . . . . . . 9
1.2.1 Grupos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.2 An´eis e Corpos . . . . . . . . . . . . . . . . . . . . . . . . . 11
2 14
2.1 Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.1.1 Primeiras defini¸c˜oes . . . . . . . . . . . . . . . . . . . . . . . 14
2.1.2 Matrizes especiais . . . . . . . . . . . . . . . . . . . . . . . . 16
2.1.3 Transposta . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2 Sistemas de Equa¸c˜oes Lineares . . . . . . . . . . . . . . . . . . . . . 18
2.2.1 M´etodo de resolu¸c˜ao pela adi¸c˜ao ordenada . . . . . . . . . . 18
2.2.2 Condensa¸c˜ao de uma matriz . . . . . . . . . . . . . . . . . . 19
2.2.3 Estudo dos sistemas . . . . . . . . . . . . . . . . . . . . . . 20
2.3 Espa¸co Euclidiano . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.3.1 O espa¸co vectorial Rn
ou espa¸co euclidiano . . . . . . . . . . 21
2.3.2 Independˆencia linear . . . . . . . . . . . . . . . . . . . . . . 22
2.4 A caracter´ıstica e a inversa de novo . . . . . . . . . . . . . . . . . . 23
2.4.1 Caracter´ıstica de linha vs caracter´ıstica de coluna . . . . . . 23
2.4.2 C´alculo da inversa . . . . . . . . . . . . . . . . . . . . . . . 25
3 27
3.1 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.1.1 Grupos de permuta¸c˜oes . . . . . . . . . . . . . . . . . . . . . 27
3.1.2 Defini¸c˜ao de determinante . . . . . . . . . . . . . . . . . . . 29
3.1.3 Propriedades do determinante . . . . . . . . . . . . . . . . . 29
3.1.4 C´alculo de determinantes . . . . . . . . . . . . . . . . . . . . 31
3.1.5 Regra do produto . . . . . . . . . . . . . . . . . . . . . . . . 32
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 5
3.2 Regra de Laplace e aplica¸c˜oes . . . . . . . . . . . . . . . . . . . . . 34
3.2.1 Regra de Laplace . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.2 A matriz adjunta . . . . . . . . . . . . . . . . . . . . . . . . 36
3.2.3 Regra de Cramer . . . . . . . . . . . . . . . . . . . . . . . . 37
4 39
4.1 Espa¸cos vectoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.1.1 Defini¸c˜oes e exemplos . . . . . . . . . . . . . . . . . . . . . . 39
4.1.2 Bases e dimens˜ao . . . . . . . . . . . . . . . . . . . . . . . . 40
4.1.3 Soma cartesiana e soma directa . . . . . . . . . . . . . . . . 42
4.2 Aplica¸c˜oes lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.2.1 Defini¸c˜oes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.2.2 Representa¸c˜ao matricial . . . . . . . . . . . . . . . . . . . . 44
4.2.3 Composi¸c˜ao vs produto . . . . . . . . . . . . . . . . . . . . 46
4.2.4 Valores e vectores pr´oprios . . . . . . . . . . . . . . . . . . . 48
4.2.5 Matrizes semelhantes . . . . . . . . . . . . . . . . . . . . . . 50
5 52
5.1 Geometria do Espa¸co Euclidiano . . . . . . . . . . . . . . . . . . . . 52
5.1.1 Produto interno euclidiano . . . . . . . . . . . . . . . . . . . 52
5.1.2 Ortogonalidade . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.1.3 Subespa¸cos afins . . . . . . . . . . . . . . . . . . . . . . . . 56
5.1.4 Problemas m´etricos em subespa¸cos afins . . . . . . . . . . . 57
5.2 Geometria de R3
. . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.2.1 Equa¸c˜oes de rectas e planos . . . . . . . . . . . . . . . . . . 59
5.2.2 Algumas f´ormulas de distˆancias . . . . . . . . . . . . . . . . 60
5.2.3 Pol´ıgonos e poliedros . . . . . . . . . . . . . . . . . . . . . . 61
5.2.4 Comprimentos, ´areas e volumes . . . . . . . . . . . . . . . . 65
Cap´ıtulo 1
1.1 T´opicos elementares da Teoria dos Conjuntos
1.1.1 Primeiras no¸c˜oes
Ami´ude necessitamos de referir aquilo que se conhece como conjuntos e descrever
as suas rela¸c˜oes, que se entendem como rela¸c˜oes que os elementos desses conjuntos,
e de outros, satisfazem entre si.
Os conjuntos designam-se por letras: A, B, C, .... Se escrevemos x ∈ A, quere-
mos dizer que x pertence a A ou, o que ´e o mesmo, x ´e elemento de A.
Novas rela¸c˜oes/nota¸c˜oes: chamamos intersec¸c˜ao e reuni˜ao, respectivamente,
aos conjuntos
A ∩ B = {x : x ∈ A e x ∈ B}, A ∪ B = {x : x ∈ A ou x ∈ B}. (1.1)
Ao dizermos A ´e subconjunto de B, em s´ımbolos, A ⊂ B, significamos que ∀x ∈
A, x ∈ B.
O conjunto B  A ´e o conjunto {x : x ∈ B e x /∈ A}. Sabendo, de antem˜ao,
o “universo” a que todos os elementos pertencem, podemos escrever e designar por
complementar de B o conjunto Bc
= {x : x /∈ B}.
Poder-se-´a pensar tamb´em no conjunto vazio ∅ como o complementar do “uni-
verso”. ´E o conjunto sem elementos.
Da l´ogica bivalente (l´ogica natural constru´ıda ao longo da evolu¸c˜ao humana de
milh˜oes de anos), resultam as seguintes leis de Morgan:
Ac
∩ Bc
= (A ∪ B)c
Ac
∪ Bc
= (A ∩ B)c
. (1.2)
Claro que (Ac
)c
= A, donde a segunda lei tamb´em resulta da primeira.
Outras constru¸c˜oes importantes de conjuntos s˜ao, por exemplo, o produto
cartesiano de A e B:
A × B = {(a, b) : a ∈ A, b ∈ B}. (1.3)
Os novos elementos “(a, b)” chamam-se pares ordenados.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 7
Note-se que nem todos os subconjuntos de A × B podem ser escritos, de novo,
como produtos cartesianos de subconjuntos de A e B. Por exemplo, tal ´e o caso da
diagonal de um conjunto A, ou seja, ∆(A) = {(a, a) ∈ A × A : a ∈ A}, a qual ´e
distinta de A × A se A tem mais do que um elemento.
Claro que (A ∪ B) × C = A × C ∪ B × C. E analogamente para ∩ no lugar de
∪.
1.1.2 Rela¸c˜oes de equivalˆencia
Algum tipo de rela¸c˜oes entre elementos de um ou v´arios conjuntos ´e particular-
mente ´util na conceptualiza¸c˜ao de novas propriedades e distin¸c˜oes. Por exemplo,
a rela¸c˜ao de ordem total em R est´a intr´ınsecamente ligada aos fundamentos da
An´alise Matem´atica.
Tratamos, neste momento, das rela¸c˜oes de equivalˆencia, as quais decomp˜oem
um dado conjunto X em classes de equivalˆencia. Lembremos que uma rela¸c˜ao
consiste numa determinada escolha de pares ordenados. Dizemos que uma rela¸c˜ao
∼ em X ´e uma rela¸c˜ao de equivalˆencia se:
∀x ∈ X, x ∼ x (reflexividade),
∀x ∈ X, x ∼ y ⇒ y ∼ x (simetria),
∀x, y, z ∈ X, x ∼ y & y ∼ z ⇒ x ∼ z (transitividade).
(1.4)
Claro que as tais classes de equivalˆencia s˜ao dadas por um representante: Cx =
{y : y ∈ X e x ∼ y}. Note-se que o papel de x ´e mesmo e apenas o de representante
da sua classe. ´E f´acil ver que:
Cx ∩ Cx1 = ∅ ⇔ x ∼ x1. (1.5)
Com efeito, se ∃y : x ∼ y e x1 ∼ y, ent˜ao pela simetria e transitividade vem x ∼ x1.
E rec´ıprocamente.
Assim, neste tipo de rela¸c˜oes, as classes ou n˜ao se tocam, ou s˜ao as mesmas.
Mais ainda, qualquer decomposi¸c˜ao de um dado conjunto Z como uni˜ao de
subconjuntos n˜ao vazios e disjuntos dois-a-dois,
Z =
α
Zα, tal que Zα ∩ Zα = ∅, ∀α = α , (1.6)
d´a origem a uma ´unica rela¸c˜ao de equivalˆencia em Z, a saber:
x ∼ y ⇐⇒ ∃α : x, y ∈ Zα. (1.7)
O conjunto dos α’s, isto ´e, formado como o conjunto das classes de equivalˆencia,
denota-se por Z/ ∼.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 8
1.1.3 Fun¸c˜oes
Conceito fundamental em matem´atica ´e o de fun¸c˜ao, um ‘dispositivo’ que estabelece
uma correspondˆencia entre um dado conjunto X, chamado de partida, e outro
conjunto Y , dito de chegada. Tamb´em se chama a uma fun¸c˜ao uma aplica¸c˜ao.
Denota-se por
f : X −→ Y, x ∈ X −→ y = f(x) ∈ Y. (1.8)
Uma tal correspondˆencia s´o ´e uma fun¸c˜ao quando a cada x ∈ X, um objecto, se
atribui um, e um s´o, valor ou imagem y = f(x) ∈ Y .
A fun¸c˜ao diz-se injectiva se, para x’s distintos em X, f atribui valores f(x)’s
tamb´em distintos. Formalmente,
∀x1, x2 ∈ X, x1 = x2 =⇒ f(x1) = f(x2). (1.9)
Logicamente, esta afirma¸c˜ao ´e equivalente a
∀x1, x2 ∈ X, f(x1) = f(x2) =⇒ x1 = x2. (1.10)
A fun¸c˜ao ´e sobrejectiva se todo o y ´e imagem de algum x por meio de f:
∀y ∈ Y, ∃x ∈ X : y = f(x). (1.11)
A fun¸c˜ao ´e bijectiva se for injectiva e sobrejectiva. Neste caso pode-se definir
uma fun¸c˜ao chamada de inversa, a saber, a fun¸c˜ao f−1
: Y −→ X dada por
∀y ∈ Y, o valor de f−1
(y) ´e o ´unico x : f(x) = y. (1.12)
Necessitamos, com frequˆencia, de outras formas de obter novas fun¸c˜oes.
Podemos compˆor duas fun¸c˜oes dadas f : X → Y e g : Z → W, por certa ordem,
desde que, por exemplo, Y, Z tenham pontos em comum. Obtemos, com efeito, a
fun¸c˜ao composta g ◦ f : X → W definida por (g ◦ f)(x) = g(f(x)) e onde X ´e o
dom´ınio onde faz sentido essa mesma express˜ao, isto ´e,
X = {x ∈ X : f(x) ∈ Z}. (1.13)
Dado um conjunto X chamamos fun¸c˜ao identidade a 1X : X → X, 1X(x) = x.
Uma fun¸c˜ao f : X → Y tem uma inversa `a esquerda, isto ´e, ∃g : Y → X tal
que g ◦ f = 1X se, e s´o se1
, f for injectiva.
Uma fun¸c˜ao f : X → Y tem uma inversa `a direita, isto ´e, ∃h : Y → X tal
que f ◦ h = 1Y sse f for sobrejectiva.
As duas afirma¸c˜oes anteriores s˜ao exerc´ıcios para o leitor. Delas se conclui, no
caso em que f ´e bijectiva, h = g = f−1
.
1
Daqui em diante, como abreviatura de “se, e s´o se,” tomamos “sse”. Significa o mesmo que
“equivalente”.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 9
Uma rela¸c˜ao bem estabelecida entre um par de conjuntos2
´e a seguinte, denotada
:
A B sse existe fun¸c˜ao bijectiva entre A e B. (1.14)
Trata-se de uma rela¸c˜ao de equivalˆencia, como ´e f´acil provar.
Outras ‘identifica¸c˜oes’ se podem naturalmente estabelecer. Por exemplo, para
trˆes conjuntos dados, tem-se A × (B × C) = (A × B) × C.
1.2 T´opicos de Estruturas Alg´ebricas
1.2.1 Grupos
A no¸c˜ao alg´ebrica simultˆaneamente mais elementar e necess´aria ´e a de grupo.
Um conjunto G munido de uma opera¸c˜ao bin´aria
G × G → G, (a, b) → ab, (1.15)
que satisfaz
- associatividade : ∀a, b, c ∈ G, (ab)c = a(bc),
- existe elemento neutro : ∃e ∈ G : ∀a ∈ G, ae = ea = a,
- todos os elementos tˆem inverso : ∀a ∈ G, ∃b ∈ G : ab = ba = e,
(1.16)
chama-se um grupo.
Prova-se facilmente que o elemento neutro ´e ´unico e que o inverso de cada
elemento tamb´em ´e ´unico. O truque est´a, em ambos os casos, em come¸car por
supˆor que existem dois elementos e acabar por chegar a um absurdo.
Us´amos acima a nota¸c˜ao multiplicativa. Por vezes usa-se a aditivia. Na primeira
nota¸c˜ao, o elemento neutro designa-se por e ou por 1. Na segunda, por 0. Na
primeira nota¸c˜ao, o inverso de a denota-se por a−1
, e na segunda denota-se por −a
e chama-se oposto ou sim´etrico de a.
Exemplos:
1. (R, +) ´e um grupo com a opera¸c˜ao de adi¸c˜ao + usual.
2. (R  {0}, ·) ´e um grupo com a opera¸c˜ao de multiplica¸c˜ao usual.
3. Seja dado um conjunto X e seja
G := A(X) = {f : X → X| f ´e bijectiva} (1.17)
o conjunto das fun¸c˜oes bijectivas de X para X. Ent˜ao G ´e um grupo se
tomarmos como opera¸c˜ao a composi¸c˜ao de fun¸c˜oes. Com efeito, se f, g ∈ G,
2
Evitemos desde j´a o paradoxo que consiste em tomar “o conjunto de todos os conjuntos”.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 10
ent˜ao f◦g tamb´em est´a em G porque tamb´em ´e uma fun¸c˜ao bijectiva. Vejamos
a associatividade: duas fun¸c˜oes com o mesmo espa¸co de partida e de chegada
s˜ao iguais se, a cada objecto, fazem corresponder a mesma imagem. Ent˜ao,
por defini¸c˜ao, tomando um terceiro elemento h ∈ G e qualquer x ∈ X,
(g ◦ f) ◦ h (x) = (g ◦ f)(h(x)) = g(f(h(x))) = g ◦ (f ◦ h) (x).
Donde (g◦f)◦h = g◦(f ◦h), como quer´ıamos. Agora, o elemento neutro de G
´e naturalmente a fun¸c˜ao identidade 1X. E o inverso de f coincide exactamente
com a fun¸c˜ao inversa, como se esperava.
Nos grupos dos exemplos 1 e 2 acima, as opera¸c˜oes, bem conhecidas, s˜ao comu-
tativas.
Um grupo G qualquer diz-se comutativo ou abeliano se
ab = ba, ∀a, b ∈ G. (1.18)
O exemplo 3 de h´a pouco n˜ao ´e comutativo em geral. Repare-se no grupo de
permuta¸c˜oes de n ∈ N elementos, ou grupo sim´etrico Sn, o qual consiste no
grupo A(X) com X = {1, 2, 3, . . . , n}. ´E simples concluir que A(X) = Sn tem n!
elementos.
Se n ≥ 3, ent˜ao aquele grupo n˜ao ´e comutativo. Basta pensar nas seguintes
fun¸c˜oes (em cima est˜ao os objectos, em baixo as respectivas imagens):
f =
1 2 3
1 3 2
, g =
1 2 3
2 1 3
, (1.19)
admitindo ainda que f, g fixam todos os i ≥ 4. Resulta ent˜ao
f ◦ g =
1 2 3
3 1 2
, g ◦ f =
1 2 3
2 3 1
(1.20)
onde se rende expl´ıcita a falta de comutatividade.
H´a muitos mais grupos n˜ao comutativos que comutativos.
H´a exemplos, como o de grupo de permuta¸c˜oes, que explicam muito. Veja-se o
seguinte teorema c´elebre.
Teorema 1 (Cayley). Todo o grupo G ´e subgrupo de um grupo de permuta¸c˜oes.
A no¸c˜ao de subgrupo ´e a de um subconjunto que herda a estrutura do grupo
em que est´a contido. Portanto, um subconjunto fechado para a opera¸c˜ao do grupo
e para a passagem ao inverso.
Vejamos a demonstra¸c˜ao do teorema de Cayley.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 11
Demonstra¸c˜ao. Com efeito, a cada g ∈ G associamos a seguinte permuta¸c˜ao Lg do
pr´oprio grupo G: Lg : G → G, Lg(h) = gh. Vem ent˜ao que
Lg1g2 (h) = g1g2h = Lg1 (Lg2 (h)) = Lg1 ◦ Lg2 (h), ∀g1, g2, h ∈ G (1.21)
pelo que a estrutura da imagem de L como subgrupo de A(G),
L : G −→ A(G), g → Lg, (1.22)
´e a mesma estrutura de G, pois que L ´e injectiva como se poder´a verificar.
Note-se que a aplica¸c˜ao L est´a subjacente no enunciado do teorema de Cayley.
Raramente, claro, a aplica¸c˜ao L ´e sobrejectiva.
1.2.2 An´eis e Corpos
A no¸c˜ao que se segue ´e muito rica, ainda que dispens´avel num curso de ´Algebra
Linear.
Seja A um conjunto munido de duas opera¸c˜oes, + e ‘vezes’ ·, tais que
- (A, +) ´e grupo comutativo
- a opera¸c˜ao · ´e associativa
- d˜ao-se as propriedades distribuitivas:
a(b + c) = ab + ac, (a + b)c = ac + bc, ∀a, b, c ∈ A.
(1.23)
Dizemos ent˜ao que A ´e um anel. Se · ´e comutativa, o anel A diz-se comutativo
ou abeliano. Se existe elemento neutro 1 da multiplica¸c˜ao, o anel diz-se unit´ario.
(Z, +, ·) ´e o exemplo prim´ario. N˜ao menos o s˜ao o anel dos n´umeros pares,
2Z, ou os m´ultiplos de 3, ou 4, etc... Os an´eis kZ = {kn : n ∈ Z} s˜ao todos
comutativos, mas s´o Z ´e unit´ario.
Outro exemplo menos trivial ´e o anel de fun¸c˜oes RX
, onde X ´e um espa¸co fixado
de in´ıcio.
RX
= {f : X → R} (1.24)
tem soma e produto de fun¸c˜oes bem definidos: ∀f1, f2 ∈ RX
, f1 +f2 e f1f2 definem-
se obviamente por
(f1 + f2)(x) = f1(x) + f2(x), (f1f2)(x) = f1(x)f2(x). (1.25)
RX
´e um anel e provar´a a sua utilidade mais `a frente.
Nos an´eis unit´arios p˜oe-se a quest˜ao de saber quais s˜ao os elementos invert´ıveis
para a multiplica¸c˜ao. Mais ainda, um tal anel A cont´em um grupo U ⊂ A consti-
tu´ıdo pelos elementos invert´ıveis. Por exemplo, o anel Z tem U = {−1, 1}. J´a o
anel Q tem U = Q  {0}.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 12
´E claro que 0 nunca ser´a invert´ıvel: prova-se que 0 · a = 0, ∀a ∈ A.
Um anel K comutativo, unit´ario e com U = K  {0} chama-se um corpo.
S˜ao exemplos de corpos: Q, R, C.
Nos corpos vale a lei do anulamento do produto:
ab = 0 =⇒ a = 0 ou b = 0. (1.26)
Tamb´em s´o nos corpos podemos invocar em geral a lei do corte:
ax = b ⇐⇒ x = a−1
b. (1.27)
Estas leis demonstram-se com grande facilidade. Veremos em seguida que h´a corpos
finitos.
Um famoso teorema de Euclides garante que, se tivermos dois n´umeros inteiros
m, n, ent˜ao existem dois n´umeros inteiros ´unicos q e r (chamados quociente e
resto) tais que
0 ≤ r ≤ n − 1 e m = qn + r. (1.28)
Dizemos que r ´e o resto de m mod n. Se somarmos ou multiplicarmos dois m1, m2 ∈
Z, temos
m1 + m2 = (q1n + r1) + (q2n + r2) = (q1 + q2)n + (r1 + r2),
m1m2 = (q1q2n + r1q2 + q2r1)n + r1r2
(1.29)
Ent˜ao vemos que o resto da soma e do produto mod n ´e o mesmo que o resto mod n
da soma e do produto dos restos, respectivamente.
´E trivial verificar agora que as opera¸c˜oes de + e ‘vezes’ habituais, mas “com
n’s fora”, verificam todas as propriedades de anel, pois elas provˆem das respectivas
propriedades do anel dos inteiros. Assim, prova-se o
Teorema 2. O conjunto dos restos Zn = {0, 1, . . . , n − 1} ´e um anel com a soma
e o produto acima.
D´a-se a Zn o nome de anel dos restos mod n.
Por exemplo, o anel Z5 tem as seguintes tabelas de opera¸c˜oes:
+ 0 1 2 3 4
0 0 1 2 3 4
1 1 2 3 4 0
2 2 3 4 0 1
3 3 4 0 1 2
4 4 0 1 2 3
· 0 1 2 3 4
0 0 0 0 0 0
1 0 1 2 3 4
2 0 2 4 1 3
3 0 3 1 4 2
4 0 4 3 2 1
(1.30)
Curiosamente, vˆe-se que x2
= 3 n˜ao tem solu¸c˜oes mod 5, ou seja em Z5. H´a ent˜ao
lugar para um estudo de novo tipo de equa¸c˜oes alg´ebricas.
Um resultado importante nesta teoria finaliza o nosso cap´ıtulo.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 13
Teorema 3. Zn ´e corpo sse n ´e n´umero primo.
Demonstra¸c˜ao. Suponhamos que Zn ´e corpo e que ab = n, com 1 < a, b < n. Mas
isto ´e o mesmo que ab = 0 mod n e ent˜ao, valendo a lei do corte, resulta a = 0 ou
b = 0, o que ´e absurdo. Assim, n n˜ao tem divisores pr´oprios, ie. ´e primo.
Suponhamos rec´ıprocamente que n ´e primo. Ent˜ao para cada a ∈ Z0 h´a sempre
solu¸c˜oes inteiras x, y de ax + ny = 1 (tal decorre recursivamente do algoritmo
de Euclides, o poder escrever-se assim o mdc de dois quaisquer inteiros a e n).
Obviamente, em Zn temos ax + ny = ax = 1 mod n, pelo que todos os elementos
a ∈ Zn  0 tˆem inverso. E est˜ao verificadas as condi¸c˜oes para termos um corpo.
Cap´ıtulo 2
2.1 Matrizes
2.1.1 Primeiras defini¸c˜oes
Damos o nome de matriz a uma tabela A = [aij]i=1,...,p
j=1,...,q
com entradas ou coefi-
cientes1
aij ∈ R.
O ´ındice p ´e o n´umero de linhas e q o de colunas. Denotamos
A =





a11 a12 · · · a1q
a21 a22 a2q
...
...
...
ap1 ap2 · · · apq





. (2.1)
p e q s˜ao as dimens˜oes da matriz A. Faz jeito chamar
Mp,q = {A : A ´e uma matriz de p linhas e q colunas}. (2.2)
O interesse das matrizes est´a, como veremos mais tarde, na representa¸c˜ao das
aplica¸c˜oes lineares que elas possibilitam.
A estrutura de grupo de (R, +) passa autom´aticamente para Mpq. Dadas quais-
quer matrizes A, B ∈ Mpq, sendo A = [aij] e B = [bij], i = 1, . . . , p, j = 1, . . . , q,
temos por defini¸c˜ao
A + B = [aij + bij], (2.3)
permanecendo em Mpq.
Se λ ∈ R, ent˜ao denotamos por λA a matriz [λaij], com as mesmas dimens˜oes.
Em seguida definimos a multiplica¸c˜ao de duas matrizes. Tamb´em aqui h´a
uma condi¸c˜ao nos ´ındices. Esta opera¸c˜ao tem uma ordem. Logo pomos uma matriz
`a esquerda e outra `a direita, como um par ordenado, e a condi¸c˜ao ´e que, para as
multiplicarmos, a da esquerda deve ter n´umero de colunas igual ao n´umero de linhas
da da direita.
1
Poder´ıamos deixar estes aij pertencerem a um corpo K ou mesmo um anel qualquer pr´evia-
mente fixado, mas aqui prosseguimos apenas com matrizes reais.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 15
Assim
Mpq × Mql −→ Mpl
(A, B) −→ AB.
(2.4)
Atente-se bem no espa¸co de chegada, aquele onde aparece o resultado. O produto
M = AB define-se ent˜ao como segue: pondo M = [ξij]i=1,...,p
j=1,...,l
, temos
ξij = ai1b1j + · · · + aiqbqj =
q
k=1
aikbkj. (2.5)
Prova-se facilmente que esta multiplica¸c˜ao ´e associativa: se A, B s˜ao como acima
e C ∈ Mlr, ent˜ao estamos habilitados a fazer tanto (AB)C como A(BC). Com
alguma surpresa, tem-se ent˜ao
(AB)C = A(BC). (2.6)
Com efeito, sendo M = AB = [ξst]s=1,...,p
t=1,...,l
e BC = [ηuv]u=1,...,l
v=1,...,r
, o elemento gen´erico
de ´ındice (s, v) do produto do lado esquerdo de (2.6) ´e igual a
l
t=1
ξstctv =
l
t=1
q
k=1
(askbkt)ctv =
q
k=1
l
t=1
ask(bktctv) =
q
k=1
askηkv. (2.7)
Us´amos a associatividade e distributividade dos n´umeros reais para reagrupar as
parcelas. O resultado a que se chegou representa o elemento gen´erico de ´ındice
(s, v) do produto do lado direito de (2.6), ou seja A(BC).
Outra propriedade v´alida ´e a distributividade `a esquerda e `a direita: se A, B ∈
Mpq e C, D ∈ Mql, ent˜ao
A(C + D) = AC + AD
(A + B)C = AC + BC.
(2.8)
Note que as igualdades fazem sentido no cˆomputo das dimens˜oes das matrizes. A
demonstra¸c˜ao daquelas igualdades ´e trivial.
Exemplos:
2 3 1
−2 0 1



4 5 3
1 2 5
2 4 0


 =
13 20 21
−6 −6 −6
, (2.9)
2 3 4



−2
3
1


 = 9,



−2
3
1


 2 3 4 =



−4 −6 −8
6 9 12
2 3 4


 . (2.10)
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 16
Como se vˆe, as matrizes n˜ao permutam no produto. Dizemos que duas matrizes
dadas A e B permutam ou comutam se AB = BA. Isso n˜ao acontece em geral,
mesmo se forem quadradas.
´E importante notar que Mpp, chamado o espa¸co das matrizes quadradas, ´e
uma anel com a soma e produto introduzidos, pois tal espa¸co ´e fechado para o
produto. O ´ındice de linhas p igual ao ´ındice de colunas tamb´em se diz a ordem
de cada matriz quadrada.
Repare-se agora que, para qualquer matriz A ∈ Mpq,





1 0 · · · 0
0 1 0
... 0
0 0 · · · 1








a11 · · · a1q
...
ap1 · · · apq


 =



a11 · · · a1q
...
ap1 · · · apq


 , (2.11)



a11 · · · a1q
...
ap1 · · · apq








1 0 · · · 0
0 1 0
... 0
0 0 · · · 1





=



a11 · · · a1q
...
ap1 · · · apq


 . (2.12)
Uma matriz quadrada D = [dij] de ordem p diz-se diagonal se dij = 0, ∀i = j.
Chamamos matriz identidade, e denotamo-la por 1p, `a matriz diagonal que tem
dii = 1, ∀i = 1, . . . , p.
As f´ormulas (2.11,2.12) reescrevem-se portanto como
1pA = A e A1q = A. (2.13)
No caso das matrizes quadradas temos, em particular, um elemento neutro da
multiplica¸c˜ao. Destaca-se assim o
Teorema 4. O espa¸co das matrizes quadradas Mpp ´e um anel unit´ario.
Neste espa¸co nem sequer se d´a a lei do anulamento do produto. Veja-se o caso:
0 1
0 0
1 0
0 0
=
0 0
0 0
. (2.14)
2.1.2 Matrizes especiais
´E claro que o espa¸co das matrizes Mm,n, como tabelas de n´umeros reais, se identifica
com Rmn
. O leitor poder´a identificar neste grande espa¸co mais do que um simples
produto cartesiano. H´a uma estrutura de espa¸co vectorial — o que ser´a trivial de
verificar quando explicarmos do que tal se trata.
Uma matriz A ∈ Mmn diz-se invert´ıvel `a esquerda se existe B ∈ Mnm tal
que BA = 1n.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 17
Uma matriz A ∈ Mmn diz-se invert´ıvel `a direita se existe C ∈ Mnm tal que
AC = 1m.
Uma matriz diz-se invert´ıvel se o fˆor `a esquerda e `a direita. Neste caso prova-se
facilmente que B = C e que a matriz A tem de ser quadrada2
, n = m. A matriz
´unica B = C denota-se por A−1
:
AA−1
= A−1
A = 1n. (2.15)
Com efeito, o inverso, quando existe, ´e ´unico. Aqui poder´ıamos falar do grupo das
matrizes invert´ıveis.
Em particular tem-se a regra de invers˜ao do produto:
A, B ∈ Mnn invert´ıveis =⇒ (AB)−1
= B−1
A−1
. (2.16)
Outro tipo de matrizes especiais s˜ao as triangulares superiores:
T = [tij]i=1,...,m
j=1,...,n
, com tij = 0, ∀j < i. (2.17)
Ou seja, T ∈ Mmn tem as entradas todas nulas abaixo da diagonal principal (a
diagonal principal de uma matriz P = [pij] designa os n´umeros pii).
Tamb´em se definem matrizes triangulares inferiores: tij = 0, ∀i < j.
2.1.3 Transposta
Dada uma matriz A ∈ Mmn, definimos a transposta de A = [aij]i=1,...,m
j=1,...,n
como a
matriz AT
∈ Mnm dada por AT
= [aT
ji]j=1,...,n
i=1,...,m
onde
aT
ji = aij. (2.18)
Prova-se com facilidade que a passagem `a transposta do produto verifica:
A ∈ Mmn, B ∈ Mnp =⇒ (AB)T
= BT
AT
. (2.19)
Claro que (AT
)T
= A para qualquer matriz A.
Se A ´e invert´ıvel, ent˜ao prova-se facilmente que (A−1
)T
= (AT
)
−1
.
Agora, uma matriz diz-se sim´etrica se A = AT
. Uma matriz diz-se anti-
sim´etrica se A = −AT
.
O primeiro contributo destas no¸c˜oes est´a na possibilidade de escrever qualquer
matriz quadrada C ∈ Mmm como a soma de uma matriz sim´etrica e de uma anti-
sim´etrica. Essa decomposi¸c˜ao de C est´a em
C =
1
2
C + CT
+
1
2
C − CT
, (2.20)
como o leitor verificar´a.
2
Para ver que n = m, sendo AB = 1m e BA = 1n, atente-se a m = i,j ai,jbi,j = n, o c´alculo
do tra¸co.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 18
2.2 Sistemas de Equa¸c˜oes Lineares
2.2.1 M´etodo de resolu¸c˜ao pela adi¸c˜ao ordenada
Vamos agora estudar os sistemas de m equa¸c˜oes lineares, isto ´e, do 1o
grau, a n
inc´ognitas. Come¸cemos com um exemplo (m, n) = (2, 3) e sua resolu¸c˜ao.
2x + 3y − z = 0
x + 4y = −2z
(2.21)
´e um sistema poss´ıvel indeterminado, o qual se resolve pelo m´etodo de substitui¸c˜ao
como
2x + 3y = z
x + 4y = −4x − 6y 5x = −10y
z = −y
x = −2y
(2.22)
donde, para cada y ∈ R, h´a uma solu¸c˜ao (x, y, z) = (−2y, y, −y).
Outro m´etodo, chamado de adi¸c˜ao ordenada, permite resolver o sistema de
forma mais r´apida.
Utilizando os princ´ıpios elementares de equivalˆencia de equa¸c˜oes, percebemos
que se obt´em um sistema equivalente a (2.21) se multiplicarmos a segunda equa¸c˜ao,
em ambos os termos, por −2. E o mesmo acontece se adicionarmos ordenadamente
esse resultado `a 1a
equa¸c˜ao. Estamos, por hip´otese, a adicionar a mesma quantidade
a ambos os termos, pelo que o novo sistema permanece equivalente.
Conseguimos ‘anular os 2x’ na 1a
equa¸c˜ao.
Fazendo ao mesmo tempo o mesmo para a equa¸c˜ao de baixo, usando a de cima
multiplicada por 2 para ‘anular o z’, obt´em-se:
2x + 3y − z = 0
x + 4y + 2z = 0
−5y − 5z = 0
5x + 10y = 0
z = −y
x = −2y
. (2.23)
Claro que as opera¸c˜oes escolhidas foram as que mais r´apidamente permitiram anular
alguma vari´avel. Este m´etodo tem por isso as suas vantagens sobre o primeiro3
.
Vejamos outro exemplo:



4x + y + z = 0
8x + z = 0
4x − y = 0



4x + y + z = 0
−2y − z = 0
−2y − z = 0



4x + y + z = 0
−2y − z = 0
0 = 0
, (2.24)
´e um sistema poss´ıvel e indeterminado. E outro exemplo:
4x + y = ...
4x − y = ...
8x = ...
−2y = ...
. (2.25)
3
N˜ao ´e prop´osito de um curso de ALGA a procura do melhor algoritmo de resolu¸c˜ao de sistemas.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 19
Neste caso, quaisquer que sejam os valores nas reticˆencias iniciais, o sistema ´e
sempre poss´ıvel e determinado. Mas nem sempre ´e assim. Considere-se o sistema
em x, y:
4x + y = c
8x + 2y = d
4x + y = c
0 = d − 2c
(2.26)
Aqui h´a claramente duas hip´oteses: o sistema ´e poss´ıvel indeterminado se d = 2c,
e imposs´ıvel no caso contr´ario. De qualquer forma o estudo das equa¸c˜oes indepen-
dentes parte dos coeficientes do ‘lado esquerdo’.
2.2.2 Condensa¸c˜ao de uma matriz
Em geral, um sistema de m equa¸c˜oes a n inc´ognitas aparece como



a11x1 + · · · + a1nxn = b1
...
am1x1 + · · · + amnxn = bm
. (2.27)
Claramente podemos escrever (2.27) em termos matriciais:



a11 · · · a1n
...
am1 · · · amn






x1
...
xn


 =



b1
...
bm


 (2.28)
e logo sucintamente como
AX = B (2.29)
onde A, X, B tˆem correspondˆencia ´obvia com as matrizes anteriores.
Nunca esque¸cendo a posi¸c˜ao de cada inc´ognita xi, i = 1, . . . , n, podemos fazer as
adi¸c˜oes ordenadas sobre as linhas da matriz ampliada [A|B], de um dado sistema,
para o resolver.
Suponhamos, por exemplo, que nos s˜ao dadas as equa¸c˜oes



x − y + z = 0,
x + 3y = 1,
z = −3x + 1 + y
. (2.30)
Ent˜ao a matriz ampliada, seguida da multiplica¸c˜ao e adi¸c˜ao ordenada, resulta em



1 −1 1 | 0
1 3 0 | 1
3 −1 1 | 1



L2−L1, L3−3L1
−−−−−−−−−→



1 −1 1 | 0
0 4 −1 | 1
0 2 −2 | 1



L2−2L3, L2↔L3
−−−−−−−−−−→



1 −1 1 | 0
0 2 −2 | 1
0 0 3 | −1



L1+ 1
2
L2, 3L2+2L3
−−−−−−−−−−−→



1 0 0 | 1
2
0 6 0 | 1
0 0 3 | −1


 .
(2.31)
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 20
O sistema est´a resolvido, x = 1
2
, y = 1
6
, z = −1
3
. Neste caso, a matriz A ´e quadrada,
pelo que essencialmente fomos ao encontro da sua inversa de modo a obter a solu¸c˜ao
X = A−1
B.
Ao m´etodo anteriormente descrito de resolu¸c˜ao de um sistema d´a-se o nome de
m´etodo de Gauss.
Os exemplos acima mostram o uso da condensa¸c˜ao sobre linhas (ou colunas)
de uma matriz, ou seja a adi¸c˜ao e multiplica¸c˜ao por escalar das linhas (ou colunas)
de uma matriz.
A condensa¸c˜ao sobre as linhas consiste em:
• troca de linhas (para obter elementos n˜ao nulos na diagonal principal ou
simplesmente para simplificar c´alculos)
• multiplica¸c˜ao de uma linha por um escalar n˜ao nulo
• substitui¸c˜ao de uma linha por si pr´opria adicionada de um m´ultiplo n˜ao nulo
de outra linha
• desenvolver este processo de forma ordenada com vista a encontrar uma matriz
triangular superior.
Tamb´em se podem escrever as mesmas regras para a condensa¸c˜ao sobre as col-
unas (a qual n˜ao pode ser feita na resolu¸c˜ao de sistemas, pois estar´ıamos a juntar
coeficientes de inc´ognitas diferentes).
2.2.3 Estudo dos sistemas
Dado o sistema (2.29), ´e imediato concluir que chegamos sempre a um sistema
equivalente do tipo:










ξ11 ξ12 · · · ξ1r · · · ξ1n | η1
0 ξ22 |
0 0
... |
0 · · · 0 ξrr · · · ξrn | ηr
... 0
... 0 |
...
0 0 0 0 | ηm










(2.32)
com r ≤ m, n e os ξii = 0, ∀i = 1, . . . , r.
Os ξ’s resultam da condensa¸c˜ao sobre linhas de A e os η’s resultam das corre-
spondentes transforma¸c˜oes sobre B.
O ´ındice r ´e o n´umero de equa¸c˜oes independentes. Chama-se caracter´ıstica
de linha de A. Se para algum i > r, tivermos ηi = 0, ent˜ao h´a mais ‘equa¸c˜oes
independentes’ na matriz ampliada A|B que em A e o sistema ´e imposs´ıvel. Rec´ıp-
rocamente, de qualquer sistema imposs´ıvel se retira a mesma condi¸c˜ao.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 21
Agora, das primeiras r linhas, vˆe-se bem que o sistema ´e poss´ıvel determinado
sse r = n; ou seja, indeterminado sse r < n. A n − r d´a-se o nome de grau de
indetermina¸c˜ao do sistema (este grau ´e tamb´em a dimens˜ao do espa¸co de solu¸c˜oes
do sistema4
).
Em resumo, pondo r(A) = n´umero de linhas independentes, temos o seguinte
quadro.
r(A) = r(A|B) r(A) < r(A|B)
sistema poss´ıvel s. imposs´ıvel
determinado indeterminado
r(A) = n r(A) < n
sem solu¸c˜oes
(2.33)
2.3 Espa¸co Euclidiano
2.3.1 O espa¸co vectorial Rn
ou espa¸co euclidiano
Temos vindo a considerar as linhas de uma dada matriz e a falar da dependˆencia
linear de um conjunto de linhas. Conv´em ent˜ao considerar o espa¸co M1,n de tais
linhas (com n colunas) e dar-lhe o destaque que merece.
Damos o nome de espa¸co euclidiano ao produto cartesiano Rn
= R × · · · × R
(com n factores). Tamb´em se diz por vezes o espa¸co cartesiano Rn
. Os seus
elementos chamam-se vectores e escrevem-se como n-tuplos ordenados (c1, . . . , cn),
portanto com ci ∈ R.
A adi¸c˜ao de vectores e a multiplica¸c˜ao de um vector por um escalar devolvem-nos
um novo vector (essas opera¸c˜oes s˜ao as mesmas do espa¸co de matrizes acima):
(c1, . . . , cn) + (d1, . . . , dn) = (c1 + d1, . . . , cn + dn),
λ(c1, . . . , cn) = (λc1, . . . , λcn)
(2.34)
∀ci, di, λ ∈ R, i = 1, . . . , n.
Repare-se agora que uma matriz A ∈ Mmn induz uma fun¸c˜ao ou aplica¸c˜ao
A : Rn
−→ Rm
, X −→ AX (2.35)
Esta aplica¸c˜ao tem a propriedade de ser linear5
:
A(λX + µY ) = λAX + µAY, ∀X, Y ∈ Rn
, λ, µ ∈ R. (2.36)
Tal resulta da propriedade distribuitiva do produto sobre a soma. Voltaremos a
estas quest˜oes mais tarde.
4
Isto far´a sentido ap´os a verifica¸c˜ao de que o conjunto de solu¸c˜oes forma um subespa¸co afim.
5
As fun¸c˜oes lineares tomam o nome de aplica¸c˜oes lineares.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 22
2.3.2 Independˆencia linear
Vimos no estudo dos sitemas de equa¸c˜oes lineares a necessidade de fazer anular
linhas de uma dada matriz `a custa de outras linhas. Essa possibilidade d´a lugar a
um conceito em Rn
.
Dizemos que um conjunto (ou um sistema) de m vectores do espa¸co euclidiano
Rn
, ou seja, {L1, . . . , Lm} ⊂ Rn
, ´e um conjunto de vectores linearmente depen-
dentes se podemos escrever um deles como combina¸c˜ao linear dos restantes, isto
´e, se existe um ´ındice i0 e existem escalares α1, . . . , αi0−1, αi0+1, . . . , αm ∈ R tais
que
Li0 = α1L1 + · · · + αi0−1Li0−1 + αi0+1Li0+1 + · · · + αmLm. (2.37)
Repare-se que passando Li0 para o lado direito de (2.37) obtemos o vector nulo
0 escrito como combina¸c˜ao linear n˜ao nula de todos os L1, . . . , Lm.
Uma forma mais simples de dizer o que ´e a dependˆencia linear ser´a pela negativa:
dizemos que m vectores dados L1, . . . , Lm s˜ao linearmente independentes se se
verifica a condi¸c˜ao:
λ1L1 + · · · + λmLm = 0 =⇒ λ1 = · · · = λm = 0. (2.38)
´E um simples problema l´ogico provar que um conjunto de vectores ´e linearmente
independente sse n˜ao ´e linearmente dependente.
Exemplos:
1. Um vector L1 isolado ´e linearmente independente sse L1 = 0. Com efeito, s´o
nesse caso garantimos que λ1L1 = 0 implica λ1 = 0.
2. Os vectores (2, 3), (3, 4) s˜ao linearmente independentes. Com efeito,
λ1(2, 3) + λ2(3, 4) = 0 ⇒
2λ1 + 3λ2 = 0
3λ1 + 4λ2 = 0
⇒
λ1 = 0
λ2 = 0
. (2.39)
3. Se o vector nulo est´a entre os vectores L1, . . . , Lm, ent˜ao este conjunto ´e
linearmente dependente. De facto, podemos escrever 0 como combina¸c˜ao
linear dos restantes vectores. Basta fazer a combina¸c˜ao linear com os escalares
nulos.
4. Num dado subconjunto de Rn
, o n´umero m´aximo de vectores linearmente
independentes que ele poder´a conter ´e n.
O exemplo 4 ´e muito elucidativo. Dito de outra forma: em Rn
quaisquer vectores
L1, . . . , Ln, Ln+1 s˜ao linearmente dependentes.
Com efeito, procurando escrever 0 como combina¸c˜ao linear daqueles, ou seja,
λ1L1 + · · · + λnLn + λn+1Ln+1 = 0, (2.40)
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 23
escrevemos o sistema



λ1l11 + · · · + λnln1 + λn+1ln+1,1 = 0
...
λ1l1n + · · · + λnlnn + λn+1ln+1,n = 0
(2.41)
onde Li = (li1, . . . , lin). Como sabemos, tal sistema ´e sempre poss´ıvel indetermi-
nado. Existem ent˜ao solu¸c˜oes λ1, . . . , λn+1 n˜ao nulas, como quer´ıamos.
2.4 A caracter´ıstica e a inversa de novo
2.4.1 Caracter´ıstica de linha vs caracter´ıstica de coluna
Seja M ∈ Mmn uma matriz qualquer. Chamamos caracter´ıstica de linha de
M, denotada rl, ao n´umero m´aximo de linhas linearmente independentes que M
cont´em. J´a nos referimos a esta defini¸c˜ao em sec¸c˜ao anterior.
Chamamos caracter´ıstica de coluna de M, denotada rc, ao n´umero m´aximo
de colunas linearmente independentes que M cont´em.
Dissemos anteriormente como obter rl: efectuando uma condensa¸c˜ao da matriz
de modo a fazer aparecer a matriz de aspecto simples (2.32) — evidentemente,
aqui, sem a parte ampliada. Mas ´e claro que h´a muitos caminhos desde a matriz
inicial M at´e aquela forma can´onica (2.32), pelo que se poderia perguntar se rl n˜ao
depende da escolha do caminho.
Vemos que tal defini¸c˜ao ´e intr´ınseca, independente da condensa¸c˜ao sobre linhas,
tal como se exprimiu acima: se M tem linhas L1, . . . , Lm e fazemos uma troca de
Li por Li + αLj, α ∈ R, vemos que
λ1L1 + · · · + λiLi + · · · + λjLj + · · · + λmLm = 0 (2.42)
tem solu¸c˜oes n˜ao nulas sse
˜λ1L1 + · · · + ˜λi(Li + αLj) + · · · + ˜λjLj + · · · + ˜λmLm = 0 (2.43)
tem solu¸c˜oes n˜ao nulas. S´o temos de fazer a transforma¸c˜ao λj = ˜λi + α˜λj.6
O pr´oximo teorema afirma que a caracter´ıstica de linha ´e igual `a caracter´ıstica
de coluna. A primeira parte da demonstra¸c˜ao assenta na prova de que n˜ao se altera
rl a cada passo para achar rc.
Teorema 5. Em qualquer matriz, rl = rc.
6
Como dissemos em 2.2.3, os sistemas de equa¸c˜oes lineares (independentes ou n˜ao), ap´os con-
densa¸c˜ao, mantˆem-se equivalentes (em particular, com o mesmo n´umero de equa¸c˜oes indepen-
dentes). Poder´ıamos passar a falar em sistemas de vectores.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 24
Demonstra¸c˜ao. Suponha-se
M =



L1
...
Lm


 =



l11 · · · l1n
...
lm1 · · · lmn


 = C1 · · · Cn . (2.44)
A dependˆencia das linhas estuda-se pelo sistema em λ’s,
λ1l1j + · · · + · · · + λmlmj = 0, ∀j = 1, . . . n. (2.45)
Agora, o passo mais geral da condensa¸c˜ao sobre colunas ser´a a troca Ci ↔ Cj
seguida de Ci → Ci + αCj, para certos i, j e α ∈ R, levando-nos para a matriz
M =



l11 · · · l1j · · · l1i + αl1j · · · l1n
...
...
lm1 · · · lmj · · · lmi + αlmj · · · lmn


 . (2.46)
O respectivo sistema de equa¸c˜oes ser´a o mesmo que o anterior excepto para j = j, i:



· · ·
λ1l1j + · · · + λmlmj = 0
· · ·
λ1(l1i + αl1j) + · · · + λm(lmi + αlmj) = 0
· · ·
(2.47)
Mas ´e evidente, rearrumando os termos e pondo α em evidˆencia, que este sistema
´e equivalente a (2.45).
Agora, tal como em 2.2.3, fazendo uma condensa¸c˜ao por colunas de forma or-
denada, chegaremos a uma matriz de aspecto











ξ11 0 0 0 0
ξ21 ξ22 0 0
... 0
...
...
ξrcrc 0 0
...
...
...
ξm1 ξmrc 0 0











(2.48)
com os ξkk = 0, ∀1 ≤ k ≤ rc. Como nunca se alterou rl desde M e agora j´a ´e f´acil
descobrir a caracter´ıstica de linha, fazendo por anular tudo o que est´a abaixo da
diagonal principal de (2.48), deduz-se ent˜ao que rc = rl, como quer´ıamos demon-
strar.
Exemplo:



1 0 3
2 1 2
2 0 6



L3−2L1, C1−2C2
−−−−−−−−−−→



1 0 3
0 1 2
0 0 0



C3−3C1−2C2
−−−−−−−−→



1 0 0
0 1 0
0 0 0


 (2.49)
e a caracter´ıstica r = rc = rl neste caso ´e 2.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 25
2.4.2 C´alculo da inversa
Vamos agora estabelecer um m´etodo para encontrar a inversa de uma matriz quadrada
A ∈ Mn,n, supondo que existe.
Repare-se que escrevendo o vector-coluna
Vi0 = 0 · · · 0 1 0 · · · 0
T
(2.50)
(1 no lugar i0 e 0 em todas as outras entradas), vem
BVi0 =



b1i0
...
bni0


 (2.51)
para qualquer matriz quadrada B = [bst].
Para encontrar A−1
temos de encontrar os n vectores-coluna Xi tais que AXi =
Vi. Pois da´ı vir´a
A X1 · · · Xn = V1 · · · Vn = 1n. (2.52)
Note-se em particular que A : Rn
→ Rn
induz, no sentido de (2.35), uma
aplica¸c˜ao bijectiva (tem uma inversa7
) sse a matriz A ´e invert´ıvel. Por sua vez,
cada sistema AX = Vi ´e poss´ıvel e determinado sse r(A) = n. Est´a ent˜ao provado
o
Teorema 6. Uma matriz quadrada A ∈ Mn ´e invert´ıvel sse r(A) = n.
Agora, os Xi, 1 ≤ i ≤ n, encontrados acima ser˜ao as colunas de A−1
. Pelo
m´etodo de condensa¸c˜ao sobre linhas, aplicado simultˆaneamente na resolu¸c˜ao dos n
sistemas de n equa¸c˜oes a n inc´ognitas, podemos dar como certo o seguinte algoritmo
para determinar a matriz inversa de A:
A | 1n −→ · · · (condensa¸c˜ao) · · · −→ 1n | A−1
. (2.53)
Exemplo:
1. Para encontrar a inversa de
0 5
−5 3
fazemos
0 5 | 1 0
−5 3 | 0 1
→
−5 3 | 0 1
0 5 | 1 0
→
1 −3
5
| 0 −1
5
0 1 | 1
5
0
→
1 0 | 3
25
−1
5
0 1 | 1
5
0
.
(2.54)
7
Conv´em aqui notar que a inversa de uma aplica¸c˜ao linear bijectiva ´e ainda uma aplica¸c˜ao
linear.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 26
A verifica¸c˜ao ´e imediata:
0 5
−5 3
3
25
−1
5
1
5
0
=
1 0
0 1
. (2.55)
Cap´ıtulo 3
3.1 Determinantes
3.1.1 Grupos de permuta¸c˜oes
Consideremos de novo o grupo de permuta¸c˜oes Sn de n objectos, recorde-se, um
grupo com n! elementos.
Um tipo particular de permuta¸c˜oes s˜ao os ciclos. Um ciclo σ ∈ Sn ´e uma
permuta¸c˜ao denotada (a1 a2 · · · ak), com os ai ∈ {1, . . . , n} todos diferentes, que
obedece a
a1 → a2 → a3 → · · · → ak → a1 (3.1)
e que deixa todos os outros elementos, n˜ao referidos, no mesmo lugar.
O natural k ´e a ordem do ciclo.
Como exemplos, em S4, temos
(143) = (431) = (314) =
1 2 3 4
4 2 1 3
,
(123) ◦ (341) = (234) = (34)(24).
(3.2)
Note-se que a fun¸c˜ao composta se lˆe da direita para a esquerda e que, como ´e usual,
deixamos ca´ır o sinal “◦”. `A fun¸c˜ao composta tamb´em se chama produto.
A permuta¸c˜ao inversa de um ciclo escreve-se facilmente. Em particular, as
chamadas transposi¸c˜oes (ij), ou seja ciclos de ordem 2, verificam (ij)−1
= (ij) =
(ji).
Agora, cada permuta¸c˜ao σ ´e um produto de ciclos. Para o vermos come¸camos
por construir o ciclo (1 σ(1) σ(σ(1)) · · · σk1−1
(1)). Concerteza que haver´a um fim,
de tal forma que σ(σk1−1
(1)) = 1, pois σ n˜ao se repete nunca e n ´e finito. A
seguir procuramos o primeiro elemento i0 ∈ {1, . . . , n} que n˜ao est´a entre os σi
(1) e
construimos o ciclo (i0 σ(i0) σ(σ(i0)) · · · σk2−1
(i0)). Pelas raz˜oes anteriores, o ciclo ´e
finito. Repetimos assim e sucessivamente o processo anterior, sabendo que havemos
de parar porque se esgotam os n´umeros. Obtemos finalmente a permuta¸c˜ao dada
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 28
como um produto de ciclos, que at´e comutam entre si pois n˜ao tˆem elementos
comuns.
´E quase t˜ao convincente ver um exemplo:
σ =
1 2 3 4 5 6 7 8
6 5 2 1 3 7 4 8
= (1674)(253). (3.3)
Mais ainda, cada permuta¸c˜ao ´e produto de transposi¸c˜oes, pois cada ciclo o ´e:
(a1 a2 · · · ak) = (ak ak−1)(ak ak−2) · · · (ak a2)(ak a1). (3.4)
Fazemos agora a seguinte afirma¸c˜ao: a permuta¸c˜ao identidade ´e sempre o pro-
duto de um n´umero par de transposi¸c˜oes: (1) = (ij)(ij). A demonstra¸c˜ao deste
facto, s´o aparentemente ´obvio, ´e um problema de ordem e combinat´oria que deix-
amos ao leitor para sua pesquisa, [Gro83].
Agora se uma mesma permuta¸c˜ao se decomp˜oe, uma vez, num n´umero l1 de
transposi¸c˜oes e, noutra vez, num n´umero l2 de transposi¸c˜oes, ent˜ao l1 + l2 ´e par.
Equivale a passar, nessa igualdade de decomposi¸c˜oes, todas as transposi¸c˜oes para
um lado, ficando a identidade no outro. Em particular, l1 ´e par sse l2 ´e par. Com
efeito, apenas dois pares, ou dois ´ımpares, somam um par. Em resumo, temos o
Teorema 7. Toda a permuta¸c˜ao σ ∈ Sn ´e produto de transposi¸c˜oes.
A paridade do n´umero de transposi¸c˜oes de qualquer decomposi¸c˜ao de σ num
produto de transposi¸c˜oes ´e um invariante de σ.
Este teorema permite-nos definir rigorosamente o sinal de uma permuta¸c˜ao σ.
Trata-se do valor +1 ou −1, conforme o invariante indicado acima. Ou seja,
sg(σ) = (−1) (3.5)
onde
= n´umero de transposi¸c˜oes numa decomposi¸c˜ao de σ. (3.6)
A conhecida ‘regra dos sinais’ prova de imediato o seguinte
Teorema 8 (B´ezout). Para quaisquer permuta¸c˜oes σ, τ ∈ Sn,
sg(στ) = sg(σ)sg(τ). (3.7)
Em particular, sg(σ) = sg(σ−1
).
Para aplica¸c˜oes futuras, com argumentos de tipo indutivo, conv´em reparar que
podemos escrever a uni˜ao de subconjuntos disjuntos
Sn = S1 ∪ S2 ∪ · · · ∪ Sn (3.8)
onde
Si = {σ : σ(1) = i}. (3.9)
Cada um destes subconjuntos, grosso modo, identifica-se com Sn−1. Para deduzir
tal identifica¸c˜ao, s´o temos de fixar nova numera¸c˜ao dos objectos, suprimindo o 1 no
espa¸co de partida e o i no espa¸co de chegada.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 29
3.1.2 Defini¸c˜ao de determinante
Voltemos agora `as matrizes. Define-se determinante de uma matriz quadrada
A = [aij] ∈ Mn,n como sendo o n´umero real
det A =
σ∈Sn
sg(σ)a1σ1 a2σ2 · · · anσn . (3.10)
A nota¸c˜ao refere σi = σ(i).
Vemos que aquele ´e um somat´orio com n! parcelas. De cada linha i apenas se
escolhe um aiσi
, em cada parcela.
A nota¸c˜ao |A| = det A ´e tamb´em usual.
Por exemplo, para n = 2, temos
a b
c d
= ad − cb. (3.11)
A dedu¸c˜ao da chamada regra de Sarrus e da respectiva regra mnem´onica para
o determinante de ordem 3 ´e um bom exerc´ıcio para o leitor:
a11 a12 a13
a21 a22 a23
a31 a32 a33
= a11a22a33 + a31a12a23 + a13a21a32
− a13a22a31 − a11a23a32 − a12a21a33.
(3.12)
3.1.3 Propriedades do determinante
Suponhamos que ´e dada a matriz A tal como acima.
Tendo em conta que podemos ordenar os factores em cada parcela de (3.10) pelo
´ındice de coluna, que sg(σ) = sg(σ−1
) e que o somat´orio sobre os σ ∈ Sn ´e o mesmo
que o somat´orio sobre os seus inversos, resulta
det A =
σ∈Sn
sg(σ)aσ−1
1 1aσ−1
2 2 · · · aσ−1
n n
=
σ−1=τ∈Sn
sg(τ)aτ11aτ22 · · · aτnn
=
τ∈Sn
sg(τ)aT
1τ1
aT
2τ2
· · · aT
nτn
= det AT
.
(3.13)
Prov´amos o
Teorema 9. Para qualquer matriz A, tem-se det A = det AT
.
Esta ´e a primeira das principais propriedades do determinante. Em sua virtude,
daqui em diante ‘tudo o que se diga’ sobre as linhas ter´a um equivalente sobre as
colunas.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 30
Agora, uma pequena altera¸c˜ao nas linhas de A podemos cometer sem muito
perturbar o seu determinante.
Sejam 1 ≤ i = j ≤ n. Se trocarmos as linhas i e j de A uma pela outra,
aparece-nos a matriz ˜A, e da´ı decorrem as seguintes igualdades:
det ˜A =
σ∈Sn
sg(σ)a1σ1 · · · ajσi
· · · aiσj
· · · anσn
=
σ∈Sn
sg(σ(ij))a1σ1 · · · ajσj
· · · aiσi
· · · anσn
= sg((ij))
σ∈Sn
sg(σ)a1σ1 · · · anσn = −det A.
(3.14)
Em particular, se as linhas i e j forem iguais, ou seja A = ˜A, ent˜ao
det A = 0. (3.15)
Escrevendo agora
A =



a11 · · · a1n
...
an1 · · · ann


 =





L1
L2
...
Ln





(3.16)
e logo
det A = det (L1, . . . , Ln), (3.17)
tem-se que o determinante ´e uma aplica¸c˜ao multilinear nas linhas (e nas colunas).
Com efeito, para qualquer´ındice i, det ´e linear na linha i quando se fixam as outras
vari´aveis todas, ou seja, para quaisquer linhas Lj, j = 1, . . . , n, e ˜L e quaisquer
λ, µ ∈ R, det verifica
det (L1, . . . , λLi + µ˜L, . . . , Ln) =
λ det (L1, . . . , Li, . . . , Ln) + µ det (L1, . . . , ˜L, . . . , Ln).
(3.18)
Compare-se esta linearidade1
com aquela descrita em (2.36).
Demostremos (3.18). Suponhamos que a linha ˜L = (˜a1, . . . , ˜an). Como a linha
i da matriz do lado esquerdo ´e igual a (λai1 + µ˜a1, . . . , λain + µ˜an), no c´alculo do
determinante vem
σ∈Sn
sg(σ)a1σ1 · · · (λaiσi
+ µ˜aσi
) · · · anσn
= λ
σ∈Sn
sg(σ)a1σ1 · · · aiσi
· · · anσn + µ
σ∈Sn
sg(σ)a1σ1 · · · ˜aσi
· · · anσn .
(3.19)
1
O conceito de aplica¸c˜ao linear ou de aplica¸c˜ao multilinear ser´a formalizado no cap´ıtulo 4.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 31
Us´amos apenas as propriedades de distributividade e comutatividade de R. A
express˜ao a que se chegou ´e claramente aquela do lado direito de (3.18), como
quer´ıamos.
Vejamos um exemplo de aplica¸c˜ao (como na teoria dos polin´omios em v´arias
vari´aveis):
x2
1 x1x2 0
x1x3 x2
2x3 x3x4
x1x4 x2
2 0
= x2
1x2x3
1 1 0
1 x2 x4
x4 x2 0
=
= x2
1x2x3
1 0 0
1 x2 x4
x4 x2 0
+ x2
1x2x3
0 1 0
1 x2 x4
x4 x2 0
=
= x2
1x2x3(−x2x4 + x2
4) = x2
1x2x3x4(x4 − x2).
(3.20)
Para finalizar, reescrevendo (3.14) na nota¸c˜ao anterior, verificou-se que o deter-
minante ´e uma aplica¸c˜ao multilinear alternada ou anti-sim´etrica:
det (L1, . . . , Li, . . . , Lj, . . . , Ln) =
= − det (L1, . . . , Lj, . . . , Li, . . . , Ln).
(3.21)
Tamb´em se pode escrever (3.18) em dois passos. O respeito pela multiplica¸c˜ao de
uma linha por um escalar:
det (L1, . . . , λLi, . . . , Ln) = λ det (L1, . . . , Li, . . . , Ln) (3.22)
e o respeito pela soma de duas linhas
det (L1, . . . , Li + ˜L, . . . , Ln) =
det (L1, . . . , Li, . . . , Ln) + det (L1, . . . , ˜L, . . . , Ln)
(3.23)
∀Li, ˜L ∈ Rn
, λ ∈ R.
3.1.4 C´alculo de determinantes
Pela defini¸c˜ao, ´e trivial provar que
t11 t12 t13 · · · t1n
0 t22 t23 t2n
0 0 t33 · · · t3n
0 0
...
0 0 0 tnn
= t11t22 · · · tnn. (3.24)
E se a matriz dada for triangular inferior, o resultado ´e an´alogo.
Agora, o processo de condensa¸c˜ao de uma qualquer matriz A ∈ Mnn conduz-nos
a uma matriz triangular. Observamos ent˜ao que h´a uma forma pr´atica de calcular
determinantes, tendo em conta as regras:
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 32
• se trocarmos duas linhas (ou colunas) diferentes, o determinante muda de
sinal
• se substituirmos uma linha por ela mesma adicionada de um m´ultiplo de outra
linha, o determinante n˜ao se altera
• se substituirmos uma coluna por ela mesma adicionada de um m´ultiplo de
outra coluna, o determinante n˜ao se altera.
Por exemplo,
1 2 3 4
0 1 −3 5
−1 3 −1 7
3 2 5 4
=
1 2 3 4
0 1 −3 5
0 5 2 11
0 −4 −4 −8
= −4
1 −3 5
5 2 11
1 1 2
=
= −4
1 −3 5
0 17 −14
0 4 −3
= −4
3 −14
1 −3
= −20.
(3.25)
A segunda igualdade resulta de apenas valerem σ ∈ S4 tais que σ(1) = 1. Na quarta
acontece o mesmo.
Teorema 10. Uma qualquer matriz A ´e invert´ıvel sse det A = 0.
De podermos usar a condensa¸c˜ao sobre uma dada matriz para a levar a outra na
forma triangular, sem alterar o seu determinante ou caracter´ıstica, resulta que se
pode supˆor desde j´a que A ´e triangular. Ora, algum dos ajj, j = 1, . . . , n da matriz
triangular (3.24) ´e nulo, ou seja, r(A) < n, sse det A = 0. Invocando o teorema 6,
vˆe-se que dele decorre o teorema anterior.
3.1.5 Regra do produto
Verificaremos primeiro que aplica¸c˜oes multilineares2
alternadas
f : Rn
× · · · × Rn
−→ R
(v1, . . . , vn) −→ f(v1, . . . , vn),
(3.26)
tais como o determinante sobre as linhas ou colunas de uma matriz, existe essen-
cialmente uma.
Para prov´a-lo necessitamos da base can´onica de Rn
, isto ´e, o conjunto de n
vectores
ei = (0, . . . , 0, 1, 0, . . . , 0) (3.27)
2
Recordamos que este conceito pode ser visto no cap´ıtulo 4.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 33
com 1 na i-´esima entrada (cf. (2.50)).
Dizendo de outra forma,
1n =





1 0 · · · 0
0 1 0
... 0
0 0 · · · 1





=



e1
...
en


 . (3.28)
´E evidente que qualquer vector de Rn
(o mesmo que uma matriz-linha) satisfaz
(x1, x2, . . . , xn) = x1e1 + x2e2 + · · · + xnen =
n
j=1
xjej. (3.29)
Eis o resultado que refer´ıamos.
Teorema 11. Qualquer aplica¸c˜ao multilinear alternada f sobre n vectores de Rn
verifica
f(A) = det (A) f(1n). (3.30)
Demonstra¸c˜ao. Com efeito, por multilinearidade e por (3.29)
f(A) = f(L1, . . . , Ln)
= f
n
j1=1
a1j1 ej1 ,
n
j2=1
a2j2 ej2 , . . . ,
n
jn=1
anjn ejn
=
n
j1,j2,...,jn=1
a1j1 · · · anjn f(ej1 , . . . , ejn ).
(3.31)
Note-se que, por hip´otese de f ser alternada, tal como em (3.15), resulta
f(ej1 , . . . , ejn ) = 0 (3.32)
no caso em que h´a dois jl iguais, l = 1, . . . , n, e resulta
f(ej1 , . . . , ejn ) = sg( 1 · · · n
j1 · · · jn
) f(e1, . . . , en) (3.33)
no caso em que todos os jl s˜ao diferentes.
Continuamos agora o c´alculo inicial. Aparece a´ı ent˜ao apenas o somat´orio sobre
as permuta¸c˜oes de 1, . . . , n, ou seja
f(A) =
σ∈Sn
a1σ1 · · · anσn sg(σ) f(e1, . . . , en) = det A f(1n) (3.34)
visto que f(e1, . . . , en) = f(1n). Cheg´amos a (3.30), como quer´ıamos demonstrar.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 34
Agora podemos provar um valioso teorema com a regra do produto para os
determinantes.
Teorema 12. Para quaisquer A, B ∈ Mnn, vem
det (AB) = det (A) det (B). (3.35)
Em particular, det (A−1
) = (det A)−1
.
Demonstra¸c˜ao. Fixemos B e consideremos a fun¸c˜ao sobre as matrizes A ∈ (Rn
)n
=
Mnn
f(A) = det (AB) = |AB| (3.36)
com valores reais. ´E trivial verificar que
f(A) = f(L1, . . . , Ln) =
L1B
...
LnB
(3.37)
e, logo, que f ´e multilinear e alternada: lembrar que (Li +λ˜L)B = LiB+λ˜LB, para
cada i e para quaisquer λ, Li, ˜L, e que a pr´opria fun¸c˜ao determinante tem aquelas
propriedades.
Ent˜ao f est´a nas condi¸c˜oes da hip´otese do teorema 11, donde f(A) = |A| f(1n).
Como f(1n) = |1nB| = |B|, a f´ormula anterior lˆe-se |AB| = |A||B|, como quer´ıamos
demonstrar.
Por outras palavras, o determinante do produto de duas quaisquer matrizes ´e o
produto dos determinantes.
Por exemplo, 


a b c
0 d e
0 0 f






x 0 0
y z 0
w s t


 = adfxzt, (3.38)
o que se tornou muito f´acil de ver.
3.2 Regra de Laplace e aplica¸c˜oes
3.2.1 Regra de Laplace
Suponhamos que ´e dada uma matriz A ∈ Mnn da qual queremos calcular o deter-
minante.
Repare-se agora na decomposi¸c˜ao (3.8) e restringa-se o somat´orio sobre Sn na
defini¸c˜ao (3.10) de determinante apenas ao subconjunto Sj = {σ ∈ Sn : σ1 = j},
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 35
com j ∈ {1, . . . , n} pr´eviamente escolhido. Uma vez que σ1 = j est´a fixo, obtemos
σ∈Sj
sg(σ)a1σ1 · · · anσn =
= (−1)j−1
a1j
σ∈Sj
sg( 1 · · · j · · · n
σ2 · · · j · · · σn
)a2σ2 · · · anσn
= (−1)j−1
a1j|A(1,j)|.
(3.39)
Com efeito, o sinal da permuta¸c˜ao σ ∈ Sj, multiplicado por (−1)j−1
, ´e o da mesma
permuta¸c˜ao composta com j −1 trocas de j com σ2, σ3, etc, at´e σj, ou seja, j levado
de 1 at´e `a posi¸c˜ao j. Depois ´e imediato constatar que aparece o determinante da
matriz A(1,j), como se escreveu, a matriz sem linha 1 nem coluna j.
Em geral, define-se
A(i,j) =










a11 · · · a1,j−1 a1,j+1 · · · a1n
...
...
...
...
ai−1,1 · · · ai−1,j−1 ai−1,j+1 · · · ai−1,n
ai+1,1 · · · ai+1,j−1 ai+1,j+1 · · · ai+1,n
...
...
...
...
an1 · · · an,j−1 an,j+1 · · · ann










. (3.40)
Passando o resultado anterior para um somat´orio sobre Sn = ∪n
j=1Sj, vem
σ∈Sn
=
σ∈S1
+ · · · +
σ∈Sn
(3.41)
e logo a regra de Laplace na primeira linha
|A| = a11|A(1,1)| − a12|A(1,2)|+
+ a13|A(1,3)| − · · · + (−1)n−1
a1n|A(1,n)|.
(3.42)
Dito de outra forma, |A| = j(−1)j−1
a1j|A(1,j)|.
Se quisermos fazer o mesmo c´alculo mas a partir de outra linha, s´o temos de
puxar essa linha para o 1o
lugar de tal forma que tudo o resto permane¸ca na mesma
ordem, ou seja, trocando sucessivamente digamos a linha i com a linha i−1, depois,
esta, com a linha i − 2, etc, at´e ao primeiro lugar. ´E o mesmo que considerar as
matrizes A(i,j) e a alternˆancia do sinal em (−1)i−1
, o que acrescentado ao sinal das
parcelas acima vai dar (−1)i−1
(−1)j−1
= (−1)i+j
.
Assim ficou provado o
Teorema 13 (regra de Laplace). Para qualquer ´ındice de linha i, tem-se
|A| =
n
j=1
(−1)i+j
aij|A(i,j)|. (3.43)
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 36
Esta regra ´e muito pr´atica; permite calcular determinantes recursivamente sobre
a ordem n das matrizes.
Note-se que tamb´em existe uma regra de Laplace sobre as colunas. ´E simples:
na f´ormula (3.43) fazemos o somat´orio em i em vez de j.
3.2.2 A matriz adjunta
Se na matriz A da sec¸c˜ao anterior, uma matriz n por n qualquer, substituirmos a
linha i pela linha k = i, ent˜ao j´a sabemos que o determinante ´e nulo (tem duas
linhas iguais). Pela regra de Laplace aplicada na linha i, obtemos ent˜ao
0 =
n
j=1
(−1)i+j
akj|A(i,j)|. (3.44)
Como veremos, o n´umero (−1)i+j
|A(i,j)| tem grande importˆancia; designa-se por
complemento alg´ebrico de aij.
`A matriz adj A que tem entradas (j, i) iguais ao complemento alg´ebrico de aij,
ou seja, a matriz transposta da matriz formada pelos complementos alg´ebricos, ou
seja, ainda,
(adj A)ji = (−1)i+j
|A(i,j)|, (3.45)
d´a-se o nome de matriz adjunta de A.
J´a vimos que:
n
j=1
aij(adj A)ji = |A|,
n
j=1
akj(adj A)ji = 0 (3.46)
para k = i. Ora isto ´e equivalente a
A adj A = |A| 1n. (3.47)
Em particular, se A ´e invert´ıvel, ent˜ao
A−1
=
1
|A|
adj A. (3.48)
Eis uma nova solu¸c˜ao para o problema de calcular a inversa de uma matriz.
Exemplos:
1. A f´ormula (3.48) permite demonstrar esse facto bel´ıssimo que ´e o de uma
matriz de coeficientes inteiros e determinante 1 ter inversa tamb´em com coe-
ficientes inteiros.
7 5
11 8
−1
=
8 −5
−11 7
(3.49)
´e um exemplo, calculado pela dita f´ormula.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 37
2. Outro exemplo, com a matriz dada de determinante 56,



−5 2 3
0 1 3
2 4 2



−1
=
1
56











1 3
4 2
−
2 3
4 2
2 3
1 3
−
0 3
2 2
−5 3
2 2
−
−5 3
0 3
0 1
2 4
−
−5 2
2 4
−5 2
0 1











=
1
56



−10 8 3
6 −16 15
−2 24 −5



(3.50)
3.2.3 Regra de Cramer
Suponhamos que temos um sistema de n equa¸c˜oes lineares, independentes, a n
inc´ognitas,
AX = B. (3.51)
Ou seja, de caracter´ıstica n. Logo com A invert´ıvel e logo com uma ´unica solu¸c˜ao.
Pelo exposto na sec¸c˜ao 3.2.2,
X = A−1
B =
1
|A|
(adj A)B =
1
|A| j
(−1)i+j
|A(j,i)|bj (3.52)
ou seja
xi =
a11 · · · b1 · · · a1n
...
...
an1 · · · bn · · · ann
|A|
(3.53)
com B tomando o lugar da coluna i de A.
Esta ´e a chamada regra de Cramer para a resolu¸c˜ao de sistemas poss´ıveis
determinados.
Por exemplo: sendo 


x + y + z = 2v
3x − y − z = 2 + v
x + y = 3
, (3.54)
a matriz ampliada do sistema em x, y, z vem a ser



1 1 1 | 2v
3 −1 −1 | 2 + v
1 1 0 | 3


 . (3.55)
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 38
Aplicando a regra de Cramer encontramos as solu¸c˜oes
x =
1
4
2v 1 1
2 + v −1 −1
3 1 0
=
1
4
2v 1 1
2 + 3v 0 0
3 1 0
=
3v + 2
4
, (3.56)
y =
1
4
1 2v 1
3 2 + v −1
1 3 0
=
−3v + 10
4
, (3.57)
z =
1
4
1 1 2v
3 −1 2 + v
1 1 3
=
1
4
0 0 2v − 3
3 −1 2 + v
1 1 3
=
8v − 12
4
. (3.58)
Cap´ıtulo 4
4.1 Espa¸cos vectoriais
4.1.1 Defini¸c˜oes e exemplos
Por espa¸co vectorial sobre o corpo R entende-se um grupo abeliano (V, +)
no qual est˜ao definidas, adicionalmente, opera¸c˜oes de multiplica¸c˜ao por escalar
para cada real α ∈ R,
α : V −→ V, v −→ αv, (4.1)
de tal modo que
α(v1 + v2) = αv1 + αv2 1v = v
(α1 + α2)v = α1v + α2v (αβ)v = α(βv)
(4.2)
∀v, v1, v2 ∈ V, α, α1, α2, β ∈ R.
Aos n´umeros reais chamamos escalares e aos elementos de V vectores. Repare-
se que estamos1
a generalizar os conceitos aprendidos em 2.3.1 a prop´osito do espa¸co
euclidiano Rn
.
Exemplos:
1. Rn
ou Mnm s˜ao espa¸cos vectoriais sobre R j´a bem conhecidos2
.
2. Para qualquer conjunto X e espa¸co vectorial V temos um novo espa¸co vec-
torial V X
= {f : X → V }. Este exemplo generaliza outro, referido como
exemplo de um anel em 1.2.2. Os vectores s˜ao as fun¸c˜oes e a sua soma e
produto por escalar definem-se trivialmente.
1
Dev´ıamos ir mais longe e falar de espa¸cos vectoriais sobre um corpo qualquer. Significaria
que no lugar e no papel dos escalares reais ter´ıamos os elementos de um outro corpo unit´ario (cf.
sec¸c˜ao 1.2.2). As aplica¸c˜oes s˜ao in´umeras. Por´em, note-se que ocorrem logo fen´omenos peculiares
se a chamada caracter´ıstica ou tors˜ao do corpo for n˜ao nula.
2
Observe-se a no¸c˜ao de espa¸co vectorial ser t˜ao simples, por n˜ao requerer a multiplica¸c˜ao de
dois vectores `a semelhan¸ca do espa¸co das matrizes.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 40
3. Recordemos C∞
⊂ · · · ⊂ Ck+1
⊂ Ck
⊂ · · · C0
⊂ RI
onde Ck
´e o espa¸co de
fun¸c˜oes do intervalo I em R, k vezes diferenci´aveis e com derivada de ordem
k cont´ınua. Todos estes s˜ao espa¸cos vectoriais sobre R. S˜ao muito grandes...
4. Um subconjunto U de um espa¸co vectorial V tal que
∀u1, u2 ∈ U, λ ∈ R =⇒ u1 + λu2 ∈ U (4.3)
diz-se um subespa¸co vectorial de V . Claro que, neste caso, U herda uma
estrutura de espa¸co vectorial sobre R.
Conceito central na teoria dos espa¸cos vectoriais ´e o seguinte. Dizemos que
v ∈ V ´e combina¸c˜ao linear de vectores u1, . . . , um se existem escalares α1, . . . , αm
tais que v = i αiui. Note-se que s´o falamos de somas finitas.
Dado um subconjunto S ⊂ V , chamamos espa¸co vectorial gerado por S a
S = combina¸c˜oes lineares de vectores de S . (4.4)
S ´e um subespa¸co vectorial de V .
Apresentemos agora a no¸c˜ao de sistema de vectores linearmente independentes
(sli). Um conjunto, ou sistema, de vectores B = {uα}α∈I diz-se linearmente
independente se qualquer parte finita {u1, . . . , uk} ⊂ B for linearmente indepen-
dente no sentido que j´a conhec´ıamos de (2.38), ou seja, no sentido em que nenhum
ui, i = 1, . . . , k, ´e combina¸c˜ao linear dos restantes, ou seja, ainda, se, supondo que
existem λi ∈ R,
λ1u1 + · · · + λkuk = 0 =⇒ λ1 = · · · = λk = 0. (4.5)
Em presen¸ca de um sli {uα}α∈I, n˜ao h´a duas formas de escrever a mesma com-
bina¸c˜ao linear. Essencialmente, isto vale por v = i αiui = i ˜αiui implicar
i(αi − ˜αi)ui = 0. E logo αi − ˜αi = 0. Ou seja αi = ˜αi, ∀i.
Diz-se, no caso acima, que ´e uma escrita de forma ´unica.
4.1.2 Bases e dimens˜ao
Suponhamos que ´e dado um espa¸co vectorial V sobre R.
Um sli (sistema linearmente independente) B diz-se menor ( ) que o sli B se
∀u ∈ B , u ´e combina¸c˜ao linear de vectores de B. (4.6)
Um sli B diz-se maximal se for maior que todos os outros: ∀B , B B. A
um sli maximal chamamos uma base de V .
Dizemos que V tem dimens˜ao finita se V admite uma base finita.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 41
Teorema 14. Se V tem dimens˜ao finita, ent˜ao todas as bases de V s˜ao finitas e
tˆem o mesmo n´umero de vectores.
Demonstra¸c˜ao. Seja B = {u1, . . . , un} a base finita e B1 outra base qualquer. Ora,
qualquer vector u na segunda base ´e combina¸c˜ao linear de vectores da primeira,
porque B1 B. Portanto existem sempre escalares λ1, . . . , λn com os quais es-
crever u = j λjuj — escrita de forma ´unica. Os vectores de B1 est˜ao assim em
correspondˆencia bi´univoca com vectores (λ1, . . . , λn) de Rn
. Estes tˆem de ser linear-
mente independentes, porque os u ∈ B1 o s˜ao. Mas n˜ao h´a mais do que n vectores
linearmente independentes em Rn
(cf. exemplo 4 da sec¸c˜ao 2.3.2).
Chamamos dimens˜ao de um espa¸co vectorial de dimens˜ao finita V , denotada
dim V , ao n´umero comum de vectores de qualquer base de V .
Dada uma base B ⊂ V de um espa¸co de dimens˜ao qualquer, tem-se B = V ,
pois no caso contr´ario entrar´ıamos em contradi¸c˜ao.
Assim, uma base de V ´e o mesmo que um sistema de vectores linearmente
independente que gera o espa¸co todo.
Muito importante ´e observar que, escolhida uma base, cada vector v ∈ V se
escreve de forma ´unica como combina¸c˜ao linear dos vectores da base.
Exemplos:
1. Os seguintes conjuntos s˜ao subespa¸cos vectoriais dos espa¸cos onde est˜ao con-
tidos:
i) Ua = {(x, y, z) ∈ R3
: a2
(x + y) + z = 0, 3x + y = 0} verifica (4.3), tem
dimens˜ao 1 e uma base {(1, −3, 2a2
)}.
ii) W = {A ∈ Mnn : a11 + 3a1n + an−1,1 − ann = 0} tem dimens˜ao n2
− 1.
Trata-se do espa¸co de todas as matrizes n por n, sujeitas a uma ´unica equa¸c˜ao
linear.
iii) O subespa¸co vectorial de Mn,n das matrizes sim´etricas de ordem n tem
dimens˜ao igual a n(n + 1)/2 (pense-se na ´area do triˆangulo pois s´o contam as
entradas de um lado triangular da matriz).
2. O conjunto Rn[x] = {polin´omios em x de grau ≤ n} ´e um subespa¸co vecto-
rial real, de dimens˜ao n + 1, do espa¸co de todos os polin´omios. Este ´ultimo
tem dimens˜ao ∞ e ´e por sua vez subespa¸co de C∞
R . Uma base de Rn[x] ´e
1, x, x2
, . . . , xn
.
3. Um sistema AX = 0 como em (2.27), portanto um sistema homog´eneo, com
A ∈ Mmn e X ∈ Rn
, d´a origem a um subespa¸co vectorial: Nuc A = {X ∈ Rn
:
AX = 0} ´e subespa¸co vectorial devido `a f´ormula (2.36). A sua dimens˜ao ´e
n−r(A) por que o sistema resolve a equa¸c˜ao de dependˆencia linear das colunas
de A e a caracter´ıstica de linha ´e igual `a caracter´ıstica de coluna.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 42
Repare-se que B B implica B ⊂ B , donde se diz tamb´em que uma base
´e um conjunto minimal de geradores de V .
Sob certas condi¸c˜oes da teoria dos conjuntos, pode-se provar que todo o espa¸co
vectorial admite uma base. Mesmo os de dimens˜ao ∞.
4.1.3 Soma cartesiana e soma directa
Partindo de W, Z dois quaisquer espa¸cos vectoriais, falamos de espa¸co vectorial
produto ou de soma cartesiana de W e Z quando fazemos o produto cartesiano
W × Z e nele tomamos, para estrutura de espa¸co vectorial, a adi¸c˜ao
(w1, z1) + (w2, z2) = (w1 + w2, z1 + z2) (4.7)
e multiplica¸c˜ao por escalar
λ(w, z) = (λw, λz) (4.8)
∀w, w1, w2 ∈ W, z, z1, z2 ∈ Z, λ ∈ R. ´E f´acil perceber que s˜ao satisfeitas as
condi¸c˜oes (4.2).
Se W, Z tˆem dimens˜ao finita, a dimens˜ao do espa¸co vectorial produto ´e sempre
a soma das dimens˜oes.
Exemplo:
1. Rn
= R × R · · · × R.
Sejam agora dados dois subespa¸cos vectoriais U, V de um mesmo espa¸co vectorial
W.
Chamamos soma de U e V ao subespa¸co
U + V = u + v : u ∈ U, v ∈ V . (4.9)
Trata-se de facto de um subespa¸co vectorial, como ´e f´acil provar. Mais ainda
U, V ⊂ U + V . ´E evidente, pois u = u + 0, ∀u ∈ U.
Outra forma de obter um subespa¸co vectorial ´e pela intersec¸c˜ao
U ∩ V (4.10)
dos subespa¸cos dados. Com efeito, ´e claro que a soma de vectores e produto por
escalar de u, v ∈ U ∩ V est´a tanto em U como em V , ou seja, em U ∩ V .
´E claro que um subespa¸co vectorial U de um espa¸co de dim finita W tem ele
pr´oprio dim finita. Basta come¸car num vector = 0 e ir procurando sli cada vez
maiores dentro do subespa¸co U at´e obter um sli maximal. O processo ´e finito por
estar majorado pela dimens˜ao do espa¸co W.
Teorema 15. Se U, V tˆem dimens˜ao finita, ent˜ao
dim(U + V ) = dim U + dim V − dim(U ∩ V ). (4.11)
Em particular, U + V tem dimens˜ao finita.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 43
Demonstra¸c˜ao. Come¸cemos com uma base {u1, . . . , up} de U ∩V , que prolongamos,
como acima, a uma base {u1, . . . , up, up+1, . . . , un} de U. Seja {v1, . . . , vm} uma
base de V . Ent˜ao o conjunto {up+1, . . . , un, v1, . . . , vm} ´e um sistema de vectores
linearmente independentes, pois se fosse
λp+1up+1 + · · · + λnun + α1v1 + · · · + αmvm = 0
⇐⇒ λp+1up+1 + · · · + λnun = −α1v1 − · · · − αmvm
ent˜ao este ´ultimo vector estaria em U ∩ V , pelo que seria combina¸c˜ao linear dos
u1 . . . , up. Mas sendo escrito s´o com os ui, com i > p, tem de ser 0. Ent˜ao todos os
λi, αj s˜ao 0, como quer´ıamos.
´E tamb´em f´acil verificar que qualquer outro vector de U +V ´e combina¸c˜ao linear
daqueles. Ent˜ao est´a provado que {up+1, . . . , un, v1, . . . , vm} ´e uma base. O n´umero
de vectores de tal base ´e n − p + m.
Finalmente, chamamos soma directa a U + V quando os dois subespa¸cos ver-
ificam U ∩ V = {0}. Denota-se por U ⊕ V . A dimens˜ao desta ´e a soma das
dimens˜oes.
4.2 Aplica¸c˜oes lineares
4.2.1 Defini¸c˜oes
Finalmente formalizamos o conceito j´a utilizado em duas ocasi˜oes: em 2.3.1 como
caso particular e em (3.15) a prop´osito da propriedade do determinante de matrizes
ser uma aplica¸c˜ao multilinear.
S˜ao dados dois espa¸cos vectoriais V e W.
Uma fun¸c˜ao f : V → W diz-se uma aplica¸c˜ao linear se
f(v + u) = f(v) + f(u) e f(λu) = λf(u) (4.12)
∀u, v ∈ V, λ ∈ R.
Assim, uma aplica¸c˜ao linear ´e uma aplica¸c˜ao que preserva as estruturas dos
espa¸cos vectoriais em causa. Em particular, tem-se o facto trivial: f(0) = f(0+0) =
0.
´E trivial verificar que a imagem de uma aplica¸c˜ao linear
Im f = f(V ) = f(v) : v ∈ V (4.13)
´e um subespa¸co vectorial de W. Com efeito, f(u) + λf(v) = f(u + λv) tamb´em
est´a na imagem de f, quaisquer que sejam u, v, λ.
Tamb´em, dado um qualquer subespa¸co U ⊂ W, o conjunto imagem rec´ıproca
f∗
U = v ∈ V : f(v) ∈ U (4.14)
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 44
´e um subespa¸co vectorial de V .
Em particular f∗
{0}, denotado
Nuc f = v ∈ V : f(v) = 0 , (4.15)
´e um subespa¸co vectorial de V chamado n´ucleo de f.
Deixamos a demonstra¸c˜ao do pr´oximo resultado como um exerc´ıcio.
Teorema 16. Seja f : V → W uma aplica¸c˜ao linear entre espa¸cos vectoriais.
Ent˜ao:
i) f ´e injectiva sse Nuc f = {0}.
ii) f ´e injectiva sse f transforma vectores linearmente independentes em vectores
linearmente independentes.
iii) f ´e sobrejectiva sse o espa¸co gerado por f(B) ´e igual a W, ou seja f(B) = W,
para qualquer base B de V .
iv) f ´e bijectiva sse transforma uma base de V numa base de W.
H´a nomes pr´oprios para f linear e injectiva, sobrejectiva ou bijectiva. Diremos
ent˜ao que f ´e, respectivamente, um monomorfismo, um epimorfismo ou um
isomorfismo.
Se V = W, ent˜ao f : V → V diz-se um endomorfismo. Um isomorfismo
endomorfismo diz-se um automorfismo.
Prove-se, `a parte, que a inversa de uma aplica¸c˜ao linear bijectiva ´e uma aplica¸c˜ao
linear.
O conjunto das aplica¸c˜oes lineares de V para W denota-se por L(V, W).
´E trivial mostrar que a soma ou a composi¸c˜ao de duas aplica¸c˜oes lineares ´e uma
aplica¸c˜ao linear e que o mesmo acontece com o produto de uma aplica¸c˜ao linear
por um escalar. Enfim, prova-se sem dificuldade o
Teorema 17. L(V, W) ´e um espa¸co vectorial sobre R. O espa¸co End (V ) :=
L(V, V ) dos endomorfismos de V ´e um anel e o subconjunto dos automorfismos
Aut(V ) = {isomorfismos de V para V } ´e um grupo.
Contudo, o resultado n˜ao ´e surpreendente: em dim finita h´a correspondˆencia
entre aqueles espa¸cos e, respectivamente, o espa¸co vectorial das matrizes Mnm, o
anel das matrizes quadradas Mnn e o grupo das matrizes invert´ıveis.
4.2.2 Representa¸c˜ao matricial
Sejam V, W espa¸cos vectoriais reais de dimens˜ao finita n, m, respectivamente. Se-
jam B = {v1, . . . , vn}, ˜B = {w1, . . . , wm} bases fixadas em V, W, respectivamente.
Sejam
X =



x1
...
xn


 , B =



b1
...
bn


 (4.16)
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 45
a matriz dos coeficientes de um qualquer vector v ∈ V e, respectivamente, a matriz
dos coeficientes de um vector w0 ∈ W. Ou seja,
v =
n
i=1
xivi = v1 · · · vn



x1
...
xn


 , w0 =
m
j=1
bjwj = ˜B B (4.17)
Seja agora f : V → W uma aplica¸c˜ao linear. Denotamos ent˜ao
A = M(f, B, ˜B) (4.18)
a matriz definida da seguinte forma: como para cada 1 ≤ i ≤ n, o vector f(vi) se
escreve de forma ´unica `a custa dos vectores wj, 1 ≤ j ≤ m, existem escalares aji
tais que
f(vi) =
m
j=1
ajiwj. (4.19)
´E ´obvio que A = [aji] ∈ Mmn. A esta matriz damos o nome de matriz da
aplica¸c˜ao linear f nas bases {vi}, {wj}.
Note-se bem que esta representa¸c˜ao depende das bases.
Rec´ıprocamente, fixadas as bases, a cada matriz A ∈ Mmn corresponde uma
´unica aplica¸c˜ao linear f. A linearidade, como condi¸c˜ao, determina un´ıvocamente f
de tal forma que a sua representa¸c˜ao em matriz ´e a matriz dada.
Exemplo:
1. Seja f : R2
→ R2[ξ] definida por
f(x, y) = 2xξ2
+ 3(x + y)ξ + 4x − y. (4.20)
Trata-se com efeito de uma aplica¸c˜ao linear entre espa¸cos vectorias (cf. ex-
emplo 2 da sec¸c˜ao 4.1.2). Considerando as bases can´onicas daqueles espa¸cos,
de um lado B = {(1, 0), (0, 1)}, do outro ˜B = {ξ2
, ξ, 1}, temos
f(1, 0) = 2ξ2
+ 3ξ + 4, f(0, 1) = 3ξ − 1. (4.21)
Donde
M(f, B, ˜B) =



2 0
3 3
4 −1


 (4.22)
´e a matriz de f nas bases escolhidas.
2. Consideremos a aplica¸c˜ao identidade 1V : V → V . Podemos tomar a mesma
base no espa¸co de chegada — ali´as ´e quase sempre assim que fazemos quando
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 46
tratamos de endomorfismos de um dado espa¸co. Tem-se logo 1V (vi) = vi,
∀1 ≤ i ≤ n, pelo que a representa¸c˜ao matricial ´e
M(1V , B, B) = 1n (4.23)
como era de esperar.
Prova-se naturalmente, sem dificuldade, que a uma equa¸c˜ao linear f(v) = w0
em v corresponde um e um s´o sistema linear AX = B:
f(v) = w0 ⇔
n
i=1
xif(vi) =
m
j=1
bjwj ⇔
⇔
m
j=1
n
i=1
xiajiwj =
m
j=1
bjwj ⇔
⇔
n
i=1
ajixi = bj, ∀j ⇔ AX = B.
(4.24)
Prova-se ainda que o conjunto solu¸c˜ao Cw0 = {v : f(v) = w0} ´e igual a
v0 + Nuc f, onde v0 ´e uma solu¸c˜ao particular, isto ´e, f(v0) = w0. De facto, v ∈ Cw0
sse f(v − v0) = w0 − w0 = 0.
Como j´a foi certamente observado no teorema 16, a dimens˜ao da imagem de
f est´a relacionada com o maior sli contido na imagem, em W, dos vectores de
uma base de V . Ou seja, ´e exactamente a caracter´ıstica da matriz A. Mais ainda,
conclui-se que o grau de indetermina¸c˜ao n − r(A) do sistema acima ´e a dimens˜ao
do n´ucleo de f. Uma vez que n = n − r(A) + r(A), est´a provado o
Teorema 18. dim V = dim Nuc f + dim Im f.
´E um resultado relevante pois n˜ao depende da escolha das bases.
Nesta teoria acresce dizer que segue sem demonstra¸c˜ao a identidade
M(f + λg, B, ˜B) = M(f, B, ˜B) + λM(g, B, ˜B) (4.25)
∀f, g ∈ L(V, W), λ ∈ R.
4.2.3 Composi¸c˜ao vs produto
Sejam V, W, U espa¸cos vectoriais reais de dimens˜ao finita n, m, p, respectivamente.
Sejam B = {v1, . . . , vn}, ˜B = {w1, . . . , wm}, B = {u1, . . . , up} bases fixadas em
V, W, U, respectivamente.
Suponhamos que s˜ao dadas aplica¸c˜oes lineares
V
f
−→ W
g
−→ U. (4.26)
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 47
Uma vez que g◦f tamb´em ´e uma aplica¸c˜ao linear, p˜oe-se a quest˜ao de relacionar
as matrizes
A = M(f, B, ˜B), B = M(g, ˜B, B ) (4.27)
com a matriz C = M(g ◦ f, B, B ).
Por defini¸c˜ao, analogamente com (4.19), isto ´e, f(vi) = m
j=1 ajiwj, tem-se
g(wj) =
p
k=1
bkjuk, g ◦ f (vi) =
p
k=1
ckiuk. (4.28)
Mas uma vez que
g ◦ f (vi) = g
m
j=1
ajiwj =
m
j=1
ajig(wj) =
=
m
j=1
p
k=1
ajibkjuk =
p
k=1
m
j=1
bkjajiuk
(4.29)
obt´em-se afinal
C = BA. (4.30)
Repare-se que A ∈ Mmn, B ∈ Mpm, pelo que o resultado C = BA ∈ Mpn faz
pleno sentido.
Est´a descoberta a natureza geom´etrica do produto de matrizes. Toda a teoria
estudada nos cap´ıtulos anteriores passou a fazer parte de um todo coerente.
Recordemos agora a aplica¸c˜ao identidade 1V : V → V e representˆemo-la numa
dada base B = {vi} de V como a matriz M(1V , B, B) = 1n. Pela lei demonstrada da
‘composi¸c˜ao vs produto’, deduz-se logo que a matriz da inversa de um isomorfismo
f : V → W, nas mesmas bases acima, verifica
M(f−1
, ˜B, B) = (M(f, B, ˜B))
−1
. (4.31)
Repare-se que se mudarmos para a base B1 do mesmo espa¸co V temos uma
matriz quadrada
P = M(1V , B, B1) = (M(1V , B1, B))−1
(4.32)
(a qual n˜ao tem nada que ser a matriz identidade). Uma tal matriz P chama-se
uma matriz de mudan¸ca de base.
Vejamos como se transforma em geral a matriz de uma aplica¸c˜ao linear qualquer
como a f : V → W inicial. Suponhamos que, al´em da mudan¸ca de bases em V ,
descrita por P, temos a mudan¸ca de bases ˜B para ˜B1 em W, descrita pela matriz
Q = M(1W , ˜B1, ˜B). Sendo A1 = M(f, B1, ˜B1), resulta de se ter f = 1W ◦ f ◦ 1V , de
(4.27) e de (4.30) que
A = QA1P. (4.33)
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 48
Em particular, se f : V → V ´e um endomorfismo e usamos a mesma base dos
dois lados, uma mudan¸ca de bases, de ambos os lados, descrita por P, produz o
efeito A = P−1
A1P.
Exemplos:
1. Consideremos o exemplo 1 da sec¸c˜ao 4.2.2 e, em W = R2[ξ], mudemos da
base ˜B = {ξ2
, ξ, 1} para a base ˜B1 = {(ξ + 2)2
, (ξ + 2), 1}. Imediatamente
calculamos
ξ2
= (ξ + 2)2
− 4(ξ + 2) + 4
ξ = (ξ + 2) − 2
1 = 1
(4.34)
pelo que
Q = M(1W , ˜B, ˜B1) =



1 0 0
−4 1 0
4 −2 1


 . (4.35)
Logo
M(f, B, ˜B1) = Q



2 0
3 3
4 −1


 =



2 0
−5 3
6 −7


 . (4.36)
Podemos usar este resultado para escrever3
f na nova base:
f(x, y) = 2x(ξ + 2)2
+ (−5x + 3y)(ξ + 2) + 6x − 7y. (4.37)
Lembrar que tamb´em as matrizes, fixadas as bases, determinam un´ıvocamente
as aplica¸c˜oes lineares.
2. Como exemplo de aplica¸c˜ao, temos que se pode definir o determinante de
um endomorfismo f : V → V . Basta escrever
det f = det (M(f, B, B)). (4.38)
´E trivial provar, por (4.32) e (4.33), que (4.38) n˜ao depende da escolha da
base. Por exemplo, se f(v) = κv, ent˜ao det f = κn
.
4.2.4 Valores e vectores pr´oprios
Suponhamos que ´e dado um endomorfismo f : V → V de um espa¸co vectorial V
sobre R. Interessa-nos encontrar as direc¸c˜oes em V , socorrendo-nos aqui de uma
3 ´E o desenvolvimento de Taylor do polin´omio em ξ em torno de −2.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 49
linguagem geom´etrica, sobre as quais a imagem de f se expande ou se contrai. Ou
seja, interessam as direc¸c˜oes n˜ao nulas u ∈ V tais que
f(u) = λ0u (4.39)
para algum λ0 ∈ R. Um vector como u chama-se um vector pr´oprio de f asso-
ciado ao valor pr´oprio λ0.
Assumamos que V tem dimens˜ao finita n e que uma sua base foi pr´eviamente
escolhida. ´E claro que a equa¸c˜ao f(u) − λu = 0 tem solu¸c˜oes em u, λ, u = 0, sse o
sistema homog´eneo (A − λ1n)X = 0 ´e poss´ıvel indeterminado, quando representa-
mos por A a matriz de f (veja-se (4.24)).
Escrevendo o polin´omio caracter´ıstico de A,
pA(λ) = det (A − λ1n), (4.40)
diz´ıamos que o sistema tem solu¸c˜ao (u, λ0) sse λ0 ´e uma ra´ız de pA, ou seja,
λ0 ´e valor pr´oprio de A ⇐⇒ pA(λ0) = 0. (4.41)
Com efeito, se aquele determinante ´e nulo, a matriz A − λ01n tem caracter´ıstica
< n e logo o sistema tem solu¸c˜oes u ∈ V n˜ao nulas. E rec´ıprocamente.
Prova-se, reflectindo um pouco sobre as defini¸c˜oes, que pA ´e de facto um polin´omio
em λ, que o seu grau ´e n, que o coeficiente do termo λn
´e (−1)n
e que o termo in-
dependente ´e |A|.
Exemplo:
1. Seja f(x, y) = (2x, 3x − y) de R2
para si mesmo. A sua matriz na base
can´onica (1, 0), (0, 1) e o respectivo polin´omio caracter´ıstico s˜ao
A =
2 0
3 −1
, pA =
2 − λ 0
3 −1 − λ
= (λ − 2)(λ + 1). (4.42)
Ent˜ao os valores pr´oprios s˜ao 2 e −1. Os vectores pr´oprios associados resultam
de resolver, por exemplo, f(x, y) = 2(x, y). Isto ´e equivalente a (2x, 3x−y)−
2(x, y) = 0, ou ainda x = y. Segue portanto que os vectores em U2 = {(y, y) :
y ∈ R} = (1, 1) s˜ao associados ao valor pr´oprio 2. Fazendo o mesmo para
−1, vˆe-se logo que o respectivo subespa¸co pr´oprio ´e U−1 = (0, 1) .
Dissemos bem no exemplo anterior. Prova-se sem dificuldade que o subespa¸co
pr´oprio de V associado ao valor pr´oprio λ0 de f,
Uλ0 = u ∈ V : f(u) = λ0u , (4.43)
´e um subespa¸co vectorial. A sua dimens˜ao ´e a multiplicidade geom´etrica de λ0.
Esta distingue-se da multiplicidade alg´ebrica de λ0, que ´e a multiplicidade do
valor pr´oprio λ0 como ra´ız de pA.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 50
H´a, no m´aximo, tantas direc¸c˜oes pr´oprias linearmente independentes dentro de
Uλ0 quanto a multiplicidade alg´ebrica de λ0. Ou seja,
m.g. λ0 ≤ m.a. λ0. (4.44)
O caso da matriz
3 3
0 3
mostra-nos o problema que est´a em procurar uma
base de vectores pr´oprios. No exemplo vertente, de valor pr´oprio 3, 1 = m.g. 3 ≤
m.a. 3 = 2.
Seguramente para valores pr´oprios distintos h´a independˆencia linear, como diz
o
Teorema 19. Vectores pr´oprios u1, . . . , uk ∈ V de uma aplica¸c˜ao linear f associ-
ados a valores pr´oprios distintos λ1, . . . , λk, respectivamente, formam um sistema
de vectores linearmente independente.
Demonstra¸c˜ao. Por indu¸c˜ao em k. Sendo o resultado claro para k = 1, admitamo-
lo como v´alido para k e provˆemo-lo para k + 1. Podemos j´a supˆor λk+1 = 0.
Suponhamos, por absurdo, que existem escalares α1, . . . , αk tais que
uk+1 = α1u1 + · · · + αkuk.
Aplicando ent˜ao f de ambos os lados temos, por defini¸c˜ao e por linearidade,
λk+1uk+1 = λ1α1u1 + · · · + λkαkuk.
Ou seja, igualando a uk+1, temos
α1u1 + · · · + αkuk =
λ1α1
λk+1
u1 + · · · +
λkαk
λk+1
uk.
Agora, para vectores linearmente independentes, h´a unicidade da escrita de uma
combina¸c˜ao linear. Usando a hip´otese de indu¸c˜ao, s´o podemos ter ent˜ao λi
λk+1
=
1, ∀1 ≤ i ≤ k. Mas isto contradiz o facto de os λi serem todos distintos.
Outra forma de enunciar o teorema ´e simplesmente dizer que os diferentes sube-
spa¸cos vectoriais pr´oprios
Uλ1 ⊕ · · · ⊕ Uλk
(4.45)
est˜ao em soma directa.
4.2.5 Matrizes semelhantes
Duas matrizes quadradas A, A1 de ordem n dizem-se semelhantes se existe uma
matriz invert´ıvel P de ordem n tal que
A1 = PAP−1
. (4.46)
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 51
Trata-se de uma rela¸c˜ao de equivalˆencia entre matrizes, cf. 1.1.2. Por exemplo,
a propriedade de transitividade resulta de
A = PA1P−1
& A1 = QA2Q−1
(4.47)
implicar
A = PQA2Q−1
P−1
= (PQ)A2(PQ)−1
. (4.48)
A reflexividade e simetria s˜ao ainda mais simples de ver.
J´a vimos que s˜ao semelhantes as v´arias matrizes M(f, B, B) de um endomorfismo
f representadas nas diferentes bases B de um mesmo espa¸co vectorial.
Pela mesma raz˜ao de representarem endomorfismos e de os vectores pr´oprios
destes serem independentes da base fixada, o polin´omio caracter´ıstico de matrizes
semelhantes n˜ao se altera:
pA(λ) = pA1 (λ). (4.49)
Mas pode e deve-se verificar este facto directamente da defini¸c˜ao de pA1 .
Uma matriz diz-se diagonaliz´avel se for semelhante a uma matriz diagonal.
Podemos agora afirmar sint´eticamente que um endomorfismo admite uma base
de vectores pr´oprios sse a sua representa¸c˜ao matricial ´e diagonaliz´avel.
A melhor aproxima¸c˜ao ao problema de diagonaliza¸c˜ao de uma matriz ´e dada,
grosso modo, pelo teorema da forma can´onica de Jordan, que estudaremos mais
tarde.
Para finalizar, lembramos que h´a invariantes num´ericos da classe de equivalˆencia
por semelhan¸ca de cada matriz. O primeiro, j´a visto no exemplo 2 de 4.2.3, ´e o
determinante.
O mesmo se passa com o tra¸co de uma matriz. Chamamos tra¸co de A `a soma
das entradas da diagonal principal.
Tr : Mn,n −→ R, Tr A =
n
i=1
aii (4.50)
´e uma aplica¸c˜ao linear `a qual acresce a propriedade
Tr (AB) = Tr (BA) (4.51)
para quaisquer matrizes A, B ∈ Mn,n.
Donde Tr A1 = Tr (PAP−1
) = Tr (P−1
PA) = Tr A para matrizes semelhantes.
Cap´ıtulo 5
5.1 Geometria do Espa¸co Euclidiano
5.1.1 Produto interno euclidiano
No espa¸co euclidiano Rn
, os problemas m´etricos, ´etimo de problemas de medi¸c˜ao, s˜ao
entendidos como aqueles que envolvem quest˜oes sobre o produto interno euclidiano.
Trata-se de um conceito matem´atico que joga o papel da r´egua e do compasso, ou
seja, dos instrumentos de medida de distˆancias e ˆangulos. Assim ser´a tamb´em
em geral, como veremos mais tarde, em qualquer espa¸co vectorial munido de um
dispositivo em tudo semelhante e ainda designado de produto interno.
Comecemos pela presente situa¸c˜ao.
O produto interno euclidiano consiste na fun¸c˜ao1
Rn
× Rn
−→ R, (u, v) −→ u, v =
n
i=1
xiyi (5.1)
onde se admite u = (x1, . . . , xn), v = (y1, . . . , yn).
´E imediato constatar que o produto interno ´e uma aplica¸c˜ao bilinear, ou seja, lin-
ear em u quando se fixa v e vice-versa. Basta ali´as verific´a-lo de um lado, porque tem
a propriedade adicional de ser sim´etrico. Assim, ∀u, u1, u2, v, v1, v2 ∈ Rn
, λ, µ ∈ R,
u1 + λu2, v1 + µv2 = u1, v1 + µv2 + λ u2, v1 + µv2 =
= u1, v1 + µ u1, v2 + λ u2, v1 + λµ u2, v2 ,
u, v = v, u .
(5.2)
Verifica-se tamb´em que u, u ≥ 0, com igualdade sse u = 0.
Posto isto, pode-se definir a norma de um vector, associada ao produto interno
euclidiano, como sendo
u = u, u = x2
1 + · · · + x2
n. (5.3)
1
Roga-se ao leitor o cuidado de n˜ao confundir os parˆenteses do p.i. com os de subespa¸co gerado.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 53
O leitor, numa primeira abordagem, poder´a aqui reconhecer formalmente o teorema
de Pit´agoras.
O produto interno euclidiano respeita mesmo a decomposi¸c˜ao de Rn
como soma
directa Rn1
⊕ Rn2
, onde n = n1 + n2, de espa¸cos com produto interno. ´E imediato
provar pela defini¸c˜ao, em sentido dos ´ındices f´acil de entender, que se tem
u, v n = u1, v1 n1 + u2, v2 n2 (5.4)
onde u = u1 + u2 e v = v1 + v2 representa a decomposi¸c˜ao, ´unica, na soma directa.
Daqui segue de facto o teorema de Pit´agoras, mas vˆe-lo-emos adiante noutra forma,
mais geral.
Como exemplo a destacar, calculemos o produto interno de alguns pares de
vectores em Rn
. Seja ei = (0, . . . , 0, 1, 0, . . . , 0), i = 1, . . . , n, a base can´onica;
ent˜ao
ei, ei = 02
+ · · · + 02
+ 12
+ 02
+ · · · + 02
= 1
ei, ej = 02
+ · · · + 0.1 + · · · + 1.0 + · · · + 02
= 0
(5.5)
para i = j.
A norma euclidiana obedece `a desigualdade de Cauchy
| u, v | ≤ u v , com igualdade sse u, v s˜ao colineares. (5.6)
A demonstra¸c˜ao pode ser feita por indu¸c˜ao ou pela an´alise do bin´omio descriminante
da par´abola u+λv, u+λv em λ, a qual como j´a vimos est´a sempre acima do eixo
dos λ’s.
Repare-se agora nas propriedades, f´aceis de provar, para todos os vectores e
escalares,
λu = |λ| u , u + v ≤ u + v . (5.7)
A segunda chama-se desigualdade triangular.
A desigualdade de Cauchy permite definir o ˆangulo entre dois vectores
(u, v) = arccos
u, v
u v
(5.8)
com a determina¸c˜ao de arccos, e.g., entre 0 e π.
5.1.2 Ortogonalidade
Seja U ⊂ Rn
um subconjunto qualquer, n˜ao vazio. Define-se o ortogonal de U
como o subconjunto
U⊥
= v ∈ Rn
: u, v = 0, ∀u ∈ U . (5.9)
Tem-se que U⊥
´e sempre um subespa¸co vectorial.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 54
Por linearidade, ´e evidente que U⊥
aparece como espa¸co solu¸c˜ao do sistema
homog´eneo em v = (x1, . . . , xn) de, digamos, k equa¸c˜oes lineares:
u1, v = 0, u2, v = 0, . . . , uk, v = 0 (5.10)
onde u1, . . . , uk ´e um sistema de vectores linearmente independente maximal dentro
de U, ou seja, uma base de U (subespa¸co gerado por U). Logo dim U⊥
= n − k.
Como U⊥
∩ U = {0}, est´a provado o
Teorema 20. Para qualquer subconjunto U do espa¸co euclidiano, temos a decom-
posi¸c˜ao em soma directa
Rn
= U⊥
⊕ U . (5.11)
Em particular, dim U⊥
= n − dim U .
Seja V um subespa¸co vectorial; de modo que Rn
= V ⊕ V ⊥
.
Podemos definir aplica¸c˜oes lineares π : Rn
→ V e π⊥
: Rn
→ V ⊥
dadas pela
decomposi¸c˜ao ´unica, ∀w ∈ Rn
, w = w1 + w2 com w1 ∈ V, w2 ∈ V ⊥
: escrevemos
ent˜ao π(w) = w1, π⊥
(w) = w2. Tˆem-se ent˜ao as rela¸c˜oes:
1Rn = π + π⊥
, π ◦ π⊥
= 0, π⊥
◦ π = 0,
π ◦ π = π π⊥
◦ π⊥
= π⊥
, ker π = V ⊥
ker π⊥
= V.
(5.12)
π e π⊥
s˜ao de facto lineares e chamam-se projec¸c˜oes ortogonais.
Repare-se que a sucess˜ao de aplica¸c˜oes lineares
0 −→ V ⊥ ι
−→ Rn π
−→ V −→ 0 (5.13)
com ι a aplica¸c˜ao de inclus˜ao, ι(w) = w, verifica em cada espa¸co que a imagem da
aplica¸c˜ao anterior ´e igual ao n´ucleo da seguinte.
´E claro que {0}⊥
= Rn
, Rn⊥
= {0}. Mais cuidado ´e preciso ter em verificar que
(U⊥
)⊥
= U . (5.14)
Em particular, para um subespa¸co vectorial V ⊂ Rn
, tem-se (V ⊥
)⊥
= V . (´E pela
dedu¸c˜ao da dimens˜ao, vista no teorema acima, que se afirma a inclus˜ao do ortogonal
do ortogonal em V .)
Por exemplo em R2
, o ortogonal ao vector (a, b), suposto = 0, ´e a recta gerada
por (−b, a).
Em R3
, o ortogonal a (a, b, c), suposto = 0, ´e o plano (dim 2) gerado pelo
sistema de vectores linearmente dependente (−b, a, 0), (−c, 0, a), (0, c, −b). Com
efeito, todos os trˆes vectores s˜ao ortogonais a (a, b, c), como se vˆe por exemplo no
caso do primeiro, (−b, a, 0), (a, b, c) = −ba + ab + 0c = 0, e tem-se a combina¸c˜ao
linear −c(−b, a, 0)+b(−c, 0, a)+a(0, c, −b) = 0, donde apenas dois em trˆes daqueles
vectores s˜ao linearmente independentes.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 55
Escrevemos agora duas identidades cuja verifica¸c˜ao ´e um exerc´ıcio. Primeiro, a
do paralelogramo
u + v 2
+ u − v 2
= 2 u 2
+ 2 v 2
(5.15)
e, segundo, a identidade de Pit´agoras generalizada: se u ⊥ v, ou seja, u, v = 0,
ent˜ao
u + v 2
= u 2
+ v 2
. (5.16)
Muitos problemas surgem em geometria euclidiana dos subespa¸cos de Rn
para
os quais certas bases s˜ao mais indicadas que outras.
Dizemos, para come¸car, que um vector u ´e unit´ario ou normado se u = 1.
Define-se base ortonormada como uma base {u1, . . . , un} do espa¸co euclidiano
formada de vectores unit´arios e ortogonais entre si. Ou seja,
uα, uβ = δαβ =
1 se α = β
0 se α = β
(5.17)
Os δαβ s˜ao chamados de s´ımbolos de Kronecker e correspondem `as entradas
da matriz 1n.
Exemplos:
1. A c´elebre base can´onica de Rn
´e uma base ortonormada, cf. (5.5).
2. Seja U o subespa¸co vectorial de R4
gerado por u1 = (1, 2, 3, 0) e u2 =
(2, 1, 4, −1). Portanto U = {λ1u1 + λ2u2 : λ1, λ2 ∈ R}. ´E f´acil ver que
os dois geradores s˜ao linearmente independentes, ie. formam uma base de U.
A projec¸c˜ao de u2 sobre a recta ortogonal a u1 dentro de U ´e u2 = u2 − v
onde v = u1, u2
u1
u1
2 . Com efeito,
u1, u2 = u1, u2 − u1, u2
u1, u1
u1
2
= 0
e, por outro lado, u2 = u2 + v com v sobre o eixo u1. Ent˜ao
˜u1 =
u1
u1
=
1
√
14
(1, 2, 3, 0) e ˜u2 =
u2
u2
=
1
√
182
(6, −9, 4, −7) (5.18)
formam outra base de U, desta feita uma base ortonormada: ˜ui, ˜uj = δij,
i, j = 1, 2.
Agora, U⊥
´e dado pelos vectores (x, y, z, w) solu¸c˜ao de
x + 2y + 3z = 0
2x + y + 4z − w = 0
. (5.19)
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 56
Uma base ortonormada de U⊥
encontra-se pela mesma t´ecnica:
˜u3 =
1
√
14
(2, −1, 0, 3), ˜u4 =
1
√
182
(9, 6, −7, −4). (5.20)
Claramente ˜u1, ˜u2, ˜u3, ˜u4 forma uma base ortonormada de R4
= U ⊕ U⊥
.
Antes de passar `as aplica¸c˜oes, vejamos ainda dois resultados te´oricos sobre a
decomposi¸c˜ao ortogonal.
Primeiro, se U1 ⊂ U2 ⊂ Rn
s˜ao subespa¸cos vectoriais, ent˜ao ´e claro que U⊥
2 ⊂
U⊥
1 .
Segundo, para quaisquer dois subespa¸cos vectoriais U, V tem-se
(U + V )⊥
= U⊥
∩ V ⊥
(U ∩ V )⊥
= U⊥
+ V ⊥
. (5.21)
Basta ver a primeira igualdade, j´a que a segunda decorre desta tomando o ortogonal
do ortogonal. Essencialmente o resultado segue ent˜ao de U, V serem subespa¸cos de
U + V ⊂ Rn
.
5.1.3 Subespa¸cos afins
Primeiro uma referˆencia ao conceito de espa¸co afim, que n˜ao definimos. A duali-
dade, mas n˜ao ambiguidade, entre pontos e vectores devia-nos levar a pensar num
espa¸co de pontos mais abstracto que Rn
, onde sempre fizesse sentido adicionar pon-
tos com vectores, obtendo novos pontos, e onde se verificassem as mais elementares
regras de adi¸c˜ao. Onde a ‘diferen¸ca’ entre dois quaisquer pontos fosse um vector.
Um espa¸co afim ´e pois entendido a partir daquela ideia, mas n˜ao privilegiando
uma origem dos pontos nem um qualquer ‘referencial’ escolhido, ou seja, ´e um espa¸co
abstracto onde sempre que tomamos quaisquer n + 1 pontos em posi¸c˜ao geral estes
definem uma identifica¸c˜ao com Rn
e onde, ao mudarmos de um ‘referencial’ para
outro, damos lugar a um isomorfismo (afim) do espa¸co euclidiano.
Entenda-se por agora a quest˜ao da invariˆancia de referencial, sustentada pela
chamada geometria afim, numa forma ideal como a da pr´opria invariˆancia dos con-
ceitos fundamentais da geometria. Adiada essa quest˜ao, continuaremos a trabalhar
apenas com o espa¸co euclidiano.
Sabemos que os subespa¸cos vectoriais de Rn
passam todos por (0, . . . , 0). Para
descrever subconjuntos paralelos a estes s´o temos de lhes adicionar um ponto.
Chamamos subespa¸co afim a um subconjunto de Rn
do tipo
F = P0 + U, (5.22)
com P0 um ponto qualquer de Rn
e U um subespa¸co vectorial de Rn
.
Note-se que o mesmo subespa¸co afim F pode ser descrito por F = P0 + U com
P0 outro ponto. Basta que o vector P0 − P0 perten¸ca a U.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 57
O subespa¸co vectorial U chama-se subespa¸co associado ao subespa¸co afim F.
Tamb´em se diz de U ser a direc¸c˜ao do subespa¸co afim. Referimo-nos `a dimens˜ao
de F como sendo a dimens˜ao de U.
Se dim U = 1, ent˜ao F diz-se uma recta; se dim U = 2, F diz-se um plano. E
se dim U = n − 1, ent˜ao dizemos que F ´e um hiper-plano.
Sendo F0 = P0 + U0, F1 = P1 + U1 dois subespa¸cos afins de direc¸c˜oes U0, U1, a
sua intersec¸c˜ao, se n˜ao for vazia, ´e um subespa¸co afim de direc¸c˜ao U0 ∩ U1.
Diremos que F0 ´e paralelo a F1, e escrevemos F0 F1, se U0 ⊂ U1. Note-se
que tal s´o depende dos subespa¸cos vectoriais associados e n˜ao dos pontos P0, P1. ´E
claro que se o subespa¸co afim F0 ´e paralelo e intersecta F1, ent˜ao est´a contido em
F1. E rec´ıprocamente.
Dois subespa¸cos afins dizem-se obl´ıquos se os respectivos subespa¸cos vectoriais
associados tˆem intersec¸c˜ao trivial.
Ser´a ´util arranjar crit´erios para dizer quando dois subespa¸cos afins se encontram.
Neste sentido temos o
Teorema 21. Sejam E, F0, F1 trˆes subespa¸cos afins associados, respectivamente,
aos subespa¸cos vectoriais E, U0, U1. Suponhamos que F0, F1 est˜ao contidos em E e
que dim(U0 + U1) ≥ dim E. Ent˜ao existe pelo menos um ponto na intersec¸c˜ao, ou
seja,
F0 ∩ F1 = ∅. (5.23)
Demonstra¸c˜ao. Sejam Pi ∈ Fi, i = 0, 1, quaisquer. Ent˜ao P1 −P0 ∈ E pois P0, P1 ∈
E. Por U0, U1 ⊂ E e pela hip´otese sobre a dimens˜ao, resulta que U0 + U1 = E.
existem u0 ∈ U0, u1 ∈ U1 tais que P1 −P0 = u0 +u1; daqui vem P1 −u1 = P0 +u0 ∈
F0 ∩ F1 como quer´ıamos demonstrar.
Dito de outro modo, se F0 = P0 + U0 est´a contido em F1 + U0 = P1 + U1 + U0,
ent˜ao F0 ∩ F1 = ∅.
Como j´a se referiu acima, a dimens˜ao da intersec¸c˜ao ´e dim U0 ∩ U1.
5.1.4 Problemas m´etricos em subespa¸cos afins
Voltemos agora aos problemas m´etricos.
Dado um subespa¸co afim F = P0 +U, poderemos referir um subespa¸co afim or-
togonal ao subespa¸co afim dado como um qualquer subespa¸co afim cujo subespa¸co
vectorial associado ´e o ortogonal de U.
Por cada ponto do espa¸co passa um ´unico subespa¸co afim ortogonal ao primeiro.
Agora, tendo em conta que U + U⊥
= Rn
e que U ∩ U⊥
= {0} (est˜ao em soma
directa), dado um subespa¸co afim F de direc¸c˜ao U e dado um ponto P qualquer,
vemos pelo teorema 21 que P + U⊥
intersecta F num ´unico ponto Q0.
A Q0 d´a-se o nome de p´e da perpendicular a F passando por P.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 58
P
P
Q
A
B
1
2
F’
F
2
2 1
F
Figura 5.1: A ortogonal comum.
Chamamos distˆancia entre dois subconjuntos A, B de Rn
ao valor
dist(A, B) = inf
P ∈A, P ∈B
P − P (5.24)
(repare-se que o ´ınfimo existe pelo nosso conhecimento dos n´umeros reais e por a
norma ser sempre ≥ 0).
A distˆancia entre dois conjuntos ´e, assim, o ´ınfimo das distˆancias entre pares de
pontos, um de A outro de B.
´E evidente que a distˆancia entre um ponto P ∈ Rn
e um subespa¸co afim F tem
a seguinte express˜ao:
dist(P, F) = P − Q0
com Q0 um ponto em F tal que P − Q0 ⊥ F.
(5.25)
Q0 ´e precisamente o p´e da perpendicular a F passando por P. A demonstra¸c˜ao
deste facto resulta da aplica¸c˜ao do teorema de Pit´agoras no triˆangulo P, Q0, Q onde
Q ´e outro ponto qualquer de F.
O seguinte teorema generaliza o resultado anterior.
Teorema 22. Para quaisquer dois subespa¸cos afins F1, F2 do espa¸co euclidiano,
existem sempre A ∈ F1 e B ∈ F2 tais que dist(F1, F2) = A − B .
Se F1, F2 s˜ao obl´ıquos, ent˜ao A e B s˜ao ´unicos.
Demonstra¸c˜ao. (Ver figura 5.1) Sejam U1, U2 subespa¸cos vectoriais e P1, P2 pontos
quaisquer, tais que Fi = Pi + Ui, i = 1, 2. Seja E = F1 + U2 = P1 + (U1 + U2).
Encontremos Q = p´e da perpendicular a E passando por P2. Seja F2 = Q + U2.
Como Q ∈ E, temos E ⊇ F1, F2. Seja ent˜ao A ∈ F1 ∩ F2 um ponto encontrado
pelo teorema 21. Finalmente chamemos B = A + P2 − Q. Verifica-se facilmente
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 59
que B ∈ F2. E ainda A − B = Q − P2 ⊥ F1, F2, cf. (5.21). Agora se Xi ∈ Fi,
i = 1, 2, ent˜ao
X1 − X2
2
= X1 − A + A − B + B − X2
2
= X1 − A 2
+ A − B 2
+ B − X2
2
donde o´ınfimo destas normas ao quadrado ´e A−B 2
. Uma vez que a ra´ız quadrada
´e uma fun¸c˜ao crescente, tem-se dist(F1, F2) = A − B .
Vejamos agora a unicidade. Suponhamos U1 ∩ U2 = {0} e escolhamos P2
qualquer em lugar de P2. Seja Q o respectivo p´e da perpendicular a E. Ent˜ao
Q − Q ∈ U2 e logo F2 ´e ´unico. Ent˜ao A ´e ´unico e logo B tamb´em.
A distˆancia entre dois subespa¸cos afins tais que o primeiro ´e paralelo ao segundo,
´e a distˆancia entre um ponto qualquer do primeiro subespa¸co afim e o segundo
subespa¸co afim:
F1 F2 =⇒ dist(F1, F2) = dist(A, F2) (5.26)
com algum A ∈ F1. Com efeito, se B ´e o p´e da perpendicular a F2 passando por
A e se A ∈ F1 ´e outro ponto qualquer, como A, ent˜ao o p´e da perpendicular a F2
passando por A ´e o ponto B = B + A − A. Por ser F1 paralelo a F2, tem-se de
A − A no subespa¸co associado a F2.
5.2 Geometria de R3
5.2.1 Equa¸c˜oes de rectas e planos
Uma recta2
r = P0 + u de R3
pode ser dada pela sua equa¸c˜ao vectorial
P ∈ r ⇔ P = P0 + tu para algum t ∈ R. (5.27)
A recta tamb´em se pode escrever, resolvendo a equa¸c˜ao anterior em ordem a t,
como a intersec¸c˜ao de dois planos... Supondo P0 = (α1, α2, α3) e u = (a, b, c), ent˜ao
P = (x, y, z) estar´a na recta r sse
x = α1 + at, y = α2 + bt, z = α3 + ct (5.28)
para algum t ∈ R. Donde em geral se poder´a escrever o sistema de equa¸c˜oes
axiais da recta como:



bx − ay + aα2 − bα1 = 0
cx − az + aα3 − cα1 = 0
bz − cy + cα2 − bα3 = 0
. (5.29)
2
Em geometria euclidiana ´e usual denotar os planos por letras gregas min´usculas, as rectas por
letras latinas min´usculas e os pontos por letras latinas mai´usculas.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 60
Este sistema tem caracter´ıstica ≤ 2, como ´e f´acil provar. Ser´a mesmo 2 se a recta
n˜ao degenera num ponto: com efeito, por exemplo, se for b = 0, ent˜ao L2 =
−a
b
L3 + c
b
L1.
Vejamos agora o caso de um plano.
Um plano π em R3
aparece sempre como o ortogonal a um vector v = (a, b, c),
adicionado de um outro ponto P0. Ou seja π ≡ P0 + v ⊥
. A equa¸c˜ao vectorial
do plano ´e pois
P ∈ π ⇔ P − P0 ⊥ v. (5.30)
Assim, denotando o real d = P0, v , a equa¸c˜ao axial do plano π ´e
(x, y, z) ∈ π ⇔ ax + by + cz = d. (5.31)
Um resultado cl´assico da geometria euclidiana garante que trˆes pontos definem
um e um s´o plano. Na geometria anal´ıtica encontramos problemas pr´aticos como
esse e muitos outros, que admitimos o leitor deva saber reconhecer.
Exemplos:
1. Sendo dada a recta r pelo sistema de equa¸c˜oes x = 0, y = 2z + 3, procuremos
a sua equa¸c˜ao vectorial. Os pontos P0 = (0, 3, 0) e P1 = (0, 1, −1) est˜ao na
recta, logo r ≡ P0 + u com u = P1 − P0 = (0, −2, −1).
2. Dado o ponto P0 = (2, 3, 1) e a recta r ≡ (1+3t, 4t, 1−2t), t ∈ R, ser´a que os
dois definem um ´unico plano que por eles passa? Qual a sua equa¸c˜ao axial?
Bom, P0 n˜ao satisfaz a equa¸c˜ao da recta r, a qual tem direc¸c˜ao u = (3, 4, −2);
ent˜ao h´a um s´o plano π que os cont´em:
P ∈ π ⇔ P = P0 + s(P1 − P0) + tu, s, t ∈ R (5.32)
onde P1 ´e um ponto qualquer na recta. Podemos tomar, por exemplo, P1 =
(1, 0, 1), fazendo t = 0, e ent˜ao P1 − P0 ´e linearmente independente de u. O
vector v = (a, b, c) que procuramos para a equa¸c˜ao axial do plano satisfaz a
condi¸c˜ao de ser ortogonal a P1 − P0 = (−1, −3, 0) e `a direc¸c˜ao da recta r:
P1 − P0, v = 0
u, v = 0
⇔
−a − 3b = 0
3a + 4b − 2c = 0
⇔
a = −3b
2c = −5b
. (5.33)
Podemos ent˜ao tomar v = (6, −2, 5) e logo d = P0, v = 12 − 6 + 5 = 11;
donde, finalmente, π ≡ 6x − 2y + 5z = 11.
5.2.2 Algumas f´ormulas de distˆancias
A distˆancia entre dois pontos P0, P1 ´e claramente a norma de P1 − P0.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 61
A distˆancia entre um ponto P = (ξ1, ξ2, ξ3) e um plano π ≡ ax + by + cz = d ´e
dada pela f´ormula
dist(P, π) =
|aξ1 + bξ2 + cξ3 − d|
√
a2 + b2 + c2
. (5.34)
Com efeito, sendo Q0 ∈ π o p´e da perpendicular a π passando por P, temos de ter
P − Q0 = t(a, b, c) = tu, com t ∈ R a descobrir. Ora, P − Q0, u = t u 2
. Ent˜ao
dist(P, π) = P − Q0 = |t| u = 1
u
|aξ1 + bξ2 + cξ3 − d|, como quer´ıamos.
Dependente da forma como aparecem as equa¸c˜oes, assim se justificar´a a melhor
e mais expedita f´ormula.
A distˆancia entre um ponto P e uma recta r ≡ P0 + tu, t ∈ R ´e dada por
dist(P, r) =
P − P0
2 u 2 − u, P − P0
u 2
. (5.35)
De novo, sendo Q0 o p´e da perpendicular a r que passa por P, temos Q0 = P0 + tu
para algum t e por defini¸c˜ao P −Q0 ⊥ u. Desenvolvendo, obt´em-se (5.35). F´ormula
v´alida tamb´em em Rn
, note-se.
Exemplos:
1. A distˆancia entre o ponto P por exemplo de coordenadas (t, t2
, t3
), com t ∈ R
qualquer, e o plano α de direc¸c˜ao gerada por (2, 3, −2), (1, 0, 1) e que passa
por (1,0,0), calcula-se do seguinte modo: a direc¸c˜ao ortogonal a α ´e gerada
por (3,-4,-3), como ´e f´acil de ver. Como d = (1, 0, 0), (3, −4, −3) = 3, resulta
que α ≡ 3x − 4y − 3z = 3. Ent˜ao a distˆancia dist(P, π) = |3t−4t2−3t3−3|
√
34
.
2. Podemos falar em distˆancias entre rectas e planos em R3
se estes forem par-
alelos, cf. (5.26). Por exemplo, entre a recta s dada pelo sistema de equa¸c˜oes
4x − y + z = 2, 2z − 3y = 3 e o plano β ≡ 4z − 6y = 0. Primeiro, s ´e paralela
a β porque est´a contida no plano 2z−3y = 3, o qual claramente tem a mesma
direc¸c˜ao ortogonal que β. Um ponto na recta ´e, por exemplo, P = (1
4
, −1, 0);
ent˜ao
dist(s, β) = dist(P, β) =
6 − 3
√
16 + 24
=
3
2
√
10
. (5.36)
Tamb´em poder´ıamos ser acometidos com problemas de determina¸c˜ao de ˆangulos
entre recta e plano, ou entre dois planos.
Sendo r ≡ P0 +tu, t ∈ R e α ≡ P −P1 ⊥ v, definimos o ˆangulo entre recta e
plano como (r, α) = (u, v). Se β ≡ P − P2 ⊥ w ´e outro plano, podemos definir
(α, β) = (v, w) como o ˆangulo entre dois planos.
5.2.3 Pol´ıgonos e poliedros
Um segmento de recta de extremidades P0, P1 ´e entendido como o conjunto de
pontos (1 − t)P0 + tP1, com 0 ≤ t ≤ 1. Denota-se por P0P1. Aos extremos tamb´em
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 62
se d´a o nome de v´ertices. Se P0 = P1, ent˜ao h´a uma ´unica recta que cont´em o
segmento de recta; ´e a recta suporte.
Um triˆangulo ´e uma uni˜ao de trˆes segmentos descritos por apenas trˆes v´ertices
n˜ao colineares. Denota-se por P0P1P2.
A partir de segmentos de recta Pi−1Pi, i = 1, . . . , k, denominados arestas ou
lados, podemos construir os chamados pol´ıgonos ou linhas poligonais fechadas:
P0P1P2 · · · Pk = P0P1 ∪ P1P2 ∪ · · · ∪ Pk−1Pk, (5.37)
sem outras repeti¸c˜oes de v´ertices al´em de Pk = P0.
O comprimento de um segmento de recta P0P1 ´e a quantidade real L(P0P1) =
P1 − P0 .
Um quadril´atero ´e entendido como um pol´ıgono de quatro lados, fechado e
contido num plano. Um trap´ezio ´e um quadril´atero em que dois dos lados s˜ao
paralelos.
Um paralelogramo ´e um quadril´atero em que os lados n˜ao adjacentes s˜ao
paralelos e tˆem o mesmo comprimento.
Um paralelogramo ´e pois descrito em Rn
por um v´ertice P0 e dois vectores u, v
linearmente independentes, com os quais se constroem os outros v´ertices, a saber
P0 + u, P0 + v, P0 + u + v. Vamos denotar uma tal pol´ıgono por (P0, u, v).
Um pol´ıgono diz-se regular se for plano, se todos os lados tˆem o mesmo com-
primento e se todos os v´ertices formam o mesmo ˆangulo. Por exemplo, o triˆangulo,
o quadrado, o pent´agono, o hex´agono, o hept´agono, o oct´ogono, etc s˜ao pol´ıgonos
regulares. Estes existem sempre, qualquer que seja o n´umero k de arestas, se k ≥ 3.
Sem preocupa¸c˜oes de maior, avancemos agora para a teoria dos poliedros, gen-
eralizando a 3 dimens˜oes o conceito de pol´ıgono.
Diremos que os poliedros s˜ao as uni˜oes de v´arios pol´ıgonos planos pelas suas
arestas, as quais s˜ao coincidentes em pares.
Cada um destes pol´ıgonos determina uma face; a geometria3
dos poliedros pode
ser bem complicada. Um poliedro diz-se convexo se sempre que tomamos dois
pontos em faces diferentes o segmento de recta que os une n˜ao toca nenhuma outra
face.
Teorema 23 (rela¸c˜ao de Euler). Para qualquer poliedro convexo, verifica-se a
rela¸c˜ao, dita de Euler,
V − A + F = 2 (5.38)
onde V =n´umero de v´ertices, A =n´umero de arestas e F =n´umero de faces.
3
Na realidade, ´e a parte da geometria chamada de topologia do espa¸co euclidiano que n˜ao cabe
nestas notas. Ter´ıamos de definir o interior do poliedro. ´E tamb´em no dom´ınio da topologia, a
topologia alg´ebrica, que se demonstra cabalmente a rela¸c˜ao de Euler.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 63
Faremos aqui um esbo¸co, muito incompleto, da demonstra¸c˜ao. Argumentos mais
profundos encontram-se e.g. em [Aud03]. Mencionamos apenas um racioc´ınio de
constru¸c˜ao/por indu¸c˜ao. Aceitemos ent˜ao que o poliedro, s´o porque ´e convexo(!), se
decomp˜oe, como um lego, em tetraedros — figura de 4 faces, 4 v´ertices e 6 arestas,
verificando 4−6+4 = 2. Agora suponhamos que a f´ormula (5.38) ´e v´alida para um
dado poliedro e acrescentemos-lhe um tetraedro junto de uma qualquer face. Esta
face desaparece. Ao poliedro acresce ent˜ao um 1 v´ertice, 3 arestas e 2 faces. Como
1 − 3 + 2 = 0, a identidade de Euler n˜ao se altera.
Posto isto, diremos que um poliedro ´e regular se todas as faces s˜ao c´opias
do mesmo pol´ıgono regular e todos os v´ertices s˜ao c´opia do mesmo v´ertice (c´opia
significa isometria, em sentido a precisar noutra sec¸c˜ao).
Um s´olido plat´onico ´e um poliedro regular convexo.
Teorema 24. Considere-se um poliedro convexo tal que cada face tem o mesmo
n´umero s de arestas e de cada v´ertice emanam o mesmo n´umero r de arestas.
Ent˜ao (s, r) est´a entre os casos (3, 3), (3, 4), (4, 3), (3, 5) ou (5, 3).
Demonstra¸c˜ao. Seguindo a nota¸c˜ao anterior, tem-se Fs = 2A (cada aresta encontra
duas faces) e 2A = rV (cada aresta tem dois v´ertices). Da rela¸c˜ao de Euler resulta
ent˜ao, substituindo, 2A
r
− A + 2A
s
= 2. Ent˜ao
1
r
+
1
s
=
1
2
+
1
A
>
1
2
visto que A > 0. Uma vez que cada face tem pelo menos 3 arestas e cada v´ertice
encontra pelo menos 3 faces, vem r, s ≥ 3. Ent˜ao
1
r
>
1
2
−
1
s
≥
1
2
−
1
3
=
1
6
donde r ≤ 5. Fazendo o mesmo para s, d´a-nos s ≤ 5. Vˆe-se bem da primeira
desigualdade que os casos simultˆaneamente r, s ∈ {4, 5} n˜ao s˜ao solu¸c˜ao.
Al´em de ´unicos a menos da escala, os 5 casos descritos no teorema anterior s˜ao
de facto poss´ıveis de construir como poliedros regulares. Pela ordem do enunci-
ado do teorema, tratam-se do tetraedro, do cubo (hexaedro), do octaedro, do
dodecaedro4
e do icosaedro.
Como se vˆe pela demonstra¸c˜ao acima, os naturais r, s determinam V, A, F:
r s V A F
tetraedro 3 3 4 6 4
cubo 3 4 8 12 6
octaedro 4 3 6 12 8
dodecaedro 3 5 20 30 12
icosaedro 5 3 12 30 20
(5.39)
4
Do grego, dodeca=do+deca=2+10=12. Icosa=20.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 64
Figura 5.2: Os 5 s´olidos plat´onicos.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 65
Mais ainda, os pares (r, s) s˜ao duais no sentido seguinte: dado um poliedro convexo,
construimos o seu dual unindo com segmentos de recta os centros das faces.
Como um pol´ıgono regular tem tantas arestas quantos v´ertices, o poliedro dual
do poliedro dual ´e o poliedro inicial.
N˜ao ´e dif´ıcil compreender que no caso dos poliedros regulares convexos, os val-
ores de r, s trocam entre si, na troca pelo dual. Assim, o tetraedro coincide com o
seu dual, o cubo ´e dual do octaedro e o dodecaedro ´e dual do icosaedro.
Tendo em conta o conhecimento comum dos trˆes primeiros s´olidos e a dualidade
do icosaedro, restar-nos-´ıa demonstrar a possibilidade honesta de constru¸c˜ao do
dodecaedro; remetemos o leitor para [Aud03].
Terminamos aqui esta brev´ıssima incurs˜ao pela geometria cl´assica e combi-
nat´oria, esperando ter por esclarecida a classifica¸c˜ao dos s´olidos plat´onicos, tal
como podemos ver na figura 5.2.
5.2.4 Comprimentos, ´areas e volumes
J´a vimos em que consiste o comprimento de um segmento de recta. O compri-
mento de uma linha poligonal = P0P1P2 · · · Pk ´e a quantidade real
L( ) =
k
i=1
Pi − Pi−1 . (5.40)
L( ) tamb´em se diz per´ımetro quando a linha ´e fechada: Pk = P0.
Interessa-nos agora a no¸c˜ao de ´area de um paralelogramo (P0, u, v), a qual se
define como a quantidade real, independente de P0:
A(u, v) = u v sen (u, v). (5.41)
De (5.3), (5.8) e da igualdade trigonom´etrica sen 2
+ cos2
= 1 (que aqui define a
pr´opria fun¸c˜ao seno), resulta de imediato
A(u, v) = u, u v, v − u, v 2. (5.42)
Supondo que estamos no espa¸co euclidiano R2
e supondo que u = (a, b), v =
(c, d), designemos por L =
u
v
=
a b
c d
; ent˜ao daqui vir´a
LLT
=
a2
+ b2
ac + bd
ac + bd c2
+ d2 =
u, u u, v
u, v v, v
. (5.43)
Como det(LLT
) = det L det LT
= (det L)2
, aplicando a (5.42) descobrimos a f´or-
mula
A(u, v) = det(LLT ) = | det L | = | det(u, v)| = |ad − bc| (5.44)
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 66
ou seja
A = | det |. (5.45)
Da soma de ´areas de paralelogramos resultam as ´areas de outras superf´ıcies
seccionalmente planas. A fun¸c˜ao ´area dever´a ser aditiva5
. Em particular, a ´area de
um triˆangulo de arestas u, v tem de valer 1
2
| det(u, v)|.
Voltemos a Rn
com n ≥ 3. Comecemos por generalizar a no¸c˜ao de paralelo-
gramo.
Um paralelip´ıpedo ´e um poliedro de 6 faces tal que as faces s˜ao paralelogramos
e c´opia umas das outras em planos paralelos, quando n˜ao adjacentes.
Um paralelip´ıpedo ´e pois descrito em Rn
por um v´ertice P0 e trˆes vectores u, v, w,
com os quais se constroem os outros v´ertices, a saber P0 + u, P0 + v, P0 + w, P0 +
u + v, P0 + u + w, P0 + v + w, P0 + u + v + w. Vamos denotar um tal poliedro por
(P0, u, v, w).
Damos agora a no¸c˜ao de volume de um paralelip´ıpedo (P0, u, v, w), o qual se
define como a quantidade real, independente de P0:
V (u, v, w) = A(u, v) w − Q (5.46)
onde Q ´e o p´e da perpendicular passando pela extremidade de w ao plano gerado
por u, v.
Note-se que, tal como a ´area corresponde ao “comprimento da base vezes a
altura”, tamb´em o volume corresponde a “´area da base vezes altura”.
Consideremos a matriz
G =



u 2
u, v u, w
u, v v 2
v, w
u, w v, w w 2


 . (5.47)
Teorema 25. Dado um paralelip´ıpedo (P0, u, v, w) em Rn
, o seu volume ´e dado
por
V (u, v, w) =
√
det G. (5.48)
Demonstra¸c˜ao. Tem-se Q = λu + µv para certos λ, µ ∈ R. O sistema de equa¸c˜oes
w − Q ⊥ u, v traduz-se como
w − λu − µv, u = 0
w − λu − µv, v = 0
⇔
λ u 2
+ µ v, u = w, u
µ v 2
+ λ v, u = w, v
.
Usamos uma nota¸c˜ao habitual E = u 2
, F = v 2
, G = u, v (n˜ao se confunda
com o G do enunciado). Usamos tamb´em ξ = w, u , η = w, v , ζ = w 2
e ainda
A2
= EF − G2
. Continuando a resolver o sistema anterior, vem
λE + µG = ξ
λG + µF = η
⇔
µ = ηE−ξG
A2
λ = ξF−ηG
A2
.
5
Eis outra no¸c˜ao que escapa ao ˆambito deste curso.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 67
Se fosse A = 0 o sistema u, v seria degenerado, ou seja, u, v seriam linearmente
dependentes; mas vˆe-se bem que neste caso o determinante do enunciado tamb´em
´e nulo.
Por defini¸c˜ao, Q 2
= λu + µv 2
= λ2
E + 2λµG + µ2
F. Substituindo resulta
Q 2
A4
= (−ηG + ξF)2
E + 2(ηE − ξG)(ξF − ηG)G + (ηE − ξG)2
F
= η2
G2
E − 2ξηEFG + ξ2
F2
E + 2ξηEFG − 2η2
EG2
−2ξ2
FG2
+ 2ξηG3
+ η2
E2
F − 2ξηEFG + ξ2
G2
F
= η2
(E2
F − EG2
) + 2ξη(G3
− EFG) + ξ2
(F2
E − FG2
)
= η2
EA2
− 2ξηGA2
+ ξ2
FA2
.
Tem-se ainda w − Q 2
= w 2
− Q 2
, pelo teorema de Pit´agoras com w na
hipotenusa ou lado maior. Donde
V 2
= w − Q 2
A2
= w 2
A2
− Q 2
A2
= ζ2
A2
− η2
E + 2ξηG − ξ2
F
= ζ2
A2
− ξ(ξF − Gη) + η(ξG − Eη) =
E G ξ
G F η
ξ η ζ
Esta ´ultima ´e j´a a igualdade que se procurava.
A f´ormula encontrada mostrar´a tamb´em que a no¸c˜ao de volume ´e totalmente
sim´etrica em u, v, w, ou seja, tamb´em podemos dizer que
V (u, v, w) = V (u, w, v) = V (v, w, u) (5.49)
e outras simetrias ´obvias.
Vejamos agora a situa¸c˜ao em que n = 3.
O volume de um paralelip´ıpedo em dim 3 ´e dado pelo determinante dos trˆes
vectores u, v, w que o geram: sendo u = (a11, a12, a13), v = (a21, a22, a23), w =
(a31, a32, a33), vem
V (u, v, w) = det



a11 a12 a13
a21 a22 a23
a31 a32 a33


 . (5.50)
Ou seja, V (u, v, w) = | det(u, v, w)|.
A demonstra¸c˜ao desta f´ormula ´e an´aloga ao caso da dim 2: pondo L = [aij], de
novo se deduz (det L)2
= det G.
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 68
Invocando a multilinearidade do determinante, percebemos que o volume ´e uma
fun¸c˜ao aditiva6
. Em particular, como um cubo cont´em 6 tetraedros de iguais com-
primentos das arestas, podemos concluir que o volume do tetraedro gerado por
quaisquer u, v, w ´e
Volume(tetraedro(u, v, w)) =
1
6
V (u, v, w). (5.51)
Voltemos `a dimens˜ao n qualquer. A express˜ao do volume como um determinante
generaliza-se a Rn
e mais geralmente a espa¸cos vectoriais orientados com produto
interno.
6
Tal como no caso da ´area, este aditiva seria bastante demorado de explicitar. Tem o sentido
e a consequˆencia de a fun¸c˜ao volume ser linear sobre a decomposi¸c˜ao dos poliedros em tetraedros,
para aqueles que a admitam.
Bibliografia
[Agu83] F. R. Dias Agudo. Introdu¸c˜ao `a ´algebra linear e geometria anal´ıtica.
Livraria Escolar Editora, 1983.
[Aud03] M. Audin. Geometry. Universitext. Springer-Verlag Berlin Heidelberg
New York, 2003.
[Gro83] L. C. Grove. Algebra. Academic Press, 1983.
[Mac90] A. Machado. T´opicos de ´Algebra Linear e Multilinear. Textos e Notas 42.
Instituto Nacional de Investiga¸c˜ao Cient´ıfica, 1990.
[Mon89] A. J. A. Monteiro. ´Algebra linear e geometria anal´ıtica. Associa¸c˜ao dos
Estudantes da Faculdade de Ciˆencias de Lisboa, 1989.
[Wik] Wikip´edia. www.
´Indice
´area, 65
ˆangulo
entre dois planos, 61
entre dois vectores, 53
entre recta e plano, 61
abeliano, 10, 11
alternada, 31
anel, 11
unit´ario, 11
anti-sim´etrica, 31
aplica¸c˜ao, 8
linear, 43
aresta, 62
associativa, 9
automorfismo, 44
base, 40
can´onica, 32
ortonormada, 55
caracter´ıstica, 20
de coluna, 23
de linha, 23
Cauchy
desigualdade de –, 53
ciclo, 27
classes de equivalˆencia, 7
coeficientes, 14
coluna, 14
combina¸c˜ao linear, 40
complementar, 6
complemento alg´ebrico, 36
composi¸c˜ao, 8
composta, 8
comprimento, 62, 65
comutam, 16
comutativo, 10, 11
condensa¸c˜ao, 20
conjunto
de chegada, 8
de partida, 8
corpo, 12
Cramer
regra de –, 37
cubo, 63
desigualdade triangular, 53
determinante, 29
de um endomorfismo, 48
diagonal, 7
diagonal principal, 17
diagonaliz´avel, 51
dimens˜ao, 14, 40, 41, 57
direc¸c˜ao, 57
distˆancia, 58
dodecaedro, 63
elemento
neutro, 9
oposto, 9
sim´etrico, 9
endomorfismo, 44
entradas, 14
epimorfismo, 44
escalar, 39
espa¸co
afim, 56
cartesiano, 21
euclidiano, 21
vectorial, 39
espa¸co vectorial
gerado, 40
produto, 42
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 71
soma cartesiana, 42
Euler
rela¸c˜ao de –, 62
face, 62
fun¸c˜ao, 8
bijectiva, 8
identidade, 8
injectiva, 8
inversa, 8
sobrejectiva, 8
Gauss
m´etodo de –, 20
geometria afim, 56
grau de indetermina¸c˜ao, 21
grupo, 9
permuta¸c˜oes, de, 10, 27
sim´etrico, 10, 27
sub–, 10
hexaedro, 63
hiper-plano, 57
icosaedro, 63
identidade, 16
imagem, 8
imagem rec´ıproca, 43
independˆencia linear, 22
intersec¸c˜ao, 6
inversa, 8
`a direita, 8
`a esquerda, 8
inverso, 9
invert´ıvel, 17
`a direita, 17
`a esquerda, 16
isomorfismo, 44
Kronecker
s´ımbolos de –, 55
lado, 62
Laplace
regra de –, 35
linearmente
dependentes, 22
independentes, 22, 40
linha, 14
linhas poligonais fechadas, 62
m´etodo de Gauss, 20
matriz, 14
adjunta, 36
ampliada, 19
anti-sim´etrica, 17
da aplica¸c˜ao linear, 45
de mudan¸ca de base, 47
diagonal, 16
diagonaliz´avel, 51
identidade, 16
invert´ıvel, 17
ordem, 16
quadrada, 16
sim´etrica, 17
tra¸co de uma –, 51
transposta, 17
triangular inferior, 17
triangular superior, 17
matrizes
semelhantes, 50
maximal, 40
menor, 40
monomorfismo, 44
multiplica¸c˜ao
de matrizes, 14
por escalar, 39
multiplicidade
alg´ebrica, 49
geom´etrica, 49
n´ucleo, 44
norma, 52
normado, 55
objecto, 8
obl´ıquos, 57
octaedro, 63
ordem, 16, 27
Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 72
ortogonal, 53, 57
p´e da perpendicular, 57
paralelip´ıpedo, 66
paralelo, 57
paralelogramo, 55, 62
pares ordenados, 6
per´ımetro, 65
permuta¸c˜ao, 27
sinal, 28
permutam, 16
pertence, 6
Pit´agoras, 55
plano, 57
equa¸c˜ao axial, 60
equa¸c˜ao vectorial, 60
pol´ıgono, 62
regular, 62
poliedro, 62
convexo, 62
dual, 65
regular, 63
polin´omio caracter´ıstico, 49
produto cartesiano, 6
produto interno
euclidiano, 52
projec¸c˜ao
ortogonal, 54
quadril´atero, 62
quociente, 12
recta, 57
equa¸c˜ao axial, 59
equa¸c˜ao vectorial, 59
segmento de –, 61
suporte, 62
reflexiva, 7
regra de
Cramer, 37
Laplace, 35
na 1a linha, 35
produto, 34
Sarrus, 29
regular
pol´ıgono –, 62
rela¸c˜ao, 7
de equivalˆencia, 7
de Euler, 62
resto, 12
reuni˜ao, 6
s´olido plat´onico, 63
s´ımbolos de Kronecker, 55
Sarrus
regra de –, 29
segmento de recta, 61
sim´etrico, 10
simetria, 7
sinal, 28
sli, 40
soma directa, 43
subconjunto, 6
subespa¸co
afim, 56
associado, 57
ortogonal, 53
pr´oprio, 49
vectorial, 40
vectorial soma, 42
subgrupo, 10
tetraedro, 63
tra¸co, 51
transitiva, 7
transposi¸c˜ao, 27
trap´ezio, 62
triˆangulo, 62
v´ertice, 62
valor, 8
valor pr´oprio, 49
vazio, 6
vector, 21, 39
normado, 55
pr´oprio, 49
unit´ario, 55
volume, 66

Mais conteúdo relacionado

PDF
Ap amiii
PDF
Residuos
PDF
Algebra linear um_livro_colaborativo_ufrgs_reamat_2018_210pag
PDF
áLgebra linear
PDF
0233 apostila - geometria
PDF
Álgebra Vetorial e Geometria Analítica - Jair Venturi
PDF
Apontamentos aulas teóricas al
Ap amiii
Residuos
Algebra linear um_livro_colaborativo_ufrgs_reamat_2018_210pag
áLgebra linear
0233 apostila - geometria
Álgebra Vetorial e Geometria Analítica - Jair Venturi
Apontamentos aulas teóricas al

Mais procurados (16)

PDF
Gentil Lopes - ALGEBRA LINEAR (COMENTADO)
PDF
Allison analitica
PDF
Matrizes resumo
PDF
PDF
áLgebra vetorial e geometria analítica
PDF
Limites modelo normal_2016
PDF
Equações diferenciais
PDF
Apostila trigonometria exercícios resolvidos
PDF
Ap mat universitaria
PDF
Mecanica geral 1
PDF
Apostila elementos de matemática aplicada
PDF
Herminio ladeira
DOC
Trigonometria
PDF
Calculo numerico do professor eduardo colli.
PDF
Ap algebra linear 002
Gentil Lopes - ALGEBRA LINEAR (COMENTADO)
Allison analitica
Matrizes resumo
áLgebra vetorial e geometria analítica
Limites modelo normal_2016
Equações diferenciais
Apostila trigonometria exercícios resolvidos
Ap mat universitaria
Mecanica geral 1
Apostila elementos de matemática aplicada
Herminio ladeira
Trigonometria
Calculo numerico do professor eduardo colli.
Ap algebra linear 002
Anúncio

Semelhante a Paalga (20)

PDF
gaalt0.pdf
PDF
Matrizes - resumo
PDF
Livro de algebra linear cópia
PDF
Algebra
PDF
Algebra linear 1
PDF
Reginaldo santos
PDF
Matrizes e sistemas lineares
PDF
Algebra moderna
PDF
PDF
Introducao_a_Algebra_Linear.pdf
PDF
Intro teoria dos numerros i
PDF
Fismat apostila
PDF
Algebra kat
PDF
Analise real cassio neri
PDF
Otimização Estática
PDF
Apostila unijuí matemática aplicada à administração 2
PDF
Análise Numérica
PDF
Gaal_Aula_01
PDF
Gaal_Aula_01
gaalt0.pdf
Matrizes - resumo
Livro de algebra linear cópia
Algebra
Algebra linear 1
Reginaldo santos
Matrizes e sistemas lineares
Algebra moderna
Introducao_a_Algebra_Linear.pdf
Intro teoria dos numerros i
Fismat apostila
Algebra kat
Analise real cassio neri
Otimização Estática
Apostila unijuí matemática aplicada à administração 2
Análise Numérica
Gaal_Aula_01
Gaal_Aula_01
Anúncio

Último (20)

PPT
Os Grandes Períodos Históricos UESC 2009.1
PDF
Historia-da-Psicologia-Rumos-e-percursos.pdf
PDF
historia-e-geografia-do-amapa.pdf slides
PPTX
SEGURANÇA, MEIO AMBIENTE E SAÚDE Aula 1.pptx
PDF
Historia da Gastronomia Mundial por Daianna Marques dos Santos
PDF
E-BOOK-Inovacao-em-Ciencia-e-Tecnologia-de-Alimentos.pdf
PPTX
REVISA-GOIAS-6o-ANO-LP-3o-BIMESTRE-PPT.pptx
PPTX
02-simulado-saeb-9o-ano-matematica1.pptx
PPTX
AULA 01 - INTRODUÇÃO AO ATENDIMENTO HUMANIZADO.pptx
PPTX
NR 5 Treinamento completo gestão CIPA.pptx
PPTX
São João Eudes, 1601 – 1680, padre e fondador, Francés.pptx
PPTX
A enfermagem voltada aos adultos portadores de sindrome de down
PPTX
DOUTRINA FORÇA TÁTICA PMRO 2022 - PPT (1).pptx
PPTX
Aulwbrivekwohevjeoeiiegeievjebvejeihegeueh
DOCX
Aula 3- Direitos Humanos e Prevenção à Violência .docx
PPTX
Treinamento de Espaço Confinado_Trabalhadores e Vigias NR 33.pptx
PPTX
Aula 2 (Citologia).pptxlllllllllllllllllllllllll
PDF
diário de palestra DDS Online - Apostila.pdf
PDF
projeto 5 Em movimento Ciencias Humanas.pdf
PDF
639039693-CURSO-DE-PORTUGUES-Prof-Deivid-Xavier.pdf
Os Grandes Períodos Históricos UESC 2009.1
Historia-da-Psicologia-Rumos-e-percursos.pdf
historia-e-geografia-do-amapa.pdf slides
SEGURANÇA, MEIO AMBIENTE E SAÚDE Aula 1.pptx
Historia da Gastronomia Mundial por Daianna Marques dos Santos
E-BOOK-Inovacao-em-Ciencia-e-Tecnologia-de-Alimentos.pdf
REVISA-GOIAS-6o-ANO-LP-3o-BIMESTRE-PPT.pptx
02-simulado-saeb-9o-ano-matematica1.pptx
AULA 01 - INTRODUÇÃO AO ATENDIMENTO HUMANIZADO.pptx
NR 5 Treinamento completo gestão CIPA.pptx
São João Eudes, 1601 – 1680, padre e fondador, Francés.pptx
A enfermagem voltada aos adultos portadores de sindrome de down
DOUTRINA FORÇA TÁTICA PMRO 2022 - PPT (1).pptx
Aulwbrivekwohevjeoeiiegeievjebvejeihegeueh
Aula 3- Direitos Humanos e Prevenção à Violência .docx
Treinamento de Espaço Confinado_Trabalhadores e Vigias NR 33.pptx
Aula 2 (Citologia).pptxlllllllllllllllllllllllll
diário de palestra DDS Online - Apostila.pdf
projeto 5 Em movimento Ciencias Humanas.pdf
639039693-CURSO-DE-PORTUGUES-Prof-Deivid-Xavier.pdf

Paalga

  • 1. Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica R. Albuquerque 14 de Fevereiro de 2013
  • 2. Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica Segunda vers˜ao Rui Albuquerque rpa@uevora.pt Departamento de Matem´atica da Universidade de ´Evora Rua Rom˜ao Ramalho, 59, 7000-671 ´Evora, Portugal Introdu¸c˜ao Estes apontamentos serviram de guia `a disciplina ´Algebra Linear e Geometria Anal´ıtica das licenciaturas em ´areas da Engenharia e da F´ısica da Universidade de ´Evora do ano lectivo 2008/09. A mat´eria segue a das aulas te´oricas, complementada com exemplos e problemas novos. Percorrem-se diversos temas da ´algebra ligados `a geometria dos espa¸cos vec- toriais e das aplica¸c˜oes lineares, estruturas fundamentais da F´ısica-Matem´atica- Engenharia.
  • 3. 2 Desejamos cumprir objectivos pr´aticos e concretos de transmiss˜ao do conheci- mento. Todavia, queremos que estas notas contrariem, ou mesmo n˜ao permitam, a redu¸c˜ao da mat´eria “a um punhado de receitas” e a desvaloriza¸c˜ao do saber te´orico. E por duas raz˜oes: nem o conhecimento pr´atico ser´a sempre ´util, nem “o saber te´orico ocupa assim tanto lugar”, parafraseando o c´elebre ad´agio popular. O conhecimento te´orico dever´a ser ali´as o esteio de toda a forma¸c˜ao cient´ıfico- t´ecnica de base. Vemos a necessidade, como em qualquer outra disciplina nuclear da Matem´atica, de demonstrar os teoremas e proposi¸c˜oes que vamos escrevendo. Estas demon- stra¸c˜oes apoiam-se em defini¸c˜oes e, naturalmente, em teoremas e proposi¸c˜oes anteri- ores. Assumimos de conhecimento do leitor outras teorias ou delas uma ligeir´ıssima parte, como a dos conjuntos, da l´ogica, da geometria euclidiana ou dos n´umeros naturais. Explicada a extens˜ao aparente do conte´udo, deve o leitor acompanhar-se de uma folha de papel e l´apis para resolver algumas afirma¸c˜oes n˜ao provadas — aquelas que s˜ao apenas auxiliares de objectivos maiores ou que julgamos ser˜ao exerc´ıcios interessantes. Vejamos um resumo dos cap´ıtulos. Come¸camos com a ´algebra abstracta, que tem algumas defini¸c˜oes essenciais para a parte linear da mat´eria. S˜ao particularmente importantes a no¸c˜ao de fun¸c˜ao e a no¸c˜ao de grupo, que desde cedo devem ser assimiladas. Outras defini¸c˜oes neste primeiro cap´ıtulo servem apenas para ilustrar problemas com que os matem´aticos se debatem, esperando que este contacto traga mais luz que permita ao leitor superar alguns dos purismos que a teoria exige. Segue-se o estudo das matrizes e dos sistemas de equa¸c˜oes lineares, onde reina o espa¸co vectorial Rn posto que nos limitamos a coeficientes reais. Para os sistemas, invocamos princ´ıpios cl´assicos de equivalˆencia ou indepedˆencia de equa¸c˜oes. Para levar `a compreens˜ao da no¸c˜ao de caracter´ıstica de uma matriz e `a de indepedˆencia linear de um sistema de vectores. Neste contexto segue o cap´ıtulo dos determinantes para matrizes quadradas de coeficientes em R. Apoia-se em elementos da teoria dos grupos de permuta¸c˜oes. Depois vemos as propriedades multilineares da fun¸c˜ao determinante, a linguagem que permitir´a o aluno interessado prosseguir em Geometria-F´ısica modernas. O cerne da ´Algebra Linear encontra-se no cap´ıtulo quatro, com a introdu¸c˜ao e manuseio dos conceitos de espa¸co vectorial e aplica¸c˜ao linear. Mesmo em dimens˜ao finita, em que escolhida uma base poderemos fazer a iden- tifica¸c˜ao de um dado espa¸co vectorial com Rn , os conceitos abstractos s˜ao os mais valiosos. S˜ao as bases e a dimens˜ao do espa¸co, a partir da no¸c˜ao fundamental de sistema de vectores linearmente indepedente, s˜ao os exemplos em dimens˜ao infinita, ´e o retorno `as matrizes com o importante conceito de representa¸c˜ao e s˜ao, final-
  • 4. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 3 mente, as transforma¸c˜oes lineares entre espa¸cos vectoriais e a procura de vectores pr´oprios, como direc¸c˜oes singulares que s˜ao, de um endomorfismo linear. No cap´ıtulo cinco mostramos aplica¸c˜oes na geometria do espa¸co euclidiano Rn , com o seu produto interno can´onico: o mais elementar produto interno decorre da generaliza¸c˜ao do teorema de Pit´agoras. ´E de notar que nesse modelo se verifica o axioma das paralelas para hiperplanos afins. Temos por isso tamb´em uma geometria euclidiana no sentido axiom´atico. Apresentamos uma classifica¸c˜ao dos s´olidos plat´onicos, exemplo da geometria anal´ıtica e combinat´oria n˜ao usual no contexto de cursos como este. Por muitos considerada uma autˆentica maravilha da matem´atica, aqueles s´olidos poli´edricos, infelizmente, ainda s˜ao pouco conhecidos dos estudantes. A nossa necessidade de referir os poliedros vem de uma sec¸c˜ao final, em que se define volume como “´area da base vezes altura’, a qual tem m´ultiplas aplica¸c˜oes e literalmente nos permite fechar o c´ırculo, retornando `as matrizes e aos determinantes de cap´ıtulos iniciais. Na elabora¸c˜ao deste prontu´ario fizemos uso dos manuais dos nossos mestres, [Agu83], [Mac90] e [Mon89], e de outras gratas referˆencias para n´os como a de [Aud03]. Tamb´em benefici´amos da consulta `a enciclop´edia [Wik] e assim poder´a e dever´a acontecer, acautele-se a falta de demonstra¸c˜oes, com o leitor ´avido de mais con- hecimento.
  • 5. Conte´udo 1 6 1.1 T´opicos elementares da Teoria dos Conjuntos . . . . . . . . . . . . 6 1.1.1 Primeiras no¸c˜oes . . . . . . . . . . . . . . . . . . . . . . . . 6 1.1.2 Rela¸c˜oes de equivalˆencia . . . . . . . . . . . . . . . . . . . . 7 1.1.3 Fun¸c˜oes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 1.2 T´opicos de Estruturas Alg´ebricas . . . . . . . . . . . . . . . . . . . 9 1.2.1 Grupos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1.2.2 An´eis e Corpos . . . . . . . . . . . . . . . . . . . . . . . . . 11 2 14 2.1 Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 2.1.1 Primeiras defini¸c˜oes . . . . . . . . . . . . . . . . . . . . . . . 14 2.1.2 Matrizes especiais . . . . . . . . . . . . . . . . . . . . . . . . 16 2.1.3 Transposta . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 2.2 Sistemas de Equa¸c˜oes Lineares . . . . . . . . . . . . . . . . . . . . . 18 2.2.1 M´etodo de resolu¸c˜ao pela adi¸c˜ao ordenada . . . . . . . . . . 18 2.2.2 Condensa¸c˜ao de uma matriz . . . . . . . . . . . . . . . . . . 19 2.2.3 Estudo dos sistemas . . . . . . . . . . . . . . . . . . . . . . 20 2.3 Espa¸co Euclidiano . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 2.3.1 O espa¸co vectorial Rn ou espa¸co euclidiano . . . . . . . . . . 21 2.3.2 Independˆencia linear . . . . . . . . . . . . . . . . . . . . . . 22 2.4 A caracter´ıstica e a inversa de novo . . . . . . . . . . . . . . . . . . 23 2.4.1 Caracter´ıstica de linha vs caracter´ıstica de coluna . . . . . . 23 2.4.2 C´alculo da inversa . . . . . . . . . . . . . . . . . . . . . . . 25 3 27 3.1 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 3.1.1 Grupos de permuta¸c˜oes . . . . . . . . . . . . . . . . . . . . . 27 3.1.2 Defini¸c˜ao de determinante . . . . . . . . . . . . . . . . . . . 29 3.1.3 Propriedades do determinante . . . . . . . . . . . . . . . . . 29 3.1.4 C´alculo de determinantes . . . . . . . . . . . . . . . . . . . . 31 3.1.5 Regra do produto . . . . . . . . . . . . . . . . . . . . . . . . 32
  • 6. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 5 3.2 Regra de Laplace e aplica¸c˜oes . . . . . . . . . . . . . . . . . . . . . 34 3.2.1 Regra de Laplace . . . . . . . . . . . . . . . . . . . . . . . . 34 3.2.2 A matriz adjunta . . . . . . . . . . . . . . . . . . . . . . . . 36 3.2.3 Regra de Cramer . . . . . . . . . . . . . . . . . . . . . . . . 37 4 39 4.1 Espa¸cos vectoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 4.1.1 Defini¸c˜oes e exemplos . . . . . . . . . . . . . . . . . . . . . . 39 4.1.2 Bases e dimens˜ao . . . . . . . . . . . . . . . . . . . . . . . . 40 4.1.3 Soma cartesiana e soma directa . . . . . . . . . . . . . . . . 42 4.2 Aplica¸c˜oes lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 4.2.1 Defini¸c˜oes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 4.2.2 Representa¸c˜ao matricial . . . . . . . . . . . . . . . . . . . . 44 4.2.3 Composi¸c˜ao vs produto . . . . . . . . . . . . . . . . . . . . 46 4.2.4 Valores e vectores pr´oprios . . . . . . . . . . . . . . . . . . . 48 4.2.5 Matrizes semelhantes . . . . . . . . . . . . . . . . . . . . . . 50 5 52 5.1 Geometria do Espa¸co Euclidiano . . . . . . . . . . . . . . . . . . . . 52 5.1.1 Produto interno euclidiano . . . . . . . . . . . . . . . . . . . 52 5.1.2 Ortogonalidade . . . . . . . . . . . . . . . . . . . . . . . . . 53 5.1.3 Subespa¸cos afins . . . . . . . . . . . . . . . . . . . . . . . . 56 5.1.4 Problemas m´etricos em subespa¸cos afins . . . . . . . . . . . 57 5.2 Geometria de R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 5.2.1 Equa¸c˜oes de rectas e planos . . . . . . . . . . . . . . . . . . 59 5.2.2 Algumas f´ormulas de distˆancias . . . . . . . . . . . . . . . . 60 5.2.3 Pol´ıgonos e poliedros . . . . . . . . . . . . . . . . . . . . . . 61 5.2.4 Comprimentos, ´areas e volumes . . . . . . . . . . . . . . . . 65
  • 7. Cap´ıtulo 1 1.1 T´opicos elementares da Teoria dos Conjuntos 1.1.1 Primeiras no¸c˜oes Ami´ude necessitamos de referir aquilo que se conhece como conjuntos e descrever as suas rela¸c˜oes, que se entendem como rela¸c˜oes que os elementos desses conjuntos, e de outros, satisfazem entre si. Os conjuntos designam-se por letras: A, B, C, .... Se escrevemos x ∈ A, quere- mos dizer que x pertence a A ou, o que ´e o mesmo, x ´e elemento de A. Novas rela¸c˜oes/nota¸c˜oes: chamamos intersec¸c˜ao e reuni˜ao, respectivamente, aos conjuntos A ∩ B = {x : x ∈ A e x ∈ B}, A ∪ B = {x : x ∈ A ou x ∈ B}. (1.1) Ao dizermos A ´e subconjunto de B, em s´ımbolos, A ⊂ B, significamos que ∀x ∈ A, x ∈ B. O conjunto B A ´e o conjunto {x : x ∈ B e x /∈ A}. Sabendo, de antem˜ao, o “universo” a que todos os elementos pertencem, podemos escrever e designar por complementar de B o conjunto Bc = {x : x /∈ B}. Poder-se-´a pensar tamb´em no conjunto vazio ∅ como o complementar do “uni- verso”. ´E o conjunto sem elementos. Da l´ogica bivalente (l´ogica natural constru´ıda ao longo da evolu¸c˜ao humana de milh˜oes de anos), resultam as seguintes leis de Morgan: Ac ∩ Bc = (A ∪ B)c Ac ∪ Bc = (A ∩ B)c . (1.2) Claro que (Ac )c = A, donde a segunda lei tamb´em resulta da primeira. Outras constru¸c˜oes importantes de conjuntos s˜ao, por exemplo, o produto cartesiano de A e B: A × B = {(a, b) : a ∈ A, b ∈ B}. (1.3) Os novos elementos “(a, b)” chamam-se pares ordenados.
  • 8. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 7 Note-se que nem todos os subconjuntos de A × B podem ser escritos, de novo, como produtos cartesianos de subconjuntos de A e B. Por exemplo, tal ´e o caso da diagonal de um conjunto A, ou seja, ∆(A) = {(a, a) ∈ A × A : a ∈ A}, a qual ´e distinta de A × A se A tem mais do que um elemento. Claro que (A ∪ B) × C = A × C ∪ B × C. E analogamente para ∩ no lugar de ∪. 1.1.2 Rela¸c˜oes de equivalˆencia Algum tipo de rela¸c˜oes entre elementos de um ou v´arios conjuntos ´e particular- mente ´util na conceptualiza¸c˜ao de novas propriedades e distin¸c˜oes. Por exemplo, a rela¸c˜ao de ordem total em R est´a intr´ınsecamente ligada aos fundamentos da An´alise Matem´atica. Tratamos, neste momento, das rela¸c˜oes de equivalˆencia, as quais decomp˜oem um dado conjunto X em classes de equivalˆencia. Lembremos que uma rela¸c˜ao consiste numa determinada escolha de pares ordenados. Dizemos que uma rela¸c˜ao ∼ em X ´e uma rela¸c˜ao de equivalˆencia se: ∀x ∈ X, x ∼ x (reflexividade), ∀x ∈ X, x ∼ y ⇒ y ∼ x (simetria), ∀x, y, z ∈ X, x ∼ y & y ∼ z ⇒ x ∼ z (transitividade). (1.4) Claro que as tais classes de equivalˆencia s˜ao dadas por um representante: Cx = {y : y ∈ X e x ∼ y}. Note-se que o papel de x ´e mesmo e apenas o de representante da sua classe. ´E f´acil ver que: Cx ∩ Cx1 = ∅ ⇔ x ∼ x1. (1.5) Com efeito, se ∃y : x ∼ y e x1 ∼ y, ent˜ao pela simetria e transitividade vem x ∼ x1. E rec´ıprocamente. Assim, neste tipo de rela¸c˜oes, as classes ou n˜ao se tocam, ou s˜ao as mesmas. Mais ainda, qualquer decomposi¸c˜ao de um dado conjunto Z como uni˜ao de subconjuntos n˜ao vazios e disjuntos dois-a-dois, Z = α Zα, tal que Zα ∩ Zα = ∅, ∀α = α , (1.6) d´a origem a uma ´unica rela¸c˜ao de equivalˆencia em Z, a saber: x ∼ y ⇐⇒ ∃α : x, y ∈ Zα. (1.7) O conjunto dos α’s, isto ´e, formado como o conjunto das classes de equivalˆencia, denota-se por Z/ ∼.
  • 9. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 8 1.1.3 Fun¸c˜oes Conceito fundamental em matem´atica ´e o de fun¸c˜ao, um ‘dispositivo’ que estabelece uma correspondˆencia entre um dado conjunto X, chamado de partida, e outro conjunto Y , dito de chegada. Tamb´em se chama a uma fun¸c˜ao uma aplica¸c˜ao. Denota-se por f : X −→ Y, x ∈ X −→ y = f(x) ∈ Y. (1.8) Uma tal correspondˆencia s´o ´e uma fun¸c˜ao quando a cada x ∈ X, um objecto, se atribui um, e um s´o, valor ou imagem y = f(x) ∈ Y . A fun¸c˜ao diz-se injectiva se, para x’s distintos em X, f atribui valores f(x)’s tamb´em distintos. Formalmente, ∀x1, x2 ∈ X, x1 = x2 =⇒ f(x1) = f(x2). (1.9) Logicamente, esta afirma¸c˜ao ´e equivalente a ∀x1, x2 ∈ X, f(x1) = f(x2) =⇒ x1 = x2. (1.10) A fun¸c˜ao ´e sobrejectiva se todo o y ´e imagem de algum x por meio de f: ∀y ∈ Y, ∃x ∈ X : y = f(x). (1.11) A fun¸c˜ao ´e bijectiva se for injectiva e sobrejectiva. Neste caso pode-se definir uma fun¸c˜ao chamada de inversa, a saber, a fun¸c˜ao f−1 : Y −→ X dada por ∀y ∈ Y, o valor de f−1 (y) ´e o ´unico x : f(x) = y. (1.12) Necessitamos, com frequˆencia, de outras formas de obter novas fun¸c˜oes. Podemos compˆor duas fun¸c˜oes dadas f : X → Y e g : Z → W, por certa ordem, desde que, por exemplo, Y, Z tenham pontos em comum. Obtemos, com efeito, a fun¸c˜ao composta g ◦ f : X → W definida por (g ◦ f)(x) = g(f(x)) e onde X ´e o dom´ınio onde faz sentido essa mesma express˜ao, isto ´e, X = {x ∈ X : f(x) ∈ Z}. (1.13) Dado um conjunto X chamamos fun¸c˜ao identidade a 1X : X → X, 1X(x) = x. Uma fun¸c˜ao f : X → Y tem uma inversa `a esquerda, isto ´e, ∃g : Y → X tal que g ◦ f = 1X se, e s´o se1 , f for injectiva. Uma fun¸c˜ao f : X → Y tem uma inversa `a direita, isto ´e, ∃h : Y → X tal que f ◦ h = 1Y sse f for sobrejectiva. As duas afirma¸c˜oes anteriores s˜ao exerc´ıcios para o leitor. Delas se conclui, no caso em que f ´e bijectiva, h = g = f−1 . 1 Daqui em diante, como abreviatura de “se, e s´o se,” tomamos “sse”. Significa o mesmo que “equivalente”.
  • 10. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 9 Uma rela¸c˜ao bem estabelecida entre um par de conjuntos2 ´e a seguinte, denotada : A B sse existe fun¸c˜ao bijectiva entre A e B. (1.14) Trata-se de uma rela¸c˜ao de equivalˆencia, como ´e f´acil provar. Outras ‘identifica¸c˜oes’ se podem naturalmente estabelecer. Por exemplo, para trˆes conjuntos dados, tem-se A × (B × C) = (A × B) × C. 1.2 T´opicos de Estruturas Alg´ebricas 1.2.1 Grupos A no¸c˜ao alg´ebrica simultˆaneamente mais elementar e necess´aria ´e a de grupo. Um conjunto G munido de uma opera¸c˜ao bin´aria G × G → G, (a, b) → ab, (1.15) que satisfaz - associatividade : ∀a, b, c ∈ G, (ab)c = a(bc), - existe elemento neutro : ∃e ∈ G : ∀a ∈ G, ae = ea = a, - todos os elementos tˆem inverso : ∀a ∈ G, ∃b ∈ G : ab = ba = e, (1.16) chama-se um grupo. Prova-se facilmente que o elemento neutro ´e ´unico e que o inverso de cada elemento tamb´em ´e ´unico. O truque est´a, em ambos os casos, em come¸car por supˆor que existem dois elementos e acabar por chegar a um absurdo. Us´amos acima a nota¸c˜ao multiplicativa. Por vezes usa-se a aditivia. Na primeira nota¸c˜ao, o elemento neutro designa-se por e ou por 1. Na segunda, por 0. Na primeira nota¸c˜ao, o inverso de a denota-se por a−1 , e na segunda denota-se por −a e chama-se oposto ou sim´etrico de a. Exemplos: 1. (R, +) ´e um grupo com a opera¸c˜ao de adi¸c˜ao + usual. 2. (R {0}, ·) ´e um grupo com a opera¸c˜ao de multiplica¸c˜ao usual. 3. Seja dado um conjunto X e seja G := A(X) = {f : X → X| f ´e bijectiva} (1.17) o conjunto das fun¸c˜oes bijectivas de X para X. Ent˜ao G ´e um grupo se tomarmos como opera¸c˜ao a composi¸c˜ao de fun¸c˜oes. Com efeito, se f, g ∈ G, 2 Evitemos desde j´a o paradoxo que consiste em tomar “o conjunto de todos os conjuntos”.
  • 11. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 10 ent˜ao f◦g tamb´em est´a em G porque tamb´em ´e uma fun¸c˜ao bijectiva. Vejamos a associatividade: duas fun¸c˜oes com o mesmo espa¸co de partida e de chegada s˜ao iguais se, a cada objecto, fazem corresponder a mesma imagem. Ent˜ao, por defini¸c˜ao, tomando um terceiro elemento h ∈ G e qualquer x ∈ X, (g ◦ f) ◦ h (x) = (g ◦ f)(h(x)) = g(f(h(x))) = g ◦ (f ◦ h) (x). Donde (g◦f)◦h = g◦(f ◦h), como quer´ıamos. Agora, o elemento neutro de G ´e naturalmente a fun¸c˜ao identidade 1X. E o inverso de f coincide exactamente com a fun¸c˜ao inversa, como se esperava. Nos grupos dos exemplos 1 e 2 acima, as opera¸c˜oes, bem conhecidas, s˜ao comu- tativas. Um grupo G qualquer diz-se comutativo ou abeliano se ab = ba, ∀a, b ∈ G. (1.18) O exemplo 3 de h´a pouco n˜ao ´e comutativo em geral. Repare-se no grupo de permuta¸c˜oes de n ∈ N elementos, ou grupo sim´etrico Sn, o qual consiste no grupo A(X) com X = {1, 2, 3, . . . , n}. ´E simples concluir que A(X) = Sn tem n! elementos. Se n ≥ 3, ent˜ao aquele grupo n˜ao ´e comutativo. Basta pensar nas seguintes fun¸c˜oes (em cima est˜ao os objectos, em baixo as respectivas imagens): f = 1 2 3 1 3 2 , g = 1 2 3 2 1 3 , (1.19) admitindo ainda que f, g fixam todos os i ≥ 4. Resulta ent˜ao f ◦ g = 1 2 3 3 1 2 , g ◦ f = 1 2 3 2 3 1 (1.20) onde se rende expl´ıcita a falta de comutatividade. H´a muitos mais grupos n˜ao comutativos que comutativos. H´a exemplos, como o de grupo de permuta¸c˜oes, que explicam muito. Veja-se o seguinte teorema c´elebre. Teorema 1 (Cayley). Todo o grupo G ´e subgrupo de um grupo de permuta¸c˜oes. A no¸c˜ao de subgrupo ´e a de um subconjunto que herda a estrutura do grupo em que est´a contido. Portanto, um subconjunto fechado para a opera¸c˜ao do grupo e para a passagem ao inverso. Vejamos a demonstra¸c˜ao do teorema de Cayley.
  • 12. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 11 Demonstra¸c˜ao. Com efeito, a cada g ∈ G associamos a seguinte permuta¸c˜ao Lg do pr´oprio grupo G: Lg : G → G, Lg(h) = gh. Vem ent˜ao que Lg1g2 (h) = g1g2h = Lg1 (Lg2 (h)) = Lg1 ◦ Lg2 (h), ∀g1, g2, h ∈ G (1.21) pelo que a estrutura da imagem de L como subgrupo de A(G), L : G −→ A(G), g → Lg, (1.22) ´e a mesma estrutura de G, pois que L ´e injectiva como se poder´a verificar. Note-se que a aplica¸c˜ao L est´a subjacente no enunciado do teorema de Cayley. Raramente, claro, a aplica¸c˜ao L ´e sobrejectiva. 1.2.2 An´eis e Corpos A no¸c˜ao que se segue ´e muito rica, ainda que dispens´avel num curso de ´Algebra Linear. Seja A um conjunto munido de duas opera¸c˜oes, + e ‘vezes’ ·, tais que - (A, +) ´e grupo comutativo - a opera¸c˜ao · ´e associativa - d˜ao-se as propriedades distribuitivas: a(b + c) = ab + ac, (a + b)c = ac + bc, ∀a, b, c ∈ A. (1.23) Dizemos ent˜ao que A ´e um anel. Se · ´e comutativa, o anel A diz-se comutativo ou abeliano. Se existe elemento neutro 1 da multiplica¸c˜ao, o anel diz-se unit´ario. (Z, +, ·) ´e o exemplo prim´ario. N˜ao menos o s˜ao o anel dos n´umeros pares, 2Z, ou os m´ultiplos de 3, ou 4, etc... Os an´eis kZ = {kn : n ∈ Z} s˜ao todos comutativos, mas s´o Z ´e unit´ario. Outro exemplo menos trivial ´e o anel de fun¸c˜oes RX , onde X ´e um espa¸co fixado de in´ıcio. RX = {f : X → R} (1.24) tem soma e produto de fun¸c˜oes bem definidos: ∀f1, f2 ∈ RX , f1 +f2 e f1f2 definem- se obviamente por (f1 + f2)(x) = f1(x) + f2(x), (f1f2)(x) = f1(x)f2(x). (1.25) RX ´e um anel e provar´a a sua utilidade mais `a frente. Nos an´eis unit´arios p˜oe-se a quest˜ao de saber quais s˜ao os elementos invert´ıveis para a multiplica¸c˜ao. Mais ainda, um tal anel A cont´em um grupo U ⊂ A consti- tu´ıdo pelos elementos invert´ıveis. Por exemplo, o anel Z tem U = {−1, 1}. J´a o anel Q tem U = Q {0}.
  • 13. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 12 ´E claro que 0 nunca ser´a invert´ıvel: prova-se que 0 · a = 0, ∀a ∈ A. Um anel K comutativo, unit´ario e com U = K {0} chama-se um corpo. S˜ao exemplos de corpos: Q, R, C. Nos corpos vale a lei do anulamento do produto: ab = 0 =⇒ a = 0 ou b = 0. (1.26) Tamb´em s´o nos corpos podemos invocar em geral a lei do corte: ax = b ⇐⇒ x = a−1 b. (1.27) Estas leis demonstram-se com grande facilidade. Veremos em seguida que h´a corpos finitos. Um famoso teorema de Euclides garante que, se tivermos dois n´umeros inteiros m, n, ent˜ao existem dois n´umeros inteiros ´unicos q e r (chamados quociente e resto) tais que 0 ≤ r ≤ n − 1 e m = qn + r. (1.28) Dizemos que r ´e o resto de m mod n. Se somarmos ou multiplicarmos dois m1, m2 ∈ Z, temos m1 + m2 = (q1n + r1) + (q2n + r2) = (q1 + q2)n + (r1 + r2), m1m2 = (q1q2n + r1q2 + q2r1)n + r1r2 (1.29) Ent˜ao vemos que o resto da soma e do produto mod n ´e o mesmo que o resto mod n da soma e do produto dos restos, respectivamente. ´E trivial verificar agora que as opera¸c˜oes de + e ‘vezes’ habituais, mas “com n’s fora”, verificam todas as propriedades de anel, pois elas provˆem das respectivas propriedades do anel dos inteiros. Assim, prova-se o Teorema 2. O conjunto dos restos Zn = {0, 1, . . . , n − 1} ´e um anel com a soma e o produto acima. D´a-se a Zn o nome de anel dos restos mod n. Por exemplo, o anel Z5 tem as seguintes tabelas de opera¸c˜oes: + 0 1 2 3 4 0 0 1 2 3 4 1 1 2 3 4 0 2 2 3 4 0 1 3 3 4 0 1 2 4 4 0 1 2 3 · 0 1 2 3 4 0 0 0 0 0 0 1 0 1 2 3 4 2 0 2 4 1 3 3 0 3 1 4 2 4 0 4 3 2 1 (1.30) Curiosamente, vˆe-se que x2 = 3 n˜ao tem solu¸c˜oes mod 5, ou seja em Z5. H´a ent˜ao lugar para um estudo de novo tipo de equa¸c˜oes alg´ebricas. Um resultado importante nesta teoria finaliza o nosso cap´ıtulo.
  • 14. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 13 Teorema 3. Zn ´e corpo sse n ´e n´umero primo. Demonstra¸c˜ao. Suponhamos que Zn ´e corpo e que ab = n, com 1 < a, b < n. Mas isto ´e o mesmo que ab = 0 mod n e ent˜ao, valendo a lei do corte, resulta a = 0 ou b = 0, o que ´e absurdo. Assim, n n˜ao tem divisores pr´oprios, ie. ´e primo. Suponhamos rec´ıprocamente que n ´e primo. Ent˜ao para cada a ∈ Z0 h´a sempre solu¸c˜oes inteiras x, y de ax + ny = 1 (tal decorre recursivamente do algoritmo de Euclides, o poder escrever-se assim o mdc de dois quaisquer inteiros a e n). Obviamente, em Zn temos ax + ny = ax = 1 mod n, pelo que todos os elementos a ∈ Zn 0 tˆem inverso. E est˜ao verificadas as condi¸c˜oes para termos um corpo.
  • 15. Cap´ıtulo 2 2.1 Matrizes 2.1.1 Primeiras defini¸c˜oes Damos o nome de matriz a uma tabela A = [aij]i=1,...,p j=1,...,q com entradas ou coefi- cientes1 aij ∈ R. O ´ındice p ´e o n´umero de linhas e q o de colunas. Denotamos A =      a11 a12 · · · a1q a21 a22 a2q ... ... ... ap1 ap2 · · · apq      . (2.1) p e q s˜ao as dimens˜oes da matriz A. Faz jeito chamar Mp,q = {A : A ´e uma matriz de p linhas e q colunas}. (2.2) O interesse das matrizes est´a, como veremos mais tarde, na representa¸c˜ao das aplica¸c˜oes lineares que elas possibilitam. A estrutura de grupo de (R, +) passa autom´aticamente para Mpq. Dadas quais- quer matrizes A, B ∈ Mpq, sendo A = [aij] e B = [bij], i = 1, . . . , p, j = 1, . . . , q, temos por defini¸c˜ao A + B = [aij + bij], (2.3) permanecendo em Mpq. Se λ ∈ R, ent˜ao denotamos por λA a matriz [λaij], com as mesmas dimens˜oes. Em seguida definimos a multiplica¸c˜ao de duas matrizes. Tamb´em aqui h´a uma condi¸c˜ao nos ´ındices. Esta opera¸c˜ao tem uma ordem. Logo pomos uma matriz `a esquerda e outra `a direita, como um par ordenado, e a condi¸c˜ao ´e que, para as multiplicarmos, a da esquerda deve ter n´umero de colunas igual ao n´umero de linhas da da direita. 1 Poder´ıamos deixar estes aij pertencerem a um corpo K ou mesmo um anel qualquer pr´evia- mente fixado, mas aqui prosseguimos apenas com matrizes reais.
  • 16. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 15 Assim Mpq × Mql −→ Mpl (A, B) −→ AB. (2.4) Atente-se bem no espa¸co de chegada, aquele onde aparece o resultado. O produto M = AB define-se ent˜ao como segue: pondo M = [ξij]i=1,...,p j=1,...,l , temos ξij = ai1b1j + · · · + aiqbqj = q k=1 aikbkj. (2.5) Prova-se facilmente que esta multiplica¸c˜ao ´e associativa: se A, B s˜ao como acima e C ∈ Mlr, ent˜ao estamos habilitados a fazer tanto (AB)C como A(BC). Com alguma surpresa, tem-se ent˜ao (AB)C = A(BC). (2.6) Com efeito, sendo M = AB = [ξst]s=1,...,p t=1,...,l e BC = [ηuv]u=1,...,l v=1,...,r , o elemento gen´erico de ´ındice (s, v) do produto do lado esquerdo de (2.6) ´e igual a l t=1 ξstctv = l t=1 q k=1 (askbkt)ctv = q k=1 l t=1 ask(bktctv) = q k=1 askηkv. (2.7) Us´amos a associatividade e distributividade dos n´umeros reais para reagrupar as parcelas. O resultado a que se chegou representa o elemento gen´erico de ´ındice (s, v) do produto do lado direito de (2.6), ou seja A(BC). Outra propriedade v´alida ´e a distributividade `a esquerda e `a direita: se A, B ∈ Mpq e C, D ∈ Mql, ent˜ao A(C + D) = AC + AD (A + B)C = AC + BC. (2.8) Note que as igualdades fazem sentido no cˆomputo das dimens˜oes das matrizes. A demonstra¸c˜ao daquelas igualdades ´e trivial. Exemplos: 2 3 1 −2 0 1    4 5 3 1 2 5 2 4 0    = 13 20 21 −6 −6 −6 , (2.9) 2 3 4    −2 3 1    = 9,    −2 3 1    2 3 4 =    −4 −6 −8 6 9 12 2 3 4    . (2.10)
  • 17. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 16 Como se vˆe, as matrizes n˜ao permutam no produto. Dizemos que duas matrizes dadas A e B permutam ou comutam se AB = BA. Isso n˜ao acontece em geral, mesmo se forem quadradas. ´E importante notar que Mpp, chamado o espa¸co das matrizes quadradas, ´e uma anel com a soma e produto introduzidos, pois tal espa¸co ´e fechado para o produto. O ´ındice de linhas p igual ao ´ındice de colunas tamb´em se diz a ordem de cada matriz quadrada. Repare-se agora que, para qualquer matriz A ∈ Mpq,      1 0 · · · 0 0 1 0 ... 0 0 0 · · · 1         a11 · · · a1q ... ap1 · · · apq    =    a11 · · · a1q ... ap1 · · · apq    , (2.11)    a11 · · · a1q ... ap1 · · · apq         1 0 · · · 0 0 1 0 ... 0 0 0 · · · 1      =    a11 · · · a1q ... ap1 · · · apq    . (2.12) Uma matriz quadrada D = [dij] de ordem p diz-se diagonal se dij = 0, ∀i = j. Chamamos matriz identidade, e denotamo-la por 1p, `a matriz diagonal que tem dii = 1, ∀i = 1, . . . , p. As f´ormulas (2.11,2.12) reescrevem-se portanto como 1pA = A e A1q = A. (2.13) No caso das matrizes quadradas temos, em particular, um elemento neutro da multiplica¸c˜ao. Destaca-se assim o Teorema 4. O espa¸co das matrizes quadradas Mpp ´e um anel unit´ario. Neste espa¸co nem sequer se d´a a lei do anulamento do produto. Veja-se o caso: 0 1 0 0 1 0 0 0 = 0 0 0 0 . (2.14) 2.1.2 Matrizes especiais ´E claro que o espa¸co das matrizes Mm,n, como tabelas de n´umeros reais, se identifica com Rmn . O leitor poder´a identificar neste grande espa¸co mais do que um simples produto cartesiano. H´a uma estrutura de espa¸co vectorial — o que ser´a trivial de verificar quando explicarmos do que tal se trata. Uma matriz A ∈ Mmn diz-se invert´ıvel `a esquerda se existe B ∈ Mnm tal que BA = 1n.
  • 18. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 17 Uma matriz A ∈ Mmn diz-se invert´ıvel `a direita se existe C ∈ Mnm tal que AC = 1m. Uma matriz diz-se invert´ıvel se o fˆor `a esquerda e `a direita. Neste caso prova-se facilmente que B = C e que a matriz A tem de ser quadrada2 , n = m. A matriz ´unica B = C denota-se por A−1 : AA−1 = A−1 A = 1n. (2.15) Com efeito, o inverso, quando existe, ´e ´unico. Aqui poder´ıamos falar do grupo das matrizes invert´ıveis. Em particular tem-se a regra de invers˜ao do produto: A, B ∈ Mnn invert´ıveis =⇒ (AB)−1 = B−1 A−1 . (2.16) Outro tipo de matrizes especiais s˜ao as triangulares superiores: T = [tij]i=1,...,m j=1,...,n , com tij = 0, ∀j < i. (2.17) Ou seja, T ∈ Mmn tem as entradas todas nulas abaixo da diagonal principal (a diagonal principal de uma matriz P = [pij] designa os n´umeros pii). Tamb´em se definem matrizes triangulares inferiores: tij = 0, ∀i < j. 2.1.3 Transposta Dada uma matriz A ∈ Mmn, definimos a transposta de A = [aij]i=1,...,m j=1,...,n como a matriz AT ∈ Mnm dada por AT = [aT ji]j=1,...,n i=1,...,m onde aT ji = aij. (2.18) Prova-se com facilidade que a passagem `a transposta do produto verifica: A ∈ Mmn, B ∈ Mnp =⇒ (AB)T = BT AT . (2.19) Claro que (AT )T = A para qualquer matriz A. Se A ´e invert´ıvel, ent˜ao prova-se facilmente que (A−1 )T = (AT ) −1 . Agora, uma matriz diz-se sim´etrica se A = AT . Uma matriz diz-se anti- sim´etrica se A = −AT . O primeiro contributo destas no¸c˜oes est´a na possibilidade de escrever qualquer matriz quadrada C ∈ Mmm como a soma de uma matriz sim´etrica e de uma anti- sim´etrica. Essa decomposi¸c˜ao de C est´a em C = 1 2 C + CT + 1 2 C − CT , (2.20) como o leitor verificar´a. 2 Para ver que n = m, sendo AB = 1m e BA = 1n, atente-se a m = i,j ai,jbi,j = n, o c´alculo do tra¸co.
  • 19. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 18 2.2 Sistemas de Equa¸c˜oes Lineares 2.2.1 M´etodo de resolu¸c˜ao pela adi¸c˜ao ordenada Vamos agora estudar os sistemas de m equa¸c˜oes lineares, isto ´e, do 1o grau, a n inc´ognitas. Come¸cemos com um exemplo (m, n) = (2, 3) e sua resolu¸c˜ao. 2x + 3y − z = 0 x + 4y = −2z (2.21) ´e um sistema poss´ıvel indeterminado, o qual se resolve pelo m´etodo de substitui¸c˜ao como 2x + 3y = z x + 4y = −4x − 6y 5x = −10y z = −y x = −2y (2.22) donde, para cada y ∈ R, h´a uma solu¸c˜ao (x, y, z) = (−2y, y, −y). Outro m´etodo, chamado de adi¸c˜ao ordenada, permite resolver o sistema de forma mais r´apida. Utilizando os princ´ıpios elementares de equivalˆencia de equa¸c˜oes, percebemos que se obt´em um sistema equivalente a (2.21) se multiplicarmos a segunda equa¸c˜ao, em ambos os termos, por −2. E o mesmo acontece se adicionarmos ordenadamente esse resultado `a 1a equa¸c˜ao. Estamos, por hip´otese, a adicionar a mesma quantidade a ambos os termos, pelo que o novo sistema permanece equivalente. Conseguimos ‘anular os 2x’ na 1a equa¸c˜ao. Fazendo ao mesmo tempo o mesmo para a equa¸c˜ao de baixo, usando a de cima multiplicada por 2 para ‘anular o z’, obt´em-se: 2x + 3y − z = 0 x + 4y + 2z = 0 −5y − 5z = 0 5x + 10y = 0 z = −y x = −2y . (2.23) Claro que as opera¸c˜oes escolhidas foram as que mais r´apidamente permitiram anular alguma vari´avel. Este m´etodo tem por isso as suas vantagens sobre o primeiro3 . Vejamos outro exemplo:    4x + y + z = 0 8x + z = 0 4x − y = 0    4x + y + z = 0 −2y − z = 0 −2y − z = 0    4x + y + z = 0 −2y − z = 0 0 = 0 , (2.24) ´e um sistema poss´ıvel e indeterminado. E outro exemplo: 4x + y = ... 4x − y = ... 8x = ... −2y = ... . (2.25) 3 N˜ao ´e prop´osito de um curso de ALGA a procura do melhor algoritmo de resolu¸c˜ao de sistemas.
  • 20. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 19 Neste caso, quaisquer que sejam os valores nas reticˆencias iniciais, o sistema ´e sempre poss´ıvel e determinado. Mas nem sempre ´e assim. Considere-se o sistema em x, y: 4x + y = c 8x + 2y = d 4x + y = c 0 = d − 2c (2.26) Aqui h´a claramente duas hip´oteses: o sistema ´e poss´ıvel indeterminado se d = 2c, e imposs´ıvel no caso contr´ario. De qualquer forma o estudo das equa¸c˜oes indepen- dentes parte dos coeficientes do ‘lado esquerdo’. 2.2.2 Condensa¸c˜ao de uma matriz Em geral, um sistema de m equa¸c˜oes a n inc´ognitas aparece como    a11x1 + · · · + a1nxn = b1 ... am1x1 + · · · + amnxn = bm . (2.27) Claramente podemos escrever (2.27) em termos matriciais:    a11 · · · a1n ... am1 · · · amn       x1 ... xn    =    b1 ... bm    (2.28) e logo sucintamente como AX = B (2.29) onde A, X, B tˆem correspondˆencia ´obvia com as matrizes anteriores. Nunca esque¸cendo a posi¸c˜ao de cada inc´ognita xi, i = 1, . . . , n, podemos fazer as adi¸c˜oes ordenadas sobre as linhas da matriz ampliada [A|B], de um dado sistema, para o resolver. Suponhamos, por exemplo, que nos s˜ao dadas as equa¸c˜oes    x − y + z = 0, x + 3y = 1, z = −3x + 1 + y . (2.30) Ent˜ao a matriz ampliada, seguida da multiplica¸c˜ao e adi¸c˜ao ordenada, resulta em    1 −1 1 | 0 1 3 0 | 1 3 −1 1 | 1    L2−L1, L3−3L1 −−−−−−−−−→    1 −1 1 | 0 0 4 −1 | 1 0 2 −2 | 1    L2−2L3, L2↔L3 −−−−−−−−−−→    1 −1 1 | 0 0 2 −2 | 1 0 0 3 | −1    L1+ 1 2 L2, 3L2+2L3 −−−−−−−−−−−→    1 0 0 | 1 2 0 6 0 | 1 0 0 3 | −1    . (2.31)
  • 21. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 20 O sistema est´a resolvido, x = 1 2 , y = 1 6 , z = −1 3 . Neste caso, a matriz A ´e quadrada, pelo que essencialmente fomos ao encontro da sua inversa de modo a obter a solu¸c˜ao X = A−1 B. Ao m´etodo anteriormente descrito de resolu¸c˜ao de um sistema d´a-se o nome de m´etodo de Gauss. Os exemplos acima mostram o uso da condensa¸c˜ao sobre linhas (ou colunas) de uma matriz, ou seja a adi¸c˜ao e multiplica¸c˜ao por escalar das linhas (ou colunas) de uma matriz. A condensa¸c˜ao sobre as linhas consiste em: • troca de linhas (para obter elementos n˜ao nulos na diagonal principal ou simplesmente para simplificar c´alculos) • multiplica¸c˜ao de uma linha por um escalar n˜ao nulo • substitui¸c˜ao de uma linha por si pr´opria adicionada de um m´ultiplo n˜ao nulo de outra linha • desenvolver este processo de forma ordenada com vista a encontrar uma matriz triangular superior. Tamb´em se podem escrever as mesmas regras para a condensa¸c˜ao sobre as col- unas (a qual n˜ao pode ser feita na resolu¸c˜ao de sistemas, pois estar´ıamos a juntar coeficientes de inc´ognitas diferentes). 2.2.3 Estudo dos sistemas Dado o sistema (2.29), ´e imediato concluir que chegamos sempre a um sistema equivalente do tipo:           ξ11 ξ12 · · · ξ1r · · · ξ1n | η1 0 ξ22 | 0 0 ... | 0 · · · 0 ξrr · · · ξrn | ηr ... 0 ... 0 | ... 0 0 0 0 | ηm           (2.32) com r ≤ m, n e os ξii = 0, ∀i = 1, . . . , r. Os ξ’s resultam da condensa¸c˜ao sobre linhas de A e os η’s resultam das corre- spondentes transforma¸c˜oes sobre B. O ´ındice r ´e o n´umero de equa¸c˜oes independentes. Chama-se caracter´ıstica de linha de A. Se para algum i > r, tivermos ηi = 0, ent˜ao h´a mais ‘equa¸c˜oes independentes’ na matriz ampliada A|B que em A e o sistema ´e imposs´ıvel. Rec´ıp- rocamente, de qualquer sistema imposs´ıvel se retira a mesma condi¸c˜ao.
  • 22. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 21 Agora, das primeiras r linhas, vˆe-se bem que o sistema ´e poss´ıvel determinado sse r = n; ou seja, indeterminado sse r < n. A n − r d´a-se o nome de grau de indetermina¸c˜ao do sistema (este grau ´e tamb´em a dimens˜ao do espa¸co de solu¸c˜oes do sistema4 ). Em resumo, pondo r(A) = n´umero de linhas independentes, temos o seguinte quadro. r(A) = r(A|B) r(A) < r(A|B) sistema poss´ıvel s. imposs´ıvel determinado indeterminado r(A) = n r(A) < n sem solu¸c˜oes (2.33) 2.3 Espa¸co Euclidiano 2.3.1 O espa¸co vectorial Rn ou espa¸co euclidiano Temos vindo a considerar as linhas de uma dada matriz e a falar da dependˆencia linear de um conjunto de linhas. Conv´em ent˜ao considerar o espa¸co M1,n de tais linhas (com n colunas) e dar-lhe o destaque que merece. Damos o nome de espa¸co euclidiano ao produto cartesiano Rn = R × · · · × R (com n factores). Tamb´em se diz por vezes o espa¸co cartesiano Rn . Os seus elementos chamam-se vectores e escrevem-se como n-tuplos ordenados (c1, . . . , cn), portanto com ci ∈ R. A adi¸c˜ao de vectores e a multiplica¸c˜ao de um vector por um escalar devolvem-nos um novo vector (essas opera¸c˜oes s˜ao as mesmas do espa¸co de matrizes acima): (c1, . . . , cn) + (d1, . . . , dn) = (c1 + d1, . . . , cn + dn), λ(c1, . . . , cn) = (λc1, . . . , λcn) (2.34) ∀ci, di, λ ∈ R, i = 1, . . . , n. Repare-se agora que uma matriz A ∈ Mmn induz uma fun¸c˜ao ou aplica¸c˜ao A : Rn −→ Rm , X −→ AX (2.35) Esta aplica¸c˜ao tem a propriedade de ser linear5 : A(λX + µY ) = λAX + µAY, ∀X, Y ∈ Rn , λ, µ ∈ R. (2.36) Tal resulta da propriedade distribuitiva do produto sobre a soma. Voltaremos a estas quest˜oes mais tarde. 4 Isto far´a sentido ap´os a verifica¸c˜ao de que o conjunto de solu¸c˜oes forma um subespa¸co afim. 5 As fun¸c˜oes lineares tomam o nome de aplica¸c˜oes lineares.
  • 23. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 22 2.3.2 Independˆencia linear Vimos no estudo dos sitemas de equa¸c˜oes lineares a necessidade de fazer anular linhas de uma dada matriz `a custa de outras linhas. Essa possibilidade d´a lugar a um conceito em Rn . Dizemos que um conjunto (ou um sistema) de m vectores do espa¸co euclidiano Rn , ou seja, {L1, . . . , Lm} ⊂ Rn , ´e um conjunto de vectores linearmente depen- dentes se podemos escrever um deles como combina¸c˜ao linear dos restantes, isto ´e, se existe um ´ındice i0 e existem escalares α1, . . . , αi0−1, αi0+1, . . . , αm ∈ R tais que Li0 = α1L1 + · · · + αi0−1Li0−1 + αi0+1Li0+1 + · · · + αmLm. (2.37) Repare-se que passando Li0 para o lado direito de (2.37) obtemos o vector nulo 0 escrito como combina¸c˜ao linear n˜ao nula de todos os L1, . . . , Lm. Uma forma mais simples de dizer o que ´e a dependˆencia linear ser´a pela negativa: dizemos que m vectores dados L1, . . . , Lm s˜ao linearmente independentes se se verifica a condi¸c˜ao: λ1L1 + · · · + λmLm = 0 =⇒ λ1 = · · · = λm = 0. (2.38) ´E um simples problema l´ogico provar que um conjunto de vectores ´e linearmente independente sse n˜ao ´e linearmente dependente. Exemplos: 1. Um vector L1 isolado ´e linearmente independente sse L1 = 0. Com efeito, s´o nesse caso garantimos que λ1L1 = 0 implica λ1 = 0. 2. Os vectores (2, 3), (3, 4) s˜ao linearmente independentes. Com efeito, λ1(2, 3) + λ2(3, 4) = 0 ⇒ 2λ1 + 3λ2 = 0 3λ1 + 4λ2 = 0 ⇒ λ1 = 0 λ2 = 0 . (2.39) 3. Se o vector nulo est´a entre os vectores L1, . . . , Lm, ent˜ao este conjunto ´e linearmente dependente. De facto, podemos escrever 0 como combina¸c˜ao linear dos restantes vectores. Basta fazer a combina¸c˜ao linear com os escalares nulos. 4. Num dado subconjunto de Rn , o n´umero m´aximo de vectores linearmente independentes que ele poder´a conter ´e n. O exemplo 4 ´e muito elucidativo. Dito de outra forma: em Rn quaisquer vectores L1, . . . , Ln, Ln+1 s˜ao linearmente dependentes. Com efeito, procurando escrever 0 como combina¸c˜ao linear daqueles, ou seja, λ1L1 + · · · + λnLn + λn+1Ln+1 = 0, (2.40)
  • 24. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 23 escrevemos o sistema    λ1l11 + · · · + λnln1 + λn+1ln+1,1 = 0 ... λ1l1n + · · · + λnlnn + λn+1ln+1,n = 0 (2.41) onde Li = (li1, . . . , lin). Como sabemos, tal sistema ´e sempre poss´ıvel indetermi- nado. Existem ent˜ao solu¸c˜oes λ1, . . . , λn+1 n˜ao nulas, como quer´ıamos. 2.4 A caracter´ıstica e a inversa de novo 2.4.1 Caracter´ıstica de linha vs caracter´ıstica de coluna Seja M ∈ Mmn uma matriz qualquer. Chamamos caracter´ıstica de linha de M, denotada rl, ao n´umero m´aximo de linhas linearmente independentes que M cont´em. J´a nos referimos a esta defini¸c˜ao em sec¸c˜ao anterior. Chamamos caracter´ıstica de coluna de M, denotada rc, ao n´umero m´aximo de colunas linearmente independentes que M cont´em. Dissemos anteriormente como obter rl: efectuando uma condensa¸c˜ao da matriz de modo a fazer aparecer a matriz de aspecto simples (2.32) — evidentemente, aqui, sem a parte ampliada. Mas ´e claro que h´a muitos caminhos desde a matriz inicial M at´e aquela forma can´onica (2.32), pelo que se poderia perguntar se rl n˜ao depende da escolha do caminho. Vemos que tal defini¸c˜ao ´e intr´ınseca, independente da condensa¸c˜ao sobre linhas, tal como se exprimiu acima: se M tem linhas L1, . . . , Lm e fazemos uma troca de Li por Li + αLj, α ∈ R, vemos que λ1L1 + · · · + λiLi + · · · + λjLj + · · · + λmLm = 0 (2.42) tem solu¸c˜oes n˜ao nulas sse ˜λ1L1 + · · · + ˜λi(Li + αLj) + · · · + ˜λjLj + · · · + ˜λmLm = 0 (2.43) tem solu¸c˜oes n˜ao nulas. S´o temos de fazer a transforma¸c˜ao λj = ˜λi + α˜λj.6 O pr´oximo teorema afirma que a caracter´ıstica de linha ´e igual `a caracter´ıstica de coluna. A primeira parte da demonstra¸c˜ao assenta na prova de que n˜ao se altera rl a cada passo para achar rc. Teorema 5. Em qualquer matriz, rl = rc. 6 Como dissemos em 2.2.3, os sistemas de equa¸c˜oes lineares (independentes ou n˜ao), ap´os con- densa¸c˜ao, mantˆem-se equivalentes (em particular, com o mesmo n´umero de equa¸c˜oes indepen- dentes). Poder´ıamos passar a falar em sistemas de vectores.
  • 25. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 24 Demonstra¸c˜ao. Suponha-se M =    L1 ... Lm    =    l11 · · · l1n ... lm1 · · · lmn    = C1 · · · Cn . (2.44) A dependˆencia das linhas estuda-se pelo sistema em λ’s, λ1l1j + · · · + · · · + λmlmj = 0, ∀j = 1, . . . n. (2.45) Agora, o passo mais geral da condensa¸c˜ao sobre colunas ser´a a troca Ci ↔ Cj seguida de Ci → Ci + αCj, para certos i, j e α ∈ R, levando-nos para a matriz M =    l11 · · · l1j · · · l1i + αl1j · · · l1n ... ... lm1 · · · lmj · · · lmi + αlmj · · · lmn    . (2.46) O respectivo sistema de equa¸c˜oes ser´a o mesmo que o anterior excepto para j = j, i:    · · · λ1l1j + · · · + λmlmj = 0 · · · λ1(l1i + αl1j) + · · · + λm(lmi + αlmj) = 0 · · · (2.47) Mas ´e evidente, rearrumando os termos e pondo α em evidˆencia, que este sistema ´e equivalente a (2.45). Agora, tal como em 2.2.3, fazendo uma condensa¸c˜ao por colunas de forma or- denada, chegaremos a uma matriz de aspecto            ξ11 0 0 0 0 ξ21 ξ22 0 0 ... 0 ... ... ξrcrc 0 0 ... ... ... ξm1 ξmrc 0 0            (2.48) com os ξkk = 0, ∀1 ≤ k ≤ rc. Como nunca se alterou rl desde M e agora j´a ´e f´acil descobrir a caracter´ıstica de linha, fazendo por anular tudo o que est´a abaixo da diagonal principal de (2.48), deduz-se ent˜ao que rc = rl, como quer´ıamos demon- strar. Exemplo:    1 0 3 2 1 2 2 0 6    L3−2L1, C1−2C2 −−−−−−−−−−→    1 0 3 0 1 2 0 0 0    C3−3C1−2C2 −−−−−−−−→    1 0 0 0 1 0 0 0 0    (2.49) e a caracter´ıstica r = rc = rl neste caso ´e 2.
  • 26. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 25 2.4.2 C´alculo da inversa Vamos agora estabelecer um m´etodo para encontrar a inversa de uma matriz quadrada A ∈ Mn,n, supondo que existe. Repare-se que escrevendo o vector-coluna Vi0 = 0 · · · 0 1 0 · · · 0 T (2.50) (1 no lugar i0 e 0 em todas as outras entradas), vem BVi0 =    b1i0 ... bni0    (2.51) para qualquer matriz quadrada B = [bst]. Para encontrar A−1 temos de encontrar os n vectores-coluna Xi tais que AXi = Vi. Pois da´ı vir´a A X1 · · · Xn = V1 · · · Vn = 1n. (2.52) Note-se em particular que A : Rn → Rn induz, no sentido de (2.35), uma aplica¸c˜ao bijectiva (tem uma inversa7 ) sse a matriz A ´e invert´ıvel. Por sua vez, cada sistema AX = Vi ´e poss´ıvel e determinado sse r(A) = n. Est´a ent˜ao provado o Teorema 6. Uma matriz quadrada A ∈ Mn ´e invert´ıvel sse r(A) = n. Agora, os Xi, 1 ≤ i ≤ n, encontrados acima ser˜ao as colunas de A−1 . Pelo m´etodo de condensa¸c˜ao sobre linhas, aplicado simultˆaneamente na resolu¸c˜ao dos n sistemas de n equa¸c˜oes a n inc´ognitas, podemos dar como certo o seguinte algoritmo para determinar a matriz inversa de A: A | 1n −→ · · · (condensa¸c˜ao) · · · −→ 1n | A−1 . (2.53) Exemplo: 1. Para encontrar a inversa de 0 5 −5 3 fazemos 0 5 | 1 0 −5 3 | 0 1 → −5 3 | 0 1 0 5 | 1 0 → 1 −3 5 | 0 −1 5 0 1 | 1 5 0 → 1 0 | 3 25 −1 5 0 1 | 1 5 0 . (2.54) 7 Conv´em aqui notar que a inversa de uma aplica¸c˜ao linear bijectiva ´e ainda uma aplica¸c˜ao linear.
  • 27. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 26 A verifica¸c˜ao ´e imediata: 0 5 −5 3 3 25 −1 5 1 5 0 = 1 0 0 1 . (2.55)
  • 28. Cap´ıtulo 3 3.1 Determinantes 3.1.1 Grupos de permuta¸c˜oes Consideremos de novo o grupo de permuta¸c˜oes Sn de n objectos, recorde-se, um grupo com n! elementos. Um tipo particular de permuta¸c˜oes s˜ao os ciclos. Um ciclo σ ∈ Sn ´e uma permuta¸c˜ao denotada (a1 a2 · · · ak), com os ai ∈ {1, . . . , n} todos diferentes, que obedece a a1 → a2 → a3 → · · · → ak → a1 (3.1) e que deixa todos os outros elementos, n˜ao referidos, no mesmo lugar. O natural k ´e a ordem do ciclo. Como exemplos, em S4, temos (143) = (431) = (314) = 1 2 3 4 4 2 1 3 , (123) ◦ (341) = (234) = (34)(24). (3.2) Note-se que a fun¸c˜ao composta se lˆe da direita para a esquerda e que, como ´e usual, deixamos ca´ır o sinal “◦”. `A fun¸c˜ao composta tamb´em se chama produto. A permuta¸c˜ao inversa de um ciclo escreve-se facilmente. Em particular, as chamadas transposi¸c˜oes (ij), ou seja ciclos de ordem 2, verificam (ij)−1 = (ij) = (ji). Agora, cada permuta¸c˜ao σ ´e um produto de ciclos. Para o vermos come¸camos por construir o ciclo (1 σ(1) σ(σ(1)) · · · σk1−1 (1)). Concerteza que haver´a um fim, de tal forma que σ(σk1−1 (1)) = 1, pois σ n˜ao se repete nunca e n ´e finito. A seguir procuramos o primeiro elemento i0 ∈ {1, . . . , n} que n˜ao est´a entre os σi (1) e construimos o ciclo (i0 σ(i0) σ(σ(i0)) · · · σk2−1 (i0)). Pelas raz˜oes anteriores, o ciclo ´e finito. Repetimos assim e sucessivamente o processo anterior, sabendo que havemos de parar porque se esgotam os n´umeros. Obtemos finalmente a permuta¸c˜ao dada
  • 29. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 28 como um produto de ciclos, que at´e comutam entre si pois n˜ao tˆem elementos comuns. ´E quase t˜ao convincente ver um exemplo: σ = 1 2 3 4 5 6 7 8 6 5 2 1 3 7 4 8 = (1674)(253). (3.3) Mais ainda, cada permuta¸c˜ao ´e produto de transposi¸c˜oes, pois cada ciclo o ´e: (a1 a2 · · · ak) = (ak ak−1)(ak ak−2) · · · (ak a2)(ak a1). (3.4) Fazemos agora a seguinte afirma¸c˜ao: a permuta¸c˜ao identidade ´e sempre o pro- duto de um n´umero par de transposi¸c˜oes: (1) = (ij)(ij). A demonstra¸c˜ao deste facto, s´o aparentemente ´obvio, ´e um problema de ordem e combinat´oria que deix- amos ao leitor para sua pesquisa, [Gro83]. Agora se uma mesma permuta¸c˜ao se decomp˜oe, uma vez, num n´umero l1 de transposi¸c˜oes e, noutra vez, num n´umero l2 de transposi¸c˜oes, ent˜ao l1 + l2 ´e par. Equivale a passar, nessa igualdade de decomposi¸c˜oes, todas as transposi¸c˜oes para um lado, ficando a identidade no outro. Em particular, l1 ´e par sse l2 ´e par. Com efeito, apenas dois pares, ou dois ´ımpares, somam um par. Em resumo, temos o Teorema 7. Toda a permuta¸c˜ao σ ∈ Sn ´e produto de transposi¸c˜oes. A paridade do n´umero de transposi¸c˜oes de qualquer decomposi¸c˜ao de σ num produto de transposi¸c˜oes ´e um invariante de σ. Este teorema permite-nos definir rigorosamente o sinal de uma permuta¸c˜ao σ. Trata-se do valor +1 ou −1, conforme o invariante indicado acima. Ou seja, sg(σ) = (−1) (3.5) onde = n´umero de transposi¸c˜oes numa decomposi¸c˜ao de σ. (3.6) A conhecida ‘regra dos sinais’ prova de imediato o seguinte Teorema 8 (B´ezout). Para quaisquer permuta¸c˜oes σ, τ ∈ Sn, sg(στ) = sg(σ)sg(τ). (3.7) Em particular, sg(σ) = sg(σ−1 ). Para aplica¸c˜oes futuras, com argumentos de tipo indutivo, conv´em reparar que podemos escrever a uni˜ao de subconjuntos disjuntos Sn = S1 ∪ S2 ∪ · · · ∪ Sn (3.8) onde Si = {σ : σ(1) = i}. (3.9) Cada um destes subconjuntos, grosso modo, identifica-se com Sn−1. Para deduzir tal identifica¸c˜ao, s´o temos de fixar nova numera¸c˜ao dos objectos, suprimindo o 1 no espa¸co de partida e o i no espa¸co de chegada.
  • 30. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 29 3.1.2 Defini¸c˜ao de determinante Voltemos agora `as matrizes. Define-se determinante de uma matriz quadrada A = [aij] ∈ Mn,n como sendo o n´umero real det A = σ∈Sn sg(σ)a1σ1 a2σ2 · · · anσn . (3.10) A nota¸c˜ao refere σi = σ(i). Vemos que aquele ´e um somat´orio com n! parcelas. De cada linha i apenas se escolhe um aiσi , em cada parcela. A nota¸c˜ao |A| = det A ´e tamb´em usual. Por exemplo, para n = 2, temos a b c d = ad − cb. (3.11) A dedu¸c˜ao da chamada regra de Sarrus e da respectiva regra mnem´onica para o determinante de ordem 3 ´e um bom exerc´ıcio para o leitor: a11 a12 a13 a21 a22 a23 a31 a32 a33 = a11a22a33 + a31a12a23 + a13a21a32 − a13a22a31 − a11a23a32 − a12a21a33. (3.12) 3.1.3 Propriedades do determinante Suponhamos que ´e dada a matriz A tal como acima. Tendo em conta que podemos ordenar os factores em cada parcela de (3.10) pelo ´ındice de coluna, que sg(σ) = sg(σ−1 ) e que o somat´orio sobre os σ ∈ Sn ´e o mesmo que o somat´orio sobre os seus inversos, resulta det A = σ∈Sn sg(σ)aσ−1 1 1aσ−1 2 2 · · · aσ−1 n n = σ−1=τ∈Sn sg(τ)aτ11aτ22 · · · aτnn = τ∈Sn sg(τ)aT 1τ1 aT 2τ2 · · · aT nτn = det AT . (3.13) Prov´amos o Teorema 9. Para qualquer matriz A, tem-se det A = det AT . Esta ´e a primeira das principais propriedades do determinante. Em sua virtude, daqui em diante ‘tudo o que se diga’ sobre as linhas ter´a um equivalente sobre as colunas.
  • 31. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 30 Agora, uma pequena altera¸c˜ao nas linhas de A podemos cometer sem muito perturbar o seu determinante. Sejam 1 ≤ i = j ≤ n. Se trocarmos as linhas i e j de A uma pela outra, aparece-nos a matriz ˜A, e da´ı decorrem as seguintes igualdades: det ˜A = σ∈Sn sg(σ)a1σ1 · · · ajσi · · · aiσj · · · anσn = σ∈Sn sg(σ(ij))a1σ1 · · · ajσj · · · aiσi · · · anσn = sg((ij)) σ∈Sn sg(σ)a1σ1 · · · anσn = −det A. (3.14) Em particular, se as linhas i e j forem iguais, ou seja A = ˜A, ent˜ao det A = 0. (3.15) Escrevendo agora A =    a11 · · · a1n ... an1 · · · ann    =      L1 L2 ... Ln      (3.16) e logo det A = det (L1, . . . , Ln), (3.17) tem-se que o determinante ´e uma aplica¸c˜ao multilinear nas linhas (e nas colunas). Com efeito, para qualquer´ındice i, det ´e linear na linha i quando se fixam as outras vari´aveis todas, ou seja, para quaisquer linhas Lj, j = 1, . . . , n, e ˜L e quaisquer λ, µ ∈ R, det verifica det (L1, . . . , λLi + µ˜L, . . . , Ln) = λ det (L1, . . . , Li, . . . , Ln) + µ det (L1, . . . , ˜L, . . . , Ln). (3.18) Compare-se esta linearidade1 com aquela descrita em (2.36). Demostremos (3.18). Suponhamos que a linha ˜L = (˜a1, . . . , ˜an). Como a linha i da matriz do lado esquerdo ´e igual a (λai1 + µ˜a1, . . . , λain + µ˜an), no c´alculo do determinante vem σ∈Sn sg(σ)a1σ1 · · · (λaiσi + µ˜aσi ) · · · anσn = λ σ∈Sn sg(σ)a1σ1 · · · aiσi · · · anσn + µ σ∈Sn sg(σ)a1σ1 · · · ˜aσi · · · anσn . (3.19) 1 O conceito de aplica¸c˜ao linear ou de aplica¸c˜ao multilinear ser´a formalizado no cap´ıtulo 4.
  • 32. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 31 Us´amos apenas as propriedades de distributividade e comutatividade de R. A express˜ao a que se chegou ´e claramente aquela do lado direito de (3.18), como quer´ıamos. Vejamos um exemplo de aplica¸c˜ao (como na teoria dos polin´omios em v´arias vari´aveis): x2 1 x1x2 0 x1x3 x2 2x3 x3x4 x1x4 x2 2 0 = x2 1x2x3 1 1 0 1 x2 x4 x4 x2 0 = = x2 1x2x3 1 0 0 1 x2 x4 x4 x2 0 + x2 1x2x3 0 1 0 1 x2 x4 x4 x2 0 = = x2 1x2x3(−x2x4 + x2 4) = x2 1x2x3x4(x4 − x2). (3.20) Para finalizar, reescrevendo (3.14) na nota¸c˜ao anterior, verificou-se que o deter- minante ´e uma aplica¸c˜ao multilinear alternada ou anti-sim´etrica: det (L1, . . . , Li, . . . , Lj, . . . , Ln) = = − det (L1, . . . , Lj, . . . , Li, . . . , Ln). (3.21) Tamb´em se pode escrever (3.18) em dois passos. O respeito pela multiplica¸c˜ao de uma linha por um escalar: det (L1, . . . , λLi, . . . , Ln) = λ det (L1, . . . , Li, . . . , Ln) (3.22) e o respeito pela soma de duas linhas det (L1, . . . , Li + ˜L, . . . , Ln) = det (L1, . . . , Li, . . . , Ln) + det (L1, . . . , ˜L, . . . , Ln) (3.23) ∀Li, ˜L ∈ Rn , λ ∈ R. 3.1.4 C´alculo de determinantes Pela defini¸c˜ao, ´e trivial provar que t11 t12 t13 · · · t1n 0 t22 t23 t2n 0 0 t33 · · · t3n 0 0 ... 0 0 0 tnn = t11t22 · · · tnn. (3.24) E se a matriz dada for triangular inferior, o resultado ´e an´alogo. Agora, o processo de condensa¸c˜ao de uma qualquer matriz A ∈ Mnn conduz-nos a uma matriz triangular. Observamos ent˜ao que h´a uma forma pr´atica de calcular determinantes, tendo em conta as regras:
  • 33. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 32 • se trocarmos duas linhas (ou colunas) diferentes, o determinante muda de sinal • se substituirmos uma linha por ela mesma adicionada de um m´ultiplo de outra linha, o determinante n˜ao se altera • se substituirmos uma coluna por ela mesma adicionada de um m´ultiplo de outra coluna, o determinante n˜ao se altera. Por exemplo, 1 2 3 4 0 1 −3 5 −1 3 −1 7 3 2 5 4 = 1 2 3 4 0 1 −3 5 0 5 2 11 0 −4 −4 −8 = −4 1 −3 5 5 2 11 1 1 2 = = −4 1 −3 5 0 17 −14 0 4 −3 = −4 3 −14 1 −3 = −20. (3.25) A segunda igualdade resulta de apenas valerem σ ∈ S4 tais que σ(1) = 1. Na quarta acontece o mesmo. Teorema 10. Uma qualquer matriz A ´e invert´ıvel sse det A = 0. De podermos usar a condensa¸c˜ao sobre uma dada matriz para a levar a outra na forma triangular, sem alterar o seu determinante ou caracter´ıstica, resulta que se pode supˆor desde j´a que A ´e triangular. Ora, algum dos ajj, j = 1, . . . , n da matriz triangular (3.24) ´e nulo, ou seja, r(A) < n, sse det A = 0. Invocando o teorema 6, vˆe-se que dele decorre o teorema anterior. 3.1.5 Regra do produto Verificaremos primeiro que aplica¸c˜oes multilineares2 alternadas f : Rn × · · · × Rn −→ R (v1, . . . , vn) −→ f(v1, . . . , vn), (3.26) tais como o determinante sobre as linhas ou colunas de uma matriz, existe essen- cialmente uma. Para prov´a-lo necessitamos da base can´onica de Rn , isto ´e, o conjunto de n vectores ei = (0, . . . , 0, 1, 0, . . . , 0) (3.27) 2 Recordamos que este conceito pode ser visto no cap´ıtulo 4.
  • 34. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 33 com 1 na i-´esima entrada (cf. (2.50)). Dizendo de outra forma, 1n =      1 0 · · · 0 0 1 0 ... 0 0 0 · · · 1      =    e1 ... en    . (3.28) ´E evidente que qualquer vector de Rn (o mesmo que uma matriz-linha) satisfaz (x1, x2, . . . , xn) = x1e1 + x2e2 + · · · + xnen = n j=1 xjej. (3.29) Eis o resultado que refer´ıamos. Teorema 11. Qualquer aplica¸c˜ao multilinear alternada f sobre n vectores de Rn verifica f(A) = det (A) f(1n). (3.30) Demonstra¸c˜ao. Com efeito, por multilinearidade e por (3.29) f(A) = f(L1, . . . , Ln) = f n j1=1 a1j1 ej1 , n j2=1 a2j2 ej2 , . . . , n jn=1 anjn ejn = n j1,j2,...,jn=1 a1j1 · · · anjn f(ej1 , . . . , ejn ). (3.31) Note-se que, por hip´otese de f ser alternada, tal como em (3.15), resulta f(ej1 , . . . , ejn ) = 0 (3.32) no caso em que h´a dois jl iguais, l = 1, . . . , n, e resulta f(ej1 , . . . , ejn ) = sg( 1 · · · n j1 · · · jn ) f(e1, . . . , en) (3.33) no caso em que todos os jl s˜ao diferentes. Continuamos agora o c´alculo inicial. Aparece a´ı ent˜ao apenas o somat´orio sobre as permuta¸c˜oes de 1, . . . , n, ou seja f(A) = σ∈Sn a1σ1 · · · anσn sg(σ) f(e1, . . . , en) = det A f(1n) (3.34) visto que f(e1, . . . , en) = f(1n). Cheg´amos a (3.30), como quer´ıamos demonstrar.
  • 35. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 34 Agora podemos provar um valioso teorema com a regra do produto para os determinantes. Teorema 12. Para quaisquer A, B ∈ Mnn, vem det (AB) = det (A) det (B). (3.35) Em particular, det (A−1 ) = (det A)−1 . Demonstra¸c˜ao. Fixemos B e consideremos a fun¸c˜ao sobre as matrizes A ∈ (Rn )n = Mnn f(A) = det (AB) = |AB| (3.36) com valores reais. ´E trivial verificar que f(A) = f(L1, . . . , Ln) = L1B ... LnB (3.37) e, logo, que f ´e multilinear e alternada: lembrar que (Li +λ˜L)B = LiB+λ˜LB, para cada i e para quaisquer λ, Li, ˜L, e que a pr´opria fun¸c˜ao determinante tem aquelas propriedades. Ent˜ao f est´a nas condi¸c˜oes da hip´otese do teorema 11, donde f(A) = |A| f(1n). Como f(1n) = |1nB| = |B|, a f´ormula anterior lˆe-se |AB| = |A||B|, como quer´ıamos demonstrar. Por outras palavras, o determinante do produto de duas quaisquer matrizes ´e o produto dos determinantes. Por exemplo,    a b c 0 d e 0 0 f       x 0 0 y z 0 w s t    = adfxzt, (3.38) o que se tornou muito f´acil de ver. 3.2 Regra de Laplace e aplica¸c˜oes 3.2.1 Regra de Laplace Suponhamos que ´e dada uma matriz A ∈ Mnn da qual queremos calcular o deter- minante. Repare-se agora na decomposi¸c˜ao (3.8) e restringa-se o somat´orio sobre Sn na defini¸c˜ao (3.10) de determinante apenas ao subconjunto Sj = {σ ∈ Sn : σ1 = j},
  • 36. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 35 com j ∈ {1, . . . , n} pr´eviamente escolhido. Uma vez que σ1 = j est´a fixo, obtemos σ∈Sj sg(σ)a1σ1 · · · anσn = = (−1)j−1 a1j σ∈Sj sg( 1 · · · j · · · n σ2 · · · j · · · σn )a2σ2 · · · anσn = (−1)j−1 a1j|A(1,j)|. (3.39) Com efeito, o sinal da permuta¸c˜ao σ ∈ Sj, multiplicado por (−1)j−1 , ´e o da mesma permuta¸c˜ao composta com j −1 trocas de j com σ2, σ3, etc, at´e σj, ou seja, j levado de 1 at´e `a posi¸c˜ao j. Depois ´e imediato constatar que aparece o determinante da matriz A(1,j), como se escreveu, a matriz sem linha 1 nem coluna j. Em geral, define-se A(i,j) =           a11 · · · a1,j−1 a1,j+1 · · · a1n ... ... ... ... ai−1,1 · · · ai−1,j−1 ai−1,j+1 · · · ai−1,n ai+1,1 · · · ai+1,j−1 ai+1,j+1 · · · ai+1,n ... ... ... ... an1 · · · an,j−1 an,j+1 · · · ann           . (3.40) Passando o resultado anterior para um somat´orio sobre Sn = ∪n j=1Sj, vem σ∈Sn = σ∈S1 + · · · + σ∈Sn (3.41) e logo a regra de Laplace na primeira linha |A| = a11|A(1,1)| − a12|A(1,2)|+ + a13|A(1,3)| − · · · + (−1)n−1 a1n|A(1,n)|. (3.42) Dito de outra forma, |A| = j(−1)j−1 a1j|A(1,j)|. Se quisermos fazer o mesmo c´alculo mas a partir de outra linha, s´o temos de puxar essa linha para o 1o lugar de tal forma que tudo o resto permane¸ca na mesma ordem, ou seja, trocando sucessivamente digamos a linha i com a linha i−1, depois, esta, com a linha i − 2, etc, at´e ao primeiro lugar. ´E o mesmo que considerar as matrizes A(i,j) e a alternˆancia do sinal em (−1)i−1 , o que acrescentado ao sinal das parcelas acima vai dar (−1)i−1 (−1)j−1 = (−1)i+j . Assim ficou provado o Teorema 13 (regra de Laplace). Para qualquer ´ındice de linha i, tem-se |A| = n j=1 (−1)i+j aij|A(i,j)|. (3.43)
  • 37. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 36 Esta regra ´e muito pr´atica; permite calcular determinantes recursivamente sobre a ordem n das matrizes. Note-se que tamb´em existe uma regra de Laplace sobre as colunas. ´E simples: na f´ormula (3.43) fazemos o somat´orio em i em vez de j. 3.2.2 A matriz adjunta Se na matriz A da sec¸c˜ao anterior, uma matriz n por n qualquer, substituirmos a linha i pela linha k = i, ent˜ao j´a sabemos que o determinante ´e nulo (tem duas linhas iguais). Pela regra de Laplace aplicada na linha i, obtemos ent˜ao 0 = n j=1 (−1)i+j akj|A(i,j)|. (3.44) Como veremos, o n´umero (−1)i+j |A(i,j)| tem grande importˆancia; designa-se por complemento alg´ebrico de aij. `A matriz adj A que tem entradas (j, i) iguais ao complemento alg´ebrico de aij, ou seja, a matriz transposta da matriz formada pelos complementos alg´ebricos, ou seja, ainda, (adj A)ji = (−1)i+j |A(i,j)|, (3.45) d´a-se o nome de matriz adjunta de A. J´a vimos que: n j=1 aij(adj A)ji = |A|, n j=1 akj(adj A)ji = 0 (3.46) para k = i. Ora isto ´e equivalente a A adj A = |A| 1n. (3.47) Em particular, se A ´e invert´ıvel, ent˜ao A−1 = 1 |A| adj A. (3.48) Eis uma nova solu¸c˜ao para o problema de calcular a inversa de uma matriz. Exemplos: 1. A f´ormula (3.48) permite demonstrar esse facto bel´ıssimo que ´e o de uma matriz de coeficientes inteiros e determinante 1 ter inversa tamb´em com coe- ficientes inteiros. 7 5 11 8 −1 = 8 −5 −11 7 (3.49) ´e um exemplo, calculado pela dita f´ormula.
  • 38. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 37 2. Outro exemplo, com a matriz dada de determinante 56,    −5 2 3 0 1 3 2 4 2    −1 = 1 56            1 3 4 2 − 2 3 4 2 2 3 1 3 − 0 3 2 2 −5 3 2 2 − −5 3 0 3 0 1 2 4 − −5 2 2 4 −5 2 0 1            = 1 56    −10 8 3 6 −16 15 −2 24 −5    (3.50) 3.2.3 Regra de Cramer Suponhamos que temos um sistema de n equa¸c˜oes lineares, independentes, a n inc´ognitas, AX = B. (3.51) Ou seja, de caracter´ıstica n. Logo com A invert´ıvel e logo com uma ´unica solu¸c˜ao. Pelo exposto na sec¸c˜ao 3.2.2, X = A−1 B = 1 |A| (adj A)B = 1 |A| j (−1)i+j |A(j,i)|bj (3.52) ou seja xi = a11 · · · b1 · · · a1n ... ... an1 · · · bn · · · ann |A| (3.53) com B tomando o lugar da coluna i de A. Esta ´e a chamada regra de Cramer para a resolu¸c˜ao de sistemas poss´ıveis determinados. Por exemplo: sendo    x + y + z = 2v 3x − y − z = 2 + v x + y = 3 , (3.54) a matriz ampliada do sistema em x, y, z vem a ser    1 1 1 | 2v 3 −1 −1 | 2 + v 1 1 0 | 3    . (3.55)
  • 39. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 38 Aplicando a regra de Cramer encontramos as solu¸c˜oes x = 1 4 2v 1 1 2 + v −1 −1 3 1 0 = 1 4 2v 1 1 2 + 3v 0 0 3 1 0 = 3v + 2 4 , (3.56) y = 1 4 1 2v 1 3 2 + v −1 1 3 0 = −3v + 10 4 , (3.57) z = 1 4 1 1 2v 3 −1 2 + v 1 1 3 = 1 4 0 0 2v − 3 3 −1 2 + v 1 1 3 = 8v − 12 4 . (3.58)
  • 40. Cap´ıtulo 4 4.1 Espa¸cos vectoriais 4.1.1 Defini¸c˜oes e exemplos Por espa¸co vectorial sobre o corpo R entende-se um grupo abeliano (V, +) no qual est˜ao definidas, adicionalmente, opera¸c˜oes de multiplica¸c˜ao por escalar para cada real α ∈ R, α : V −→ V, v −→ αv, (4.1) de tal modo que α(v1 + v2) = αv1 + αv2 1v = v (α1 + α2)v = α1v + α2v (αβ)v = α(βv) (4.2) ∀v, v1, v2 ∈ V, α, α1, α2, β ∈ R. Aos n´umeros reais chamamos escalares e aos elementos de V vectores. Repare- se que estamos1 a generalizar os conceitos aprendidos em 2.3.1 a prop´osito do espa¸co euclidiano Rn . Exemplos: 1. Rn ou Mnm s˜ao espa¸cos vectoriais sobre R j´a bem conhecidos2 . 2. Para qualquer conjunto X e espa¸co vectorial V temos um novo espa¸co vec- torial V X = {f : X → V }. Este exemplo generaliza outro, referido como exemplo de um anel em 1.2.2. Os vectores s˜ao as fun¸c˜oes e a sua soma e produto por escalar definem-se trivialmente. 1 Dev´ıamos ir mais longe e falar de espa¸cos vectoriais sobre um corpo qualquer. Significaria que no lugar e no papel dos escalares reais ter´ıamos os elementos de um outro corpo unit´ario (cf. sec¸c˜ao 1.2.2). As aplica¸c˜oes s˜ao in´umeras. Por´em, note-se que ocorrem logo fen´omenos peculiares se a chamada caracter´ıstica ou tors˜ao do corpo for n˜ao nula. 2 Observe-se a no¸c˜ao de espa¸co vectorial ser t˜ao simples, por n˜ao requerer a multiplica¸c˜ao de dois vectores `a semelhan¸ca do espa¸co das matrizes.
  • 41. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 40 3. Recordemos C∞ ⊂ · · · ⊂ Ck+1 ⊂ Ck ⊂ · · · C0 ⊂ RI onde Ck ´e o espa¸co de fun¸c˜oes do intervalo I em R, k vezes diferenci´aveis e com derivada de ordem k cont´ınua. Todos estes s˜ao espa¸cos vectoriais sobre R. S˜ao muito grandes... 4. Um subconjunto U de um espa¸co vectorial V tal que ∀u1, u2 ∈ U, λ ∈ R =⇒ u1 + λu2 ∈ U (4.3) diz-se um subespa¸co vectorial de V . Claro que, neste caso, U herda uma estrutura de espa¸co vectorial sobre R. Conceito central na teoria dos espa¸cos vectoriais ´e o seguinte. Dizemos que v ∈ V ´e combina¸c˜ao linear de vectores u1, . . . , um se existem escalares α1, . . . , αm tais que v = i αiui. Note-se que s´o falamos de somas finitas. Dado um subconjunto S ⊂ V , chamamos espa¸co vectorial gerado por S a S = combina¸c˜oes lineares de vectores de S . (4.4) S ´e um subespa¸co vectorial de V . Apresentemos agora a no¸c˜ao de sistema de vectores linearmente independentes (sli). Um conjunto, ou sistema, de vectores B = {uα}α∈I diz-se linearmente independente se qualquer parte finita {u1, . . . , uk} ⊂ B for linearmente indepen- dente no sentido que j´a conhec´ıamos de (2.38), ou seja, no sentido em que nenhum ui, i = 1, . . . , k, ´e combina¸c˜ao linear dos restantes, ou seja, ainda, se, supondo que existem λi ∈ R, λ1u1 + · · · + λkuk = 0 =⇒ λ1 = · · · = λk = 0. (4.5) Em presen¸ca de um sli {uα}α∈I, n˜ao h´a duas formas de escrever a mesma com- bina¸c˜ao linear. Essencialmente, isto vale por v = i αiui = i ˜αiui implicar i(αi − ˜αi)ui = 0. E logo αi − ˜αi = 0. Ou seja αi = ˜αi, ∀i. Diz-se, no caso acima, que ´e uma escrita de forma ´unica. 4.1.2 Bases e dimens˜ao Suponhamos que ´e dado um espa¸co vectorial V sobre R. Um sli (sistema linearmente independente) B diz-se menor ( ) que o sli B se ∀u ∈ B , u ´e combina¸c˜ao linear de vectores de B. (4.6) Um sli B diz-se maximal se for maior que todos os outros: ∀B , B B. A um sli maximal chamamos uma base de V . Dizemos que V tem dimens˜ao finita se V admite uma base finita.
  • 42. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 41 Teorema 14. Se V tem dimens˜ao finita, ent˜ao todas as bases de V s˜ao finitas e tˆem o mesmo n´umero de vectores. Demonstra¸c˜ao. Seja B = {u1, . . . , un} a base finita e B1 outra base qualquer. Ora, qualquer vector u na segunda base ´e combina¸c˜ao linear de vectores da primeira, porque B1 B. Portanto existem sempre escalares λ1, . . . , λn com os quais es- crever u = j λjuj — escrita de forma ´unica. Os vectores de B1 est˜ao assim em correspondˆencia bi´univoca com vectores (λ1, . . . , λn) de Rn . Estes tˆem de ser linear- mente independentes, porque os u ∈ B1 o s˜ao. Mas n˜ao h´a mais do que n vectores linearmente independentes em Rn (cf. exemplo 4 da sec¸c˜ao 2.3.2). Chamamos dimens˜ao de um espa¸co vectorial de dimens˜ao finita V , denotada dim V , ao n´umero comum de vectores de qualquer base de V . Dada uma base B ⊂ V de um espa¸co de dimens˜ao qualquer, tem-se B = V , pois no caso contr´ario entrar´ıamos em contradi¸c˜ao. Assim, uma base de V ´e o mesmo que um sistema de vectores linearmente independente que gera o espa¸co todo. Muito importante ´e observar que, escolhida uma base, cada vector v ∈ V se escreve de forma ´unica como combina¸c˜ao linear dos vectores da base. Exemplos: 1. Os seguintes conjuntos s˜ao subespa¸cos vectoriais dos espa¸cos onde est˜ao con- tidos: i) Ua = {(x, y, z) ∈ R3 : a2 (x + y) + z = 0, 3x + y = 0} verifica (4.3), tem dimens˜ao 1 e uma base {(1, −3, 2a2 )}. ii) W = {A ∈ Mnn : a11 + 3a1n + an−1,1 − ann = 0} tem dimens˜ao n2 − 1. Trata-se do espa¸co de todas as matrizes n por n, sujeitas a uma ´unica equa¸c˜ao linear. iii) O subespa¸co vectorial de Mn,n das matrizes sim´etricas de ordem n tem dimens˜ao igual a n(n + 1)/2 (pense-se na ´area do triˆangulo pois s´o contam as entradas de um lado triangular da matriz). 2. O conjunto Rn[x] = {polin´omios em x de grau ≤ n} ´e um subespa¸co vecto- rial real, de dimens˜ao n + 1, do espa¸co de todos os polin´omios. Este ´ultimo tem dimens˜ao ∞ e ´e por sua vez subespa¸co de C∞ R . Uma base de Rn[x] ´e 1, x, x2 , . . . , xn . 3. Um sistema AX = 0 como em (2.27), portanto um sistema homog´eneo, com A ∈ Mmn e X ∈ Rn , d´a origem a um subespa¸co vectorial: Nuc A = {X ∈ Rn : AX = 0} ´e subespa¸co vectorial devido `a f´ormula (2.36). A sua dimens˜ao ´e n−r(A) por que o sistema resolve a equa¸c˜ao de dependˆencia linear das colunas de A e a caracter´ıstica de linha ´e igual `a caracter´ıstica de coluna.
  • 43. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 42 Repare-se que B B implica B ⊂ B , donde se diz tamb´em que uma base ´e um conjunto minimal de geradores de V . Sob certas condi¸c˜oes da teoria dos conjuntos, pode-se provar que todo o espa¸co vectorial admite uma base. Mesmo os de dimens˜ao ∞. 4.1.3 Soma cartesiana e soma directa Partindo de W, Z dois quaisquer espa¸cos vectoriais, falamos de espa¸co vectorial produto ou de soma cartesiana de W e Z quando fazemos o produto cartesiano W × Z e nele tomamos, para estrutura de espa¸co vectorial, a adi¸c˜ao (w1, z1) + (w2, z2) = (w1 + w2, z1 + z2) (4.7) e multiplica¸c˜ao por escalar λ(w, z) = (λw, λz) (4.8) ∀w, w1, w2 ∈ W, z, z1, z2 ∈ Z, λ ∈ R. ´E f´acil perceber que s˜ao satisfeitas as condi¸c˜oes (4.2). Se W, Z tˆem dimens˜ao finita, a dimens˜ao do espa¸co vectorial produto ´e sempre a soma das dimens˜oes. Exemplo: 1. Rn = R × R · · · × R. Sejam agora dados dois subespa¸cos vectoriais U, V de um mesmo espa¸co vectorial W. Chamamos soma de U e V ao subespa¸co U + V = u + v : u ∈ U, v ∈ V . (4.9) Trata-se de facto de um subespa¸co vectorial, como ´e f´acil provar. Mais ainda U, V ⊂ U + V . ´E evidente, pois u = u + 0, ∀u ∈ U. Outra forma de obter um subespa¸co vectorial ´e pela intersec¸c˜ao U ∩ V (4.10) dos subespa¸cos dados. Com efeito, ´e claro que a soma de vectores e produto por escalar de u, v ∈ U ∩ V est´a tanto em U como em V , ou seja, em U ∩ V . ´E claro que um subespa¸co vectorial U de um espa¸co de dim finita W tem ele pr´oprio dim finita. Basta come¸car num vector = 0 e ir procurando sli cada vez maiores dentro do subespa¸co U at´e obter um sli maximal. O processo ´e finito por estar majorado pela dimens˜ao do espa¸co W. Teorema 15. Se U, V tˆem dimens˜ao finita, ent˜ao dim(U + V ) = dim U + dim V − dim(U ∩ V ). (4.11) Em particular, U + V tem dimens˜ao finita.
  • 44. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 43 Demonstra¸c˜ao. Come¸cemos com uma base {u1, . . . , up} de U ∩V , que prolongamos, como acima, a uma base {u1, . . . , up, up+1, . . . , un} de U. Seja {v1, . . . , vm} uma base de V . Ent˜ao o conjunto {up+1, . . . , un, v1, . . . , vm} ´e um sistema de vectores linearmente independentes, pois se fosse λp+1up+1 + · · · + λnun + α1v1 + · · · + αmvm = 0 ⇐⇒ λp+1up+1 + · · · + λnun = −α1v1 − · · · − αmvm ent˜ao este ´ultimo vector estaria em U ∩ V , pelo que seria combina¸c˜ao linear dos u1 . . . , up. Mas sendo escrito s´o com os ui, com i > p, tem de ser 0. Ent˜ao todos os λi, αj s˜ao 0, como quer´ıamos. ´E tamb´em f´acil verificar que qualquer outro vector de U +V ´e combina¸c˜ao linear daqueles. Ent˜ao est´a provado que {up+1, . . . , un, v1, . . . , vm} ´e uma base. O n´umero de vectores de tal base ´e n − p + m. Finalmente, chamamos soma directa a U + V quando os dois subespa¸cos ver- ificam U ∩ V = {0}. Denota-se por U ⊕ V . A dimens˜ao desta ´e a soma das dimens˜oes. 4.2 Aplica¸c˜oes lineares 4.2.1 Defini¸c˜oes Finalmente formalizamos o conceito j´a utilizado em duas ocasi˜oes: em 2.3.1 como caso particular e em (3.15) a prop´osito da propriedade do determinante de matrizes ser uma aplica¸c˜ao multilinear. S˜ao dados dois espa¸cos vectoriais V e W. Uma fun¸c˜ao f : V → W diz-se uma aplica¸c˜ao linear se f(v + u) = f(v) + f(u) e f(λu) = λf(u) (4.12) ∀u, v ∈ V, λ ∈ R. Assim, uma aplica¸c˜ao linear ´e uma aplica¸c˜ao que preserva as estruturas dos espa¸cos vectoriais em causa. Em particular, tem-se o facto trivial: f(0) = f(0+0) = 0. ´E trivial verificar que a imagem de uma aplica¸c˜ao linear Im f = f(V ) = f(v) : v ∈ V (4.13) ´e um subespa¸co vectorial de W. Com efeito, f(u) + λf(v) = f(u + λv) tamb´em est´a na imagem de f, quaisquer que sejam u, v, λ. Tamb´em, dado um qualquer subespa¸co U ⊂ W, o conjunto imagem rec´ıproca f∗ U = v ∈ V : f(v) ∈ U (4.14)
  • 45. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 44 ´e um subespa¸co vectorial de V . Em particular f∗ {0}, denotado Nuc f = v ∈ V : f(v) = 0 , (4.15) ´e um subespa¸co vectorial de V chamado n´ucleo de f. Deixamos a demonstra¸c˜ao do pr´oximo resultado como um exerc´ıcio. Teorema 16. Seja f : V → W uma aplica¸c˜ao linear entre espa¸cos vectoriais. Ent˜ao: i) f ´e injectiva sse Nuc f = {0}. ii) f ´e injectiva sse f transforma vectores linearmente independentes em vectores linearmente independentes. iii) f ´e sobrejectiva sse o espa¸co gerado por f(B) ´e igual a W, ou seja f(B) = W, para qualquer base B de V . iv) f ´e bijectiva sse transforma uma base de V numa base de W. H´a nomes pr´oprios para f linear e injectiva, sobrejectiva ou bijectiva. Diremos ent˜ao que f ´e, respectivamente, um monomorfismo, um epimorfismo ou um isomorfismo. Se V = W, ent˜ao f : V → V diz-se um endomorfismo. Um isomorfismo endomorfismo diz-se um automorfismo. Prove-se, `a parte, que a inversa de uma aplica¸c˜ao linear bijectiva ´e uma aplica¸c˜ao linear. O conjunto das aplica¸c˜oes lineares de V para W denota-se por L(V, W). ´E trivial mostrar que a soma ou a composi¸c˜ao de duas aplica¸c˜oes lineares ´e uma aplica¸c˜ao linear e que o mesmo acontece com o produto de uma aplica¸c˜ao linear por um escalar. Enfim, prova-se sem dificuldade o Teorema 17. L(V, W) ´e um espa¸co vectorial sobre R. O espa¸co End (V ) := L(V, V ) dos endomorfismos de V ´e um anel e o subconjunto dos automorfismos Aut(V ) = {isomorfismos de V para V } ´e um grupo. Contudo, o resultado n˜ao ´e surpreendente: em dim finita h´a correspondˆencia entre aqueles espa¸cos e, respectivamente, o espa¸co vectorial das matrizes Mnm, o anel das matrizes quadradas Mnn e o grupo das matrizes invert´ıveis. 4.2.2 Representa¸c˜ao matricial Sejam V, W espa¸cos vectoriais reais de dimens˜ao finita n, m, respectivamente. Se- jam B = {v1, . . . , vn}, ˜B = {w1, . . . , wm} bases fixadas em V, W, respectivamente. Sejam X =    x1 ... xn    , B =    b1 ... bn    (4.16)
  • 46. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 45 a matriz dos coeficientes de um qualquer vector v ∈ V e, respectivamente, a matriz dos coeficientes de um vector w0 ∈ W. Ou seja, v = n i=1 xivi = v1 · · · vn    x1 ... xn    , w0 = m j=1 bjwj = ˜B B (4.17) Seja agora f : V → W uma aplica¸c˜ao linear. Denotamos ent˜ao A = M(f, B, ˜B) (4.18) a matriz definida da seguinte forma: como para cada 1 ≤ i ≤ n, o vector f(vi) se escreve de forma ´unica `a custa dos vectores wj, 1 ≤ j ≤ m, existem escalares aji tais que f(vi) = m j=1 ajiwj. (4.19) ´E ´obvio que A = [aji] ∈ Mmn. A esta matriz damos o nome de matriz da aplica¸c˜ao linear f nas bases {vi}, {wj}. Note-se bem que esta representa¸c˜ao depende das bases. Rec´ıprocamente, fixadas as bases, a cada matriz A ∈ Mmn corresponde uma ´unica aplica¸c˜ao linear f. A linearidade, como condi¸c˜ao, determina un´ıvocamente f de tal forma que a sua representa¸c˜ao em matriz ´e a matriz dada. Exemplo: 1. Seja f : R2 → R2[ξ] definida por f(x, y) = 2xξ2 + 3(x + y)ξ + 4x − y. (4.20) Trata-se com efeito de uma aplica¸c˜ao linear entre espa¸cos vectorias (cf. ex- emplo 2 da sec¸c˜ao 4.1.2). Considerando as bases can´onicas daqueles espa¸cos, de um lado B = {(1, 0), (0, 1)}, do outro ˜B = {ξ2 , ξ, 1}, temos f(1, 0) = 2ξ2 + 3ξ + 4, f(0, 1) = 3ξ − 1. (4.21) Donde M(f, B, ˜B) =    2 0 3 3 4 −1    (4.22) ´e a matriz de f nas bases escolhidas. 2. Consideremos a aplica¸c˜ao identidade 1V : V → V . Podemos tomar a mesma base no espa¸co de chegada — ali´as ´e quase sempre assim que fazemos quando
  • 47. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 46 tratamos de endomorfismos de um dado espa¸co. Tem-se logo 1V (vi) = vi, ∀1 ≤ i ≤ n, pelo que a representa¸c˜ao matricial ´e M(1V , B, B) = 1n (4.23) como era de esperar. Prova-se naturalmente, sem dificuldade, que a uma equa¸c˜ao linear f(v) = w0 em v corresponde um e um s´o sistema linear AX = B: f(v) = w0 ⇔ n i=1 xif(vi) = m j=1 bjwj ⇔ ⇔ m j=1 n i=1 xiajiwj = m j=1 bjwj ⇔ ⇔ n i=1 ajixi = bj, ∀j ⇔ AX = B. (4.24) Prova-se ainda que o conjunto solu¸c˜ao Cw0 = {v : f(v) = w0} ´e igual a v0 + Nuc f, onde v0 ´e uma solu¸c˜ao particular, isto ´e, f(v0) = w0. De facto, v ∈ Cw0 sse f(v − v0) = w0 − w0 = 0. Como j´a foi certamente observado no teorema 16, a dimens˜ao da imagem de f est´a relacionada com o maior sli contido na imagem, em W, dos vectores de uma base de V . Ou seja, ´e exactamente a caracter´ıstica da matriz A. Mais ainda, conclui-se que o grau de indetermina¸c˜ao n − r(A) do sistema acima ´e a dimens˜ao do n´ucleo de f. Uma vez que n = n − r(A) + r(A), est´a provado o Teorema 18. dim V = dim Nuc f + dim Im f. ´E um resultado relevante pois n˜ao depende da escolha das bases. Nesta teoria acresce dizer que segue sem demonstra¸c˜ao a identidade M(f + λg, B, ˜B) = M(f, B, ˜B) + λM(g, B, ˜B) (4.25) ∀f, g ∈ L(V, W), λ ∈ R. 4.2.3 Composi¸c˜ao vs produto Sejam V, W, U espa¸cos vectoriais reais de dimens˜ao finita n, m, p, respectivamente. Sejam B = {v1, . . . , vn}, ˜B = {w1, . . . , wm}, B = {u1, . . . , up} bases fixadas em V, W, U, respectivamente. Suponhamos que s˜ao dadas aplica¸c˜oes lineares V f −→ W g −→ U. (4.26)
  • 48. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 47 Uma vez que g◦f tamb´em ´e uma aplica¸c˜ao linear, p˜oe-se a quest˜ao de relacionar as matrizes A = M(f, B, ˜B), B = M(g, ˜B, B ) (4.27) com a matriz C = M(g ◦ f, B, B ). Por defini¸c˜ao, analogamente com (4.19), isto ´e, f(vi) = m j=1 ajiwj, tem-se g(wj) = p k=1 bkjuk, g ◦ f (vi) = p k=1 ckiuk. (4.28) Mas uma vez que g ◦ f (vi) = g m j=1 ajiwj = m j=1 ajig(wj) = = m j=1 p k=1 ajibkjuk = p k=1 m j=1 bkjajiuk (4.29) obt´em-se afinal C = BA. (4.30) Repare-se que A ∈ Mmn, B ∈ Mpm, pelo que o resultado C = BA ∈ Mpn faz pleno sentido. Est´a descoberta a natureza geom´etrica do produto de matrizes. Toda a teoria estudada nos cap´ıtulos anteriores passou a fazer parte de um todo coerente. Recordemos agora a aplica¸c˜ao identidade 1V : V → V e representˆemo-la numa dada base B = {vi} de V como a matriz M(1V , B, B) = 1n. Pela lei demonstrada da ‘composi¸c˜ao vs produto’, deduz-se logo que a matriz da inversa de um isomorfismo f : V → W, nas mesmas bases acima, verifica M(f−1 , ˜B, B) = (M(f, B, ˜B)) −1 . (4.31) Repare-se que se mudarmos para a base B1 do mesmo espa¸co V temos uma matriz quadrada P = M(1V , B, B1) = (M(1V , B1, B))−1 (4.32) (a qual n˜ao tem nada que ser a matriz identidade). Uma tal matriz P chama-se uma matriz de mudan¸ca de base. Vejamos como se transforma em geral a matriz de uma aplica¸c˜ao linear qualquer como a f : V → W inicial. Suponhamos que, al´em da mudan¸ca de bases em V , descrita por P, temos a mudan¸ca de bases ˜B para ˜B1 em W, descrita pela matriz Q = M(1W , ˜B1, ˜B). Sendo A1 = M(f, B1, ˜B1), resulta de se ter f = 1W ◦ f ◦ 1V , de (4.27) e de (4.30) que A = QA1P. (4.33)
  • 49. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 48 Em particular, se f : V → V ´e um endomorfismo e usamos a mesma base dos dois lados, uma mudan¸ca de bases, de ambos os lados, descrita por P, produz o efeito A = P−1 A1P. Exemplos: 1. Consideremos o exemplo 1 da sec¸c˜ao 4.2.2 e, em W = R2[ξ], mudemos da base ˜B = {ξ2 , ξ, 1} para a base ˜B1 = {(ξ + 2)2 , (ξ + 2), 1}. Imediatamente calculamos ξ2 = (ξ + 2)2 − 4(ξ + 2) + 4 ξ = (ξ + 2) − 2 1 = 1 (4.34) pelo que Q = M(1W , ˜B, ˜B1) =    1 0 0 −4 1 0 4 −2 1    . (4.35) Logo M(f, B, ˜B1) = Q    2 0 3 3 4 −1    =    2 0 −5 3 6 −7    . (4.36) Podemos usar este resultado para escrever3 f na nova base: f(x, y) = 2x(ξ + 2)2 + (−5x + 3y)(ξ + 2) + 6x − 7y. (4.37) Lembrar que tamb´em as matrizes, fixadas as bases, determinam un´ıvocamente as aplica¸c˜oes lineares. 2. Como exemplo de aplica¸c˜ao, temos que se pode definir o determinante de um endomorfismo f : V → V . Basta escrever det f = det (M(f, B, B)). (4.38) ´E trivial provar, por (4.32) e (4.33), que (4.38) n˜ao depende da escolha da base. Por exemplo, se f(v) = κv, ent˜ao det f = κn . 4.2.4 Valores e vectores pr´oprios Suponhamos que ´e dado um endomorfismo f : V → V de um espa¸co vectorial V sobre R. Interessa-nos encontrar as direc¸c˜oes em V , socorrendo-nos aqui de uma 3 ´E o desenvolvimento de Taylor do polin´omio em ξ em torno de −2.
  • 50. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 49 linguagem geom´etrica, sobre as quais a imagem de f se expande ou se contrai. Ou seja, interessam as direc¸c˜oes n˜ao nulas u ∈ V tais que f(u) = λ0u (4.39) para algum λ0 ∈ R. Um vector como u chama-se um vector pr´oprio de f asso- ciado ao valor pr´oprio λ0. Assumamos que V tem dimens˜ao finita n e que uma sua base foi pr´eviamente escolhida. ´E claro que a equa¸c˜ao f(u) − λu = 0 tem solu¸c˜oes em u, λ, u = 0, sse o sistema homog´eneo (A − λ1n)X = 0 ´e poss´ıvel indeterminado, quando representa- mos por A a matriz de f (veja-se (4.24)). Escrevendo o polin´omio caracter´ıstico de A, pA(λ) = det (A − λ1n), (4.40) diz´ıamos que o sistema tem solu¸c˜ao (u, λ0) sse λ0 ´e uma ra´ız de pA, ou seja, λ0 ´e valor pr´oprio de A ⇐⇒ pA(λ0) = 0. (4.41) Com efeito, se aquele determinante ´e nulo, a matriz A − λ01n tem caracter´ıstica < n e logo o sistema tem solu¸c˜oes u ∈ V n˜ao nulas. E rec´ıprocamente. Prova-se, reflectindo um pouco sobre as defini¸c˜oes, que pA ´e de facto um polin´omio em λ, que o seu grau ´e n, que o coeficiente do termo λn ´e (−1)n e que o termo in- dependente ´e |A|. Exemplo: 1. Seja f(x, y) = (2x, 3x − y) de R2 para si mesmo. A sua matriz na base can´onica (1, 0), (0, 1) e o respectivo polin´omio caracter´ıstico s˜ao A = 2 0 3 −1 , pA = 2 − λ 0 3 −1 − λ = (λ − 2)(λ + 1). (4.42) Ent˜ao os valores pr´oprios s˜ao 2 e −1. Os vectores pr´oprios associados resultam de resolver, por exemplo, f(x, y) = 2(x, y). Isto ´e equivalente a (2x, 3x−y)− 2(x, y) = 0, ou ainda x = y. Segue portanto que os vectores em U2 = {(y, y) : y ∈ R} = (1, 1) s˜ao associados ao valor pr´oprio 2. Fazendo o mesmo para −1, vˆe-se logo que o respectivo subespa¸co pr´oprio ´e U−1 = (0, 1) . Dissemos bem no exemplo anterior. Prova-se sem dificuldade que o subespa¸co pr´oprio de V associado ao valor pr´oprio λ0 de f, Uλ0 = u ∈ V : f(u) = λ0u , (4.43) ´e um subespa¸co vectorial. A sua dimens˜ao ´e a multiplicidade geom´etrica de λ0. Esta distingue-se da multiplicidade alg´ebrica de λ0, que ´e a multiplicidade do valor pr´oprio λ0 como ra´ız de pA.
  • 51. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 50 H´a, no m´aximo, tantas direc¸c˜oes pr´oprias linearmente independentes dentro de Uλ0 quanto a multiplicidade alg´ebrica de λ0. Ou seja, m.g. λ0 ≤ m.a. λ0. (4.44) O caso da matriz 3 3 0 3 mostra-nos o problema que est´a em procurar uma base de vectores pr´oprios. No exemplo vertente, de valor pr´oprio 3, 1 = m.g. 3 ≤ m.a. 3 = 2. Seguramente para valores pr´oprios distintos h´a independˆencia linear, como diz o Teorema 19. Vectores pr´oprios u1, . . . , uk ∈ V de uma aplica¸c˜ao linear f associ- ados a valores pr´oprios distintos λ1, . . . , λk, respectivamente, formam um sistema de vectores linearmente independente. Demonstra¸c˜ao. Por indu¸c˜ao em k. Sendo o resultado claro para k = 1, admitamo- lo como v´alido para k e provˆemo-lo para k + 1. Podemos j´a supˆor λk+1 = 0. Suponhamos, por absurdo, que existem escalares α1, . . . , αk tais que uk+1 = α1u1 + · · · + αkuk. Aplicando ent˜ao f de ambos os lados temos, por defini¸c˜ao e por linearidade, λk+1uk+1 = λ1α1u1 + · · · + λkαkuk. Ou seja, igualando a uk+1, temos α1u1 + · · · + αkuk = λ1α1 λk+1 u1 + · · · + λkαk λk+1 uk. Agora, para vectores linearmente independentes, h´a unicidade da escrita de uma combina¸c˜ao linear. Usando a hip´otese de indu¸c˜ao, s´o podemos ter ent˜ao λi λk+1 = 1, ∀1 ≤ i ≤ k. Mas isto contradiz o facto de os λi serem todos distintos. Outra forma de enunciar o teorema ´e simplesmente dizer que os diferentes sube- spa¸cos vectoriais pr´oprios Uλ1 ⊕ · · · ⊕ Uλk (4.45) est˜ao em soma directa. 4.2.5 Matrizes semelhantes Duas matrizes quadradas A, A1 de ordem n dizem-se semelhantes se existe uma matriz invert´ıvel P de ordem n tal que A1 = PAP−1 . (4.46)
  • 52. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 51 Trata-se de uma rela¸c˜ao de equivalˆencia entre matrizes, cf. 1.1.2. Por exemplo, a propriedade de transitividade resulta de A = PA1P−1 & A1 = QA2Q−1 (4.47) implicar A = PQA2Q−1 P−1 = (PQ)A2(PQ)−1 . (4.48) A reflexividade e simetria s˜ao ainda mais simples de ver. J´a vimos que s˜ao semelhantes as v´arias matrizes M(f, B, B) de um endomorfismo f representadas nas diferentes bases B de um mesmo espa¸co vectorial. Pela mesma raz˜ao de representarem endomorfismos e de os vectores pr´oprios destes serem independentes da base fixada, o polin´omio caracter´ıstico de matrizes semelhantes n˜ao se altera: pA(λ) = pA1 (λ). (4.49) Mas pode e deve-se verificar este facto directamente da defini¸c˜ao de pA1 . Uma matriz diz-se diagonaliz´avel se for semelhante a uma matriz diagonal. Podemos agora afirmar sint´eticamente que um endomorfismo admite uma base de vectores pr´oprios sse a sua representa¸c˜ao matricial ´e diagonaliz´avel. A melhor aproxima¸c˜ao ao problema de diagonaliza¸c˜ao de uma matriz ´e dada, grosso modo, pelo teorema da forma can´onica de Jordan, que estudaremos mais tarde. Para finalizar, lembramos que h´a invariantes num´ericos da classe de equivalˆencia por semelhan¸ca de cada matriz. O primeiro, j´a visto no exemplo 2 de 4.2.3, ´e o determinante. O mesmo se passa com o tra¸co de uma matriz. Chamamos tra¸co de A `a soma das entradas da diagonal principal. Tr : Mn,n −→ R, Tr A = n i=1 aii (4.50) ´e uma aplica¸c˜ao linear `a qual acresce a propriedade Tr (AB) = Tr (BA) (4.51) para quaisquer matrizes A, B ∈ Mn,n. Donde Tr A1 = Tr (PAP−1 ) = Tr (P−1 PA) = Tr A para matrizes semelhantes.
  • 53. Cap´ıtulo 5 5.1 Geometria do Espa¸co Euclidiano 5.1.1 Produto interno euclidiano No espa¸co euclidiano Rn , os problemas m´etricos, ´etimo de problemas de medi¸c˜ao, s˜ao entendidos como aqueles que envolvem quest˜oes sobre o produto interno euclidiano. Trata-se de um conceito matem´atico que joga o papel da r´egua e do compasso, ou seja, dos instrumentos de medida de distˆancias e ˆangulos. Assim ser´a tamb´em em geral, como veremos mais tarde, em qualquer espa¸co vectorial munido de um dispositivo em tudo semelhante e ainda designado de produto interno. Comecemos pela presente situa¸c˜ao. O produto interno euclidiano consiste na fun¸c˜ao1 Rn × Rn −→ R, (u, v) −→ u, v = n i=1 xiyi (5.1) onde se admite u = (x1, . . . , xn), v = (y1, . . . , yn). ´E imediato constatar que o produto interno ´e uma aplica¸c˜ao bilinear, ou seja, lin- ear em u quando se fixa v e vice-versa. Basta ali´as verific´a-lo de um lado, porque tem a propriedade adicional de ser sim´etrico. Assim, ∀u, u1, u2, v, v1, v2 ∈ Rn , λ, µ ∈ R, u1 + λu2, v1 + µv2 = u1, v1 + µv2 + λ u2, v1 + µv2 = = u1, v1 + µ u1, v2 + λ u2, v1 + λµ u2, v2 , u, v = v, u . (5.2) Verifica-se tamb´em que u, u ≥ 0, com igualdade sse u = 0. Posto isto, pode-se definir a norma de um vector, associada ao produto interno euclidiano, como sendo u = u, u = x2 1 + · · · + x2 n. (5.3) 1 Roga-se ao leitor o cuidado de n˜ao confundir os parˆenteses do p.i. com os de subespa¸co gerado.
  • 54. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 53 O leitor, numa primeira abordagem, poder´a aqui reconhecer formalmente o teorema de Pit´agoras. O produto interno euclidiano respeita mesmo a decomposi¸c˜ao de Rn como soma directa Rn1 ⊕ Rn2 , onde n = n1 + n2, de espa¸cos com produto interno. ´E imediato provar pela defini¸c˜ao, em sentido dos ´ındices f´acil de entender, que se tem u, v n = u1, v1 n1 + u2, v2 n2 (5.4) onde u = u1 + u2 e v = v1 + v2 representa a decomposi¸c˜ao, ´unica, na soma directa. Daqui segue de facto o teorema de Pit´agoras, mas vˆe-lo-emos adiante noutra forma, mais geral. Como exemplo a destacar, calculemos o produto interno de alguns pares de vectores em Rn . Seja ei = (0, . . . , 0, 1, 0, . . . , 0), i = 1, . . . , n, a base can´onica; ent˜ao ei, ei = 02 + · · · + 02 + 12 + 02 + · · · + 02 = 1 ei, ej = 02 + · · · + 0.1 + · · · + 1.0 + · · · + 02 = 0 (5.5) para i = j. A norma euclidiana obedece `a desigualdade de Cauchy | u, v | ≤ u v , com igualdade sse u, v s˜ao colineares. (5.6) A demonstra¸c˜ao pode ser feita por indu¸c˜ao ou pela an´alise do bin´omio descriminante da par´abola u+λv, u+λv em λ, a qual como j´a vimos est´a sempre acima do eixo dos λ’s. Repare-se agora nas propriedades, f´aceis de provar, para todos os vectores e escalares, λu = |λ| u , u + v ≤ u + v . (5.7) A segunda chama-se desigualdade triangular. A desigualdade de Cauchy permite definir o ˆangulo entre dois vectores (u, v) = arccos u, v u v (5.8) com a determina¸c˜ao de arccos, e.g., entre 0 e π. 5.1.2 Ortogonalidade Seja U ⊂ Rn um subconjunto qualquer, n˜ao vazio. Define-se o ortogonal de U como o subconjunto U⊥ = v ∈ Rn : u, v = 0, ∀u ∈ U . (5.9) Tem-se que U⊥ ´e sempre um subespa¸co vectorial.
  • 55. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 54 Por linearidade, ´e evidente que U⊥ aparece como espa¸co solu¸c˜ao do sistema homog´eneo em v = (x1, . . . , xn) de, digamos, k equa¸c˜oes lineares: u1, v = 0, u2, v = 0, . . . , uk, v = 0 (5.10) onde u1, . . . , uk ´e um sistema de vectores linearmente independente maximal dentro de U, ou seja, uma base de U (subespa¸co gerado por U). Logo dim U⊥ = n − k. Como U⊥ ∩ U = {0}, est´a provado o Teorema 20. Para qualquer subconjunto U do espa¸co euclidiano, temos a decom- posi¸c˜ao em soma directa Rn = U⊥ ⊕ U . (5.11) Em particular, dim U⊥ = n − dim U . Seja V um subespa¸co vectorial; de modo que Rn = V ⊕ V ⊥ . Podemos definir aplica¸c˜oes lineares π : Rn → V e π⊥ : Rn → V ⊥ dadas pela decomposi¸c˜ao ´unica, ∀w ∈ Rn , w = w1 + w2 com w1 ∈ V, w2 ∈ V ⊥ : escrevemos ent˜ao π(w) = w1, π⊥ (w) = w2. Tˆem-se ent˜ao as rela¸c˜oes: 1Rn = π + π⊥ , π ◦ π⊥ = 0, π⊥ ◦ π = 0, π ◦ π = π π⊥ ◦ π⊥ = π⊥ , ker π = V ⊥ ker π⊥ = V. (5.12) π e π⊥ s˜ao de facto lineares e chamam-se projec¸c˜oes ortogonais. Repare-se que a sucess˜ao de aplica¸c˜oes lineares 0 −→ V ⊥ ι −→ Rn π −→ V −→ 0 (5.13) com ι a aplica¸c˜ao de inclus˜ao, ι(w) = w, verifica em cada espa¸co que a imagem da aplica¸c˜ao anterior ´e igual ao n´ucleo da seguinte. ´E claro que {0}⊥ = Rn , Rn⊥ = {0}. Mais cuidado ´e preciso ter em verificar que (U⊥ )⊥ = U . (5.14) Em particular, para um subespa¸co vectorial V ⊂ Rn , tem-se (V ⊥ )⊥ = V . (´E pela dedu¸c˜ao da dimens˜ao, vista no teorema acima, que se afirma a inclus˜ao do ortogonal do ortogonal em V .) Por exemplo em R2 , o ortogonal ao vector (a, b), suposto = 0, ´e a recta gerada por (−b, a). Em R3 , o ortogonal a (a, b, c), suposto = 0, ´e o plano (dim 2) gerado pelo sistema de vectores linearmente dependente (−b, a, 0), (−c, 0, a), (0, c, −b). Com efeito, todos os trˆes vectores s˜ao ortogonais a (a, b, c), como se vˆe por exemplo no caso do primeiro, (−b, a, 0), (a, b, c) = −ba + ab + 0c = 0, e tem-se a combina¸c˜ao linear −c(−b, a, 0)+b(−c, 0, a)+a(0, c, −b) = 0, donde apenas dois em trˆes daqueles vectores s˜ao linearmente independentes.
  • 56. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 55 Escrevemos agora duas identidades cuja verifica¸c˜ao ´e um exerc´ıcio. Primeiro, a do paralelogramo u + v 2 + u − v 2 = 2 u 2 + 2 v 2 (5.15) e, segundo, a identidade de Pit´agoras generalizada: se u ⊥ v, ou seja, u, v = 0, ent˜ao u + v 2 = u 2 + v 2 . (5.16) Muitos problemas surgem em geometria euclidiana dos subespa¸cos de Rn para os quais certas bases s˜ao mais indicadas que outras. Dizemos, para come¸car, que um vector u ´e unit´ario ou normado se u = 1. Define-se base ortonormada como uma base {u1, . . . , un} do espa¸co euclidiano formada de vectores unit´arios e ortogonais entre si. Ou seja, uα, uβ = δαβ = 1 se α = β 0 se α = β (5.17) Os δαβ s˜ao chamados de s´ımbolos de Kronecker e correspondem `as entradas da matriz 1n. Exemplos: 1. A c´elebre base can´onica de Rn ´e uma base ortonormada, cf. (5.5). 2. Seja U o subespa¸co vectorial de R4 gerado por u1 = (1, 2, 3, 0) e u2 = (2, 1, 4, −1). Portanto U = {λ1u1 + λ2u2 : λ1, λ2 ∈ R}. ´E f´acil ver que os dois geradores s˜ao linearmente independentes, ie. formam uma base de U. A projec¸c˜ao de u2 sobre a recta ortogonal a u1 dentro de U ´e u2 = u2 − v onde v = u1, u2 u1 u1 2 . Com efeito, u1, u2 = u1, u2 − u1, u2 u1, u1 u1 2 = 0 e, por outro lado, u2 = u2 + v com v sobre o eixo u1. Ent˜ao ˜u1 = u1 u1 = 1 √ 14 (1, 2, 3, 0) e ˜u2 = u2 u2 = 1 √ 182 (6, −9, 4, −7) (5.18) formam outra base de U, desta feita uma base ortonormada: ˜ui, ˜uj = δij, i, j = 1, 2. Agora, U⊥ ´e dado pelos vectores (x, y, z, w) solu¸c˜ao de x + 2y + 3z = 0 2x + y + 4z − w = 0 . (5.19)
  • 57. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 56 Uma base ortonormada de U⊥ encontra-se pela mesma t´ecnica: ˜u3 = 1 √ 14 (2, −1, 0, 3), ˜u4 = 1 √ 182 (9, 6, −7, −4). (5.20) Claramente ˜u1, ˜u2, ˜u3, ˜u4 forma uma base ortonormada de R4 = U ⊕ U⊥ . Antes de passar `as aplica¸c˜oes, vejamos ainda dois resultados te´oricos sobre a decomposi¸c˜ao ortogonal. Primeiro, se U1 ⊂ U2 ⊂ Rn s˜ao subespa¸cos vectoriais, ent˜ao ´e claro que U⊥ 2 ⊂ U⊥ 1 . Segundo, para quaisquer dois subespa¸cos vectoriais U, V tem-se (U + V )⊥ = U⊥ ∩ V ⊥ (U ∩ V )⊥ = U⊥ + V ⊥ . (5.21) Basta ver a primeira igualdade, j´a que a segunda decorre desta tomando o ortogonal do ortogonal. Essencialmente o resultado segue ent˜ao de U, V serem subespa¸cos de U + V ⊂ Rn . 5.1.3 Subespa¸cos afins Primeiro uma referˆencia ao conceito de espa¸co afim, que n˜ao definimos. A duali- dade, mas n˜ao ambiguidade, entre pontos e vectores devia-nos levar a pensar num espa¸co de pontos mais abstracto que Rn , onde sempre fizesse sentido adicionar pon- tos com vectores, obtendo novos pontos, e onde se verificassem as mais elementares regras de adi¸c˜ao. Onde a ‘diferen¸ca’ entre dois quaisquer pontos fosse um vector. Um espa¸co afim ´e pois entendido a partir daquela ideia, mas n˜ao privilegiando uma origem dos pontos nem um qualquer ‘referencial’ escolhido, ou seja, ´e um espa¸co abstracto onde sempre que tomamos quaisquer n + 1 pontos em posi¸c˜ao geral estes definem uma identifica¸c˜ao com Rn e onde, ao mudarmos de um ‘referencial’ para outro, damos lugar a um isomorfismo (afim) do espa¸co euclidiano. Entenda-se por agora a quest˜ao da invariˆancia de referencial, sustentada pela chamada geometria afim, numa forma ideal como a da pr´opria invariˆancia dos con- ceitos fundamentais da geometria. Adiada essa quest˜ao, continuaremos a trabalhar apenas com o espa¸co euclidiano. Sabemos que os subespa¸cos vectoriais de Rn passam todos por (0, . . . , 0). Para descrever subconjuntos paralelos a estes s´o temos de lhes adicionar um ponto. Chamamos subespa¸co afim a um subconjunto de Rn do tipo F = P0 + U, (5.22) com P0 um ponto qualquer de Rn e U um subespa¸co vectorial de Rn . Note-se que o mesmo subespa¸co afim F pode ser descrito por F = P0 + U com P0 outro ponto. Basta que o vector P0 − P0 perten¸ca a U.
  • 58. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 57 O subespa¸co vectorial U chama-se subespa¸co associado ao subespa¸co afim F. Tamb´em se diz de U ser a direc¸c˜ao do subespa¸co afim. Referimo-nos `a dimens˜ao de F como sendo a dimens˜ao de U. Se dim U = 1, ent˜ao F diz-se uma recta; se dim U = 2, F diz-se um plano. E se dim U = n − 1, ent˜ao dizemos que F ´e um hiper-plano. Sendo F0 = P0 + U0, F1 = P1 + U1 dois subespa¸cos afins de direc¸c˜oes U0, U1, a sua intersec¸c˜ao, se n˜ao for vazia, ´e um subespa¸co afim de direc¸c˜ao U0 ∩ U1. Diremos que F0 ´e paralelo a F1, e escrevemos F0 F1, se U0 ⊂ U1. Note-se que tal s´o depende dos subespa¸cos vectoriais associados e n˜ao dos pontos P0, P1. ´E claro que se o subespa¸co afim F0 ´e paralelo e intersecta F1, ent˜ao est´a contido em F1. E rec´ıprocamente. Dois subespa¸cos afins dizem-se obl´ıquos se os respectivos subespa¸cos vectoriais associados tˆem intersec¸c˜ao trivial. Ser´a ´util arranjar crit´erios para dizer quando dois subespa¸cos afins se encontram. Neste sentido temos o Teorema 21. Sejam E, F0, F1 trˆes subespa¸cos afins associados, respectivamente, aos subespa¸cos vectoriais E, U0, U1. Suponhamos que F0, F1 est˜ao contidos em E e que dim(U0 + U1) ≥ dim E. Ent˜ao existe pelo menos um ponto na intersec¸c˜ao, ou seja, F0 ∩ F1 = ∅. (5.23) Demonstra¸c˜ao. Sejam Pi ∈ Fi, i = 0, 1, quaisquer. Ent˜ao P1 −P0 ∈ E pois P0, P1 ∈ E. Por U0, U1 ⊂ E e pela hip´otese sobre a dimens˜ao, resulta que U0 + U1 = E. existem u0 ∈ U0, u1 ∈ U1 tais que P1 −P0 = u0 +u1; daqui vem P1 −u1 = P0 +u0 ∈ F0 ∩ F1 como quer´ıamos demonstrar. Dito de outro modo, se F0 = P0 + U0 est´a contido em F1 + U0 = P1 + U1 + U0, ent˜ao F0 ∩ F1 = ∅. Como j´a se referiu acima, a dimens˜ao da intersec¸c˜ao ´e dim U0 ∩ U1. 5.1.4 Problemas m´etricos em subespa¸cos afins Voltemos agora aos problemas m´etricos. Dado um subespa¸co afim F = P0 +U, poderemos referir um subespa¸co afim or- togonal ao subespa¸co afim dado como um qualquer subespa¸co afim cujo subespa¸co vectorial associado ´e o ortogonal de U. Por cada ponto do espa¸co passa um ´unico subespa¸co afim ortogonal ao primeiro. Agora, tendo em conta que U + U⊥ = Rn e que U ∩ U⊥ = {0} (est˜ao em soma directa), dado um subespa¸co afim F de direc¸c˜ao U e dado um ponto P qualquer, vemos pelo teorema 21 que P + U⊥ intersecta F num ´unico ponto Q0. A Q0 d´a-se o nome de p´e da perpendicular a F passando por P.
  • 59. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 58 P P Q A B 1 2 F’ F 2 2 1 F Figura 5.1: A ortogonal comum. Chamamos distˆancia entre dois subconjuntos A, B de Rn ao valor dist(A, B) = inf P ∈A, P ∈B P − P (5.24) (repare-se que o ´ınfimo existe pelo nosso conhecimento dos n´umeros reais e por a norma ser sempre ≥ 0). A distˆancia entre dois conjuntos ´e, assim, o ´ınfimo das distˆancias entre pares de pontos, um de A outro de B. ´E evidente que a distˆancia entre um ponto P ∈ Rn e um subespa¸co afim F tem a seguinte express˜ao: dist(P, F) = P − Q0 com Q0 um ponto em F tal que P − Q0 ⊥ F. (5.25) Q0 ´e precisamente o p´e da perpendicular a F passando por P. A demonstra¸c˜ao deste facto resulta da aplica¸c˜ao do teorema de Pit´agoras no triˆangulo P, Q0, Q onde Q ´e outro ponto qualquer de F. O seguinte teorema generaliza o resultado anterior. Teorema 22. Para quaisquer dois subespa¸cos afins F1, F2 do espa¸co euclidiano, existem sempre A ∈ F1 e B ∈ F2 tais que dist(F1, F2) = A − B . Se F1, F2 s˜ao obl´ıquos, ent˜ao A e B s˜ao ´unicos. Demonstra¸c˜ao. (Ver figura 5.1) Sejam U1, U2 subespa¸cos vectoriais e P1, P2 pontos quaisquer, tais que Fi = Pi + Ui, i = 1, 2. Seja E = F1 + U2 = P1 + (U1 + U2). Encontremos Q = p´e da perpendicular a E passando por P2. Seja F2 = Q + U2. Como Q ∈ E, temos E ⊇ F1, F2. Seja ent˜ao A ∈ F1 ∩ F2 um ponto encontrado pelo teorema 21. Finalmente chamemos B = A + P2 − Q. Verifica-se facilmente
  • 60. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 59 que B ∈ F2. E ainda A − B = Q − P2 ⊥ F1, F2, cf. (5.21). Agora se Xi ∈ Fi, i = 1, 2, ent˜ao X1 − X2 2 = X1 − A + A − B + B − X2 2 = X1 − A 2 + A − B 2 + B − X2 2 donde o´ınfimo destas normas ao quadrado ´e A−B 2 . Uma vez que a ra´ız quadrada ´e uma fun¸c˜ao crescente, tem-se dist(F1, F2) = A − B . Vejamos agora a unicidade. Suponhamos U1 ∩ U2 = {0} e escolhamos P2 qualquer em lugar de P2. Seja Q o respectivo p´e da perpendicular a E. Ent˜ao Q − Q ∈ U2 e logo F2 ´e ´unico. Ent˜ao A ´e ´unico e logo B tamb´em. A distˆancia entre dois subespa¸cos afins tais que o primeiro ´e paralelo ao segundo, ´e a distˆancia entre um ponto qualquer do primeiro subespa¸co afim e o segundo subespa¸co afim: F1 F2 =⇒ dist(F1, F2) = dist(A, F2) (5.26) com algum A ∈ F1. Com efeito, se B ´e o p´e da perpendicular a F2 passando por A e se A ∈ F1 ´e outro ponto qualquer, como A, ent˜ao o p´e da perpendicular a F2 passando por A ´e o ponto B = B + A − A. Por ser F1 paralelo a F2, tem-se de A − A no subespa¸co associado a F2. 5.2 Geometria de R3 5.2.1 Equa¸c˜oes de rectas e planos Uma recta2 r = P0 + u de R3 pode ser dada pela sua equa¸c˜ao vectorial P ∈ r ⇔ P = P0 + tu para algum t ∈ R. (5.27) A recta tamb´em se pode escrever, resolvendo a equa¸c˜ao anterior em ordem a t, como a intersec¸c˜ao de dois planos... Supondo P0 = (α1, α2, α3) e u = (a, b, c), ent˜ao P = (x, y, z) estar´a na recta r sse x = α1 + at, y = α2 + bt, z = α3 + ct (5.28) para algum t ∈ R. Donde em geral se poder´a escrever o sistema de equa¸c˜oes axiais da recta como:    bx − ay + aα2 − bα1 = 0 cx − az + aα3 − cα1 = 0 bz − cy + cα2 − bα3 = 0 . (5.29) 2 Em geometria euclidiana ´e usual denotar os planos por letras gregas min´usculas, as rectas por letras latinas min´usculas e os pontos por letras latinas mai´usculas.
  • 61. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 60 Este sistema tem caracter´ıstica ≤ 2, como ´e f´acil provar. Ser´a mesmo 2 se a recta n˜ao degenera num ponto: com efeito, por exemplo, se for b = 0, ent˜ao L2 = −a b L3 + c b L1. Vejamos agora o caso de um plano. Um plano π em R3 aparece sempre como o ortogonal a um vector v = (a, b, c), adicionado de um outro ponto P0. Ou seja π ≡ P0 + v ⊥ . A equa¸c˜ao vectorial do plano ´e pois P ∈ π ⇔ P − P0 ⊥ v. (5.30) Assim, denotando o real d = P0, v , a equa¸c˜ao axial do plano π ´e (x, y, z) ∈ π ⇔ ax + by + cz = d. (5.31) Um resultado cl´assico da geometria euclidiana garante que trˆes pontos definem um e um s´o plano. Na geometria anal´ıtica encontramos problemas pr´aticos como esse e muitos outros, que admitimos o leitor deva saber reconhecer. Exemplos: 1. Sendo dada a recta r pelo sistema de equa¸c˜oes x = 0, y = 2z + 3, procuremos a sua equa¸c˜ao vectorial. Os pontos P0 = (0, 3, 0) e P1 = (0, 1, −1) est˜ao na recta, logo r ≡ P0 + u com u = P1 − P0 = (0, −2, −1). 2. Dado o ponto P0 = (2, 3, 1) e a recta r ≡ (1+3t, 4t, 1−2t), t ∈ R, ser´a que os dois definem um ´unico plano que por eles passa? Qual a sua equa¸c˜ao axial? Bom, P0 n˜ao satisfaz a equa¸c˜ao da recta r, a qual tem direc¸c˜ao u = (3, 4, −2); ent˜ao h´a um s´o plano π que os cont´em: P ∈ π ⇔ P = P0 + s(P1 − P0) + tu, s, t ∈ R (5.32) onde P1 ´e um ponto qualquer na recta. Podemos tomar, por exemplo, P1 = (1, 0, 1), fazendo t = 0, e ent˜ao P1 − P0 ´e linearmente independente de u. O vector v = (a, b, c) que procuramos para a equa¸c˜ao axial do plano satisfaz a condi¸c˜ao de ser ortogonal a P1 − P0 = (−1, −3, 0) e `a direc¸c˜ao da recta r: P1 − P0, v = 0 u, v = 0 ⇔ −a − 3b = 0 3a + 4b − 2c = 0 ⇔ a = −3b 2c = −5b . (5.33) Podemos ent˜ao tomar v = (6, −2, 5) e logo d = P0, v = 12 − 6 + 5 = 11; donde, finalmente, π ≡ 6x − 2y + 5z = 11. 5.2.2 Algumas f´ormulas de distˆancias A distˆancia entre dois pontos P0, P1 ´e claramente a norma de P1 − P0.
  • 62. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 61 A distˆancia entre um ponto P = (ξ1, ξ2, ξ3) e um plano π ≡ ax + by + cz = d ´e dada pela f´ormula dist(P, π) = |aξ1 + bξ2 + cξ3 − d| √ a2 + b2 + c2 . (5.34) Com efeito, sendo Q0 ∈ π o p´e da perpendicular a π passando por P, temos de ter P − Q0 = t(a, b, c) = tu, com t ∈ R a descobrir. Ora, P − Q0, u = t u 2 . Ent˜ao dist(P, π) = P − Q0 = |t| u = 1 u |aξ1 + bξ2 + cξ3 − d|, como quer´ıamos. Dependente da forma como aparecem as equa¸c˜oes, assim se justificar´a a melhor e mais expedita f´ormula. A distˆancia entre um ponto P e uma recta r ≡ P0 + tu, t ∈ R ´e dada por dist(P, r) = P − P0 2 u 2 − u, P − P0 u 2 . (5.35) De novo, sendo Q0 o p´e da perpendicular a r que passa por P, temos Q0 = P0 + tu para algum t e por defini¸c˜ao P −Q0 ⊥ u. Desenvolvendo, obt´em-se (5.35). F´ormula v´alida tamb´em em Rn , note-se. Exemplos: 1. A distˆancia entre o ponto P por exemplo de coordenadas (t, t2 , t3 ), com t ∈ R qualquer, e o plano α de direc¸c˜ao gerada por (2, 3, −2), (1, 0, 1) e que passa por (1,0,0), calcula-se do seguinte modo: a direc¸c˜ao ortogonal a α ´e gerada por (3,-4,-3), como ´e f´acil de ver. Como d = (1, 0, 0), (3, −4, −3) = 3, resulta que α ≡ 3x − 4y − 3z = 3. Ent˜ao a distˆancia dist(P, π) = |3t−4t2−3t3−3| √ 34 . 2. Podemos falar em distˆancias entre rectas e planos em R3 se estes forem par- alelos, cf. (5.26). Por exemplo, entre a recta s dada pelo sistema de equa¸c˜oes 4x − y + z = 2, 2z − 3y = 3 e o plano β ≡ 4z − 6y = 0. Primeiro, s ´e paralela a β porque est´a contida no plano 2z−3y = 3, o qual claramente tem a mesma direc¸c˜ao ortogonal que β. Um ponto na recta ´e, por exemplo, P = (1 4 , −1, 0); ent˜ao dist(s, β) = dist(P, β) = 6 − 3 √ 16 + 24 = 3 2 √ 10 . (5.36) Tamb´em poder´ıamos ser acometidos com problemas de determina¸c˜ao de ˆangulos entre recta e plano, ou entre dois planos. Sendo r ≡ P0 +tu, t ∈ R e α ≡ P −P1 ⊥ v, definimos o ˆangulo entre recta e plano como (r, α) = (u, v). Se β ≡ P − P2 ⊥ w ´e outro plano, podemos definir (α, β) = (v, w) como o ˆangulo entre dois planos. 5.2.3 Pol´ıgonos e poliedros Um segmento de recta de extremidades P0, P1 ´e entendido como o conjunto de pontos (1 − t)P0 + tP1, com 0 ≤ t ≤ 1. Denota-se por P0P1. Aos extremos tamb´em
  • 63. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 62 se d´a o nome de v´ertices. Se P0 = P1, ent˜ao h´a uma ´unica recta que cont´em o segmento de recta; ´e a recta suporte. Um triˆangulo ´e uma uni˜ao de trˆes segmentos descritos por apenas trˆes v´ertices n˜ao colineares. Denota-se por P0P1P2. A partir de segmentos de recta Pi−1Pi, i = 1, . . . , k, denominados arestas ou lados, podemos construir os chamados pol´ıgonos ou linhas poligonais fechadas: P0P1P2 · · · Pk = P0P1 ∪ P1P2 ∪ · · · ∪ Pk−1Pk, (5.37) sem outras repeti¸c˜oes de v´ertices al´em de Pk = P0. O comprimento de um segmento de recta P0P1 ´e a quantidade real L(P0P1) = P1 − P0 . Um quadril´atero ´e entendido como um pol´ıgono de quatro lados, fechado e contido num plano. Um trap´ezio ´e um quadril´atero em que dois dos lados s˜ao paralelos. Um paralelogramo ´e um quadril´atero em que os lados n˜ao adjacentes s˜ao paralelos e tˆem o mesmo comprimento. Um paralelogramo ´e pois descrito em Rn por um v´ertice P0 e dois vectores u, v linearmente independentes, com os quais se constroem os outros v´ertices, a saber P0 + u, P0 + v, P0 + u + v. Vamos denotar uma tal pol´ıgono por (P0, u, v). Um pol´ıgono diz-se regular se for plano, se todos os lados tˆem o mesmo com- primento e se todos os v´ertices formam o mesmo ˆangulo. Por exemplo, o triˆangulo, o quadrado, o pent´agono, o hex´agono, o hept´agono, o oct´ogono, etc s˜ao pol´ıgonos regulares. Estes existem sempre, qualquer que seja o n´umero k de arestas, se k ≥ 3. Sem preocupa¸c˜oes de maior, avancemos agora para a teoria dos poliedros, gen- eralizando a 3 dimens˜oes o conceito de pol´ıgono. Diremos que os poliedros s˜ao as uni˜oes de v´arios pol´ıgonos planos pelas suas arestas, as quais s˜ao coincidentes em pares. Cada um destes pol´ıgonos determina uma face; a geometria3 dos poliedros pode ser bem complicada. Um poliedro diz-se convexo se sempre que tomamos dois pontos em faces diferentes o segmento de recta que os une n˜ao toca nenhuma outra face. Teorema 23 (rela¸c˜ao de Euler). Para qualquer poliedro convexo, verifica-se a rela¸c˜ao, dita de Euler, V − A + F = 2 (5.38) onde V =n´umero de v´ertices, A =n´umero de arestas e F =n´umero de faces. 3 Na realidade, ´e a parte da geometria chamada de topologia do espa¸co euclidiano que n˜ao cabe nestas notas. Ter´ıamos de definir o interior do poliedro. ´E tamb´em no dom´ınio da topologia, a topologia alg´ebrica, que se demonstra cabalmente a rela¸c˜ao de Euler.
  • 64. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 63 Faremos aqui um esbo¸co, muito incompleto, da demonstra¸c˜ao. Argumentos mais profundos encontram-se e.g. em [Aud03]. Mencionamos apenas um racioc´ınio de constru¸c˜ao/por indu¸c˜ao. Aceitemos ent˜ao que o poliedro, s´o porque ´e convexo(!), se decomp˜oe, como um lego, em tetraedros — figura de 4 faces, 4 v´ertices e 6 arestas, verificando 4−6+4 = 2. Agora suponhamos que a f´ormula (5.38) ´e v´alida para um dado poliedro e acrescentemos-lhe um tetraedro junto de uma qualquer face. Esta face desaparece. Ao poliedro acresce ent˜ao um 1 v´ertice, 3 arestas e 2 faces. Como 1 − 3 + 2 = 0, a identidade de Euler n˜ao se altera. Posto isto, diremos que um poliedro ´e regular se todas as faces s˜ao c´opias do mesmo pol´ıgono regular e todos os v´ertices s˜ao c´opia do mesmo v´ertice (c´opia significa isometria, em sentido a precisar noutra sec¸c˜ao). Um s´olido plat´onico ´e um poliedro regular convexo. Teorema 24. Considere-se um poliedro convexo tal que cada face tem o mesmo n´umero s de arestas e de cada v´ertice emanam o mesmo n´umero r de arestas. Ent˜ao (s, r) est´a entre os casos (3, 3), (3, 4), (4, 3), (3, 5) ou (5, 3). Demonstra¸c˜ao. Seguindo a nota¸c˜ao anterior, tem-se Fs = 2A (cada aresta encontra duas faces) e 2A = rV (cada aresta tem dois v´ertices). Da rela¸c˜ao de Euler resulta ent˜ao, substituindo, 2A r − A + 2A s = 2. Ent˜ao 1 r + 1 s = 1 2 + 1 A > 1 2 visto que A > 0. Uma vez que cada face tem pelo menos 3 arestas e cada v´ertice encontra pelo menos 3 faces, vem r, s ≥ 3. Ent˜ao 1 r > 1 2 − 1 s ≥ 1 2 − 1 3 = 1 6 donde r ≤ 5. Fazendo o mesmo para s, d´a-nos s ≤ 5. Vˆe-se bem da primeira desigualdade que os casos simultˆaneamente r, s ∈ {4, 5} n˜ao s˜ao solu¸c˜ao. Al´em de ´unicos a menos da escala, os 5 casos descritos no teorema anterior s˜ao de facto poss´ıveis de construir como poliedros regulares. Pela ordem do enunci- ado do teorema, tratam-se do tetraedro, do cubo (hexaedro), do octaedro, do dodecaedro4 e do icosaedro. Como se vˆe pela demonstra¸c˜ao acima, os naturais r, s determinam V, A, F: r s V A F tetraedro 3 3 4 6 4 cubo 3 4 8 12 6 octaedro 4 3 6 12 8 dodecaedro 3 5 20 30 12 icosaedro 5 3 12 30 20 (5.39) 4 Do grego, dodeca=do+deca=2+10=12. Icosa=20.
  • 65. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 64 Figura 5.2: Os 5 s´olidos plat´onicos.
  • 66. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 65 Mais ainda, os pares (r, s) s˜ao duais no sentido seguinte: dado um poliedro convexo, construimos o seu dual unindo com segmentos de recta os centros das faces. Como um pol´ıgono regular tem tantas arestas quantos v´ertices, o poliedro dual do poliedro dual ´e o poliedro inicial. N˜ao ´e dif´ıcil compreender que no caso dos poliedros regulares convexos, os val- ores de r, s trocam entre si, na troca pelo dual. Assim, o tetraedro coincide com o seu dual, o cubo ´e dual do octaedro e o dodecaedro ´e dual do icosaedro. Tendo em conta o conhecimento comum dos trˆes primeiros s´olidos e a dualidade do icosaedro, restar-nos-´ıa demonstrar a possibilidade honesta de constru¸c˜ao do dodecaedro; remetemos o leitor para [Aud03]. Terminamos aqui esta brev´ıssima incurs˜ao pela geometria cl´assica e combi- nat´oria, esperando ter por esclarecida a classifica¸c˜ao dos s´olidos plat´onicos, tal como podemos ver na figura 5.2. 5.2.4 Comprimentos, ´areas e volumes J´a vimos em que consiste o comprimento de um segmento de recta. O compri- mento de uma linha poligonal = P0P1P2 · · · Pk ´e a quantidade real L( ) = k i=1 Pi − Pi−1 . (5.40) L( ) tamb´em se diz per´ımetro quando a linha ´e fechada: Pk = P0. Interessa-nos agora a no¸c˜ao de ´area de um paralelogramo (P0, u, v), a qual se define como a quantidade real, independente de P0: A(u, v) = u v sen (u, v). (5.41) De (5.3), (5.8) e da igualdade trigonom´etrica sen 2 + cos2 = 1 (que aqui define a pr´opria fun¸c˜ao seno), resulta de imediato A(u, v) = u, u v, v − u, v 2. (5.42) Supondo que estamos no espa¸co euclidiano R2 e supondo que u = (a, b), v = (c, d), designemos por L = u v = a b c d ; ent˜ao daqui vir´a LLT = a2 + b2 ac + bd ac + bd c2 + d2 = u, u u, v u, v v, v . (5.43) Como det(LLT ) = det L det LT = (det L)2 , aplicando a (5.42) descobrimos a f´or- mula A(u, v) = det(LLT ) = | det L | = | det(u, v)| = |ad − bc| (5.44)
  • 67. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 66 ou seja A = | det |. (5.45) Da soma de ´areas de paralelogramos resultam as ´areas de outras superf´ıcies seccionalmente planas. A fun¸c˜ao ´area dever´a ser aditiva5 . Em particular, a ´area de um triˆangulo de arestas u, v tem de valer 1 2 | det(u, v)|. Voltemos a Rn com n ≥ 3. Comecemos por generalizar a no¸c˜ao de paralelo- gramo. Um paralelip´ıpedo ´e um poliedro de 6 faces tal que as faces s˜ao paralelogramos e c´opia umas das outras em planos paralelos, quando n˜ao adjacentes. Um paralelip´ıpedo ´e pois descrito em Rn por um v´ertice P0 e trˆes vectores u, v, w, com os quais se constroem os outros v´ertices, a saber P0 + u, P0 + v, P0 + w, P0 + u + v, P0 + u + w, P0 + v + w, P0 + u + v + w. Vamos denotar um tal poliedro por (P0, u, v, w). Damos agora a no¸c˜ao de volume de um paralelip´ıpedo (P0, u, v, w), o qual se define como a quantidade real, independente de P0: V (u, v, w) = A(u, v) w − Q (5.46) onde Q ´e o p´e da perpendicular passando pela extremidade de w ao plano gerado por u, v. Note-se que, tal como a ´area corresponde ao “comprimento da base vezes a altura”, tamb´em o volume corresponde a “´area da base vezes altura”. Consideremos a matriz G =    u 2 u, v u, w u, v v 2 v, w u, w v, w w 2    . (5.47) Teorema 25. Dado um paralelip´ıpedo (P0, u, v, w) em Rn , o seu volume ´e dado por V (u, v, w) = √ det G. (5.48) Demonstra¸c˜ao. Tem-se Q = λu + µv para certos λ, µ ∈ R. O sistema de equa¸c˜oes w − Q ⊥ u, v traduz-se como w − λu − µv, u = 0 w − λu − µv, v = 0 ⇔ λ u 2 + µ v, u = w, u µ v 2 + λ v, u = w, v . Usamos uma nota¸c˜ao habitual E = u 2 , F = v 2 , G = u, v (n˜ao se confunda com o G do enunciado). Usamos tamb´em ξ = w, u , η = w, v , ζ = w 2 e ainda A2 = EF − G2 . Continuando a resolver o sistema anterior, vem λE + µG = ξ λG + µF = η ⇔ µ = ηE−ξG A2 λ = ξF−ηG A2 . 5 Eis outra no¸c˜ao que escapa ao ˆambito deste curso.
  • 68. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 67 Se fosse A = 0 o sistema u, v seria degenerado, ou seja, u, v seriam linearmente dependentes; mas vˆe-se bem que neste caso o determinante do enunciado tamb´em ´e nulo. Por defini¸c˜ao, Q 2 = λu + µv 2 = λ2 E + 2λµG + µ2 F. Substituindo resulta Q 2 A4 = (−ηG + ξF)2 E + 2(ηE − ξG)(ξF − ηG)G + (ηE − ξG)2 F = η2 G2 E − 2ξηEFG + ξ2 F2 E + 2ξηEFG − 2η2 EG2 −2ξ2 FG2 + 2ξηG3 + η2 E2 F − 2ξηEFG + ξ2 G2 F = η2 (E2 F − EG2 ) + 2ξη(G3 − EFG) + ξ2 (F2 E − FG2 ) = η2 EA2 − 2ξηGA2 + ξ2 FA2 . Tem-se ainda w − Q 2 = w 2 − Q 2 , pelo teorema de Pit´agoras com w na hipotenusa ou lado maior. Donde V 2 = w − Q 2 A2 = w 2 A2 − Q 2 A2 = ζ2 A2 − η2 E + 2ξηG − ξ2 F = ζ2 A2 − ξ(ξF − Gη) + η(ξG − Eη) = E G ξ G F η ξ η ζ Esta ´ultima ´e j´a a igualdade que se procurava. A f´ormula encontrada mostrar´a tamb´em que a no¸c˜ao de volume ´e totalmente sim´etrica em u, v, w, ou seja, tamb´em podemos dizer que V (u, v, w) = V (u, w, v) = V (v, w, u) (5.49) e outras simetrias ´obvias. Vejamos agora a situa¸c˜ao em que n = 3. O volume de um paralelip´ıpedo em dim 3 ´e dado pelo determinante dos trˆes vectores u, v, w que o geram: sendo u = (a11, a12, a13), v = (a21, a22, a23), w = (a31, a32, a33), vem V (u, v, w) = det    a11 a12 a13 a21 a22 a23 a31 a32 a33    . (5.50) Ou seja, V (u, v, w) = | det(u, v, w)|. A demonstra¸c˜ao desta f´ormula ´e an´aloga ao caso da dim 2: pondo L = [aij], de novo se deduz (det L)2 = det G.
  • 69. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 68 Invocando a multilinearidade do determinante, percebemos que o volume ´e uma fun¸c˜ao aditiva6 . Em particular, como um cubo cont´em 6 tetraedros de iguais com- primentos das arestas, podemos concluir que o volume do tetraedro gerado por quaisquer u, v, w ´e Volume(tetraedro(u, v, w)) = 1 6 V (u, v, w). (5.51) Voltemos `a dimens˜ao n qualquer. A express˜ao do volume como um determinante generaliza-se a Rn e mais geralmente a espa¸cos vectoriais orientados com produto interno. 6 Tal como no caso da ´area, este aditiva seria bastante demorado de explicitar. Tem o sentido e a consequˆencia de a fun¸c˜ao volume ser linear sobre a decomposi¸c˜ao dos poliedros em tetraedros, para aqueles que a admitam.
  • 70. Bibliografia [Agu83] F. R. Dias Agudo. Introdu¸c˜ao `a ´algebra linear e geometria anal´ıtica. Livraria Escolar Editora, 1983. [Aud03] M. Audin. Geometry. Universitext. Springer-Verlag Berlin Heidelberg New York, 2003. [Gro83] L. C. Grove. Algebra. Academic Press, 1983. [Mac90] A. Machado. T´opicos de ´Algebra Linear e Multilinear. Textos e Notas 42. Instituto Nacional de Investiga¸c˜ao Cient´ıfica, 1990. [Mon89] A. J. A. Monteiro. ´Algebra linear e geometria anal´ıtica. Associa¸c˜ao dos Estudantes da Faculdade de Ciˆencias de Lisboa, 1989. [Wik] Wikip´edia. www.
  • 71. ´Indice ´area, 65 ˆangulo entre dois planos, 61 entre dois vectores, 53 entre recta e plano, 61 abeliano, 10, 11 alternada, 31 anel, 11 unit´ario, 11 anti-sim´etrica, 31 aplica¸c˜ao, 8 linear, 43 aresta, 62 associativa, 9 automorfismo, 44 base, 40 can´onica, 32 ortonormada, 55 caracter´ıstica, 20 de coluna, 23 de linha, 23 Cauchy desigualdade de –, 53 ciclo, 27 classes de equivalˆencia, 7 coeficientes, 14 coluna, 14 combina¸c˜ao linear, 40 complementar, 6 complemento alg´ebrico, 36 composi¸c˜ao, 8 composta, 8 comprimento, 62, 65 comutam, 16 comutativo, 10, 11 condensa¸c˜ao, 20 conjunto de chegada, 8 de partida, 8 corpo, 12 Cramer regra de –, 37 cubo, 63 desigualdade triangular, 53 determinante, 29 de um endomorfismo, 48 diagonal, 7 diagonal principal, 17 diagonaliz´avel, 51 dimens˜ao, 14, 40, 41, 57 direc¸c˜ao, 57 distˆancia, 58 dodecaedro, 63 elemento neutro, 9 oposto, 9 sim´etrico, 9 endomorfismo, 44 entradas, 14 epimorfismo, 44 escalar, 39 espa¸co afim, 56 cartesiano, 21 euclidiano, 21 vectorial, 39 espa¸co vectorial gerado, 40 produto, 42
  • 72. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 71 soma cartesiana, 42 Euler rela¸c˜ao de –, 62 face, 62 fun¸c˜ao, 8 bijectiva, 8 identidade, 8 injectiva, 8 inversa, 8 sobrejectiva, 8 Gauss m´etodo de –, 20 geometria afim, 56 grau de indetermina¸c˜ao, 21 grupo, 9 permuta¸c˜oes, de, 10, 27 sim´etrico, 10, 27 sub–, 10 hexaedro, 63 hiper-plano, 57 icosaedro, 63 identidade, 16 imagem, 8 imagem rec´ıproca, 43 independˆencia linear, 22 intersec¸c˜ao, 6 inversa, 8 `a direita, 8 `a esquerda, 8 inverso, 9 invert´ıvel, 17 `a direita, 17 `a esquerda, 16 isomorfismo, 44 Kronecker s´ımbolos de –, 55 lado, 62 Laplace regra de –, 35 linearmente dependentes, 22 independentes, 22, 40 linha, 14 linhas poligonais fechadas, 62 m´etodo de Gauss, 20 matriz, 14 adjunta, 36 ampliada, 19 anti-sim´etrica, 17 da aplica¸c˜ao linear, 45 de mudan¸ca de base, 47 diagonal, 16 diagonaliz´avel, 51 identidade, 16 invert´ıvel, 17 ordem, 16 quadrada, 16 sim´etrica, 17 tra¸co de uma –, 51 transposta, 17 triangular inferior, 17 triangular superior, 17 matrizes semelhantes, 50 maximal, 40 menor, 40 monomorfismo, 44 multiplica¸c˜ao de matrizes, 14 por escalar, 39 multiplicidade alg´ebrica, 49 geom´etrica, 49 n´ucleo, 44 norma, 52 normado, 55 objecto, 8 obl´ıquos, 57 octaedro, 63 ordem, 16, 27
  • 73. Albuquerque, Prontu´ario de ´Algebra Linear e Geometria Anal´ıtica 72 ortogonal, 53, 57 p´e da perpendicular, 57 paralelip´ıpedo, 66 paralelo, 57 paralelogramo, 55, 62 pares ordenados, 6 per´ımetro, 65 permuta¸c˜ao, 27 sinal, 28 permutam, 16 pertence, 6 Pit´agoras, 55 plano, 57 equa¸c˜ao axial, 60 equa¸c˜ao vectorial, 60 pol´ıgono, 62 regular, 62 poliedro, 62 convexo, 62 dual, 65 regular, 63 polin´omio caracter´ıstico, 49 produto cartesiano, 6 produto interno euclidiano, 52 projec¸c˜ao ortogonal, 54 quadril´atero, 62 quociente, 12 recta, 57 equa¸c˜ao axial, 59 equa¸c˜ao vectorial, 59 segmento de –, 61 suporte, 62 reflexiva, 7 regra de Cramer, 37 Laplace, 35 na 1a linha, 35 produto, 34 Sarrus, 29 regular pol´ıgono –, 62 rela¸c˜ao, 7 de equivalˆencia, 7 de Euler, 62 resto, 12 reuni˜ao, 6 s´olido plat´onico, 63 s´ımbolos de Kronecker, 55 Sarrus regra de –, 29 segmento de recta, 61 sim´etrico, 10 simetria, 7 sinal, 28 sli, 40 soma directa, 43 subconjunto, 6 subespa¸co afim, 56 associado, 57 ortogonal, 53 pr´oprio, 49 vectorial, 40 vectorial soma, 42 subgrupo, 10 tetraedro, 63 tra¸co, 51 transitiva, 7 transposi¸c˜ao, 27 trap´ezio, 62 triˆangulo, 62 v´ertice, 62 valor, 8 valor pr´oprio, 49 vazio, 6 vector, 21, 39 normado, 55 pr´oprio, 49 unit´ario, 55 volume, 66