Grupos euclideanos

12/04/2010

O principal objetivo desse post é mostrar que os subgrupos fechados de \mathrm{Gl}(n) são localmente homeomorfos às suas álgebras.

Um grupo topológico é um grupo munido de uma topologia tal que as operações de produto e inversão são contínuas. Um grupo euclideano é um grupo topológico tal que, para todo elemento g\in G , existe uma vizinhança V de g\in G tal que V é homeomorfo a um aberto de \mathbb{R}^d (para algum d\in\mathbb{N} ).

Lema 5.1: Seja G um grupo topológico. Segue que G é um grupo euclideano se, e somente se, existe uma vizinhança do elemento neutro que é homeomorfo a um aberto de \mathbb{R} ^d (para algum d\in\mathbb{N} ).


Demonstração: Sejam G um grupo topológico e V uma vizinhança de e\in G (elemento neutro) homeomorfa a um aberto U\subset\mathbb{R}^d . Dado g\in G , tem-se que R_g: G\to G , R_g(h)=g^{-1}h é evidentemente um homeomorfismo.  Temos, então, que R_g^{-1}(V) = gV é uma vizinhança de g e é homeomorfa a V . Logo gV é homeomorfo a U . Isso completa a prova de que, para todo g\in G , existe uma vizinhança gV homeomorfo a um aberto U de um espaço euclideano.


Lema 5.2: Seja G\subset \mathrm{Gl}(n) um grupo de matrizes. Se (Y_k) é uma seqüência em E^{-1}(G) tal que Y_k\to 0 e se (s_k) é uma seqüência de números reais tal que s_{k} Y_k \to X , então X \in \mathfrak{g} .


Demonstração: Dado t \in \mathbb{R} , existe l_{k} \in \mathbb{Z} tal que \displaystyle\left| l_{k} -ts_{k} \right| \leq 1 . Temos então que

\displaystyle\left| l_{k}Y_k -tX \right| = \left| (l_{k}-ts_{k})Y_{k} + t( s_{k}Y_{k}-X) \right|
\displaystyle\leq \left| l_{k}-ts_{k} \right| \left| Y_{k} \right| + \left| t \right| \left| s_{k}Y_{k}-X\right|
\displaystyle\leq \left| Y_{k} \right| + \left| t \right| \left| s_{k}Y_{k}-X\right| .

Por hipótese, temos que \displaystyle Y_{k} \to 0 e \displaystyle\left| s_{k}Y_{k} -X \right| \to 0 . Assim, usando o teorema do confronto, segue que \displaystyle\left| l_{k}Y_k -tX \right| \to 0 , de modo que \displaystyle l_{k}Y_{k} \to tX . Mas \displaystyle E(l_{k}Y{k})=E(Y_{k})^{l_{k}} \in G , então fica claro que \displaystyle l_{k}Y{k} \in E^{-1}(G). Como \displaystyle E^{-1} (G) é fechado, isso implica que \displaystyle tX = \lim l_k Y_k \in E^{-1}(G) . Temos então que \displaystyle tX\in E^{-1}(G) para todo t\in\mathbb{R} . Portanto \displaystyle X\in\mathfrak{g} .


Teorema 5.3: Sejam G\leq \mathrm{Gl}(n) um grupo de matrizes e \mathfrak{g} a sua álgebra. A exponencial E: \mathfrak{g}\to G é um homeomorfismo de uma vizinhança aberta de 0\in\mathfrak{g} numa vizinhança aberta de I\in G .


Demonstração:

Seja \mathfrak {c}\subset\mathfrak{gl}(n) tal que \mathfrak{gl} (n) =\mathfrak {g} \oplus \mathfrak {c} . Para cada X\in\mathfrak{gl}(n) , temos que \displaystyle X = X^{\mathfrak {g}} + X^{\mathfrak {c}} , onde X^{\mathfrak {g}}\in\mathfrak{g} e X^{\mathfrak {c}}\in\mathfrak{c} estão unicamente determinados.

Definimos F: \mathfrak{gl} (n)\to \mathfrak{gl}(n) , onde \displaystyle F(X)=E(X^{\mathfrak {g}})E(X^{\mathfrak {c}} ) .

Temos que, dado X\in\mathfrak{gl} (n) ,

\displaystyle\partial _ X F(0) = F'(0) X = \frac{F(tX)}{dt}| _{t=0} = E(tX^{\mathfrak {g}} )E(tX^{\mathfrak{c}}) =

\displaystyle\left( E(tX^{\mathfrak {g}})'E(tX^{\mathfrak {c}})+E(tX^{\mathfrak{g}})E(tX^{\mathfrak {c}})'\right) \mid _{t=0} =

\displaystyle \left( X^{\mathfrak {g}}E(tX^{\mathfrak {c}})+ \displaystyle X^{\mathfrak {c}} E(tX^{\mathfrak {g}})\right) \mid _{t=0}= X^{\mathfrak {g}}+ X^{\mathfrak {c}} = X .

Como  X\in\mathfrak{gl}(n) foi tomado de forma arbitrária, isso provou que a derivada de F  em 0 é a aplicação identidade id: \mathfrak{gl}(n)\to\mathfrak{gl}(n) .

Pelo teorema da função inversa, segue que existem uma vizinhanças abertas U,V\subset \mathfrak{gl} (n) de 0 tais que E|_U, F|_V são difeomorfismos sobre suas imagens (que são abertas). Logo, tomando W=U\cap V , segue que F_W e E_W são difeomorfismos sobre suas imagens (abertas).

Supõe-se por absurdo que existe g_k\to I , g_k\in G e E^{-1}(g_k)\not\in \mathfrak{g} . Define-se Y_k = F^{-1} (g_k) .

g_k = F(Y_k) = E(Y_k^\mathfrak{g} ) E(Y_k^\mathfrak{c}) .Segue que Y_k^\mathfrak{c}\neq 0 , pois o contrário implicaria

E^{-1}(g_k)=E^{-1}(E(Y_k^\mathfrak{g})) = Y_k^\mathfrak{g}\in\mathfrak{g} (absurdo).

Tem-se que, como g_k, E(Y_k^\mathfrak{g})\in G , segue que

E(Y_k^\mathfrak{c} ) = E(Y_k^\mathfrak{g} )^{-1} g_k\in G .

E isso implica, também, que Y_k^\mathfrak{c}\in E^{-1}(G) .

Como g_k\to I , tem-se que E(Y_k^\mathfrak{c} ) se aproxima de E(-Y_k^\mathfrak{g}) quando k\to\infty , mas é fácil ver que isso implica que Y_k^\mathfrak{c} \to 0 .

Provamos que Y_k^\mathbb{c}\to 0 , Y_k^\mathfrak{c}\neq 0 e Y_k^\mathfrak{c}\neq 0 . Toma-se \displaystyle \frac{Y_k^\mathfrak{c}}{\left| Y_k^\mathfrak{c}\right|} \in S_1(0)\cap\mathfrak{c} .

Como S_1(0)\cap\mathfrak{c} = \left\{ x\in\mathfrak{c} : \left| x\right| = 1\right\} é compacto, segue que existem X\in S_1(0)\cap\mathfrak{c} e uma subseqüência de \displaystyle\left( \frac{Y_k^\mathfrak{c}}{\left| Y_k^\mathfrak{c}\right| }\right) tal que

\displaystyle \frac{Y_{k_l}^\mathfrak{c}}{\left| Y_{k_l}^\mathfrak{c}\right| }\to X .

Pelo lema anterior, é fácil verificar que isso implica que X\in\mathfrak{g} . Logo

X\in\mathfrak{g}\cap\mathfrak{c}=\left\{ 0\right\} . Absurdo, pois \left| X\right| = 1 .


Corolário 5.4: Se G é um grupo de matrizes, então G é euclideano.


Com efeito, seja G um grupo de matrizes. Sua álgebra associada é, em particular, um espaço euclideano. Pelo provado, existe uma vizinhança da identidade homeomorfa a uma aberto da álgebra associada. Logo, pelo lema 5.1, tem-se que G é um grupo euclideano.


Anúncios

Homomorfismos

24/03/2010

Denotamos por \mathrm{Gl}(n)\subset\mathbb{R}^{n^2} o grupo das matrizes inversíveis de ordem n . Nesse texto, consideraremos apenas os subgrupos G\leq \mathrm{Gl}(n) fechados em \mathrm{Gl}(n) , denomindados de grupos de matrizes.

Proposição 4.1: Sejam G\leq \mathrm{Gl}(n) e H\leq \mathrm{Gl}(m) grupos de matrizes. Dado um homomorfismo \phi : G\to H , definimos

\displaystyle F=\left\{\left(\begin{array}{cc}g&\\ &\phi (g) \end{array}\right) : g\in G\right\} . Se \phi é contínuo, então F é um grupo de matrizes de \mathrm{Gl}(n+m) .


Demonstração: Com efeito, dada uma seqüência de termos \left(\begin{array}{cc}g_n&\\ &\phi (g_k) \end{array}\right)\in F convergente em \mathrm{Gl}(n+m) , supõe-se que \left(\begin{array}{cc}g&\\ &h \end{array}\right) é o limite dessa seqüência em \mathrm{Gl}(n+m) , donde segue que g_k\to g (em G ) e \phi (g_k)\to h (em H ). Mas, pela continuidade de \phi , tem-se que \phi (g_k)\to \phi (g) , logo, pela unicidade dos limites, h=\phi (g) . E, portanto,

\left(\begin{array}{cc}g_k&\\ &\phi (g_k) \end{array}\right)\to \left(\begin{array}{cc}g&\\ &\phi (g) \end{array}\right) . Como \left(\begin{array}{cc}g&\\ &\phi (g) \end{array}\right)\in F , isso completa a prova de que F é fechado em \mathrm{Gl}(n+m) .

Resta provar que F é um subgrupo de \mathrm{Gl}(m+n) . Como efeito, dados

\left(\begin{array}{cc}g&\\ &\phi (g) \end{array}\right) , \left(\begin{array}{cc}h&\\ &\phi (h) \end{array}\right)\in F , segue que

\left(\begin{array}{cc}g&\\ &\phi (g) \end{array}\right) ^{-1} \cdot \left(\begin{array}{cc}h&\\ &\phi (h) \end{array}\right) =

=\left(\begin{array}{cc}g^{-1}&\\ &\phi (g)^{-1} \end{array}\right) \cdot \left(\begin{array}{cc}h&\\ &\phi (h) \end{array}\right) =

=\left(\begin{array}{cc}g^{-1}h&\\ &\phi (g)^{-1}\phi (h) \end{array}\right) =\left(\begin{array}{cc}g^{-1}h&\\ &\phi (g^{-1})\phi (h) \end{array}\right)

= \left(\begin{array}{cc}g^{-1}h&\\ &\phi (g^{-1}h) \end{array}\right) .

Como G é um grupo e g,h\in G , tem-se que g^{-1}h\in G e, portanto,

\left(\begin{array}{cc}g^{-1}h&\\ &\phi (g^{-1}h) \end{array}\right)\in F .

Isso completa a prova de que F é subgrupo de \mathrm{Gl}(n+m) .


Uma álgebra de Lie de matrizes \mathfrak{g} é um subespaço vetorial de \mathbb{R}^{n^2} que é fechado para o comutador. Ou seja, uma álgebra de Lie é um subespaço de \mathbb{R}^{n^2} tal que \left[X,Y\right] = XY - YX \in\mathfrak{g} , para todos X,Y\in\mathfrak{g} .

Denotamos por \mathfrak{gl}(n) a álgebra de Lie das matrizes \mathbb{R}^{n^2} .

A cada grupo de matrizes G\leq \mathrm{Gl}(n) associamos o conjunto \mathfrak {g} =\left\{ X\in \mathfrak{gl}(n): e^{tX}\in G, \forall t\in\mathbb{R}\right\} , denominado a álgebra de G . Mostraremos que \mathfrak{g} é de fato uma álgebra de Lie de matrizes.

Proposição 4.2: A álgebra \mathfrak{g} de um grupo de matrizes G \leq \mathrm{Gl}(n) é uma álgebra de Lie.


 

Demonstração: Com efeito, dados X,Y\in\mathfrak{g} e dado \alpha\in\mathbb{R} , tem-se que e^{tX}\in G para todo t\in\mathbb{R} , logo, em particular, e^{t(\alpha X)}\in G para todo t\in\mathbb{R} . Ou seja, \alpha X\in\mathfrak{g} .

Como, para todo k\in\mathbb{N} e todo t\in\mathbb{R} , tem-se que e^{tX/k} , e^{tY/k}\in G (pela definição de \mathfrak{g} ). Além disso, por G ser um subgrupo de \mathrm{Gl}(n) , tem-se, então, que, para todo k\in \mathbb{N} e todo t\in\mathbb{R} , \displaystyle\left( e^{tX/k} e^{tY/k}\right) ^k\in G . Pela proposição 3.3, temos que (para todo t\in\mathbb{R} ) \displaystyle \lim_{k\to\infty} \left( e^{X/k}e^{Y/k}\right) ^k = e^{t(X+Y)}\in \mathrm{Gl}(n) . Por G ser fechado em \mathrm{Gl}(n) , segue que e^{t(X+Y)}\in G para todo t\in\mathbb{R} . Logo ficou provado que (X+Y)\in\mathfrak{g} .

Analogamente, é fácil verificar que, para todo k\in\mathbb{N} e todo t\in\mathbb{R} , \displaystyle\left( e^{-tX/k}e^{-Y/k}e^{tX/k}e^{Y/k}\right) ^{k^2}\in G . Como, para todo real t ,

\displaystyle\lim _{k\to\infty}\left( e^{-tX/k}e^{-tY/k}e^{tX/k}e^{tY/k}\right) ^{k^2} = e^{[tX,Y]}=e^{t[X,Y]}\in \mathrm{Gl}(n) e G é fechado em \mathrm{Gl}(n) , segue que e^{t[X,Y]}\in G . Logo ficou provado que [X,Y]\in\mathfrak{g} .

Isso completou a demonstração de que \mathfrak{g} é, de fato, uma álgebra de Lie de matrizes.


Proposição 4.3:Se g,h\in B(I; 1)\subset \mathbb{R} ^{n^2} e g^2 =h^2 , então g=h .


Demonstração: Temos que

g= I+A e h=I+B , onde \left | A\right | < 1 e \left | B\right | < 1 .

Logo g^2= (I+A)^2=(I+B)^2 = h^2 , donde segue que

I+2A+A^2= I+ 2B+ B^2 . Ou seja, 2(A-B)= (B^2-A^2) .

E, fatorando, temos que 2(A-B) = B(B-A)+(B-A)A . Portanto, tomando a norma,

2\left | A-B\right | = \left | B(B-A)+(B-A)A\right |

\leq \left | B\right | \left | B-A\right | + \left | B-A\right | \left | A\right |

=\left | B-A\right | \left( \left | A\right | +\left | B\right | \right) .

Se, por absurdo, B\neq A , segue que

2\left | A-B\right | < 2\left | B-A \right | . Absurdo.

Portanto deve-se ter A=B , ou seja, g=h .


Proposição 4.4: g: \mathbb{R}\to \mathrm{Gl}(n) é um homomorfismo contínuo se, e somente se, existe um único X \in \mathfrak{gl}(n) tal que g(t)=e^{tX} .


Demonstração: Com efeito, se g(t)=e^{tX} para algum X\in\mathbb{R}^{n^2} , então, pelo teorema 2.4, segue imeditamente que g é um homomorfismo contínuo.

Reciprocamente, pelo teorema da função inversa, existe r>0 tal que a função exponencial E: \mathbb{R}^{n^2}\to \mathrm{Gl}(n) é um difeomorfismo da bola B(0; r) numa vizinhança aberta V de I em \mathrm{Gl}(n) de diâmetro menor que 1 .

Pela continuidade de g , segue que existe \delta >0 tal que \left| x\right| \leq \delta implica g(t)\in V . Em particular, g( \delta ) \in V . Logo g( \delta ) = e^Y para algum Y\in B(0; r)\subset\mathbb{R}^{n^2} .

Define-se \displaystyle X=\frac{1}{ \delta} Y . Note que

\displaystyle g( \delta ) = e^{ \delta X} .

Provemos, por indução, que \displaystyle g\left( \frac{1}{2^k}\right) = e^{ \frac{\delta }{2^k} X} para todo k\in\mathbb{N} . A afirmação é verdadeira para k= 0 . Supondo, por indução, que é verdadeira para um k , tem-se, pelo fato de g ser um homomorfismo, que

\displaystyle \left( g\left( \frac{\delta }{2^{k+1} } \right)\right) ^2 = g\left( 2\frac{\delta }{2^{k+1}}\right) = g\left(\frac{\delta }{2^{k}}\right) .

Por outro lado, pela hipótese de indução, tem-se que

\displaystyle\left( e^{ \frac{\delta }{2^{k+1}} X} \right)^2 = \left( e^{ \frac{\delta }{2^k} X} \right) = g\left( \frac{\delta}{2^k} \right) .

Como \displaystyle \left | \frac{ \delta }{2^{k+1}} X\right | \leq \left | \delta X \right | < r , segue que \displaystyle e^{ \frac{\delta }{2^{k+1}} X}\in V . Como V é vizinhança aberta de I com diâmetro menor que 1 , tem-se, pela proposição anterior, que

\displaystyle e^{ \frac{\delta }{2^{k+1}} X}= g\left( \frac{\delta }{2^{k+1} } \right) .

Isso completa a prova por indução da afirmação.

Para qualquer q\in\mathbb{N} , tem-se que

\displaystyle g \left( q \frac{ \delta }{ 2^k } \right) = \left( g\left(\frac{ \delta }{ 2^k }\right)\right) ^t = e^{q\frac{\delta }{2^k}X } para todo k\in\mathbb{N} .

Conseguimos, então, provar que

\displaystyle g(t)=e^{tX} para todo \displaystyle t\in\left\{ q\frac{\delta}{2^k}: q,k\in\mathbb{N} \right\}\subset\mathbb{R} . Como g e e^{tX} são contínuas, e \displaystyle\left\{ q\frac{\delta}{2^k}: q,k\in\mathbb{N} \right\} é denso na reta, segue que g(t)=e^{tX} para todo t\in\mathbb{R} .

Resta provar a unicidade de X . Com efeito, supõe-se que h(t)=e^{tX}=e^{tY} . Logo, tomando h'(0) (derivando dos dois lados da igualdade), tem-se X=Y .


Proposição 4.5: Sejam G\leq \mathrm{Gl}(n) e H\leq \mathrm{Gl}(m) grupos de matrizes. Se \phi : G\to H é contínuo, existe um único homomorfismo \phi ': \mathfrak{g}\to\mathfrak{h} de álgebras de Lie tal que o diagrama

\begin{array}[c]{ccc}\mathfrak{g} &\stackrel{\phi ' }{\rightarrow}&\mathfrak{h}\\ \downarrow\scriptstyle{E} & & \downarrow\scriptstyle{E}\\ G&\stackrel{\phi }{\rightarrow}& H\end{array}

comuta. Ou seja, \displaystyle\phi (e^X) = e^{\phi ' X} para todo X\in\mathfrak{g} .


Demonstração: Seja \displaystyle F=\left\{\left(\begin{array}{cc}g&\\ &\phi (g) \end{array}\right) : g\in G\right\} . Pela primeira proposição desse post, F é um grupo de matrizes de \mathrm{Gl}(n+m) . Então podemos tomar a álgebra de Lie de matrizes \mathfrak {f} associada a F .

Para cada \displaystyle X\in\mathfrak{g} , define-se \displaystyle h_X (t)=\phi (e^{tX} ) . Note que \displaystyle h_X : \mathbb{R}\to H é um homomorfismo. Logo, pela proposição 4.6, existe um único X_\phi\in\mathfrak {h} tal que \displaystyle h_X(t)= e^{tX_\phi } para todo t\in\mathbb{R} .

Então, para todo X\in\mathfrak{g} , \displaystyle Z = \left(\begin{array}{cc}X&\\ &X_\phi \end{array}\right)\in\mathfrak{f} . Afinal, para todo t\in\mathbb{R} ,

\displaystyle e^{Z} = \left(\begin{array}{cc}e^{tX}&\\ &e^{tX_\phi } \end{array}\right) =\left(\begin{array}{cc}e^{tX}&\\ &\phi (e^{tX}) \end{array}\right)\in F .

Dados \displaystyle Z = \left(\begin{array}{cc}X&\\ &X_\phi \end{array}\right) , W = \left(\begin{array}{cc}Y&\\ &Y_\phi \end{array}\right)\in\mathfrak{f} e \lambda\in\mathbb{R} , temos, por \mathfrak {f} ser uma algebra de Lie de matrizes, que

\displaystyle\lambda Z = \left(\begin{array}{cc}\lambda X&\\ &\lambda X_\phi \end{array}\right)\in\mathfrak{f} ,

\displaystyle Z+W = \left(\begin{array}{cc}X+Y&\\ &X_\phi +Y_\phi \end{array}\right)\in\mathfrak{f} ,

\left[ Z, W\right] = \left(\begin{array}{cc}\left[ X,Y\right] &\\ &\left[ X_\phi , Y_\phi\right] \end{array}\right) \in\mathfrak{f} .

Pela definição da álgebra \mathfrak{f} , tem-se que, para todo t\in\mathbb{R} ,

\displaystyle E\left( t \lambda Z\right) = \left(\begin{array}{cc}e^{t\lambda X}&\\ &e^{t\lambda X_\phi} \end{array}\right) \in F , logo

\displaystyle e^{t( \lambda X_\phi )} = \phi \left( e^{t(\lambda X)}\right) = e^{t\left( \lambda X\right) _\phi } .

De forma análoga, concluimos que

\displaystyle e^{t\left( X_\phi + Y_\phi\right) } =\phi\left( e^{t(X+Y)}\right) = e^{t\left( X+Y\right) _\phi } ,

\displaystyle e^{t\left[ X_\phi ,Y_\phi\right] } = \phi \left( e^{t\left[ X,Y\right] } \right) = e^{t\left[ X,Y\right] _\phi } .

Definindo-se \phi ': \mathfrak{g}\to\mathfrak{h} , \phi '(X) = X_\phi , segue que \phi ' é homomorfismo de álgebras de Lie.

Resta provar a unicidade de \phi ' . Supõe-se que existe homomorfismos de álgebras de Lie \phi ' ,\varphi ' : \mathfrak{g}\to\mathfrak{h} tais que os diagramas

\begin{array}[c]{ccc}\mathfrak{g} &\stackrel{\phi ' }{\rightarrow}&\mathfrak{h}\\ \downarrow\scriptstyle{E} & & \downarrow\scriptstyle{E}\\ G&\stackrel{\phi }{\rightarrow}& H\end{array} e \begin{array}[c]{ccc}\mathfrak{g} &\stackrel{\varphi ' }{\rightarrow}&\mathfrak{h}\\ \downarrow\scriptstyle{E} & & \downarrow\scriptstyle{E}\\ G&\stackrel{\phi }{\rightarrow}& H\end{array}

comutam. Segue que, dado X , \displaystyle e^{\phi ' X} =\phi (e^x)= e^{\lambda 'X} . Pela injetividade da exponencial numa vizinhança da origem, temos que \phi' X = \varphi' X, para todo X numa vizinhança da origem. Como \phi' e \varphi' são transformações lineares, segue que elas são iguais.


Corolário 4.6: Sejam G,H \leq \mathrm{Gl}(n) grupos de matrizes. Se G e H são isomorfos, então suas álgebras também são isomorfas.


Demonstração: Com efeito, seja \phi : G\to H um isomorfismo de grupos (topológicos). Pelo teorema precedente, temos que existe um homomorfismo \phi ' : \mathfrak{g}\to\mathfrak{h} \phi ' :\mathfrak{g}\to\mathfrak{h} tal que

\begin{array}[c]{ccc}\mathfrak{g} &\stackrel{\phi ' }{\rightarrow}&\mathfrak{h}\\ \downarrow\scriptstyle{E} & & \downarrow\scriptstyle{E}\\ G&\stackrel{\phi }{\rightarrow}& H\end{array}

comuta. Da mesma forma, existe um homomorfismo \left(\phi ^{-1}\right) ': \mathfrak{h}\to\mathfrak{g} tal que

\begin{array}[c]{ccc}\mathfrak{h} &\stackrel{\left(\phi ^{-1}\right) ' }{\rightarrow}&\mathfrak{g}\\ \downarrow\scriptstyle{E} & & \downarrow\scriptstyle{E}\\ H&\stackrel{\phi ^{-1} }{\rightarrow}& G\end{array}

comuta. Logo segue que

\begin{array}[c]{ccc}\mathfrak{h} &\stackrel{\phi '\circ\left(\phi ^{-1}\right) ' }{\longrightarrow }&\mathfrak{h}\\ \downarrow\scriptstyle{E} & & \downarrow\scriptstyle{E}\\ H&\stackrel{\phi\circ\phi ^{-1} }{\longrightarrow }& H\end{array}

comuta. Pela unicidade do homomorfismo de álgebras de Lie associado a \left(\phi\circ\phi ^{-1}\right) = id_H : H\to H , segue que \left( \phi '\circ\left(\phi ^{-1}\right) '\right) = id_\mathfrak{h} : \mathfrak{h}\to\mathfrak{h} .

De forma análoga, conclui-se que \left( \left(\phi ^{-1}\right) '\circ\phi '\right) = id_\mathfrak{g} : \mathfrak{g}\to\mathfrak{g} .

Isso completou a prova de que \left(\phi ^{-1}\right) ' = \left(\phi '\right) ^{-1} , ou seja, completou a prova de que \phi ' é um isomorfismo e, portanto, \mathfrak {g} e \mathfrak{h} são isomorfos.



3 Limites de produtos de exponeciais

24/11/2009

Fazendo uso dos resultados das seções anteriores, demonstraremos teoremas que nos será importante nos próximos trabalhos. O primeiro resultado será usado extensivamente nessa seção.

Proposição 3.1: Definem-se P(t) = e^{tX}e^{tY} , C(t) = e^{-tX}e^{-tY}e^{tX}e^{tY} , para t num intervalo real de centro 0 . Tem-se que

P(0)=C(0)= I , P'(0) = X+Y , C'(0)=0 ,

P''(0) =Y^2+2XY+X^2 ,  e C''(0) = 2[X,Y] .


Demonstração:

Tem-se que \displaystyle e^{tX} = \sum \frac{(tX)^k}{k!} . Fazendo t=0 (e substituindo na série) é fácil ver que \displaystyle e^{0X}=e^0 = I . Logo \displaystyle P(0)= I^2=I .

Tem-se que \displaystyle C(t)=P(-t)P(t) . Logo \displaystyle C(0)=P(0)P(0)=I^2=I .

Usando a regra do produto, tem-se que \displaystyle P'(t) = e^{tX}Ye^{tY} + Xe^{tX}e^{tY} , logo P'(0) =Y+X = X+Y . E, novamente, usando a regra do produto, tem-se que

\displaystyle C'(0) =T(0)P'(0) + T'(0)P(0) , onde \displaystyle T(t)=P(-t)=e^{-tX}e^{-tY}=e^{t(-X)}e^{t(-Y)}

É fácil verificar, pela regra do produto, que \displaystyle T'(0) = -Y-X .

E, portanto,

\displaystyle C'(0)=(X+Y)+(-Y-X)=0 .

Temos que \displaystyle P''(t)=e^{tX}Y^2 e^{tY} + Xe^{tX}Ye^{tY} + Xe^{tX}Ye^{tY}+X^2e^{tX}e^{tY} ,

donde segue que \displaystyle P''(0)=Y^2+2XY+X^2 .

Da mesma forma, tem-se que \displaystyle T''(0)=Y^2+2XY+X^2 .

\displaystyle C''(0)=T(0)P''(0)+T'(0)P'(0)+T'(0)P'(0)+T''(0)P(0)

\displaystyle =T(0)P''(0)+2T'(0)P'(0)+T''(0)P(0) =

\displaystyle (Y^2+2XY+X^2)+2(-X-Y)(X+Y)+ (Y^2+2XY+X^2)

\displaystyle =2XY-2YX = 2[X,Y] .


Pelo teorema da função inversa, por a derivada da exponencial E:\mathbb{R}^{n^2}\to\mathbb{R}^{n^2} na origem ser a identidade (portanto, um isomorfismo), segue que \displaystyle E é um difeomorfismo de uma vizinhança \displaystyle V da origem com uma vizinhança U de E(0)=I .

Assim, podemos defnir Q(t)=E^{-1}(P(t)) para uma vizinhança de 0 nos reais tal que P(t)\in U para t nessa vizinhança. Da mesma forma, definimos B(t)= E^{-1}(C(t)) para t numa vizinhança de 0 nos reais tal que B(t)\in U . O fato de esses intervalos de centro 0 satisfazendo essas hipóteses existirem vem diretamente do fato de P e C serem contínuas.

Note, então, que E(Q(t))=P(t) e, também, que E(B(t))=C(t) .

Proposição 3.2: Temos que Q(0) = B(0)=0 , B'(0)=0 e Q'(0) = X+Y . Além disso,

\displaystyle\lim _{t\to 0}\frac{Q(t)}{t} = X+Y , e

\displaystyle\lim_{t\to 0}\frac{B(t)}{t^2}=[X,Y] .


Demonstração:

Tem-se que E(Q(0))=P(0)= I , e que E(B(0))=C(0)= I . Pela injetividade da exponencial, segue que

E(Q(0))=E(B(0)) = I =E(0) implica que Q(0)= B(0)=0 .

Pela regra da cadeia, tem-se que

C'(0)= E'(B(0))B'(0) = E'(0)B'(0)=B'(0) . Portanto, pela proposição precedente, segue que

B'(0)=C'(0)=0 .

Pela fórmula de Taylor,

\displaystyle C(t)= I +tC'(0)+ \frac{t^2}{2} C''(0) + R(t^2)

\displaystyle =I + \frac{t^2}{2} (2[X,Y])+ R(t^2) = I + t^2[X,Y]+ R(t^2) ,

onde \displaystyle\lim_{t\to 0} \frac { R(t^2)}{t^2} = 0 .

Logo \displaystyle \frac{1}{t^2}(C(t)-I) = [X,Y]+ \frac{R(t^2)}{t^2} e, então,

\displaystyle \lim _{t\to 0}\left(\frac{1}{t^2}(C(t)-I)\right) = \lim _{t\to 0}\left([X,Y]+ \frac{R(t^2)}{t^2}\right)=[X,Y] .

Temos, também, que

\displaystyle B(t)=B(0)+B'(0) t + r(t) , onde \displaystyle\lim _{t\to 0}\frac{r(t)}{t}=0 . Como B(0)=B'(0)=0 , tem-se que

\displaystyle \lim _{t\to 0} \frac{B(t)}{t} = \lim _{t\to 0} \frac{r(t)}{t} = 0 .

Por outro lado,

\displaystyle\frac{1}{t^2} \left( C(t) - I \right) =

\displaystyle\frac{1}{t^2}\left( E(B(t)) - I \right) =\frac{1}{t^2}\left( B(t)+ \sum _ {k\geq 2}\frac{B(t)^k}{k!}\right) =

\displaystyle = \frac{B(t)}{t^2} + \left( \frac{B(t)^2}{t^2} \right) \sum _{k\geq 2}\frac{B(t)^{k-2}}{k!} .

É fácil verificar que \displaystyle \left( \sum _{k\geq 2}\frac{B(t)^{k-2}}{k!}\right) é contínua, logo

\displaystyle\lim _ {t\to 0} \left( \sum _{k\geq 2}\frac{B(t)^{k-2}}{k!} \right) = \frac{I}{2} .

Como

\displaystyle\lim _{t\to 0}\frac{B(t)^2}{t^2}= \lim _{t\to 0}\left( \frac{B(t)}{t}\right)^2 =

\displaystyle = \left( \lim _ {t\to 0} \frac{B(t)}{t} \right) ^2 = 0^2 =0 ,

segue que

\displaystyle \lim_{t\to 0} \left( \frac{1}{t^2} \left( C(t)-I\right) \right) = \lim_{t\to 0} \left( \frac{1}{t^2} \left( E(B(t))-I\right) \right) =

\displaystyle \lim _{t\to 0} \frac{B(t)}{t^2} + \lim _{t\to 0} \left(\frac{B(t)^2}{t^2}\sum _{k\geq 2}\frac{B(t)^{k-2}}{k!}\right) =

\displaystyle = \lim _ {t\to 0} \frac{B(t)}{t^2}

Isso provou que

\displaystyle\lim _ {t\to 0} \frac{B(t)}{t^2}=\lim_{t\to 0} \left( \frac{1}{t^2} \left( C(t)-I\right) \right) = [X,Y]

Temos, pela regra da cadeia, que

P'(0)=E'(Q(0))Q'(0) , logo

P'(0)=E'(0)Q'(0)=Q'(0) .

Pela primeira proposção,  tem-se que P'(0)= X+ Y .  Portanto Q'(0)=X+Y .

Pela definição de derivada, tem-se que

\displaystyle Q(t)= Q(0)+ Q'(0)t + r(t) = 0+t(X+Y) + r(t) , onde \displaystyle \lim _ {t\to 0} \frac{r(t)}{t} = 0 .

Logo \displaystyle\lim _{t\to 0} \frac{Q(t)}{t} = X+ Y .


A próxima proposição será de extrema importância nas próximas etapas do trabalho.

Proposição 3.3:  Temos que

\displaystyle e^{X+Y}=\lim_{k \to \infty}P\left(\frac{1}{k} \right)^k

\displaystyle e^{[X,Y]}=\lim_{k \to \infty} C\left( \frac{1}{k} \right)^{k^2}.


Demonstração:

Tem-se que \displaystyle X+Y = \lim _{t\to 0} \frac{Q(t)}{t} , pelo resultado anterior.

\displaystyle e^{X+Y}= e^{ \lim_{t \to 0} \frac {Q(t)}{t}} = e^ {\lim_{k \to \infty} k Q(\frac{1}{k})}

\displaystyle =\lim_{k \to \infty} ( e^{k Q(1/k)}) = \lim _{k\to\infty} \left( e^{Q(1/k)} \right)^k =

\displaystyle = \lim_{k \to \infty} P \left(\frac{1}{k}\right) ^{k}

De maneira análoga, tem-se que

\displaystyle [X,Y] = \lim _{t\to 0} \frac{B(t)}{t^2}

\displaystyle e^{ [X,Y] } = e^{ \lim _{t \to 0 } \frac{B(t)}{t^2} } = e^{ \lim_{k \to \infty }B( \frac{1}{k} )k^2 }

\displaystyle = \lim_{ k \to \infty }e^{ B(\frac{1}{k})k^2} = \lim_{k \to \infty } \left( e^{B(\frac{1}{k})}\right) ^{k^2} =

\displaystyle = \lim_{k \to \infty}C \left( \frac{1}{k} \right) ^{k^2}



2 Exponencial de matrizes

05/11/2009

O trabalho nesta seção estará intimamente ligado com o espaço das matrizes quadradas \mathbb{R} ^{n^2} . Esse espaço pode ser identificado por um isomorfismo (da base canônica) com o espaço das transformações lineares L (\mathbb{R}^n; \mathbb{R}^n) .

Lembrando, todas as normas no espaço vetorial \mathbb{R} ^{n^2} são equivalentes (por se tratar de um espaço vetorial de dimensão finita). Vamos definir aqui uma norma que nos é conveniente.

Dada uma matriz X\in \mathbb{R} ^{n^2} , é fácil ver que a transformação linear identificada pelo isomorfismo (da base canônica) é a transformação linear X : \mathbb{R}^n \to \mathbb{R}^n que associa cada vetor (coluna) v\in \mathbb{R}^n ao vetor (coluna) Xv\in \mathbb{R} ^n , onde Xv é o produto usual da matriz quadrada \displaystyle X com a matriz coluna v .

A aplicação v \mapsto |Xv| é contínua e portanto assume o máximo no domínio compacto S = \left\{ v\in \mathbb{R} ^n : \left| v\right| = 1 \right\} . Dada uma matriz X\in\mathbb{R}^{n^2} , podemos então definir \displaystyle |X| = \max_{|v|=1} |Xv|. Resta verificar que \left| \cdot \right| é de fato uma norma.

Lema 2.1: Temos que \left| \cdot \right| é uma norma em \mathbb{R} ^{n^2} satisfazendo

\left| X Y \right| \leq \left| X\right| \left| Y\right|

para quaisquer X, Y\in\mathbb{R} ^{n^2} . Em particular,

\left| X^k\right|\leq \left|X \right| ^k

para qualquer X\in\mathbb{R}^{n^2} .


Demonstração:

A demonstração de que se trata de uma norma é idêntica àquela apresentada no Lema 1.1, bastando trocar o domínio B por S e observar que, neste caso, X \in C(S,R^{n^2}).

Sejam X,Y\in\mathbb{R} ^{n^2} . Dado v\in S ,

\displaystyle (XY)v = X(Yv) = X\left( \frac{\left| Yv \right| Yv}{ \left| Yv \right| } \right) = \left| Yv\right| X\left( \frac{ Yv}{ \left| Yv \right| }\right) .

Logo, para todo v\in S ,

\displaystyle\left| XYv \right| = \left| \left| Yv\right| X\left( \frac{ Yv}{ \left| Yv \right| }\right) \right| = \left| Yv\right| \left| X\left( \frac{ Yv}{ \left| Yv \right| } \right) \right| ;

E, como \left| v\right| = 1 e \left| \frac{Yv}{ \left| Yv\right| } \right| =1 , segue que, para todo v\in S,

\displaystyle\left| XYv \right| = \left| Yv\right| \left| X\left( \frac{ Yv}{ \left| Yv \right| } \right) \right| \leq \left| Y\right| \left| X \right| .

Portanto, em particular, tem-se que

\left| XY \right| \leq \left| Y \right| \left| X\right| .

Para provar que \left| X^k \right| \leq \left| X \right| ^k , basta fazer indução sobre k . Com efeito, \left|X^1\right| = \left| X\right|^1 . Supondo que a afirmação é verdadeira para k-1 , segue que

\left| X^k\right| =\left| X^{k-1} X \right|\leq \left| X^{k-1}\right| \left| X \right|\leq \left| X\right|^{k-1} \left| X \right| = \left| X\right| ^k .

Isso completa a prova por indução.


Para funções em C(I; \mathbb{R}^{n^2} ) , vale uma “regra” análoga à “regra do produto”, enunciada e provada abaixo.

Lema 2.2: Se E,F \in C(I; \mathbb{R}^{n^2}) são diferenciáveis, então

(E(t)F(t))' = E'(t)F(t) + E(t)F'(t)

para todo t \in I. Em particular, temos que

\displaystyle (F(t)^k)' = \sum_{l=1}^k F(t)^{l-1}F'(t)F(t)^{k-l},

para todo t \in I.


Demonstração:

A entrada (i,j) da matriz E(t)F(t) é dada por

\displaystyle \sum_{l=1}^k E_{il}(t)F_{lj}(t).

A derivada dessa expressão nos fornece a entrada (i,j) da matriz (E(t)Ft))'. Utilizando as regras da soma e do produto, obtemos que

\displaystyle \left(\sum_{l=1}^k E_{il}(t)F_{lj}(t)\right)' = \sum_{l=1}^k E'_{il}(t)F_{lj}(t) + \sum_{l=1}^k E_{il}(t)F'_{lj}(t),

que é igual a entrada (i,j) da matriz E'(t)F(t) + E(t)F'(t).

A segunda afirmação é demontrada por indução. Temos que

\displaystyle (F(t))' = F'(t) = \sum_{l=1}^1 F(t)^{l-1}F'(t)F(t)^{1-l}.

Se a fórmula é verdadeira para k-1, então

\displaystyle (F(t)^k)' = (F(t)F(t)^{k-1})' = F'(t)F(t)^{k-1} + F(t)(F(t)^{k-1})' =

\displaystyle = F'(t)F(t)^{k-1} + F(t)\sum_{l=1}^{k-1} F(t)^{l-1}F'(t)F(t)^{k-1-l}

\displaystyle = F'(t)F(t)^{k-1} + \sum_{l=1}^{k-1} F(t)^{l}F'(t)F(t)^{k-1-l}

\displaystyle = F'(t)F(t)^{k-1} + \sum_{l=2}^{k} F(t)^{l-1}F'(t)F(t)^{k-l}

\displaystyle = \sum_{l=1}^{k} F(t)^{l-1}F'(t)F(t)^{k-l},

completando a demonstração por indução.


Sejam B \subset \mathbb{R} ^{n^2} uma bola fechada de centro \displaystyle 0 e raio \displaystyle R qualquer, e \displaystyle I um intervalo fechado de centro \displaystyle 0 na reta. Nos próximos resultados, estaremos pricipalmente nos espaços normados \displaystyle C(B; \mathbb{R} ^{n^2} ) e \displaystyle C(I ; \mathbb{R} ^{n^2} ) munidos da norma \displaystyle \left\| \cdot \right\| definida na seção “Séries de Funções”.

Dado um inteiro k\geq 0 , denota-se por P_k : B\to \mathbb{R}^{n^2} a função potência tal que P_k (X) = X^k .

Proposição 2.3: Temos que P_k\in C(B; \mathbb{R}^{n^2}) e que a série \displaystyle E = \sum \frac{P_k}{k!} converge em C(B; \mathbb{R}^{n^2}) .


Demonstração:

A continuidade de P_k segue do fato de que as entradas de X^k são polinômios das entradas de X. Pelo Lema 2.1, temos que

\displaystyle\left\| P _k \right\| = \max_{X \in B} |P_k(X)| = \max _{X\in B} \left| X^k \right|\leq \max _{X\in B} \left| X\right| ^k \leq R^k.

Logo, para todo k \in \mathbb{Z}^+, temos que

\displaystyle \left\|\frac{P_k}{k!}\right\| = \frac{\|P_k\|}{k!} \leq \frac{R^k}{k!}.

Como \displaystyle \sum \frac{R^k}{k!} = e^R, pela Proposição 1.2 da Seção Séries de Funções , segue que \displaystyle\sum\frac{P_k}{k!} converge em C(B; \mathbb{R}^{n^2}) .


A aplicação E\in C(B; \mathbb{R}^{n^2}) , definida acima, é denominada exponencial de matrizes. Vamos mostrar que de fato ela satisfaz as principais propriedades da função exponecial de números reais. Uma função é de classe C^1 se e só se todas as suas derivadas direcionais são funções contínuas. Dado X \in \mathbb{R}^{n^2}, denotamos E(X) = e^X.

Teorema 2.4: A função \displaystyle E é de classe \displaystyle C^1 , sua derivada na origem E'(0) é a aplicação identidade e a função t \mapsto e^{tX} satisfaz

(e^{tX})' = X e^{tX},

para todo t \in I. Além disso,

e^{X+Y} = e^X e^Y,

sempre que XY = YX.

 


Demonstração:

Se F\in C(I; \mathbb{R}^{n^2}) é dada por F(t)= Y+tX , então F(0) = Y e F'(t) = X, para todo t \in I. Para cada k \in \mathbb{Z}^+, se F_k \in C(I; \mathbb{R}^{n^2}) é dada por \displaystyle F_k(t) = \frac{F(t)^k}{k!} ,

pelo Lema 2.2, segue que

\displaystyle F_k' (t) = \frac{1}{k!} \sum _{l=1}^{k} {F(t)}^{l-1}X{F(t)}^{k-l} .

Temos então que

\displaystyle |F_k(t)| \leq \frac{|F(t)|^k}{k!} \leq \frac{\|F\|^k}{k!}

e que

\displaystyle |F_k'(t)| \leq \frac{1}{k!} \sum_{l=1}^k |F(t)|^{l-1} \left| X \right| |F(t)|^{k-l} = |X| \frac{\left\| F\right\| ^{k-1}}{(k-1)!},

de modo que

\displaystyle\left\| F_k \right\| \leq \frac{ \left\| F \right\| ^k } {k!} e que \displaystyle \|F_k'\| \leq |X| \frac{\left\| F\right\| ^{k-1}}{(k-1)!}.

Como

\displaystyle\sum \frac{ \left\| F\right\| ^k }{k!} = e^{\left\| F \right\| } e também \displaystyle\sum _ {k\geq 1} |X| \frac{ \left\| F\right\| ^{k-1}}{(k-1)!} = \left| X \right| e ^{\left\| F \right\|} ,

pela Proposição 1.5 da Seção “Séries de Funções”, segue que

\displaystyle (E(F(t)))' = \left( \sum F_k(t) \right) ' = \sum _{k\geq 1} F_k ' (t) .

Temos que a derivada direcional de \displaystyle E no ponto Y \in B e na direção X é dada por

\displaystyle \partial_X E(Y) = (E(F(t)))'_{t=0} = \sum_{k \geq 1} F_k'(0) = \sum_{k \geq 1} E_k(Y)

 

onde

\displaystyle E_k(Y) = F_k ' (0) = \frac{1}{k!}\sum_{l = 1}^{k} Y^{l-1}X Y^{k-l} .

Como |Y| \leq R, temos então que

\displaystyle |E_k(Y)| \leq \frac{1}{k!} \sum_{l=1}^k |Y|^{l-1} |X| |Y|^{k-l} \leq |X| \frac{R^{k-1}}{(k-1)!},

mostrando que

\displaystyle \|E_k\| \leq |X| \frac{R^{k-1}}{(k-1)!}.

Como

\displaystyle \sum_{k \geq 1} |X| \frac{ R^{k-1}}{(k-1)!} = |X|e^R

pela Proposição 1.2, segue que

\displaystyle \partial _ X E =\sum_{k \geq 1} E_k \in C(B; \mathbb{R}^{n^2}),

mostrando que \displaystyle E é de classe C^{1} . Temos que a derivada de \displaystyle E na origem é dada por

\displaystyle E'(0)X = \partial _ X E(0) = \sum_{k \geq 1} E_k(0) = X ,

mostrando que E'(0) é a aplicação identidade.

Quando Y=0 , temos que

\displaystyle F_k(t) = \frac{(tX)^k}{k!} = \frac{t^k}{k!}X^k

e então

\displaystyle F_k ' (t) = \frac{t^{k-1}}{(k-1)!}X^k = X \frac{(tX)^{k-1}}{(k-1)!} .

Neste caso, temos

\displaystyle (e^{tX}) = (E(F(t)))' = \sum _{k\geq 1 } X \frac{(tX)^{k-1}}{(k-1)!} = X e^{tX},

para todo t \in I.

Provemos que \displaystyle e^{X+Y} = e^X e^Y, quando XY=YX .

Define-se o seguinte problema de valor incial:

h'(t) =(X+Y) h(t)

h(0) = I

Tem-se que h\in C(I;\mathbb{R}^{n^2} ), onde h(t) = e^{t(X+Y)} é uma solução. Afinal,

\displaystyle h(0) = I e, pelo que já foi provado, (e^{t(X+Y)})' = (X+Y) e^{tX} .

Pelo teorema da existência e unicidade de equações diferenciais, tem-se que o problema de valor inicial acima tem solução única. Logo provar que uma função g\in C(I; \mathbb{R}^{n^2}) é solução desse P.V.I prova que h(t)=g(t) para todo \displaystyle t no domínio.

Se Y comuta com \displaystyle X , segue que Y comuta com (tX)^l para todo \displaystyle t\in\mathbb{R} e todo l\in\mathbb{N} . Disso segue que

\displaystyle Y\sum ^k_{l=0} \frac{(tX)^l}{l!} = \sum ^k_{l=0} \frac{(tX)^l}{l!} Y

Logo temos que

Y e^{tX} = e^{tX} Y .

Ou seja, a matriz Y comuta com e^{tX} .

Define-se g\in C(I; \mathbb{R}^{n^2}) tal que g(t) = e^{tX}e^{tY} . Provemos que \displaystyle g é uma solução do P.V.I acima definido.

Com efeito, pela regra do produto,

\displaystyle g'(t)= e^{tX} Y e^{tY} + Xe^{tX}e^{tY} = Y e^{tX}e^{tY} + Xe^{tX}e^{tY} =

= (X+Y) e^{tX}e^{tY}

e, além disso, de fato,

g(0) = I^2=I .

Logo g , de fato, é uma solução do P.V.I definido. E, então, pelo que foi dito, provamos que g(t)=h(t) para todo t no domínio. Como podemos tomar o domínio I (intervalo real de centro 0 ) tão “grande” quanto queiramos, tem-se que

e^{tX}e^{tY} = e^{t (X+Y)} para todo t\in\mathbb{R} . Em particular, está provada a última afirmação do teorema.


O comutador é uma função \mathbb{R}^{n^2}\times\mathbb{R}^{n^2}\to\mathbb{R}^{n^2} que associa cada par de matrizes X,Y à matriz [X,Y]= XY-YX . Nota-se que duas matrizes X,Y comutam se, e somente se, [X,Y] = 0 .

Corolário 2.5: Sejam X,Y\in\mathbb{R}^{n^2} . [X,Y] = 0 se, e somente se, e^{tX}e^{sY}=e^{sY}e^{tX} para todo t \in\mathbb{R} e todo s\in\mathbb{R} .


Demonstração:

Dados t,s\in\mathbb{R} , se [X,Y] = 0 , segue, evidentemente, que [tX, sY] =0 . Logo, pelo teorema precedente,

\displaystyle e^{tX}e^{sY} = e^{tX+sY} = e^{sY+tX} = e^{sY}e^{tX} .

Reciprocamente, supõe-se que e^{tX}e^{sY}=e^{sY}e^{tX} para todo t \in\mathbb{R} e todo s\in\mathbb{R} . Derivando em relação a s em s=0 , tem-se que

e^{tX}Y = Ye^{tX} .

E, derivando em relação a t em t=0 , tem-se

XY = YX .

Isso completa a prova da recíproca.


\left| \cdot \right|

1 Séries de funções

23/09/2009

Denotamos por C(B;\mathbb{R}^d) o conjunto das funções contínuas de B\subset\mathbb{R}^p em \mathbb{R}^d, onde B é uma bola fechada (portanto, por estarmos num espaço vetorial de dimensão finita, é compacta). Temos que C(B;\mathbb{R}^d) é um espaço vetorial.

Seja \left|\cdot \right| uma norma em \mathbb{R}^d . Para podermos falar em convergência de seqüências e de séries, introduzimos uma norma em C(B, \mathbb{R}^d). Note que nem todas as normas nesse espaço vetorial são equivalentes, afinal não se trata de um espaço vetorial de dimensão finita, logo deixar explícito qual norma estamos usando é de fundamental importância.

Dado F\in C(B, \mathbb{R}^d) , definimos \displaystyle \left\|F\right\|= \max_{X\in B} \left|F(X)\right| , que está bem definido, pois B é compacto.  Resta provar isso define de fato uma norma.

Lema 1.1: A função \left\|\cdot \right\| é uma norma em C(B; \mathbb{R} ^d ) .


Demonstração:

Para provar que \left\|\cdot \right\| é uma função norma, devemos provar que ela satisfaz aos seguintes “axiomas”:

a) F\neq 0\Longrightarrow \left\|F\right\|>0 ;

b) \left\| \lambda\cdot F \right\| = \left| \lambda \right|\cdot \left\| F \right\|   ;

c) \left\|E+F\right\| \leq \left\|E\right\| + \left\| F\right\| .

Com efeito, seja F\in C(B; \mathbb{R} ^d ) uma função não nula. Segue que existe V\in B tal que F(V)\neq 0. Logo \left| F(V) \right|> 0 . E, então, segue que

\displaystyle \left\|F\right\|=\max_{X\in B} \left|F(X)\right|\geq \left| F(V) \right|>0 .

Dados \lambda\in\mathbb{R} e F\in C(B; \mathbb{R} ^d ) . Tem-se que

\displaystyle \left\| F\right\| = \max_{X\in B} \left| F(X) \right|

e temos que existe V\in B tal que \displaystyle \max_{X\in B} \left| F(X) \right|= \left| F(V)\right| .

Ou seja, \left| F(V) \right| \geq \left|F(X) \right| , \forall X\in B . E, então,

\left| \lambda \right| \left| F(V) \right| \geq \left| \lambda \right| \left|F(X) \right| , \forall X\in B .

Logo \left| \lambda F(V) \right| \geq \left| \lambda F(X) \right| , \forall X\in B . Isso provou que

\displaystyle \left\| \lambda F\right\| = \max_{X\in B} \left| \lambda F(X) \right| = \left|\lambda F(V)\right| = \left|\lambda \right| \left| F(V) \right| = \left| \lambda \right| \left\| F\right\| .

Para provar a desigualdade triangular, temos que

\displaystyle \|E\| =\max_{X\in B}{|E(X)|}=|E(U) | com U \in B ,

\displaystyle \|F\|=\max_{X\in B}{|F(X)|}=|F(V)| com V \in B e

\displaystyle \|E+F\|=\max_{X\in B}{|(E+F)(X)|}=|(E+F)(W)| com W \in B.

E, então, segue que

\left| E(U)\right|+\left| F(V)\right| \geq \left| E(X)\right| + \left| F(X)\right| \geq

\geq\left| E(X) + F(X)\right| , \forall X\in B ,

e, assim, como W \in B ,

tem-se que |E(U)|+|F(V)| \geq |(E+F)(W)| , o que equivale a

\|E\|+\|F\| \geq \|E+F\|.


Uma seqüência de vetores no espaço vetorial normado (C(B;\mathbb{R}^d), \left\| \cdot \right\|) é denotada por (F_k) . Diz-se que (F_k) converge se existe F\in C(B;\mathbb{R}^q) tal que  \left\|F_k - F\right\|\to 0 .

Dada uma seqüência (F_k) em C(B;\mathbb{R}^d) , sua série C(B;\mathbb{R}^d) é denotada por \sum F_k e converge se a seqüência das somas parciais \displaystyle S_l = \sum_{k=0}^l F_k converge em C(B;\mathbb{R}^d) . Caso (S_l) convirja, seu limite S\in C(B;\mathbb{R}^d) também é denomidado a série de (F_k) e denotado por S = \displaystyle \sum F_k. Neste caso, temos que

\displaystyle \left\| \sum F_k - \sum_{k=0}^l F_k \right\| \to 0.

Proposição 1.2: Seja (F_k) uma sequência de funções em C(B; \mathbb{R} ^d ) . Se existe uma sequência numérica (M_k) tal que a série \sum M_k é convergente e tal que \|F_k\| \leq M_k, para todo k \in \mathbb{N}, então a série \sum F_k é convergente.


Demonstração:

Dado X \in B, temos que |F_k(X)| \leq \|F\| \leq M_k e, então, pelo teste da comparação, tem-se que \displaystyle \sum |F_k(X)| converge. Definimos S(X) = \sum F_k(X) e então mostramos que

\displaystyle \left| S(X) -\sum_{k=0}^{l} F_k (X) \right| \leq \sum_{k>l} M_k,

para todo X \in B e para todo l \in \mathbb{N}. De fato, como temos que

\displaystyle \left| \sum_{k=0}^m F_k(X) - \sum_{k=0}^{l} F_k(X) \right| = \displaystyle \left| \sum_{k=l+1}^{m} F_k(X) \right|

\displaystyle \leq \sum_{k=l+1}^m \left| F_k(X) \right| \leq\sum_{k=l+1}^m M_k \leq \sum_{k>l} M_k,

o resultado segue tomando limite com \displaystyle m \to \infty.

Agora provamos que S\in C(B; \mathbb{R} ^d ) . De fato, como \sum M_k é convergente, dado \varepsilon > 0 , existe l \in\mathbb{N} tal que

\displaystyle \sum_{k>l} M_k <\frac{\varepsilon}{4} .

Temos que \displaystyle \sum_{k=0}^l F_k \in C(B; \mathbb{R}^d ) e, pela compacidade de B , existe \delta > 0 tal que

\displaystyle \left| \sum _{k=0}^l F_k (X)- \sum _{k=0}^l F_k(Y) \right|< \frac{\varepsilon } {2} ,

sempre que |X-Y|<\delta . Logo temos que

\displaystyle \left| S(X) - S(Y) \right| \leq \left| S(X) - \sum _{k=0}^l F_k (X) \right| +

\displaystyle + \left| \sum _{k=0}^l F_k (X) - \sum _{k=0}^l F_k (Y) \right| + \left| \sum _{k=0}^l F_l (Y)-S(Y)\right|

\displaystyle \leq 2\sum_{k>l} M_k + \frac{\varepsilon}{2} < 2 \frac{\varepsilon}{4} + \frac{\varepsilon}{2} = \varepsilon,

sempre que |X-Y|<\delta , o que prova que S é contínua.

Como temos que

\displaystyle \left| S(X) -\sum_{k=0}^{l} F_k (X) \right| \leq \sum_{k>l} M_k,

para todo X \in B e para todo l \in \mathbb{N}, segue que

\displaystyle \left\|S - \sum_{k=0}^l F_k\right\| \leq \sum_{k>l} M_k,

completando a demonstração, uma vez que \sum M_k é convergente.


Supõe-se, agora,  p=1 . Ou seja, estaremos no espaço C(B, \mathbb{R} ^d ) , onde B\subset\mathbb{R} . Id est, B é um intervalo fechado e, portanto, será denotado por I .

Uma função F: I\to \mathbb{R}^d é inteiramente determinada pelas funções coordenadas (ou seja, as funções F_1 , \ldots ,F_d : I\to \mathbb{R}^d tais que F(x)= (F_1 (x), \ldots , F_d (x) ) ). Por exemplo, a função F é contínua se, e somente se, todas suas funções coordenadas são contínuas; também, F é derivável se, e somente se, todas as funções coordenadas são deriváveis e, além disso, quando F é derivável, acontece F'(x) = (F_1' (x) , \ldots , F_d' (x) ) .

Acontece o mesmo para integração. Uma função F: I\to \mathbb{R} ^d é integrável se, e somente se, as funções coordenadas são integráveis. A primitiva de F (se houver) é a d-upla das primitivas das funções coordenadas, e a integral definida de F é a d-upla das integrais definidas de suas funções coordenadas. Ou seja,

\displaystyle\int _a ^b F ( \tau ) d\tau = \left( \int_a^b F_1 ( \tau ) d\tau , \ldots , \int_a^b F_d ( \tau ) d\tau \right) .

Note que toda função em C(I; \mathbb{R} ^d ) é integrável. Com efeito, dada F\in C(B; \mathbb{R} ^d ) é contínua, logo as funções coordenadas dessa função são contínuas. Disso segue que as funções coordenadas são integráveis e, portanto, F é integrável.

O próximo passo é provar um teorema sobre a derivada de séries de funções contínuas e deriváveis. Mas, para isso, serão enunciados dois teoremas sobre integrais definidas.

Lema 1.3: Se f \in C(I; \mathbb{R}) , então \displaystyle \left| \int_0^t f(\tau) d\tau \right| \leq \int_0^t |f(\tau)| d\tau.


Demonstração:

Segue da monotonicidade da integral e do fato de que

-|f(\tau)| \leq f(\tau) \leq |f(\tau)|.


Lema 1.4: Se F \in C(I; \mathbb{R} ^d ) , então existe c\in\mathbb{R} tal que

\displaystyle \left| \int_0^t F(\tau) d\tau \right| \leq c\int_0^t|F(\tau)| d\tau.


Demonstração: Pela equivalência entre as normas em \mathbb{R}^d, existe constantes positivas b,c \in\mathbb{R} tais que

|X| \leq b \max \{ |X_1|, \ldots , |X_d| \} \leq c |X|

onde X = (X_1, \ldots , X_d) \in \mathbb{R}^d. Seja F_i a i-ésima função coordenada de F . Temos então que

\displaystyle \left| \int_0^t F(\tau) d\tau \right| \leq b\max \left\{ \left| \int_0^t F_1(\tau) d\tau \right|, \ldots , \left| \int_0^t F_d(\tau) d\tau \right| \right\}

Pelo Lema 1.3, temos que

\displaystyle \left| \int_0^t F_i(\tau) d\tau \right| \leq \int_0^t |F_i(\tau)| d\tau,

o que implica que

\displaystyle \left| \int_0^t F(\tau) d\tau \right| \leq b \max \left\{ \int_0^t |F_1(\tau)| d\tau , \ldots , \int_0^t |F_d(\tau) |d\tau \right\}

\displaystyle = \max \left\{ \int_0^t b |F_1(\tau)| d\tau , \ldots , \int_0^t b |F_d(\tau) |d\tau \right\} \leq \int_0^t c|F(\tau)|d\tau.


Proposição 1.5Seja (F_k ) uma seqüência de funções deriváveis em C(I; \mathbb{R} ^d ) tal que (F_k ' ) também está em C(I, \mathbb{R}^d ) . Se existe uma seqüência de números reais (M_k) tal que a série \sum M_k é convergente e tal que \left\| F_k \right\| , \left\| F_k' \right\| \leq M_k , para todo k\in\mathbb{N} , então \left( \sum F_k\right)' = \sum F_k' .


Demonstração:

Pela Proposição 1.2 ,  temos que as séries \displaystyle S = \sum F_k e \displaystyle T = \sum F_k ' são ambas convergentes. Devemos Provar que S' = T .

Pela definição de convergencia de séries, temos que

\displaystyle \left\| T -\sum _{k=0}^l F_k' \right\| \to 0 , quando l \to \infty .

Para t \in I , pelo teorema fundamental do cálculo, tem-se que

\displaystyle \left| \int_0^t T(\tau ) d\tau - \sum_{k=0}^l (F_k(t)-F_k(0) )\right| =

\displaystyle = \left| \int _0^t T(\tau ) d\tau - \sum _{k=0} ^l \left( \int _0 ^t F_k ' ( \tau ) d\tau \right) \right|
\displaystyle = \left| \int _0 ^t T( \tau ) d\tau - \int _0 ^t \left( \sum _{k=0} ^l F_k ' ( \tau ) \right) d \tau \right|

\displaystyle = \left| \int _0 ^t \left( T( \tau ) - \sum _{k=0} ^l F_k ' ( \tau ) \right) d \tau \right| .

Utilizando o lema precedente, existe uma constante c\in \mathbb{R} tal que

\displaystyle \left| \int_0^t T(\tau ) d\tau - \sum_{k=0}^l (F_k(t)-F_k(0) )\right| \leq

\displaystyle \leq c \int_{0}^{t} \left| T( \tau )-\displaystyle\sum_{k=0}^{l} F_k' ( \tau ) \right| d\tau

\displaystyle \leq c\left| t-0 \right| \left\| T - \sum _{k=0} ^l F_k ' \right\| \to 0

quando l\to \infty .

Portanto, pelo teorema do sanduíche, segue que

\displaystyle \left| \int_0^t T(\tau ) d\tau - \sum_{k=0}^l (F_k(t)-F_k(0) )\right| \to 0

quando l\to \infty .

Ou seja,

\displaystyle\sum \left( F_k (t) - F_k (0) \right) = \int _0^t T ( \tau ) d\tau

Isto é,

\displaystyle S(t) - S(0) = \int _0 ^t T ( \tau ) d\tau

E, pelo teorema fundamental do cálculo, isso quer dizer que S' = T .