Aplicaciones Lineales e Isomorfismos
Sean E y F dos espacios vectoriales sobre K y sea T : E→F una aplicación. Diremos que T es una aplicación lineal si verifica:
- T(u + v) = T(u) + T(v), ∀u, v ∈ E.
- T(αu) = αT(u), ∀α ∈ K, ∀u ∈ E.
Isomorfismo: Si T : E→ F es una aplicación lineal biyectiva (inyectiva y suprayectiva), diremos que T es un isomorfismo.
Núcleo e Imagen
Sea T : E→F una aplicación lineal.
- Se llama núcleo de T al conjunto de vectores de E que tienen imagen nula. N(T) = { x ∈ E : T(x) = 0 }.
- Se llama imagen de T al conjunto de vectores de F que son imagen mediante T de algún vector de E: Im(T) = T(E) = { T(x) : x ∈ E }.
Caracterización de Isomorfismo
Mediante la aplicación inversa: Sean E, F dos espacios vectoriales sobre K de dimensión n y sea T : E → F una aplicación lineal. T es isomorfismo ⇐⇒ ∃! S : F→ E aplicación lineal tal que S ◦ T = IdE y T ◦ S = IdF. S es un isomorfismo al que llamaremos isomorfismo inverso de T y escribiremos T−1.
Matricial: Sean E, F dos espacios vectoriales sobre K de dimensión n y sea T : E→ F una aplicación lineal. T es isomorfismo ⇐⇒ TAC es no singular, para cualquier par de bases ordenadas A de E y C de F.
Ortogonalidad y Proyecciones
Vectores ortogonales: Sean E un espacio vectorial sobre K y (·|·) un producto escalar definido sobre E. Se dice que x e y ∈ E son ortogonales si (x|y) = 0. Escribiremos x ⊥ y.
Base ortogonal: Si A = {x1, x2, . . . , xn} es una base de E, se dice que es una base ortogonal de E si A es un conjunto ortogonal.
Proyección de un vector sobre un subespacio: Si F es un subespacio de E y {x1, x2, . . . , xk} es una base ortogonal de F, se llama proyección ortogonal de x sobre F al vector (fórmula).
Ortogonal sobre un subespacio: Sea E un espacio vectorial sobre K y sea (·|·) un producto escalar definido sobre E. Si F es un subespacio de E, se llama ortogonal de F al conjunto: F ⊥ = {x ∈ E | (x|y) = 0, ∀y ∈ F}.
Teorema de la Descomposición Ortogonal
Sea E un espacio vectorial sobre K y (·|·) un producto escalar definido sobre E. Si F es un subespacio de E, entonces se verifica que:
- F ⊥ es un subespacio de E.
- Si dimK E = n, entonces F ⊕ F ⊥ = E, es decir, E = F + F ⊥ y F ∩ F ⊥ = {0}.
Norma y Desigualdades
Módulo o norma: Sean E un espacio vectorial sobre K y (·|·) un producto escalar definido sobre E. Si x ∈ E, se llama norma de x al número real no negativo ||x||=√(x|x).
Desigualdad de Cauchy-Schwarz: |(u|v)|=||u|| ||v|| |cos(u,v)| ≤ ||u|| ||v||.
Desigualdad triangular: ||u + v|| ≤ ||u|| + ||v|| ∀u, v ∈ V.
Diagonalización de Matrices
Valor y vector propio: Sea A ∈ M n×n(K). Diremos que α ∈ K es un valor propio o autovalor de A si existe x ∈ Kn no nulo tal que Ax = αx. Al vector x se le llama vector propio o autovector de A asociado a α.
Multiplicidad algebraica (MA): Si α es un valor propio de una matriz A, llamaremos multiplicidad algebraica de α a la multiplicidad de α como cero del polinomio característico de A y la denotaremos por MA(α).
Multiplicidad geométrica (MG): Llamaremos multiplicidad geométrica de α (valor propio) a la dimensión del subespacio propio E(α) y la denotaremos por MG(α).
Matriz diagonalizable: Sea A una matriz n×n con entradas en K. A es una matriz diagonalizable en K si A es similar a una matriz diagonal, es decir, si existen P ∈ Mn×n(K) no singular y D ∈ Mn×n(K) matriz diagonal tales que A = PDP−1.
Teoremas de Diagonalización
Segundo teorema de matrices diagonalizables: Sea A una matriz n × n con entradas en K. A es diagonalizable en K ⇐⇒ (i) dA(λ) es producto de factores lineales en K[λ] (ii) MA(α) = MG(α), para cada valor propio α de A donde K[λ] denota el conjunto de polinomios con coeficientes en K en la indeterminada λ.
Teorema de la diagonalizabilidad de las matrices simétricas reales: Sea A ∈ Mn×n(R). A es simétrica ⇐⇒ existe P ∈ Mn×n(R) ortogonal tal que A = PDPT, siendo D una matriz diagonal.
Conceptos Adicionales
Teorema de las dimensiones: Si T : E→F es una aplicación lineal y E y F son espacios vectoriales sobre K de dimensión finita, entonces dimK E = dimK N(T) + dimK Im(T).
Polinomio característico: Sea A una matriz n × n con entradas en K. Llamaremos polinomio característico de A, y lo denotaremos por dA(λ), al polinomio en λ que se obtiene al calcular el determinante de la matriz: dA(λ) = det(A − λIn×n).
Subespacio propio: Si A ∈ Mn×n(K) y α es un valor propio de A, se llama subespacio propio o autoespacio asociado a α al subespacio que contiene todos los vectores propios de A asociados a α junto con el vector 0: E(α) = N(A − αIn×n) = {x ∈ K n : x ≠ 0 tal que Ax = αx} ∪ {0}.
Teorema de Frobenius: Sea A ∈ Mn×n(K). Si p(λ) = c0 + c1λ + · · · + ckλ k es un polinomio con coeficientes en K y σ(A) = {α1, . . . , αn}, entonces σ(p(A)) = {p(α1), . . . , p(αn)}, siendo p(A) = c0I n×n + c1A + · · · + ckA k ∈ Mn×n(K).