Teorema de Rouché-Frobenius
Sea AX = B un sistema de m ecuaciones lineales con n incógnitas:
- Si rg(A) ≠ rg(A*), el sistema es incompatible.
- Si rg(A) = rg(A*) = n, el sistema es compatible determinado.
- Si rg(A) = rg(A*) < n, el sistema es compatible indeterminado.
Espacio Vectorial: Definición y Propiedades
Sea V un conjunto no vacío. Supongamos que en V hay definida una operación suma, que denotaremos por +, y una operación producto por un escalar, que denotaremos por *. Diremos que (V, +, ·) es un espacio vectorial real (o simplemente un espacio vectorial) si se verifican las siguientes propiedades:
- Propiedad asociativa (+): (u + v) + w = u + (v + w), ∀ u, v, w ∈ V.
- Propiedad conmutativa: u + v = v + u, ∀ u, v, ∈ V.
- Existencia de elemento neutro: ∃ 0 ∈ V | 0 + v = v, ∀ v ∈ V.
- Existencia de elemento opuesto: ∀ v ∈ V ∃ –v ∈ V | v + (-v) = 0.
- Propiedad distributiva I: a · (u + v) = a · u + a · v, ∀ a ∈ ℝ, ∀ u, v ∈ V.
- Propiedad distributiva II: (a + b) · v = a · v + b · v, ∀ a, b ∈ ℝ, ∀ v ∈ V.
- Propiedad asociativa (·): a · (b · v) = (ab) · v, ∀ a, b ∈ ℝ, ∀ v ∈ V.
- Elemento unidad: 1 · v = v, ∀ v ∈ V.
Combinación Lineal
Al igual que en ℝn, si v1, v2, . . . , vn son n vectores de un espacio vectorial V y λ1, . . . , λn son números reales, entonces cualquier vector de la forma v = λ1v1 + λ2v2 + · · · λnvn se denomina una combinación lineal de los vectores v1, v2, . . . , vn.
Subespacio Vectorial
Sea V un espacio vectorial. Un subconjunto U de V es un subespacio vectorial de V si cumple las siguientes propiedades:
- 0 ∈ U.
- u1 + u2 ∈ U, ∀ u1, u2 ∈ U.
- λu ∈ U, ∀ λ ∈ ℝ, ∀ u ∈ U.
Demostración: Bases de un Espacio Vectorial Finitamente Generado
Si un espacio vectorial V es finitamente generado, entonces dos bases cualesquiera de V tienen el mismo número de vectores. Sean dos bases Bn y Bm*, se verifica necesariamente que m = n. Como todo vector del sistema v es combinación lineal de u, concluimos que m ≤ n. Igualmente, todo vector del sistema u es combinación lineal de v, concluimos que n ≤ m. Por lo tanto, m = n.
Intersección y Suma de Subespacios Vectoriales
- Intersección: S ∩ T = {v ∈ V : v ∈ S ∧ v ∈ T}
- Suma: S + T = {v ∈ V, v = v1 + v2, con v1 ∈ S, v2 ∈ T}
Fórmula de Grassmann
Dado un espacio vectorial sobre un cuerpo cualquiera, sean U y V dos conjuntos que determinan subespacios. La fórmula de Grassmann relaciona las dimensiones de U y V de la siguiente manera:
dim(U ∩ V) + dim(U + V) = dim U + dim V
Demostración: La Intersección de Dos Subespacios Vectoriales es un Subespacio Vectorial
En primer lugar, recordemos la definición de intersección de subespacios. Si S1 y S2 son dos subespacios vectoriales incluidos en un espacio vectorial V, S = S1 ∩ S2 está formado por todos los vectores u pertenecientes a V tales que u pertenece a S1 y simultáneamente u pertenece a S2.
Para probar que efectivamente S = S1 ∩ S2 es un subespacio vectorial de V debe cumplirse:
a) Que S no sea vacío.
b) Que sea cerrado para la suma.
c) Que sea cerrado para el producto escalar.
Demostración: La Suma de Dos Subespacios Vectoriales es un Subespacio Vectorial
Recordemos en primer lugar la definición de suma de subespacios: si S1 y S2 son dos subespacios incluidos en un espacio vectorial V, el subespacio S = S1 + S2 está formado por todos los vectores v de V tales que v = v1 + v2, con v1 perteneciente a S1 y v2 perteneciente a S2.
Para probar que S = S1 + S2 es efectivamente un subespacio vectorial de V debe cumplirse:
a) Que S no sea vacío.
b) Que sea cerrado para la suma.
c) Que sea cerrado para el producto escalar.
Demostración: Toda Variedad Lineal es un Subespacio Vectorial
Si x, y pertenecen a L(u1, u2, …), se tendrá que x = a1u1 + … + anun e y = b1u1 + … + bnun. Entonces:
λx + μy = λ(a1u1 + … + anun) + μ(b1u1 + … + bnun) = (λa1 + μb1)u1 + … + (λan + μbn)un
pertenece a L(u1, u2, …, un).
Demostración: Unicidad de las Coordenadas de un Vector Respecto a una Base
Supongamos que un vector u puede expresarse como u = x1u1 + x2u2 + … + xnun = x1‘u1 + x2‘u2 + … + xn‘un. Entonces:
u – u = (x1u1 + x2u2 + … + xnun) – (x1‘u1 + x2‘u2 + … + xn‘un) = (x1 – x1‘)u1 + … + (xn – xn‘)un = 0
Esto implica que, por la independencia lineal de los uj, todos los escalares xj – xj‘ valen 0. Por lo tanto, xj‘ = xj, ∀ j = 1, 2, …, n.
Demostración: El Núcleo de una Aplicación Lineal es un Subespacio Vectorial
Definición de núcleo: Sea f una aplicación lineal f: V → W. Se define el núcleo de f como: ker f = {v ∈ V / f(v) = 0}
Demostración: Sean v1 y v2 pertenecientes a ker f, es decir, f(v1) = 0 y f(v2) = 0. Se cumple:
- f(v1 + v2) = f(v1) + f(v2) = 0 + 0 = 0 ⇒ v1 + v2 pertenece a ker f
- f(av1) = af(v1) = a * 0 = 0 ⇒ av1 pertenece a ker f
Imagen de una Aplicación Lineal: Demostración de que es un Subespacio Vectorial
Demostración de la condición de linealidad: ∀ y^, y^‘ ∈ Im(f) y ∀ a, b ∈ K, ay^ + by^‘ ∈ Im(f)
Sabemos que:
- [y^ ∈ Im(f) → ∃ x^ ∈ V / y^ = f(x^)]
- [y^‘ ∈ Im(f) → ∃ x^‘ ∈ V / y^‘ = f(x^‘)]
Finalmente:
ay^ + by^‘ = af(x^) + bf(x^‘) = f(ax^ + bx^‘)
donde ax^ + bx^‘ ∈ V → ay^ + by^‘ ∈ Im(f)
Demostración: Los Vectores Imagen de una Base del Espacio Vectorial Inicial son un Sistema Generador
Si tenemos un sistema generador de A en V → sea y^ ∈ Im(f) → ∃ x^ ∈ V / y^ = f(x^)
donde x^ = a1a1^ + a2a2^ + … + anan^
Aplicando:
f(x^) = f(a1a1^ + … + anan^) → y^ = f(x^) = a1f(a1^) + a2f(a2^) + … + anf(an^)
Demostración: La Condición Necesaria para que una Aplicación Lineal sea Inyectiva es que su Núcleo sea el Vector Nulo
Si f es inyectiva, no puede haber dos vectores con la misma imagen.
Por reducción al absurdo: tenemos v1^ y v2^ ∈ V con v1^ ≠ v2^ / f(v1^) = f(v2^)
Hay que demostrar que v1^ = v2^
f(v1^) – f(v2^) = 0^
Por linealidad, f(v1^ – v2^) = 0^
Como ker f = {0^}, (v1^ – v2^) = 0^, es decir, v1^ = v2^
Demostración: Dos Vectores Propios Asociados a Dos Valores Propios Distintos son Linealmente Independientes (Endomorfismo)
u^ ≠ 0^, v^ ≠ 0^, f(u^) = λ1u^, f(v^) = λ2x^, λ1 ≠ λ2
Los vectores característicos son linealmente independientes, lo que implica que serán proporcionales.
u^ = av^
f(u^) = λ1u^ = f(av^) = aλ2v^ = λ2u^
(λ1 – λ2)u^ = 0^
Por lo tanto, los vectores son independientes.
Teorema de Cayley-Hamilton
Toda matriz cuadrada es raíz de su polinomio característico.
Teorema Espectral
Definición: Sea una matriz simétrica A. Existe una matriz ortogonal P, tal que PTAP = P-1AP = D, siendo D una matriz diagonal. Se dice que A se diagonaliza simultáneamente por congruencia (PTAP = D) y por semejanza (P-1AP = D). Es una diagonalización por semejanza ortogonal.
Ley de Inercia
Sean dos matrices (M, N) diagonales que representan una misma forma cuadrática en distintas bases. Si en la diagonal M hay r términos positivos y s negativos, en la diagonal N hay los mismos. El número de términos negativos, positivos y nulos en matrices diagonales congruentes es el mismo. Y las matrices congruentes tienen el mismo signo de autovalores.