Conceptos Fundamentales de Álgebra Lineal: Teoremas y Demostraciones

Teorema de Rouché-Frobenius

Sea AX = B un sistema de m ecuaciones lineales con n incógnitas:

  • Si rg(A) ≠ rg(A*), el sistema es incompatible.
  • Si rg(A) = rg(A*) = n, el sistema es compatible determinado.
  • Si rg(A) = rg(A*) < n, el sistema es compatible indeterminado.

Espacio Vectorial: Definición y Propiedades

Sea V un conjunto no vacío. Supongamos que en V hay definida una operación suma, que denotaremos por +, y una operación producto por un escalar, que denotaremos por *. Diremos que (V, +, ·) es un espacio vectorial real (o simplemente un espacio vectorial) si se verifican las siguientes propiedades:

  1. Propiedad asociativa (+): (u + v) + w = u + (v + w), ∀ u, v, wV.
  2. Propiedad conmutativa: u + v = v + u, ∀ u, v, ∈ V.
  3. Existencia de elemento neutro: ∃ 0 ∈ V | 0 + v = v, ∀ vV.
  4. Existencia de elemento opuesto:vV ∃ –vV | v + (-v) = 0.
  5. Propiedad distributiva I: a · (u + v) = a · u + a · v, ∀ a ∈ ℝ, ∀ u, vV.
  6. Propiedad distributiva II: (a + b) · v = a · v + b · v, ∀ a, b ∈ ℝ, ∀ vV.
  7. Propiedad asociativa (·): a · (b · v) = (ab) · v, ∀ a, b ∈ ℝ, ∀ vV.
  8. Elemento unidad: 1 · v = v, ∀ vV.

Combinación Lineal

Al igual que en ℝn, si v1, v2, . . . , vn son n vectores de un espacio vectorial V y λ1, . . . , λn son números reales, entonces cualquier vector de la forma v = λ1v1 + λ2v2 + · · · λnvn se denomina una combinación lineal de los vectores v1, v2, . . . , vn.

Subespacio Vectorial

Sea V un espacio vectorial. Un subconjunto U de V es un subespacio vectorial de V si cumple las siguientes propiedades:

  1. 0 ∈ U.
  2. u1 + u2U, ∀ u1, u2U.
  3. λuU, ∀ λ ∈ ℝ, ∀ uU.

Demostración: Bases de un Espacio Vectorial Finitamente Generado

Si un espacio vectorial V es finitamente generado, entonces dos bases cualesquiera de V tienen el mismo número de vectores. Sean dos bases Bn y Bm*, se verifica necesariamente que m = n. Como todo vector del sistema v es combinación lineal de u, concluimos que mn. Igualmente, todo vector del sistema u es combinación lineal de v, concluimos que nm. Por lo tanto, m = n.

Intersección y Suma de Subespacios Vectoriales

  • Intersección: ST = {vV : vSvT}
  • Suma: S + T = {vV, v = v1 + v2, con v1S, v2T}

Fórmula de Grassmann

Dado un espacio vectorial sobre un cuerpo cualquiera, sean U y V dos conjuntos que determinan subespacios. La fórmula de Grassmann relaciona las dimensiones de U y V de la siguiente manera:

dim(UV) + dim(U + V) = dim U + dim V

Demostración: La Intersección de Dos Subespacios Vectoriales es un Subespacio Vectorial

En primer lugar, recordemos la definición de intersección de subespacios. Si S1 y S2 son dos subespacios vectoriales incluidos en un espacio vectorial V, S = S1S2 está formado por todos los vectores u pertenecientes a V tales que u pertenece a S1 y simultáneamente u pertenece a S2.

Para probar que efectivamente S = S1S2 es un subespacio vectorial de V debe cumplirse:

a) Que S no sea vacío.

b) Que sea cerrado para la suma.

c) Que sea cerrado para el producto escalar.

Demostración: La Suma de Dos Subespacios Vectoriales es un Subespacio Vectorial

Recordemos en primer lugar la definición de suma de subespacios: si S1 y S2 son dos subespacios incluidos en un espacio vectorial V, el subespacio S = S1 + S2 está formado por todos los vectores v de V tales que v = v1 + v2, con v1 perteneciente a S1 y v2 perteneciente a S2.

Para probar que S = S1 + S2 es efectivamente un subespacio vectorial de V debe cumplirse:

a) Que S no sea vacío.

b) Que sea cerrado para la suma.

c) Que sea cerrado para el producto escalar.

Demostración: Toda Variedad Lineal es un Subespacio Vectorial

Si x, y pertenecen a L(u1, u2, …), se tendrá que x = a1u1 + … + anun e y = b1u1 + … + bnun. Entonces:

λx + μy = λ(a1u1 + … + anun) + μ(b1u1 + … + bnun) = (λa1 + μb1)u1 + … + (λan + μbn)un

pertenece a L(u1, u2, …, un).

Demostración: Unicidad de las Coordenadas de un Vector Respecto a una Base

Supongamos que un vector u puede expresarse como u = x1u1 + x2u2 + … + xnun = x1u1 + x2u2 + … + xnun. Entonces:

uu = (x1u1 + x2u2 + … + xnun) – (x1u1 + x2u2 + … + xnun) = (x1x1‘)u1 + … + (xnxn‘)un = 0

Esto implica que, por la independencia lineal de los uj, todos los escalares xjxj‘ valen 0. Por lo tanto, xj‘ = xj, ∀ j = 1, 2, …, n.

Demostración: El Núcleo de una Aplicación Lineal es un Subespacio Vectorial

Definición de núcleo: Sea f una aplicación lineal f: VW. Se define el núcleo de f como: ker f = {vV / f(v) = 0}

Demostración: Sean v1 y v2 pertenecientes a ker f, es decir, f(v1) = 0 y f(v2) = 0. Se cumple:

  • f(v1 + v2) = f(v1) + f(v2) = 0 + 0 = 0 ⇒ v1 + v2 pertenece a ker f
  • f(av1) = af(v1) = a * 0 = 0 ⇒ av1 pertenece a ker f

Imagen de una Aplicación Lineal: Demostración de que es un Subespacio Vectorial

Demostración de la condición de linealidad:y^, y^‘ ∈ Im(f) y ∀ a, bK, ay^ + by^‘ ∈ Im(f)

Sabemos que:

  • [y^ ∈ Im(f) → ∃ x^V / y^ = f(x^)]
  • [y^‘ ∈ Im(f) → ∃ x^‘ ∈ V / y^‘ = f(x^‘)]

Finalmente:

ay^ + by^‘ = af(x^) + bf(x^‘) = f(ax^ + bx^‘)

donde ax^ + bx^‘ ∈ Vay^ + by^‘ ∈ Im(f)

Demostración: Los Vectores Imagen de una Base del Espacio Vectorial Inicial son un Sistema Generador

Si tenemos un sistema generador de A en V → sea y^ ∈ Im(f) → ∃ x^V / y^ = f(x^)

donde x^ = a1a1^ + a2a2^ + … + anan^

Aplicando:

f(x^) = f(a1a1^ + … + anan^) → y^ = f(x^) = a1f(a1^) + a2f(a2^) + … + anf(an^)

Demostración: La Condición Necesaria para que una Aplicación Lineal sea Inyectiva es que su Núcleo sea el Vector Nulo

Si f es inyectiva, no puede haber dos vectores con la misma imagen.

Por reducción al absurdo: tenemos v1^ y v2^V con v1^v2^ / f(v1^) = f(v2^)

Hay que demostrar que v1^ = v2^

f(v1^) – f(v2^) = 0^

Por linealidad, f(v1^v2^) = 0^

Como ker f = {0^}, (v1^v2^) = 0^, es decir, v1^ = v2^

Demostración: Dos Vectores Propios Asociados a Dos Valores Propios Distintos son Linealmente Independientes (Endomorfismo)

u^ ≠ 0^, v^ ≠ 0^, f(u^) = λ1u^, f(v^) = λ2x^, λ1λ2

Los vectores característicos son linealmente independientes, lo que implica que serán proporcionales.

u^ = av^

f(u^) = λ1u^ = f(av^) = 2v^ = λ2u^

(λ1λ2)u^ = 0^

Por lo tanto, los vectores son independientes.

Teorema de Cayley-Hamilton

Toda matriz cuadrada es raíz de su polinomio característico.

Teorema Espectral

Definición: Sea una matriz simétrica A. Existe una matriz ortogonal P, tal que PTAP = P-1AP = D, siendo D una matriz diagonal. Se dice que A se diagonaliza simultáneamente por congruencia (PTAP = D) y por semejanza (P-1AP = D). Es una diagonalización por semejanza ortogonal.

Ley de Inercia

Sean dos matrices (M, N) diagonales que representan una misma forma cuadrática en distintas bases. Si en la diagonal M hay r términos positivos y s negativos, en la diagonal N hay los mismos. El número de términos negativos, positivos y nulos en matrices diagonales congruentes es el mismo. Y las matrices congruentes tienen el mismo signo de autovalores.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.