Exploración Detallada de Espacios Vectoriales: Conceptos Clave y Propiedades

Espacios Vectoriales: Definiciones y Propiedades Fundamentales

Sea E un conjunto. Se dice que (E,+,·) es un espacio vectorial sobre R (o un R-espacio vectorial) si + y · son dos operaciones definidas sobre E que verifican:

  • + es una operación interna (suma de vectores)
  • · es una operación externa (producto por escalar)

Subespacios Vectoriales

Sea E un R-espacio vectorial. Diremos que E’ ⊂ E es un subespacio vectorial de E si ∀u, v ∈ E’ y ∀λ, μ ∈ R se verifica que: λu + μv ∈ E’.

Combinación Lineal

Sea E un R espacio vectorial y sean e1, e2,…, ep ∈ E. Llamaremos combinación lineal de los vectores e1, e2,…, ep a todo vector de la forma: λ1e1 + λ2e2 + … + λpep donde λ1, λ2,…λp ∈ R son escalares cualesquiera.

Dependencia e Independencia Lineal

Sea E un R espacio vectorial. Se dice que los vectores e1, e2,…, ep son linealmente dependientes (l.d.) si alguno de ellos es combinación lineal de los demás. En caso contrario diremos que e1, e2,…, ep son linealmente independientes (l.i.). Se dice que e depende linealmente de e1, e2,…, ep si y sólo si e ∈ (e1, e2,…, ep).

Sistemas Generadores y Bases

Sea E un R espacio vectorial. Si {e1,…, eq} es un sistema generador de E y {e’1,…, e’p} son linealmente independientes, entonces se verifica que p ≥ q.

E se dice de tipo finito si existe un sistema generador formado por un número finito de vectores.

Definición de Base

Sea E de tipo finito. Se dice que los vectores {e1,…, en} forman una base si:

  1. Son generadores.
  2. Son linealmente independientes.

Dimensión de un Espacio Vectorial

Se llama dimensión de un R espacio vectorial, E, al número de vectores que forman una base del mismo. Se denota dim E. (Si E = {0} entonces dim(E) = 0).

Ejemplos de Bases

  • La base canónica en el espacio Rn.
  • La base canónica en el espacio Mmxn(R).
  • La base canónica en el espacio Rn[x].
  • Una base del espacio de matrices cuadradas simétricas de orden 2.
  • Una base del subespacio E’.
  • Una base de E’.

Suma de Subespacios

Sea E un R-espacio vectorial y sean E1 y E2 subespacios de E. Se llama suma de subespacios de E1 y E2, y se denota E1 + E2, al conjunto:

E1 + E2 = {e1 + e2 : e1 ∈ E1, e2 ∈ E2}.

Suma Directa

Se dice que E1 y E2 están en posición de suma directa y se denota E1 ⊕ E2 si todo vector de E1 + E2 se escribe de forma única como suma de un vector de E1 y otro de E2.

∀e1, e’1 ∈ E1, ∀e2, e’2 ∈ E2 : e1 + e2 = e’1 + e’2 ⇒ e1 = e’1 y e2 = e’2.

Aplicaciones Lineales

Sean E, E’ dos R espacios vectoriales. Se dice que f : E → E’ es una aplicación lineal (u homomorfismo de R-espacios vectoriales) si:

f(λ1e1 + λ2e2) = λ1f(e1) + λ2f(e2) ∀e1, e2 ∈ E, ∀λ1, λ2 ∈ R.

Núcleo e Imagen de una Aplicación Lineal

Sea f : E → E’ una aplicación lineal.

  • Se llama Núcleo de f y se denota por Ker f, al conjunto: Ker f = {e ∈ E : f(e) = 0E’}.
  • Se llama Imagen de f y se denota por Im f, al conjunto: Im f = {e’ ∈ E’ : ∃e ∈ E con f(e) = e’}.

Isomorfismos

Se dice que una aplicación lineal f : E → E’ es un isomorfismo cuando es biyectiva.

Sea f : E → E’ aplicación lineal:

  • f es isomorfismo si: ker f = 0E y im f = E’.
  • f es isomorfismo, dim E = dim Im f = dim E’.
  • La composición de isomorfismos es isomorfismo.
  • Si f : E → E’ es isomorfismo también lo es f-1.
  • Si dim E = n, entonces E es isomorfo a Rn.

Matriz Asociada a una Aplicación Lineal

Sea E un espacio vectorial, y sean B y B’ bases de E. Se llama matriz de cambio de base de la base B a la base B’ a la matriz MId(B’, B), donde Id denota el homomorfismo identidad.

Matrices Equivalentes y Semejantes

  • Diremos que dos matrices A y A’ ∈ M(m x n) son equivalentes si están asociadas a la misma aplicación lineal en distintas bases.
  • Las matrices cuadradas A y A’ ∈ M(n x n) se dicen semejantes si están asociadas al mismo endomorfismo.

Valores y Vectores Propios

Sea f : E → E un endomorfismo. Se dice que λ ∈ R es un valor propio de f si existe e ∈ E con e ≠ 0, tal que f(e) = λe. Se dice que e ∈ E es un vector propio asociado al valor propio λ si f(e) = λe.

Polinomio Característico

Sea A una matriz cuadrada de orden n. Se llama polinomio característico de A al polinomio:

CA(x) = det(A – x Id) = |A – x Id|.

Dada una matriz cuadrada de orden n se dice que λ ∈ R es un valor propio de A, si λ es raíz de su p.caract, es decir CA(λ) = det(A – λ Id) = 0.

Multiplicidad Geométrica y Algebraica

Sea λ un valor propio de f, entonces se definen:

  • Multiplicidad geométrica de λ, Mg(λ), a la dimensión del subespacio V(λ).
  • Multiplicidad algebraica de λ, Ma(λ) a la multiplicidad de λ como raíz de CA(x).

Diagonalización

Sea f : E → E’ endomorfismo. Se dice que f es diagonalizable si existe una base en la que la matriz asociada a f es diagonal. Sea A matriz cuadrada, se dice que A es diagonalizable si A es semejante a una matriz diagonal, es decir existen P regular y D diagonal tal que D = P-1AP (ó A = PDP-1).

Sea f : E → E un endomorfismo, con dim E = n, y A la matriz asociada en cualquier base. Entonces f es diagonalizable si existe una base de E formada por valores propios de f y si Mg(λ1) = Ma(λ1) y Ma(λ1) + … + Ma(λp) = n.

Propiedades Adicionales y Demostraciones

Sea E un R-espacio vectorial, sean e1, e2,…, ep ∈ E y sean λ1, λ2,… λp ∈ R. Se verifica que λ1e1 + λ2e2 + … + λpep ∈ E. (Para demostrar la proposición simplemente hay que aplicar la propiedad asociativa de la suma de vectores).

Demostración de Subespacio Generado

Sean u, v ∈ (e1,…, ep), y sean λ, μ ∈ R. Hemos de probar que λu + μv ∈ (e1,…ep). Como u = λ1e1 + … + λpep y v = μ1e1 + … + μpep tenemos que:

λu + μv = (λλ1 + μμ1)e1 + … + (λλp + μμp)ep ∈ (e1,…ep).

Dependencia e Independencia Lineal (Demostraciones)

  • Dependencia Lineal: e1, e2,…, ep son l.d. si y solo si existe una combinación lineal no trivial de ellos igual al vector cero. ∃λ1,…, λp con algún λi ≠ 0 tal que λ1e1 + … + λpep = 0.
  • Independencia Lineal: e1, e2,…, ep son l.i. si y solo si la única combinación lineal de ellos igual al vector cero es la trivial (todos los coeficientes nulos). λ1e1 + λ2e2 + … + λpep = 0 ⇒ λ1 = λ2 = … = λp = 0.

Rango de un Sistema de Vectores

Sea E un R-espacio vectorial, y {e1,…, ep} un sistema de vectores. rang(e1,…, ep) es el mayor número de vectores l.i. en {e1,…, ep}.

  • {e1,…, ep} son l.i. ⇒ rang(e1,…, ep) = p
  • {e1,…, ep} es s.g. ⇒ rang(e1,…, ep) = dim E.

Sistema Generador de la Suma de Subespacios

Si {e1,…, ep} es un sistema generador de E1 y {e’1,…, e’q} es un sistema generador de E2, entonces {e1,…, ep, e’1,…, e’q} es un sistema generador de E1 + E2.

Dado e ∈ E1 + E2, por definición e = u1 + u2, siendo u1 ∈ E1 y u2 ∈ E2. Utilizando que los sistemas {e1,…, ep} y {e’1,…, e’q} son generadores podemos escribir:

e = u1 + u2 = (λ1e1 + … + λpep) + (μ1e’1 + … + μqe’q) lo cual prueba el resultado.

Propiedades de la Suma de Subespacios

  • E1 + E2 es el menor subespacio que contiene a E1 y E2.
  • Demostración:
    1. E1 + E2 es subespacio. Es fácil comprobar que cualquier combinación lineal de elementos de E1 + E2 pertenece a E1 + E2.
    2. E1 + E2 es el menor subespacio que contiene a E1 y a E2. Si E0 es un subespacio que contiene a E1 y a E2 debe contener sus combinaciones lineales, en particular a e1 + e2 con e1 ∈ E1, e2 ∈ E2 es decir, E1 + E2 ⊂ E’.

Matrices Semejantes y Determinantes

A y A’ son semejantes ⇒ det(A) = det(A’).

Demostración: Usando la proposición anterior y tomando determinantes obtenemos:

A’ = P-1AP ⇒ det(A’) = det(P-1AP) = det(P-1)det(A)det(P) y como det(P-1) = [det(P)]-1 concluimos: det(A’) = det(A).

Valores Propios y Endomorfismos

Proposición 1: Sea f : E → E endomorfismo. λ es el valor propio de f ⇔ f – λId : E → E no es inyectiva.

Demostración: λ es v.p de f ⇔ ∃e ≠ 0, f(e) = λe ⇔ (f – λId)(e) = 0 ⇔ e ∈ ker(f – λId) no es inyectiva.

Polinomio Característico de Matrices Semejantes

Si A y A’ son matrices semejantes entonces tienen el mismo polinomio característico.

Demostración: Si A y A’ son semejantes existe P no singular tal que A’ = P-1AP. Entonces CA’(x) = det(A’ – x Id) = det(P-1AP – x Id) = det(P-1(A – x Id)P) = det(P-1)det(A – x Id)det(P) = det(A – x Id) = CA(x).

Valores Propios de Endomorfismos y Matrices Asociadas

Sea f : E → E un endomorfismo, y sea A la matriz asociada a f en una base cualquiera. Entonces λ es valor propio de f ⇔ λ es valor propio de A.

Demostración: λ es v.p de f ⇔ (f – λID) no es inyectiva ⇔ (f – λID) no es isomorfismo ⇔ det(A – λID) = 0 ⇔ λ es v.p. de A.

Suma de Dimensiones de Subespacios Propios

Si λ1, … λp son los valores propios de f, entonces el número de vectores propios l.i. en E es: dim V(λ1) + … + dim V(λp) = Mg(λ1) + … + Mg(λp) ≤ n.

Demostración: Basta con tener en cuenta que: V(λ1) ⊕ … ⊕ V(λp). Por otra parte como consecuencia de la proposición de la página anterior: Mg(λ1) + … + Mg(λp) ≤ Ma(λ1) + … + Ma(λp) ≤ n.

Potencias de Matrices Diagonalizables

Si A es una matriz cuadrada diagonalizable, es decir D = P-1AP, donde D es una matriz diagonal, entonces An = PDnP-1.

Demostración: Por inducción sobre n. El caso 1 es cierto y si Ak = PDkP-1 entonces: Ak+1 = AAk = PDP-1PDkP-1 = PDk+1P-1.

Matrices Simétricas y Diagonalización

Si A es una matriz simétrica (con coeficientes reales) se verifica:

  • Todas las raíces de CA(x) son reales.
  • A es diagonalizable.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.