Espacios Vectoriales: Definiciones y Propiedades Fundamentales
Sea E un conjunto. Se dice que (E,+,·) es un espacio vectorial sobre R (o un R-espacio vectorial) si + y · son dos operaciones definidas sobre E que verifican:
- + es una operación interna (suma de vectores)
- · es una operación externa (producto por escalar)
Subespacios Vectoriales
Sea E un R-espacio vectorial. Diremos que E’ ⊂ E es un subespacio vectorial de E si ∀u, v ∈ E’ y ∀λ, μ ∈ R se verifica que: λu + μv ∈ E’.
Combinación Lineal
Sea E un R espacio vectorial y sean e1, e2,…, ep ∈ E. Llamaremos combinación lineal de los vectores e1, e2,…, ep a todo vector de la forma: λ1e1 + λ2e2 + … + λpep donde λ1, λ2,…λp ∈ R son escalares cualesquiera.
Dependencia e Independencia Lineal
Sea E un R espacio vectorial. Se dice que los vectores e1, e2,…, ep son linealmente dependientes (l.d.) si alguno de ellos es combinación lineal de los demás. En caso contrario diremos que e1, e2,…, ep son linealmente independientes (l.i.). Se dice que e depende linealmente de e1, e2,…, ep si y sólo si e ∈ (e1, e2,…, ep).
Sistemas Generadores y Bases
Sea E un R espacio vectorial. Si {e1,…, eq} es un sistema generador de E y {e’1,…, e’p} son linealmente independientes, entonces se verifica que p ≥ q.
E se dice de tipo finito si existe un sistema generador formado por un número finito de vectores.
Definición de Base
Sea E de tipo finito. Se dice que los vectores {e1,…, en} forman una base si:
- Son generadores.
- Son linealmente independientes.
Dimensión de un Espacio Vectorial
Se llama dimensión de un R espacio vectorial, E, al número de vectores que forman una base del mismo. Se denota dim E. (Si E = {0} entonces dim(E) = 0).
Ejemplos de Bases
- La base canónica en el espacio Rn.
- La base canónica en el espacio Mmxn(R).
- La base canónica en el espacio Rn[x].
- Una base del espacio de matrices cuadradas simétricas de orden 2.
- Una base del subespacio E’.
- Una base de E’.
Suma de Subespacios
Sea E un R-espacio vectorial y sean E1 y E2 subespacios de E. Se llama suma de subespacios de E1 y E2, y se denota E1 + E2, al conjunto:
E1 + E2 = {e1 + e2 : e1 ∈ E1, e2 ∈ E2}.
Suma Directa
Se dice que E1 y E2 están en posición de suma directa y se denota E1 ⊕ E2 si todo vector de E1 + E2 se escribe de forma única como suma de un vector de E1 y otro de E2.
∀e1, e’1 ∈ E1, ∀e2, e’2 ∈ E2 : e1 + e2 = e’1 + e’2 ⇒ e1 = e’1 y e2 = e’2.
Aplicaciones Lineales
Sean E, E’ dos R espacios vectoriales. Se dice que f : E → E’ es una aplicación lineal (u homomorfismo de R-espacios vectoriales) si:
f(λ1e1 + λ2e2) = λ1f(e1) + λ2f(e2) ∀e1, e2 ∈ E, ∀λ1, λ2 ∈ R.
Núcleo e Imagen de una Aplicación Lineal
Sea f : E → E’ una aplicación lineal.
- Se llama Núcleo de f y se denota por Ker f, al conjunto: Ker f = {e ∈ E : f(e) = 0E’}.
- Se llama Imagen de f y se denota por Im f, al conjunto: Im f = {e’ ∈ E’ : ∃e ∈ E con f(e) = e’}.
Isomorfismos
Se dice que una aplicación lineal f : E → E’ es un isomorfismo cuando es biyectiva.
Sea f : E → E’ aplicación lineal:
- f es isomorfismo si: ker f = 0E y im f = E’.
- f es isomorfismo, dim E = dim Im f = dim E’.
- La composición de isomorfismos es isomorfismo.
- Si f : E → E’ es isomorfismo también lo es f-1.
- Si dim E = n, entonces E es isomorfo a Rn.
Matriz Asociada a una Aplicación Lineal
Sea E un espacio vectorial, y sean B y B’ bases de E. Se llama matriz de cambio de base de la base B a la base B’ a la matriz MId(B’, B), donde Id denota el homomorfismo identidad.
Matrices Equivalentes y Semejantes
- Diremos que dos matrices A y A’ ∈ M(m x n) son equivalentes si están asociadas a la misma aplicación lineal en distintas bases.
- Las matrices cuadradas A y A’ ∈ M(n x n) se dicen semejantes si están asociadas al mismo endomorfismo.
Valores y Vectores Propios
Sea f : E → E un endomorfismo. Se dice que λ ∈ R es un valor propio de f si existe e ∈ E con e ≠ 0, tal que f(e) = λe. Se dice que e ∈ E es un vector propio asociado al valor propio λ si f(e) = λe.
Polinomio Característico
Sea A una matriz cuadrada de orden n. Se llama polinomio característico de A al polinomio:
CA(x) = det(A – x Id) = |A – x Id|.
Dada una matriz cuadrada de orden n se dice que λ ∈ R es un valor propio de A, si λ es raíz de su p.caract, es decir CA(λ) = det(A – λ Id) = 0.
Multiplicidad Geométrica y Algebraica
Sea λ un valor propio de f, entonces se definen:
- Multiplicidad geométrica de λ, Mg(λ), a la dimensión del subespacio V(λ).
- Multiplicidad algebraica de λ, Ma(λ) a la multiplicidad de λ como raíz de CA(x).
Diagonalización
Sea f : E → E’ endomorfismo. Se dice que f es diagonalizable si existe una base en la que la matriz asociada a f es diagonal. Sea A matriz cuadrada, se dice que A es diagonalizable si A es semejante a una matriz diagonal, es decir existen P regular y D diagonal tal que D = P-1AP (ó A = PDP-1).
Sea f : E → E un endomorfismo, con dim E = n, y A la matriz asociada en cualquier base. Entonces f es diagonalizable si existe una base de E formada por valores propios de f y si Mg(λ1) = Ma(λ1) y Ma(λ1) + … + Ma(λp) = n.
Propiedades Adicionales y Demostraciones
Sea E un R-espacio vectorial, sean e1, e2,…, ep ∈ E y sean λ1, λ2,… λp ∈ R. Se verifica que λ1e1 + λ2e2 + … + λpep ∈ E. (Para demostrar la proposición simplemente hay que aplicar la propiedad asociativa de la suma de vectores).
Demostración de Subespacio Generado
Sean u, v ∈ (e1,…, ep), y sean λ, μ ∈ R. Hemos de probar que λu + μv ∈ (e1,…ep). Como u = λ1e1 + … + λpep y v = μ1e1 + … + μpep tenemos que:
λu + μv = (λλ1 + μμ1)e1 + … + (λλp + μμp)ep ∈ (e1,…ep).
Dependencia e Independencia Lineal (Demostraciones)
- Dependencia Lineal: e1, e2,…, ep son l.d. si y solo si existe una combinación lineal no trivial de ellos igual al vector cero. ∃λ1,…, λp con algún λi ≠ 0 tal que λ1e1 + … + λpep = 0.
- Independencia Lineal: e1, e2,…, ep son l.i. si y solo si la única combinación lineal de ellos igual al vector cero es la trivial (todos los coeficientes nulos). λ1e1 + λ2e2 + … + λpep = 0 ⇒ λ1 = λ2 = … = λp = 0.
Rango de un Sistema de Vectores
Sea E un R-espacio vectorial, y {e1,…, ep} un sistema de vectores. rang(e1,…, ep) es el mayor número de vectores l.i. en {e1,…, ep}.
- {e1,…, ep} son l.i. ⇒ rang(e1,…, ep) = p
- {e1,…, ep} es s.g. ⇒ rang(e1,…, ep) = dim E.
Sistema Generador de la Suma de Subespacios
Si {e1,…, ep} es un sistema generador de E1 y {e’1,…, e’q} es un sistema generador de E2, entonces {e1,…, ep, e’1,…, e’q} es un sistema generador de E1 + E2.
Dado e ∈ E1 + E2, por definición e = u1 + u2, siendo u1 ∈ E1 y u2 ∈ E2. Utilizando que los sistemas {e1,…, ep} y {e’1,…, e’q} son generadores podemos escribir:
e = u1 + u2 = (λ1e1 + … + λpep) + (μ1e’1 + … + μqe’q) lo cual prueba el resultado.
Propiedades de la Suma de Subespacios
- E1 + E2 es el menor subespacio que contiene a E1 y E2.
- Demostración:
- E1 + E2 es subespacio. Es fácil comprobar que cualquier combinación lineal de elementos de E1 + E2 pertenece a E1 + E2.
- E1 + E2 es el menor subespacio que contiene a E1 y a E2. Si E0 es un subespacio que contiene a E1 y a E2 debe contener sus combinaciones lineales, en particular a e1 + e2 con e1 ∈ E1, e2 ∈ E2 es decir, E1 + E2 ⊂ E’.
Matrices Semejantes y Determinantes
A y A’ son semejantes ⇒ det(A) = det(A’).
Demostración: Usando la proposición anterior y tomando determinantes obtenemos:
A’ = P-1AP ⇒ det(A’) = det(P-1AP) = det(P-1)det(A)det(P) y como det(P-1) = [det(P)]-1 concluimos: det(A’) = det(A).
Valores Propios y Endomorfismos
Proposición 1: Sea f : E → E endomorfismo. λ es el valor propio de f ⇔ f – λId : E → E no es inyectiva.
Demostración: λ es v.p de f ⇔ ∃e ≠ 0, f(e) = λe ⇔ (f – λId)(e) = 0 ⇔ e ∈ ker(f – λId) no es inyectiva.
Polinomio Característico de Matrices Semejantes
Si A y A’ son matrices semejantes entonces tienen el mismo polinomio característico.
Demostración: Si A y A’ son semejantes existe P no singular tal que A’ = P-1AP. Entonces CA’(x) = det(A’ – x Id) = det(P-1AP – x Id) = det(P-1(A – x Id)P) = det(P-1)det(A – x Id)det(P) = det(A – x Id) = CA(x).
Valores Propios de Endomorfismos y Matrices Asociadas
Sea f : E → E un endomorfismo, y sea A la matriz asociada a f en una base cualquiera. Entonces λ es valor propio de f ⇔ λ es valor propio de A.
Demostración: λ es v.p de f ⇔ (f – λID) no es inyectiva ⇔ (f – λID) no es isomorfismo ⇔ det(A – λID) = 0 ⇔ λ es v.p. de A.
Suma de Dimensiones de Subespacios Propios
Si λ1, … λp son los valores propios de f, entonces el número de vectores propios l.i. en E es: dim V(λ1) + … + dim V(λp) = Mg(λ1) + … + Mg(λp) ≤ n.
Demostración: Basta con tener en cuenta que: V(λ1) ⊕ … ⊕ V(λp). Por otra parte como consecuencia de la proposición de la página anterior: Mg(λ1) + … + Mg(λp) ≤ Ma(λ1) + … + Ma(λp) ≤ n.
Potencias de Matrices Diagonalizables
Si A es una matriz cuadrada diagonalizable, es decir D = P-1AP, donde D es una matriz diagonal, entonces An = PDnP-1.
Demostración: Por inducción sobre n. El caso 1 es cierto y si Ak = PDkP-1 entonces: Ak+1 = AAk = PDP-1PDkP-1 = PDk+1P-1.
Matrices Simétricas y Diagonalización
Si A es una matriz simétrica (con coeficientes reales) se verifica:
- Todas las raíces de CA(x) son reales.
- A es diagonalizable.