RELACIONES BINARIAS
DEFINICIÓN (de relación binaria) Sea A un conjunto. Una relación binaria definida en A es un subconjunto R de X x X. Se usa la notación xRy para indicar que (x,y) ∈ R.
PROPIEDADES Sea A un conjunto. Una relación binaria R definida en A.
(1) Reflexiva: ∀a∈A, aRa
(2) Simétrica: ∀a,b∈A si aRb ⇒ bRa.
(3) Transitiva: ∀a,b,c∈A si aRb y bRc ⇒ aRc.
(4) Antisimétrica: ∀a,b∈A si aRb y bRa ⇒ a = b.
DEFINICIONES (de relación de equivalencia y de orden) Sea A un conjunto y R una relación binaria definida en él:
Se dice que R es relación de equivalencia si cumple las propiedades (1) (2) y (3). Escribiremos entonces que a b. Se dice que R es relación de orden parcial si cumple las propiedades (1) (3) y (4). Una relación de orden se denota por ≤ y diremos que (A,≤)es un conjunto ordenado. Si además de estas tres propiedades se cumple que ∀a,b∈A se tiene que o bien aRb o bien bRa, R es relación de orden total.
Sea (A,≤) un conjunto ordenado. Se dice que el orden es bueno o que A está bien ordenado si todo subconjunto A’ de A no vacío tiene un mínimo. Se cumple que si el orden es bueno, entonces es total, pero no al revés.
DEFINICIÓN (de clase de equivalencia y conjunto cociente) Sea A un conjunto, y una relación de equivalencia definida en él. Se llama clase de equivalencia de a = al conjunto formado por los elementos de A que están relacionados con a. Al conjunto de todas las clases de equivalencia se le llama conjunto cociente y se denota A/ .
Ejemplo de relación de equivalencia
Sea A=ℤ el conjunto de los números enteros. aRb ⇔ a – b = (múltiplo de 3).
Es relación de equivalencia porque cumple las tres propiedades:
REFLEXIVA: aRa ⇔ a-a=0= ∀a∈A
SIMÉTRICA: si aRb ⇒ a-b= ⇒ – (a-b) = b-a = -3= ⇒ bRa ∀a,b∈ℤ
TRANSITIVA: si aRb ⇒ a-b =
si bRc ⇒ b-c = sumando las dos expresiones a-c = ⇒aRc ∀a,b,c∈ℤ.
Clases de equivalencia: = {…,-6,-3,0,3,6,…} = {…,-5,-2,1,4,7,…} = {…,-4,-1,2,5,8,…}
Conjunto cociente: ℤ/∼ = { , , }
Ejemplo de relación de orden (parcial) que no es total.
Sea A=ℕ el conjunto de los números naturales. aRb⇔a es divisor de b ∀a,b∈ℕ
Cumple las tres propiedades:
REFLEXIVA: a es divisor de a ⇒ aRa ∀a∈ℕ
ANTISIMÉTRICA: si aRb⇒a es divisor de b y si bRa⇒b es divisor de a ⇒ a = b ∀a,b∈ℕ
TRANSITIVA: si aRb⇒a es divisor de b y si bRc⇒b es divisor de c ⇒ a es divisor de c ⇒ aRc ∀a,b,c∈ℕ
El orden no es total porque dos números naturales cualesquiera no tienen que ser uno divisor de otro necesariamente.
Si A=ℕ. aRb ⇔ a ≤ b ∀a,b∈ℕ si es relación de orden total y de buen orden. Esta misma relación, pero definida en los números reales, es de orden total pero no bueno.
ESPACIOS VECTORIALES
DEFINICIÓN (de subespacio vectorial) Sea E un K-espacio vectorial y E’ ⊂ E un subconjunto de E. Se dice que E’ es subespacio vectorial de E si las operaciones de E son también operaciones en E’, y, con ellas, E’ es también un K-espacio vectorial.
PROPOSICIÓN (definición 2 de subespacio vectorial) Sea E un K-espacio vectorial y E’ ⊂ E un subconjunto de E con E’ ≠ . E’ es subespacio vectorial de E si y solo si ∀ e ,e’ ∈ E’ y ∀ λ,μ ∈ K se cumple que λe+μe’ ∈ E’ .
DEFINICIONES Sea E un K-espacio vectorial y sean e₁,…, ∈E.
Se llama combinación lineal de los vectores e₁,…, , a todo vector e de la forma
e = λ₁e₁+…+ donde λ₁,…, ∈ K son escalares cualesquiera. Se llama subespacio vectorial generado por los vectores e₁,…, y se denota por <e₁,…, > al conjunto de combinaciones lineales de dichos vectores. Se dice que los vectores e₁,…, son un sistema generador de E si <e₁,…, > = E, es decir, si cualquier vector de E se escribe como combinación lineal de dichos vectores.
DEFINICIONES (de vectores linealmente independientes y dependientes)
Sea E un K-espacio vectorial y sean e₁,…, ∈E. Se dice que dichos vectores son linealmente independientes o forman un sistema libre si la única combinación lineal de ellos igualada al vector es la que tiene todos sus coeficientes nulos, es decir, si λ₁e₁ +…+ = , donde λ₁,…, ∈ K ⇒ = 0 ∀ i=1,…,n. En caso contrario, se dice que son linealmente dependientes o que forman un sistema ligado.
DEFINICIÓN (de base y dimensión) Sea E un K-espacio vectorial de tipo finito. Se dice que los vectores {e₁,…, } forman una base de E si son un sistema libre y son sistema generador de E. Se llama dimensión de E, dimE, al número de vectores de una base cualquiera de E. Si E = { }, se adopta por convenio que dimE = 0.
DEFINICIONES (de suma, intersección y unión de subespacios)
Sea E un K-espacio vectorial y sean E₁ y E₂ dos subespacios vectoriales de E.
Se llama suma de E₁ y E₂, E₁ + E₂ = {e ∈ E / e = e₁+e₂ donde e₁ ∈ E₁ y e₂ ∈ E₂}.
Se llama intersección de E₁ y E₂, E₁ ∩ E₂ = {e∈E / e ∈ E₁ y e ∈ E₂}.
Se llama unión de E₁ y E₂, E₁ ∪ E₂ = {e ∈ E / e ∈ E₁ ó e ∈ E₂ }.
Definición 1 Se dice que E₁ y E₂ están en situación (o posición) de suma directa y se escribe E₁ ⊕ E₂, si todo vector de E₁ + E₂ se escribe de forma única como suma de un vector de E₁ y otro de E₂.
Definición 2 de suma directa Es equivalente a decir que E₁ ∩ E₂ = { }.
Se dice que E₁ y E₂ son subespacios suplementarios ⇔ E = E₁ ⊕ E₂, es decir, si y solo si
E₁ +E₂ = E y E₁ ∩E₂ = { }.
EJEMPLO de dos subespacios que están en posición de suma directa, pero no son suplementarios.
Sean U={(3,1,0)} dimU=1 V={(1,0,0)} dimV=1 U+V={(3,1,0),(1,0,0)} y dim(U+V)=2 porque son linealmente independientes; además, como
dim(U+V) = dimU + dimV – dim( U∩V ) dim(U∩V)=0 U y V están en posición de suma directa, pero U+V ≠ ℝ³ por lo que no son suplementarios.
(1) Si E₁,E₂ son subespacios vectoriales de un K-espacio vectorial E, entonces E₁∩E₂ es también subespacio vectorial de E. E₁∩E₂ = { e e 1 y e 2 }
Hay que probar si ∀ e,e’ ∈ E₁∩E₂ y ∀ , ∈ K se cumple que + e’ ∈ E₁∩E₂.
Como e,e’ ∈ E₁∩E₂ ⇒ e,e’ ∈ E₁ y e,e’ ∈ E₂, entonces + e’ ∈ E₁ y + e’ ∈ E₂ por ser E₁ y E₂ subespacios vectoriales de E.
Por tanto + e’ ∈ E₁∩E₂.
(2) Si E₁,E₂ son subespacios vectoriales de un K-espacio vectorial E, entonces E₁+E₂ es también subespacio vectorial de E. E₁+E₂ = { e / e = e1 + e2 , e1 E1 y e2 E2 }
Hay que probar si ∀ e,e’ ∈ E₁+E₂ y ∀ , ∈K se cumple que + e’ ∈ E₁+E₂
Como e,e’ ∈ E₁+E₂ ⇒ e = e1 + e2, e’ = e’1 + e’2 donde e1 , e’1 ∈ E1 y e2, e’2 ∈ E₂
Entonces + e’= (e1 + e2) + (e’1 + e’2)= e1+ e’1+ e2+ e’2 ∈ E₁+E₂ porque
e1+ e’1 ∈ E₁ y e2+ e2’ ∈E₂ por ser E₁ y E₂ subespacios vectoriales de E.
(3) En el espacio vectorial de las matrices cuadradas de orden 2, M₂(ℝ), demostrar si son subespacio vectorial los siguientes subconjuntos:
(a) Las matrices cuyo determinante es distinto de 0.
No lo es, porque si lo fuera, la matriz debería pertenecer a él, y esta matriz no tiene el determinante distinto de cero.
(b) Las matrices cuyo determinante es 0.
Tampoco es subespacio, porque, por ejemplo, si A = y B =
Se tiene que |A|=|B|=0 y sin embargo |A+B|= 1 ≠0.
(c) Las matrices de la forma , con a∈ℝ.
No lo es, porque si una matriz A está en él, entonces también debería estar -A, pero esto no ocurre.
APLICACIONES LINEALES
DEFINICIÓN (de aplicación lineal) Sean E y E’ dos espacios vectoriales sobre el mismo cuerpo K.
Una aplicación f: E →E’ es una aplicación lineal o un homomorfismo de k-espacios vectoriales si f(e₁+e₂)=f(e₁)+f(e₂) ∀e₁,e₂∈E, y f(λe)=λf(e) ∀e∈E, ∀λ∈K, esto es, si f( λe₁+μe₂ ) = λf(e₁) + μf(e₂) ∀e₁,e₂ ∈ E y ∀λ,μ ∈ K.
Una aplicación lineal f:E → E de un k-espacio vectorial en sí mismo es un endomorfismo.
DEFINICIÓN (de núcleo e imagen de una aplicación lineal) Sea f : E → E’ una aplicación lineal entre dos k-espacios vectoriales.
Se llama imagen de f y se denota Im f, al conjunto f(E), esto es
Imf = {e’∈ E’: ∃ e ∈ E con f(e)=e’}. Se llama rango de f a la dimensión de Im f.
Se llama núcleo de f y se denota Kerf, al conjunto: Kerf = { e ∈ E : f (e) = }.
DEFINICIÓN (de inyectiva, epiyectiva y biyectiva) Sea f:E→E’ una aplicación lineal entre dos k-espacios vectoriales.
(a) Se dice que f es inyectiva si dos elementos cualesquiera de E que son distintos tienen imágenes distintas, es decir, si e ≠ e’ ⇒ f(e) ≠ f(e’) ∀e,e’∈E. Cuando f es aplicación lineal se usa:
f es inyectiva ⇔ Ker f ={ }
(b) Se dice que f es epiyectiva si Imf = E’.
(c) Se dice que f es biyectiva si y solo si es inyectiva y epiyectiva.
DEFINICIÓN (de matrices equivalentes) Sean A y A’ dos matrices de orden m × n con coeficientes en un cuerpo k. Se dice que A y A’ son equivalentes si están asociadas, en diferentes bases, a la misma aplicación lineal
f : E →E’ para ciertos k_espacios vectoriales E y E’ de dimensiones n y m respectivamente.
DEFINICIÓN (de matrices semejantes) Sean A y A’ dos matrices cuadradas de orden n con coeficientes en un cuerpo k. Se dice que A y A’ son semejantes si están asociadas, en bases distintas, al mismo endomorfismo f: E→ E de un k_espacio vectorial E de dimensión n.
(1) Sea f: E→ E’ un homomorfismo de K-espacios vectoriales. Ker f es subespacio vectorial de E y que la Im f es subespacio vectorial de E’.
(a) Kerf = { e ∈ E : f (e) = }.
Sean u,v ∈ ker f; hay que ver si ∀ , ∈K se cumple que u + v ∈ ker f.
Como u y v ∈ ker f ⇒ f(u) = y f(v) =
Por ser aplicación lineal f ( u + v) = f(u) + f(v) = + = ⇒ u + v ∈ ker f.
(b) Imf = {e’∈ E’: ∃ e ∈ E con f(e)=e’}
Sean u,v ∈ Imf; hay que ver que ∀ , ∈K se cumple que u + v ∈ Imf.
u ∈ Imf ⇒ existe e₁∈E de modo que f(e₁) = u
v ∈ Imf ⇒ existe e₂∈E de modo que f(e₂) = v
u + v = f(e₁)+ f(e₂) = f( e₁+ e₂). Por tanto, existe un vector w= e₁+ e₂ de modo que f( e₁+ e₂)= u + v ⇒ u + v ∈Imf por ser imagen de un vector de E.
(2) Sea f:E→E’ una aplicación lineal. Si f(e₁), f(e₂),…,f(en) son vectores linealmente independientes de E’, entonces e₁,….,en son también un conjunto de vectores linealmente independientes.
Supongamos que λ₁e₁+λ₂e₂+…+λnen = con λ₁,λ₂,…,λn ∈ K . Hay que probar que λi = 0
∀ i= 1,…,n
Aplicando f a ambos lados de la igualdad:
= f( ) = f(λ₁e₁+…+ λnen)= λ₁f(e₁)+λ₂f(e₂)+…+λnf(en) ⇒ λi = 0 ∀i=1,…,n
↑ ↑
por ser f aplicación lineal por ser f(e₁),f(e₂),…,f(en) L.I.
Por tanto e₁,…,en son también L.I.
(3) Sea f:E→E’ una aplicación lineal. Si {e₁,e₂,…,en} son linealmente dependientes de E, entonces f(e₁), f(e₂),…,f(en) son vectores linealmente dependientes de E’.
Supongamos que {e₁,e₂,…,en} son linealmente dependientes, es decir, si λ₁e₁+λ₂e₂+…+λnen = con λ₁,λ₂,…,λn ∈ K donde λi ≠ 0 para algún i =1,…,n. Aplicamos f a toda la expresión:
f(λ₁e₁+λ₂e₂+…+ λnen)= f( ) = ⇒ por ser f lineal λ₁f(e₁)+λ₂f(e₂)+…+λnf(en) = donde λi ≠ 0 para algún i =1,…,n ⇒ f(e₁), f(e₂),…,f(en ) son vectores linealmente dependientes de E’.
(4) Sea f:E→E’ una aplicación lineal inyectiva. Si {e₁,e₂,…,en} son linealmente independientes de E, entonces f(e₁), f(e₂),…,f(en ) son vectores linealmente independientes de E’.
Supongamos que λ₁f(e₁)+λ₂f(e₂)+…+λnf(en) = con λ₁,λ₂,…,λn ∈ K . Hay que probar que λi=0 ∀ i = 1,…,n.
Por ser f lineal f (λ₁f(e₁)+λ₂f(e₂)+…+λnf(en)) = ⇒ λ₁e₁+λ₂e₂+…+ λnen ∈ Kerf y por ser f inyectiva, el único vector del núcleo es el ; entonces λ₁e₁+λ₂e₂+…+λnen = ⇒ λi = 0
∀ i= 1,…,n por ser {e₁,e₂,…,en} linealmente independientes.
(5) Sea f:(E,K)→(E’,K), un homomorfismo epiyectivo de espacios vectoriales. Probar que si e₁,…,en es un sistema generador de (E,K), entonces f(e₁),f(e₂),…,f(en) es un sistema generador de (E’,K).
Si e₁,…,en es un S.G. de E, entonces cualquier vector u∈E es combinación lineal de ellos, es decir, ∃ λ₁,λ₂,…,λn ∈K tales que: u = λ₁e₁+…+ λnen.
Sea v = f(u) un vector de E’, imagen de un vector de E. v existe, porque al ser epiyectivo, todos los vectores de E’ son imágenes de algún vector de E.
Se tiene que: v = f(u)=f(λ₁e₁+…+ λnen) = λ₁f(e₁)+…+ λnf(en), y entonces, v es combinación lineal de f(e₁),…,f(en).
Por tanto, f(e₁),…,f(en) es un S.G. de E′.
DE ESTAS DOS ULTIMAS SE DEDUCE QUE SI f ES BIYECTIVO, ENTONCES LA IMAGEN DE CUALQUIER BASE DE E ES BASE DE E′.
(6) Sea f:E→E′ una aplicación lineal (homomorfismo) cuya matriz asociada en una base cualquiera de E es A. Probar que si e₁,…,en es una base de E, entonces f(e₁),…,f(en) es un sistema generador de Imf y además dim Imf = rgA.
La imagen de una aplicación lineal queda totalmente determinada por las imágenes de los vectores de una base de E.
Sea u= λ₁e₁+…+ λnen ∈E donde B = {e₁,…,en} es una base cualquiera de E. Aplicando f:
f(u) = f(λ₁e₁+…+ λnen )=
₁f(e₁)+…+ λnf(en) (por ser f aplicación lineal).
Por tanto, sabiendo las imágenes de los vectores de B se sabe la imagen de cualquier vector u∈E, es decir, f(e₁),…,f(en) son un sistema generador de la imagen de f.
Por otro lado, los vectores f(e₁),…,f(en) ∈E′ son las columnas de la matriz asociada a f en la base B, luego la dimensión de la imagen de f será el número de estos vectores que sean linealmente independientes, o lo que es lo mismo, el número de columnas L.I. de la matriz A, es decir, el rango de dicha matriz.
(7) Sea f:E→E′ una aplicación lineal . Demostrar que f es inyectiva ⇔ kerf =
.
⇒) Supongamos que f es inyectiva, es decir, si f(u) = f(v) ⇒ u=v, ∀u,v∈E.
Por otro lado ker f = {u∈E╱ f(u)=
} ⇒ f(u)=
= f(
) ⇒ u =
por ser f inyectiva.
Por tanto ker f =
.
⇐) Supongamos que ker f =
y f(u) = f(v) ∀u,v∈E. Por ser f aplicación lineal,
= f(u)-f(v) = f(u-v) ⇒ u-v ∈ker f ⇒ u-v =
, entonces u=v. Por tanto, f es inyectiva.
(8) (1) Si f:E→E′ es lineal inyectiva (monomorfismo),entonces dimE ≤ dimE′.
(2)Si f:E→E′ es lineal epiyectiva ( epimorfismo), entonces dimE ≥ dimE′.
(3)Si f:E→E′ es lineal biyectiva ( isomorfismo), entonces dimE = dimE′.
(1) Por ser f inyectiva dimker f = 0.
Por otro lado Imf ⊆ E′ ⇒ dimImf ≤ dimE′ y dimE = dimker f + dimImf, entonces
dimImf = dimE ≤ dimE′.
(2) Por ser f epiyectiva dimImf = dimE′ ⇒ como dimE = dimker f + dimImf =
= dimker f + dimE′ ≥ dimE′ porque dimker f ≥ 0.
(3) Por ser f biyectivo dimImf = dimE′ y dimker f = 0⇒ como
dimE = dimker f + dimImf = 0 + dimE′ = dimE′.
DIAGONALIZACION
DEFINICION (de vector y valor propio) Sea f:E →E un endomorfismo de un espacio vectorial real E ≠ {
}. Se dice que e≠
, e∈E es un «vector propio» o autovector de «valor propio» o autovalor λ ∈ ℝ, si f(e) = λe.
DEFINICION (de subespacio propio V(
Sea f:E→E un endomorfismo de un espacio vectorial real y λ∈ℝ el valor propio asociado a un vector propio e∈E. Se llama «subespacio propio asociado al valor propio λ∈ℝ» al conjunto de vectores propios asociados a dicho valor propio. Se denota V(λ) y además es subes vectorial de E.
DEFINICION (de endomorfismo diagonalizable) Sea f:E→E un endomorfismo de un espacio vectorial real E≠{
} de dimensión finita Se dice que f es «diagonalizable» si existe una base de E en la que la matriz de f es diagonal. La matriz A es «diagonalizable» ⇔ existen matrices cuadradas de orden n, B invertible, y D diagonal, tales que D= B⁻¹AB, donde A es la matriz asociada a f, B es la matriz cuyas co-lumnas son los vectores propios de f y D la matriz cuya diagonal son los valores propios de f.
TEOREMA DE DIAGONALIZACION Sea f: E → E un endomorfismo de un espacio vectorial real E ≠ {
} de dimensión finita n y sea A la matriz asociada a f en una base cualquiera de E y sea
P(x) =
⋅…⋅
el polinomio característico de A. Entonces:
f es diagonalizable ⇔ (1) m₁ +…+
= n
(2) dim V(
) =
∀i = 1,…p
(1) Probar que dos vectores propios correspondientes a valores propios distintos, de un endomorfismo f de un K-espacio vectorial E, son linealmente independientes.
Sea u un vector propio de valor propio λ y sea v un vector propio de valor propio μ, es decir, f(u) = λu y f(v) = μv. Si u y v fueran dependientes v = tu y A la matriz asociada a f , se cumpliría que
Av = Atu = tAu = tλu = λtu . Por otro lado Av = μv = μtu ⇒ λtu = μtu. Dividiendo por t, tenemos que λu = μu. Por tanto, μ = λ, que contradice el enunciado. Entonces, u y v son linealmente independientes.
(2) El 0 es un valor propio de f ∈ EndkE ⇔ f no es invertible.
⇒) Si el 0 es valor propio de f, entonces ∃ u∈E ╱ f(u) = 0.u =
⇒ u∈kerT.
Como dimker f + dimImf = dimE, entonces, si A es la matriz asociada al endomorfismo f, rgA = dimImf
= 0 con lo cual A no tiene inversa, es decir f no es invertible.
⇐) Supongamos que f no es invertible, es decir, rgA = dimImf 0. Por tanto, existe un vector u∈E tal que f(u) =
= 0.u ⇒ el 0 es valor propio de f.
También vale para demostrar que no es inyectivo o epiyectivo.
(3) Conociendo los valores propios de f ∈ EndkE calcular los valores propios de f⁻¹.
Supongamos que α≠0∈K es valor propio de f, es decir, existe u∈E ╱ f(u)=α.u. Aplicamos f⁻¹ a ambos lados de la igualdad y tenemos
u =
(u) = f⁻¹(f(u)) = f⁻¹(α.u) = α.f⁻¹(u) ⇒ f⁻¹(u) = (
.u = α⁻¹u.
Por tanto, los valores propios de f⁻¹ son los inversos de los valores propios de f.
(4) Conociendo los valores propios de f∈End_{k}E calcular los valores propios de f².
Supongamos que α≠0∈K es valor propio de f, es decir, existe u∈E ╱ f(u)=α.u. Aplicamos f a ambos lados de la igualdad y tenemos
f(f(u)) = f(α.u) = α.f(u) = ααu = α²u ⇒ f²(u) = α²u
Por tanto, los valores propios de f² son los cuadrados de los valores propios de f.
(5) Sea f ∈EndkE cuya matriz asociada es A, y sea ft el endomorfismo traspuesto (matriz asociada At). Probar que ambos tienen los mismos valores propios. ¿Tienen los mismos vectores propios? En caso negativo poner un contraejemplo.
Vamos a ver que los polinomios característicos de f y ft son iguales.
Por las propiedades de la traspuesta: (A-xI)t = At-xIt = At-xI. Tomando determinantes:
Pf(x) =
=
=
(x).
Como los valores propios son las raíces del pol. característico, ambos tienen los mismos valores propios.
No tiene los mismos vectores propios salvo que A sea simétrica ( A = At).
Por ejemplo:
(1,-1) es vector propio de valor propio 1.
Sin embargo:
no tiene al vector (1,-1) como vector propio
Los valores propios de los dos son α=1 y β=2.
(6) V(λ) es subespacio vectorial de E.
Hay que probar que si u, v son vectores propios de valor propio λ, entonces αu+βv es también vector propio de valor propio λ.
Partimos de f(u) = λu y f(v)=λv. f(αu+βv)=αf(u)+βf(v)=αλu+βλv=λ(αu+βv) Entonces αu+βv es vector de valor propio λ. También de cumple que V(λ) =Ker (f-λI), ya que si u es vector propio de valor propio λ∈ℝ, f(u) = λu ⇒ f(u) – λu =
⇒ (f-λI)u =
⇒ u ∈ Ker (f-λI).
(7) Sea f ∈ Endk(E). Demostrar que los valores propios de f son las raíces del polinomio característico. ¿ Cuántos valores propios puede tener ?
Sea
la matriz asociada a f. Si λ es un valor propio de f, entonces f(u)=λu para algún vector u∈E, u
es decir, f(u)-λu =
⇒ (f-λI).u =
Entonces u∈ker(f-λI). Por tanto f-λI no es inyectivo ni epiyectivo, con lo cual el rango de la matriz A-λI es menor que n, es decir, |(A-λI)|=0. Como el polinomio característico es P(x)= |(A-xI)|, se deduce que λ es la raíz de dicho polinomio. Como el grado del polinomio característico es n (orden de A), puede tener n raíces, y por tanto n valores propios.
(8) Demostrar que el polinomio característico de un endomorfismo f, es invariante por cambios de base, es decir, es el mismo en cualquier base de un K-espacio vectorial E.
Sea A la matriz asociada a f en una base B₁ de E, y sea
la matriz asociada a f en otra base B₂. Por la fórmula del cambio de base para endomorfismos, existe una matriz B de paso tal que B⁻¹AB =
(x)=|
-xI|=|B⁻¹AB – xI| = |B⁻¹AB – xB⁻¹B| = |B⁻¹(A-xI)B| = |B⁻¹|⋅|A-xI|⋅|B| = (
))⋅|A-xI|⋅|B|
= |A-xI| = PA(x)
(9) Toda matriz cuadrada de orden n descompone, de forma única, como suma de una matriz simétrica y otra hemisimétrica.
Sea M una matriz cualquiera de orden n. Hallamos H y S matrices de la siguiente forma:
H =
y S =
Vamos a ver que H es una matriz hemisimétrica, es decir, H = -Ht y S es una matriz simétrica, es decir, S = St. Por las propiedades de la traspuesta:
Ht =
=
= –
= -H; St =
=
= S
Por otra parte M =
+
= H + S ; por tanto toda matriz se puede escribir como suma de una simétrica y una hemisimétrica.
Vamos a ver que es única:
Supongamos que M = S + H = S’ + H’, es decir, que se escribe de dos formas distintas; restando las dos igualdades tenemos que 0 = S – S’ + H – H’;
entonces S – S’ = – ( H – H’) , pero S – S’ es simétrica y H – H’ es hemisimétrica, y la única matriz que es hemisimétrica y simétrica a la vez es la matriz nula, por tanto S – S’ = 0 y H – H’ = 0, es decir S = S’ y H = H’. Por tanto, la forma de escribir esa suma es única.
TOPOLOGIA
(2) Sea A ⊂ ℝⁿ. Se dice que un punto x∈A es un «punto interior de A» si existe una bola centrada en x contenida enteramente en A, es decir, si ∃ε >0 tal que B(x,ε) ⊆A. Al conjunto de puntos interiores de A se le llama «interior de A» y se denota
. Se dice que un punto x∈ℝⁿ es un «punto exterior de A» , si es interior de su complementario.
(3) Sea A⊂ℝⁿ. Se dice que un punto x∈ℝⁿ, es un punto de «acumulación de A» si toda bola abierta reducida centrada en x contiene algún punto de A, es decir, ∀ε>0
(x,ε) ∩ A ≠
. Al conjunto de puntos de acumulación de A se le llama «acumulación de A» y se denota A′. (4) Sea A⊂ℝⁿ. Se dice que un punto x∈ℝⁿ es un «punto adherente o punto clausura de A» y se denota
si toda bola abierta de centro x contiene algún punto de A». , es decir, ∀ε>0 B(x,ε) ∩ A ≠
. Al conjunto de puntos adherentes de A se le llama «adherencia o cierre de A.
Todo punto de acumulación es adherente, pero no al revés.
(5) Sea A⊂ℝⁿ. Se dice que un punto x∈A, es un «punto aislado de A» si ∃ε>0 tal que B(x,ε) ∩ A = {x}.
(6) Sea A⊂ℝⁿ. Se dice que un punto x∈ℝⁿ es un «punto frontera de A» si en todo entorno suyo hay puntos de A y de su complementario, es decir, ∀ε>0 B(x,ε)∩A ≠
y B(x,ε)∩{ℝⁿ – A} ≠
. Al conjunto de puntos frontera de A se le llama “frontera de A” y se denota ∂A.
DEFINICION (CONJUNTOS)
Un conjunto A⊂ℝⁿ es «abierto», si es entorno de cada uno de sus puntos, es decir, ∀x∈A ∃ε>0 tal que B(x,ε)⊆A. Un conjunto C ⊂ ℝⁿ se dice «cerrado» si su complementario ℝⁿ – C es abierto.
Un conjunto A⊂ℝⁿ está «acotado», si está incluido en una bola abierta.
Un conjunto A⊂ℝⁿ es «compacto» ⇔ es cerrado y acotado. (Teorema de Heine Borel).
OBSERVACIÓN
Hay conjuntos que no son ni abiertos ni cerrados. Por ejemplo (3,7]⊂ℝ. Es lo mismo que decir, que un conjunto que no es abierto, NO necesariamente es cerrado y viceversa.
DEFINICION (de cotas, supremo, ínfimo, máximo y mínimo)
(1) Sea A⊂ℝ . Se dice que y∈A es «cota superior» de A si y≥x ∀x∈A.
(2) Sea A⊂ℝ . Se dice que y∈A es «cota inferior» de A si y≤x ∀x∈A.
(3) Sea A⊂ℝ . Se dice que A está «acotado superiormente» si tiene cotas superiores.
(4) Sea A⊂ℝ . Se dice que A está «acotado inferiormente» si tiene cotas inferiores.
(5) Sea A⊂ℝ acotado superiormente. Se llama «supremo de A» a la menor de las cotas superiores. Si el supremo de A pertenece a A se le llama «máximo de A».
(6) Sea A⊂ℝ acotado inferiormente. Se llama «ínfimo de A» a la mayor de las cotas inferiores. Si el ínfimo de A pertenece a A se le llama «mínimo de A».
(7) Un conjunto A se dice «acotado» si posee cota superior e inferior.
PROPIEDADES DE LOS CONJUNTOS ABIERTOS
Por convenio, se considera que el conjunto vacío
es un abierto.
1. Las bolas abiertas son abiertos.
2. El conjunto total ℝⁿ es abierto.
3. La intersección de un número finito de abiertos es abierto.
4. La unión de una familia arbitraria de abiertos es abierto.
5. Un conjunto es abierto si y solo si es unión de bolas abiertas.
PROPIEDADES DE LOS CONJUNTOS CERRADOS
1. Las bolas cerradas es un cerrado.
2. El conjunto vacío
y el total ℝⁿ son cerrados.
3. La unión de un número finito de cerrados es cerrado.
4. La intersección de una familia arbitraria de cerrados es cerrado.
(1) Un punto x∈ℝⁿ es un punto de acumulación de A⊂ℝⁿ ⇔ todo entorno de x contiene infinitos puntos de A.
⇒) Supongamos que x es punto de acumulación y que existiera un entorno de x que sólo contuviera un número finito de puntos de A distintos de x. Sean x₁,…,xs estos puntos. Sea r=min d(x,xi) para i=1,…,s Cualquier bola de centro x y radio menor que r no contiene ningún punto de A distinto de x, lo que contradice que éste sea un punto de acumulación de A.
⇐) Si todo entorno de x contiene infinitos puntos de A, entonces dicho entorno corta a A en puntos distintos de x, que es la definición de que x es punto de acumulación de A.
(2) Un subconjunto A ⊂ ℝⁿ es cerrado ⇔ contiene todos sus puntos de acumulación.
⇒) Supongamos que A es cerrado y P un punto de acumulación de A. Vamos a ver que P∈A. Si no fuera así, entonces P pertenecería al complementario de A (ℝⁿ-A) que es abierto y según la definición de abierto existiría B(P,r) ⊂ Ac . Esta bola no cortaría a A y mucho menos reducida, por lo que P no sería punto de acumulación de A, en contra de lo supuesto, Por tanto P∈A.
⇐) Supongamos que A contiene todos sus puntos de acumulación, es decir A′⊂A. Vamos a ver que Ac es un conjunto abierto. Sea P∈Ac. Supongamos que no fuera abierto, entonces ninguna bola centrada en P estaría contenida en Ac y toda bola centrada en P tendría puntos de A podríamos decir que toda bola reducida de centro P contiene puntos de A ⇒ P∈A′ ⊂ A ⇒ P∈ A y habíamos supuesto lo contrario. Por tanto Ac es abierto y entonces A es cerrado.
(3) Si A es finito no tiene puntos de acumulacion.
Supongamos que P fuera un punto de acumulación de A, entonces una
(P, r) sólo podría contener un nº finito de puntos de A; sea P′ el punto de A más cercano a P y sea r′ su distancia; si tomamos r» ′ en
(P,r») no podría haber un solo punto de A y por ello P no puede ser punto de acumulación de A.
SUCESIONES DE NUMEROS REALES
DEFINICION (de sucesión y límite de una sucesión) Una «sucesión» es una aplicación x: ℕ→ℝ que se denota
donde
∈ℝ. Se dice que
→ ℓ o
= ℓ si ∀ε>0 ∃ n₀∈ℕ tal que n ≥ n₀ ⇒ ‖
– ℓ ‖ ε.
DEFINICION Una sucesión de números reales
es:
(a) Convergente si su límite es un número real.
(b) Divergente o un infinito si
= +∞ ó
= -∞.
(c) Oscilante si no tiene límite (finito o infinito). Por ejemplo {1, -1, 1, -1,….}.
DEFINICION Una sucesión de números reales
es:
(1) Monótona creciente si xn ≤ xn+1∀n∈ℕ.
(2) Monótona decreciente si xn ≥ xn+1∀n∈ℕ.
(3) Estrictamente creciente si xn n+1∀n∈ℕ.
(4) Estrictamente decreciente si xn > xn+1∀n∈ℕ.
(5) Acotada inferiormente si ∃m∈ℝ tal que m n ∀n∈ℕ.
(6) Acotada superiormente si ∃M∈ℝ tal que xn ∀n∈ℕ.
(7) Acotada si lo está superior e inferiormente, es decir, si ∃k∈ℝ tal que |xn| ∀n∈ℕ.
CRITERIO DE CAUCHY (para sucesiones) Una sucesión
en
tiene límite finito ⇔ es una sucesión de Cauchy, es decir, ∀ε>0 ∃n₀∈ℕ tal que m,n≥n₀ ⇒‖xn – xm‖ ε.
REGLA DE STOLZ (para el cálculo de límites) Si
y
son dos sucesiones de nºreales que cumplen:
(1)
es extrictamente monótona.
(2)
= ±∞ o
=
= 0 entonces: si
=
(finito o infinito) ⇒ ∃
=
=
.
REGLA DE LA RAIZ Si
es una sucesión de números reales positivos, entonces:
= ℓ (finito o infinito) ⇒ ∃
= ℓ.
PROPIEDAD SUCESIONES DE NUMEROS REALES
Toda sucesión monótona creciente (resp. decreciente) y acotada superiormente (resp. Infer.) es convergente y el límite de la sucesión es el supremo (resp. ínfimo) de la misma.
Por ser acotada, posee supremo al que llamamos S. Veamos que es el límite: sea B (S,ε ), hay un término de la sucesión por ejemplo xm que está contenido en ella, es decir que cumple S-ε m ≤S . Por ser monótona creciente si n > m se cumplirá que S-ε m n ≤ S, luego también será cierto que ∀n≥m, xn∈B(S,ε). Por tanto, por el criterio de Cauchy S es el límite.
CONTINUIDAD Y DIFERENCIACION
DEFINICION (de límite de una función en un punto) Sea f:C → ℝq una función definida en un conjunto C ⊂ ℝp y sea a ∈ ℝp un punto de acumulación de C. Se dice que ℓ∈ℝq es el límite de f en el punto a y lo denotaremos
= ℓ, si ∀ε>0, ∃δ>0 tal que si x ∈ C – {a}, ‖x-a‖δ ⇒‖f(x) – ℓ ‖ ε es decir, ∀ε>0, ∃δ>0 tal que si x ∈ B*(a,δ)∩C ⇒ f(x) ∈ B(ℓ,ε).
CRITERIO DE CAUCHY (para funciones) Sea f:C→ ℝq una función definida en un conjunto C⊂ ℝp y sea a∈ ℝp un punto de acumulación de C. Entonces
= ℓ ∈ ℝq ⇔ ∀ ε > 0, ∃δ>0 tal que si x,x′∈C – {a}, ‖x-a‖δ, ‖x′-a‖δ ⇒ ‖f(x) – f(x′)‖ ε.
DEFINICION (de función continua en un punto)
(1) Una función f:D⊂ℝⁿ→ ℝm es continua en un punto a∈D si y solo si lo es cada una de sus componentes.
(2) Una función f:D⊂ℝⁿ→ℝ es continua en un punto a∈D si y solo si
= f(a).
DEFINICION (de derivada según un vector y direccional) Sea f:C→ ℝq una función definida en un abierto C⊂ ℝp
Se llama “derivada de f en a∈C respecto de un vector u ∈ ℝp “, u ≠
y se denota, Du(f(a)) , al valor del siguiente límite si existe:
= Du(f(a)). Si ‖u‖=1 se le llama «derivada direccional» de f en a en la dirección del vector u.
DEFINICION (de derivada parcial) Sea a = (a₁,…,ap) un punto de ℝp y sea f: ℝp → ℝ una función real. Se define la “derivada parcial de f con respecto a xi” en el punto a al siguiente límite:
SE CUMPLE QUE LAS DERIVADAS PARCIALES SON LAS DERIVADAS DIRECCIONALES EN LAS DIRECCIONES DE LOS VECTORES DE LA BASE CANONICA DE Rp
TEOREMA DE SCHWARZ Sea f:U→ ℝq una función definida en un abierto U ⊆ ℝ² y sea (a,b)∈C. Si f tiene derivadas
,
,
en un entorno de (a,b) y la función
es continua en (a,b), entonces existe
(a,b) y
(a,b)=
(a,b).
DEFINICION ( función diferenciable en un punto) (1) Sea f: C→ ℝq una función definida en un abierto C ⊆ ℝp y sea a ∈ C. f es diferenciable en a si lo es cada una de sus componentes, en cuyo caso las componentes de la diferencial de f son ( df1(a),…,dfq(a) ).
(2) Sea f: C→ ℝ una función definida en un abierto C ⊆ ℝp y sea a ∈ C. Se dice que “f es diferenciable en a” si existe una aplicación lineal, la diferencial de f en a, que denotaremos df(a): ℝp → ℝ, y tal que
para h ∈ ℝp .
TEOREMA
- Si f es diferenciable en a, entonces es continua en a. El recíproco no es cierto.
Si f es diferenciable en a, entonces f(a+h)-f(a)=df(a)(h)+ε(h)‖h‖ y
)=0.
=
] =
+
= df(a)(0)+0 = 0 ⇒
= f(a) ⇒ f es continua en a.
DEFINICION Sea f: C→ ℝq una función definida en un abierto C ⊆ ℝp y sea a ∈ C. Si f es diferenciable en a, la matriz q x p asociada a la aplicación lineal df(a): ℝp → ℝq en las bases canónicas se llama matriz “jacobiana de f en a” y se denota Jf(a).
Jf(a) =
donde
,…,
son las componentes de f y a = ( x1,…,xp ).
DEFINICION (de gradiente de f)
Sea f: C→ℝ una función real definida en un conjunto C ⊆ ℝp diferenciable en a ∈ C, se llama «gradiente de f en a», ∇f(a) , al vector de ℝp que tiene por componentes las derivadas parciales de f en a, es decir:
∇f(a) = (
)
OPTIMIZACION
DEFINICION Sea f: C→ℝ una función real definida en un conjunto abierto C ⊆ ℝp.
(1) Un punto a∈C es un máximo relativo (local) estricto de f si f(a) > f(x) ∀x∈B(a,r)∩C.
(2) Un punto a∈C es un mínimo relativo (local) estricto de f si f(a) ∀x∈B(a,r)∩C.
Si no dice estricto se pone ≥ o ≤ respectivamente.
Se llaman «extremos relativos o locales de f « a los máximos y mínimos locales de f, si existen.
DEFINICION ´Sea f:C→ℝ una función real definida en un conjunto abierto C ⊆ ℝp
(1) Un punto a∈C es un máximo global estricto de f si f(a) > (x) ∀x∈C con x≠a.
(2) Un punto a∈C es un mínimo global estricto de f si f(a) ∀x∈C con x≠a.
Si no dice estricto se pone ≥ o ≤ respectivamente.
Se llaman «extremos globales de f « a los máximos y mínimos globales de f, si existen.
DEFINICION Sea f: C→ℝ una función real definida en un conjunto abierto C ⊆ ℝp.
Si f es diferenciable, se llaman «puntos estacionarios o críticos de f » a los puntos a∈C tales que df(a)= 0.
Se llaman «puntos de silla o de ensilladura de f» a aquellos puntos criticos de la funcion que no son extremos relativos de f.
DEFINICION Sea f:C → ℝ una función real definida en un conjunto abierto C ⊆ ℝp y sea ϕ:C → ℝq (q ϕ , esto es : S={x∈C: ϕ(x)=0} = {x∈C: ϕ₁(x)=0,…,ϕq(x)=0} donde ϕ₁,…,ϕq son las componentes de ϕ. Sea a∈S:
(1) f tiene en a un máximo relativo estricto condicionado por ϕ(x)=0 si existe un entorno reducido
de a tal que f(a) > f(x) ∀x∈
∩ S.
(2) f tiene en a un mínimo relativo estricto condicionado por ϕ(x)=0 si existe un entorno reducido
de a tal que f(a) ∀x∈
∩ S.
Se llaman extremos relativos o locales de f condicionados por ϕ(x)=0 a los máximos o mínimos relativos de f condicionados por ϕ(x)=0 si existen.
CONDICION NECESARIA DE EXTREMO RELATIVO (sin restricciones)
Sea f:C→ℝ una función real definida en un conjunto abierto C⊆
y sea a∈C. Si f es diferenciable en a y tiene un extremo relativo en a, entonces la diferencial de f en a es nula, es decir :
(a) = 0,
i = 1,…,p. Equivale a decir, que si f tiene un extremo relativo en a, entonces a es un punto crítico de f pero no al revés.
CONDICION SUFICIENTE DE EXTREMO RELATIVO (sin restricciones)
Sea f:C→ℝ una función real de clase C² definida en un conjunto abierto C⊆
y sea a∈C un punto crítico de f . Entonces:
Si d²f(a) es una forma cuadrática definida positiva, entonces a es un mínimo relativo estricto de f en C.
Si d²f(a) es una forma cuadrática definida negativa, entonces a es un máximo relativo estricto de f en C.
Si d²f(a) es una forma cuadrática indefinida, entonces a no es extremo relativo de f en C.
CONDICION NECESARIA DE EXTREMO LOCAL CONDICIONADO O TEOREMA DE LOS MULTIPLICADORES DE LAGRANGE (con restricciones de igualdad)
Sean f:C→R, ϕ:C→
dos funciones definidas en un abierto C⊆
( q ϕ son de clase C¹ en C, y a∈C es un extremo relativo de f condicionado por ϕ(x)=0 con rg(dϕ(a))=q (condición de regularidad) , entonces existen multiplicadores de Lagrange λ₁,…,λq∈ℝ tales que la diferencial de la lagrangiana L en (a;λ) es cero, es decir:
(a) -λ₁
)(a)- … –λq
)(a) = 0,
i=1,…,p. Equivale a decir que si a∈C es extremo relativo de f condicionado por ϕ(x)=0, entonces a es un punto crítico de la Lagrangiana.
CONDICION SUFICIENTE DE EXTREMO CONDICIONADO (con restricciones de igualdad)
Sean f:C→R, ϕ:C→
dos funciones de clase C² definidas en un abierto C⊆
( q ∈C tal que ϕ(a)=0 con rg(dϕ(a))=q. Si existen multiplicadores de Lagrange λ₁,…,λq∈ℝ tales que dL(a;λ)=0 y q′ es la forma cuadrática definida por la restrcción de d²Lx(a;λ) (con respecto a las variables x₁,…,xp ) al subespacio V={x∈
: dϕ(a)(x)=0} = ker(dϕ(a)) entonces se cumple que:
Si q′ es definida positiva, entonces a es mínimo relativo de f condicionado por ϕ(x)=0.
Si q′ es definida negativa, entonces a es máximo relativo de f condicionado por ϕ(x)=0.
Si q′ es indefinida, entonces a no es extremo relativo de f condicionado por ϕ(x)=0.