Conceptos Fundamentales de Álgebra Lineal y Cálculo: Espacios Vectoriales, Aplicaciones Lineales y Funciones

Espacios Vectoriales

Definición de Base de un Espacio Vectorial V

Sean 𝑢1, 𝑢2, …, 𝑢𝑛 un conjunto de vectores del espacio vectorial V. Se dice que un conjunto 𝐵 = 〈𝑢1, 𝑢2, …, 𝑢𝑛〉 es una base del espacio vectorial V si:

  1. 𝐵 es linealmente independiente.
  2. 𝐵 es generador de V → 〈𝐵〉 = 𝑉.

Por lo tanto, todo vector de V se puede escribir como una combinación lineal única de la base. Es decir, una base de un espacio vectorial V es un conjunto de vectores linealmente independientes que son capaces de generar cualquier vector de dicho espacio vectorial V.

Definición de Vectores Linealmente Independientes y Dependientes

Un conjunto 𝑢1, 𝑢2, …, 𝑢𝑛 de vectores pertenecientes a un espacio vectorial V, son linealmente independientes si:

𝑢1𝛼1 + 𝑢2𝛼2 + ⋯ + 𝑢𝑛𝛼𝑛 = 𝛳 ⇒ 𝛼1 = 𝛼2 = ⋯ = 𝛼𝑛 = 0 (solución trivial).

Si no se verifica esto, es decir, si existe algún 𝛼𝑖 ≠ 0 tal que ∑ 𝑢𝑖𝛼𝑖 = 𝛳, entonces se dice que los vectores son linealmente dependientes o que forman un conjunto ligado.

Definición de Subespacio Vectorial de ℝ𝑛

Sea V (o ℝ𝑛) un espacio vectorial, y sea W un subconjunto de V no vacío (𝑊 ⊂ 𝑉, 𝑊 ≠ ∅). Decimos que W es un subespacio vectorial de V si (𝑊, +, *) tiene estructura de espacio vectorial con las mismas operaciones de V, es decir, si verifica:

  • 𝑢 + 𝑣 ∈ 𝑊, ∀𝑢, 𝑣 ∈ 𝑊
  • 𝛼𝑢 ∈ 𝑊, ∀𝛼 ∈ ℝ, ∀𝑢 ∈ W

Demostración: Conjunto {𝐮𝟏, 𝐮𝟐, …, 𝐮𝐧, 𝚹} es Ligado

Si existe algún 𝛼𝑖 ≠ 0 tal que la ∑ 𝛼𝑖𝑢𝑖 = 𝛳, entonces se dice que los vectores son linealmente dependientes o que forman un conjunto ligado.

Cualquier conjunto de vectores que contenga el vector nulo 𝛳, es un conjunto linealmente dependiente (ligado) → {𝑢1, 𝑢2, …, 𝛳, …, 𝑢𝑛} es un conjunto linealmente dependiente, pues como podemos comprobar, la igualdad se cumple para cualquier valor del coeficiente 𝛼𝑘* (no tiene por qué ser cero):

𝛼1𝑢1 + 𝛼2𝑢2 + 𝛼𝑘*𝛳 + … + 𝛼𝑛𝑣𝑛 = 𝜃

Demostración: Conjunto {𝒗𝟏, 𝒗𝟐, 𝒗𝟏, 𝒗𝟑, …, 𝒗𝒏} ∈ ℝ𝑛 es Ligado

Si existe algún 𝛼𝑖 ≠ 0 tal que la ∑ 𝛼𝑖𝑣𝑖 = 𝛳, entonces se dice que los vectores son linealmente dependientes o que forman un conjunto ligado (si son linealmente dependientes, al igualar una combinación lineal de los vectores al vector 𝜃, la igualdad se verifica para algún coeficiente 𝛼𝑖 ≠ 0).

Si uno de ellos se puede escribir como combinación lineal de los otros, entonces los vectores son linealmente dependientes. En nuestro caso, como tenemos dos vectores iguales (𝑣1), entonces uno de ellos se puede escribir como combinación lineal del resto, y por tanto son dependientes o ligados:

𝛼1𝑣1 + 𝛼2𝑣2 + 𝛼1*𝑣1 + 𝛼3𝑣3 + ⋯ + 𝛼𝑛𝑣𝑛 = 𝜃

(𝛼1 + 𝛼1*)𝑣1 + 𝛼2𝑣2 + 𝛼3𝑣3 + ⋯ + 𝛼𝑛𝑣𝑛 = 𝜃

La igualdad se verifica para 𝛼1 + 𝛼1* = 0 → 𝛼1 = −𝛼1* (y este valor no tiene por qué ser cero), por lo tanto, el conjunto de valores son ligados o linealmente dependientes.

Demostración: Si ∃𝛼2, 𝛼3, …, 𝛼𝑚 ∈ ℝ / 𝑢1 = 𝛼2𝑢2 + 𝛼3𝑢3 + ⋯ + 𝛼𝑚𝑢𝑚, entonces {𝑢1, 𝑢2, 𝑢3, …, 𝑢𝑚} es Linealmente Dependiente

Un conjunto de vectores {𝑢1, 𝑢2, 𝑢3, …, 𝑢𝑚} son linealmente independientes si en la ecuación 𝛼1𝑢1 + 𝛼2𝑢2 + 𝛼3𝑢3 + ⋯ + 𝛼𝑚𝑢𝑚 = θ todos los coeficientes 𝛼1, 𝛼2, …, 𝛼𝑚 son iguales a cero (𝛼𝑖 = 0).

Si tenemos que 𝛼2𝑢2 + 𝛼3𝑢3 + ⋯ + 𝛼𝑚𝑢𝑚 = 𝑢1, y despejamos (igualamos a 𝜃), tenemos:

−𝑢1 + 𝛼2𝑢2 + 𝛼3𝑢3 + ⋯ + 𝛼𝑚𝑢𝑚 = θ

Y, por tanto, como podemos ver, la ecuación

𝛼1𝑢1 + 𝛼2𝑢2 + 𝛼3𝑢3 + ⋯ + 𝛼𝑚𝑢𝑚 = θ

se verifica para el valor de 𝛼1 = −1.

Por lo que podemos concluir que en la combinación lineal no todos los coeficientes 𝛼𝑖 = 0, y entonces el conjunto de vectores {𝑢1, 𝑢2, 𝑢3, …, 𝑢𝑚} son linealmente dependientes.

Aplicaciones Lineales

Definición de Aplicación Lineal

Sean 𝑉 y 𝑊 espacios vectoriales reales (sobre ℝ). Una aplicación 𝑓: 𝑉 → 𝑊 es una aplicación lineal si cumple:

  1. 𝑓(𝑢 + 𝑣) = 𝑓(𝑢) + 𝑓(𝑣) ∀𝑢, 𝑣 ∈ 𝑉
  2. 𝑓(𝜆𝑢) = 𝜆𝑓(𝑢) ∀𝑢 ∈ 𝑉, ∀𝜆 ∈ ℝ

Estas dos condiciones se pueden resumir en una sola:

𝑓(𝛼𝑢 + 𝛽𝑣) = 𝛼𝑓(𝑢) + 𝛽𝑓(𝑣) ∀𝑢, 𝑣 ∈ 𝑉, ∀𝛼, 𝛽 ∈ ℝ

Demostración: Si dim(𝑉)

No puede ser sobreyectiva porque en este caso la dim(Im(𝑓))

Inversa de una Aplicación Lineal

Para calcular la inversa, la aplicación lineal tiene que ser biyectiva (si no es biyectiva no se puede calcular la inversa). Sea 𝑓 una aplicación lineal biyectiva (isomorfismo) de V en W, definimos la inversa de 𝑓 (𝑓⁻¹) como una aplicación de W en V donde:

𝑓⁻¹: 𝑊 → 𝑉

𝑦 → 𝑓⁻¹(𝑦) = 𝑥 / 𝑓(𝑥) = y

Demostración: El Núcleo (Ker) de una Aplicación Lineal es un Subespacio Vectorial de V

Sea 𝑓: 𝑉 → 𝑊 una aplicación lineal (donde V y W son subespacios vectoriales). El núcleo de una aplicación (Ker(𝑓)) es un subespacio vectorial del espacio V (Ker(𝑓) ⊂ 𝑉) formado por los elementos de V que tienen por imagen al vector nulo:

Ker(𝑓) = {𝑢 ∈ 𝑉 / 𝑓(𝑢) = 𝛳𝑤}

Por tanto, si los vectores 𝑢, 𝑣 pertenecen al Ker(𝑓), entonces cumplen que → {𝑓(𝑢) = 𝛳𝑤, 𝑓(𝑣) = 𝛳𝑤}.

Un subconjunto de vectores (en este caso el Ker(𝑓)) será un subespacio vectorial si cumple:

𝛼𝑢 + 𝛽𝑣 ∈ Ker(𝑓) ∀𝑢, 𝑣 ∈ Ker(𝑓), ∀𝛼, 𝛽 ∈ ℝ

Y sabemos que si f es una aplicación lineal entonces cumple que:

𝑓(𝛼𝑢 + 𝛽𝑣) = 𝛼𝑓(𝑢) + 𝛽𝑓(𝑣) ∀𝑢, 𝑣 ∈ 𝑉, ∀𝛼, 𝛽 ∈ ℝ

Basándonos en lo anterior, podemos demostrar que el Ker(𝑓) es un subespacio vectorial de V, pues ∀𝑢, 𝑣 ∈ Ker(𝑓), ∀𝛼, 𝛽 ∈ ℝ:

𝑓(𝛼𝑢 + 𝛽𝑣) = 𝛼𝑓(𝑢) + 𝛽𝑓(𝑣) = 𝛼𝛳𝑤 + 𝛽𝛳𝑤 = 𝛳𝑤 → 𝛼𝑢 + 𝛽𝑣 ∈ Ker(𝑓)

Con lo que queda demostrado que el Ker(𝑓) es un subespacio vectorial de V.

Demostración: La Imagen de una Aplicación Lineal es un Subespacio Vectorial de W

Sea 𝑓: 𝑉 → 𝑊 una aplicación lineal (donde V y W son subespacios vectoriales). La imagen de una aplicación (Im(𝑓)) es un subespacio vectorial del espacio W (Im(𝑓) ⊂ 𝑊) que está formada por los elementos de W que son imagen de un elemento de V:

Im(𝑓) = 𝑓(𝑉) = {𝑎 ∈ 𝑊 / 𝑓(𝑢) = 𝑎; 𝑢 ∈ 𝑉}

Por tanto, si los vectores 𝑎, 𝑏 pertenecen a la Im(𝑓) entonces cumplen → {𝑓(𝑢) = 𝑎, 𝑢 ∈ 𝑉; 𝑓(𝑣) = 𝑏, 𝑣 ∈ 𝑉}.

Un subconjunto de vectores (en este caso la Im(𝑓)) será un subespacio vectorial si cumple:

𝛼𝑎 + 𝛽𝑏 ∈ Im(𝑓) ∀𝑎, 𝑏 ∈ Im(𝑓), ∀𝛼, 𝛽 ∈ ℝ

Y sabemos que si f es una aplicación lineal entonces cumple que:

𝑓(𝛼𝑢 + 𝛽𝑣) = 𝛼𝑓(𝑢) + 𝛽𝑓(𝑣) ∀𝑢, 𝑣 ∈ 𝑉, ∀𝛼, 𝛽 ∈ ℝ

Basándonos en lo anterior, podemos demostrar que la Im(𝑓) es un subespacio vectorial de W, pues ∀𝑎, 𝑏 ∈ Im(𝑓), ∀𝛼, 𝛽 ∈ ℝ:

Por ser V un subespacio, se cumple que ∀𝑢, 𝑣 ∈ 𝑉 → 𝛼𝑢 + 𝛽𝑣 ∈ 𝑉

𝑓(𝛼𝑢 + 𝛽𝑣) = 𝛼𝑓(𝑢) + 𝛽𝑓(𝑣) = 𝛼𝑎 + 𝛽𝑏 → 𝛼𝑎 + 𝛽𝑏 ∈ Im(𝑓)

Con lo que queda demostrado que la Im(𝑓) es un subespacio vectorial de W.

Determinantes y Rango de una Matriz

Definición de Determinante de una Matriz

El determinante asocia a cada matriz cuadrada A un número real que denotaremos por det(𝐴) o por |𝐴|. Sea una matriz cuadrada A (𝐴 ∈ 𝑀𝑛(ℝ)), el determinante de la matriz es el número resultante de sumar algebraicamente todos los productos de n elementos de la matriz en los que intervienen un elemento de cada fila y un elemento de cada columna.

Definición de Rango de una Matriz 𝑨 ∈ 𝑴𝒎𝒙𝒎

El rango de una matriz 𝐴 ∈ 𝑀𝑚𝑥𝑛, es «𝑟» si existe un menor de orden r no nulo y todos los menores de orden mayor que r son nulos. Dicho de otra forma, el rango de una matriz es el mayor de los órdenes de sus submatrices cuadradas que tenga determinante no nulo. También se puede definir como el máximo número de vectores fila o columna que son linealmente independientes.

Sistemas de Ecuaciones

Demostración: Sistema Compatible Indeterminado (rg(𝐴) = rg(𝐴/𝑩)

Si el rg(𝐴)

Demostración: Infinitas Soluciones en Sistemas Compatibles Indeterminados

Supongamos que tenemos dos soluciones 𝑋1 y 𝑋2 del sistema 𝐴𝑋 = 𝐵. Entonces:

𝐴𝑋1 = 𝐵, 𝐴𝑋2 = 𝐵

Podemos demostrar que cualquier vector de la forma (para λ ∈ ℝ):

𝜆𝑋1 + (1 − 𝜆)𝑋2 también es solución, ya que:

𝐴(𝜆𝑋1 + (1 − 𝜆)𝑋2) = 𝜆𝐴𝑋1 + (1 − 𝜆)𝐴𝑋2 = 𝜆𝐵 + (1 − 𝜆)𝐵 = 𝐵

Por tanto, queda demostrado que si hay más de una solución, entonces hay infinitas soluciones.

Demostración: Sistema de Cramer tiene Solución Única

Si 𝐴𝑋 = 𝐵 es un sistema de Cramer, entonces la matriz de coeficientes es no singular, por lo que |𝐴| ≠ 0 y, por tanto, existe 𝐴⁻¹. Si premultiplicamos el sistema por 𝐴⁻¹, tenemos 𝐴⁻¹𝐴𝑋 = 𝐴⁻¹𝐵, y por tanto, 𝛪𝑋 = 𝐴⁻¹𝐵 → 𝑋 = 𝐴⁻¹𝐵 (solución del sistema). Y como 𝐴⁻¹ es única, entonces X también será una solución única.

Producto Escalar, Norma y Distancia

Definición de Producto Escalar en ℝ𝑛

Dado el espacio vectorial ℝ𝑛, llamamos producto escalar o interior (se representa por 〈,〉) a cualquier aplicación:

〈,〉: ℝ𝑛 x ℝ𝑛 → ℝ, (𝑥, 𝑦) → 〈𝑥, 𝑦〉

que verifica las siguientes propiedades:

  1. 〈𝑥, 𝑦〉 = 〈𝑦, 𝑥〉 ∀𝑥, 𝑦 ∈ ℝ𝑛
  2. 〈𝑥 + 𝑧, 𝑦〉 = 〈𝑥, 𝑦〉 + 〈𝑧, 𝑦〉 ∀𝑥, 𝑦, 𝑧 ∈ ℝ𝑛
  3. 〈𝜆𝑥, 𝑦〉 = 𝜆〈𝑦, 𝑥〉 ∀𝑥, 𝑦 ∈ ℝ𝑛, ∀𝜆 ∈ ℝ

Un producto interior (escalar) se denomina producto escalar definido positivo si verifica:

〈𝑥, 𝑥〉 ≥ 0 ∀𝑥 ∈ ℝ𝑛 y además 〈𝑥, 𝑥〉 = 0 ⇔ 𝑥 = 𝛳

Definición de Norma de ℝ𝑛

Sea un espacio vectorial de ℝ𝑛 sobre ℝ. Una norma en ℝ𝑛 (se representa por ‖ ‖) es una aplicación:

‖ ‖: ℝ𝑛 → ℝ⁺, 𝑥 → ‖𝑥‖

Es decir, una norma es cualquier aplicación que a cada vector de ℝ𝑛 le asocia un número real no negativo y que verifica las siguientes propiedades:

  1. ‖𝑥‖ = 0 ⇔ 𝑥 = 0
  2. ‖𝑥 + 𝑦‖ ≤ ‖𝑥‖ + ‖𝑦‖ ∀𝑥, 𝑦 ∈ ℝ𝑛
  3. ‖𝜆𝑥‖ ≤ |𝜆|‖𝑥‖ ∀𝑥 ∈ ℝ𝑛, ∀𝜆 ∈ ℝ

Definición de Distancia en ℝ𝑛

Sea A un conjunto. Se define la métrica o distancia en A a una aplicación:

𝑑: 𝐴 x 𝐴 → ℝ⁺, (𝑥, 𝑦) → 𝑑(𝑥, 𝑦)

y que verifica las siguientes propiedades:

  1. 𝑑(𝑥, 𝑦) = 0 ⇔ 𝑥 = 𝑦 ∀𝑥, 𝑦 ∈ 𝐴
  2. 𝑑(𝑥, 𝑦) = 𝑑(𝑦, 𝑥) ∀𝑥, 𝑦 ∈ 𝐴
  3. 𝑑(𝑥, 𝑦) ≤ 𝑑(𝑥, 𝑧) + 𝑑(𝑦, 𝑧) ∀𝑥, 𝑦, 𝑧 ∈ A

Relación entre Norma y Producto Escalar

Matemáticamente, podemos calcular la norma en ℝ𝑛 a partir de un producto escalar definido positivo mediante la siguiente relación (la norma es la raíz cuadrada del producto escalar):

‖𝑥‖ = √〈𝑥, 𝑥〉 = 〈𝑥, 𝑥〉¹/²

Relación entre Norma y Distancia

Toda norma induce una distancia, es decir, a partir de una norma se puede definir una distancia mediante la siguiente relación: 𝑑(𝑥, 𝑦) = ‖𝑥 − 𝑦‖

Funciones Reales de Variable Real

Concepto de Función Real de una Variable Continua en un Punto

Una función real de una variable real es cualquier aplicación:

𝑓: ℝ → ℝ, 𝑥 → 𝑓(𝑥)

A veces se denota 𝑦 = 𝑓(𝑥), donde 𝑥 es la variable independiente e 𝑦 la variable dependiente.

Definición de Límite de una Función en un Punto 𝒙₀

Sea 𝑓: 𝐴 ⊂ ℝ → ℝ (donde A es el dominio de f y siendo 𝑥₀ un punto de acumulación de 𝐴). Se dice que 𝑙 ∈ ℝ es el límite de la función f en un punto 𝑥₀ y se denota por:

lim(𝑥→𝑥₀) 𝑓(𝑥) = 𝑙 si ∀ ɛ > 0 ∃ 𝛿 > 0 tal que para 𝑥 ∈ 𝐴, |𝑥 − 𝑥₀|

Definición de Función Continua en un Punto 𝒙₀

Sea 𝑓: 𝐴 ⊂ ℝ → ℝ donde 𝐴 es el dominio de 𝑓. La función 𝑓 es continua en el punto 𝑥₀ ∈ 𝐴 ⇔ lim(𝑥→𝑥₀) 𝑓(𝑥) = 𝑓(𝑥₀). Es decir, si ∀ ɛ > 0 ∃ 𝛿 > 0 tal que para 𝑥 ∈ 𝐴, |𝑥 − 𝑥₀|

Gráficamente, una función es continua en un punto si…

Demostración: Unicidad del Límite de una Función en un Punto

Para hacer esta demostración, nos basamos en el teorema de la existencia de un límite:

𝑙 ∈ ℝ es el límite de la función 𝑓: 𝐴 ⊂ ℝ → ℝ en el punto 𝑥₀ si y sólo si existen los límites laterales de f en el punto 𝑥₀ y son iguales.

De forma que si 𝑓 tiene límite en un punto, entonces:

Por tanto, si 𝑓 tiene un límite en 𝑥₀ ∈ 𝐴’ (punto de acumulación), entonces ese límite es único.

Teorema de Bolzano: Enunciado e Interpretación Geométrica

Sea 𝑓 una función real de una variable real en el intervalo [𝑎, 𝑏]:

𝑓: [𝑎, 𝑏] ⊂ ℝ → ℝ

Si {𝑓 es continua en [𝑎, 𝑏], 𝑓(𝑎) ⋅ 𝑓(𝑏)

Es decir, la función 𝑓(𝑥) tiene al menos una raíz (una solución) en el intervalo (𝑎, 𝑏).

Teorema de Weierstrass: Enunciado

Sea 𝑓 una función real de una variable real en el intervalo [𝑎, 𝑏]:

𝑓: [𝑎, 𝑏] ⊂ ℝ → ℝ

Si 𝑓 es continua en el intervalo [𝑎, 𝑏] y ese intervalo es compacto (es decir, cerrado y acotado), entonces 𝑓 alcanza en el intervalo [𝑎, 𝑏] un máximo y un mínimo absolutos.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.