Fundamentos del Cálculo Diferencial: Derivadas, Teoremas y Optimización

1. Derivada de una Función en un Punto

Definición: Dada una función f: A ⊂ ℝ → ℝ, se dice que es derivable en el punto x0 ∈ A si existe y es finito el límite siguiente:

En el caso de que el límite exista, se denota f'(x0). Si f es derivable en todo x0 ∈ A, diremos que f es derivable en A.

La derivada de una función en x0 nos está dando la velocidad puntual de variación de f(x) con respecto a x en el punto x0. Dicho de otra manera, dado que el cociente anterior:

representa la tasa media de variación de f en el intervalo [x0, x0 + h], la derivada será la tasa instantánea de variación de f en x0.

Geométricamente, la derivada es la pendiente de la recta tangente a f en el punto x0.

La derivada de una función f en un punto x0 es la pendiente de la recta tangente.

La ecuación de la recta tangente a la función f en el punto (x0, f(x0)) es: y = f(x0) + f'(x0) (x – x0)

3. Concepto de Diferencial de una Función en un Punto

Sea f: A ⊂ ℝ → ℝ, f es derivable en x0 ∈ A solo si existe el límite:

Definición: Si f es derivable en x0, llamamos diferencial de f en x0 a la aplicación lineal.

La ecuación de la recta tangente sería: y = f(x0) + Df(x0) (x – x0)

5. Teoremas Relativos a las Funciones Derivables

Teorema de Rolle

Sea f: [a,b] ⊂ ℝ → ℝ

  • f continua en [a,b]
  • f derivable en (a,b)
  • f(a) = f(b)

Estas tres condiciones implican que ∃ c ∈ (a,b) / f'(c) = 0

Si una función es continua y derivable en un intervalo y toma valores iguales en sus extremos, existe un punto donde la derivada primera se anula. Entonces, existe un punto c que pertenece (a,b) tal que f'(c) = 0, es decir, con tangente horizontal (la recta tangente a f en (c, f(c)) es paralela al eje OX).

Teorema del Valor Medio

Sea f: [a,b] ⊂ ℝ → ℝ

  • f continua en [a,b]
  • f derivable en (a,b)

Esto implica que ∃ c ∈ (a,b) / f(b) – f(a) = f'(c) (b-a)

Si estamos en la hipótesis del Teorema del Valor Medio, tenemos garantizado que existe un c ∈ (a,b) tal que la recta tangente a f en (c, f(c)) es paralela a la recta secante que une los puntos (a, f(a)), (b, f(b)).

6. Derivadas Sucesivas

Definición: Sea f: (a,b) ⊂ ℝ → ℝ derivable en ese intervalo (a,b) y f’:(a,b) ⊂ ℝ → ℝ la función derivada.

Si esta función es derivable en (a,b), su función derivada será: f»: (a,b) ⊂ ℝ → ℝ, x → f»(x) = f'[f'(x)]

Si la función f’ es derivable, podemos calcular la derivada de esta función y obtenemos una nueva función que llamamos derivada segunda de f y representamos por f». Si razonamos de forma análoga con f», podemos obtener la derivada tercera de f que llamamos f»’ y así sucesivamente.

Polinomio de Taylor

Sea f: (a,b) ⊂ ℝ → ℝ y x0 ∈ (a,b).

Se define el polinomio de Taylor de grado “n” relativo a la función f en el punto x0 como:

En el caso particular de que x0 = 0, el polinomio se llama de Mac-Laurin.

A partir del Polinomio de Taylor también tendremos una aproximación de la función ya que f(x) ≈ Pn(x). La serie de Taylor proporciona una buena forma de aproximar el valor de una función en un punto en términos del valor de la función y sus derivadas en otro punto.


3. Continuidad de una Función Escalar

Sea f: A ⊂ ℝn → ℝ, diremos que es continua en (x0, y0) si y solo si:

  1. ∃ f(x0, y0)
  2. ∃ lim f(x,y) cuando (x,y) → (x0,y0)
  3. f(x0, y0) = lim f(x,y) cuando (x,y) → (x0,y0)

Función Escalar: Se define una función escalar como una función f: A ⊂ ℝn → ℝ

Se denomina dominio de la función f al conjunto: Dom(f) = {x ∈ ℝn / ∃ f(x)}

Se denomina conjunto imagen de la función f al conjunto: Im(f) = {y ∈ ℝ / y = f(x), para algún x ∈ Dom(f)}

Ejemplo: f(x,y) = x2y , f: ℝ2 → ℝ

Función Vectorial: Es una aplicación de ℝn → ℝm (varias variables, varias funciones)

Ejemplo: f(x,y) = (x2, x-y, x + y) , f: ℝ2 → ℝ3

Curvas de Nivel

Dada una función f: A ⊂ ℝn → ℝ y una constante k ∈ ℝ, se define la curva de nivel k de f como el conjunto de todos los puntos que tienen imagen igual a k:

Ck = { x ∈ ℝn / f(x) = k} ∀ k ∈ ℝ

Ejemplo: f(x,y) = x2 + y2

Ck = { (x,y) ∈ ℝ2 / x2 + y2 = k} ∀ k ∈ ℝ

Ecuaciones de Algunas Curvas

  • Ecuación de una recta: Ax + By + C = 0
  • Ecuación de una parábola: y = Ax2 + Bx + C o x = Ay2 + By + C
  • Ecuación de una circunferencia de centro (0,0) y radio R: x2 + y2 = R2
  • Ecuación de una hipérbola equilátera: x.y = k

Las curvas de nivel están calculadas a distintos niveles por lo que nunca se pueden cortar, por lo tanto, si fueran rectas serían rectas paralelas. Si son circunferencias, tendrán que ser circunferencias concéntricas.

A) Teorema de Unicidad del Límite: El límite de una función de varias variables en un punto, si existe, es único.

Límites Direccionales

Se trata de calcular el límite según la dirección de las rectas o de las parábolas que pasan por el punto (x0, y0). Si este límite no existe, ya podemos concluir que no existe el límite en ese punto.

  • Si es lineal: y = y0 + m (x – x0)
  • Si es parabólica: y = x2

Si los límites reiterados coinciden con los direccionales, diremos que, de existir, el límite valdrá ese valor.

1. Conceptos de Derivada Direccional y Parcial

Derivada Direccional

Sea f una función definida en un conjunto abierto G, f: G ⊂ ℝn → ℝ

Sea x0 ∈ G, y e ∈ ℝn un vector unitario, es decir, ‖e‖ = 1

Se dice que f es diferenciable en el punto x0, según la dirección del vector e, si existe:

En las derivadas direccionales, el vector dirección tiene que ser siempre unitario y si no lo fuese, lo convertiremos en unitario. Para ello, dividimos el vector entre su norma. Si en un ejercicio me piden que calcule la derivada de una función en un punto siguiendo todas las direcciones e = (e1, e2)

Derivada Parcial

Sea f una función definida en un conjunto abierto G, f: G ⊂ ℝn → ℝ y x0 ∈ G.

Se definen las derivadas parciales de f como las derivadas direccionales en x0 de f, en la dirección de los vectores canónicos de ℝn

2. Vector Gradiente

Sea f una función definida en un conjunto abierto G, f: G ⊂ ℝn → ℝ y x0 ∈ G, tal que f admite derivadas parciales en x0. Se define el vector gradiente:

∇f(x0) = (D1f(x0), D2f(x0), …, Dnf(x0))

Si existen todas las derivadas parciales de f en el punto x0, el vector cuyos componentes son dichas derivadas parciales, se llama vector gradiente que lo denotamos ∇f(x0).



Diferencial

Sea f una función definida en un conjunto abierto G, f: G ⊂ ℝn → ℝ y x0 ∈ G, se define la diferencial de f en x0 y se denota Df(x0) a la siguiente aplicación lineal:

Df(x0): ℝn → ℝ

h = (h1, h2, …, hn) → Df(x0)(h) = ⟨∇f(x0), h⟩

Diremos que f: G ⊂ ℝn → ℝ, G abierto y x0 ∈ G, es de clase uno o continuamente diferenciable (f ∈ C1) si sus derivadas parciales son continuas.

Teorema I: Sea f: G ⊂ ℝn → ℝ, si f ∈ C1, entonces f es diferenciable en G.

Teorema II: Sea f: G ⊂ ℝn → ℝ función diferenciable en x0 ∈ G, entonces:

  1. ∃ todas las derivadas direccionales para cualquier dirección → De(e1, e2)f(x0)
  2. Def(x0) = ⟨∇f(x0), e⟩ siendo ‖e‖ = 1

5. Plano Tangente de f(x, y) en un Punto (x0, y0)

Es la ecuación de la recta tangente en ℝ2: f(x, y) = f(x0, y0) + ∇f(x0, y0) . (x – x0) en forma de matriz (y – y0)

Sea f: ℝn → ℝm, se define la matriz jacobiana de f en el punto x0, que denotaremos Jf(x0), como la matriz cuyas filas son todas las derivadas parciales de cada una de las funciones componentes.

Diferencial de una Función Vectorial: Sea f: G ⊂ ℝn → ℝm diferenciable en x0 ∈ G, se define la diferencial de f en x0, que denotamos Df(x0) como la aplicación lineal:

1. Diferenciación de la Composición de Aplicaciones

Teorema: Regla de la Cadena: Es una fórmula que se aplica cuando buscamos derivar una composición de funciones.

Sea f: ℝn → ℝm diferenciable en x0 ∈ ℝn, y sea g: ℝm → ℝp diferenciable en f(x0) ∈ ℝm

Entonces: g o f: ℝn → ℝp es diferenciable en x0 y, además: D(g o f)(x0) = Dg(f(x0)) o Df(x0)

Y por ser la diferencial una aplicación lineal: J(g o f)(x0) = Jg[f(x0)] . Jf(x0)]

2. Función Homogénea de Grado M. Teorema de Euler

Sea f: ℝn → ℝ una función escalar. Se dice que f es homogénea de grado m si se verifica: f(tx) = tmf(x) ∀ x ∈ ℝn y ∀ t > 0

Teorema de Euler: Sea f: ℝn → ℝ función diferenciable en ℝn entonces: f es homogénea de grado m ⇔ m.f(x) = ⟨∇f(x), x⟩

En la práctica para verificar el Teorema de Euler haremos:

  1. Comprobar si la función es diferenciable
  2. Grado de homogeneidad

Definición de Función Cóncava y Función Convexa

Sea f: M ⊂ ℝn → ℝ, siendo M un conjunto convexo:

Se dice que f es cóncava en M ⇔ f(αx1 + (1-α)x2) ≥ αf(x1) + (1-α)f(x2) ∀ α ∈ (0,1) ∀ x1, x2 ∈ M

Se dice que f es convexa en M ⇔ f(αx1 + (1-α)x2) ≤ αf(x1) + (1-α)f(x2) ∀ α ∈ (0,1) ∀ x1, x2 ∈ M

Definición de Conjunto Convexo

Un subconjunto S ⊂ ℝn es un conjunto convexo si el segmento que une cualquier par de puntos de S está contenido en S; es decir, si λx + (1-λ)y ∈ S, ∀ x, y ∈ S, ∀ λ ∈ [0,1]

Definición de Envolvente Convexa

Se denomina envolvente convexa de un conjunto S ⊂ ℝn y se denota por ~S a la intersección de todos los conjuntos convexos que contienen al conjunto S. Es decir, ~S es el menor conjunto convexo que contiene a S.

Definición de Matriz Hessiana

Sea f: G ⊂ ℝn → ℝ tal que existen derivadas parciales de orden 2 en x0 ∈ G. Se llama matriz Hessiana de f en x0 ∈ G a la matriz:

ENUNCIAR EL TEOREMA DE WEIERSTRASS.

Dado el problema: Optimizar F(x) s.a: x ∈ X

Si se cumple:

  1. X sea compacto ⇔ X es cerrado (que toda la frontera pertenezca al conjunto) y acotado (que esté contenido en una bola abierta)
  2. F(x) es continua en X

DEMOSTRAR QUE SI UNA FUNCIÓN REAL DE N VARIABLES TIENE UN ÓPTIMO EN UN PUNTO Y EN ESE PUNTO EXISTEN SUS DERIVADAS PARCIALES ENTONCES TODAS ELLAS SON NULAS.

Supongamos que f tiene un máximo local en x0 ∈ Å ➔ existe B(x0, r) ∩ A, tal que f(x0) ≥ f(x) ∀ x ∈ B(x0, r).

Por definición tenemos que:

Cuando t tiende a 0, x0 + tei ∈ B(x0, r) y por lo tanto f(x0 + tei) – f(x0) ≤ 0 ➔ para t > 0 (próximo a cero) tenemos que:

Y para t < 0 tenemos que:

Entonces tiene que ser:

Condición Necesaria de Extremo Condicionado (Teorema de Lagrange)

Sea f: A ⊂ ℝn → ℝ, A abierto, gi i = 1, …m funciones de A en ℝ tales que g = (g1, …, gm), f ∈ C1(A).

Sea M = {x ∈ A / g(x) = 0} el subconjunto de A en el que se verifican las restricciones. Si en el punto a ∈ M la función f posee un extremo relativo sobre el conjunto M y además la matriz Jacobiana de g en a tiene rango m, existen m números reales únicos λ1, …,λm llamados multiplicadores de Lagrange en el punto a tales que

Condición Suficiente I

Sea el problema de optimización condicionado: Optimizar f(x) s.a g(x) = θ

Siendo f, g1, …, gm funciones con derivadas parciales segundas continuas; y sea (x*, λ*) = (x1*, …, xn*, λ1*, …, λm*) un punto crítico de la función de Lagrange. Consideremos HxL(x, λ*) la matriz hessiana de la función de Lagrange respecto de las variables x1, …, xn. Entonces se tienen los siguientes resultados:

  1. Si HxL(x*, λ*) es una matriz definida positiva, entonces en el punto ((x1*, …, xn*) se alcanza un mínimo local condicionado de f
  2. Si HxL(x*, λ*) es una matriz definida negativa, entonces en el punto ((x1*, …, xn*) se alcanza un máximo local condicionado de f

Condición Suficiente II

Dado el problema: Optimizar f(x) s.a g(x) = θ

Si las funciones f y g1, …, gm tienen derivadas de segundo orden continuas en el punto (x*, λ*); y el punto (x*, λ*) es un punto crítico de la lagrangiana entonces se verifica que:

  1. Si HxL(x*, λ*) es una matriz definida positiva en el conjunto {x ∈ ℝn / Jg(x*).x = θ} = {x ∈ ℝn / ⟨∇gi(x*), x⟩ = 0, i= 1, …,m}; entonces la función f tiene en x* =(x1*, …, xn*) un mínimo local condicionado.
  2. Si HxL(x*, λ*) es una matriz definida negativa en el conjunto {x ∈ ℝn / Jg(x*).x = θ} = {x ∈ ℝn / ⟨∇gi(x*), x⟩ = 0, i= 1, …,m}; entonces la función f tiene en x* =(x1*, …, xn*) un máximo local condicionado.

Condición Suficiente III

Dado el problema: Optimizar f(x, y) s.a g(x, y) = 0

Si las funciones f y g tienen derivadas de segundo orden continuas en el punto (x*, y*, λ*), y el punto (x*, y*, λ*) es un punto crítico de la función de Lagrange. Entonces tenemos que:

Es > 0 ➔ f tiene en (x*, y*) un máximo local condicionado

Es < 0 ➔ f tiene en (x*, y*) un mínimo local condicionado

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.