1. Derivada de una Función en un Punto
Definición: Dada una función f: A ⊂ ℝ → ℝ, se dice que es derivable en el punto x0 ∈ A si existe y es finito el límite siguiente:
En el caso de que el límite exista, se denota f'(x0). Si f es derivable en todo x0 ∈ A, diremos que f es derivable en A.
La derivada de una función en x0 nos está dando la velocidad puntual de variación de f(x) con respecto a x en el punto x0. Dicho de otra manera, dado que el cociente anterior:
representa la tasa media de variación de f en el intervalo [x0, x0 + h], la derivada será la tasa instantánea de variación de f en x0.
Geométricamente, la derivada es la pendiente de la recta tangente a f en el punto x0.
La derivada de una función f en un punto x0 es la pendiente de la recta tangente.
La ecuación de la recta tangente a la función f en el punto (x0, f(x0)) es: y = f(x0) + f'(x0) (x – x0)
3. Concepto de Diferencial de una Función en un Punto
Sea f: A ⊂ ℝ → ℝ, f es derivable en x0 ∈ A solo si existe el límite:
Definición: Si f es derivable en x0, llamamos diferencial de f en x0 a la aplicación lineal.
La ecuación de la recta tangente sería: y = f(x0) + Df(x0) (x – x0)
5. Teoremas Relativos a las Funciones Derivables
Teorema de Rolle
Sea f: [a,b] ⊂ ℝ → ℝ
- f continua en [a,b]
- f derivable en (a,b)
- f(a) = f(b)
Estas tres condiciones implican que ∃ c ∈ (a,b) / f'(c) = 0
Si una función es continua y derivable en un intervalo y toma valores iguales en sus extremos, existe un punto donde la derivada primera se anula. Entonces, existe un punto c que pertenece (a,b) tal que f'(c) = 0, es decir, con tangente horizontal (la recta tangente a f en (c, f(c)) es paralela al eje OX).
Teorema del Valor Medio
Sea f: [a,b] ⊂ ℝ → ℝ
- f continua en [a,b]
- f derivable en (a,b)
Esto implica que ∃ c ∈ (a,b) / f(b) – f(a) = f'(c) (b-a)
Si estamos en la hipótesis del Teorema del Valor Medio, tenemos garantizado que existe un c ∈ (a,b) tal que la recta tangente a f en (c, f(c)) es paralela a la recta secante que une los puntos (a, f(a)), (b, f(b)).
6. Derivadas Sucesivas
Definición: Sea f: (a,b) ⊂ ℝ → ℝ derivable en ese intervalo (a,b) y f’:(a,b) ⊂ ℝ → ℝ la función derivada.
Si esta función es derivable en (a,b), su función derivada será: f»: (a,b) ⊂ ℝ → ℝ, x → f»(x) = f'[f'(x)]
Si la función f’ es derivable, podemos calcular la derivada de esta función y obtenemos una nueva función que llamamos derivada segunda de f y representamos por f». Si razonamos de forma análoga con f», podemos obtener la derivada tercera de f que llamamos f»’ y así sucesivamente.
Polinomio de Taylor
Sea f: (a,b) ⊂ ℝ → ℝ y x0 ∈ (a,b).
Se define el polinomio de Taylor de grado “n” relativo a la función f en el punto x0 como:
En el caso particular de que x0 = 0, el polinomio se llama de Mac-Laurin.
A partir del Polinomio de Taylor también tendremos una aproximación de la función ya que f(x) ≈ Pn(x). La serie de Taylor proporciona una buena forma de aproximar el valor de una función en un punto en términos del valor de la función y sus derivadas en otro punto.
3. Continuidad de una Función Escalar
Sea f: A ⊂ ℝn → ℝ, diremos que es continua en (x0, y0) si y solo si:
- ∃ f(x0, y0)
- ∃ lim f(x,y) cuando (x,y) → (x0,y0)
- f(x0, y0) = lim f(x,y) cuando (x,y) → (x0,y0)
Función Escalar: Se define una función escalar como una función f: A ⊂ ℝn → ℝ
Se denomina dominio de la función f al conjunto: Dom(f) = {x ∈ ℝn / ∃ f(x)}
Se denomina conjunto imagen de la función f al conjunto: Im(f) = {y ∈ ℝ / y = f(x), para algún x ∈ Dom(f)}
Ejemplo: f(x,y) = x2y , f: ℝ2 → ℝ
Función Vectorial: Es una aplicación de ℝn → ℝm (varias variables, varias funciones)
Ejemplo: f(x,y) = (x2, x-y, x + y) , f: ℝ2 → ℝ3
Curvas de Nivel
Dada una función f: A ⊂ ℝn → ℝ y una constante k ∈ ℝ, se define la curva de nivel k de f como el conjunto de todos los puntos que tienen imagen igual a k:
Ck = { x ∈ ℝn / f(x) = k} ∀ k ∈ ℝ
Ejemplo: f(x,y) = x2 + y2
Ck = { (x,y) ∈ ℝ2 / x2 + y2 = k} ∀ k ∈ ℝ
Ecuaciones de Algunas Curvas
- Ecuación de una recta: Ax + By + C = 0
- Ecuación de una parábola: y = Ax2 + Bx + C o x = Ay2 + By + C
- Ecuación de una circunferencia de centro (0,0) y radio R: x2 + y2 = R2
- Ecuación de una hipérbola equilátera: x.y = k
Las curvas de nivel están calculadas a distintos niveles por lo que nunca se pueden cortar, por lo tanto, si fueran rectas serían rectas paralelas. Si son circunferencias, tendrán que ser circunferencias concéntricas.
A) Teorema de Unicidad del Límite: El límite de una función de varias variables en un punto, si existe, es único.
Límites Direccionales
Se trata de calcular el límite según la dirección de las rectas o de las parábolas que pasan por el punto (x0, y0). Si este límite no existe, ya podemos concluir que no existe el límite en ese punto.
- Si es lineal: y = y0 + m (x – x0)
- Si es parabólica: y = x2
Si los límites reiterados coinciden con los direccionales, diremos que, de existir, el límite valdrá ese valor.
1. Conceptos de Derivada Direccional y Parcial
Derivada Direccional
Sea f una función definida en un conjunto abierto G, f: G ⊂ ℝn → ℝ
Sea x0 ∈ G, y e ∈ ℝn un vector unitario, es decir, ‖e‖ = 1
Se dice que f es diferenciable en el punto x0, según la dirección del vector e, si existe:
En las derivadas direccionales, el vector dirección tiene que ser siempre unitario y si no lo fuese, lo convertiremos en unitario. Para ello, dividimos el vector entre su norma. Si en un ejercicio me piden que calcule la derivada de una función en un punto siguiendo todas las direcciones e = (e1, e2)
Derivada Parcial
Sea f una función definida en un conjunto abierto G, f: G ⊂ ℝn → ℝ y x0 ∈ G.
Se definen las derivadas parciales de f como las derivadas direccionales en x0 de f, en la dirección de los vectores canónicos de ℝn
2. Vector Gradiente
Sea f una función definida en un conjunto abierto G, f: G ⊂ ℝn → ℝ y x0 ∈ G, tal que f admite derivadas parciales en x0. Se define el vector gradiente:
∇f(x0) = (D1f(x0), D2f(x0), …, Dnf(x0))
Si existen todas las derivadas parciales de f en el punto x0, el vector cuyos componentes son dichas derivadas parciales, se llama vector gradiente que lo denotamos ∇f(x0).
Diferencial
Sea f una función definida en un conjunto abierto G, f: G ⊂ ℝn → ℝ y x0 ∈ G, se define la diferencial de f en x0 y se denota Df(x0) a la siguiente aplicación lineal:
Df(x0): ℝn → ℝ
h = (h1, h2, …, hn) → Df(x0)(h) = ⟨∇f(x0), h⟩
Diremos que f: G ⊂ ℝn → ℝ, G abierto y x0 ∈ G, es de clase uno o continuamente diferenciable (f ∈ C1) si sus derivadas parciales son continuas.
Teorema I: Sea f: G ⊂ ℝn → ℝ, si f ∈ C1, entonces f es diferenciable en G.
Teorema II: Sea f: G ⊂ ℝn → ℝ función diferenciable en x0 ∈ G, entonces:
- ∃ todas las derivadas direccionales para cualquier dirección → De(e1, e2)f(x0)
- Def(x0) = ⟨∇f(x0), e⟩ siendo ‖e‖ = 1
5. Plano Tangente de f(x, y) en un Punto (x0, y0)
Es la ecuación de la recta tangente en ℝ2: f(x, y) = f(x0, y0) + ∇f(x0, y0) . (x – x0) en forma de matriz (y – y0)
Sea f: ℝn → ℝm, se define la matriz jacobiana de f en el punto x0, que denotaremos Jf(x0), como la matriz cuyas filas son todas las derivadas parciales de cada una de las funciones componentes.
Diferencial de una Función Vectorial: Sea f: G ⊂ ℝn → ℝm diferenciable en x0 ∈ G, se define la diferencial de f en x0, que denotamos Df(x0) como la aplicación lineal:
1. Diferenciación de la Composición de Aplicaciones
Teorema: Regla de la Cadena: Es una fórmula que se aplica cuando buscamos derivar una composición de funciones.
Sea f: ℝn → ℝm diferenciable en x0 ∈ ℝn, y sea g: ℝm → ℝp diferenciable en f(x0) ∈ ℝm
Entonces: g o f: ℝn → ℝp es diferenciable en x0 y, además: D(g o f)(x0) = Dg(f(x0)) o Df(x0)
Y por ser la diferencial una aplicación lineal: J(g o f)(x0) = Jg[f(x0)] . Jf(x0)]
2. Función Homogénea de Grado M. Teorema de Euler
Sea f: ℝn → ℝ una función escalar. Se dice que f es homogénea de grado m si se verifica: f(tx) = tmf(x) ∀ x ∈ ℝn y ∀ t > 0
Teorema de Euler: Sea f: ℝn → ℝ función diferenciable en ℝn entonces: f es homogénea de grado m ⇔ m.f(x) = ⟨∇f(x), x⟩
En la práctica para verificar el Teorema de Euler haremos:
- Comprobar si la función es diferenciable
- Grado de homogeneidad
Definición de Función Cóncava y Función Convexa
Sea f: M ⊂ ℝn → ℝ, siendo M un conjunto convexo:
Se dice que f es cóncava en M ⇔ f(αx1 + (1-α)x2) ≥ αf(x1) + (1-α)f(x2) ∀ α ∈ (0,1) ∀ x1, x2 ∈ M
Se dice que f es convexa en M ⇔ f(αx1 + (1-α)x2) ≤ αf(x1) + (1-α)f(x2) ∀ α ∈ (0,1) ∀ x1, x2 ∈ M
Definición de Conjunto Convexo
Un subconjunto S ⊂ ℝn es un conjunto convexo si el segmento que une cualquier par de puntos de S está contenido en S; es decir, si λx + (1-λ)y ∈ S, ∀ x, y ∈ S, ∀ λ ∈ [0,1]
Definición de Envolvente Convexa
Se denomina envolvente convexa de un conjunto S ⊂ ℝn y se denota por ~S a la intersección de todos los conjuntos convexos que contienen al conjunto S. Es decir, ~S es el menor conjunto convexo que contiene a S.
Definición de Matriz Hessiana
Sea f: G ⊂ ℝn → ℝ tal que existen derivadas parciales de orden 2 en x0 ∈ G. Se llama matriz Hessiana de f en x0 ∈ G a la matriz:
ENUNCIAR EL TEOREMA DE WEIERSTRASS.
Dado el problema: Optimizar F(x) s.a: x ∈ X
Si se cumple:
- X sea compacto ⇔ X es cerrado (que toda la frontera pertenezca al conjunto) y acotado (que esté contenido en una bola abierta)
- F(x) es continua en X
DEMOSTRAR QUE SI UNA FUNCIÓN REAL DE N VARIABLES TIENE UN ÓPTIMO EN UN PUNTO Y EN ESE PUNTO EXISTEN SUS DERIVADAS PARCIALES ENTONCES TODAS ELLAS SON NULAS.
Supongamos que f tiene un máximo local en x0 ∈ Å ➔ existe B(x0, r) ∩ A, tal que f(x0) ≥ f(x) ∀ x ∈ B(x0, r).
Por definición tenemos que:
Cuando t tiende a 0, x0 + tei ∈ B(x0, r) y por lo tanto f(x0 + tei) – f(x0) ≤ 0 ➔ para t > 0 (próximo a cero) tenemos que:
Y para t < 0 tenemos que:
Entonces tiene que ser:
Condición Necesaria de Extremo Condicionado (Teorema de Lagrange)
Sea f: A ⊂ ℝn → ℝ, A abierto, gi i = 1, …m funciones de A en ℝ tales que g = (g1, …, gm), f ∈ C1(A).
Sea M = {x ∈ A / g(x) = 0} el subconjunto de A en el que se verifican las restricciones. Si en el punto a ∈ M la función f posee un extremo relativo sobre el conjunto M y además la matriz Jacobiana de g en a tiene rango m, existen m números reales únicos λ1, …,λm llamados multiplicadores de Lagrange en el punto a tales que
Condición Suficiente I
Sea el problema de optimización condicionado: Optimizar f(x) s.a g(x) = θ
Siendo f, g1, …, gm funciones con derivadas parciales segundas continuas; y sea (x*, λ*) = (x1*, …, xn*, λ1*, …, λm*) un punto crítico de la función de Lagrange. Consideremos HxL(x, λ*) la matriz hessiana de la función de Lagrange respecto de las variables x1, …, xn. Entonces se tienen los siguientes resultados:
- Si HxL(x*, λ*) es una matriz definida positiva, entonces en el punto ((x1*, …, xn*) se alcanza un mínimo local condicionado de f
- Si HxL(x*, λ*) es una matriz definida negativa, entonces en el punto ((x1*, …, xn*) se alcanza un máximo local condicionado de f
Condición Suficiente II
Dado el problema: Optimizar f(x) s.a g(x) = θ
Si las funciones f y g1, …, gm tienen derivadas de segundo orden continuas en el punto (x*, λ*); y el punto (x*, λ*) es un punto crítico de la lagrangiana entonces se verifica que:
- Si HxL(x*, λ*) es una matriz definida positiva en el conjunto {x ∈ ℝn / Jg(x*).x = θ} = {x ∈ ℝn / ⟨∇gi(x*), x⟩ = 0, i= 1, …,m}; entonces la función f tiene en x* =(x1*, …, xn*) un mínimo local condicionado.
- Si HxL(x*, λ*) es una matriz definida negativa en el conjunto {x ∈ ℝn / Jg(x*).x = θ} = {x ∈ ℝn / ⟨∇gi(x*), x⟩ = 0, i= 1, …,m}; entonces la función f tiene en x* =(x1*, …, xn*) un máximo local condicionado.
Condición Suficiente III
Dado el problema: Optimizar f(x, y) s.a g(x, y) = 0
Si las funciones f y g tienen derivadas de segundo orden continuas en el punto (x*, y*, λ*), y el punto (x*, y*, λ*) es un punto crítico de la función de Lagrange. Entonces tenemos que:
Es > 0 ➔ f tiene en (x*, y*) un máximo local condicionado
Es < 0 ➔ f tiene en (x*, y*) un mínimo local condicionado