En términos generales, la teoría de Morse trata del estudio de una variedad suave $M$ a través de funciones continuas $f:M\to \mathbb{R}$; en particular, estudia la relación que existe entre los puntos críticos de una función $f$ con ciertos subespacios $M_t$, que forman una filtración para $M$. Algunos conceptos del cálculo Recordemos que la derivada de la función $f:\mathbb{R}\to \mathbb{R}$ está dada por $$ Df(x)= \frac{d}{dx}f(x)= \lim_{t\to 0} \frac{f(x+t)-f(x)}{t}$$ Un punto $x\in \mathbb{R}$ es crítico para $f$ si $Df(x)=0$; estos puntos son importantes pues representan los máximos y los mínimos de la función, equivalentemente, son los puntos donde la función cambia de dirección. En general, para una función de la forma $f:\mathbb{R}^d\to \mathbb{R}$, es posible definir puntos críticos a través de su campo vectorial gradiente : $$\nabla f:\mathbb{R}^d\to \mathbb{R}^d,\;\; x\mapsto \nabla f(x) = \left[\frac{df}{dx_1}(x),\frac{df}{dx_2}(...