Continuación analítica de la función zeta de Riemann paso a paso
Fuente Original:
A Step-by-step of the Analytic Continuation of the Riemann Zeta Function
Author:
Desvl
Traducción: Juan Carlos Ponce Campuzano
Introduction
La función zeta de Riemann es ampliamente conocida (por ser la continuación analítica de la función zeta de Euler):
\[\zeta(s)=\sum_{n=1}^{\infty}\frac{1}{n^s}.\]
Es ampliamente conocida principalmente por la célebre hipótesis de Riemann, que permanece sin resolver tras más de un siglo de intentos por parte de matemáticos y 150 millones de intentos por computadoras:
Nota: $\Re(s)$ = parte real de $s = x+iy.$
El público conoce a través de la divulgación científica cuán importante y misteriosa es esta hipótesis, o cuán desastroso sería si algún día se resolviera. Dejemos eso de lado. La pregunta es, ¿por qué Riemann se interesaría en el conjunto de ceros de tal función? ¿Por qué no en otra cosa? Según Riemann, la función de distribución de los números primos
\[\pi(x)=\sum_{p\text{ prime}}^{p \le x}1\]
se puede escribir como la serie
\[\pi(x)=R(x)-\sum_{\rho}R(x^\rho)\]
donde
\[R(x)=1+\sum_{n=1}^{\infty}\frac{1}{n\zeta(n+1)}\frac{(\log{x})^n}{n!}\]
y $\rho$ varía sobre todos los ceros de $\zeta(s).$ Dicho esto, una vez que esta hipótesis se demuestre cierta, podríamos tener una idea mucho más concreta de la distribución de los números primos.
Pero este no es realmente el tema de esta publicación. El autor de esta publicación no intenta probar la Hipótesis de Riemann en unas pocas páginas, y nadie podría hacerlo. En esta publicación, investigamos la continuación analítica de $\zeta(s)$ paso a paso, de modo que tenga sentido siquiera pensar en evaluar el valor en $\frac{1}{2}.$ Para la teoría de la continuación analítica, recomiendo Real and Complex Analysis de Walter Rudin. Aunque en su libro explora la función modular y el pequeño teorema de Picard, en lugar de la función $\zeta(s)$ y temas relacionados.
Transferiremos el problema de la función $\zeta$ a la función $\Gamma$ y la función $\theta$, y descubriremos lo que queremos a través de la transformación de Mellin, en el sentido de que observaremos la llamada función zeta completa, que nos llevará a LA continuación que buscamos.
Nos centraremos más en los detalles de los procesos no triviales, en lugar del análisis complejo básico. El lector puede omitir nuestra preparación si está familiarizado con estos contenidos.
La función Gamma
La función Gamma debería estudiarse en un curso de análisi:
\[\Gamma(s)=\int_0^\infty e^{-t}t^{s-1}dt,s>0.\]
En un curso de análisis hemos estudiado algunas de las propiedades importantes de esta función:
$\Gamma(1)=1.$
$\Gamma(s+1)=s\Gamma(s)$ (como resultado, $n!=\Gamma(n+1)$)
$\log\Gamma(s)$ es una función convexa.
En esta sección, sin embargo, la estudiaremos en el contexto del análisis complejo.
Demostración. Si escribimos $s=u+iv$ con $u>0$ y $t=e^c$, entonces \[ \begin{aligned} \left|e^{-t}t^{s-1}\right|&=\left|e^{-t}t^{u-1}\right|\left|t^{iv}\right| \\ &=\left|e^{-t}t^{u-1}\right|\left|e^{icv}\right| \\ &=e^{-t}t^{u-1}. \end{aligned} \] Por lo tanto, \[ \begin{aligned} \int_{0}^{\infty}\left|e^{-t}t^{s-1}\right|dt &= \int_0^\infty e^{-t} t^{u-1}dt \\ &=\Gamma(u) \\ &\lt \infty. \end{aligned} \] De ahí se sigue la propiedad deseada. $\square$
Demostración. La segunda afirmación se sigue inmediatamente porque $\Gamma(1)=1.$ Para la primera ecuación, hacemos una integración por partes: \[ \int_{\varepsilon}^{1/\varepsilon}\frac{d}{dt}(e^{-t} t^s)dt =-\int_{\varepsilon}^{1/\varepsilon}e^{-t}t^sdt +s\int_{\varepsilon}^{1/\varepsilon}e^{-t}t^{s-1}dt. \]
Al tomar $\varepsilon \to 0$, obtenemos lo que queremos. $\square$
Ahora estamos listos para la continuación analítica de la función Gamma, que construye un puente hacia la continuación analítica de $\zeta.$
Demostración. Basta con mostrar que podemos continuar $\Gamma$ a $\Re(s) > -m$, para todo $m > 0$, lo que implica que podemos extenderla a todo el plano complejo. Por esta razón, definimos $\Gamma_0(s) = \Gamma(s)$, que está definida en el teorema 1. Luego \[ \Gamma_1(s)=\frac{\Gamma_0(s+1)}{s} \] es LA continuación analítica de $\Gamma_0(s)$ en $\Re(s) > -1$, con la única singularidad en $s = 0.$ Luego \[ \operatorname{Res}_{s=0}\Gamma_1(s)=\lim_{s \to 0}s\Gamma_1(s) =\Gamma_0(1)=1. \] De manera similar, podemos definir \[ \Gamma_2(s)=\frac{\Gamma_1(s+1)}{s}=\frac{\Gamma_0(s+2)}{s(s+1)}. \]
En general, siempre que $m \ge 1$ sea un entero, podemos definir \[ \Gamma_m(s)=\frac{\Gamma_0(s+m)}{\prod_{j=1}^{m-1}(s-j)}. \] Esta función es meromorfa en $\Re(s) > -m$ y tiene polos simples en $s = 0, -1, \dots, -m+1$ con residuos \[ \operatorname{res}_{s=-n}\Gamma_m(s)= \frac{\Gamma(-n+m)}{ (m-1-n)!(-1)(-2)\dots(-n) }=\frac{(-1)^n}{n!}. \] Las aplicaciones sucesivas del lema muestran que $\Gamma_m(s) = \Gamma(s)$ para $\Re(s) > 0.$ Por lo tanto, hemos obtenido la continuación analítica a través de este proceso. $\square$
A lo largo de esta exposición, a menos que se indique lo contrario, llamaremos a la función obtenida en la demostración del teorema 3 como LA función $\Gamma.$
Para todo $s \in \mathbb{C}$, esta función satisface $\Gamma(s+1) = s\Gamma(s)$ como debe ser.
Antes de continuar, desarrollamos dos relaciones entre la función $\Gamma$ y la función $\zeta$ para convencer al lector de que no estamos haciendo nada sin sentido.
Si realizamos un cambio de variable $t=nu$ en la definición de $\Gamma(s)$, vemos que \[ \int_{0}^\infty e^{-nu}n^{s}u^{s-1}du=\Gamma(s). \] Es decir, \[ \begin{aligned} \frac{1}{n^s}\Gamma(s)&=\int_0^\infty e^{-nu}u^{s-1}du \\ \end{aligned} \] Al tomar la suma de todos los $n$, vemos que \[ \begin{aligned} \Gamma(s)\sum_{n=1}^{\infty}\frac{1}{n^s}&=\Gamma(s)\zeta(s) \\ &= \sum_{n=1}^{\infty}\int_0^\infty e^{-nu}u^{s-1}du \\ &=\int_0^\infty \sum_{n=1}^{\infty}e^{-nu}u^{s-1}du \\ &=\int_0^{\infty}\frac{e^{-u}u^{s-1}}{1-e^{-u}}du \\ &=\int_0^{\infty}\frac{u^{s-1}}{e^u-1}du. \end{aligned} \]
Esta relación es hermosa, pero puede hacer que nuestros cálculos sean un poco más complicados. Sin embargo, si nos ensuciamos las manos más temprano, nuestro estudio será más fácil. Así que haremos un cambio de variable “más feo” $t \mapsto \pi n^2y$ para obtener \[ \pi^{-s}\Gamma(s)\frac{1}{n^{2s}}=\int_0^\infty e^{-\pi n^{2}y }y^{s-1}dy \] lo que implica \[ \pi^{-s}\Gamma(s)\zeta(2s)=\int_0^\infty \sum_{n=1}^{\infty} e^{-\pi n^2y}y^{s-1}dy. \]
En ambos casos, es válido cambiar el orden de la suma y la integración, gracias al teorema de convergencia monótona.
Antes de continuar, necesitamos algunas propiedades adicionales de la función Gamma.
Observa que esta identidad tiene sentido en todos los polos. Dado que $\Gamma(s)$ tiene polos simples en $0, -1, \dots$, mientras que $\Gamma(1-s)$ tiene polos simples en $1, 2, \dots.$ Como resultado, $\Gamma(s)\Gamma(1-s)$ tiene polos simples en todos los enteros, una propiedad que también comparte $\pi/\sin\pi{s}.$
Por continuación analítica, basta probarla para $0<s<1$, ya que este resultado puede extenderse a todo $\mathbb{C}$ mediante continuación analítica.
Demostración (versión real). Expandimos primero el lado izquierdo: \[ \begin{aligned} \Gamma(x)\Gamma(1-x)&=B(x,1-x) \\ &=\int_0^1 t^{1-x}(1-t)^xdt \\ &=\int_0^\infty \frac{1}{y^x(1+y)}dy \end{aligned} \] al tomar $t=\frac{1}{1+y}.$ A continuación, calculamos esta integral para $(0,1]$ y $[1,\infty).$ \[ \begin{aligned} \int_0^1\frac{1}{y^x(1+y)}dy &= \int_0^1\frac{1}{y^x} \sum_{n=0}^{\infty}(-y)^ndy \\ &= \sum_{n=0}^{\infty}\int_0^1(-y)^{n-x}dy \\ &= \sum_{n=0}^{\infty}\frac{(-1)^{n-1}}{n-x}. \end{aligned} \] (El intercambio de integración y suma infinita es correcto debido al teorema de convergencia dominada de Arzelà para integrales de Riemann.)
Por otro lado, tomando $y=\frac{1}{u}$, tenemos \[ \begin{aligned} \int_1^\infty\frac{1}{y^x(1+y)}dy &= \int_0^1\frac{u^{x-1}}{1+u}du \\ &=\frac{1}{x}+\sum_{n=1}^{\infty}\frac{(-1)^n}{n+x} \end{aligned} \]Sumando, obtenemos \[ \Gamma(x)\Gamma(1-x)=\frac{1}{x}+\sum_{n=1}^{\infty} (-1)^n\frac{2x}{x^2-n^2}. \] Queda por demostrar que $\pi\csc{\pi{x}}$ también satisface tal expansión, lo cual no es directo porque ni las series de Fourier ni las series de Taylor pueden llevarnos allí directamente. Se puede comenzar con la expansión en producto infinito de $\sin{x}$, pero aquí seguimos un enfoque alternativo. Observe que para $\alpha \in \mathbb{R} \setminus \mathbb{Z}$, \[ \cos\alpha{t}=\frac{\sin\pi \alpha}{\pi \alpha} +\sum_{n=1}^{\infty}(-1)^n\frac{2\alpha}{\pi(\alpha^2-n^2)} \sin\alpha\pi\cos{nt}. \] Tomando $t=0$ y multiplicando ambos lados por $\pi\csc\pi\alpha$, obtenemos lo que queremos. $\square$
Demostración (versión compleja). Por definición, \[ \begin{aligned} \Gamma(1-s)\Gamma(s) &= \int_0^\infty e^{-t}t^{s-1}\Gamma(1-s)dt \\ &= \int_0^\infty e^{-t}t^{s-1}\left(\int_0^\infty e^{-v}v^{s}dv\right)dt \\ &= \int_0^\infty e^{-t}t^{s-1}t \left( \int_0^\infty e^{-ut}(ut)^{-s}du \right)dt \\ &= \int_0^\infty du \int_0^\infty e^{-t(u+1)}u^{-s}dt \\ &= \int_0^\infty \frac{u^{-s}}{1+u}du \end{aligned} \] Aquí realizamos un cambio de variable en $v=tu.$ Para calcular la última integral, tomamos $u=e^x$, y se sigue que \[ \begin{aligned} \int_0^\infty \frac{u^{-s}}{1+u}du &= \int_0^\infty \frac{e^{(1-s)x}}{1+e^x}dx \\ \end{aligned} \] La integral en el lado derecho se puede calcular como \[ \frac{\pi}{\sin(1-s)\pi}=\frac{s}{\sin\pi s}. \]Esto es una consecuencia sencilla de la fórmula del residuo (considerando un rectángulo con centro en $z=\pi i$, altura $2\pi$ y un lado siendo el eje real). $\square$
Aquí hay un bonus de la fórmula de reflexión de Euler. Al poner $t=u^2$ en la definición de la función $\Gamma$, también tenemos \[ \begin{aligned} \Gamma(s)&=\int_0^\infty e^{-u^2}u^{2s-2}2udu \\ &=2\int_0^\infty e^{-u^2}u^{2s-1}ds. \end{aligned} \] Por lo tanto \[ \Gamma(1/2)=2\int_0^\infty e^{-u^2}du=\int_{-\infty}^{\infty}e^{-u^2}du=\sqrt{\pi}. \] Para concluir esta sección, también mencionamos
Una demostración del teorema anterior se puede encontrar aquí.
Transformada de Mellin y de Fourier de la Función Theta de Jacobi
Comportamiento de la Función Theta de Jacobi
Definamos \( Z(s) = \pi^{-s/2} \Gamma(s/2) \zeta(s) \). Parece que estamos muy cerca de una gran propiedad de \( \zeta(s) \), si logramos entender un poco más \( Z \), ya que \( \pi^{-s/2} \) y \( \Gamma(s/2) \) se comportan de forma conveniente. Por lo tanto, introducimos la función theta de Jacobi \[ \theta(s) = \sum_{n \in \mathbb{Z}} e^{-\pi n^2 s}, \quad \Re(s) > 0 \] y tratamos de deducir su relación con \( Z(s) \).
Para comenzar, primero mostramos que
Demostración. Sea \( C \) un subconjunto compacto del semiplano derecho, y definamos \( y_0 = \inf_{s \in C} \Re(s) \). Escojamos cualquier \( n_0 \ge \frac{1}{y_0} \). Para \( s = u + iv \in C \), tenemos \( u \ge y_0 \) y, por lo tanto, \[ \begin{aligned} \sum_{|n| \ge n_0} |e^{-\pi n^2 s}| &= \sum_{|n| \ge n_0} e^{-\pi n^2 u} \\ &\le \sum_{|n| \ge n_0} e^{-\pi n^2 y_0} \\ &\le \sum_{|n| \ge n_0} e^{-\pi |n|} \end{aligned} \]
Por lo tanto, \( \theta(s) \) converge absolutamente en cualquier subconjunto compacto del semiplano derecho. (Observemos que hemos utilizado el hecho de que \( n^2 y_0 \ge |n| n_0 y_0 \ge |n| \) al estudiar la convergencia). Dado que cada término es holomorfo, hemos demostrado que \( \theta(s) \) es holomorfa. \( \square \)
Por lo tanto, es seguro trabajar con la función theta. Ahora estamos listos para deducir una ecuación funcional.
La raíz cuadrada se elige para estar en la rama con la parte real positiva.
Demostración. Consideremos la función \( f(x) = e^{-\pi x^2} \). Sabemos que este es el punto fijo de la transformada de Fourier (en esta forma conveniente): \[ \hat{g}(t) = \int_{-\infty}^{\infty} g(x) e^{-2\pi ixt} dx. \] Ahora ponemos \( g(x) = e^{-\pi u x^2} = f(\sqrt{u}x) \). La transformada de Fourier de \( g \) es fácil de deducir: \[ \hat{g}(t) = \frac{1}{\sqrt{u}} \hat{f}\left(\frac{t}{\sqrt{u}}\right) = \frac{1}{\sqrt{u}} e^{-\pi t^2 / u}. \] Como \( g(x) \) es una función de Schwartz, por la fórmula de suma de Poisson, tenemos \[ \sum_{n \in \mathbb{Z}} g(n) = \theta(u) = \sum_{n \in \mathbb{Z}} \hat{g}(n) = \frac{1}{\sqrt{u}} \theta\left(\frac{1}{u}\right). \] El resultado sigue de una continuación analítica. \( \square \)
Para las funciones de Schwartz, también conocidas como funciones de rápida disminución, remitimos al lector al capítulo 7 del libro Functional Analysis de W. Rudin.
A continuación, estudiaremos el comportamiento de \( \theta(s) \) en la mitad de la recta real, especialmente en el origen y en el infinito. Debido a la ecuación funcional anterior, una vez que tengamos una mejor comprensión alrededor del origen, podremos saber rápidamente lo que sucederá en el infinito.
Demostración. Re-escribimos $\theta(t)$ en la forma \[ \theta(t)=1+2\sum_{n=1}^{\infty}e^{-\pi n^2 t}. \] Por lo tanto \[ \begin{aligned} \left|\theta(t)-\frac{1}{\sqrt{t}}\right| &= \left| \frac{1}{\sqrt{t}}\left(\theta\left(\frac{1}{t}\right)-1\right) \right| \\ &= \frac{2}{\sqrt{t}}\sum_{n=1}^{\infty}e^{-\pi n^2/t} \end{aligned} \] Elegimos $t>0$ suficientemente pequeña de tal forma que \[ e^{-1/t}\lt \frac{\sqrt{t}}{4}, \quad e^{-2\pi/t}\lt 2. \] De lo cual se sigue que \[ \begin{aligned} \left|\theta(t)-\frac{1}{\sqrt{t}}\right| &= \frac{2}{\sqrt{t}}\sum_{n=1}^{\infty}e^{-\pi n^2/t} \\ &\lt \frac{1}{2}e^{1/t}\sum_{n=1}^{\infty}e^{-\pi/t} e^{-\pi(n^2-1)/t} \\ &=\frac{1}{2}e^{-(\pi-1)/t}\sum_{n=1}^{\infty}e^{-\pi(n+1)(n-1)/t}\\ &\lt\frac{1}{2}e^{-(\pi-1)/t}\sum_{n=1}^{\infty} e^{-2\pi(n-1)/t} \\ &\lt\frac{1}{2}e^{-(\pi-1)/t}\sum_{n=1}^{\infty} 2^{n-1} \\ &=e^{-(\pi-1)/t}. \end{aligned} \] $\square$
Como resultado, también sabemos como se comporta $\theta(t)$ en el infinito. Para ser más precisos, tenemos el siguiente coroloario.
Demostración. Sea $u=\frac{1}{t}.$ Cuando $u$ es suficientemente pequeña, tenemos \[ \left|\theta(u)-\frac{1}{\sqrt{u}}\right|<e^{-(\pi-1)/u}. \] Consequentemente \[ \begin{aligned} |\theta(t)-1|&=\left|\frac{1}{\sqrt{t}}\theta\left(\frac{1}{t}\right)-1\right| \\ &=\left|\sqrt{u}\theta\left(u\right)-1\right| \\ &=\sqrt{u}\left|\theta(u)-\frac{1}{\sqrt{u}}\right| \\ &\lt \sqrt{u}e^{-(\pi-1)/u} \\ &=\frac{e^{-(\pi-1)t}}{\sqrt{t}} \end{aligned} \] como se esperaba. $\square$
La Transformada de Mellin de la Función Theta y la Función Zeta
Para comenzar, introducimos la transformada de Mellin. En cierto sentido, esta transformada puede entenderse como la versión multiplicativa de una transformada de Laplace de dos lados.
Por ejemplo, \( \Gamma(s) \) es la transformada de Mellin de \( e^x \). Además, para la transformada de Laplace de dos lados \[ \mathcal{B}_f(s)=\int_{-\infty}^{+\infty}e^{-sx}f(x)dx, \]
tenemos que \[ \mathcal{M}_f(s)=\mathcal{B}_{\tilde{f}}(s), \] donde \( \tilde{f}(x)=f(e^{-x}) \).
Nuestro objetivo es recuperar \( Z(s) \) a través de la transformada de Mellin de \( \theta(x) \). Como hemos demostrado anteriormente, \[ \pi^{-s}\Gamma(s)\zeta(2s)=\int_0^\infty \sum_{n=1}^{\infty} e^{-\pi n^2y}x^{s-1}dx. \] Parece que podemos obtener nuestro resultado rápidamente estudiando \( \frac{1}{2}(\theta(s)-1) \). Sin embargo, observamos que \( \theta(x) \) tiende a \( \frac{1}{\sqrt{x}} \) rápidamente cuando \( x \to 0 \), y tiende a \( 1 \) rápidamente cuando \( x \to \infty \). Es necesario tener en cuenta la convergencia. Por ello, añadimos términos de corrección de error. Para este propósito, estudiamos la función \[ \phi(s)=\int_0^1\left(\theta(x)-\frac{1}{\sqrt{x}}\right) x^{s/2-1}dx + \int_1^\infty (\theta(x)-1)x^{s/2-1}dx. \] Usamos \( s/2 \) en lugar de \( s \) porque no queremos que \( \zeta \) se evalúe constantemente en \( 2s \).
La partición \( (0,1) \cup (1,\infty) \) sugiere usar el cambio de variable \( y=\frac{1}{x} \). Como resultado, \[ \begin{aligned} \phi(s)& =\int_0^1\left(\theta(x)-\frac{1}{\sqrt{x}}\right) x^{s/2-1}dx + \int_1^\infty (\theta(x)-1)x^{s/2-1}dx \\ & = -\int_1^\infty\left( \theta\left(\frac{1}{y}\right)-\sqrt{y} \right)y^{1-s/2}(-y^{-2})dy -\int_0^1\left( \theta\left(\frac{1}{y}\right)-1 \right)y^{1-s/2}(-y^{-2})dy \\ & =\int_1^\infty (\theta(y)-1)y^{(1-s)/2-1}dy + \int_0^1 \left( \theta(y)-\frac{1}{\sqrt{y}} \right)y^{(1-s)/2-1}dy \\ & = \phi(1-s). \end{aligned} \] Ahora estamos listos para calcular \( \phi(s) \). Para la primera parte, \[ \begin{aligned} \int_0^1\left(\theta(x)-\frac{1}{\sqrt{x}}\right)x^{s/2-1}dx &= \int_0^1\theta(x)x^{s/2-1}dx -\frac{2}{s-1} \\ &=\int_0^1 \sum_{n=-\infty}^{+\infty}e^{-\pi n^2 x}x^{s/2-1}dx \\ &= \int_0^1 x^{s/2-1}dx + 2\sum_{n=1}^{\infty}\int_0^1e^{-\pi n^2 x}x^{s/2-1}dx - \frac{2}{s-1} \\ &= 2\sum_{n=1}^{\infty}\int_0^1e^{-\pi n^2 x}x^{s/2-1}dx +\frac{2}{s}-\frac{2}{s-1}. \end{aligned} \] Por otro lado, \[ \int_1^\infty (\theta(x)-1)x^{s/2-1}dx = 2\sum_{n=1}^{\infty}\int_1^\infty e^{-\pi n^2 x}x^{s/2-1}dx. \] Por lo tanto, \[ \begin{aligned} \phi(s)&=2\sum_{n=1}^{\infty}\int_0^\infty e^{-\pi n^2 x} x^{s/2-1}dx + \frac{2}{s}-\frac{2}{s-1} \\ &=2\left(Z(s)+\frac{1}{s}-\frac{1}{s-1}\right). \end{aligned} \] Es decir, \[ Z(s)=\pi^{-s/2}\Gamma(s/2)\zeta(s)=\frac{1}{2}\phi(s)-\frac{1}{s}+\frac{1}{s-1}. \] En particular, \[ \begin{aligned} Z(1-s)&=\frac{1}{2}\phi(1-s)-\frac{1}{1-s}+\frac{1}{1-s-1} \\ &=\frac{1}{2}\phi(s)-\frac{1}{s}+\frac{1}{s-1} \\ &=Z(s). \end{aligned} \] Expandiendo esta ecuación anterior, vemos que \[ \pi^{-(1-s)/2}\Gamma((1-s)/2)\zeta(1-s) = \pi^{-s/2}\Gamma(s/2)\zeta(s). \] Esto da como resultado \[ \zeta(1-s)=\pi^{\frac{1}{2}-s}\frac{\Gamma\left( \frac{s}{2}\right)}{\Gamma\left(\frac{1-s}{2}\right)}\zeta(s). \] Finalmente intentamos simplificar el cociente anterior. Usando la fórmula de duplicación de Legendre, \[ \Gamma(s)=\frac{2^s}{2\sqrt{\pi}}\Gamma\left(\frac{s}{2}\right) \Gamma\left(\frac{s+1}{2}\right). \] Por la fórmula de reflexión de Euler, \[ \Gamma\left(\frac{1-s}{2}\right)\Gamma\left(\frac{1+s}{2}\right) =\frac{\pi}{\sin\pi\left(\frac{1-s}{2}\right)} =\frac{\pi}{\cos\frac{\pi s}{2}}. \] Reemplazando estas dos ecuaciones en el lado derecho de \( \zeta(1-s) \), obtenemos
En particular, dado que también tenemos \[ \zeta(s)=\frac{\pi^{s/2}}{\Gamma(s/2)}\left( \phi(s)-\frac{1}{s}+\frac{1}{s-1} \right), \] es inmediato que $\zeta(s)$ admite un polo simple en $s=1$ con residuo $1.$ Otra preocupación es $s=0.$ No obstante, dado que tenemos \[ \begin{aligned} \zeta(s)&= \frac{\pi^{s/2}}{\Gamma(s/2)}\phi(s)- \frac{\pi^{s/2}}{s\Gamma(s/2)}+\frac{\pi^{s-1}}{\Gamma(s/2)} \\ &=\frac{\pi^{s/2}}{\Gamma(s/2)}\phi(s)- \frac{2\pi^{s/2}}{\Gamma(s/2+1)}+\frac{\pi^{s-1}}{\Gamma(s/2)} \end{aligned} \] no hay un polo en $s=0$ (nótese que $\phi(s)$ es entera). Ahora sabemos un poco más sobre la analiticidad de $\zeta(s).$
¿Qué es \(1 + 2 + 3 \dots\)?
Ahora estamos listos para calcular $\zeta(-1).$ \[ \zeta(-1)=2(2\pi)^{-2}\Gamma(2)\zeta(2) = \frac{2}{4\pi^2}\cdot 2+3 \cdot \cos(\pi)\cdot \frac{\pi^2}{6} = - \frac{1}{12}. \] Pero creo que, después de estos largos cálculos de la continuación analítica, podemos estar suficientemente seguros para afirmar que, cuando $\Re(s) \le 1$, la función zeta de Riemann $\zeta(s)$ absolutamente no puede ser explicada inmediatamente por su definición ordinaria $\sum_{n=1}^{\infty}n^{-s}.$ Afirmar que \[ 1+2+\dots=-\frac{1}{12} \] es un abuso de lenguaje ridículo e inaceptable.
Concluimos este artículo citando una crítica de Greg Gbur sobre el infame video de Numberphile.
Referencias
- Serge Lang, Complex Analysis.
- Elias M. Stein & Rami Shakarchi, Complex Analysis.
- Jürgen Neukirch, Algebraic Number Theory.
- Jakob Glas & Kevin Yeh, The Classical Theta Function and the Riemann Zeta Function.
Agradecimientos
Quiero agradecer a Desvl, autor original de este artículo por permitirme traducirlo y compartirlo en este blog. Si deseas apoyar su trabajo, puedes hacerlo con en Patreon o con este otro enlace: buymeacoffee.com/desvl.
Gracias por llegar al final de este artículo. Si deseas puedes apoyarme en Patreon usando el siguiente enlace:
Con tu apoyo podré seguir escribiendo y compartiendo artículos y applets de matemáticas.
Comentarios
Publicar un comentario