Continuación analítica de la función zeta de Riemann paso a paso

Fuente Original: A Step-by-step of the Analytic Continuation of the Riemann Zeta Function
Author: Desvl
Traducción: Juan Carlos Ponce Campuzano

Introduction

La función zeta de Riemann es ampliamente conocida (por ser la continuación analítica de la función zeta de Euler):

\[\zeta(s)=\sum_{n=1}^{\infty}\frac{1}{n^s}.\]

Es ampliamente conocida principalmente por la célebre hipótesis de Riemann, que permanece sin resolver tras más de un siglo de intentos por parte de matemáticos y 150 millones de intentos por computadoras:

Hipótesis de Riemann: Los ceros no triviales de $\zeta(s)$ se encuentran en la línea $\Re(s)=\frac{1}{2}.$

Nota: $\Re(s)$ = parte real de $s = x+iy.$

El público conoce a través de la divulgación científica cuán importante y misteriosa es esta hipótesis, o cuán desastroso sería si algún día se resolviera. Dejemos eso de lado. La pregunta es, ¿por qué Riemann se interesaría en el conjunto de ceros de tal función? ¿Por qué no en otra cosa? Según Riemann, la función de distribución de los números primos

\[\pi(x)=\sum_{p\text{ prime}}^{p \le x}1\]

se puede escribir como la serie

\[\pi(x)=R(x)-\sum_{\rho}R(x^\rho)\]

donde

\[R(x)=1+\sum_{n=1}^{\infty}\frac{1}{n\zeta(n+1)}\frac{(\log{x})^n}{n!}\]

y $\rho$ varía sobre todos los ceros de $\zeta(s).$ Dicho esto, una vez que esta hipótesis se demuestre cierta, podríamos tener una idea mucho más concreta de la distribución de los números primos.

Pero este no es realmente el tema de esta publicación. El autor de esta publicación no intenta probar la Hipótesis de Riemann en unas pocas páginas, y nadie podría hacerlo. En esta publicación, investigamos la continuación analítica de $\zeta(s)$ paso a paso, de modo que tenga sentido siquiera pensar en evaluar el valor en $\frac{1}{2}.$ Para la teoría de la continuación analítica, recomiendo Real and Complex Analysis de Walter Rudin. Aunque en su libro explora la función modular y el pequeño teorema de Picard, en lugar de la función $\zeta(s)$ y temas relacionados.

Transferiremos el problema de la función $\zeta$ a la función $\Gamma$ y la función $\theta$, y descubriremos lo que queremos a través de la transformación de Mellin, en el sentido de que observaremos la llamada función zeta completa, que nos llevará a LA continuación que buscamos.

Nos centraremos más en los detalles de los procesos no triviales, en lugar del análisis complejo básico. El lector puede omitir nuestra preparación si está familiarizado con estos contenidos.

La función Gamma

La función Gamma debería estudiarse en un curso de análisi:

\[\Gamma(s)=\int_0^\infty e^{-t}t^{s-1}dt,s>0.\]

En un curso de análisis hemos estudiado algunas de las propiedades importantes de esta función:

  • $\Gamma(1)=1.$

  • $\Gamma(s+1)=s\Gamma(s)$ (como resultado, $n!=\Gamma(n+1)$)

  • $\log\Gamma(s)$ es una función convexa.

En esta sección, sin embargo, la estudiaremos en el contexto del análisis complejo.

Teorema 1. La función Gamma \[ \Gamma(s)=\int_0^\infty e^{-t}t^{s-1}dt\] está bien definida como una función analítica en el semiplano $\Re(s)>0.$

Demostración. Si escribimos $s=u+iv$ con $u>0$ y $t=e^c$, entonces \[ \begin{aligned} \left|e^{-t}t^{s-1}\right|&=\left|e^{-t}t^{u-1}\right|\left|t^{iv}\right| \\ &=\left|e^{-t}t^{u-1}\right|\left|e^{icv}\right| \\ &=e^{-t}t^{u-1}. \end{aligned} \] Por lo tanto, \[ \begin{aligned} \int_{0}^{\infty}\left|e^{-t}t^{s-1}\right|dt &= \int_0^\infty e^{-t} t^{u-1}dt \\ &=\Gamma(u) \\ &\lt \infty. \end{aligned} \] De ahí se sigue la propiedad deseada. $\square$

Teorema 2. Si $\Re(s)>0$, entonces \[ \Gamma(s+1)=s\Gamma(s),\] y como consecuencia $\Gamma(n+1)=n!$ para $n=0,1,\dots.$

Demostración. La segunda afirmación se sigue inmediatamente porque $\Gamma(1)=1.$ Para la primera ecuación, hacemos una integración por partes: \[ \int_{\varepsilon}^{1/\varepsilon}\frac{d}{dt}(e^{-t} t^s)dt =-\int_{\varepsilon}^{1/\varepsilon}e^{-t}t^sdt +s\int_{\varepsilon}^{1/\varepsilon}e^{-t}t^{s-1}dt. \]

Al tomar $\varepsilon \to 0$, obtenemos lo que queremos. $\square$

Ahora estamos listos para la continuación analítica de la función Gamma, que construye un puente hacia la continuación analítica de $\zeta.$

Teorema 3. La función $\Gamma(s)$ definida en el teorema 1 admite una continuación analítica a una función meromorfa en el plano complejo cuyos singularidades son polos simples en $0,-1,\dots$, con el residuo correspondiente $\frac{(-1)^n}{n!}.$

Demostración. Basta con mostrar que podemos continuar $\Gamma$ a $\Re(s) > -m$, para todo $m > 0$, lo que implica que podemos extenderla a todo el plano complejo. Por esta razón, definimos $\Gamma_0(s) = \Gamma(s)$, que está definida en el teorema 1. Luego \[ \Gamma_1(s)=\frac{\Gamma_0(s+1)}{s} \] es LA continuación analítica de $\Gamma_0(s)$ en $\Re(s) > -1$, con la única singularidad en $s = 0.$ Luego \[ \operatorname{Res}_{s=0}\Gamma_1(s)=\lim_{s \to 0}s\Gamma_1(s) =\Gamma_0(1)=1. \] De manera similar, podemos definir \[ \Gamma_2(s)=\frac{\Gamma_1(s+1)}{s}=\frac{\Gamma_0(s+2)}{s(s+1)}. \]

En general, siempre que $m \ge 1$ sea un entero, podemos definir \[ \Gamma_m(s)=\frac{\Gamma_0(s+m)}{\prod_{j=1}^{m-1}(s-j)}. \] Esta función es meromorfa en $\Re(s) > -m$ y tiene polos simples en $s = 0, -1, \dots, -m+1$ con residuos \[ \operatorname{Res}_{s=-n}\Gamma_m(s)= \frac{\Gamma(-n+m)}{ (m-1-n)!(-1)(-2)\dots(-n) }=\frac{(-1)^n}{n!}. \] Las aplicaciones sucesivas del lema muestran que $\Gamma_m(s) = \Gamma(s)$ para $\Re(s) > 0.$ Por lo tanto, hemos obtenido la continuación analítica a través de este proceso. $\square$

A lo largo de esta exposición, a menos que se indique lo contrario, llamaremos a la función obtenida en la demostración del teorema 3 como LA función $\Gamma.$

Para todo $s \in \mathbb{C}$, esta función satisface $\Gamma(s+1) = s\Gamma(s)$ como debe ser.

Antes de continuar, desarrollamos dos relaciones entre la función $\Gamma$ y la función $\zeta$ para convencer al lector de que no estamos haciendo nada sin sentido.

Si realizamos un cambio de variable $t=nu$ en la definición de $\Gamma(s)$, vemos que \[ \int_{0}^\infty e^{-nu}n^{s}u^{s-1}du=\Gamma(s). \] Es decir, \[ \begin{aligned} \frac{1}{n^s}\Gamma(s)&=\int_0^\infty e^{-nu}u^{s-1}du \\ \end{aligned} \] Al tomar la suma de todos los $n$, vemos que \[ \begin{aligned} \Gamma(s)\sum_{n=1}^{\infty}\frac{1}{n^s}&=\Gamma(s)\zeta(s) \\ &= \sum_{n=1}^{\infty}\int_0^\infty e^{-nu}u^{s-1}du \\ &=\int_0^\infty \sum_{n=1}^{\infty}e^{-nu}u^{s-1}du \\ &=\int_0^{\infty}\frac{e^{-u}u^{s-1}}{1-e^{-u}}du \\ &=\int_0^{\infty}\frac{u^{s-1}}{e^u-1}du. \end{aligned} \]

Esta relación es hermosa, pero puede hacer que nuestros cálculos sean un poco más complicados. Sin embargo, si nos ensuciamos las manos más temprano, nuestro estudio será más fácil. Así que haremos un cambio de variable “más feo” $t \mapsto \pi n^2y$ para obtener \[ \pi^{-s}\Gamma(s)\frac{1}{n^{2s}}=\int_0^\infty e^{-\pi n^{2}y }y^{s-1}dy \] lo que implica \[ \pi^{-s}\Gamma(s)\zeta(2s)=\int_0^\infty \sum_{n=1}^{\infty} e^{-\pi n^2y}y^{s-1}dy. \]

En ambos casos, es válido cambiar el orden de la suma y la integración, gracias al teorema de convergencia monótona.

Antes de continuar, necesitamos algunas propiedades adicionales de la función Gamma.

Teorema 4 (Fórmula de reflexión de Euler). Para todo $s \in \mathbb{C}$, \[ \Gamma(s)\Gamma(1-s)=\frac{\pi}{\sin\pi s}. \]

Observa que esta identidad tiene sentido en todos los polos. Dado que $\Gamma(s)$ tiene polos simples en $0, -1, \dots$, mientras que $\Gamma(1-s)$ tiene polos simples en $1, 2, \dots.$ Como resultado, $\Gamma(s)\Gamma(1-s)$ tiene polos simples en todos los enteros, una propiedad que también comparte $\pi/\sin\pi{s}.$

Por continuación analítica, basta probarla para $0<s<1$, ya que este resultado puede extenderse a todo $\mathbb{C}$ mediante continuación analítica.

Demostración (versión real). Expandimos primero el lado izquierdo: \[ \begin{aligned} \Gamma(x)\Gamma(1-x)&=B(x,1-x) \\ &=\int_0^1 t^{1-x}(1-t)^xdt \\ &=\int_0^\infty \frac{1}{y^x(1+y)}dy \end{aligned} \] al tomar $t=\frac{1}{1+y}.$ A continuación, calculamos esta integral para $(0,1]$ y $[1,\infty).$ \[ \begin{aligned} \int_0^1\frac{1}{y^x(1+y)}dy &= \int_0^1\frac{1}{y^x} \sum_{n=0}^{\infty}(-y)^ndy \\ &= \sum_{n=0}^{\infty}\int_0^1(-y)^{n-x}dy \\ &= \sum_{n=0}^{\infty}\frac{(-1)^{n-1}}{n-x}. \end{aligned} \] (El intercambio de integración y suma infinita es correcto debido al teorema de convergencia dominada de Arzelà para integrales de Riemann.)

Por otro lado, tomando $y=\frac{1}{u}$, tenemos \[ \begin{aligned} \int_1^\infty\frac{1}{y^x(1+y)}dy &= \int_0^1\frac{u^{x-1}}{1+u}du \\ &=\frac{1}{x}+\sum_{n=1}^{\infty}\frac{(-1)^n}{n+x} \end{aligned} \]Sumando, obtenemos \[ \Gamma(x)\Gamma(1-x)=\frac{1}{x}+\sum_{n=1}^{\infty} (-1)^n\frac{2x}{x^2-n^2}. \] Queda por demostrar que $\pi\csc{\pi{x}}$ también satisface tal expansión, lo cual no es directo porque ni las series de Fourier ni las series de Taylor pueden llevarnos allí directamente. Se puede comenzar con la expansión en producto infinito de $\sin{x}$, pero aquí seguimos un enfoque alternativo. Observae que para $\alpha \in \mathbb{R} \setminus \mathbb{Z}$, \[ \cos\alpha{t}=\frac{\sin\pi \alpha}{\pi \alpha} +\sum_{n=1}^{\infty}(-1)^n\frac{2\alpha}{\pi(\alpha^2-n^2)} \sin\alpha\pi\cos{nt}. \] Tomando $t=0$ y multiplicando ambos lados por $\pi\csc\pi\alpha$, obtenemos lo que queremos. $\square$

Demostración (versión compleja). Por definición, \[ \begin{aligned} \Gamma(1-s)\Gamma(s) &= \int_0^\infty e^{-t}t^{s-1}\Gamma(1-s)dt \\ &= \int_0^\infty e^{-t}t^{s-1}\left(\int_0^\infty e^{-v}v^{s}dv\right)dt \\ &= \int_0^\infty e^{-t}t^{s-1}t \left( \int_0^\infty e^{-ut}(ut)^{-s}du \right)dt \\ &= \int_0^\infty du \int_0^\infty e^{-t(u+1)}u^{-s}dt \\ &= \int_0^\infty \frac{u^{-s}}{1+u}du. \end{aligned} \] Aquí realizamos un cambio de variable en $v=tu.$ Para calcular la última integral, tomamos $u=e^x$, y se sigue que \[ \begin{aligned} \int_0^\infty \frac{u^{-s}}{1+u}du &= \int_0^\infty \frac{e^{(1-s)x}}{1+e^x}dx \\ \end{aligned} \] La integral en el lado derecho se puede calcular como \[ \frac{\pi}{\sin(1-s)\pi}=\frac{s}{\sin\pi s}. \]Esto es una consecuencia sencilla de la fórmula del residuo (considerando un rectángulo con centro en $z=\pi i$, altura $2\pi$ y un lado siendo el eje real). $\square$

Aquí hay un bonus de la fórmula de reflexión de Euler. Al poner $t=u^2$ en la definición de la función $\Gamma$, también tenemos \[ \begin{aligned} \Gamma(s)&=\int_0^\infty e^{-u^2}u^{2s-2}2udu \\ &=2\int_0^\infty e^{-u^2}u^{2s-1}ds. \end{aligned} \] Por lo tanto \[ \Gamma(1/2)=2\int_0^\infty e^{-u^2}du=\int_{-\infty}^{\infty}e^{-u^2}du=\sqrt{\pi}. \] Para concluir esta sección, también mencionamos

Teorema 5 (Fórmula de duplicación de Legendre). \[ \Gamma(s)\Gamma(s+1/2)=\frac{2\sqrt\pi}{2^{2s}}\Gamma(2s). \]

Una demostración del teorema anterior se puede encontrar aquí.

Transformada de Mellin y de Fourier de la Función Theta de Jacobi

Comportamiento de la Función Theta de Jacobi

Definamos \( Z(s) = \pi^{-s/2} \Gamma(s/2) \zeta(s) \). Parece que estamos muy cerca de una gran propiedad de \( \zeta(s) \), si logramos entender un poco más \( Z \), ya que \( \pi^{-s/2} \) y \( \Gamma(s/2) \) se comportan de forma conveniente. Por lo tanto, introducimos la función theta de Jacobi \[ \theta(s) = \sum_{n \in \mathbb{Z}} e^{-\pi n^2 s}, \quad \Re(s) > 0 \] y tratamos de deducir su relación con \( Z(s) \).

Para comenzar, primero mostramos que

Proposición 1. La función theta es holomorfa en el semiplano derecho.

Demostración. Sea \( C \) un subconjunto compacto del semiplano derecho, y definamos \( y_0 = \inf_{s \in C} \Re(s) \). Escojamos cualquier \( n_0 \ge \frac{1}{y_0} \). Para \( s = u + iv \in C \), tenemos \( u \ge y_0 \) y, por lo tanto, \[ \begin{aligned} \sum_{|n| \ge n_0} \left|e^{-\pi n^2 s}\right| &= \sum_{|n| \ge n_0} e^{-\pi n^2 u} \\ &\le \sum_{|n| \ge n_0} e^{-\pi n^2 y_0} \\ &\le \sum_{|n| \ge n_0} e^{-\pi |n|} \end{aligned} \]

Por lo tanto, \( \theta(s) \) converge absolutamente en cualquier subconjunto compacto del semiplano derecho. (Observemos que hemos utilizado el hecho de que \( n^2 y_0 \ge |n| n_0 y_0 \ge |n| \) al estudiar la convergencia). Dado que cada término es holomorfo, hemos demostrado que \( \theta(s) \) es holomorfa. \( \square \)

Por lo tanto, es seguro trabajar con la función theta. Ahora estamos listos para deducir una ecuación funcional.

Teorema 6. La función theta satisface la ecuación funcional en \( \{\Re(s) > 0\} \): \[ \theta(s) = \frac{1}{\sqrt{s}} \theta\left(\frac{1}{s}\right) \]

La raíz cuadrada se elige para estar en la rama con la parte real positiva.

Demostración. Consideremos la función \( f(x) = e^{-\pi x^2} \). Sabemos que este es el punto fijo de la transformada de Fourier (en esta forma conveniente): \[ \hat{g}(t) = \int_{-\infty}^{\infty} g(x) e^{-2\pi ixt} dx. \] Ahora ponemos \( g(x) = e^{-\pi u x^2} = f\left(\sqrt{u}x\right) \). La transformada de Fourier de \( g \) es fácil de deducir: \[ \hat{g}(t) = \frac{1}{\sqrt{u}} \hat{f}\left(\frac{t}{\sqrt{u}}\right) = \frac{1}{\sqrt{u}} e^{-\pi t^2 / u}. \] Como \( g(x) \) es una función de Schwartz, por la fórmula de suma de Poisson, tenemos \[ \sum_{n \in \mathbb{Z}} g(n) = \theta(u) = \sum_{n \in \mathbb{Z}} \hat{g}(n) = \frac{1}{\sqrt{u}} \theta\left(\frac{1}{u}\right). \] El resultado sigue de una continuación analítica. \( \square \)

Para las funciones de Schwartz, también conocidas como funciones de rápida disminución, remitimos al lector al capítulo 7 del libro Functional Analysis de W. Rudin.

A continuación, estudiaremos el comportamiento de \( \theta(s) \) en la mitad de la recta real, especialmente en el origen y en el infinito. Debido a la ecuación funcional anterior, una vez que tengamos una mejor comprensión alrededor del origen, podremos saber rápidamente lo que sucederá en el infinito.

Proposición 2. Cuando el número real $t \to 0,$ la función theta es equivalente a $\frac{1}{\sqrt{t}}.$ Más precisamente, cuando $t$ es suficientemetne pequeño, la siguiente desigualdad se cumple: \[ \left|\theta(t)-\frac{1}{\sqrt{t}}\right|\lt e^{-(\pi-1)/t}. \]

Demostración. Re-escribimos $\theta(t)$ en la forma \[ \theta(t)=1+2\sum_{n=1}^{\infty}e^{-\pi n^2 t}. \] Por lo tanto \[ \begin{aligned} \left|\theta(t)-\frac{1}{\sqrt{t}}\right| &= \left| \frac{1}{\sqrt{t}}\left(\theta\left(\frac{1}{t}\right)-1\right) \right| \\ &= \frac{2}{\sqrt{t}}\sum_{n=1}^{\infty}e^{-\pi n^2/t} \end{aligned} \] Elegimos $t>0$ suficientemente pequeña de tal forma que \[ e^{-1/t}\lt \frac{\sqrt{t}}{4}, \quad e^{-2\pi/t}\lt 2. \] De lo cual se sigue que \[ \begin{aligned} \left|\theta(t)-\frac{1}{\sqrt{t}}\right| &= \frac{2}{\sqrt{t}}\sum_{n=1}^{\infty}e^{-\pi n^2/t} \\ &\lt \frac{1}{2}e^{1/t}\sum_{n=1}^{\infty}e^{-\pi/t} e^{-\pi(n^2-1)/t} \\ &=\frac{1}{2}e^{-(\pi-1)/t}\sum_{n=1}^{\infty}e^{-\pi(n+1)(n-1)/t}\\ &\lt\frac{1}{2}e^{-(\pi-1)/t}\sum_{n=1}^{\infty} e^{-2\pi(n-1)/t} \\ &\lt\frac{1}{2}e^{-(\pi-1)/t}\sum_{n=1}^{\infty} 2^{n-1} \\ &=e^{-(\pi-1)/t}. \end{aligned} \] $\square$

Como resultado, también sabemos como se comporta $\theta(t)$ en el infinito. Para ser más precisos, tenemos el siguiente coroloario.

Corolario 1. El límite de $\theta(t)$ al infinito es $1$ en el siguiente sentido: cuando $t$ suficientemente grande, \[ |\theta(t)-1| \lt e^{-(\pi-1)t}/\sqrt{t}. \]

Demostración. Sea $u=\frac{1}{t}.$ Cuando $u$ es suficientemente pequeña, tenemos \[ \left|\theta(u)-\frac{1}{\sqrt{u}}\right|<e^{-(\pi-1)/u}. \] Consequentemente \[ \begin{aligned} |\theta(t)-1|&=\left|\frac{1}{\sqrt{t}}\theta\left(\frac{1}{t}\right)-1\right| \\ &=\left|\sqrt{u}\theta\left(u\right)-1\right| \\ &=\sqrt{u}\left|\theta(u)-\frac{1}{\sqrt{u}}\right| \\ &\lt \sqrt{u}e^{-(\pi-1)/u} \\ &=\frac{e^{-(\pi-1)t}}{\sqrt{t}} \end{aligned} \] como se esperaba. $\square$

La Transformada de Mellin de la Función Theta y la Función Zeta

Para comenzar, introducimos la transformada de Mellin. En cierto sentido, esta transformada puede entenderse como la versión multiplicativa de una transformada de Laplace de dos lados.

Definición. Dada una función \( f:\mathbb{R}_+ \to \mathbb{C} \), la transformada de Mellin de \( f \) se define como \[ \mathcal{M}_f(s)=\int_0^\infty f(x)x^{s-1}dx, \] siempre que el límite exista.

Por ejemplo, \( \Gamma(s) \) es la transformada de Mellin de \( e^x \). Además, para la transformada de Laplace de dos lados \[ \mathcal{B}_f(s)=\int_{-\infty}^{+\infty}e^{-sx}f(x)dx, \]

tenemos que \[ \mathcal{M}_f(s)=\mathcal{B}_{\tilde{f}}(s), \] donde \( \tilde{f}(x)=f(e^{-x}) \).

Nuestro objetivo es recuperar \( Z(s) \) a través de la transformada de Mellin de \( \theta(x) \). Como hemos demostrado anteriormente, \[ \pi^{-s}\Gamma(s)\zeta(2s)=\int_0^\infty \sum_{n=1}^{\infty} e^{-\pi n^2y}x^{s-1}dx. \] Parece que podemos obtener nuestro resultado rápidamente estudiando \( \frac{1}{2}(\theta(s)-1) \). Sin embargo, observamos que \( \theta(x) \) tiende a \( \frac{1}{\sqrt{x}} \) rápidamente cuando \( x \to 0 \), y tiende a \( 1 \) rápidamente cuando \( x \to \infty \). Es necesario tener en cuenta la convergencia. Por ello, añadimos términos de corrección de error. Para este propósito, estudiamos la función \[ \phi(s)=\int_0^1\left(\theta(x)-\frac{1}{\sqrt{x}}\right) x^{s/2-1}dx + \int_1^\infty (\theta(x)-1)x^{s/2-1}dx. \] Usamos \( s/2 \) en lugar de \( s \) porque no queremos que \( \zeta \) se evalúe constantemente en \( 2s \).

La partición \( (0,1) \cup (1,\infty) \) sugiere usar el cambio de variable \( y=\frac{1}{x} \). Como resultado, \[ \begin{aligned} \phi(s)& =\int_0^1\left(\theta(x)-\frac{1}{\sqrt{x}}\right) x^{s/2-1}dx + \int_1^\infty (\theta(x)-1)x^{s/2-1}dx \\ & = -\int_1^\infty\left( \theta\left(\frac{1}{y}\right)-\sqrt{y} \right)y^{1-s/2}(-y^{-2})dy -\int_0^1\left( \theta\left(\frac{1}{y}\right)-1 \right)y^{1-s/2}(-y^{-2})dy \\ & =\int_1^\infty (\theta(y)-1)y^{(1-s)/2-1}dy + \int_0^1 \left( \theta(y)-\frac{1}{\sqrt{y}} \right)y^{(1-s)/2-1}dy \\ & = \phi(1-s). \end{aligned} \] Ahora estamos listos para calcular \( \phi(s) \). Para la primera parte, \[ \begin{aligned} \int_0^1\left(\theta(x)-\frac{1}{\sqrt{x}}\right)x^{s/2-1}dx &= \int_0^1\theta(x)x^{s/2-1}dx -\frac{2}{s-1} \\ &=\int_0^1 \sum_{n=-\infty}^{+\infty}e^{-\pi n^2 x}x^{s/2-1}dx \\ &= \int_0^1 x^{s/2-1}dx + 2\sum_{n=1}^{\infty}\int_0^1e^{-\pi n^2 x}x^{s/2-1}dx - \frac{2}{s-1} \\ &= 2\sum_{n=1}^{\infty}\int_0^1e^{-\pi n^2 x}x^{s/2-1}dx +\frac{2}{s}-\frac{2}{s-1}. \end{aligned} \] Por otro lado, \[ \int_1^\infty (\theta(x)-1)x^{s/2-1}dx = 2\sum_{n=1}^{\infty}\int_1^\infty e^{-\pi n^2 x}x^{s/2-1}dx. \] Por lo tanto, \[ \begin{aligned} \phi(s)&=2\sum_{n=1}^{\infty}\int_0^\infty e^{-\pi n^2 x} x^{s/2-1}dx + \frac{2}{s}-\frac{2}{s-1} \\ &=2\left(Z(s)+\frac{1}{s}-\frac{1}{s-1}\right). \end{aligned} \] Es decir, \[ Z(s)=\pi^{-s/2}\Gamma(s/2)\zeta(s)=\frac{1}{2}\phi(s)-\frac{1}{s}+\frac{1}{s-1}. \] En particular, \[ \begin{aligned} Z(1-s)&=\frac{1}{2}\phi(1-s)-\frac{1}{1-s}+\frac{1}{1-s-1} \\ &=\frac{1}{2}\phi(s)-\frac{1}{s}+\frac{1}{s-1} \\ &=Z(s). \end{aligned} \] Expandiendo esta ecuación anterior, vemos que \[ \pi^{-(1-s)/2}\Gamma((1-s)/2)\zeta(1-s) = \pi^{-s/2}\Gamma(s/2)\zeta(s). \] Esto da como resultado \[ \zeta(1-s)=\pi^{\frac{1}{2}-s}\frac{\Gamma\left( \frac{s}{2}\right)}{\Gamma\left(\frac{1-s}{2}\right)}\zeta(s). \] Finalmente intentamos simplificar el cociente anterior. Usando la fórmula de duplicación de Legendre, \[ \Gamma(s)=\frac{2^s}{2\sqrt{\pi}}\Gamma\left(\frac{s}{2}\right) \Gamma\left(\frac{s+1}{2}\right). \] Por la fórmula de reflexión de Euler, \[ \Gamma\left(\frac{1-s}{2}\right)\Gamma\left(\frac{1+s}{2}\right) =\frac{\pi}{\sin\pi\left(\frac{1-s}{2}\right)} =\frac{\pi}{\cos\frac{\pi s}{2}}. \] Reemplazando estas dos ecuaciones en el lado derecho de \( \zeta(1-s) \), obtenemos

Proposición 3. La función zeta de Riemann $\zeta(s)$ admite una continuación analítica que satisface la ecuación funcional \[ \zeta(1-s)=2(2\pi)^{-s}\Gamma(s)\cos\frac{\pi s}{2}\zeta(s). \]

En particular, dado que también tenemos \[ \zeta(s)=\frac{\pi^{s/2}}{\Gamma(s/2)}\left( \phi(s)-\frac{1}{s}+\frac{1}{s-1} \right), \] es inmediato que $\zeta(s)$ admite un polo simple en $s=1$ con residuo $1.$ Otra preocupación es $s=0.$ No obstante, dado que tenemos \[ \begin{aligned} \zeta(s)&= \frac{\pi^{s/2}}{\Gamma(s/2)}\phi(s)- \frac{\pi^{s/2}}{s\Gamma(s/2)}+\frac{\pi^{s-1}}{\Gamma(s/2)} \\ &=\frac{\pi^{s/2}}{\Gamma(s/2)}\phi(s)- \frac{2\pi^{s/2}}{\Gamma(s/2+1)}+\frac{\pi^{s-1}}{\Gamma(s/2)} \end{aligned} \] no hay un polo en $s=0$ (nótese que $\phi(s)$ es entera). Ahora sabemos un poco más sobre la analiticidad de $\zeta(s).$

Corolario 2. La función zeta de Riemann $\zeta(s)$ tiene su continuación analítica definida en $\mathbb{C} \setminus \{1\}$, con un polo simple en $s=1$ con residuo $1.$

¿Qué es \(1 + 2 + 3 \dots\)?

Ahora estamos listos para calcular $\zeta(-1).$ \[ \zeta(-1)=2(2\pi)^{-2}\Gamma(2)\zeta(2) = \frac{2}{4\pi^2}\cdot 2+3 \cdot \cos(\pi)\cdot \frac{\pi^2}{6} = - \frac{1}{12}. \] Pero creo que, después de estos largos cálculos de la continuación analítica, podemos estar suficientemente seguros para afirmar que, cuando $\Re(s) \le 1$, la función zeta de Riemann $\zeta(s)$ absolutamente no puede ser explicada inmediatamente por su definición ordinaria $\sum_{n=1}^{\infty}n^{-s}.$ Afirmar que \[ 1+2+\dots=-\frac{1}{12} \] es un abuso de lenguaje ridículo e inaceptable.

Concluimos este artículo citando una crítica de Greg Gbur sobre el infame video de Numberphile.

¿Por qué es esto importante? Parte de lo que he intentado mostrar en este blog es que las matemáticas y la física pueden ser extremadamente no intuitivas, incluso extrañas, pero que tienen sus propias reglas y lógica que tienen perfecto sentido una vez que te familiarizas con ellas. El video original, en mi opinión, actúa más como un truco de magia que como una explicación: muestra un resultado peculiar y no intuitivo y trata de hacerlo pasar como verdad absoluta sin matización. Hacer que la ciencia y las matemáticas parezcan magia incomprensible no ayuda a los científicos que las estudian ni al público que desearía entenderlas.

Referencias

Agradecimientos

Quiero agradecer a Desvl, autor original de este artículo, por permitirme traducirlo y compartirlo en este blog. Si deseas apoyar su trabajo, puedes hacerlo en Patreon o con este otro enlace: buymeacoffee.com/desvl.


Gracias por llegar al final de este artículo. Si deseas puedes apoyarme en Patreon usando el siguiente enlace:

Con tu apoyo podré seguir escribiendo y compartiendo artículos y applets de matemáticas.

Comentarios

Entradas populares

Galileo Galilei y su ley de caída libre

Breve historia del Cálculo

Una historia de la Teoría de Conjuntos