IRONÍA Y TRAGEDIA EN LA HIPÓTESIS DE RIEMANN

¿Sabíais este secreto? Lo peor es que la belleza no sólo es terrible, sino también un misterio. Dios y el Diablo luchan en ella, y su campo de batalla es el corazón del hombre.
Fiódor Dostoyevski

Mei Xiaochun publicó hace 3 años un artículo en el que afirmaba que la hipótesis de Riemann ni siquiera tiene sentido porque para empezar ya hay cuatro inconsistencias graves en el texto de 1859. En un artículo posterior, utiliza un método estándar para probar que la función zeta de Riemann no tiene ni un solo cero no trivial. Cero ceros. No hace falta recordar que, según la opinión matemática reinante, se han calculado billones de ellos.

Mei Xiaochun no está tratando de encontrarle cinco pies al gato. Las inconsistencias de las que habla son muy básicas, incumplen incluso las propias ecuaciones de Cauchy-Riemann que están en la base del análisis complejo. No soy matemático y prefiero diferir mi juicio sobre la relevancia de sus argumentos, pero creo que, como mínimo, merecen una atención y una respuesta; aunque difícilmente la encontraremos en ninguna parte. Si algún matemático se dignara responder, probablemente diría algo así como que la continuación analítica tiene principios que el autor parece ignorar, pero nadie ignora que crear nuevos principios según convenga es la forma más elegante de no tenerlos.

Mei es un físico del Institute of Innovative Physics en Fuzhou. Ojeando una lista de su producción científica se aprecia fácilmente que se ha especializado en la crítica de aspectos altamente especulativos de la ciencia moderna que pasan por ciencia normal: la relatividad general, los agujeros negros, el LIGO y el LHC, o incluso el electromagnetismo. Respecto a este último tiene una serie de trabajos sobre la interacción electromagnética retardada que me parecen particularmente interesantes, puesto que la vincula con la irreversibilidad temporal en ciertos procesos y en esta página hemos hablado repetidamente de la teoría del potencial retardado y también de la irreversibilidad en la física fundamental.

Independientemente de lo acertado o errado de sus afirmaciones, lo que está claro es que en Occidente no se puede pertenecer a una Universidad o a ninguna institución oficial de investigación y publicar artículos como los de Mei. No merecería la pena ni intentarlo, ya que el rechazo estaría garantizado de antemano. Que en China esto se permita sólo pone de manifiesto lo que ya sabemos, y es que la ciencia occidental no es asumida allí como algo propio, sino sólo como una herramienta de enorme poder que es imposible ignorar.

Por lo demás Mei no está intentando “deconstruir Occidente”; sus argumentos son totalmente pertinentes y legítimos, y lo realmente revelador es que ningún científico occidental integrado en las instituciones pueda permitirse decir estas cosas. Tal vez el último investigador en nómina que pudo hacerlo fue el canadiense Paul Marmet, e ignoro si cuando publicó Absurdities in Modern Physics, en 1993, aún trabajaba en la Universidad de Ottawa.

¿Qué pueden hacer los matemáticos de aquí con los argumentos de Mei? Habrá que preguntarles a ellos. A mí me han dicho alguna vez que las cosas que he escrito sobre la función zeta son “totalmente especulativas”, y sólo faltaría que no lo fueran, si ni siquiera he pretendido hacer matemáticas. El caso es que la misma hipótesis de Riemann es “totalmente especulativa” desde el principio, y lo único preocupante sería que los matemáticos no se dieran cuenta de ello.

Para empezar, nunca he creído en que la hipótesis pueda resolverse, que es lo que al parecer motiva a la mayor parte de los matemáticos; pienso que esta función especial es interesante en sí misma con independencia de la hipótesis, aunque eso incluya naturalmente los ceros de la línea crítica. Al menos aquí hemos planteado dudas sobre la corrección de los métodos de cálculo, dudas que se suscitan incluso antes de entrar en el análisis complejo, en el cálculo diferencial más elemental. Nos hemos remitido una y otra vez al trabajo de Miles Mathis, que ha puesto en evidencia las sistemáticas manipulaciones algebraicas ilegales para llegar a los resultados conocidos. En fin, hemos hablado de la ingeniería inversa del cálculo aplicado a la física, y lo llamativo es que en el caso de la función zeta la circunstancia es la contraria: la física y en particular sistemas cuánticos con muchos cuerpos reproducirían algunos de los patrones de esta función. Pero, ni que decir tiene, todo eso no es menos “totalmente especulativo”. Coincido completamente con Mathis en su apreciación de que el cálculo es matemática aplicada, no matemática pura; lo que no sé es cómo alguien podría pretender lo contrario. ¿Porqué si no se siguen calculando ceros?

La hipótesis de Riemann “sólo dice” que los números primos son tan ordenados como pueden serlo porque si fueran más ordenados dejarían de ser números primos. Es decir, es una condición más restrictiva pero aún sumamente incierta sobre la hipótesis de Legendre y Gauss que luego se convirtió en teorema gracias justamente a la función zeta de Riemann. Ponemos “sólo dice” entre comillas puesto que esto mismo se puede formular de otras mil y una maneras y tiene otras tantas resonancias distintas en los campos más diversos de la matemática. Es comprensible que la mayoría de matemáticos deseen que sea cierta, puesto que aportaría un criterio de orden de un alcance inmenso, y lo contrario, que la pauta de los números primos empiece a ser diferente a partir de números muy grandes, además de ser inimaginable, tendría efectos devastadores. Además, no hay ninguna esperanza de poder refutar la hipótesis con la fuerza bruta del cómputo, patéticamente impotente en casos como este.

Claro que aquí estamos suponiendo que existen esos ceros no triviales de la función y que tienen una relación cierta e inequívoca con los números primos y su distribución; pero esto justamente es lo que Mei Xiaochun niega. Las mentes de los matemáticos, laboriosas por naturaleza, siempre escogerán tener algo con lo que trabajar. Si un analista se encontrara en el limbo, en el cielo o en el infierno, y tuviera que elegir entre pasar la eternidad ociosamente, o pasarla calculando sin descanso, no se lo pensaría dos veces.

No hace falta mucho humor para concluir que la demostración de la hipótesis de Riemann, sin hablar ya de sus implicaciones, resulta inconcebible, y que su refutación, sin necesidad de tocar sus implicaciones, también es igual de inconcebible; y que en medio de esas dos inconcebilidades, entre el cero y el uno, y el cero y el infinito, se encuentra la línea crítica con un valor real igual a 1/2.

Bien considerado, se comprende que las justas objeciones de Mei no obran en detrimento de Riemann, sino que, involuntariamente, revelan como nunca el genio del más profundo de los matemáticos. También los grandes matemáticos, como los escritores y los filósofos, apenas hacen algo más que explotar y amplificar hasta donde pueden el alcance de una sola idea, por la que son más o menos poseídos. Todo el mundo lo hace, pero el éxito de forzar una idea encuentra pronto sus límites en la realidad y en el crédito que otros están dispuestos a darnos.

El XIX es ante todo el siglo de la variable compleja y Riemann es su máximo exponente. Se admite que el origen de la función zeta compleja está en la teoría de funciones y no en la teoría de los números. Riemann sabía que el análisis complejo simplifica grandemente muchos problemas del análisis real, como sabía igualmente que los números complejos proporcionan una enorme libertad para moverse. Riemann buscaba definir mejor esa idea, aún hiperbólicamente inmanejable e imprecisa, de que “los números primos son tan ordenados como pueden serlo porque si fueran más ordenados dejarían de ser números primos”. Lo que hizo entonces fue buscar el tipo de manipulaciones que podían expresar esa idea en el plano complejo partiendo de la fórmula de producto de Euler y combinando los grandes avances de Cauchy y los suyos propios en análisis complejo con los imprescindibles de Gauss, Dirichlet y Chebyshev en aritmética. Riemann buscaba un criterio simplificador y finalmente dio con uno que parecía serlo en extremo a expensas de hacer cuatro operaciones prohibidas. El criterio lo daba un cálculo sui generis que era en sí mismo una nueva modalidad pero que milagrosamente alineaba los ceros de la función en una recta crítica. Riemann no podía dejar de ser consciente de lo precario de sus manipulaciones y por eso dejó caer su hipótesis casualmente y como una cuestión secundaria. Pero sólo ahora se hace evidente que la hipótesis fue desde el comienzo la motivación de todo su trabajo en torno a la función.

¿Y qué importancia podían tener cuatro operaciones injustificadas cuando lo que emergía era algo tan extraordinario? A los matemáticos les llevó tiempo empezar a vislumbrar las nuevas posibilidades que se abrían con la hipótesis de Riemann, pero una vez que aceptaron el juego, les resultó imposible renunciar a ese inopinado y tentador paraíso. Se admite de buen grado que Riemann no fue precisamente un modelo de rigor, pero nadie pone en duda lo atrevido y concienzudo de sus planteamientos. Es imposible que no supiera lo que estaba haciendo; simplemente juzgó que estaba justificado porque daba paso a una verdad de un orden superior. Sin embargo los matemáticos que han venido después han dejado de ser conscientes de esto porque bastante tienen con justificar de algún modo sus nuevas y cada vez más enrarecidas suposiciones.

No tengo el menor deseo de menoscabar ni el trabajo de Riemann ni el de todos los que han seguido su estela. Podemos sentir simpatía por sus formas de proceder, precisamente porque cabe verlas como debilidades humanas, y es de necios indignarse con nuestra debilidad. Creo que la hipótesis de Riemann es simplemente sublime, y sin embargo también creo que Mei tiene razón y las manipulaciones del matemático alemán son en rigor ilegales —incluso para los estándares de Riemann, que ya eran bastante permisivos. Uno está tentado de decir que la hipótesis de Riemann es sublime incluso si es absurda, y que hasta el absurdo le daría la razón si pudiera.

Claro que no se trata sólo de la humana debilidad, porque si alguna grandeza hay en la vida de un científico está en el hecho de que sus descubrimientos no se deban meramente a su inteligencia, sino a una fe que avanza a oscuras y a la perseverancia frente a la adversidad. La física y la matemática han tenido dosis sobradas de esto, aunque muchos no se den cuenta de ello.

Estoy convencido de que lo dicho se ajusta a la realidad de los hechos porque la entera historia del cálculo nos da todo tipo de evidencias en el mismo sentido, que se transparentan a pesar de la parcialidad triunfalista con la que hoy se juzga su fundamentación. Siendo desde sus mismos orígenes una serie de recetas heurísticas, para cuando llegó Riemann los analistas llevaban casi dos siglos practicando el oportunismo sistemático sin más imperativo inmediato que ampliar el dominio del cálculo a toda costa, repitiendo cada dos por tres aquello tan socorrido de que “una prueba rigurosa sería deseable”. En esto Riemann sólo se sumaba a una práctica ya convertida en tradición.

Un matemático sagaz alcanza a menudo a resultados sin saber cómo ha llegado a ellos; la hipótesis de Riemann sería sólo el caso más extremo de este tipo de anticipación. La comunidad matemática nunca ha justificado el proceder de Riemann, sino que lo ha aceptado sin más, y aceptándolo literalmente, tiene que justificarlo por la vía de una demostración que promete ser infinitamente complicada e igual de insignificante. Sin embargo, hay en la inverosímil anticipación de Riemann oscuras razones generales y razones específicas que han sido borradas por esa desmemoria típica que cualquier presente necesita para hacerse la ilusión de existir.

Se dice que la fundamentación del cálculo dio el deseado rigor al magno edificio del análisis. Pero la fundamentación volvió a ser una justificación de los resultados conocidos, sólo que con un grado más alto de generalización. Si antes se llegaba a un resultado correcto por medios erróneos, ahora se afirmaba que lo hacía por las razones correctas, pero, ¿cómo puede funcionar una matemática errónea para empezar, y cómo es eso de que la matemática correcta no cambia en absoluto los resultados de la matemática equivocada? Y claro, el problema con la hipótesis de Riemann es que no se basa en resultados conocidos, o si lo hace es a través de una conexión tan inasible como problemática.

El mismo hecho de que las matemáticas se expandan aceleradamente en todas las direcciones garantiza que aumenten los huecos también en todas sus partes. Si sus conocimientos, como en el resto de las ciencias, se duplican cada 15 años, también se duplican sus lagunas, funambulismos y castillos en el aire. En cincuenta años se decuplican, y en 150 se multiplican por mil. Han pasado más de ciento sesenta años desde la hipótesis de Riemann, de modo que, con un cálculo somero, puede estimarse que muchos trabajos actuales sobre esta función podrían implicar retroactivamente del orden de 6.000 infracciones. Esto hace de la crítica seria una tarea casi imposible, y además, nadie tiene la culpa de esta descomunal acumulación de conocimientos. ¿De qué hablamos entonces cuando hablamos de rigor?

Se ha discutido siempre si las matemáticas o las grandes leyes físicas se descubren o se inventan. No tengo la menor duda de que se inventan, y el caso que nos ocupa me parece bien elocuente; lo que más que restar mérito, se lo añade a la obra Newton, Riemann y tantos otros científicos ilustres. No se descubre nada sin la voluntad de avanzar en una cierta dirección. Sin embargo los continuadores tienden fatalmente a dar por hechas cosas que los creadores vieron con la más extrema y justificada de las cautelas.

Del plano inclinado de Galileo a los guisantes de Mendel, toda la historia de la ciencia está sembrada de argumentos forzados frente a evidencias experimentales que no dan lo bastante de sí pero deberían hacerlo. Se supone que la matemática es la más rigurosa de todas las ciencias, pero, una vez más y visto lo visto, ¿de qué hablamos cuando hablamos del rigor? Hemos tenido sobradas ocasiones de comprobarlo por todas partes y en esta época como nunca: el rigor no es nada frente al impulso de los programas de investigación y el efecto colectivo que generan. Demasiados científicos se han convertido en especialistas en revestir las más descabelladas ideas con la máscara del rigor, la opacidad y el aburrimiento.

*

Esto puede traer a la memoria aquel lejano libro de Sokal y Bricmont sobre las imposturas intelectuales. Sin duda ya en los noventa había toda una patulea de autores y supuestos filósofos que estaban diciendo cosas ridículas, y con algunos nombres famosos, la burla era incluso demasiado fácil. Por lo demás, cualquiera aprueba las llamadas a separar el conocimiento de las guerras culturales y políticas, algo que en épocas menos insensatas ni siquiera hubiera sido necesario. Pero en realidad Sokal y Bricmont, un matemático y un físico teórico, también estaban haciendo su particular y muy oportuna guerra cultural, desviando la atención de la desbordante proliferación de incoherencias en sus propias disciplinas. Y esto además sí lo conocían de primera mano.

¿Queremos sugerir aquí que la hipótesis de Riemann es una impostura intelectual? La pregunta me parece del máximo interés, pero no para chapotear en la sociología de la ciencia y las guerras culturales, sino por el núcleo matemático de la cuestión. Personalmente no creo que esta hipótesis ni la actual forma de calcular la función sean una impostura ni una mera ilusión colectiva, al menos por dos motivos: porque, incluso si ha surgido de una manipulación infundada, y especialmente si ese fuera el caso, todos esos ceros siguen reclamando una explicación, antes que una solución; y porque su ensalzada belleza también es en sí misma problemática.

Se ha hablado mucho sobre la belleza en matemática y es un tema del que no se puede sacar nada en limpio, pero no porque no sea importante sino que porque excede la competencia del matemático. El matemático no puede decir nada significativo sobre la belleza, sólo puede, en el mejor de los casos, crear belleza matemática, y más por sí misma que pensando en aquellos que puedan apreciarla. Pero la belleza en matemáticas no es sólo un resultado, sino una instancia generadora y productiva. Se busca la simplicidad, y entre tanto, se trata de simplificar continuamente, lo que es uno solo con el proceso de abstracción, de destilación de materiales heterogéneos.

La historia de la matemática es fascinante porque refleja cosas de nosotros que no se pueden ver en ningún otro espejo. Hay un nivel expresivo, fisiognómico en la matemática, que puede apreciarse sin necesidad de conocer los meticulosos entresijos de esta ciencia; igual que un buen conocedor puede juzgar el carácter, el ánimo y el estado de salud por el semblante sin tener que saber nada de fisiología. La matemática no sólo tiene su fisiología propia sino que también está mostrando involuntariamente una fisiología histórica en su propio plano, una lógica de desarrollo interna de la que el “estado social” sería, en el mejor de los casos, sólo una instantánea que dejaría su única cifra precisa en la cronología. Hay un plano estético del objeto matemático aislado, y otro plano estético de la relación de todos los objetos matemáticos en su interacción en un momento dado; y las aplicaciones de la matemática a la física son una parte crucial de esta constelación.

Poincaré juzgó con buen criterio que la aritmética es a priori y la geometría a posteriori y por tanto una cuestión de experiencia; otros matemáticos han dicho que no hay parte de esta ciencia, por abstracta que resulte, que no pueda llegar a reflejar aspectos relevantes de la Naturaleza. Aquí querríamos sugerir además lo contrario: no hay cognición de la Naturaleza por nuestra parte que no pueda emigrar e ingresar en el compacto monolito de la aritmética —siempre que uno sepa lo suficiente sobre teoría de los números. Este camino retrógrado o posterior es mucho menos consciente que el descenso de la aritmética a la geometría en las aplicaciones a través del álgebra y el cálculo, y aunque en teoría tendrían que ser recíprocos, en la práctica están muy lejos de serlo debido a las variadas contingencias en su desarrollo.

Riemann dedicó a la física teórica y experimental, especialmente en compañía de Wilhelm Weber, tanto tiempo al menos como el que dedicó a las matemáticas; Euler y Gauss también se entregaron a la física con el mejor de sus empeños. Riemann, nadie lo duda, fue un gran analista, un gran geómetra y un gran teórico de la aritmética, siendo el álgebra su punto ciego o al menos su área más indiferente. Esto es muy característico, y de algún modo permite excusar las libertades que se tomó siempre en sus operaciones. Siendo una mente tan absorta en la teoría, y teniendo una vida corta y con mala salud, sorprende comprobar la paciencia con que atendió los detalles de repetitivos protocolos experimentales; especialmente cuando reparamos en que todas sus grandes contribuciones tienen lugar en nueve años, entre 1851 y 1859, siendo la última de ellas el trabajo sobre la función zeta, apenas cumplidos los 33.

La breve memoria de ocho páginas Sobre el número de primos menores que una cantidad dada de Bernhard Riemann se publicó en noviembre de 1859, el mismo mes en que aparecía El origen de las especies. Ese mismo año también conoció el arranque de la mecánica estadística con un trabajo pionero de Maxwell, y el punto de partida de la mecánica cuántica con la espectroscopia y la definición del cuerpo negro por Kirchhoff. La mecánica estadística es la madre de la teoría de la información, y, por otro lado, Riemann también estuvo interesado en la termodinámica que estaba en la fragua en esos mismos años. Siempre he tenido la impresión de que la función zeta representa por sí sola un contrapunto, y quién sabe si también una antítesis, a la puja triunfante en esa época por explicarlo todo en la Naturaleza con conceptos como el azar, la entropía o la selección natural. Riemann buscaba en todo la unidad subyacente, y, con la venia de Leibniz, puede aventurarse que nunca un analista ha tenido una orientación tan fuertemente sintética. En sus escritos se aprecia cómo su mente oscilaba entre la intuición y la imaginación abstractas, dos facultades muy diferentes que sólo ocasionalmente coinciden. Esta inteligencia tan sintética dedicó también mucho tiempo a la filosofía natural, a los prodigios mecánicos de la audición, a la conducción del calor, o al electromagnetismo, la luz y la gravedad dentro de una teoría del éter; y aunque esas inquietudes y trabajos, con un inconfundible sello de profundidad, no tuvieron el fruto deseado, de algún modo se vertieron en la única síntesis que le fue dado lograr —donde menos cabía esperarla, en su único trabajo en la teoría de los números.

Creo también que al formular su hipótesis, a Riemann no lo movió el deseo de ampliar el poder predictivo del cálculo sino el afán de simplificación o de síntesis, y es por eso que aquí la belleza tiene un carácter, nunca mejor dicho, funcional, y, a la vez, el menos obvio que se haya podido nunca imaginar. Porque, ¿realmente simplifica algo las cosas, o sólo estamos ante otro espejo cuya relación con los números nunca se acaba de cerrar?

Autores como los ya mencionados se escandalizan por el uso abusivo de las matemáticas por parte de algunos filósofos para construir las más ineptas metáforas. Tampoco aquí les falta razón, y muchos de los ejemplos que exponen al escarnio realmente lo merecen; pero, de nuevo, todo esto es demasiado patente como para dedicarle tiempo. Sin embargo no nos dicen nada interesante sobre el uso y abuso de las metáforas en las llamadas ciencias duras contemporáneas. Se ha dicho que qué sería de la ciencia sin metáforas, y en verdad, las metáforas son inextirpables, no ya de la divulgación dedicada a los legos, sino del mismo corazón de la actividad científica. Y también es elocuente que, en medio de tanto abuso por parte de unos y otros, la hipótesis de Riemann, tan exaltada en su belleza, sea igual de refractaria a las metáforas.

El infinito potencial no es una metáfora, pero el infinito actual sí, y sin embargo es aceptada tranquilamente por casi todos los matemáticos contemporáneos. De hecho el infinito actual es, como bien la llaman Lakoff y Núñez, la “Metáfora Básica” de nuestra presente matemática, y sin duda está muy relacionada con la idea de que la hipótesis de Riemann tiene que tener solución. Claro que el infinito potencial no es infinito en absoluto, sino sólo una serie finita indefinida. El mismo Riemann aún pensaba en términos de infinito potencial, pues como sabemos el infinito actual sólo se empezó a contemplar, y no sin fieras resistencias, después de los trabajos de Cantor. Si el infinito actual es hoy tan comúnmente aceptado, ello se debe a la típica hipertrofia del álgebra y su indiferencia simbólica por lo real.

La teratología, el catálogo de metáforas monstruosas y absurdas, empieza por las mismas ciencias duras, y si en la matemática lo aberrante y patológico queda siempre más allá de nuestras recreaciones sensibles, con la física entra de lleno en el imaginario. Este uso anómalo arranca históricamente con el cálculo infinitesimal y el álgebra que la asiste en la aplicación de las matemáticas al cambio. Ocurre tan sólo que nos hemos acostumbrado a estos desajustes y saltos por encima de la realidad.

Ahí tenemos por ejemplo a los agujeros negros, tan bien diseccionados por Mei Xiaochun y por otros muchos autores antes de él. ¿Porqué no los critican los profesionales del escepticismo y los artesanos del escándalo, cuando es tan fácil ver su absurdo? Más que fácil, pues pretender que una singularidad matemática pueda tener realidad física es absurdo, pero querer encima que la física-matemática vaya más allá de una singularidad puramente matemática, ya es épicamente ridículo. Y sin embargo, se entiende que el que cada día nos desayunemos con la noticia de que han descubierto dos o tres nuevos agujeros negros no sólo tiene que ver con la industria cultural y del entretenimiento, sino que también es la consecuencia de un desarrollo lógico de la misma teoría que viene de muy atrás.

Pero por más que sea la consecuencia lógica de una serie de malentendidos, no hay ninguna belleza en un agujero negro, ni ningún misterio de porqué existen más allá del misterio de la credulidad humana. Eso sí, una vez que se han superado las inhibiciones frente al absurdo y el ridículo, la sensación de misterio y profundidad están garantizadas. Sokal y Bricmont hablaban de intelectuales postmodernos y de fashionable nonsense, pero la ciencia postmoderna, que en los tiempos de su libro estaba en pleno apogeo, rampaba ya en los sesenta con “la edad de oro de los agujeros negros”, y en el zoo de partículas con entidades tales como los quarks, cuyo sólo nombre ya lo dice todo. Por cierto, que el rasgo decisivo de la fuerza nuclear, la relevancia de las fuerzas no centrales en la Naturaleza, queda totalmente eclipsada por algo tan aséptico como la celebrada libertad asintótica que la encubre.

La relatividad general no era lo bastante loca e inconsistente, incluso con la relatividad especial, y había que derribar el único muro de contención teórica que le quedaba: el veto a los agujeros negros. En un sistema que no permite volver atrás y reconsiderar seriamente los fundamentos, lo único que queda es huir hacia delante, y darle realidad física a las singularidades era el pasaporte definitivo para la tierra de Nunca Jamás. Esto se hacía aprovechando la curvatura que Riemann había ideado en sus atrevidas generalizaciones geométricas y cuya aplicación a la física era por entonces sólo una remota posibilidad. De hecho Riemann esbozó una teoría de partículas de materia como sumideros del éter y consideró espacios con y sin curvatura. El cauto y escrupuloso Poincaré, medio siglo después, vio que, si se asumía la relatividad especial, quedaban dos vías para la relatividad general: curvar el espacio-tiempo o curvar la luz. Era mucho más sencillo lo segundo, además de acorde con nuestra experiencia; que eso era perfectamente viable, lo siguen demostrando teorías actuales como la llamada gravedad gauge.

La ciencia postmoderna es autoirónica por mero reflejo defensivo, pues sabe muy bien que no puede tomarse ninguna idea demasiado en serio. No ya los agujeros negros, que tomamos sólo como ejemplo, sino casi todo en la ciencia contemporánea está destinado a una ironía suprema, producto de sus giros y atajos en del doble movimiento de acumulación y enrarecimiento del saber. Y esa ironía suprema será muy distinta de las pequeñas ironías espolvoreadas ahora por doquier. El que no tiene el menor dejo de ironía hablando es Mei Xiaochun, la más inesperada encarnación de la franqueza.

Y algo de esa ironía suprema que se avecina se puede ya vislumbrar en las revueltas de la propia teoría en sus múltiples manifestaciones. La senda del exceso también conduce a la sabiduría, si se sabe llegar hasta el final. Cosas como el llamado “principio antrópico” en cosmología ya delataban hace tiempo el grado de desorientación de la física especulativa, pero aquí sólo mentaremos el principio holográfico por estar más cercano a nuestro asunto ya que surgió de la termodinámica de los agujeros negros.

En un agujero negro confluyen la mecánica relativista, la mecánica cuántica y la termodinámica, y por tanto también la teoría de la información. Llevar las diversas teorías al último límite concebible y tratar de ver qué ocurre en su forzoso contacto: esto sí es interesante, incluso si se plantea en el entorno desquiciado y patológico de la ultrasingularidad. La función zeta de Riemann está ya implícita en los primeros cálculos de Planck sobre la radiación de cuerpo negro, y por lo tanto en aspectos muy básicos de la mecánica cuántica como los niveles de energía del vacío. Por otra parte se ha utilizado esta función para regularizar la termodinámica de los agujeros negros y obtener resultados finitos, lo que es tan sólo un método entre otros que no implica una conexión necesaria entre los dos.

El principio holográfico ya es una ironía suprema de la teoría por diversos motivos. Primero, porque después de haber elevado el número de dimensiones para una teoría de la gravedad a cuatro y para las teorías de cuerdas a diez o a veintiséis, se nos termina diciendo que cualquier evolución física con toda su información es reducible, no ya a un volumen, sino a una superficie. Lo que no puede dejar de crear la mayor perplejidad, cuando se suponía que procesos como la gravedad o el principio de Huygens de propagación de la luz no pueden operar en dos dimensiones. Pero esa aún es una ironía menor. La mayor sería que el principio holográfico se basa en la fase geométrica, que es un suplemento a la mecánica cuántica pero no pertenece propiamente a ella: un bucle o curvatura añadida a la evolución unitaria, cerrada, del hamiltoniano. La fase geométrica no pertenece al espacio proyectivo de Hilbert, sino que refleja la geometría del ambiente que no está incluida en la definición de un sistema cerrado. Y esta apertura de un sistema cerrado a su ambiente es lo que se supone que ahora define los límites de nuestra experiencia del mundo.

Dicho de otro modo, la fase geométrica, un mero apéndice de una mecánica cuántica que se pretende completa pero que claramente no puede serlo, nos daría el grano fino de la piel del universo. La fase geométrica, el desplazamiento anómalo del potencial, no forma parte del esquema de las interacciones dinámicas y por eso se lo considera totalmente secundario. La historia de la dinámica subordina el potencial a la fuerza. La fuerza es lo determinante y el potencial, en tanto que mera posición, sólo se entendía como un auxiliar pasivo; pero no puede ser que aquello que tiene una acción instantánea, como la mecánica cuántica demuestra, sea pasivo con respecto a aquello a lo que le lleva tiempo reaccionar.

Es como si la física hubiera invertido hasta cierto punto las ideas de acto y potencia; y la verdad es que no es lo único que ha invertido ni mucho menos. Pero lo que es del todo ilusorio es pretender que la fase geométrica es privativa del mundo cuántico, cuando está presente a todos los niveles y en las teorías mejor conocidas bajo la engañosa denominación de “potencial retardado” —otro de los temas recurrentes en los trabajos de Mei Xiaochun. Los potenciales retardados aparecen por vez primera en la física en 1848 con la electrodinámica de Weber, el fiel amigo y estrecho colega de Riemann; y de un modo distinto, también en la propia electrodinámica de Riemann de 1858 cuya publicación él mismo retiró. Si se aplican potenciales retardados a la gravedad, los agujeros negros se hacen imposibles porque con el aumento de velocidad disminuye proporcionalmente la fuerza.

*

Analizando la mecánica relacional de Weber y algunos de sus continuadores más recientes como Nikolay Noskov y André Assis se llega a la conclusión de que el llamado “potencial retardado” no es tal sino que simplemente expresa la diferencia temporal entre acción y reacción cuando salimos del principio implícito de la sincronización global que domina toda la mecánica clásica incluyendo la relatividad, y en la que se intenta encajar la “causalidad” local de la mecánica cuántica. Recordemos brevemente, una vez más, que en una mecánica relacional como las citadas, generalmente compatibles con la observación, podemos sustituir el primer principio de inercia por el de equilibrio dinámico, en el segundo principio la fuerza deja de ser constante y depender sólo de las distancias y en el tercer principio deja de haber simultaneidad entre acción y reacción.

Esta modificación, cuyo origen se remonta a Gauss, parece en principio sólo un leve desvío pero pronto advertimos que puede abrir paso a una idea del tiempo muy desacostumbrada y difícil de concebir. Cada cosa tiene su tiempo propio, y si hay un “sincronizador global”, que tal como sale de Newton y como siempre se ha concebido no deja de ser un mero principio metafísico, no puede estar en el dominio de la dinámica y las interacciones, sino en el potencial, eso que siempre nos ha parecido pasivo. Con respecto a algo instantáneo, la interacción dinámica sólo puede ser paso de la potencia al acto, pero lo que dirige la acción sigue siendo el potencial.

Wolfgang Smith, matemático y físico de orientación aristotélica, ha propuesto para la mecánica cuántica la idea de una causalidad vertical. Este concepto me parece no sólo útil sino tal vez necesario para el problema que nos ocupa, pero en un sentido muy distinto que el que Smith le da. Smith se adhiere a la interpretación de Copenhague, asume la diferencia radical entre macro y microfísica y depende del colapso de la función de onda para una interpretación deliberadamente verticalista y trascendente. Por el contrario aquí no vemos que haya ninguna diferencia irreductible entre potenciales clásicos y cuánticos, y la llamada causalidad vertical sería una relación de otro orden entre los distintos tiempos propios que tienen los procesos que normalmente consideramos en el mismo plano. Tal causalidad vertical sí podría tener una relación con la función zeta de Riemann.

Evidentemente, esta “verticalidad” no tiene nada que ver con que la línea crítica se represente en paralelo al eje de ordenadas, lo que es una mera convención; sino que ha de relacionarse con la no separabilidad de los potenciales, el alineamiento de sus respectivos equilibrios dinámicos, la conexión entre distintas líneas de tiempo propio y la relación elemental, irreductible pero inespecífica, que la aritmética tiene con la temporalidad —del mismo modo que la función zeta tiene una intrínseca relación con la complejidad no porque use números complejos, sino por su relación con problemas de interacción entre muchos cuerpos.

Esta idea de la causalidad vertical, que puede concretarse mejor siguiendo los lineamientos propios de teorías físicas hoy relegadas al olvido —y efectivamente se olvida que la mecánica relacional de Weber, que arroja fuerzas no centrales, hacía innecesarias muchas innovaciones relativistas-, me parece cuando menos inspiradora. No hay que entenderla de manera literal puesto que la idea de que existe una causalidad horizontal que se extiende virtualmente sin límites sería simplemente otra ilusión. No hay ni horizontal ni vertical con respecto a un medio primitivo homogéneo e indiferenciado, que por lo demás, es el único infinito verdadero; el contraste sólo surge cuando asumimos que puede haber una sincronización global en la dinámica, lo que además de metafísico envuelve una contradicción en los términos. La causalidad vertical es un orden implicado con lineas y capas temporales propias.

Entonces, si se quiere, podemos llamar a esta causalidad vertical una metáfora; pero una metáfora mucho más comedida que la noción de infinito actual, o que el metafísico principio de sincronización global, o que el intrínsecamente contradictorio principio de inercia, que nos pide considerar un sistema cerrado que no esté cerrado. La verdadera diferencia está en que esta nueva metáfora no nos tiene acostumbrados, y todavía hay que ahondar mucho en ella antes de que empecemos a encontrarle sentido.

Por otra parte, si la fase geométrica y el potencial retardado forman un bucle de realimentación que es posible modular, tal como la misma teoría de Weber-Noskov sugiere, quizá haya formas de poder testar no sólo el principio holográfico —que tendría que ser ubicuo por definición- sino también la relación de estas ideas con la propia función zeta de Riemann —lo que ya adelantamos que nada tiene que ver con la idea de una “prueba física” de la hipótesis.

Alguien podría encontrar chocante que no haya trabajado con estas o similares ideas un físico tan perspicaz como Michael Berry, el principal generalizador de la fase geométrica, quien además ha realizado algunos de los estudios más influyentes sobre la relación de la zeta de Riemann con la física. La respuesta pasaría en primer lugar por la incompatibilidad de fondo de las teorías, luego por el escaso reconocimiento de la mecánica relacional y finalmente por la aún más escasa consciencia de sus implicaciones temporales. Recordemos que según la informada opinión de Berry y Keating, para que exista una “dinámica de Riemann” esta debería tener propiedades tales como simetría de escala y una contraparte clásica; ser caótica e inestable; ser irreversible temporalmente; ser cuasi unidimensional. Naturalmente esto sigue dejando todo el espacio del mundo para la especulación, pero tiene su valor como acotación de rasgos asintóticos dinámicamente relevantes. Aquí también hemos suscrito la idea de que debería tratarse de una dinámica irreversible en un sentido muy diferente, pero esto nos llevaría ahora demasiado lejos.

Dedico un buen espacio a la relación de la zeta con la física por buenos motivos: porque pienso que la hipótesis no tiene solución matemática, y porque por otro lado creo que es todo un polo de inspiración y de atracción para la física no estándar, entendida ésta en el sentido más conservador e inesperado que quepa imaginar. Concluyendo uno de sus textos, Mei Xiachun dice que debería considerarse si el estudio de la distribución de los números primos debiera o no volver al domino de los números reales, aunque sin duda no ignora que la función zeta de Riemann fue esencial para la demostración del teorema de los primos en 1896 y que las demostraciones “elementales”, muy posteriores, demostraron ser efectivamente más complejas.

Pero, aparte de que Mei no pretende zanjar el asunto, tal vez no exista contradicción alguna. La función zeta sirvió para demostrar el teorema porque Riemann, para empezar, ya lo asumía al elaborar transformaciones y equivalencias en torno a la función. Pero de ahí a que pueda ser realmente útil para ir más allá en el dominio numérico —un matemático dijo que si se resolvía la hipótesis sería como pasar de manejar un destornillador a entrar con una excavadora- hay un abismo. Nada justifica semejantes expectativas. Los teóricos de números podrán decir que sus avances han sido espectaculares, pero creo que, más que ser de utilidad real, lo único que hace esta función es que otros resultados se miren en su espejo. Son cosas completamente diferentes. En sí misma, la función zeta podría ser efectivamente tan estéril como un espejo, y sin embargo tener un rol singular como guía y directriz. La función zeta no sería un atajo hacia nada nuevo porque ella misma sería el último atajo.

Lo cierto es que, sabiendo que no se ha hecho ningún avance importante en más de ciento sesenta años, esperar que el panorama cambie de golpe y radicalmente gracias a una demostración se parece demasiado a una fantasía de iluminación: una vez sobre el techo del mundo, existiría toda una eternidad para explorar y abismarse en las infinitas variaciones de todas las funciones L asociadas. Pero la verdadera comprensión más bien suele venir cuando nos damos cuenta de que no hay iluminación posible; a esto se le llama cortar el árbol de raíz. Como la mayoría no quiere ni oír hablar de esto, hay que concebir estrategias indirectas, en las que uno se imagina que está acercándose a la verdad sin hacerse demasiado daño a sí mismo. Por supuesto, la teoría analítica de los números no puede renunciar al plano complejo y eso está fuera de cuestión. En cambio en su interfaz con la física sí hay otros asuntos muy básicos pendientes.

Dada la naturaleza de la hipótesis, uno podría pensar superficialmente que, incluso si se demostrara que es cierta, no cambiara en absoluto el panorama del conocimiento en la teoría de los números; y si se demostrara que es falsa, tampoco. Y aunque creo que ninguna de estas dos cosas vaya a suceder, la gran diferencia entre ambas posibilidades es que se han elaborado más de mil teoremas asumiendo que la hipótesis es verdadera, algunos de ellos absolutamente sorprendentes pero, hasta donde sé, la idea de que la hipótesis es falsa no genera ideas del mismo alcance. Es decir, la hipótesis de que la hipótesis de Riemann es falsa no parece muy productiva, mientras que la hipótesis de su verdad sí, y esto ya nos dice algo. Para Mei Xiaochun la hipótesis no es verdadera ni falsa, sino sin sentido; su juicio se atiene al fundamento de la cuestión, pero algo que produce continuamente teoremas de índole muy diversa sí que parece ser una fuente de sentido.

Según esto, desde el fundamento la hipótesis no tiene sentido, sino que el sentido emerge más allá del fundamento. Pero esto ha estado ocurriendo continuamente en la historia de la ciencia, sólo que con un sentido muy fácil de identificar, ya sea en aras de la predicción o de la explicación. Aquí sin embargo el sentido podría demandar otro nivel en la descripción.

Un ejemplo podría ser la entropía. La interpretación de la entropía como desorden, debida a la racionalización mecánico-estadística de Boltzmann, introduce un elemento subjetivo innecesario además de desviar la atención de la clara tendencia natural a la producción de máxima entropía que ya percibió Clausius; y sin embargo aún predomina abrumadoramente la visión de la entropía como desorden. Si hubiera que hablar de orden y desorden, sería mucho más cercano a la realidad decir, con Rod Swenson, que el mundo tiende a producir orden porque el orden produce entropía más rápido que el desorden. La interpretación física más elemental de la hipótesis de Riemann es como camino aleatorio -la contraparte discreta del movimiento browniano-, y esto permite tratar tanto los números primos como los ceros en términos de entropía numérica. ¿Pero se oponen aquí la entropía y el grado de estructura de la función?

La afirmación de que el orden produce entropía más rápido parece bastante relacionada con la idea de que “los números primos son tan ordenados como pueden serlo”, y sin embargo en ambos casos parece que estamos pidiendo una definición de orden mejor que cualquiera de las que tenemos. La ecuación de calor retrógrada también se ha vinculado con los ceros de la zeta de Riemann, lo que es una interesante forma de conectarla con el procesamiento de señales y el determinismo retrodictivo, pero parece que sigue habiendo un problema de definición y descripción. Por otra parte, es evidente que la entropía se puede definir de otras formas sin ninguna necesidad de apelar a la hipótesis de Riemann, y ese es el caso para cualquier concepto importante que se pretende vincular con su función.

*

Una de las tragedias de la historia es que por más que alcancemos más perspectiva, esa mayor amplitud de visión no nos sirve para cambiar nada. Ni cambia el pasado, ni cambia el futuro hacia el que vamos lanzados como una bala de cañón. En la vida real nadie nos tiene que convencer de que los acontecimientos son irreversibles, pero en las construcciones intelectuales, como la matemática y la física, siempre parece haber hueco para enmendar las faltas de manera elegante e incruenta. Por supuesto, es sólo una ilusión, pues el desarrollo orgánico de las ciencias es en su conjunto completamente irreversible. ¿O acaso se plantea trastocar los fundamentos del análisis, la relatividad o la mecánica cuántica? De ningún modo, sólo se concibe que puedan transformarse mirando hacia delante, nunca mirando hacia atrás. La reflexión se permite a título individual, pero para el desarrollo colectivo del saber “avanzar hacia atrás” sería sólo desactivarse.

Es sólo por esto que existen cosas como los agujeros negros, que expresan como nada la fatal huída hacia adelante de la teoría cuando retroceder es imposible y detenerse más todavía. Verdaderamente es fáustica nuestra ciencia, expandiéndose y afanándose hasta el último momento para tratar de olvidar que ya hace mucho tiempo que vendió su alma al diablo.

No escribo estas líneas como científico, ni como historiador, ni como crítico, sino como amante de la filosofía natural. Se olvida demasiado fácilmente que Riemann amaba la filosofía natural en una época en que aún era posible, incluso siendo el principal responsable por aquellos años del salto de las matemáticas hacia nuevos alturas de la abstracción. De hecho, como ya hemos visto, 1859 marcaría el tiro de gracia para una filosofía natural ya mal herida desde los Principia de Newton; aunque tal vez fuéramos injustos si olvidásemos el Tratado de Filosofía Natural de Thomson y Tait de 1867. Sin duda el corazón de Riemann estaba agudamente dividido a este respecto, pero se entiende sin dificultad que esta tensión entre la mente analítica y la búsqueda de la unidad fue siempre el resorte más profundo de su creatividad matemática.

Como no creo que haya una solución matemática para la hipótesis de Riemann, tampoco creo que haya ningún tipo de “solución física” del problema. Creo, sin el menor fundamento matemático, y con la convicción de mi propia filosofía natural, que la hipótesis es inherentemente abierta tanto por arriba como por abajo, tanto por el infinito como por la unidad; y que es eso mismo lo que la hace parecer impenetrablemente monolítica. Lo que no tiene porqué ser malo, pues aunque nunca podamos abarcarla, aún podemos abrazarla y ceñirla por todos sus costados siempre que no pretendamos poseerla.

Es infinitamente más sencillo encontrarle un sentido físico a la función zeta que demostrar la hipótesis; y sin embargo ninguna interpretación física parece tener ni remotamente la profundidad de implicaciones que tiene su más simple formulación matemática. Por lo tanto es un desafío en sí mismo encontrar sistemas físicos que puedan reproducir el comportamiento de esta función o de las funciones L asociadas, como por ejemplo la que proponían França y Leclerc hace unos años con un campo electrostático y su potencial; u otras muchas analogías físicas que se pueden modular, como por ejemplo el movimiento browniano de dipolos eléctricos en radiación aleatoria clásica. Y es un desafío aún mayor encontrar una interpretación física que contribuya a darle un sentido íntegro a la hipótesis antes que a trivializarla. Riemann y Weber, los colaboradores estrechos en la electrodinámica teórica y experimental, habrían apreciado grandemente estas analogías y las habrían sondeado con mucha más penetración que nosotros.

Me sorprende la ligereza con que se desdeñan estas analogías con el argumento de que no sirven para demostrar la hipótesis, pero todo parte de que quienes las proponen pretendan que pueda servir para ello. Deberíamos plantear el tema de una forma completamente distinta. El problema no es que no sirvan para demostrar la hipótesis, lo que debería darse por descontado, el problema es que la física moderna es incapaz de describir imparcialmente ningún proceso, porque lo ha subordinado todo a la predicción. Precisamente, hablamos de filosofía natural cuando lo que buscamos no es ni la predicción, como en las ciencias físicas, ni la explicación como en la cosmología o la teoría de la evolución, sino de una descripción que sea en sí misma lo bastante completa y elocuente. Y desde este punto de vista, el déficit de la ciencia moderna es verdaderamente abismal.

Por lo demás, ni electrodinámica de Gauss, ni la de Weber ni la de Riemann eran “teorías fallidas”, como aún se lee comúnmente en los libros de historia. Son simplemente enfoques que no han encontrado el mismo desarrollo que el de Maxwell y que fueron abandonados prematuramente, pero no son falsos sino que simplemente muestran otro tratamiento y otro punto de vista —algo que Maxwell, que tanto debía a Weber, sabía mejor que nadie. El mismo Fausto que vendió su alma al poder predictivo ha intentado acallar su conciencia con las ciencias explicativas como la teoría de la evolución o la cosmología, pero en vano, porque es precisamente la probidad en la descripción lo único que puede encontrar un equilibrio entre predicción y explicación.

Lo que estamos diciendo es que en la física conocida ya hay más cosas de las que pensamos, con sólo que sepamos leer entre líneas. La predicción nos deja siempre en la superficie de las cosas, pero la explicación, históricamente subordinada a la predicción, no hace más que justificarla. Lo vemos con teorías como el big bang o los agujeros negros, que procuran darnos una ilusión de profundidad cuando en el fondo no son sino la extensión hasta el límite del principio de inercia. Lo que ocurre con la llamada “fundamentación” del cálculo se sitúa en la misma línea de justificación.

Riemann tenía la confianza, repetidamente expresada en sus escritos, de que lo infinitamente grande nos está vedado, pero que podemos conocer las leyes naturales gracias al análisis de lo infinitamente pequeño. Pero seguramente también esto es una ilusión: el análisis matemático del cambio físico tampoco puede tener acceso a lo infinitamente pequeño, debería contentarse con analizar correctamente las dimensiones físicas de un problema por medio de intervalos finitos. Sin embargo no hace ni una cosa ni la otra. El principio de Bloch que dice que no hay nada en el infinito que no exista antes en lo finito, ha dado al parecer numerosos frutos en el análisis complejo, pero, si quisiéramos aplicarlo en física, tendríamos que viajar en el tiempo.

Por lo que sé Miles Mathis es el único que ha hecho hasta ahora un crítica relevante de los fundamentos del cálculo y su aplicación a la física en más de tres siglos; una crítica que va mucho más allá de las conocidas objeciones de finitistas y constructivistas. El cálculo estándar nos escamotea cuando menos una dimensión de la geometría física de los procesos, como lo prueba el mero hecho de que aceleración de un móvil en línea recta quede descrito por una curva. El análisis pronto se olvidó de su humilde origen en el cálculo de curvas para generalizarse algebraicamente, y, en beneficio de la predicción, rompió definitivamente su compromiso con la descripción de los procesos. El infinito potencial se quiso formalizar por el concepto de límite pero en realidad si este no se basa en un intervalo finito no es más que una forma de disfrazar los infinitesimales, y por eso se puede volver a ellos sin gran dificultad.

El cálculo diferencial constante, teniendo una dimensión más elevada y siendo más fiel a la geometría física, permite abordar con fruto la cuestión de cómo interpretar de una forma más realista el uso de los números complejos en física. Si esta dimensión superior no solo atañe a los problemas físicos, los que estén dispuestos a usar formas alternativas de cálculo pueden comprobar si existe una función zeta real con valores intermedios que puedan ser reveladores respecto a la función zeta de Riemann. Desgraciadamente para físicos y matemáticos, este cálculo también es mucho más restrictivo en sus operaciones, lo que naturalmente invita a ignorarlo. Pero la gran brecha entre los conceptos y metáforas naturales y los de la matemática superior se abre justamente aquí. Así que si alguien quiere volver a cerrarla, este es el mejor lugar para empezar.

No es que la filosofía natural haya quedado anticuada, sino que es más antigua de lo que se piensa, o, dicho de otro modo, es mucho más intemporal que cualquier teoría restringida. A pesar de la increíble expansión de las ciencias, seguimos teniendo una idea bastante provinciana de qué pueda ser la Naturaleza. Incluso conceptos tan básicos como “potencia” y “acto” esconden mucho más, no sólo de lo que pudo imaginar Aristóteles, sino también de lo que pueden imaginar los teóricos de la mecánica cuántica actuales. Y sin embargo la mejor forma para captar eso inimaginable sería intentar cerrar la enorme brecha entre nuestra experiencia y nuestra abstracción.

Si es cierto que no hay nada hay en la matemática que no pueda tener su reflejo en la Naturaleza, no nos damos cuenta cabal de lo que ello significa, ni se conducen nuestras teorías en armonía con lo que implica —pues nos está intimando que Naturaleza y Espíritu son sólo aspectos de lo mismo. Pero si no queremos abismarnos en esta unidad radical que inevitablemente nos deja sin palabras, siempre podemos decir que encontramos la matemática en la Naturaleza simplemente porque la sondeamos a través de ella, lo que es igualmente cierto. En todo caso, hay en la Naturaleza un plenum, una sobreabundancia no sólo de complejidad, que nunca nos podrá mostrar ninguna teoría, apenas una tela de araña en la corteza de este gran árbol. La función zeta de Riemann, para la que no tenemos ninguna teoría física, expresaría algo de este plenum mucho mejor que todos nuestros marcos predictivos y explicativos. Ella misma estaría demandando otro marco.

La expansión permanente del saber no sólo está creando continuamente nuevas lagunas, sino también nuevos desgarramientos que en el fondo son uno solo. Aunque la función zeta de Riemann comenzara siendo un asunto pura y simplemente matemático, de forma involuntaria pero incontenible va migrando también a la física, la teoría del caos y la complejidad, o a la computación. Podríamos verla incluso en el cruce de estas cuatro grandes áreas, y sin embargo sigue siendo una cuestión puramente matemática. ¿Porqué entonces son los mismos matemáticos los que apelan cada vez más a la llamada “intuición física” o a los argumentos computacionales para captar este problema? Sin duda, porque no hay buenas ideas matemáticas, pues del otro lado es más que dudoso que exista hoy una sola idea física que no se haya vaciado de cualquier intuición. Pero seguramente que todas esas especulaciones sobre caos cuántico, espacios de Hilbert, operadores y demás son sólo formas de subirse por las ramas.

Aunque cueste aceptarlo, y dado que hablamos de cálculo antes que de números primos, lo más característico a nivel matemático de la función zeta compleja y su línea crítica son las infracciones cometidas al calcularla: esta sería la zona cero, y tal vez la mejor forma de ver a través de ella sea contrastarla con las infracciones del cálculo de la función zeta real respecto al más estricto cálculo diferencial constante. Esta triple transparencia debería dar mayor profundidad de visión en el plano puramente matemático, si ello es en absoluto posible, y también en la “intuición física” más elemental, y en la relación entre ambos. No hay nada que pueda sustituir a la rectitud. Riemann buscó algo más recto que la línea recta y casi lo encontró: razón de más para desandar los atajos, de los que la historia del cálculo es la mayor colección. Llevar la división al corazón del matemático es la mejor forma de llevarlo también al corazón del problema, al origen de su concepción; y además él ahora tiene la enorme ventaja de que puede ir mucho más atrás en el tiempo que el matemático alemán.

Sería bueno empezar por aquí, y luego, si se quiere, con una mirada más fresca, preguntarse en qué otro cálculo podría tener más sentido la función zeta, en qué otra teoría electromagnética, en qué otra teoría cuántica, en qué otra teoría de la información, en qué otra teoría cuántica de la información, en qué otra termodinámica cuántica, en qué otra teoría espectral, etcétera. Hoy por ejemplo se pregunta si es posible hacer mecánica cuántica sin números complejos, y algunos estudios responden negativamente; el tema es de gran interés pero dichos estudios son de muy poco alcance porque se autolimitan a los formalismos cuánticos de base. Lo instructivo, para entender el rol de los números complejos en mecánica cuántica, es tratar de reproducir muchos de sus resultados con teorías más básicas completamente independientes de tales formalismos, como algunas ya indicadas.

Todas las áreas recién enumeradas, estando volcadas en la predicción, ni siquiera se ocupan del punto que aquí más nos interesa. La llamada intuición física, como cualquier otra, es del todo engañosa porque apenas es más que la suma de nuestros hábitos; habría que retrogradar nuestra intuición hasta cosas anteriores a esos hábitos, y es por eso que al cálculo diferencial constante lo hemos considerado como un exponente oportuno del “conocimiento no intuitivo inmediato”, para usar el término acuñado por Jacob Fries.

Y si alguien se pregunta aún cómo un “cálculo infundado” como el de Riemann podría servir para arrojar luz sobre otras teorías que las que se contemplan, no tiene más que repasar la historia, pues todos los marcos que hoy son estándar se han construido igualmente sobre un análisis elementalmente deficiente. Sabemos muy bien cómo esto es posible, lo que no sabemos es cómo un cálculo infundado puede reproducir lo que no conoce.

*

La teoría de los números, con su soberana inutilidad, es un producto específica y estrictamente continental; sólo hacia 1914 empieza a haber aportaciones significativas procedentes del mundo anglosajón, cuando ya el corpus teórico ha sido comprehensivamente sistematizado y hasta la teoría analítica de números tiene manuales modélicos como el de Landau. Es a partir de entonces que se empieza a hablar de “conquistar el Everest de la matemática” y la demostración o refutación de la célebre hipótesis va adquiriendo tintes de competición deportiva en ambientes selectos. ¿Trivializa la demanda de solución los problemas? A menudo no, pero en este caso específico y tan distinto me parece evidente que sí: buscar la respuesta en términos de “sí” o “no” sólo nos aleja de la cuestión.

Los mismos matemáticos nos dicen que lo que falta es una comprensión al nivel más básico sobre la relación entre adición y multiplicación, y, en buena lógica, algo tan básico no puede surgir de ideas tan derivadas, sofisticadas y complejas como las que se proponen para obtener una prueba. Sin una comprensión de eso tan simple, tan fundamental, buscar una prueba no tendría que resultar ni siquiera deseable.

La filosofía natural de Riemann, que no era la Naturphilosophie romántica, puede sonar demasiado extraña para nuestra época; en parte por estar inacabada y no quedarnos de ella más que esbozos, y en parte por el conflicto resultante de buscar de un lado “una teoría matemática completa y autocontenida”, y del otro querer “ir más allá de los fundamentos de la astronomía y de la física establecidos por Galileo y Newton para penetrar en el interior de la Naturaleza”. Esto último sólo era una forma discreta de decir que se proponía volver la filosofía natural de Newton del revés. Riemann quiere llegar al espacio y a lo cuantitativo sin darlo por supuesto, partiendo de lo cualitativo, de adentro hacia fuera. Se discute el alcance de la influencia de Herbart en su filosofía natural, pero merece la pena recordar que para éste la realidad es absolutamente simple y por lo tanto excluye cualquier concepto cuantitativo. Una vez más encontramos al matemático alemán tratando de situarse en medio de dos exigencias altamente incompatibles.

Los aparatosos cambios de la física del siglo XX nos impiden ver hasta qué punto era ambicioso este solitario proyecto de una concepción unificada de la Naturaleza. Pues no se trataba sólo de “unificar” las principales fuerzas conocidas de la época, al estilo de las modernas tentativas unificadoras de la física teórica, sino antes que nada de encontrar por debajo y desde dentro un fundamento anterior, que habría de incluir toda la actividad psíquica del alma en dirección a esa simplicidad de lo real ya del todo inalcanzable para la ciencia. La filosofía natural de Riemann es una interfaz entre la física y la metafísica: trataba de devolverle al gran animal del cosmos ese alma que el mecanicismo parece haberle quitado, sin renunciar a ninguno de los conocimientos de la física de entonces.

Riemann sabía demasiado para conformarse con cualquier simplificación burda de la unidad; de hecho sabía tanto como Helmholtz sobre ciencias naturales, e incluso tal vez algo más, pero era capaz de imaginar cosas que ningún científico del estilo de Helmholtz podría ni siquiera soñar. Riemann murió con 39 años y Newton con 41 todavía no había empezado a escribir los Principia; pero en cualquier caso la filosofía natural de Riemann, de un alcance completamente distinto, estaba destinada a no nacer nunca: no por “falta de información”, como juzgará la lectura más superficial de hoy, sino por múltiples razones incluidas las incompatibilidades internas o el lastre que supone trabajar con la formulación clásica de la mecánica. Así pues, no hay aquí nada que lamentar. Sin embargo, sí estoy convencido de que la filosofía natural fue la única musa de Riemann a lo largo de toda su producción científica.

La filosofía natural puede brindarnos certezas que van más allá del dominio de la física o la matemática; otra cosa muy distinta es qué utilidad puedan tener para estas, lo que dependerá tanto del conocimiento de esas ciencias particulares como de las posibilidades de aplicación. En cualquier caso, esta filosofía tiene un camino retrógrado que empieza necesariamente por la interpretación, busca en consonancia con ella sus métodos, para llegar finalmente a los principios. Y aunque se trata de un camino inverso al habitual en las ciencias consolidadas, no es difícil ver que la misma física moderna se constituyó en este orden inverso en los saltos que jalonan su fundación: de Galileo y Kepler a Descartes y a Newton.

Cuando la física llegó a los Principia de Newton, lo que se produjo fue una clausura a través de los axiomas: los principios como puntos de partida que no conviene cambiar para que el conocimiento avance y se acumule. Pero para quien el Principio es lo primero y lo último, y este sin duda era el caso de Riemann, los principios aún tienen una evolución ulterior y son tanto puntos de partida como distinciones básicas y fundamentos de la unidad. Los principios entendidos como axiomas hacen de lo insondable algo irrecuperable: la primera ley mecánica de la inercia no se cierra definitivamente hasta la formulación de la tercera ley de acción y reacción simultáneas, que implica tácitamente la sincronización global. La reformulación de los tres principios conforme a la mecánica de Weber, por ejemplo, permite la recuperación de lo que quedó enterrado en los fundamentos. La inercia es un buen ejemplo de algo insondable, que durante mil años no se pudo intuir, y ahora sin embargo se da por supuesto. Las ideas básicas transformadoras sólo pueden darse a este nivel. En la teoría de los números podría estarse reflejando una de estas esculturas lentas, pero nuestras intuiciones físicas, o la falta de ellas, están impidiendo su revelación.

Mi suposición, ya lo he dicho, es que Riemann, al poner sus conocimientos anteriores al servicio de la teoría de los números, activó tanto voluntaria como involuntariamente un método retrógrado o de reingreso de esas concepciones en lo a priori de la aritmética —o al menos, apuntando en esa dirección. Y la conclusión es inevitable: no se van a encontrar en la teoría de los números mejores ideas que las que se introduzcan en ella.

Hoy los académicos emplean sus mejores artes en pasar de contrabando ideas ignoradas pasadas o presentes pero los compromisos con las corrientes dominantes hacen imposible su aprovechamiento y asimilación. Sabemos demasiado bien que no se le puede pedir a una disciplina que vaya hacia atrás y reconsidere su pasado; lo único viable es crear una ciencia nueva. Hemos hablado antes de un cuádruple cruce entre las matemáticas, la física, la teoría de la complejidad y la de la computación. Pues bien, hoy es perfectamente posible crear una morfología del tipo más general en el espacio que no cubren ninguna de las ciencias citadas. No se trata de un producto de ellas, sino que, por el contrario, las da por supuestas y procura distanciarse de ellas tanto como sea posible, con otra idea del cálculo, de la causalidad, de la generación y el equilibrio, o de una complejidad que no depende sólo del número de elementos.

Esta morfología que aún no existe pero que en cualquier momento puede nacer, es precisamente la ciencia que muestra y describe cómo y porqué no hay atajos en las formas de la Naturaleza, esto es, en qué sentido son necesarias. El cálculo no puede conocer esto, no porque sea incognoscible, sino porque hasta hoy es una sistemática colección de atajos. Esta morfología cumplirá en gran medida el sueño de Riemann de contemplar la Naturaleza desde dentro y desde fuera, y si lo consigue será porque puede integrar sin dificultad aspectos incompatibles con los actuales desarrollos —y porque puede permitirse rectificar las propias ideas de Riemann sobre el cálculo, las modernas nociones físicas de curvatura e incluso los mismos principios de la mecánica.

Una ciencia así no sería imperialista ni oportunista porque ni pretende envolver a las demás ni tomar prestado su impulso expansivo, sino que por el contrario se ocupa de aquello que las otras ciencias han excluido y rechazado, procurando destilar su quintaesencia. Dedicaremos a esta morfología nuestro próximo trabajo, pero si lo comentamos en este, es por la cuestión relativa a la expansión del conocimiento, una sola con su pérdida de valor y con la disipación de su capital simbólico y su crédito.

Es fácil ver que todo lo que tiene “valor añadido” no puede depender de la tasa de reproducción del conocimiento sino que tendría que ir más bien en el sentido contrario. La morfología natural no quiere tener nada que ver con cosas tan intratables como la hipótesis de Riemann porque cuenta con su objeto propio y se basa en nociones incomparablemente más simples, pero lo importante es recordar que la multiplicación del conocimiento no significa nada si no la dirigimos conscientemente y no sabemos lo que buscamos. Tratar de probar algo no garantiza en absoluto nuestra consciencia de la cuestión. En ciencia lo más difícil es no querer resolver las preguntas que no se ha hecho uno mismo.

*

Aunque se le ha reprochado a Riemann lo excesivamente críptico de su comunicación, desde las investigaciones de Siegel se sabe que había hecho un estudio previo exhaustivo con herramientas analíticas muy poderosas, y que si no escribió un texto mucho mayor fue por las exigencias de formato de la Academia de Berlín. Sin duda le hubiera gustado extenderse más sobre el tópico, incluidos los delicados aspectos del cálculo, pero en los pocos años más que vivió nadie le pidió explicaciones detalladas al respecto —sin duda porque los escasos matemáticos que habían entendido el texto aún estaban intentando digerirlo. De lo que seguramente no le hubiera gustado a hablar a Riemann en público era de su filosofía natural, pues este era su laboratorio íntimo, el único lugar donde le estaban permitidas todas las especulaciones e hipótesis.

En el gran programa de Riemann, la filosofía natural servía para conectar la matemática y la física con la psicofísica, la psicología y la metafísica. Hay un claro vínculo entre su concepción de las variedades n-dimensionales y el continuo cualitativo de Herbart. Su idea de flujo constante del éter en la materia obedece a otras consideraciones que las de la relatividad; surge también en el contexto de la luz y la electrodinámica, pero a Riemann no le importa añadir aspectos físicos que sólo complican la caracterización, como la tensión, la presión, el calor, el color, etcétera, porque parte de la idea de que debe haber una correspondencia psicofísica general entre valores cuantitativos y cualidades. Para nuestra época, que ha visto el desarrollo de tantas especialidades, esto suena a confusión y conflación de planos muy distintos, pero lo que Riemann buscaba más bien era cómo era posible el contacto entre esos distintos planos. Sus esfuerzos se entienden mejor en la línea de filosofías científicas como las de Clifford y Whitehead, con las que guarda muchas semejanzas; con la diferencia de que las ideas de Riemann tuvieron un efecto aún inadvertido sobre las matemáticas.

Aunque, tal vez, mirando más hacia atrás, el filósofo con el que más podría asociarse a Riemann es el propio Leibniz. Una de las muchas cosas interesantes en Leibniz es que se lo asocia con el tiempo mecánico de los relojes —con la sincronización global al estilo newtoniano- pero en realidad sus ideas en física son puramente relacionales, lo que es algo completamente distinto. La armonía preestablecida leibniziana no apunta tanto a la sincronicidad entre los eventos o causalidad horizontal, que sería a lo sumo su límite externo, sino hacia la causalidad vertical de su infinita coimplicación. La llamada universalidad de la función zeta de Riemann, que le permitiría reproducir un número infinito de veces cualquier curva diferenciable con cualquier grado de aproximación, sería como la comunicación entre unas mónadas que al menos sí compartirían una ventana. Algunos preferirán hablar en este caso de “caos preestablecido”, pero de todos modos aquí orden y desorden tienden peligrosamente a coincidir.

La relatividad surge para rectificar ciertas asimetrías de la electrodinámica; pero la electrodinámica relacional tiene otra forma de confrontarse con ellas. Un matemático intuitivo siempre necesita pensar con imágenes. Riemann, quien sin duda también tenía en mente ideas proyectivas en línea con la esfera de Riemann, por un lado asumía que debía haber una correspondencia o simetría abstracta a priori entre aspectos imponderables o cualitativos, y aspectos cuantitativos ponderables y controlables en las relaciones entre materia y espacio; y por otro lado debía de albergar su propia idea, aún bastante indecisa, sobre las posibles simetrías en electrodinámica tanto en variable real como compleja. En cualquier caso, en la electrodinámica de Riemann las masas eran meros coeficientes para la densidad, y la densidad y la frecuencia sí son conceptos fundamentales y con múltiples aplicaciones en aritmética; es por aquí que pudo tener lugar la transmigración de su filosofía natural al dominio de la teoría de los números.

Se supone que los ceros de la zeta de Riemann emergen de la diferencia entre una suma y una integral, y por otro lado no es casual que los primeros en ocuparse del teorema de Green, fundamental para la electrodinámica y la teoría del potencial, fueran precisamente los creadores del análisis complejo, Cauchy en 1846 y Riemann en 1851; pero al matemático alemán, a quien se debe precisamente la primera prueba del teorema, tampoco se le pudo escapar que este problema podía tratarse por el método discreto de las sumas de Riemann que desarrolló en 1853 de camino a la integral de Riemann y que también son aptos para el conteo en teoría de los números. Las llamadas funciones de Green son realmente distribuciones, pero la analogía proyectiva que Riemann podía tener en mente, considerando una transición entre aspectos puntuales y ondulatorios de la electrodinámica, estaría también relacionada con la transformación de Möbius, que muestra una correspondencia uno a uno con la transformación de Lorentz pero tiene una connotación temporal diferente en la muy anterior teoría del potencial retardado.

Aún podría hablarse de cosas como la llamada rotación de Wick y su asociación con un tiempo imaginario que se derivan del mismo grupo de Lorentz —tal rotación no es sino un truco matemático, pero por otra parte el verdadero “tiempo imaginario” o «tiempo imaginario real» es la sincronización global que subyace a toda la mecánica actual. En la relatividad especial la relación extendida energía-momento revela una simetría masa-potencial que en principio podría permitir inversiones de signo entre materia y antimateria, pero tanto la presente teoría de la aniquilación/cancelación de la materia como nuestra idea de la sincronización tienen un gran agujero central que hay que saber llenar. Aunque la rotación de Wick como continuación analítica sea un mero procedimiento formal, revela además una importante conexión entre los fundamentos de la mecánica cuántica, la física térmica o el análisis de Fourier y procesos estocásticos como el movimiento browniano que admite una reformulación en un contexto más primitivo.

Para abreviar, aunque Riemann tenía en primer plano la conexión entre el cálculo y los números primos, también tenía en mente no sólo una cierta teoría del éter y el éter de frecuencias, sino el límite último al que su enfoque podía tender. Si es incuestionable que la motivación de la función proviene del problema del recuento de números primos, para el cual ya se tenía el bien contrastado método de Eratóstenes, la búsqueda de una simetría interna dentro de la función se debe principalmente a la inspiración de la filosofía natural de Riemann. La aventurada y célebre hipótesis viene de la filosofía natural, y sin ella, Riemann nunca le habría torcido el brazo al cálculo para encontrarla. Sin esta presuposición de Riemann de una simetría fundamental, hoy los matemáticos frecuentarían la función zeta compleja sin sospechar siquiera la existencia de una línea crítica.

*

Pero tal vez esto no sea sólo arqueología del saber. Como ya hemos dicho en otras ocasiones, hay cuando menos tres equilibrios absolutamente fundamentales en física y en electrodinámica en particular: el equilibrio dinámico de suma cero, el equilibrio ergoentrópico entre la mínima variación de energía y la máxima entropía y el equilibrio de densidades con un producto unidad, que apenas se contemplan en los marcos actuales y cuando eventualmente se hace no se relaciona debidamente con los otros dos. Por supuesto, que Riemann concibiera una simetría en la función zeta no significa en absoluto que tenga que encontrar una traducción en la realidad física, pero si realmente ese es el caso, como tantos estudios de ahora suponen, y tratamos de adivinar a qué responde esa inimaginable simetría, cabe estudiarlo a la luz de estos equilibrios y de su relación con la causalidad vertical.

Henrik Stenlund ha notado recientemente que la ratio entre un cero de la función zeta de Riemann y su conjugado en la mitad negativa del plano, además de cierta fase tiene un valor absoluto igual a la unidad en vez de ser singular como cabría esperar. Esto, que sería un hecho para todos los ceros en la línea crítica, deja de serlo inmediatamente fuera de ella, aumentando la desviación a medida que se aparta de la línea. Su idea básica es sustituir en las ecuaciones funcionales la función zeta por funciones más elementales, pero también es la clase de cosas que el mismo Riemann podría haber tenido en cuenta al buscar una línea crítica en la función, y además hace pensar que junto al aspecto analítico de la función y su singularidad existe otro aspecto absolutamente simple y unitario; y la forma más básica y general que se me ocurre de vincular lo analítico con lo irreductiblemente simple es el cálculo diferencial constante basado en el intervalo unidad.

Si la hipótesis de Riemann tiene sentido en absoluto, lo más esencial en los ceros de la línea crítica de la función aún se desconoce; pero lo más esencial, sea o no lo más ambiguo, es siempre lo que más directamente vincula lo divisible con lo indivisible. Debería haber algo mucho más básico que todo lo que hasta ahora se ha considerado, pero no puede reconocerse debido al orden de concepción que ha impuesto la misma historia del desarrollo del cálculo como matemática aplicada. El cálculo sui generis de Riemann sería un corte a través de diversos estratos que se han constituido a sí mismos buscando también el camino más corto. La mejor forma de profundizar en la matemática pura tendría que ser siempre profundizar en la matemática aplicada, pues en última instancia la matemática siempre versa sobre la Naturaleza, y esta era todavía la convicción más honda de Euler, Gauss o Riemann. Pero es fácil ver, o al menos sentir, que si el cálculo se constituyó siempre por el camino más corto, a posteriori nos falta siempre trasfondo para saber de qué es simplificación. Es natural que en el fondo no creamos que la física matemática trata de la Naturaleza puesto que ésta ha sido podada por doquier.

La suposición de que existe una causalidad vertical que ahora no podemos concebir se basa también en la certeza de que tanto el cálculo como lo física son determinados desde arriba hacia abajo y de lo global a lo local, contrariamente a lo que se pretende. Como ya hemos visto en otras ocasiones, este es el caso desde el mismo Newton, tanto en el proceder real como en la interpretación invertida a juego con la ingeniería inversa que hace posible la predicción. Desde ahí en adelante la inversión de la relación entre lo global y lo local avanza a pasos agigantados: en la mecánica analítica, en la propia teoría de los números, en el análisis complejo, en el paso de la macroscópico a lo microscópico en la mecánica estadística y la mecánica cuántica, en el principio holográfico, etcétera. Se trata del procedimiento general, pero se pretende, especialmente desde que se alega un fundamento, que todo esto está construido desde abajo.

Vemos por ejemplo que el cálculo y la dinámica fraccional muestran dependencia no local de la historia o correlaciones espaciales y temporales de largo rango; sin embargo el cálculo clásico, en el que esto no sucede, es sólo un caso particular. Hablábamos antes de movimiento browniano en dipolos, y, aunque la dinámica fraccional de este tipo de movimiento sea generalmente local a nivel macroscópico, sería de interés trazar la correspondencia con el nivel microscópico cuando se usa una mecánica no-relativista basada en el potencial retardado para las transiciones entre movimientos de baja y alta velocidad. Esto no sólo sería diferente del estudio realizado por Mussardo y LeClair sobre el movimiento browniano y la zeta de Riemann sino que tendría una motivación muy distinta, a saber, tratar de dar contenido a la idea de causalidad vertical y ver si tiene sentido en absoluto hablar de ella. La idea de fondo es que la sincronización global que domina la mecánica desde Newton nos impide ver otro tipo de homogeneidad, mucho más general en la Naturaleza, que afecta a nuestra entera concepción del espacio, tiempo y causalidad, materia, forma y movimiento.

Martin Gutzwiller ya notó hace mucho la correspondencia entre la función zeta y el retardo de un electrón con el consiguiente desplazamiento de fase en problemas de dispersión, donde los ceros corresponderían a los valores del momento en que el retardo temporal cambia abruptamente. Aquí el caos cuántico, suave, tendría una contraparte clásica, pero para pasar de procesos localmente suaves a otros globalmente caóticos se echa en falta no solo una matemática más apropiada, como él apunta, sino también otra mecánica y otra interpretación. Pero se pueden tener las tres cosas sin necesidad de innovaciones, rellenando los huecos en la línea que va de Weber a Noskov.

La fase de la función zeta de Riemann a lo largo de la línea de ceros ya ha sido asociada anteriormente con la fase geométrica de un potencial cuántico y con el oscilador armónico invertido, en el que la frecuencia del oscilador es analíticamente continuada a valores imaginarios; el oscilador invertido permite un paso casi canónico de sistemas lineales a sistemas no lineales y caóticos con posibilidad de realimentación, tanto a nivel clásico como cuántico. El oscilador armónico invertido puede estar escondido en los lugares más insospechados de la Naturaleza: en la misma postura vertical del ser humano, que no deja de ser un péndulo invertido que necesita continuas rectificaciones para no caer. Sí, estar de pie sin andar implica un camino aleatorio en el balance sin necesidad de movimiento de traslación. La realimentación del oscilador invertido también pueden asociarse con un par de torsión y generalizarse a una reformulación ergoentrópica de la mecánica y los vórtices en todo tipo de ámbitos naturales.

Leibniz creía en los infinitesimales pero concebía la física de forma relacional, de arriba abajo; Newton usaba las fluxiones en un sentido más cercano al moderno del límite pero su física, también construida de arriba abajo, pretende lo contrario a través de un fundamento no sólo axiomático sino también metafísico; Riemann estaba más cerca de Newton en cuestiones de cálculo pero más próximo a Leibniz en sus ideas sobre física; Mathis, que ni siquiera encuentra un uso para el análisis complejo, finalmente ha mostrado como nadie hasta qué punto el cálculo invirtió la geometría física, pero todavía cree que se puede construir la física desde la causalidad local.

Los contornos de esta constelación hacen pensar que históricamente aún vivimos en la primera fase del cálculo o análisis, aquella que está dominada por el movimiento de resolución desde arriba hacia abajo; y que esta fase sólo terminará cuando se comprenda reflexivamente que siempre se trató de un movimiento descendente. Es decir, saber que no es tanto una construcción ascendente como un descenso marcará el fin del propio descenso del cálculo con respecto al mundo natural. Y después de esto, aún quedarían dos etapas por cubrir, una de ascenso tras la inevitable inflexión, y otra de descenso final.

La segunda fase del análisis, tras la indispensable toma de conciencia de su verdadera situación, estará dominada por el ascenso a lo global por métodos de abstracción nuevos. Difícilmente puede esto ser posible sin asumir la crítica de Mathis, crítica menos motivada por el espíritu polémico, como muchos estarán tentados de pensar, que por un indudable fondo positivo que además está en armonía con las exigencias de una sana filosofía natural. Paralelamente existe otra motivación para una abstracción matemática de un género nuevo, y como ya hemos sugerido, se encuentra en la posibilidad de una morfología general que parte de nociones de geometría física muy simples. La conjunción de ambos aspectos, crítico y generativo, permitirá crear, entre otras muchas cosas, un nuevo tipo de análisis dimensional y teorías de la medida y de la dimensión propias.

La tercera fase del análisis tal vez ni siquiera merezca ya ese nombre, y se trate simplemente de una dimensión y una concepción enteramente diferentes de la matemática aplicada. Este segundo descenso, partiendo de una nueva posición dentro de la siempre oscura noción de lo global, quizá nos muestre en qué puede consistir una “dinámica de Riemann” dentro del mundo físico; pero en cualquier caso esto sería sólo un caso particular dentro de la temática mucho más general de la causalidad descendente y la causalidad vertical en la Naturaleza.

Así pues, todo el análisis conocido y su continuación indefinida en la misma dirección ni siquiera alcanza el final de la primera fase de la matemática aplicada. Si tales fases se quieren concebir como un desarrollo histórico, entonces es imposible saber qué periodos de tiempo las separan, si lapsos como el que media entre Newton y nosotros, u otros mucho mayores como el que va de Arquímedes a Leibniz; pero también pueden verse de una forma perfectamente intemporal, como movimientos del espíritu que a menudo ya están presentes incluso dentro de la demostración de un simple teorema.

El demonio del cálculo interminable y el daimon del análisis finito no pueden ser más diferentes, pero al empeñarnos en que son uno solo, se confunde el espíritu de circunspección y la evolución de la matemática aplicada, no importa cuál sea su crecimiento, queda desviada sin remedio. Peras y Apeiron tienen muy poco que ver con las nociones modernas de límite y de infinitesimal, pues si esta última fue una idealización desde el principio, el concepto de límite fue desde el comienzo pura racionalización. Es sumamente peligroso que ambos se fundan porque induce a pensar que ya no queda espacio para nada más, y sin embargo, en medio de su atareado comercio persiste un eje inaccesible a las manipulaciones arbitrarias.

Es de esperar que este eje de diamante del cálculo diferencial constante permita además un retorno mucho más natural de lo finito a lo homogéneo que es el trasfondo de todo entendimiento. El futuro es de la simplicidad, y lo es aún más por la índole de la complejidad presente. Le preguntaron a André Weil si creía que había quedado algún camino por explorar en la obra de los grandes creadores de la teoría de los números del siglo XIX, y su respuesta fue un no categórico. El juicio de Weil es sin duda competente pero típico de un especialista; hoy se ve cada vez menos la teoría de los números como una disciplina aislada, lo que tiene aspectos tanto buenos como malos. En cualquier caso, el desarrollo de la teoría de los números es un caso peculiar dentro de la matemática moderna, y el orden de concepción que domina en el conjunto de la ciencia es, al igual que en la física, el del cálculo o análisis. Y tanto en el análisis como en la física sabemos positivamente que se han ignorado varias opciones válidas que incluso hoy pueden dar lugar a una perspectiva completamente diferente. No hay historia de la ciencia menos interesante que la que da por agotadas todas las posibilidades del pasado.

El infinito de la presente matemática es sobre todo el infinito de la complejidad; el de la matemática futura será un infinito de la simplicidad, y aun así será en cierto sentido sólo una etapa intermedia. Detectar lo homogéneo fuera es una forma de que lo heterogéneo se contraste con la homogeneidad interior, que también es indetectable pero es el soporte de la discriminación. Nivelar ambos aspectos equivale a cruzar un umbral que en las presentes circunstancias ni siquiera se plantea. Hoy hay dos cosas que bloquean sistemáticamente la posibilidad de síntesis de orden superior: la primera es la deficiencia elemental del análisis, de carácter fundacional y obstructivo; la segunda es la ausencia de una imaginación abstractiva y sintética para los aspectos morfológicos intrínsecos a la Naturaleza que están ya presentes al nivel de los fenómenos. Pero hoy ya tenemos anticipos más que suficientes para ver qué puede responder a estos vacíos, anticipos que deben contrastar agudamente con el exceso de complejidad superflua del análisis y con el exceso de simplificación que inevitablemente lo acompaña y que borra el contexto natural del que emerge.

Por supuesto, este pronóstico no tiene nada que ver con los que hoy hacen los matemáticos sobre el futuro de su disciplina: su interés está precisamente en que no tiene nada de inevitable, en que es una posibilidad latente independiente de cualquier cronología. En el fondo importa muy poco si dentro de x años los ordenadores pueden ser mejores que los seres humanos demostrando teoremas, lo que importa es lo que puede comprender el hombre y más todavía qué es lo que quiere comprender. El futuro de las matemáticas es un reflejo del futuro del espíritu entre nosotros, y el espíritu no es sólo el intelecto sino la unión de intelecto y voluntad.

En el fondo, la matemática es la única ciencia verdadera; y aun así ella no puede definir cuál es su relación con la realidad, que sigue estando enteramente abierta. Ni siquiera puede encontrar un criterio único sobre cómo conducirse en sus propios asuntos internos, los que parecen estar más allá de cualquier posible aplicación. Pero para tomar posesión de sí misma, y no estar a merced de intereses externos, como ahora lo está hasta un grado extremo en medio de su ficticia libertad, debería poder reconsiderar en todo momento tanto el criterio de su aplicación como el grado de receptividad que muestra ante la Naturaleza; pues ambas cosas van siempre de la mano.

En el extraño caso de la función zeta, mucho antes de plantearse si puede demostrarse la hipótesis sería sin duda deseable entender el rol que juegan los números complejos en la física y la Naturaleza; la relación que pueda tener esto con el tiempo; el significado de los ceros de la función; y finalmente, cómo puede interpretarse la causalidad vertical, que, merece la pena recordarlo, no es sino la antítesis del principio tácito de sincronización global que domina toda la física. Estas cuatro preguntas están estrechamente relacionadas entre sí, y por supuesto un gran número de matemáticos las verán como puramente filosóficas; sin embargo contamos con la ventaja de que al menos tres de ellas también pueden plantearse en casos mucho más simples y generales que el abordado por Riemann. Si se comprendieran estas tres, también es probable que se comprendiera la cuarta, suponiendo siempre que los ceros signifiquen algo. Hablamos meramente de comprender, no de probar nada.

Se dice constantemente que la hipótesis de Riemann es sólo un problema de matemática pura, pero si convenimos es en que el cálculo es matemática aplicada, se trata sin duda de un problema bicéfalo que concierne necesariamente a ambas esferas. Concebirlo sólo como matemática pura es no ver siquiera el blanco. Aquí se revela el platonismo fuera de lugar que aún subyace en la matemática actual, incluso cuando se insiste en que ésta no es sino una construcción humana; y lo mismo puede decirse de la física vigente, a menudo pura matefísica. Lo que no se comprende es la suprema importancia del criterio de aplicación, que decide la relación entre el aspecto temporal de la matemática y su aspecto intemporal. Esto supone infinitamente más que cualquier intento de demostración que ni siquiera acierte a plantearse la cuestión.

Sin replantearse como deben sus propios fundamentos, las ciencias solo son siervas de la deuda acumulada que son incapaces de cancelar y que dirige la descomunal inercia de su carrera. Algunos no entenderán que una ciencia como las matemáticas, que apenas debería necesitar poco más que un lápiz y un papel, pueda tener tener deudas, pero las tiene como cualquier otra, porque por supuesto nos estamos refiriendo a las deudas internas, a todo aquello que se debe a sí misma. Claro que siempre puede ignorarlas para continuar en la misma dirección.

Hablamos del futuro de la simplicidad, pero para apreciar debidamente lo simple hay que educar primero el gusto —hay que desarrollar un gusto adquirido que ahora mismo no tenemos. Ciertamente el gusto por la complejidad sí lo hemos desarrollado, y aunque uno puede llegar a pensar que es un gusto echado a perder, también es condición necesaria para la formación de otro mucho más seguro que lo presupone, pero que querría dejarlo atrás tanto como fuera posible. La función zeta de Riemann podría ser uno de esos intermediarios entre la complejidad extrema y la simplicidad que podría ayudar en la reeducación del gusto, al menos entre los adictos a la complejidad más recalcitrantes, pero para eso habría que hacer primero el debido trabajo en los fundamentos; y ni aun así se puede confiar demasiado en ello. Se puede alcanzar la simplicidad por la simplificación o por la simplicidad misma.

Que la hipótesis de Riemann afecte de lleno al criterio de aplicación del cálculo no tiene nada que ver con hipotéticas repercusiones prácticas como las que a veces se barajan; por ejemplo, las fantásticas asociaciones que se han hecho con respecto a su incidencia en la criptografía, cuando nadie ha especificado cómo podría conducir a métodos más rápidos de factorización. Y sin embargo fantasías de este tipo, junto al espionaje generalizado en la red y el tipo de carrera que llevan muchos investigadores, por no hablar de la propia fantasía de una demostración inminente, sólo tienden a aumentar la opacidad, el secretismo y la mistificación en esta búsqueda minoritaria pero a pesar de todo colectiva.

Consciente e inconscientemente, y como en todo lo demás, se cultiva la ceremonia de la confusión. La hipótesis ocultaría algo absolutamente básico, pero a su comprensión sólo podría llegar a través de los rodeos más increíblemente complicados. Y para que no quede duda, se añade: cualquier intento ingenuo de demostración elemental está condenado de antemano. Pero en todas estas afirmaciones ya se presupone que lo único deseable es esa demostración por lo demás casi inalcanzable —lo demás sólo es filosofía y semántica. Se construye una narrativa para encauzar el “joven talento” y que los incautos e ilusos bienintencionados busquen en la misma dirección sin atreverse ni a considerar cualquier otra. Y de esta forma, por más que se nos hable de misterio y grandiosidad, todo tiende al nivel más bajo posible y se consigue que nadie cuestione el criterio de aplicación de la matemática, que es lo que importa por encima de todo.

Estar bien seguros de que no hay una demostración a la vuelta de la esquina ni riesgo de colapsos criptográficos debería ayudar a una colaboración más libre entre los matemáticos. Y si se rechaza abiertamente el anzuelo de que una prueba sea deseable sin entender antes las cosas mucho más básicas que habría que entender, la calidad de esa colaboración aumentará de una forma imposible de cuantificar.

¿Qué certeza es esa que ha transmitido desde siempre la filosofía natural? Que el Principio no es sólo el punto de partida, sino también el término de todas nuestras indagaciones. Bien poca cosa, si se quiere, pero suficiente para el que sabe adherirse a ella. Con el cálculo moderno empieza una inmensa labor de ingeniería inversa de la Naturaleza que sin embargo nos va alejando irremisiblemente de ella. Y en medio de ese peligroso viaje, emerge la función zeta de Riemann ,de la que aún no sabemos si supone un alejamiento todavía mucho mayor o una portentosa maniobra de acercamiento con unos métodos inadecuados. Debería haber formas sencillas de responder a esto, formas que no requieran mil años de preparación.

Frente a una ingeniería inversa que nos aleja cada vez más de la Naturaleza, hemos aventurado la existencia de un método retroprogresivo, es decir, de un progreso hacia la simplicidad, un progreso en dirección a un Principio que poco tiene que ver con cualquier origen mítico situado en el pasado. Me gustaría pensar que la hipótesis de Riemann apunta en esa misma dirección, pero todavía no tengo el menor indicio que me permita afirmarlo. En cualquier caso, también aquí se puede aplicar el método retrógrado desde los fines a los medios y a los principios con un coste de tiempo incomparablemente menor y un impacto mucho mayor, desde el momento en que empezamos a hacernos nuestras propias preguntas.

Mi apelación a la Naturaleza es cualquier cosa menos retórica porque ella sigue siendo la gran ausente de esta ecuación. Ya es significativo que la física y la matemática sólo se hallen en su zona de comfort cuando pueden evadir la pregunta sobre su relación con la Naturaleza, y si queremos saber porqué esto es así, no hay más que interrogar la entera historia del cálculo en términos de exceso y de defecto y averiguar qué le ha sobrado y qué le ha faltado; y cómo contraparte, averiguar qué ha supuesto eso en términos de abstracción e imaginación matemática a lo largo de más de tres siglos.

*

El “momento Riemann” de 1859 ocupa un lugar único en la historia de la ciencia, completamente aparte de todos los demás. Ni siquiera sus claros precedentes en Euler y Gauss arrojan la menor luz sobre su auténtica naturaleza. Los números tienen generación pero no tienen causalidad. La física se supone que tiene causalidad pero ésta se vuelve irrelevante al nivel de las llamadas leyes fundamentales. Los métodos de cálculo clásicos, que la teoría analítica aplica a los números, aún ensombrecen más esta cuestión de la causalidad, además de las relaciones dentro de la recta numérica. ¿Cómo es que los números primos, siendo tan importantes para la aritmética, no tienen prácticamente ninguna relevancia en la Naturaleza? Esta es una pregunta que nunca se hace y que tendríamos que hacernos. Aquí nos estamos refiriendo, por supuesto, al mundo natural de los fenómenos directamente observables; y es que, además, este interrogante tiene como agudo contraste los múltiples ecos de la función zeta en sistemas físicos, algunas de cuyas razones sí se comprenden fácilmente por sí mismas.

Los matemáticos gustan de reformular la hipótesis de Riemann en múltiples afirmaciones equivalentes; y por otra parte un gran número de fenómenos físicos pueden asociarse a los ceros de una función como la zeta. Lo que no se hace es tratar de reformular los principios de la mecánica en formas equivalentes para ver qué nuevo tipo de interpretación permite de funciones en variable compleja; pues para empezar algunas de estas reformulaciones pueden prescindir del uso de números complejos en la descripción de sistemas tanto clásicos como cuánticos.

Deberíamos conceder más valor a los intentos de probar esta hipótesis por los medios más elementales, pues sólo de esta forma se puede intentar responder a la pregunta recién hecha. Algunos de estos planteamientos nos acercan más a las cuestiones esenciales que los impresionantes despliegues de armamento matemático. Citaremos solo tres de ellos, asociados con los números naturales en vez de los complejos, las funciones de Möbius y Mertens, lo caminos aleatorios y la interpretación probabilística de Denjoy: el de K. Eswaran, el de Spencer Brown y el de Henk Diepenmaat. Spencer Brown reformuló la hipótesis en los términos acumulativos de la función de Möbius en relación con sus valores previos, al estilo de Legendre. De este modo la función tendría una feedback negativo de equilibrio y se autorregularía, dejando de ser puramente aleatoria. La aproximación de Diepenmaat también tiene bastantes puntos de contacto con la de Eswaran, a la vez que incluye un componente recursivo como la de Brown. Diepenmaat ofrece una visión original de los números primos como motivo conductor en el desarrollo social en lo que denomina “perspectivismo recursivo” aunque probablemente la mayor diferencia entre la sociedad y la Naturaleza es que la primera la percibimos desde dentro mientras tendemos a creer sin la menor justificación que la segunda sólo está fuera.

No hace falta decir que la comunidad matemática desdeña esta clase de tentativas. Más que como intentos de prueba pueden verse como intentos de asimilación, pero aun así siguen teniendo su valor. Con razón se ha dicho que si Kepler hubiera tenido datos más completos sobre las trayectorias de los planetas nunca habría avanzado sus leyes del movimiento elíptico planetario. Hoy los especialistas del tema saben demasiado por un lado, mientras por el otro hay demasiadas cosas que prefieren ignorar. A la larga es probable que aprendamos más de los intentos de asimilación, del deseo de incorporar el problema y hacerlo nuestro, que de las pretensiones de prueba. Otros investigadores también han reparado en la invariancia de escala en la distribución de los primos y su relación con las leyes de potencias; siendo la presencia de estas tan frecuente en fenómenos sociales como naturales.

En el fondo, todo intento de demostración de la hipótesis basada en el análisis complejo es un intento de asimilación porque sus principios, como los de la propia mecánica, son materia de convención. Lo que no quiere decir, ni mucho menos, que sean meramente arbitrarios. Lo que Riemann hacía en su artículo original ya era una asimilación, aunque nadie dude de que el análisis complejo ofrece otra perspectiva para innumerables problemas.

Sin embargo el problema del recuento de los números primos es, como si dijéramos, el asidero para introducir otro tema mucho más amplio, si hubiera una manera de justificarlo. En relación con los números primos, que ya se contaban a la manera clásica sin margen de error, el matemático alemán podía esperar que se comportaran del modo más imparcial, igual que en las probabilidades de lanzamiento de una moneda hasta el infinito; pero este tipo de balance ideal, la expresión discreta del paseo aleatorio, solo sería la forma más básica de equilibrio en una escala que se extiende a los demás campos numéricos y que da a la función su inmensa riqueza de implicaciones.

En cualquier caso, si esta función puede considerarse la expresión de una filosofía natural, tal filosofía solo podría reposar en la idea de equilibrio, idea demasiado truncada en la concepción y fundamentos de la física moderna. Si el equilibrio dinámico subyace a la idea de la inercia, su despliegue como acción-reacción también está por encima del plano de la sincronización global, de la ficción de lo instantáneo y lo simultáneo que está en el corazón del cálculo, y el potencial retardado sería un índice de esa escala desconocida aún por interpretar y asimilar. Pero por otra parte, la existencia de intervalos finitos naturales en el núcleo del cálculo sugieren que hay una teoría de la proporción escondida en el análisis, que esta debería estar conectada con la teoría del equilibrio en una mecánica relacional homogénea, y que ambos aspectos estarían íntimamente vinculados con la «estructura profunda» de la función.

Si la hipótesis es cierta, eso solo significa que los números primos no tienen ninguna estructura profunda que desconozcamos; ¿por qué entonces tendría que ser perturbador el que distintos sistemas físicos tiendan a reproducir la función?

Epílogo (Junio, 2022)

Para los que dan por buena la forma habitual de calcular la función, que son casi todos, probablemente no exista una explicación más simple de la línea crítica y sus ceros que la que ofrece Bertrand Wong en este breve estudio que puede entender de forma inmediata cualquier lego con algo de interés. Evidentemente su argumento en términos de equilibrio óptimo no puede probar nada, pero al menos nos muestra de forma diáfana que ni siquiera en el análisis clásico pierde su vigencia la idea de proporcionalidad. Desde este punto de vista, puramente matemático, ni hay el menor misterio en la hipótesis, ni hay espacio para la mistificación; se supone que cualquier prueba aspira a esto, aunque difícilmente puede conseguirse con demostraciones de doscientas páginas. El misterio estaría, en todo caso, en las resonancias físicas de la función. Si lo más simple es también lo más amplio y lo más universal, también los paralelismos físicos de la función deberían poder comprenderse en términos de equilibrio y proporcionalidad, y el problema aquí estaría en reconocer cómo nuestra física y nuestro cálculo han truncado esos conceptos.

Scot C. Nelson descubrió a finales del 2001 que las espirales logarítmicas que exhibe el crecimiento vegetal —girasoles, margaritas, piñas, etcétera- son un método de criba natural para los números primos. Como todo lo relacionado con la proporción continua y sus series numéricas asociadas, esto apenas ha recibido atención y parece relegado de antemano a la siempre creciente sección de coincidencias anecdóticas. Y sin embargo se trata de la primera conexión básica que se ha encontrado entre los números primos y estos ubicuos patrones de la filotaxis, lo que tendría que habernos dicho algo. A la luz del hallazgo de Nelson, parece haber «una simetría central de los números primos en el interior de los objetos tridimensionales», y el desarrollo vegetal tendría un algoritmo intrínseco de generación de primos en su devenir. El mismo paso de la recta numérica al desenvolvimiento de estos patrones en superficies y en tres dimensiones debería ser un hilo conductor para la intuición geométrica del tema fundamental de la aritmética. No es lo mismo tratar de vincular la aritmética con la “geometría” abstracta moderna que hacerlo con la geometría natural. La analogía mecánica tampoco se hace esperar: las partes se repelen como dipolos magnéticos con una minimización de la energía entre ellas, y a medida que la planta crece se reduce el retardo temporal entre la formación de nuevos primordios. Esto también ha de tener su traducción en términos ergoentrópicos y de entropía de la información.

Por descontado, Riemann siempre tuvo en mente el análisis armónico al vincular los primos y la variable compleja. Puesto que la zeta establece una conexión tan profunda entre aspectos discretos y continuos, esto no debería contemplarse solo como una industriosa elaboración abstracta sino también en su asociación más básica con las ondas. De hecho un equipo australiano mostraba recientemente que la superposición simple de ondas ópticas puede generar la secuencia de números primos sin necesidad alguna de caos dinámico ni restricciones especiales para la factorización, “codificándolos holográficamente” en la propagación ondulatoria del campo. Lo sorprendente es que cosas tan simples no se hayan notado antes; hallazgos así demuestran que aún hay espacio para descubrimientos elementales en el área. Y después de todo la idea de que la interferencia o no interferencia de los primos afecta tendencialmente a su distribución es inevitable y absolutamente natural, sin el menor artificio. También vuelve a traer la sospecha de una cierta analogía proyectiva y de cierta “aritmética proyectiva” en un sentido diferente al hoy considerado bajo tal término, así como a una geometrodinámica del espacio-tiempo que no tiene por qué ser cuatridimensional, y que restituiría la noción de armonía de fase de de Broglie, con su dualidad entre la energía-momento y la periodicidad del espacio-tiempo, a la perspectiva del potencial retardado anterior a la descripción relativista. Esto permitiría conectar las llamadas “simetrías externas” de la física clásica y las “simetrías internas” de las partículas de una forma mucho más natural que por los métodos más divulgados de deformación algebraica y cuantización por deformación. Si para de Broglie las partículas son relojes elementales que permiten reciprocar tiempo y masa, la pregunta crucial por el parámetro tiempo de la supuesta dinámica de Riemann encontraría su sentido en una mecánica relacional que pueda expresarse dentro y fuera del plano complejo. Hoy se admite que las constantes que emergen de los cálculos detallados en física son casi las mismas que las que surgen en teoría de los números, pero para ver la otra cara de la sincronización global hay que salir primero fuera de sus dominios. Tanto los primos como esta función especial podrían irrumpir finalmente en nuestra concepción de la Naturaleza si acertamos a darle su lugar en nuestra representación.

Referencias

Bernhard Riemann, Riemanniana selecta, Consejo Superior de Investigaciones Científicas, 2000

Mei Xiaochun, The Inconsistency Problem of the Riemann Zeta Function Equation, 2019

Mei Xiaochun, A Standard Method to Prove That the Riemann Zeta Function Equation Has No Non-Trivial Zeros, 2020

Miles Mathis, A redefinition of the derivative —Why the calculus works, and why it doesn’t, 2003

J. Neuberger, C. Feiler, H. Maier, W. Sleich, Newton flow of the Riemann zeta function: Separatrices control the appearance of zeros, 2014