LA FUNCIÓN ZETA Y LA TEORÍA DE LA INFORMACIÓN

Se ha dicho que si se resolviera la hipótesis de Riemann, se podrían romper todos las claves de criptografía y ciberseguridad; nadie ha precisado cómo eso podría conducir a métodos más rápidos de factorización, pero al menos nos recuerda la estrecha relación entre un problema hasta hoy intratable, la criptografía y la teoría de la información.

Tales especulaciones sólo se basan en el hecho de que la función zeta de Riemann establece una conexión entre los números primos y los ceros de una función infinitamente diferenciable que brinda el método más potente para explorar este campo, siendo los números primos la base de la criptografía clásica; pero ya hemos visto que la función zeta es mucho más que todo eso.

Hoy hablar de la revolución tecnológica equivale a hablar de la revolución digital y de una categoría, la información, que parece envolverlo todo. En ella confluyen y por ella pasan todos los desarrollos anteriores de la ciencia y la tecnología. Hasta los físicos piensan ya en el universo como en un gigantesco ordenador; mucho se discutió sobre si el mundo estaba hecho de átomos o historias pero al final se decidió que estaba hecho de bits y asunto resuelto.

Lo importante de la teoría de la información no son tanto sus definiciones sino la dirección que le impone a todo; cambiar esa dirección equivale a cambiar la de la tecnología en su conjunto. La dirección inequívoca, que hereda evidentemente de la mecánica estadística, es la de descomponerlo todo en elementos mínimos que luego se pueden recomponer a voluntad.

Para la mecánica estadística no hay una dirección en el tiempo: si no vemos a un jarrón hecho añicos recomponerse y volver sobre la mesa, es sólo porque no vivimos el tiempo suficiente; si un cuerpo deshecho en pedazos por una explosión no se rehace y vuelve a andar como si nada, es sólo porque no estamos en condiciones de esperar 10 elevado a 1.000.000.000 de años o algo similar.

A la teoría de la información no le concierne en absoluto la realidad del mundo físico, sino la probabilidad en sus elementos constituyentes, o más bien la probabilidad dentro de su contabilidad de los elementos constituyentes. El mismo mundo físico es por contra una fuente de recursos para la esfera del cálculo o computación, que querría ser totalmente independiente del primero.

¿Es esta visión estadística una postura neutral o es simplemente un pretexto para poder manipularlo todo sin el menor compromiso? No hay una respuesta única para esto. La mecánica estadística y la teoría de la información se aplican con éxito en innumerables casos, y en innumerables casos no puede ser más irrelevante. Lo preocupante es la tendencia que ya impone.

Es mi convicción que un cuerpo destrozado no se recompondrá espontáneamente nunca, por más fabuloso que sea el periodo de tiempo que escojamos. Y no creo que esto sea retórica; más bien los grandes números son la retórica de la probabilidad; una retórica tan inflada como pobre, porque ignora la interdependencia de las cosas.

Esa interdependencia, esa red infinita de interrelaciones, es lo que hace que las cosas sean lo que son. La mecánica estadística, y su hija la teoría de la información, son el marco más general para hablar de elementos independientes cuya relación está regida por el azar; la función zeta de Riemann, la forma más directa y elegante de abarcar una serie infinita de elementos, los propios números, que son a la vez independientes y dependientes, aparentemente aleatorios y conteniendo simultáneamente una riqueza infinita de relaciones.

De este modo, parece que tarde o temprano la teoría de la información y la de la función zeta tendrán que encontrarse. Hoy los números ya no parecen existir para entender el mundo, sino para triturarlo y estrujarlo, y con él a todos nosotros. La teoría de la información parece haberse convertido en el embudo, en el temible horizonte de sucesos para todas las cosas; pero a su vez la función zeta podría convertirse en el horizonte de sucesos para la propia Era de la Información a medida que el concepto mismo de información, tan sumamente genérico, se va refinando y adquiriendo contenido.

Sin embargo, y de forma un tanto sorprendente, no existe prácticamente ninguna literatura sobre la relación entre la función zeta y la teoría de la información. En nuestra búsqueda sólo encontramos una breve nota debida a K.K. Nambiar, en la que intentaba mostrar una conexión entre la capacidad del canal y la función, con una “serie de Shannon” y una función zeta de Shannon. La idea era merecedora de mucha mayor elaboración, discusión y desarrollo. Por otra parte la equivalencia entre la función zeta y el teorema de muestreo fundamental para el procesamiento de señales parece que ha sido demostrada [69].

El mismo autor emitía una nota aún más breve estableciendo un equivalente eléctrico de la hipótesis de Riemann en términos de la potencia disipada por la red; por supuesto también se han establecido equivalentes más elaborados en términos de potencial eléctrico, pero aquí estamos más interesados en la termodinámica. Se pueden crear infinitas formas de onda con patrones de radiación que contengan los ceros, la cuestión es cómo modularlos. Ya en 1947 Van der Pol había creado un dispositivo electromecánico analógico para computar ceros de la zeta [70].

Si no directamente con la teoría de la información, sí existen al menos muchos más estudios que relacionan la función con aspectos íntimamente relacionados: entropía, estadísticas y probabilidad [71]. Aquí nos centraremos en el concepto de entropía.

Entropía e información son términos casi sinónimos, y si en termodinámica la entropía se veía como pérdida de energía aprovechable como trabajo, ahora se verá como pérdida de información. A la entropía de Shannon se la llamaba al comienzo autoinformación o nivel de sorpresa —un mensaje debería contener algo nuevo.

La confusión de la entropía con el desorden se debe a la racionalización de Boltzmann al pretender derivar la irreversibilidad macroscópica de la reversibilidad mecánica, lo que ya es forzar bien las cosas. Fue Boltzmann, al hablar de “orden”, el que introdujo un elemento subjetivo. Clausius, al pensar sólo en términos de energía, lo entendió, sino mejor, sí de forma más natural al decir que la entropía del mundo tiende al máximo.

El orden es un concepto subjetivo. Pero decir mundo es decir orden, luego también la idea de mundo es inevitablemente subjetiva. Por más subjetivos que sean, “orden” y “mundo” no son sólo conceptos, son aspectos vitales de todo ser organizado o “sistema abierto”. Con todo, incluso nuestra intuición del orden y la entropía se encuentran confundidos.

No es que con la entropía aumente el desorden. Más bien al contrario, la tendencia hacia la máxima entropía es conducente al orden, o mejor expresado, lo más ordenado tiene más potencial de disipación. Tal como lo puso Rod Swenson: “el mundo está en el asunto de la producción de orden, incluida la producción de seres vivos y su capacidad de percepción y acción, pues el orden produce entropía más rápido que el desorden”[72].

La teoría de la información es un marco formal y objetivo pero no puede librarse del giro reflexivo en la representación y el uso de los datos. Una cosa es la información como objeto y otra la información con la que un sistema abierto interactúa y contribuye a configurar. Aunque en modo caja negra, en muchos casos la interpretación ya es parte del comportamiento del sistema.

Las ambigüedades y limitaciones de la teoría de la información han dado paso a marcos más incluyentes, como la filosofía de la información de Luciano Floridi, que, para decirlo de manera muy simplificada, contemplan la información semántica como datos + preguntas [73]. El acercamiento de Floridi aún sigue siendo claro heredero del dualismo cartesiano y el idealismo, y en esta decisiva divisoria nosotros preferimos hablar de dos tipos, externo e interno, de información y entropía: hay una “información-entropía objeto” y hay una “información-entropía-mundo” dentro de la que se incluyen los sistemas abiertos que interactúan con él. La entropía de Boltzmann y la de Shannon son del primer tipo, la de Clausius y aquella con la que trabajan los ingenieros en problemas físicos está más cercana a la segunda.

La conexión entropía—función zeta ha sido tardía y no empieza a tomar forma sino entrados ya en el siglo XXI. A un nivel muy básico, se puede estudiar la entropía de la secuencia de ceros: una alta entropía comportaría escasa estructura, y al contrario. Se observa que la estructura es alta y la entropía baja, y ya las primeras redes neuronales de aprendizaje automático tenían éxito en su predicción [74]. También, por supuesto, se puede estudiar la entropía de los números primos en la secuencia ordenada de lo números y su correlación con los ceros; y a partir de ahí tenemos ya un espectro prácticamente ilimitado de correlaciones.

Hay otros tipos no extensivos de entropía independientes de la cantidad de material, como la entropía de Tsallis, que pueden aplicarse a la zeta; estos tipos de entropía se asocian generalmente a leyes de potencias, no a exponenciales. Pero en realidad aquí, como en la termodinámica en general, la definición de la entropía puede variar de autor a autor y de aplicación a aplicación.

Para tratar de unificar esta multiplicidad de acepciones, Piergiulio Tempesta ha propuesto una entropía de grupo [75]. Tanto en los contextos físicos como en sistemas complejos, en economía, biología o ciencias sociales, la relación entre las partes depende de modo crucial de cómo definamos la correlación. Este es también el asunto central de la minería de datos, las redes y la inteligencia artificial.

A cada ley de correlación le puede corresponder su particular entropía y estadística, en lugar de lo contrario. Así, no hace falta postular la entropía, sino que su funcional emerge de la clase de interacciones que se quiere considerar. Cada clase universal de entropía de grupo adecuada está asociada a un tipo de función zeta. La función zeta de Riemann estaría asociada a la entropía de Tsallis, que contiene a la entropía clásica como un caso particular. Pero estas leyes de correlación se basan en elementos independientes, mientras que la irreversibilidad fundamental parece rechazar ese supuesto. La irreversibilidad fundamental asume la interdependencia universal.

Mencionábamos antes el teorema de Voronin sobre la universalidad de la función zeta de Riemman, que demuestra que cualquier tipo de información de cualquier tamaño que pueda almacenarse existe con toda la precisión que se quiera dentro de esta función —y uno una sola vez, sino un número infinito de veces. Parece que hay un “código zeta” que podría ser objeto de la teoría algorítmica de la complejidad Pero la función zeta de Riemann, en sí misma una enciclopedia infinita de correlaciones y leyes de correlación, es a su vez sólo el caso principal de una familia infinita de funciones asociadas.

Uno también podría encontrar cualquier tipo de información en un ruido blanco; pero el ruido blanco carece de cualquier estructura, mientras que la función zeta, bien definida, tiene una estructura infinita. Si Hegel hubiera conocido ambos casos hubiera hablado de falsa y de verdadera infinitud; veremos que estas apercepciones hegelianas no están aquí del todo fuera de lugar.

La seriedad de un problema como el de la zeta exige contemplar a fondo el problema de la irreversibilidad. Y contemplarlo a fondo significa justamente incluirlo al nivel más fundamental. Usar la mecánica conservativa será siempre trabajar con modelos de juguete, ninguno de los cuales ha servido para mucho.

La escuela de Keenan del MIT, especialmente con Hatsopoulos, Gyftopoulos y Gian Paolo Beretta, ha desarrollado una termodinámica cuántica que se opone frontalmente a la racionalización de la entropía por la mecánica estadística. La dinámica es irreversible al nivel más fundamental —la mecánica cuántica también es irreversible. El número de estados es incomparablemente mayor que el de esta, y sólo algunos son seleccionados. El principio de selección es muy parecido al de producción de máxima entropía, aunque algo menos restrictivo: se trata de la atracción en la dirección con la entropía más pronunciada. No hay que hacer grandes cambios en los formalismos acostumbrados, lo que se transfigura es el sentido del conjunto [76].

También se retienen los formalismos del equilibrio, pero su sentido cambia por completo. El carácter único de los estados de equilibrio estables supone una de las transformaciones conceptuales más profundas de la ciencia de las últimas décadas. El planteamiento es contrario al idealismo de la mecánica y mucho más en consonancia con la práctica diaria de los ingenieros, que tratan la entropía como una propiedad física tan real como la energía. La teoría tiene muchas más ventajas que sacrificios, y se puede aplicar al entero dominio del no equilibrio y a todas las escalas temporales y espaciales.

Pero por supuesto la irreversibilidad se puede introducir directamente en dinámica empezando por la mecánica clásica, tal como vimos en la reformulación de M. J. Pinheiro, sustituyendo el principio de acción lagrangiano por un sistema de equilibrio entre energía y entropía. Esto permite estudiar la entropía generada en trayectorias clásicas bajo diferentes formalismos y criterios, estableciendo otra conexión general entre los diversos dominios.

En general, para el físico no tiene sentido cambiar ecuaciones que “ya funcionan perfectamente bien”. Y, de hecho, lo que ha hecho siempre la física fundamental ha sido dejar a un lado cuestiones como el rozamiento y la disipación y quedarse con los “casos ideales”. El principio de inercia es perfecto para eso. De esta forma la termodinámica era cuidadosamente segregada como un subproducto de la física ideal, lo que no deja de ser una curiosa disposición.

Pero deberíamos tratar de verlo al revés: ver cómo emerge la apariencia de comportamientos reversibles de un fondo de irreversibilidad es lo más parecido que puede haber a encontrar el anillo mágico en el seno de la naturaleza. Hoy por hoy la física no trata de la naturaleza, sino de ciertas leyes que le afectan. Irreversibilidad y reversibilidad son como el fuego y el agua; sólo mezclándolos de la forma correcta puede iluminarse la acción de la naturaleza propiamente dicha.

El giro irónico es que la mecánica, con su disposición idealista, ha segregado la termodinámica; pero finalmente será la propia teoría de la información, la consecuencia última de la mecánica, la que necesitará recuperar todo lo eliminado si quiere recobrar su sentido. Y la función zeta debería jugar un papel esencial en esa muda y transfiguración de la teoría de la información. A la teoría de la información le interesa la mecánica irreversible… porque le aporta más información. Y una información de una importancia crítica [77].

*

La idealización y la racionalización son como las míticas rocas Simplégades que entrechocaban destruyendo a navíos y navegantes; sólo el que comprenda sus peligros y las evite podrá pasar al otro lado.

Hemos visto como este proceso alterno es inherente a la evolución histórica de disciplinas como el cálculo, la mecánica clásica y la cuántica, o la mecánica estadística. Ni siquiera la apelación a los resultados y experimentos consigue frenar las pretensiones globalizadoras de la racionalización, puesto que ésta siempre encuentra formas de justificar las inconsistencias.

En filosofía, el mejor ejemplo del paso a gran escala de la idealización a la racionalización nos lo da Hegel. En un interesante artículo, Ian Wright intenta explicar la naturaleza de la función zeta de Riemann, recurriendo al Hegel de la Ciencia de la Lógica, como la mediación entre el ser y el no ser a través del devenir en el seno de los números [78]. A muchos puede parecerles una lectura demasiado anticuada, pero cabe decir tres cosas:

Primero, que desde el punto de vista de la aritmética pura, esto es admisible puesto que si existe una parte de la matemática que puede considerarse a priori, esa es la aritmética; mientras que, por otro lado, la misma definición de esta función afecta a la totalidad de los números enteros, y su extensión a los números reales y complejos.

Segundo, que el cálculo no es matemática pura como la aritmética, aunque muchos especialistas parecen creerlo, sino matemática aplicada al cambio o devenir. Si no lo fuera, no habría necesidad de computar los ceros. La función zeta es una relación entre la aritmética y el cálculo tan estrecha como incierta.

Tercero, para las ciencias experimentales como la física la oposición entre ser y no ser no parece tener alcance sistémico, y para ciencias formales como la teoría de la información esto se reduce a fluctuaciones entre unos y ceros; sin embargo la distinción entre sistemas reversibles e irreversibles, abiertos y cerrados, que se sitúa en el meollo mismo de la idea de devenir, es decisiva y está en la misma cruz del asunto.

En problemas como el que plantea la función zeta en relación con la física fundamental, podrían realizarse pronto experimentos cruciales capaces de desentrañar la relación entre lo reversible e irreversible en los sistemas —siempre que se busque expresamente. Por ejemplo, un equipo japonés mostraba muy recientemente que dos índices distintivos de caos cuántico, de no-conmutatividad y de irreversibilidad temporal, son equivalentes para estados inicialmente localizados. Como es bien sabido, se ha estudiado mucho esta función desde el punto de vista de los operadores no conmutativos, en los que el producto no siempre es independiente del orden, luego esto pone en contacto dos áreas tan vastas como hasta ahora distantes [79].

Ante el auge experimental de la informática y termodinámica cuánticas, junto a toda la constelación de disciplinas asociadas, no van a faltar oportunidades de diseñar experimentos clave. Por otro lado, cada día es más claro que la segunda cuantización, que se ocupa de sistemas con muchos cuerpos, demanda un acercamiento espectral, tal como viene insistiendo Alain Connes y otros investigadores [80]. Además de su interés teórico, el alcance práctico de una tal teoría espectral podría ser extraordinario —piénsese sólo en la química; pero probablemente es la segregación de la irreversibilidad termodinámica lo que nos impide calar el fondo del asunto.

Se dice que el electromagnetismo es un proceso reversible, pero nunca se ha visto que los mismos rayos de luz vuelvan intactos a la bombilla. Lo irreversible es lo primario, lo reversible es sólo un ajuste de cuentas —lo que en absoluto le quita su importancia. Incluso las ecuaciones de Maxwell pertenecen a dos categorías termodinámicas distintas.

Pero a los físicos siempre les han fascinado los juguetes reversibles, independientes del tiempo, lo que algunos han visto como una postrera recurrencia de la metafísica. ¿Y qué si no? No existen sistemas cerrados ni reversibles en el universo, que son sólo ficciones. La metafísica es un arte de la ficción y la física ha continuado la metafísica con otros medios con lo coartada de que ahora sí descendía a la realidad. Y sin duda lo ha hecho, pero, ¿a qué precio?

Antes pusimos el ejemplo del corredor que atrapa la pelota como un contraste tanto para el cálculo estándar como para la idea hoy predominante de la inteligencia artificial. Esta forma directa de cálculo, que realizamos todos sin saberlo, podría ser la mejor ilustración del método del diferencial constante de Mathis. Mathis es el primero en admitir que no ha podido aplicar el principio incluso en muchos casos del análisis real, por no hablar del análisis complejo, del que ni siquiera se ocupa. No hay ni que decir que la comunidad matemática no se detiene a considerar propuestas tan limitadas.

Sin embargo el diferencial constante es la verdad misma del cálculo, sin idealizaciones ni racionalizaciones, y no deberíamos desestimar algo tan precioso incluso si no acertamos a ver cómo se puede aplicar. Si en las tablas de valores de la función no se halla un diferencial constante, aún podemos estimar la dispersión, y quien dice dispersión, también puede decir disipación o entropía.

De este modo se puede obtener una entropía intrínseca a la función, a su mismo cálculo, antes que a correlaciones entre sus diversos aspectos y partes. Esta sería, al nivel más estrictamente funcional, la madre de todas las entropías. Se debería poder aplicar este criterio al análisis complejo, al que Riemann hizo contribuciones tan fundamentales, y del que surgió la propia teoría de la función zeta.

El criterio del diferencial constante puede incluso recordarnos a los métodos de valores medios del propio cálculo elemental o la teoría analítica de números. Pero no es un promedio, es por el contrario el cálculo estándar el que trabaja con promedios —que sin esta referencia carecen de medida común. Los métodos de diferencias finitas ya han sido utilizados para estudiar la función por algunos de los más conocidos especialistas. Por lo demás, y para darle aún más interés al asunto, hay que recordar que ambos métodos no siempre dan los mismos valores.

Así se cumplirían simultáneamente varios grandes objetivos. Se podría conectar el elemento más simple e irreductible del cálculo con los aspectos más complejos que quepa imaginar. Algo menos apreciado, pero no menos importante, es que se pone en contacto directo la idea de función con aquello que no es funcional —con lo que no cambia. El análisis es el estudio de tasas de cambio, ¿pero cambio con respecto a qué? Debería ser con respecto a lo que no cambia. Este giro es imperceptible pero trascendental.

Conviene recordar que Arquímedes no inventó el cálculo, pero inventó el problema del cálculo, al buscar soluciones tendentes a cero. Mathis está rectificando un planteamiento que tiene ya más de 2.200 años.

El método directo se ríe en la cara del “paradigma computacional” y su fervoroso operacionalismo. La idea que ahora prima sobre la inteligencia como “capacidad de predicción” es completamente reactiva; de hecho ya ni se sabe si es la que queremos exportar a las máquinas o la que los humanos quieren importar de ellas. Percibir lo que no cambia, aunque no cambie nada, da profundidad a nuestro campo. Percibir sólo lo que cambia no es inteligencia sino confusión.

Por otra parte la definición de las condiciones de equilibrio, como suma y como producto, como perspectiva externa e interna, como aplicable a sistemas cerrados y abiertos, como cantidades intensivas y extensivas con sus posibles desgloses, como reversibilidad e irreversibilidad, están en el núcleo de los aspectos algebraicos complementarios a los aspectos analíticos que deben concurrir a hacer más explícito lo intrínseco en una comprensión más profunda de la función zeta.

Si nuestra lectura tiene algo de correcta, la limpieza y clarificación del enorme campo de la termodinámica y la entropía, con todo el trabajo que tiene por delante, estaría estrechamente asociada al avance en la comprensión de la función zeta. No parece una perspectiva nada halagüeña, puesto que se trata de un trabajo muy “sucio” si se lo compara con la ejercitación en los bellos jardines de la teoría de los números. Sin embargo la conexión entre ambos dominios puede verse grandemente allanada por nociones analíticas como la entropía intrínseca y la introducción de la irreversibilidad en el fundamento de la mecánica analítica.

*

En este libro hemos visto que los campos gauge o recalibrados de la teoría estándar, basados en la invariancia del lagrangiano, exhiben un feedback o autointeracción. Ni siquiera la esconden, y los teóricos llevan generaciones apartándosela de la cara como si fuera un moscardón, porque les parece una idea “tonta”. También hemos mencionado cómo el grupo de renormalización en la base de la teoría estándar y otros campos de la estadística, que contiene esta autointeracción, es el mismo que se utiliza en las redes neuronales de inteligencia artificial —se está utilizando externamente algo que el campo electromagnético ya tiene incorporado “de fábrica”. Llamémoslo, si se quiere, otro tipo de inteligencia natural.

Nadie creó los números enteros, y el hombre hizo todo lo demás. La función zeta es un candidato ideal para crear en torno a ella una red emergente de inteligencia artificial colectiva. En ella coinciden, a la par que la adición y la multiplicación, los aspectos internos y externos del acto de contar, lo que algunos llamarían el objeto y el sujeto. En este tipo de redes serían claves el uso o grado de aprovechamiento del sustrato físico, la relación entre componentes digitales y analógicos en ordenadores híbridos, las condiciones de equilibrio entre las distintas partes, los algoritmos que simulen la estructura de los enteros, las estructuras que tratan de percibirlos o filtrarlos, el espectro de correlaciones, y un gran número de aspectos que no podemos ni enumerar aquí.

De este modo tal vez se pueda crear una inteligencia no tan artificial distribuida, colectiva y emergente ajena a la inteligencia humana definida por propósitos, y sin embargo con posibilidad de comunicación con el ser humano a través de un acto común, contar, que también para los humanos existe a niveles muy superficiales —se entiende que el propósito es lo superficial. La intelección es un acto simple y la inteligencia una conexión o toma de contacto de lo complejo con lo simple, más que lo contrario.

Como ejemplo magno de totalidad analítica indigerible para los métodos modernos, la función zeta es todo un signo. Alguien, en una postura típica de la Era de la Información, podría decir que, si en esa función ya se encuentra cualquier información, más nos valdría buscar las respuestas allí en vez de en el universo. Pero lo contrario es lo acertado: para comprender mejor la función hace falta cambiar las ideas de cómo “funciona” el universo y el rango de aplicación de los métodos más generales. Esa es la gracia del tema.

Hasta ahora la física matemática de la que surgió toda la revolución científica ha estado aplicando estructuras matemáticas a problemas físicos para obtener una solución parcial por medio de una habilidosa ingeniería inversa. El cálculo mismo surgió en este proceso. Por el contrario, lo que tenemos aquí es procesos físicos que reflejan espontáneamente una realidad matemática para la que no se conoce solución. Lo cual ya nos invita a cambiar nuestra lógica de arriba abajo.

En cuanto a la información propiamente dicha, si con Shannon prevalece el aspecto secuencial del flujo de unidades de información, a medida que nos movemos hacia cantidades más masivas de datos aumenta imparablemente la relevancia de las correlaciones, que incluso tienden a constituirse en una esfera autónoma.

Los datos que usamos directamente son una cosa y los metadatos que se pueden elaborar con esos datos y su múltiples correlaciones con otros datos, otra muy diferente. Lo mismo puede decirse de una secuencia genética y el análisis multifactorial de las relaciones entre los distintos genes, etcétera. Una esfera de Riemann, o una superficie de Riemann con muchas capas como una cebolla, parecen representaciones mucho más adecuadas para la realidad multidimensional del análisis que la cada vez más insignificante relación de secuencias causales.

Sin embargo la función zeta encierra la relación más básica entre la secuencia más simple de todas, la de los números enteros, y el mundo infinito de correlaciones entre sus elementos. En ningún momento se debe perder de vista el elemento más primitivo de la cuestión, antes al contrario. Toda la atención a lo insondablemente simple es poca. No deberíamos olvidar de dónde vienen los problemas, ni en la teoría de la información, ni en el cálculo, ni en la mecánica.

Justo cuando menos importancia podemos darle a la causalidad mecánica, más atención deberíamos prestarle, pues en realidad siempre se trató de un asunto global, no local, y eso ha de tener relevancia incluso donde menos esperamos. Si la inexplicada dinámica de la zeta no es consistente con los fundamentos de la mecánica, cambiemos la mecánica, pues la comprensión del problema lo merece. ¡Para una vez que en física canta la Naturaleza, en vez del espíritu de las leyes!

Hoy ya no se trata tanto de dominar la Naturaleza como de dominar la tecnología, puesto que esta presenta ya más potencial de destrucción para el ser humano que la primera. Sin embargo, dominar la tecnología demanda liberar la Naturaleza de restricciones sobreimpuestas por una tecnociencia demasiado instrumentalizada desde su comienzo. Considerada la historia de la ciencia en su conjunto, tal vez no es tan sorprendente que ahora la vengadora sea la más desinteresada de todas las ciencias, la inútil pero eterna teoría de los números.

*

En un capítulo anterior dijimos que el concepto de orden no es menos subjetivo que el de armonía; ni que decir tiene que esto podría dar lugar a una interminable discusión. Hay muchas definiciones formales del orden en matemáticas para muchos casos completamente diferentes, pero difícilmente podría discutirse que la base de todos está en los números naturales. De hecho son ellos los que permiten que la matemática pueda ordenar múltiples órdenes de cosas.

Los aspectos paradójicos de la entropía están relacionados con el carácter relativo de la noción de orden. Lo más ordenado tiene más potencial para ser desordenado que lo que ya está en completo desorden, lo que puede traducirse en la paradoja social de la entropía: cuando más compleja es la sociedad, más desorden parece que produce. Por otra parte, también vimos antes que la entropía no tiene porqué ser la mejor medida de la complejidad, y que la densidad de flujo de energía puede ser más reveladora. Se trata de cuestiones de gran alcance que habría que estudiar con gran cuidado.

Podría incluso decirse que el azar puro y duro es el orden supremo, y algo o mucho de esto es lo que parece sugerir la disposición de los primos dentro del sistema de los números naturales, tan caóticos localmente y con una tan llamativa estructura global —o como ha dicho un matemático, creciendo como malas hierbas y a la vez marchando como un ejército.

La función zeta es una transformación de la tradicional serie armónica (1+1/2+1/3+1/4…) para que el resultado no resulte divergente. La serie armónica, atribuida en Occidente a los pitagóricos y también conocida en China en una época similar, nos da los armónicos añadidos a la longitud de onda fundamental de una cuerda que vibra, y nos permite entender los intervalos musicales, las escalas, la afinación y el timbre.

Ha sido precisamente dentro de la teoría musical que Paul Erlich ha combinado la entropía de Shannon con la teoría de la armonía para definir una entropía armónica relativa. La entropía armónica, “el modelo más simple de consonancia… responde a la pregunta ¿cuán confundido está mi cerebro cuando escucha un intervalo? Para responder a esta pregunta se asume sólo un parámetro” [81].

El concepto de entropía armónica de Erlich profundiza la línea de investigación abierta por el ingeniero y psicoacústico Ernst Terhardt, quien ya había introducido nociones como la de tono virtual. Los tonos virtuales, en contraste con el los tonos espectrales, son aquellos que el cerebro extrae incluso si la señal está encubierta por otros sonidos. El oído tiene una fuerte propensión a ajustar lo que escucha en una serie armónica con escasas variantes. La entropía armónica puede considerarse como una suerte de “disonancia cognitiva”, pero también está relacionada con la incertidumbre intrínseca de las series temporales.

La entropía armónica tiene una sólida base teórica que hace un uso extensivo de la función zeta de Riemann. Se cierra así un círculo que no muchos conocen, puesto que el propio Riemann realizó un estudio memorable, aunque inacabado, de la mecánica del oído que ya consideraba los aspectos globales de la percepción auditiva y estaba mucho más avanzado conceptualmente que el modelo reduccionista de Helmholtz que le sirvió de referencia.

A Riemann ya le llamaba la atención, entre otras muchas cosas, la increíble sensibilidad de los detectores del oído interno, que hoy se sabe que pueden captar desplazamientos menores que el tamaño de un átomo, o de un 1/10 de una molécula de hidrógeno. ¿Sería posible ilustrar el comportamiento de la función zeta con una analogía acústica precisa? ¿Podemos llevarlo hasta esa zona donde se funden entendimiento y percepción?

Ciertamente, las cuestiones relativas a la sensibilidad no están entre las que más importan a los matemáticos; pero aquí es fácil ver que estamos ante un problema con varios niveles de interés añadido, para legos y expertos por igual. Si la matemática profunda alcanza nuestra percepción, igual de profundamente cambia nuestra percepción de la matemática, algo que nunca ha sido tan necesario como ahora. Existe una amplia gama de experimentos psicoacústicos para tentar hasta dónde se puede llegar. Erlich usa las series de Farey, una de las formas más simples de la ilustrar la hipótesis de Riemann.

Diversos físicos han mostrado interés por la conversión de la función zeta y los números primos en sonido; pero los experimentos de los que hablamos no tienen por qué referirse directamente a esta función, sino antes que nada a las cuestiones más genéricas de complementariedad interna entre tonos espectrales y virtuales. Los límites para la sonificación de los aspectos aritméticos dependerían del alcance de esta complementariedad.

La conversión de la función zeta en algo perceptible en términos de entropía armónica debería ser buscado con tanto o más afán que los sistemas físicos capaces de replicarla, además de tratarse de un empeño más unitario. De hecho no son problemas del todo diferentes aunque se nos manifiesten como extremos subjetivo y objetivo de la cuestión, lo que no deja de ser engañoso.

Desde el punto de vista más utilitario de las redes neuronales y la inteligencia artificial, cada día es más aceptada la visión de que hay una continuidad básica entre la percepción y los llamados aspectos cognitivos “superiores”. Las ideas de Riemann sobre la audición como abstracción analítica son justamente las que se aplican ahora, 150 años más tarde, a los modelos computacionales que intentan reproducirla.

Redes distribuidas como la que antes mencionábamos, por ejemplo, carecerían de algo esencial sin una capacidad de filtrar o percibir los números análoga a la que tienen el oído y el cerebro al realizar su selección y reinterpretación de las señales acústicas. El inacabado estudio del oído de Riemann, que llama a la analogía “la poesía de la hipótesis”, es de 1866. La ley psicofísica, diferencial y logarítmica, de Weber-Fechner data de 1860; el estudio del oído de Helmholtz, de 1863. En 1865 Clausius hace pública la primera definición de la entropía.

Sin duda Riemann, como era su costumbre, andaba detrás de algo profundo e importante —aunque habría tenido que esperar al menos cien años para juntar debidamente las piezas. Hoy ya podemos hacerlo, aunque no sin realizar primero algunos simples, pero fundamentales ajustes.

Tampoco hay duda de que la audición tiene unos límites físicos, pero también cognitivos y psicofísicos, y que éstos últimos actúan sobre los primeros de forma tal que nos encontramos ante umbrales variables definidos por la entropía armónica. Dentro de esa interacción se encontraría la función zeta.

¿Hay un lugar para la matemática de la armonía, basada en la proporción continua, dentro de este contexto de la serie armónica y su evolución en el espacio ilimitado del análisis? Decididamente no, si se piensa en relaciones aritméticas explícitas; al menos hasta ahora los matemáticos no han encontrado nada digno de mención. Volveríamos así a la hipótesis que asegura que de los Elementos de Euclides se derivan dos tradiciones diferentes que no se mezclan más que el agua y el aceite.

En el mundo de las apariencias, el agua y el fuego no entran en contacto salvo a la manera de una nube o un vapor. Desde el primer capítulo nos hemos estado preguntando cuáles pueden ser las relaciones de la proporción continua con el análisis y parece que todavía no hay una respuesta definitiva sobre el tema, pero desde luego uno de los hilos sería las conexiones de dicha proproción con la entropía, el cálculo elemental y la teoría algorítmica de la medida.

No hace falta decir que la diferencia entre números algebraicos y trascendentales, tan importante en el cálculo y la aritmética, es irrelevante para la acústica y la mayoría de las situaciones prácticas.

Así, la serie armónica y el análisis, el mundo de las ondas que refleja las formas, estarían del “lado del agua” y de la reversibilidad; la proporción continua, con su capacidad de combinar lo continuo y lo discreto, del “lado del fuego”, la entropía y la irreversibilidad.

Por supuesto que análisis y síntesis se presuponen el uno al otro. La función zeta, una totalidad analítica con un polo, es en sí misma una prodigiosa síntesis, que además se presta a todo tipo de transformaciones, alternantes, simétricas, etcétera. Ahora bien, el principal componente sintético en la ciencia moderna se esconde en la idea misma de los elementos, como bloques fundamentales de construcción, en física átomos y partículas. Con ellos se creyó innecesario buscar otros recursos constructivos y sintéticos.

Esto es una herencia del atomismo fisicalista a la que aún debe sobreponerse la teoría de la información, puesto que la idea de elementos independientes siempre será menos restrictiva que las redes de correlaciones observables o empíricas.

Dejaremos este tema en suspenso y en su propia nube, para tratar de recordar lo que está más allá de la complementariedad, del análisis y la síntesis, del objeto y el sujeto. El ejemplo del cálculo informal del corredor tras la pelota nos dice que tanto la pelota como el corredor se desplazan mutua y correlativamente con respecto a lo que no se mueve —al Medio Invariable.

Este es el verdadero eje invisible de la actividad, puesto que el sujeto no es menos pensamiento que lo pensado. ¿Qué más se puede decir? Pero el pensamiento alado huye siempre de esa zona de calma, en eso consiste precisamente su vida. Seguramente esto es demasiado simple para nosotros, y por eso hemos descubierto e inventado la serie armónica, la proporción continua, la entropía o la función zeta.

*

La breve memoria de ocho páginas Sobre el número de primos menores que una cantidad dada de Bernhard Riemann se publicó en noviembre de 1859, el mismo mes en que aparecía El origen de las especies. Ese mismo año también conoció el arranque de la mecánica estadística con un precursor trabajo de Maxwell, y el punto de partida de la mecánica cuántica con la espectroscopia y la definición del cuerpo negro por Kirchhoff.

Siempre he tenido la oscura certeza de que en el reconcentrado estudio de Riemann, tan libre de cualquier propósito ulterior, hay más potencial que en toda la mecánica cuántica, la mecánica estadística y su hija la teoría de la información, y la teoría de la evolución juntas; o que al menos, en un secreto balance de cuentas, constituye un contrapeso para todas ellas. Aunque si ayuda a reconducir la fatal dinámica de infonegación de la realidad ya habrá sido suficiente.

Estos tres o cuatro desarrollos mencionados son después de todo hijos de su tiempo, teorías coyunturales y más o menos oportunistas. Es cierto que Boltzmann esperó y desesperó para que se admitieran los supuestos de la teoría atómica, pero toda su batalla la tenía con los físicos, porque los químicos ya llevaban tiempo trabajando con moléculas y átomos. Sin embargo en matemáticas los desfases operan a otra escala.

Verboso superventas, El origen de la especies se discutía en cafés y tabernas el mismo día de su presentación; pero la hipótesis de Riemann, aun siendo sólo la versión más fuerte del teorema de los números primos, no hay nadie que sepa por dónde cogerla después de 160 años. Está claro que hablamos de longitudes de onda diferentes.

¿Y qué tiene que ver un texto con el otro? Nada de nada, pero aún presentan un inasible punto de contacto y extremo contraste. La lectura habitual de la teoría de la evolución dice que el motor del orden apreciable es el azar. La hipótesis de Riemann, que los números primos están repartidos tan aleatoriamente como es posible, pero que ese carácter aleatorio esconde en sí mismo una estructura de riqueza infinita.

Los matemáticos, incluso viviendo en su propio planeta, van apercibiéndose poco a poco de que las consecuencias de probar o refutar la hipótesis de Riemann podrían ser enormes, inconcebibles. No es algo que pase todos los domingos, ni todos los milenios. Pero no hace falta pedir tanto: bastaría con comprender debidamente el problema para que las consecuencias fueran enormes, inconcebibles.

Y lo inconcebible empieza a ser más concebible precisamente a medida que nos adentramos en “la Era de la Información”. Lo inconcebible podría ser algo que afectara simultáneamente a nuestra idea de la información, a su cálculo y a su soporte físico. Al software y al hardware: un cortocircuito en toda la regla.

Probablemente la información no es el destino, pero la función zeta puede ser el destino de la Era de la Información, su embudo y horizonte de sucesos. Esto nos alejaría de los fantasmas de la singularidad y nos acercaría a otro paisaje. La función zeta tiene un polo simple que es dual con los ceros —los ceros reflejan una información que la unidad no puede dar porque en ella deja de haber resultados finitos. Se insinúa así una enigmática envolvente de reflexividad para la galaxia informativa.

El fondo del problema no es una cuestión técnica. Pero muchas de sus consecuencias sí, y no sólo técnicas. Este desarrollo ha ido en gran medida a contrapelo del resto de los desarrollos científicos, y su asimilación afectaría profundamente a la dinámica del sistema en su conjunto.

Como los propios números primos, en la cronología y el ordenamiento temporal los acontecimientos no pueden parecer más fortuitos, pero desde otro punto de vista parecen destinados por el todo, empujados por el reflujo desde todas las orillas a encajar en el mismo instante en que tuvieron lugar. Riemann vivió en Alemania en mitad del siglo de Hegel, pero desde mediados de la centuria la oposición al idealismo no podía ser mayor en todos los ámbitos y en las ciencias en particular. El péndulo había tornado con toda su fuerza y la sexta década del siglo marcaba el apogeo del materialismo.

Hijo también de su tiempo, Riemann no pudo dejar de sentir agudamente las contradicciones decimonónicas del materialismo liberal; pero el matemático alemán, también físico teórico y experimental próximo a Weber, así como profundo filósofo natural, fue un heredero de Leibniz y Euler que continuó su legado por otros medios. Su convicción básica era que el hombre no tiene acceso a lo infinitamente grande, pero al menos puede acercarse a ello por el estudio de su contrapunto, lo infinitamente pequeño.

Eran años prodigiosamente fecundos para la física y la matemática. Riemann murió a los 39 años y no tuvo tiempo de articular una síntesis a la altura de sus concepciones y permanente búsqueda de la unidad. Síntesis entendida no como construcción arbitraria, sino como desvelamiento de lo indivisible de la verdad. Pero lo logró donde menos cabía esperarlo: en la teoría analítica de los números. Una síntesis provisional que ha dado pie a la más célebre de las condiciones: “Si la hipótesis de Riemann es cierta…”

Esta síntesis tan inopinada y condicional vino a través del análisis complejo, justo en los mismos años en que los números complejos empezaban a aflorar en física buscando, igual que átomos y moléculas, más grados de libertad, más espacio para moverse. El rol de los números complejos en física es un tema siempre postergado puesto que se supone que su única razón de ser es la conveniencia —sin embargo a la hora de abordar la función zeta y su relación con la física no hay matemático que no se vea forzado a interpretar de algún modo esta cuestión, que los físicos asocian generalmente con rotaciones y amplitudes.

Pero el análisis complejo es sólo la extensión del análisis real, y para llegar al núcleo del asunto es obligado mirar más atrás. La síntesis condicional de Riemann nos habla de algo indivisible, pero se apoya aún en la lógica de lo infinitamente divisible; no ya para resolver el famoso problema, sino simplemente para estar en sintonía con él, tendría que entenderse en los términos de lo indivisible mismo, cuya piedra de toque es el diferencial constante.

¿Hay algo más allá de la información, de la computación, del ordenador? Claro que sí, lo mismo que hay más allá de las Simplégades. Una realidad mucho más vasta e indivisa.

Referencias

[69] K. K. Nambiar, Information-theoretic equivalent of Riemann Hypothesis (2003).

J. R. Higgins, The Riemann Zeta Function and the Sampling Theorem (2009)

Er’el Granot, Derivation of Euler’s Formula and ζ(2k) Using the Nyquist-Shannon Sampling Theorem (2019)

[70] K. K. Nambiar, Electrical equivalent of Riemann Hypothesis (2003)

Guðlaugur Kristinn Óttarsson, A ladder thermoelectric parallelepiped generator (2002)

Danilo Merlini, The Riemann Magneton of the Primes (2004)

M. V. Berry, Riemann zeros in radiation patterns: II.Fourier transforms of zeta (2015)

B. Van der Pol, An electro-mechanical investigation of the Riemann zeta function in the critical strip (1947)

[71] Matthew Watkins, Number Theory and Entropy; Number Theory and Physics Archive

[72] Rod Swenson, M. T. Turvey, Thermodynamic Reasons for Perception-Action Cycles

[73] Luciano Floridi, What is the Philosophy of information?

[74] O. Shanker, Entropy of Riemann zeta zero sequence (2013)
Alec Misra, Entropy and Prime Number Distribution; (a Non-heuristic Approach) (2006)

[75] Piergiulio Tempesta, Group entropies, correlation laws and zeta functions (2011)

[76] Gian Paolo Beretta, What is Quantum Thermodynamics (2007) También puede visitarse la página http://www.quantumthermodynamics.org/

[77] Miguel Iradier, La estrategia del dedo meñique

[78] Ian Wright, Notes on a Hegelian interpretation of Riemann’s Zeta function (2019)

[79] Ryusuke Hamazaki, Kazuya Fujimoto, and Masahito Ueda, Operator Noncommutativity and Irreversibility in Quantum Chaos (2018)

[80] Ali H. Chamseddine, Alain Connes and Walter D. van Suijlekom, Entropy and the spectral action (2018)

[81] Harmonic Entropy, Xenharmonic Wiki

The Riemann Zeta Function and Tuning, Xenharmonic Wiki

Paul Erlich, On Harmonic Entropy, con comentario de Joe Monzo

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *