LA ESTRATEGIA DEL DEDO MEÑIQUE

Frente al tsunami tecnológico

Hay una guerra tecnológica, pero el que crea que es sólo tecnológica ya la tiene perdida. Ahora China parece haberle tomado la delantera a los Estados Unidos en la lucha por el control de los canales de comunicación, y muchos lo celebrarían si no fuera porque esta quinta generación de telefonía no hace sino intensificar lo que ya era a todas luces un exceso.

No sólo nos oponemos al despliegue indiscriminado de tecnologías sino que, en un artículo ya lejano, incluso sugeríamos otra línea de investigación biofísica para evaluar la incidencia de la radiación electromagnética en la salud humana y del resto de los seres vivos [1]. Está claro que las grandes corporaciones que promueven este despliegue sólo están preocupadas por las cuotas de mercado, pero, ¿quién dice que dentro de unos años no puedan ser objeto de gigantescas reclamaciones por daños y perjuicios?

Ya vemos los intentos norteamericanos de culpabilizar a China del coronavirus; si no han emprendido ya una campaña para demostrar la nocividad de la nueva generación y formular demandas trillonarias, es simplemente porque 1) el despliegue apenas ha comenzado y es demasiado pronto para acumular evidencias en su contra, 2) le cortaría las alas a sus propios futuros desarrollos, y 3) igualmente podría aplicarse en retrospectiva a las generaciones anteriores y a las compañías americanas.

Y aun así, se puede estar seguro de que hay gabinetes de abogados discutiendo sobre cómo podría orquestarse una guerra legal a gran escala. Pero, dejando a un lado la vileza de este tipo de planteamientos, creo que todos estaríamos más agradecidos a quien nos demostrara que este tipo de radiación es o no es segura que a quien nos la quiera meter como por un embudo.

Tal vez el liderazgo de la 5G sea bueno para los intereses estratégicos de China, pero sería mucho mejor si esos intereses coincidieran con los de la mayoría de los seres humanos. Y la mayoría no quiere más y más tecnología, sino, más bien, algún tipo de protección contra ella; cualquiera debería entenderlo.

China, por ejemplo, contrata hoy a unos 50.000 empleados extranjeros, especialistas e ingenieros para que conduzcan una gran parte de la Investigación y Desarrollo que se realiza en todo el país. El dominio en la tecnología 5G, toda una exhibición de músculo, ha echado mano de una buena parte de toda esa fuerza. Pero seguro que sólo se necesita una pequeña fracción de tal número para realizar una conquista mucho más importante que la de una efímera ventaja tecnológica.

Hoy el tsunami tecnológico es sinónimo de revolución digital y de una categoría, la información, que parece envolverlo todo. En ella confluyen y por ella pasan todos los desarrollos anteriores de la ciencia y la tecnología. Hasta los físicos piensan ya en el universo como en un gigantesco ordenador; mucho se discutió sobre si el mundo estaba hecho de átomos o historias pero al final se decidió que estaba hecho de bits y asunto resuelto.

En realidad el universo parece ya importar muy poco. Los cohetes están casi igual que hace cincuenta años, pero en ese lapso la capacidad de los ordenadores se multiplicó por miles de millones. De aquí la sensación para el usuario de que es el mundo el que se quiere meter en el ordenador. El desarrollador, por su parte, piensa muy de otra manera.

La información no es un concepto poderoso, sino extremadamente gaseoso, y es por ello que sirve para lo que haga falta. Hoy no parece que podamos ponerle límites, y sin embargo los tiene de todo tipo: materiales, mentales y operacionales, por mencionar sólo los más evidentes. Si no los tuviera no se hablaría de la economía de la información.

¿Para qué sirven hoy las tecnologías de la información? Para reprogramar a los humanos que las usan. La ciencia y la técnica siempre lo han hecho, pero ahora podemos comprobarlo como nunca.

Lo importante de la teoría de la información no son tanto sus definiciones sino la dirección que le impone a todo; cambiar esa dirección equivale a cambiar la de la tecnología en su conjunto. La dirección inequívoca, que hereda evidentemente de la mecánica estadística, es la de descomponerlo todo en elementos mínimos que luego se pueden recomponer a voluntad.

Para la mecánica estadística no hay una dirección en el tiempo: si no vemos a un jarrón hecho añicos recomponerse y volver sobre la mesa, es sólo porque no vivimos el tiempo suficiente; si un cuerpo deshecho en pedazos por una explosión no se rehace y vuelve a andar como si nada, es sólo porque no estamos en condiciones de esperar 10 elevado a 10.000.000.000 de años o algo similar.

A la teoría de la información no le concierne en absoluto la realidad del mundo físico, sino la probabilidad en sus elementos constituyentes, o más bien la probabilidad dentro de su contabilidad de los elementos constituyentes. El mismo mundo físico es por contra una fuente de recursos para la esfera del cálculo o computación, que querría ser totalmente independiente del primero.

¿Es esta visión estadística una postura neutral o es simplemente un pretexto para poder manipularlo todo sin el menor compromiso? No hay una respuesta única para esto. La mecánica estadística y la teoría de la información se aplican con éxito en innumerables casos, y en innumerables casos no puede ser más irrelevante. Lo preocupante es la tendencia que ya impone.

Por mi parte estoy más que convencido de que un cuerpo destrozado no se recompondrá espontáneamente nunca, por más fabuloso que sea el periodo de tiempo que escojamos. Y no se trata de retórica; más bien los grandes números son la retórica de la probabilidad; una retórica tan inflada como pobre, porque ignora la interdependencia de las cosas.

Aunque en principio no deberíamos confundir planos de discurso científico con otros abiertamente ideológicos, en la práctica observamos una suerte de armonía preestablecida entre el liberalismo y, por ejemplo, la economía neoclásica, la presente síntesis neodarwinista de la evolución, o la mecánica estadística y la teoría de la información. No es sólo que el poder tienda a adueñarse del sentido de cualquier posible herramienta; las teorías citadas son ya desde antes de su eclosión criaturas empolladas en el mismo nido y bajo la misma atenta mirada.

Como no podía ser menos, en el ambiente neoliberal actual el vínculo aún es mucho más explícito y exagerado. En el campo ahora en pleno auge que trata de puentear mecánica cuántica y teoría de la información, ya se ha delineado una «termodinámica cuántica de los recursos sin temperatura de fondo, tal que ningún estado en absoluto es gratis«. Se trata de concebir un sistema cuántico en que la información es usada como moneda para comerciar entre los distintos recursos materiales cuantificados como estados. La iniciativa parte del University College London pero igualmente podría haber salido de la London School of Economics [2].

Está claro que hay más que afinidad; hay consanguinidad, hay una misma lógica, hay un mismo destino. El mundo real sólo es un instrumento para el cómputo, y el cómputo para el comercio. Y el comercio, a esta escala totalitaria, existe para la concentración del capital y éste para la concentración del poder. Se trata de una lógica despreciable y demencial, pero hemos permitido que se instale por defecto como nuestro sistema operativo, gracias, entre otras cosas, a que hemos aceptado una muy mal entendida «neutralidad de la ciencia».

El problema es mucho más difícil de calar a fondo puesto que no sólo afecta a las ciencias blandas, descriptivas o estadísticas sino que está ya inscrito desde el comienzo del mundo moderno en el sesgo utilitario de las ciencias más duras como el cálculo o la mecánica, que crean una disposición del conjunto de la que ya no acertamos a salir. De hecho la disposición es el todo para el que existe cualquier número de elementos.

Hay totalidades abiertas y naturales, y hay totalidades artificiales y cerradas que gravitan hacia la muerte. El mercado globalizado actual es casi lo diametralmente opuesto de «un sistema abierto». La ficción de una «sociedad abierta» se mantiene por una narrativa horizontal en términos de competencia que se estima conveniente para los «estados átomicos» del cuerpo social, léase individuos. Pero existe una lógica vertical, mucho más implacable y concretamente estructurada, que piensa en términos de marketing, ingeniería social y ecología de poblaciones —en la explotación de nichos y ecosistemas.

La visión horizontal pretende descomponerlo todo en partes mientras que la vertical se concibe desde el comienzo en términos del todo. La expresión «el pez grande se come al pequeño» tiene significados muy diferentes según el eje de coordenadas que escojamos.

La narrativa del eje horizontal de una colección desestructurada es para las masas; la lógica vertical de un todo estructurado, para el flamante tecnofeudalismo y tecnofascismo financieros. Por eso oímos hablar continuamente de «los mercados» pero nunca oímos hablar de la ley de potencias que rige la distribución de la riqueza o el tamaño de las compañías, y que muestra de manera ineluctable que el 80 por ciento de toda la tarta la posee un 20 por ciento, el 80 por ciento de ese 80 por ciento lo tiene la quinta parte de la quinta parte, y así sucesivamente. Idealmente, esta ley tiende a una singularidad [3].

Evidentemente, la lógica de la globalización ha sido hasta ahora una lógica totalitaria de todo o nada por más que ahora se encuentre en punto muerto. En cualquier caso, se da la circunstancia de que los discursos en boga tienden a confundir el análisis de la totalidad con el discurso totalitario, y promueven el atomismo social como si fuera más igualitario, cuando es el átomo social el que ha sido moldeado desde arriba, para mayor gloria de la confusión. La doble moral ha existido siempre para esto.

La dualidad todo/partes funciona igualmente para los dos extremos del desarrollo de las tecnologías de consumo, la minería de datos o esas plantaciones de la mente que son las redes sociales: los desarrolladores disponen y le dan forma al todo, los consumidores interactúan con las partes. Lo que resuena con los modos de minorías y mayorías de los que ya habló Simondon a propósito del circuito tecnológico.

En otros artículos también hemos hablado del doble circuito en la cosmovisión científica, establecido entre unas ciencias duras como la física, basadas en la matemática y la predicción, pero sin capacidad de describir la realidad y unas ciencias descriptivas y narrativas, como la cosmología o la teoría de la evolución, que procuran rellenar el gran vacío que media entre las leyes abstractas, la naturaleza y el mundo real. Si las primeras hacen el trabajo fuerte, las segundas tienen un papel preponderante en nuestro imaginario.

Haciendo la más burda reducción al presente, diríamos que las primeras son como el hardware y las segundas el software, con los aspectos estadísticos, como los de la teoría de la información, mediando entre ambos.

Estos planos de dualidad se solapan y reproducen a diversos niveles y dificultan enormemente la orientación y el juicio sobre el conjunto del fenómeno tecnocientífico. Pero probablemente la mayor de todas las oposiciones es la que más ha retrocedido en nuestra consciencia, la que existe entre el hombre y la naturaleza, sin entender privativamente al primero como masculino ni a la segunda como femenina.

Ni la ciencia ni la técnica han creado por sí solos esta oposición, sino, más bien al contrario, ciencia y la técnica son el desarrollo encauzado de unas determinadas pasiones. Sin embargo esta economía de pulsiones se ha transmitido al interior de los principios y se ha perpetuado en «el espíritu de las leyes» y sus valoraciones.

¿Qué puede parecer hoy más natural que las tres leyes de la mecánica de Newton? Pero las leyes de la mecánica, como bien advirtió Poincaré, no son ni ciertas ni falsas, sino sólo una forma de disponer del conjunto. Podríamos prescindir por completo del principio de inercia, sustituirlo por un principio de equilibrio dinámico, y seguir teniendo los mismos conocimientos sobre los fenómenos observables y sus leyes correspondientes [4]. Entonces, ¿para qué cambiarlos?

Pues para tener otra visión del conjunto, de ese todo desde el que se quiere dar forma a las partes y a los individuos. Aparte de que la ciencia no es sólo estudio y dominio de la naturaleza externa, sino que también es síntoma de nuestra naturaleza interna. Como en todo fenómeno de superficie, siempre hay una pugna en lo que quiere expresarse a través de ella y lo que quiere abrirse paso.

Las leyes de la mecánica de Newton se resumen en que nada se mueve si no lo mueve otra cosa. Lo que es una forma fina de decir que todos somos mierda muerta, a expensas de ser accionados por un Dios, una explosión inicial, una mano invisible o la providencia del vivo de turno. Las consecuencias de esto llegan hasta hoy. Parece mentira que hayamos podido suscribir tranquilamente esto durante un tercio de milenio, pero es lo que tenemos.

En realidad, todo lo que hoy se dice hoy sobre la crisis medioambiental o el cambio climático palidece en comparación con la disposición mecánica de la naturaleza que hemos aceptado. Si no nos rebelamos en lo más íntimo contra esto, difícilmente haremos algo con todo lo demás, que son sólo subproductos. Nuestra relación externa con la naturaleza empieza siempre por cómo la entendamos. Y no sólo con la naturaleza.

Lo que se ha postulado de la naturaleza, con el sentimiento cómplice del sabio de aumentar su sensación de poder, se extiende luego de manera gradual pero incontrolada al interior del aparato social a través del cada vez más denso entramado tecnológico. Y que no se diga que los desarrollos más recientes de la ciencia cambian el panorama porque no son sino un refinamiento de los mismos presupuestos, buscando sacar mayores rendimientos.

La ciencia, en lo esencial, no ha cambiado nada, lo cual podría ser una gran noticia si se piensa que aún queda algo en la récamara. La ciencia no puede dejar de ser un fenómeno de superficie, pero tampoco puede dejar de hacerse eco de impulsos más profundos. En ella aún pueden transformarse decisivamente tanto la relación entre sujeto y objeto como nuestra concepción de la totalidad.

Para decirlo claramente, la ciencia tiene una parte noble y una parte que está al servicio del poder. ¿Podemos rescatarla de ser un juguete de los instintos más bajos? Esto depende en gran parte de los científicos mismos, aunque no sólo de ellos. No están menos divididos que las masas, pues servir a dos amos a la vez siempre es más que difícil, y en su seno se entrecruzan todas las corrientes.

Las cuestiones gemelas son qué queremos hacer con lo que sabemos, y qué queremos saber con lo que podemos hacer. Ciencia y tecnología formaron siempre un continuo aunque hoy este parezca revolverse sobre sí mismo con mucha más rapidez. Esto tiene mucho de ilusión porque los conceptos más importantes han cambiado muy poco; y justamente por eso, podría aproximarse una inversión. O no.

Nuestro liberal-materialismo, o materialismo liberal, pretende «darle vida» a una «naturaleza muerta» para así cumplir su círculo virtuoso de «mejorar el mundo» y realizar la autotrascendencia de la especie. Este proceso que oscila entre un falso polo ideal y otro falso polo material se cumple a través de un ciclo recurrente de idealizaciones y racionalizaciones al que se cree que no escapa nada y con el cual se podría barrer el ilimitado espectro de la realidad.

El trasfondo idealista de la teoría y la filosofía de la información no puede ser mayor y exuda por todos sus poros. No es de extrañar, puesto que hasta la mecánica clásica lo tiene, y la única forma que se encuentra de «superar» esa herencia es mediante la compulsiva aplicación práctica a los objetos materiales. Lo mismo vale para el circuito diseñador-usuario en el uso de las tecnologías.

Pero la realimentación que crean teoría y práctica en la tecnociencia no tiene porqué ser un círculo virtuoso; puede ser también un círculo de restricción creciente y reducción de horizontes. A este respecto tenemos todavía las nociones más ingenuas, que no nos permitirán ir mucho más lejos si no aprendemos ciertas lecciones básicas.

La idealización y la racionalización son como las míticas rocas Simplégades que entrechocaban destruyendo a navíos y navegantes; sólo el que comprenda sus peligros y las evite podrá pasar al otro lado.

Sin duda la neobabilónica ciencia moderna es la inversión de Platón y Pitágoras y aquello del «todo es número», pero aun invertida sigue siendo su heredera. Hoy los números ya no parecen existir para entender el mundo, sino para triturarlo y estrujarlo, y con él a todos nosotros.

En esta indescriptible situación, en que la matemática ya es la última puta para las tareas más bajas —para lo que es tan sucio, que sólo gracias a los números se puede ignorar-, necesitamos otra visión radicalmente diferente del número y la matesis, de la teoría y la práctica, del todo y las partes, de la cantidad y la calidad, del conocimiento y la racionalidad.

Puesto que todo es hipérbole en la esfera de la información, confrontémosla con una hipérbole aún mucho mayor, que sin embargo parte de una fórmula sorprendentemente simple.

Una totalidad analítica: la función zeta de Riemann

Se ha dicho que si se resolviera la hipótesis de Riemann, se podrían romper todos las claves de criptografía y ciberseguridad; nadie ha especificado como podría suceder esto, pero al menos nos recuerda la estrecha relación entre un problema hasta hoy intratable, la criptografía y la teoría de la información.

Tales especulaciones sólo se basan en el hecho de que la función zeta de Riemann establece una conexión entre los números primos y los ceros de una función infinitamente diferenciable que brinda el método más potente para explorar este campo, siendo los números primos la base de la criptografía clásica. Pero la función zeta es mucho, mucho más que cualquier tipo de aplicación criptográfica; ella misma parece ser un código, o incluso un código de códigos [5].

Existe incluso un teorema, debido a Voronin, que demuestra que cualquier tipo de información de cualquier tamaño que se pueda almacenar existe con toda la precisión que se quiera dentro de esta función —y uno una sola vez, sino un número infinito de veces. Otra cosa es hasta qué punto esa información se puede hacer efectiva, sobre lo que se han hecho diversos estudios. A esto se le denomina la universalidad de la función zeta [6]. Por la demás, la función zeta de Riemann es sólo el caso medular dentro de un número infinito de funciones similares.

Uno también podría encontrar cualquier tipo de información en un ruido blanco; pero el ruido blanco carece de cualquier estructura, mientras que la función zeta tiene una estructura infinita. Si Hegel hubiera conocido ambos casos hubiera hablado de falsa y de verdadera infinitud; veremos que estas apercepciones hegelianas no están aquí fuera de lugar.

Parece que hay un «código zeta» que podría ser objeto de la teoría algorítmica de la complejidad; pero esta función, íntimamente ligada al hecho elemental de contar, se resiste a ser un objeto. No se deja descomponer en elementos, razón por la que todos los métodos habituales han resultado ser patéticamente inadecuados. La zeta permanece irreductible. Es la gran esperanza blanca para todos los que no se identifican con ese ni con ningún otro color. La esperanza blanca de los que no quieren ser convertidos en ruido blanco.

Hasta ahora todos los ceros no triviales de la función computados, que ascienden a muchos billones, han caído exactamente en la línea crítica, con una parte real igual a 1/2; pero aún no se ha encontrado una razón para que esto deba ser así, y podría haber todavía un número infinito de ceros fuera de este valor.

Si pusiéramos a todas las partículas del universo del «ordenador cósmico» con el que ya muchos sueñan a calcular ceros, y tuvieran todo el tiempo del mundo, aún podríamos quedarnos esperando una respuesta. Según dicen, Turing había diseñado una máquina casera para falsar la hipótesis; ignoro si tenía manivela.

Es inevitable que la palabra «infinito» aparezca reiteradamente al hablar de este problema. La función zeta tiene un polo singular en la unidad y una línea crítica con valor de 1/2 en la que aparecen todos los ceros no triviales conocidos y por conocer, con una dualidad entre ceros y polo: o abordamos el problema desde el punto de vista de la unidad, o desde el punto de vista del infinito; pero es sólo en la unidad que la función deja de tener valores finitos. Hasta ahora los matemáticos, que en un sentido muy definido descienden de la tradición del cálculo infinitesimal inaugurada por Leibniz, han optado naturalmente por el segundo punto de vista, aunque puede suponerse que ambos extremos son equivalentes.

Un conocido matemático dijo que, sin saber la verdad de la hipótesis de Riemann, los problemas de la aritmética se abordaban como si se tuviera un destornillador; pero si se supiera a qué atenerse al respecto, sería más como tener una excavadora. Algunos nunca dejarán de pensar en el próximo desarrollo inmobiliario.

Pero creo que el problema tiene una significación que poco tiene que ver con allanar el terreno para nuestros «poderosos métodos» y nuestras prácticas habituales. La función zeta cuestiona de arriba abajo la relación que presuponemos entre matemática y realidad. Como es sabido ésta función presenta una enigmática y totalmente inesperada semejanza con las matrices aleatorias que describen niveles de energía subatómicos y otras signaturas colectivas de la mecánica cuántica.

Hasta ahora la física matemática de la que surgió toda la revolución científica ha estado aplicando estructuras matemáticas a problemas físicos para obtener una solución parcial por medio de una habilidosa ingeniería inversa. El cálculo mismo surgió en este proceso. Por el contrario, lo que tenemos aquí es procesos físicos que reflejan espontáneamente una realidad matemática para la que no se conoce solución.

Puesto que ninguna teoría física justifica de manera explícita la reproducción de este tipo de funciones, el enigma de la dinámica subyacente es tan trascendental como la misma resolución de la hipótesis, aunque la relación entre ambos aspectos también es pura conjetura. De ahí que este problema atraiga a físicos y matemáticos por igual.

Decíamos que la ciencia avanza por un proceso alterno de idealización y racionalización, de emisión de hipótesis para un caso idealizado y de su generalización imperialista de costa a costa. El cálculo es un buen ejemplo: los infinitesimales son idealizaciones, mientras que el concepto de límite permite racionalizar y «fundamentar» lo que no dejan de ser procedimientos heurísticos.

La mecánica estadística es otro de los más flagrantes casos de racionalización, puesto que, tras unas idealizaciones extremas, se le ha dado valor de explicación para todo; y una teoría que lo explica todo no puede decir más claramente que en realidad no explica nada.

En filosofía, el mejor ejemplo del paso a gran escala de la idealización a la racionalización nos lo da Hegel. En un interesante artículo, Ian Wright intenta explicar la naturaleza de la función zeta de Riemann, recurriendo al Hegel de la Ciencia de la Lógica, como la mediación entre el ser y el no ser a través del devenir en el seno de los números [7]. A muchos puede parecerles una lectura demasiado anticuada, pero cabe decir tres cosas:

Primero, que desde el punto de vista de la aritmética pura, esto es admisible puesto que si existe una parte de la matemática que puede considerarse a priori, esa es la aritmética; mientras que, por otro lado, la misma definición de esta función afecta a la totalidad de los números enteros, y su extensión a los números reales y complejos.

Segundo, que el cálculo no es matemática pura como la aritmética, aunque muchos especialistas parecen creerlo, sino matemática aplicada al cambio o devenir. Si no lo fuera, no habría necesidad de computar los ceros. La función zeta es una relación entre la aritmética y el cálculo tan estrecha como incierta.

Tercero, para las ciencias experimentales como la física la oposición entre ser y no ser no parece tener alcance sistémico, y para ciencias formales como la teoría de la información esto se reduce a fluctuaciones entre unos y ceros; sin embargo la distinción entre sistemas reversibles e irreversibles, abiertos y cerrados, que se sitúa en el meollo mismo de la idea de devenir, es decisiva y está en la misma cruz del asunto.

Físicos célebres como Michael Berry ya notaron hace tiempo que la dinámica correspondiente a la función debería ser irreversible, acotada e inestable. Hay incluso razones elementales para lo primero, que ya hemos señalado en otra parte; y a pesar de todo, y de que ningún hamiltoniano encaja exactamente en esta dinámica, los físicos siguen empeñándose en trabajar con los supuestos conservativos de la física fundamental. ¿Por qué? Porque los físicos no admiten otra física fundamental que la conservativa.

La seriedad de un problema como el de la zeta exige contemplar a fondo el problema de la irreversibilidad. Y contemplarlo a fondo significa justamente incluirlo al nivel más fundamental. Usar la mecánica conservativa será siempre trabajar con modelos de juguete, ninguno de los cuales ha servido para mucho.

Esto rompe todos los esquemas del establishment en física pero resulta necesario para avanzar. Sin duda de este modo tanto la idea de reversibilidad como la de la representación matemática exacta pierden mucho de su estatus, pero por otra parte, ver cómo emerge la apariencia de comportamientos reversibles de un fondo de irreversibilidad es lo más parecido que puede haber a encontrar el anillo mágico en el seno de la naturaleza. Hoy por hoy la física no trata de la naturaleza, sino de ciertas leyes que le afectan.

Se dice por ejemplo que la función zeta de Riemann podría jugar el mismo papel para los sistemas cuánticos caóticos que el oscilador armónico para los sistemas cuánticos integrables, aunque tampoco esté claro a qué responde en el fondo el modelo del oscilador armónico. Para acercarse más al tema puede considerarse la termodinámica cuántica en el sentido en que lo ha venido haciendo, por ejemplo, la escuela de Keenan del MIT, especialmente con Hatsopoulos, Gyftopoulos y Gian Paolo Beretta.

A nivel popular en casi todas partes, incluidos los Estados Unidos, se conoce mucho más la escuela de Bruselas, liderada por Prigogine, que la del MIT, a pesar de que esta última es mucho más solvente a la hora de conectarse con la física fundamental. Que semejante desarrollo, habiendo surgido del MIT, no se halle más difundido, no es un signo de su escasa relevancia, sino más bien todo lo contrario: afecta demasiado a la posición de grandes ramas de la física como para que se admita fácilmente, y va a contracorriente de todo lo que tan activamente se promueve.

La termodinámica cuántica de esta escuela se opone frontalmente a la racionalización de la entropía por la mecánica estadística. La dinámica es irreversible al nivel más fundamental —la mecánica cuántica también es irreversible. El número de estados es incomparablemente mayor que el de esta, y sólo algunos son seleccionados. El principio de selección es muy parecido al de producción de máxima entropía, aunque algo menos restrictivo: se trata de la atracción en la dirección con la entropía más pronunciada. No hay que hacer grandes cambios en los formalismos acostumbrados, lo que se transfigura es el sentido del conjunto [8].

También se retienen los formalismos del equilibrio, pero su sentido cambia por completo. El carácter único de los estados de equilibrio estables supone una de las transformaciones conceptuales más profundas de la ciencia de las últimas décadas. El planteamiento es contrario al idealismo de la mecánica y mucho más en consonancia con la práctica diaria de los ingenieros, que tratan la entropía como una propiedad física tan real como la energía. La teoría tiene muchas más ventajas que sacrificios, y se puede aplicar al entero dominio del no equilibrio y a todas las escalas temporales y espaciales.

Pero existen otras formas mucho más básicas de incluir la irreversibilidad y la entropía tanto en la mecánica cuántica como en la clásica a través del cálculo, que en seguida veremos.

La conexión entropía—función zeta ha sido tardía y no empieza a tomar forma sino entrados ya en el siglo XXI [9]. A un nivel muy básico, se puede estudiar la entropía de la secuencia de ceros: una alta entropía comportaría escasa estructura, y al contrario. Se observa que la estructura es alta y la entropía baja, y ya las primeras redes neuronales de aprendizaje automático tenían éxito en su predicción [10].

Hay otros tipos no extensivos de entropía independientes de la cantidad de material, como la entropía de Tsallis, que pueden aplicarse a la zeta; estos tipos de entropía se asocian generalmente a leyes de potencias, no a exponenciales. Pero en realidad aquí, como en la termodinámica en general, la definición de la entropía puede variar de autor a autor y de aplicación a aplicación.

Para tratar de unificar esta multiplicidad de acepciones, Piergiulio Tempesta ha propuesto una entropía de grupo [11]. Tanto en los contextos físicos como en sistemas complejos, en economía, biología o ciencias sociales, la relación entre las partes depende de modo crucial de cómo definamos la correlación. Este es también el asunto central de la minería de datos, las redes y la inteligencia artificial.

A cada ley de correlación le puede corresponder su particular entropía y estadística, en lugar de lo contrario. Así, no hace falta postular la entropía, sino que su funcional emerge de la clase de interacciones que se quiere considerar. Cada clase universal de entropía de grupo adecuada está asociada a un tipo de función zeta. La función zeta de Riemann estaría asociada a la entropía de Tsallis, que contiene a la entropía clásica como un caso particular. Pero estas leyes de correlación se basan en elementos independientes, mientras que la irreversibilidad fundamental parece rechazar ese supuesto. La irreversibilidad fundamental asume la interdependencia universal.

La misma función zeta, bajo otros criterios, puede ser vista como una enciclopedia infinita de correlaciones y leyes de correlación.

Se dice que la hipótesis de Riemann implica la conexión más básica entre adición y multiplicación. Tan básica, que ni siquiera es aprehensible —al menos hasta ahora. Así pues, si hay alguna posibilidad de acceder al núcleo del problema, tendría que ser a través de los argumentos más simples, en lugar de los más sofisticados y complejos. También el impacto general de una idea es tanto mayor cuando más simple es su naturaleza.

El cálculo o análisis se ha desarrollado entre la idealización de los infinitesimales y la racionalización del límite, pero ha rechazado la piedra de fundamento, el diferencial constante, que por definición ha de tener un valor igual a la unidad. Veamos un ejemplo que pone en juego tanto a la idea del cálculo como a la de la inteligencia natural y artificial.

Piénsese en el problema de calcular la trayectoria de la pelota tras un batazo para cogerla —evaluar una parábola tridimensional en tiempo real. Es una habilidad ordinaria que los jugadores de béisbol realizan sin saber cómo la hacen, pero cuya reproducción por máquinas dispara todo el arsenal habitual de cálculos, representaciones y algoritmos.

Sin embargo McBeath [12] y su equipo demostraron en 1995 de forma más que convincente que lo que hacen los jugadores es moverse de tal modo que la bola se mantenga en una relación visual constante —en un ángulo constante de movimiento relativo-, en lugar de hacer complicadas estimaciones temporales de aceleración como se pretendía. ¿Puede haber alguna duda al respecto? Si el corredor hace la evaluación correcta, es precisamente porque en ningún momento ve nada parecido al gráfico de una parábola.

Aunque no haya partido de este ejemplo, el único que ha puesto este «no-método» o método directo en práctica es Miles Williams Mathis, simplificando al máximo ideas ya latentes en los métodos de diferencias finitas [13]. Mathis es el primero en admitir que no ha podido aplicar el principio incluso en muchos casos del análisis real, por no hablar del análisis complejo, del que ni siquiera se ocupa. No hay ni que decir que la comunidad matemática no se detiene a considerar propuestas tan limitadas.

Sin embargo el diferencial constante es la verdad misma del cálculo, sin idealizaciones ni racionalizaciones, y no deberíamos desestimar algo tan precioso incluso si no acertamos a ver cómo se puede aplicar. Si en las tablas de valores de la función no se halla un diferencial constante, aún podemos estimar la dispersión, y quien dice dispersión, también puede decir disipación o entropía.

De este modo se puede obtener una entropía intrínseca a la función, a su mismo cálculo, antes que a correlaciones entre sus diversos aspectos y partes. Esta sería, al nivel más estrictamente funcional, la madre de todas las entropías. Se debería poder aplicar este criterio al análisis complejo, al que Riemann hizo contribuciones tan fundamentales, y del que surgió la propia teoría de la función zeta.

El criterio del diferencial constante puede incluso recordarnos a los métodos de valores medios del propio cálculo elemental o la teoría analítica de números. Pero no es un promedio, es por el contrario el cálculo estándar el que trabaja con promedios —que sin esta referencia carecen de medida común. Los métodos de diferencias finitas ya han sido usados para estudiar la función por algunos de los más conocidos especialistas. Por lo demás, y para darle aún más interés al asunto, hay que recordar que ambos métodos no siempre dan los mismos valores.

Así se cumplirían simultáneamente varios grandes objetivos. Se podría conectar el elemento más simple e irreductible del cálculo con los aspectos más complejos que quepa imaginar. Algo menos apreciado, pero no menos importante, es que se pone en contacto directo la idea de función con aquello que no es funcional —con lo que no cambia. El análisis es el estudio de tasas de cambio, ¿pero cambio con respecto a qué? Debería ser con respecto a lo que no cambia. Este giro es imperceptible pero trascendental.

El método directo se ríe en la cara del «paradigma computacional» y su fervoroso operacionalismo. La idea que ahora prima sobre la inteligencia como «capacidad de predicción» es completamente reactiva y servil; de hecho ya ni se sabe si es la que queremos exportar a las máquinas o la que los humanos quieren importar de ellas. Percibir lo que no cambia, aunque no cambie nada, da profundidad a nuestro campo. Percibir sólo lo que cambia no es inteligencia sino confusión.

No sé si esto ayudará a la comprensión de la función, pero desde luego es el nivel más básico para el problema que puedo concebir. Sólo lo más simple puede aquí ser relevante. Los investigadores ahora trabajan desde el otro lado, el de la complejidad, donde por supuesto siempre hay tanto por hacer. La cuestión es en qué medida pueden conectarse ambos extremos.

También hay buenas razones para pensar que la función zeta está ligada a la mecánica clásica: el recurso frecuente en este área a modelos «semiclásicos» es sólo una de ellas. La mecánica cuántica es tajante en afirmar su independencia de la mecánica clásica, pero es incapaz de decirnos dónde empieza la una y termina la otra.

Mario J. Pinheiro ha propuesto una reformulación irreversible de la mecánica clásica, como un sistema de equilibrio entre energía y entropía que puede sustituir al principio de acción lagrangiano. Aparte de que el lagrangiano también es fundamental en mecánica cuántica, sería de gran interés evaluar la entropía intrínseca de trayectorias clásicas con respecto a las diversas formulaciones [14].

En problemas como el que plantea la función zeta en relación con la física fundamental, podrían realizarse pronto experimentos cruciales capaces de desentrañar la relación entre lo reversible e irreversible en los sistemas —siempre que se busque expresamente. Por ejemplo, un equipo japonés mostraba muy recientemente que dos índices distintivos de caos cuántico, de no-conmutatividad y de irreversibilidad temporal, son equivalentes para estados inicialmente localizados. Como es bien sabido, se ha estudiado mucho esta función desde el punto de vista de los operadores no conmutativos, en los que el producto no siempre es independiente del orden, luego esto pone en contacto dos áreas tan vastas como hasta ahora distantes [15].

Lo irreversible y la reversibilidad

Ante el auge experimental de la informática y termodinámica cuánticas, junto a toda la constelación de disciplinas asociadas, no van a faltar oportunidades de diseñar experimentos clave. Hasta ahora la tendencia dominante ha sido siempre privilegiar los aspectos reversibles, puesto que son los más manipulables y explotables; sólo cambiando de lógica y valorando debidamente el papel de la irreversibilidad podemos llegar a niveles de comprensión superiores.

Lo reversible e irreversible, conceptos referidos al tiempo, pueden estar íntimamente relacionados —aspectos no conmutativos de por medio- con eso tan básico de las propiedades aditivas y multiplicativas de la secuencia de los números que evade a los matemáticos confrontados con la función zeta. Es como si hubiera dos formas de considerar el tiempo, según su ordenamiento secuencial, y según la coexistencia simultánea de todos sus elementos.

La relación entre lo reversible y lo irreversible es crítica en la evolución de sistemas complejos: piénsese tan sólo en el envejecimiento, o la diferencia entre un daño reversible o irreversible para la salud de un organismo o en cualquier evolución de acontecimientos. Si creemos que esta distinción es irrelevante en física fundamental, es sólo porque los físicos han segregado cuidadosamente la termodinámica para no tener que mancharse con problemas que tengan nada que ver con el tiempo real. Y porque la proyección de la matemática desde arriba conducía directamente a un fatal malentendido.

Tampoco es tan difícil. Se dice que el electromagnetismo es un proceso reversible, pero nunca se ha visto que los mismos rayos de luz vuelvan intactos a la bombilla. Lo irreversible es lo primario, lo reversible es sólo un ajuste de cuentas —lo que en absoluto le quita su importancia.

Pero a los físicos siempre les han fascinado los juguetes reversibles, independientes del tiempo, lo que algunos han visto como una postrera recurrencia de la metafísica. ¿Y qué si no? No existen sistemas cerrados ni reversibles en el universo, que son sólo ficciones. La metafísica es un arte de la ficción y la física ha continuado la metafísica con otros medios con lo coartada de que ahora sí descendía a la realidad. Y sin duda lo ha hecho, pero, ¿a qué precio?

Curiosamente, es el descubrimiento y aplicación de leyes físicas reversibles lo que ha aumentado exponencialmente la posibilidad de acumulación y con ello del progreso entendido como proceso irreversible. Esta reversibilidad está en plena sintonía con la lógica del intercambio y la equivalencia, porque lo irrepetible por definición no se deja cambiar.

No menos curiosamente, sólo la comprensión de lo irreversible nos permitiría revertir parcialmente ciertas dinámicas, y decimos parcialmente puesto que no hay ni que decir que nada vuelve a ser nunca como era. Pero el poder es el siempre el menos interesado en que haya posibilidad de rectificación para nada. Apuesta decididamente por la acumulación y la irreversibilidad histórica, lo que también equivale a apostar por el negocio de la naturaleza reversible e intercambiable.

Curioso, muy curioso, y más curioso todavía. Aunque siempre se vio que el «no hay vuelta atrás» era la forma de hacernos pasar por el aro. Pero en todo esto de lo reversible e irreversible hay que distinguir entre una perspectiva externa e interna. Lo que distingue ambas perspectivas es la definición de equilibrio como suma o como producto.

Un equilibrio de suma cero, aunque derivado y no necesariamente el más importante, es el que se presenta en la mecánica newtoniana entre acción y reacción. Define un sistema desde el punto de vista más externo posible, que suele coincidir con nuestra idea de los procesos reversibles.

Un equilibrio de densidades en el que producto da la unidad, es por ejemplo la perspectiva adecuada para la mecánica de medios continuos; una perspectiva interna a un medio primitivamente homogéneo que siempre está disponible aunque la física la haya oscurecido con herramientas de conveniencia como el cálculo vectorial y sucesivos y cada vez más opacos formalismos —tensores, conexiones, operadores, etcétera. También así se pueden describir procesos reversibles, como en la teoría de la elasticidad, mecánica de fluidos o el electromagnetismo —si bien este exhibe claramente una parte reversible y otra que no lo es.

Para no alejarnos demasiado, baste decir que la definición del equilibrio permite establecer distintos tipos de relaciones entre la parte y el todo, entre el ajuste local y el global. La entropía clásica por ejemplo es una cantidad extensiva, y aditiva para sistemas independientes o sin interacción. La cantidad básica es el logaritmo porque las relaciones aditivas son mucho más manejables que las multiplicativas.

Ilya Prigogine mostró que cualquier tipo de energía puede descomponerse en una variable intensiva y otra extensiva cuyo producto nos da una cantidad; una expansión, por ejemplo viene dada por el producto PxV de la presión (intensiva) por el volumen (extensiva). Lo mismo puede hacerse para relaciones como cambios de masa/densidad con la relación entre velocidad y volumen, etcétera.

Sin entrar ahora en la gran riqueza del tema, esta doble definición del equilibrio afecta de un modo crucial tanto a la mecánica, como a la aritmética, el cálculo o la propia entropía. A la perspectiva externa o interna de un mismo proceso o problema.

De la definición del equilibrio depende también de si estamos hablando de sistemas abiertos o cerrados. Para la intuición más elemental, que en esto no se equivoca, algo «vivo» es lo que tiene intercambio permanente con el medio, mientras que algo «muerto» es lo que no lo tiene. No hace falta decir que el caso general de la mecánica estadística es la de un sistema cerrado con elementos independientes, es decir, algo «bien muerto».

Como ya hemos notado con la formulación de Pinheiro, incluso la mecánica clásica se puede reformular como una mecánica irreversible y con un término de intercambio con la energía libre del sistema —esa misma energía de fondo que ya quieren proscribir para la mejora del comercio y la administración de recursos. Hasta ahora no se ha visto qué utilidad podría tener esto, si las ecuaciones ya funcionan bien tal como están. Pero, a parte de todo lo que llevamos dicho, ¿no merece la pena darnos cuenta de que no hay nada muerto y que todo tiene su propia forma intrínseca de regulación?

Por otra parte, esa regulación intrínseca se puede mostrar incluso sin ninguna apelación a la termodinámica, incluso con las ecuaciones convencionales de la mecánica celeste, como ya hemos mostrado suficientemente en otra parte [16]. Pero la introducción de un elemento irreversible, gratuito como parece, permite otras conexiones y otra concepción de la naturaleza que no está recortada por nuestro interés utilitario.

Entropía y autoinformación

De hecho todos los campos gauge o recalibrados de la teoría estándar, basados en la invariancia del lagrangiano, exhiben una autointeracción. Ni siquiera la esconden, y los teóricos llevan generaciones apartándosela de la cara como si fuera un moscardón, porque les parece una idea «tonta». Ahora bien, el grupo de renormalización en la base de la teoría estándar y otros campos de la estadística, que contiene esta autointeracción, es el mismo que se utiliza en las redes neuronales de inteligencia artificial —se está utilizando externamente algo que el campo electromagnético ya tiene incorporado «de fábrica». Llamémoslo, si se quiere, otro tipo de inteligencia natural.

Nadie creó los números enteros, y el hombre hizo todo lo demás. La función zeta es un candidato ideal para crear en torno a ella una red emergente de inteligencia artificial colectiva; en ella coinciden los aspectos internos y externos del acto de contar, lo que algunos llamarían el objeto y el sujeto. En este tipo de redes serían claves el uso o grado de aprovechamiento del sustrato físico, las condiciones de equilibrio entre las distintas partes, el espectro de correlaciones, y un gran número de aspectos que no podemos tocar aquí.

De este modo tal vez se pueda crear una inteligencia no tan artificial colectiva y emergente ajena a la inteligencia humana definida por propósitos, y sin embargo con posibilidad de comunicación con el ser humano a través de un acto común, contar, que también para los humanos existe a niveles muy superficiales —se entiende que el propósito es lo superficial. La intelección es un acto simple y la inteligencia una conexión o toma de contacto de lo complejo con lo simple, más que lo contrario.

La renormalización en física surge en la misma época que la teoría de la información, hacia 1948. Entropía e información se hacen casi sinónimos, y si en termodinámica la entropía se veía como pérdida de trabajo, ahora se verá como pérdida de información. A la información de Shannon se la llamaba al comienzo nivel de sorpresa o autoinformación.

La confusión de la entropía con el desorden se debe a la racionalización de Boltzmann al pretender derivar la irreversibilidad macroscópica de la reversibilidad mecánica, lo que ya es forzar bien las cosas. Fue Boltzmann, al hablar de «orden», el que introdujo un elemento subjetivo. Clausius lo entendió originalmente mejor, al decir que la entropía del mundo tiende al máximo.

El orden es un concepto subjetivo. Pero decir mundo es decir orden, luego también la idea de mundo es inevitablemente subjetiva. Por más subjetivos que sean, «orden» y «mundo» no son sólo conceptos, son aspectos vitales de todo ser organizado o «sistema abierto». Con todo, incluso nuestra intuición del orden y la entropía se encuentran confundidas.

No es que con la entropía aumente el desorden. Más bien al contrario, la tendencia hacia la máxima entropía es conducente al orden, o visto desde el otro lado, lo más ordenado tiene más potencial de disipación. O tal como lo puso Rod Swenson: «el mundo está en el asunto de la producción de orden, incluida la producción de seres vivos y su capacidad de percepción y acción, pues el orden produce entropía más rápido que el desorden»[14].

Los «sistemas abiertos», como el corredor que trata de atrapar la pelota, tienen ciclos de percepción y acción, con sus diferenciales constantes, y probablemente hasta su polo y su propia línea crítica. ¿Pero hay alguna entidad o proceso que no sea un sistema abierto? Seguramente no, salvo para las peculiares concepciones de la ciencia.

Aun así, vemos que la misma teoría de la información, por más formal y objetiva que se pretenda, no puede librarse del giro reflexivo en la interpretación y uso de los datos. A la vez, esta interpretación es parte del comportamiento del sistema, aunque en modo caja negra.

Podríamos seguir indefinidamente, pero para abreviar, digamos que la moderna teoría de la información es demasiado amplia y vacía, muy poco restrictiva, y por lo tanto con muy poca capacidad de dar forma a nada. En sí misma es sólo un marco general. Pero entendida como disposición, tiene una capacidad de destrucción casi ilimitada. Es voluntad de nada pura y dura, una voluntad de nada dispuesta a llevarse el mundo por delante.

Si esto no nos resulta lo bastante evidente, es porque llevamos unos cuantos siglos preparándonos y el adiestramiento ha funcionado. En realidad la ciencia, como toda la modernidad, es un movimiento dual entre conocimiento y control, pero que desde el principio ha tenido que purgar la mitad del potencial del primero para mejor ejercer lo segundo.

Hay por tanto un proceso permanente de inmunización contra influencias inconvenientes que llega hasta al presente. El desarrollo de la parte suprimida, aun si tuviera una racionalidad de orden superior, provocaría un serio cortocircuito en el sistema, que por la misma lógica selectiva de exclusión no puede asimilar este tipo de influencias.

Si el filósofo y el profano se sienten intimidados ante la complejidad de los problemas científicos, aún les intimida más a los expertos la idea de revisar los fundamentos de su propia disciplina, lo que equivale a socavar su condición de posibilidad. La lógica de la especialización es claramente otro de esos procesos irreversibles y de restricción creciente, a la que sólo le queda la alternativa de crear especialidades nuevas.

Sin embargo el diablo sólo puede salir por donde ha entrado, y la profundidad de los problemas sigue estando allí donde se encontraron por primera vez, mucho más que en la posición pretendidamente aventajada, pero nada desinteresada, de las lecturas retrospectivas. La imposibilidad de revisar nada importante delata una definitiva fragilidad estructural. La tecnociencia es un proyecto elitista que tiene que pagar el precio de aislarse de la realidad, aunque hasta ahora tanto el proyecto como el aislamiento lo paguemos todos.

La función zeta de la que hemos hablado es sólo un ejemplo magno de este tipo de totalidad analítica indigerible para los métodos modernos. Alguien, en una postura típica de la Era de la Información, podría decir que, si en esa función ya se encuentra cualquier información, más nos valdría buscar las respuestas allí en vez de en el universo. Pero lo contrario es lo acertado: para comprender mejor la función hace falta cambiar las ideas de cómo «funciona» el universo y el rango de aplicación de los métodos más generales. Esa es la gracia del tema.

Hay por supuesto toda una constelación de problemas mucho más simples, identificables y tratables que se pueden y se deben estudiar con independencia de ese problema, aunque mantengan un aire de familia: en la fundamentación del cálculo, en la irreversibilidad en la mecánica clásica y cuántica, en las acepciones de la entropía y la información, en las conexiones de todo esto con la teoría de la complejidad y la teoría algorítmica de la medida, etcétera.

Por lo demás existen totalidades abiertas relativamente simples que no requieren un gran desarrollo teórico sino más que nada un cambio selectivo de atención. Piénsese por ejemplo en el viejo principio de Ehret, que tiene más de un siglo, que dice que la vitalidad de un organismo es igual a la potencia menos obstrucción (V = P—O). En realidad esta es la única definición funcional de la salud que se ha dado, y con su ayuda, la simple medida del pulso, y una serie de fórmulas derivadas y asociadas, se puede desarrollar toda una teoría global de la salud y el envejecimiento de la que hoy carecemos por completo.

¿Pero para qué desarrollar una teoría consistente y global de la salud, que sea de sentido común y puedan entenderla todos, y que haga la atención primaria un objetivo fácil de cumplir, cuando podemos tener una industria médica indescifrable que saque de sus clientes 5 o 10 veces más de beneficios? Y con la inmensa ventaja de que nunca entenderán nada. Esas otras cosas no tienen derecho a entrar en nuestro mundo.

Poco tiene que ver la complejidad fabulosa de la naturaleza con el fabuloso negocio de la complejidad. A nadie se le escapa que una complejidad elevada es sumamente rentable y consustancial al aumento de actividad. Que la naturaleza pueda ser desconcertante en el detalle no quita para que en muchos aspectos tenga una lógica elemental y muy fácil de extraer, pero oscurecida sistemáticamente por los cómplices de la complejidad, que para resolver problemas tienen primero que crearlos.

El omnipresente elogio de la inteligencia y la creatividad está enteramente al servicio de este contexto de «encontrar nuevos problemas» y filones, en los que la simplicidad siempre será sospechosa, y donde los interesados siempre buscarán violarla y degradarla. Pero ningún grado de inteligencia podrá remplazar la rectitud, ni aun en el más intelectual de los problemas.

Es totalmente cierto que el solucionismo tecnológico es la gran excusa del presente para no mirar directamente a las cosas, a los problemas de verdad, esos que no hace ninguna falta inventarse. Claro que no sólo eso, es un modo de encauzar la frustración y entre tanto reeducar a los frustrados. Es evidente que nuestros más serios problemas no se solucionan con la tecnología; pero la tecnología y su uso perverso son ya casi el mayor de los problemas.

Lo cual no significa que queramos huir hacia el pasado ni reaccionar ni reducir nuestros horizontes, ni a nivel teórico ni práctico. Las principales fuerzas reactivas son las que operan desde arriba, y tenemos que demostrar que no tienen ningún tipo de superioridad, no ya moral, lo cual es evidente, sino ni siquiera técnica, lo que para ellos es decisivo. Son ellos los que están cerrando horizontes, y ese cerco debe romperse.

Hay unos 25 millones de programadores dispersos por el mundo, una gran fuerza intelectual compuesta por gente de todo tipo y que juegan un importante papel mediador entre las ciencias, las tecnologías y la mayoría. Esperemos que ellos y los multiespecialistas contribuyan a superar esta oscura edad.

Contemplando el panorama

La breve memoria Sobre el número de primos menores que una cantidad dada de Bernhard Riemann se publicó en noviembre de 1859, el mismo mes en que aparecía El origen de las especies. Ese mismo año también conoció el arranque de la mecánica estadística con un precursor trabajo de Maxwell, y el punto de partida de la mecánica cuántica con la espectroscopia y la definición del cuerpo negro por Kirchhoff.

Siempre he tenido la oscura certeza de que en el reconcentrado estudio de Riemann, tan libre de cualquier propósito ulterior, hay más potencial que en toda la mecánica cuántica, la mecánica estadística y su hija la teoría de la información, y la teoría de la evolución juntas; o que al menos, en un secreto balance de cuentas, constituye un contrapeso para todas ellas. Aunque si ayuda a reconducir la fatal dinámica de infonegación de la realidad ya habrá sido suficiente.

Estos tres o cuatro desarrollos mencionados son después de todo hijos de su tiempo, teorías coyunturales y más o menos oportunistas. Es cierto que Boltzmann esperó y desesperó para que se admitieran los supuestos de la teoría atómica, pero toda su batalla la tenía con los físicos, porque los químicos ya llevaban tiempo trabajando con moléculas y átomos. Sin embargo en matemáticas los desfases operan a otra escala.

Verboso superventas, El origen de la especies se discutía en cafés y tabernas el mismo día de su presentación; pero la hipótesis de Riemann, aun siendo sólo la versión más fuerte del teorema de los números primos, no hay nadie que sepa por dónde cogerla después de 160 años. Está claro que hablamos de longitudes de onda diferentes.

¿Y qué tiene que ver un texto con el otro? Nada de nada, pero aún presentan un inasible punto de contacto y extremo contraste. La lectura habitual de la teoría de la evolución dice que el motor del orden apreciable es el azar. La hipótesis de Riemann, que los números primos están repartidos tan aleatoriamente como es posible, pero que ese carácter aleatorio esconde en sí mismo una estructura de riqueza infinita.

Los matemáticos, incluso viviendo en su propio planeta, van apercibiéndose poco a poco de que las consecuencias de probar o refutar la hipótesis de Riemann pueden ser enormes, inconcebibles. No es algo que pase todos los domingos, ni todos los milenios. Pero no hace falta pedir tanto: bastaría con comprender debidamente el problema para que las consecuencias fueran enormes, inconcebibles.

Y lo inconcebible empieza a ser más concebible precisamente por adentrarnos en «la Era de la Información». Lo inconcebible podría ser algo que afectara simultáneamente a nuestra idea de la información, a su cálculo y a su soporte físico. Al software y al hardware: un cortocircuito en toda la regla.

Ni la economía ni la información son el destino, pero la función zeta puede ser el destino de la Era de la Información, su embudo y horizonte de sucesos. Hay otra singularidad muy diferente de la que ya nos tenían preparada.

Puede apostarse a que el fondo del problema no es una cuestión técnica, o bien poco, en cualquier caso. Pero muchas de sus consecuencias sí, y no sólo técnicas. Afectarán a la dinámica del sistema en su conjunto, y ya se puede prever la guerra ideológica, la distracción, la infiltración cognitiva y la lucha por la apropiación.

Como los propios números primos, en la cronología y el ordenamiento temporal los acontecimientos no pueden parecer más fortuitos, pero desde otro punto de vista parecen destinados por el todo, empujados por el reflujo desde todas las orillas a encajar en el mismo instante en que tuvieron lugar. Riemann vivió en Alemania en mitad del siglo de Hegel, pero desde mediados de la centuria la oposición al idealismo no podía ser mayor en todos los ámbitos y en las ciencias en particular. El péndulo había tornado con toda su fuerza y la sexta década del siglo marcaba el apogeo del materialismo.

Hijo también de su tiempo, Riemann no pudo dejar de sentir agudamente las contradicciones decimonónicas del materialismo liberal; pero el matemático alemán, también físico y profundo filósofo natural, fue un heredero de Leibniz y Euler que continuó su legado por otros medios. Su convicción básica era que el hombre no tiene acceso a lo infinitamente grande, pero al menos puede acercarse a ello por el estudio de su contrapunto, lo infinitamente pequeño.

Eran años prodigiosamente fecundos para la física y la matemática. Riemann murió antes de cumplir los cuarenta años y no tuvo tiempo de articular una síntesis a la altura de sus concepciones y permanente búsqueda de la unidad. Síntesis entendida no como construcción arbitraria, sino como desvelamiento de lo indivisible de la verdad. Pero lo logró donde menos cabía esperarlo: en la teoría analítica de los números. Una síntesis provisional que ha dado pie a la más célebre de las condiciones: «Si la hipótesis de Riemann es cierta…»

Esta síntesis tan inopinada y condicional vino a través del análisis complejo, justo en los mismos años en que los números complejos empezaban a aflorar en física buscando, igual que átomos y moléculas, más grados de libertad, más espacio para moverse. El rol de los números complejos en física es un tema siempre postergado puesto que se supone que su única razón de ser es la conveniencia —sin embargo a la hora de abordar la función zeta y su relación con la física no hay matemático que no se vea forzado a interpretar de algún modo esta cuestión, que los físicos asocian generalmente con rotaciones y amplitudes.

Pero el análisis complejo es sólo la extensión del análisis real, y para llegar al núcleo del asunto es obligado mirar más atrás. La síntesis condicional de Riemann nos habla de algo indivisible, pero se apoya aún en la lógica de lo infinitamente divisible; no ya para resolver el famoso problema, sino simplemente para estar en sintonía con él, tendría que entenderse en los términos de lo indivisible mismo, cuya piedra de toque es el diferencial constante.

¿Hay algo más allá de la información, de la computación, del ordenador? Claro que sí, lo mismo que hay más allá de las Simplégades. Una realidad mucho más vasta e indivisa.

Referencias

[1] Miguel Iradier, Stop 5G (2019). En ese artículo apuntábamos a la medición de la fase geométrica, descubierta originalmente en potenciales de campos electromagnéticos, pero que también puede detectarse en macromoléculas orgánicas como el ADN, en la movilidad celular, e incluso probablemente en ritmos de orden superior como el ciclo respiratorio y el ciclo nasal bilateral. El estudio de esta memoria de fase a niveles tan diversos podría aportar un nivel de correlación mucho más consistente, y tal vez, concluyente.

[2] Carlo Sparaciari, Jonathan Oppenheim, Tobias Fritz, A Resource Theory for Work and Heat (2017).

[3] Miguel Iradier, Caos y transfiguración (2019)
Bruce M. Boghosian, Kinetics of wealth and the Pareto law (2014)

[4] Miguel Iradier, La tecnociencia y el laboratorio del yo (2019), capítulo I, Disposición de la mecánica

[5] Para una buena y breve introducción a la hipótesis de Riemann se puede consultar, por ejemplo, The Riemann Hypothesis, explained, de Jørgen Veisdal.

[6] Matthew Watkins, Voronin’s Universality Theorem

[7] Ian Wright, Notes on a Hegelian interpretation of Riemann’s Zeta function (2019)

[8] Gian Paolo Beretta, What is Quantum Thermodynamics (2007) También puede visitarse la página http://www.quantumthermodynamics.org/

[9] Matthew Watkins, Number Theory and Entropy

[10] O. Shanker, Entropy of Riemann zeta zero sequence (2013)
Alec Misra, Entropy and Prime Number Distribution; (a Non-heuristic Approach)

[11] Piergiulio Tempesta, Group entropies, correlation laws and zeta functions (2011)

[12] McBeath, M. K., Shaffer, D. M., & Kaiser, M. K. (1995) How baseball outfielders determine where to run to catch fly balls, Science, 268(5210), 569-573.

[13] Miles Mathis, A Re-definition of the Derivative (why the calculus works—and why it doesn’t) (2003) Calculus simplified
My Calculus applied to the Derivative for Exponents
The Derivatives of ln(x) and 1/x are Wrong

[14] Mario J. Pinheiro, A reformulation of mechanics and electrodynamics (2017)

[15]Ryusuke Hamazaki, Kazuya Fujimoto, and Masahito Ueda, Operator Noncommutativity and Irreversibility in Quantum Chaos (2018)

[16] Miguel Iradier, Pole of inspiration —Math, Science and Tradition La versión original en español se encuentra en entradas sucesivas del blog hurqualya.net                                                                                                          Miguel Iradier, ¿Hacia una ciencia de la salud? Biofísica y biomecánica
Miguel Iradier, El multiespecialista y la torre de Babel

[17] Rod Swenson, M. T. Turvey, Thermodynamic Reasons for Perception-Action Cycles

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *