La polaridad fue siempre un componente esencial de la filosofía natural y aun del pensamiento sin más, pero la llegada de la teoría de la carga eléctrica sustituyó una idea viva por una simple convención.
A propósito del vórtice esférico universal, hablábamos antes de la hipótesis del monopolo de Dirac. Dirac conjeturó la existencia de un monopolo magnético por una mera cuestión de simetría: si existen monopolos eléctricos, ¿por qué no existen igualmente unidades de carga magnética?
Mazilu, siguiendo a E. Katz, razona que no hay ninguna necesidad de completar la simetría, puesto que en realidad ya tenemos una simetría de orden superior: los polos magnéticos aparecen separados por porciones de materia, y los polos eléctricos sólo se presentan separados por porciones de espacio vacío. Lo cual está en perfecta sintonía con la interpretación de las ondas electromagnéticas como un promedio estadístico de lo que ocurre entre el espacio y la materia.
Y que pone el dedo sobre la cuestión que se procura evitar: se dice que la corriente es el efecto que se produce entre cargas, pero en realidad es la carga la que está definida por la corriente. La carga elemental es una entidad postulada, no algo que se siga de las definiciones. Con razón puede decir Mathis que puede prescindirse por completo de la idea de carga elemental y sustituirla por la masa, lo que está justificado por el análisis dimensional y simplifica enormemente el panorama —librándonos entre otras cosas, de constantes del vacío como la permitividad y permeabilidad que son totalmente inconsecuentes con la misma palabra «vacío» [50].
Visto así, no se encuentran monopolos magnéticos porque para empezar tampoco existen ni monopolos eléctricos ni dipolos. Lo único que habría es gradientes de una carga neutra, fotones, produciendo efectos atractivos o repulsivos según las densidades relativas y la sombra o pantalla ejercida por otras partículas. Y por cierto, es este sentido puramente relativo y cambiante de la sombra y luz lo que caracterizaba la noción original del yin y el yang y la polaridad en todas las culturas hasta que llegó el gran invento de la carga elemental.
Así pues, bien puede decirse que la electricidad mató a la polaridad, muerte que no durará mucho tiempo puesto que la polaridad es un concepto mucho más vasto e interesante. Es verdaderamente liberador para la imaginación y nuestra forma de concebir la Naturaleza prescindir de la idea de cargas embotelladas por doquier.
Y es más interesante incluso para un objeto teorético tal como el monopolo. Los físicos teóricos han imaginado incluso monopolos cosmológicos globales. Pero basta con imaginar un vórtice esférico universal como el ya apuntado, sin ningún tipo de carga, pero con autointeracción y un movimiento doble para que surjan las rotaciones asociadas al magnetismo y las atracciones y repulsiones asociadas a las cargas. Las mismas inversiones del campo en la electrodinámica de Weber invitaban ya a pensar que la carga es un constructo teórico.
Deberíamos llegar a ver la atracción y repulsión electromagnéticas como totalmente independientes de las cargas, e inversamente, al campo único que incluye la gravedad, como capaz tanto de atracción como de repulsión. Esta es la condición, no ya para unificar, sino para acercarse a la unidad efectiva que presuponemos en la Naturaleza.
*
El tema de la polaridad nos lleva a pensar en otro gran problema teórico para el que se busca un correlato experimental: la función zeta de Riemann. Como es sabido ésta presenta una enigmática semejanza con las matrices aleatorias que describen niveles de energía subatómicos y otros muchos aspectos colectivos de la mecánica cuántica. La ciencia busca estructuras matemáticas en la realidad física, pero aquí por el contrario tendríamos una estructura física reflejada en una realidad matemática. Grandes físicos y matemáticos como Berry o Connes propusieron hace más de diez años confinar un electrón en dos dimensiones y someterlo a campos electromagnéticos para «obtener su confesión» con la forma de los ceros de la función.

Se ha conjeturado ampliamente sobre la dinámica idónea para recrear la parte real de los ceros de la función zeta. Berry conjetura que esta dinámica debería ser irreversible, acotada e inestable, lo cual la aleja de los estados ordinarios de los campos fundamentales, pero no tanto de las posibilidades termomecánicas; tanto más si lo que está en cuestión es la relación aritmética entre la adición y la multiplicación, frente al alcance de las reciprocidades multiplicativas y aditivas en física.
Los físicos y matemáticos piensan en su inmensa mayoría que no hay nada que interpretar en los números imaginarios o el plano complejo; sin embargo, en cuanto se toca la función zeta, apenas hay nadie que no empiece por hablar de la interpretación de los ceros de la función —especialmente cuando se trata de su relación con la mecánica cuántica. A este respecto todo son muy débiles conjeturas, lo que demuestra que basta con que no se tengan soluciones para que sí haya un problema de interpretación, y de gran magnitud, por lo demás.
Tal vez, para saber a qué atenerse, habría que depurar el cálculo en el sentido en que lo hace Mathis y ver hasta qué punto se pueden obtener los resultados de la mecánica cuántica sin recurrir a los números complejos ni a los métodos tan crudamente utilitarios de la renormalización. De hecho en la versión del cálculo de Mathis cada punto equivale al menos a una distancia, lo que debería darnos información adicional. Si el plano complejo permite extensiones a cualquier dimensión, deberíamos verificar cuál es su traducción mínima en números reales, tanto para problemas físicos como aritméticos. Después de todo, el punto de partida de Riemann fue la teoría de funciones y el análisis complejo, antes que la teoría de los números.
Seguramente si físicos y matemáticos conocieran el rol del plano complejo en sus ecuaciones no estarían pensando en confinar electrones en dos dimensiones y otras tentativas igualmente desesperadas. La función zeta de Riemann nos está invitando a inspeccionar los fundamentos del cálculo, las bases de la dinámica, y hasta el modelo de la partícula puntual y carga elemental.
La función zeta tiene un polo en la unidad y una línea crítica con valor de 1/2 en la que aparecen todos los ceros no triviales conocidos. Obviamente los portadores de la «carga elemental», el electrón y el protón, tienen ambos un espín con valor de 1/2 y el fotón que los acopla, uno con valor igual a 1. ¿Pero porqué el espín ha de ser un valor estadístico y la carga no? Está claro que hay una conexión íntima entre la descripción de los bosones y fermiones y las propiedades de la función zeta, que ya se ha aplicado a muchos problemas. El interés de las analogías físicas para la función zeta sería posiblemente mucho mayor si se prescindiera del concepto de carga elemental.
Que la parte imaginaria de la función de onda del electrón está ligada al espín y a la rotación no es ningún misterio. La parte imaginaria de las partículas de materia o fermiones, entre las que se cuenta el electrón no tiene sin embargo ninguna relación obvia con el espín. Ahora bien, en las ondas electromagnéticas clásicas se observa que la parte imaginaria del componente eléctrico está relacionada con la parte real del componente magnético, y al revés. Las amplitudes de dispersión y su continuación analítica no pueden estar separadas de las estadísticas de espín, y viceversa; y ambos están respectivamente asociados con fenómenos de tipo tiempo y tipo espacio. También puede haber distintas continuaciones analíticas con distintas interpretaciones geométricas en el álgebra de Dirac.
En electrodinámica todo el desarrollo de la teoría va de la forma más explícita de lo global a lo local. El teorema integral de Gauss, que Cauchy usó para demostrar su teorema del residuo del análisis complejo, da el prototipo de integral cíclica o de periodo, y originalmente está libre de especificaciones métricas —como lo está la ley de electrostática de Gauss, aunque esto muy rara vez se recuerda. La integral de Aharonov-Bohm, prototipo de fase geométrica, tiene una estructura equivalente a la de Gauss.
Como subraya Evert Jan Post, la integral de Gauss funciona como un contador natural de unidades de carga, igual que la de Aharonov-Bohm lo es para unidades de flujo cuantizadas en la autointerferencia de haces. Esto habla en favor de la interpretación colectiva o estadística de la mecánica cuántica como opuesta a la interpretación de Copenhague que enfatiza la existencia de un sistema individual con estadísticas no-clásicas. Los principales parámetros estadísticos serían aquí, en línea con el trabajo de Planck de 1912 en el que introdujo la energía de punto cero, la fase mutua y la orientación de los elementos del conjunto [51]. No hay ni que decir que la orientación es un aspecto independiente de la métrica.
Ni que decir tiene, este razonamiento integral demuestra toda su vigencia en el efecto Hall cuántico y su variante fraccional, presente en sistemas electrónicos bidimensionales sometidos a condiciones especiales; lo que nos llevaría a los mencionados intentos de confinamiento de electrones, pero desde el ángulo de la estadística ordinaria. En definitiva, si hay una correlación entre la función y los niveles de energía atómicos, ello no debería atribuirse a alguna propiedad especial de la mecánica cuántica sino a los grandes números aleatorios que pueden generarse a nivel microscópico.
Si algo no lo podemos entender en el dominio clásico, difícilmente lo vamos a ver más claro bajo las cortinas de niebla de la mecánica cuántica. Existen correlatos bien significativos de la zeta en física clásica sin necesidad de invocar el caos cuántico; y de hecho modelos bien conocidos como el de Berry, Keating y Connes son semiclásicos, lo que es una forma de quedarse a mitad de camino. Podemos encontrar un exponente clásico en los billares dinámicos, empezando con un billar circular, que puede extenderse a otras formas como elipses o la llamada forma de estadio, un rectángulo con dos semicírculos.

La dinámica del billar circular con una partícula puntual rebotando es integrable y sirve, por ejemplo, para modelar el comportamiento del campo electromagnético en resonadores tales como cavidades ópticas o de microondas. Si se abren rendijas en el perímetro, de modo que la bola tenga cierta probabilidad de escapar del billar, tenemos una tasa de disipación y el problema adquiere mayor interés. Por supuesto, la probabilidad depende de la ratio entre el tamaño de las aperturas y el del perímetro.
La conexión con los números primos viene a través de los ángulos en las trayectorias según un módulo 2 π/n. Bunimovich y Detteman demostraron que para un billar circular con dos aperturas separadas por 0, 60, 90, 120 o 180º la probabilidad está únicamente determinada por el polo y los ceros no triviales de la función zeta [52]. La suma total se puede determinar explícitamente y comporta términos que pueden conectarse con las series armónicas de Fourier y las series hipergeométricas. Desconozco si esto puede extenderse a contornos elípticos, que también son integrables. Es al pasar del contorno circular a contornos deformados como el del estadio que el sistema deja de ser integrable y se torna caótico, requiriendo un operador de evolución.

Los billares dinámicos tienen múltiples aplicaciones en física y se usan como ejemplo paradigmático de los sistemas conservativos y la mecánica hamiltoniana; sin embargo el «escape» que se permite a las partículas no es otra cosa que una tasa de disipación, y de la forma más explícita posible. Por lo tanto, nuestra idea inicial de que la zeta debería tener vigencia en sistemas termomecánicos irreversibles a un nivel fundamental es bien fácil de entender —es la mecánica hamiltoniana la que pide la excepción para empezar. Puesto que se asume que la física fundamental es conservativa, se buscan sistemas cerrados «un poco abiertos», cuando, según nuestro punto de vista, lo que tenemos siempre es sistemas abiertos parcialmente cerrados. Y según nuestra interpretación, hemos entendido la cuestión al revés: un sistema es reversible porque es abierto, y es irreversible en la medida en que deviene cerrado.
Pasando a otro orden de cosas, el aspecto más evidente del electromagnetismo es la luz y el color. Goethe decía que el color era el fenómeno fronterizo entre la sombra y la luz, en esa incierta región a la que llamamos penumbra. Por supuesto lo suyo no era una teoría física, sino una fenomenología, lo que no sólo no le quita valor sino que se lo añade. La teoría del espacio del color de Schrödinger de 1920, basada en argumentos de geometría afín aunque con una métrica riemaniana, se encuentra a mitad de camino entre la percepción y la cuantificación y puede servirnos, con algunas mejoras introducidas posteriormente, para acercar visiones que parecen totalmente inconexas. Mazilu muestra que también aquí pueden obtenerse matrices semejantes a las que surgen de las interacciones de campo [53].
Ni que decir tiene que a Goethe se le objetó que su concepto de polaridad entre luz y oscuridad, a diferencia de la firmemente establecida polaridad de carga eléctrica, no estaba justificado por nada, pero nosotros creemos que es justamente lo contrario. Lo único que existen son gradientes; la luz y la sombra pueden crearlos, una carga que es sólo un signo + o — adscrito a un punto, no. El color está dentro de la luz-oscuridad como la luz-oscuridad está dentro del espacio-materia.
Se dice por ejemplo que la función zeta de Riemann podría jugar el mismo papel para los sistemas cuánticos caóticos que el oscilador armónico para los sistemas cuánticos integrables. ¿Pero se sabe todo del oscilador armónico? Ni mucho menos, ya vemos lo que ocurre con la fibración de Hopf o el mismo monopolo. Por otra parte, sabido es que la primera aparición de la zeta en la física es con la fórmula de radiación de cuerpo negro de Planck, donde entra en el cálculo de la energía promedio de lo que luego se llamaría «fotón».
La interpretación física de la función zeta siempre obliga a plantearse las correspondencias entre la mecánica cuántica y la clásica. Por tanto, un problema casi tan intrigante como éste tendría que ser encontrar una contraparte clásica del espectro descrito por la ley de Planck; sin embargo las tendencias dominantes no parecen interesadas en encontrar una respuesta para esto. Mazilu, otra vez, nos recuerda el descubrimiento por Irwin Priest en 1919, de una sencilla y enigmática transformación bajo la cual la fórmula de Planck rinde una distribución gaussiana o normal con un ajuste exquisito a lo largo de todo el espectro [54].
En realidad el tema de la correspondencia entre la mecánica cuántica y la clásica es incomparablemente más relevante a nivel práctico y tecnológico que el de la función zeta. Y en cuanto a la teoría, tampoco existe ningún tipo de aclaración por parte de la mecánica cuántica sobre dónde se encontraría la zona de transición. Probablemente haya buenos motivos para que este campo reciba aparentemente tan poca atención. Sin embargo es altamente probable que la función zeta de Riemann conecte de manera inesperada distintos dominios de la física, lo que hace de ella un objeto matemático de un calado incomparable.
La cuestión es que no existe una interpretación para la raíz cúbica de la frecuencia de la transformación de Priest. Refiriéndose a la radiación cósmica de fondo, «y tal vez a la radiación térmica en general», Mazilu no deja de hacer sus conjeturas para terminar con esta observación: «debería hacerse mención de que tal resultado bien podría ser específico de la forma en que las medidas de la radiación se hacen habitualmente, a saber, mediante un bolómetro». Dejando a un lado esta transformación, se han propuesto diversas maneras más o o menos directas de derivar la ley de Planck de supuestos clásicos, desde la que sugiere Noskov partiendo de la electrodinámica de Weber a la de C. K. Thornhill [55]. Thornhill propuso una teoría cinética de la radiación electromagnética con un éter gaseoso compuesto por una variedad infinita de partículas, de manera que la frecuencia de las ondas electromagnéticas se correlaciona con la energía por unidad de masa de las partículas en lugar de sólo la energía, obteniendo la distribución de Planck de una forma mucho más simple.
La explicación estadística de la ley de Plank ya la conocemos, pero la transformación gaussiana de Priest demanda una explicación física para una estadística clásica. Mazilu hace mención expresa del dispositivo de medición empleado, en este caso el bolómetro, basado en un elemento de absorción —se dice que la función zeta de Riemann se corresponde con un espectro de absorción, no de emisión. Si hoy se emplean metamateriales para «ilustrar» variaciones del espacio tiempo y los agujeros negros —donde también se usa la función zeta para regularizar los cálculos-, con más razón y mucho más fundamento físico y teórico se podrían utilizar para estudiar variantes del espectro de absorción para poder reconstruir la razón por una suerte de ingeniería inversa. El enigma de la fórmula de Priest podría abordarse desde un punto de vista tanto teórico como práctico y constructivo —aunque también la explicación que se da del rendimiento de los metamateriales es más que discutible y habría que purgarla de numerosas asunciones.
Por supuesto para cuando Priest publicó su artículo la idea de cuantización ya tenía ganada la batalla. Su trabajo cayó en el olvido y del autor apenas se recuerda más que su dedicación a la colorimetría, en la que estableció un criterio de temperaturas recíprocas para la diferencia mínima en la percepción de colores [56]; se trata de temperaturas perceptivas, naturalmente, no físicas; la correspondencia entre temperaturas y colores no parece que pueda establecerse jamás. Si existe un álgebra elemental aditiva y sustractiva de los colores, también debe haber un álgebra producto, seguramente relacionada con su percepción. Esto hace pensar en la llamada línea de púrpuras no espectrales entre los extremos rojo y violeta del espectro, cuya percepción está limitada por la función de luminosidad. Con la debida correspondencia esto podría prestarse a una hermosa analogía que el lector puede intentar adivinar.
Por otra parte conviene no olvidar que la constante de Planck no tiene nada que ver con la incertidumbre en la energía de un fotón, aunque hoy sea una costumbre asociarlos [57]. Las vibraciones longitudinales en el interior de los cuerpos en movimiento de Noskov recuerdan de inmediato el concepto de zitterbewegung o «movimiento trémulo» introducido por Schrödinger para interpretar la interferencia de energía positiva y negativa en la ecuación relativista del electrón de Dirac. Schrödinger y Dirac concibieron este movimiento como «una circulación de carga» que generaba el momento magnético del electrón. La frecuencia de la rotación del zbw sería del orden de los 1021 hertzios, demasiado elevada para la detección salvo por resonancias.
David Hestenes ha analizado diversos aspectos del zitter en su modelo de la mecánica cuántica como autointeracción. P. Catillon et al. hicieron un experimento de canalización de electrones en un cristal en el 2008 para confirmar la hipótesis del reloj interno al electrón de de Broglie. La resonancia detectada experimentalmente es muy próxima a la frecuencia de de Broglie, que es la mitad de la frecuencia del zitter; el periodo de de Broglie estaría directamente asociado a la masa, tal como se ha sugerido recientemente. Existen diversos modelos hipotéticos para crear resonancias con el electrón reproduciendo la función zeta en cavidades y billares dinámicos como el de Artin, pero no suelen asociarse con el zitter ni con el reloj interno de de Broglie, puesto que este experimento no encuentra acomodo en la versión convencional de la mecánica cuántica. Por otro lado sería recomendable considerar una energía de punto cero totalmente clásica como puede seguirse del trabajo de Planck y sus continuadores en la electrodinámica estocástica, aunque todos estos modelos se basen en partículas puntuales. [58].
La matemática, se dice, es la reina de las ciencias, y la aritmética la reina de la matemática. El teorema fundamental de la aritmética pone en el centro a los números primos, cuyo producto permite generar todos los números enteros mayores que 1. El mayor problema de los números primos es su distribución, y la mejor aproximación a su distribución proviene de la función zeta de Riemann. Esta a su vez tiene un aspecto crítico, que es justamente averiguar si todos los ceros no triviales de la función yacen en la línea crítica. El tiempo y la competencia entre matemáticos ha agigantado la tarea de demostrar la hipótesis de Riemann, el K-1 de la matemática, que comportaría una especie de lucha del hombre contra el infinito.
William Clifford dijo que la geometría era la madre de todas las ciencias, y que uno debería entrar en ella agachado igual que los niños; parece por el contrario que la aritmética nos hace más altivos, porque no necesitamos mirar hacia abajo para contar. Y eso, mirar hacia abajo y hacia lo más elemental, sería lo mejor para la comprensión de este tema, olvidándose de la hipótesis tanto como fuera posible. Naturalmente, esto también podría decirse de innumerables cuestiones donde el sobreuso de la matemática crea un contexto demasiado enrarecido, pero al menos aquí se admite una falla básica en la comprensión, y en otras partes eso no parece importar demasiado.
Cabe decir que hay dos formas básicas de entender la función zeta de Riemann: como un problema que nos plantea el infinito o un problema que nos plantea la unidad. Hasta ahora la ciencia moderna, impulsada por la historia del cálculo, se ha ocupado mucho más del primer aspecto que del segundo, a pesar de que ambos estén unidos de manera indisociable.
Se dice que si se encontrara un cero fuera de la línea crítica —si la hipótesis de Riemann resultara falsa-, eso provocaría estragos en la teoría de los números. Pero si los primeros ceros que ya evaluó el matemático alemán están bien calculados, la hipótesis puede darse prácticamente por cierta, sin necesidad de calcular más trillones o cuatrillones de ellos. En realidad, y al hilo de lo dicho en el capítulo anterior, parece mucho más probable encontrar fallos en los fundamentos del cálculo y sus resultados que encontrar ceros fuera de la línea, y además el saludable caos creativo que produciría seguro que no quedaría confinado a una rama de las matemáticas.
Naturalmente, esto cabe aplicarlo al cálculo de la propia función zeta. Si el cálculo simplificado de Mathis, usando un criterio unitario de intervalo, encuentra divergencias incluso para los valores de la función logarítmica elemental, estas divergencias tendrían que ser mucho más importantes en un cálculo tan complicado como el de esta función especial. Y en cualquier caso nos brinda un criterio diferente en la evaluación de la función. Más aún, este nuevo criterio podría revelar si ciertas divergencias y términos de error se cancelan.
Los abogados del diablo en este caso no habrían hecho todavía la parte más importante de su trabajo. Por otra parte, también se han calculado derivadas fraccionales de esta función que permiten ver dónde convergen la parte real y la imaginaria; esto tiene interés tanto para el análisis complejo como para la física. De hecho se sabe que en los modelos físicos la evolución del sistema con respecto al polo y los ceros suele depender de la dimensión, que en muchos casos es fraccionaria o fractal, o incluso multi-fractal para los potenciales asociados con los números mismos.
La aritmética y el acto de contar existen primariamente en el dominio tiempo, y hay buenas razones para pensar que los métodos basados en diferencias finitas tendrían que tener preferencia al tratar de cambios en el dominio temporal —puesto que con infinitesimales se disuelve el acto de contar. El análisis fraccional de la función también debería estar referido a las secuencias temporales. Finalmente, la relación entre variables discretas y continuas característica de la mecánica cuántica también tendría que pasar por los métodos de diferencias finitas.
La física cuántica pude describirse de una forma más intuitiva con una combinación de álgebra geométrica y cálculo fraccional para los casos que contienen dominios intermedios. De hecho los dominios intermedios pueden ser mucho más numerosos de lo que creemos si se tiene en cuenta tanto la asignación mezclada de variables en la dinámica orbital como las diferentes escalas a las que pueden tener lugar ondas y vórtices entre el campo y las partículas en una perspectiva diferente como la de Venis. La misma autointeracción del zitterbewegung reclama todavía de una concreción mucho mayor de la lograda hasta ahora. Este movimiento permite, entre otras cosas, una traducción más directamente geométrica, e incluso clásica, de los aspectos no conmutativos de la mecánica cuántica, que a su vez permiten una conexión natural clave entre variables discretas y continuas.
Michel Riguidel somete a la función zeta a un trabajo intensivo de interacción para buscar un acercamiento morfogenético. Sería excelente si la potencia de cómputo de los ordenadores pudiera usarse para refinar nuestra intuición, interpretación y reflexión, en vez de lo contrario. Sin embargo aquí es fácil presentar dos grandes objeciones. Primero, la enorme plasticidad de la función, que aun siendo completamente diferenciable, según el teorema de universalidad de Voronin contiene cualquier cantidad de información un número infinito de veces.
La segunda objeción es que si ya la función tiene una enorme plasticidad, y por otro lado los gráficos sólo representan en todo momento aspectos muy parciales de la función, las deformaciones y transformaciones, por más evocadoras que puedan ser, aún introducen nuevos grados de arbitrariedad. Se puede transformar el logaritmo en una espiral a mitad de camino entre la línea y el círculo, y crear ondas espirales y qué no, pero no dejan de ser representaciones. El interés, en todo caso, está en la interacción función-sujeto-representación —la interacción entre herramientas matemáticas, conceptuales y de representación.
Pero no se necesitan más enrevesados conceptos. El mayor obstáculo para profundizar en este tema, como en tantos otros, reside en la frontal oposición a revisar los fundamentos del cálculo, la mecánica clásica y la cuántica. Por otro lado, cuanto más complejos sean los argumentos para demostrar o refutar la hipótesis, menos importancia puede tener el resultado para el mundo real, sea cierta o falsa.
Suele decirse que el significado de la hipótesis de Riemann es que los números primos tienen una distribución tan aleatoria como es posible, lo que por supuesto deja totalmente abierto cuánto azar es posible. Tal vez no tengamos más remedio que hablar de azar aparente.
Pero aún así, ahí lo tenemos: el máximo grado de azar aparente en una simple secuencia lineal generalizable a cualquier dimensión esconde una estructura ordenada de una insondable riqueza.


*
Volvamos ahora al aspecto cualitativo de la polaridad y a la problemática relación con el dominio cuantitativo. Pero no sólo la relación entre lo cualitativo y lo cuantitativo es problemática, sino que la misma interpretación cualitativa plantea un interrogante básico, que inevitablemente remite a las conexiones cuantitativas.
Para Venis todo puede explicarse con el yin y el yang, que él ve en términos de expansión y contracción, y de una dimensión más alta o una dimensión más baja. Aunque su interpretación ahonda mucho la posibilidad de conexión con la física y la matemática, supone una asunción básica de la acepción del yin y el yang del filósofo práctico japonés George Ohsawa. Se suele afirmar repetidamente que en la tradición china, el yin se relaciona básicamente con la contracción y el yang con la expansión. Venis conjetura que la interpretación china puede ser más metafísica y la de Ohsawa más física; y en otra ocasión opina que la primera podría estar más relacionada con los procesos microcíclicos de la materia y la segunda con los procesos mesocíclicos más propios de nuestra escala de observación, pero ambas consideraciones parecen bastante divergentes.
Cuesta creer que sin resolver estas diferencias tan básicas puedan alguna vez aplicarse estas categorías a aspectos cuantitativos, aunque aún puede hablarse de contracción y expansión, con y sin relación a las dimensiones. Pero por otro lado, cualquier reducción de categorías tan vastas y llenas de matices a meras relaciones lineales con coeficientes de aspectos aislados como «expansión» o «contracción» corre el peligro de convertirse en una enorme simplificación que anula precisamente el valor de lo cualitativo para apreciar grados y matices.
La lectura que Venis hace no es en absoluto superficial, y por el contrario es fácil ver que lo que hace es darle una dimensión mucho más amplia a estos términos, y nunca mejor dicho. Su extrapolación a aspectos como el calor y el color puede parecer falta de la deseable justificación cuantitativa y teórica, pero en cualquier caso son lógicas y consecuentes con su visión general y están abiertas a la profundización del tema. Sin embargo el radical desacuerdo en la cualificación más básica ya es todo un desafío para la interpretación.
Habría que decir para empezar que la versión china no puede reducirse de ningún modo al entendimiento del yin y el yang como contracción y expansión, ni tampoco a ningún par de opuestos conceptuales con exclusión de los demás. Contracción y expansión son sólo uno entre los muchos posibles, y aun siendo muy empleado, depende enteramente, como cualquier otro par, del contexto. Tal vez la acepción más común sea la de «lleno» y «vacío», que por otra parte no deja de estar íntimamente ligada a la contracción y la expansión, aunque no sean ni mucho menos idénticos. O también, según el contexto, la tendencia a llenarse o a vaciarse; no es por nada que se distinga muy a menudo entre yang viejo y joven, y lo mismo para el yin. Estos puntos de espontánea inversión potencial también están expresados en el Taijitu, puesto que la inversión espontánea es el camino del Tao.
Por otra parte, cualidades como lo lleno y lo vacío no sólo tienen un significado claro en términos diferenciales y de las teorías de campos, la hidrodinámica o aun la termodinámica, sino que también tienen un sentido inmediato, aunque mucho más difuso, para nuestro sentido interno, o cenestesia, que es justamente el sentido común o sensorio común, que es justamente nuestra sensación indiferenciada anterior al impreciso «corte sensorial» que parece generar el campo de nuestros cinco sentidos. Esta cenestesia o sentido interno también incluye la cinestesia, nuestra percepción inmediata del movimiento y nuestra autopercepción, que puede ser tanto del cuerpo como de la misma conciencia.
Este sentido interno o sensorio es sólo otra forma de hablar del medio homogéneo e indiviso que ya somos, y es a él que se refiere siempre la percepción mediada por cualquiera de los sentidos. Y cualquier tipo de conocimiento intuitivo o cualitativo toma eso como referencia, que evidentemente va más allá de cualquier criterio racional o sensorial de discernimiento. Y a la inversa, podría decirse que ese trasfondo se obvia en el pensamiento formal pero se lo supone en el conocimiento intuitivo. Los físicos hablan a menudo de que un resultado es «contraintuitivo» sólo en el sentido de que va contra lo esperado o el conocimiento adquirido, no contra la intuición, que en vano querríamos definir.
Sería con todo absurdo decir que lo cualitativo y lo cuantitativo son esferas completamente separadas. Las matemáticas son cualitativas y cuantitativas por igual. Se habla de ramas más cualitativas, como la topología, y ramas más cuantitativas como la aritmética o el cálculo, pero una inspección más atenta revela que eso apenas tiene sentido. La morfología de Venis está totalmente basada en la idea de flujo y en nociones tan elementales como puntos de equilibrio y puntos de inversión. El mismo Newton llamó a su cálculo «método de fluxiones», de cantidades en flujo continuo, y los métodos para evaluar curvas se basan en la identificación de puntos de inflexión. De modo que hay una compatibilidad que no sólo no es forzada sino que es verdaderamente natural; que la ciencia moderna haya avanzado en dirección contraria hacia la abstracción creciente, lo que a su vez es el justo contrapeso a su utilitarismo, es ya otra historia.
Polaridad y dualidad son cosas bien diferentes pero conviene percibir sus relaciones antes de que se introdujera la convención de la carga eléctrica. La referencia aquí no puede dejar de ser la teoría electromagnética, que es la teoría básica sobre la luz y la materia, y en buena medida también sobre el espacio y la materia.
Evidentemente, sería totalmente absurdo decir que una carga positiva es yang y una carga negativa es yin, puesto que entre ambos sólo hay un cambio de signo arbitrario. En el caso de un electrón o protón ya intervienen otros factores, como el hecho de que uno es mucho menos masivo que el otro, o que uno se encuentra en la periferia y el otro en el centro del átomo. Pongamos otro ejemplo. A nivel biológico y psicológico, vivimos entre la tensión y la presión, grandes condicionantes de nuestra forma de percibir las cosas. Pero sería absurdo también que uno u otro son yin o yang en la medida en que entendamos la tensión sólo como una presión negativa. Dicho de otro modo, los meros cambios de signo nos parecen enteramente triviales; pero se hacen mucho más interesantes cualitativa y cuantitativamente cuando comportan otras transformaciones.
Que todo sea trivial o nada lo sea, depende sólo de nuestro conocimiento y atención; un conocimiento superficial puede presentarnos como triviales cosas que en absoluto lo son y están llenas de contenido. La polaridad de la carga puede parecer trivial, lo mismo que la dualidad de la electricidad y el magnetismo, o la relación entre la energía cinética y potencial. En realidad ninguna de ellas es en absoluto trivial ni siquiera tomada por separado, pero cuando intentamos verlo todo junto tenemos ya un álgebra espacio-temporal con una enorme riqueza de variantes.
En el caso de la presión y la tensión, la transformación relevante es la deformación aparente de un material. Las variaciones de presión-tensión-deformación son, por ejemplo, las que definen las propiedades del pulso, ya sea en la pulsología de las medicinas tradicionales china o india como en el moderno análisis cuantitativo del pulso; pero eso también nos lleva a las relaciones tensión-deformación que define a la ley constitutiva en la ciencia de materiales. Las relaciones constitutivas, por otro lado, son el aspecto complementario de las ecuaciones del campo electromagnético de Maxwell que nos dicen cómo éste interactúa con la materia.
Se dice normalmente que electricidad y magnetismo, que se miden con unidades con dimensiones diferentes, son la expresión dual de una misma fuerza. Como ya hemos señalado, esta dualidad implica la relación espacio-materia, tanto para las ondas como para lo que se supone que es el soporte material de la polaridad eléctrica y magnética; de hecho, y sin entrar en más detalles, esta parece ser la distinción fundamental.
Todas las teorías de campos gauge pueden expresarse por fuerzas y potenciales pero también por variaciones de presión-tensión-deformación que en cualquier caso comportan un feedback. Y hay un feedback porque hay un balance global primero, y sólo luego uno local. Estas relaciones están presentes en la ley de Weber, sólo que en ella lo que se «deforma» es la fuerza en lugar de la materia. La gran virtud de la teoría de Maxwell es hacer explícita la dualidad entre electricidad y magnetismo que se oculta en la ecuación de Weber. Pero hay que insistir, con Nicolae Mazilu, que la esencia de la teoría gauge se puede encontrar ya en el problema de Kepler.
Ya vimos que relaciones constitutivas como la permitividad y la permeabilidad con sus magnitudes respectivas no pueden darse en el espacio vacío, por lo que sólo pueden ser un promedio estadístico de lo que ocurre en la materia y lo que ocurre en el espacio. La materia puede soportar tensión sin exhibir deformación, y el espacio puede deformarse sin tensión —esto está en paralelo con las signaturas básicas de la electricidad y el magnetismo, que son la tensión y la deformación. Deformación y tensión no son yin ni yang, pero ceder fácilmente a la deformación sí es yin, y soportar la tensión sin deformación es yang —al menos por lo que respecta al aspecto material. Entre ambos tiene que haber por supuesto todo un espectro continuo, a menudo interferido por otras consideraciones.
Sin embargo, desde el punto de vista del espacio, al que no accedemos directamente sino por la mediación de la luz, la consideración puede ser opuesta: la expansión sin coacción sería yang puro, mientras que la contracción puede ser una reacción de la materia ante la expansión del espacio, o de las radiaciones que lo atraviesan. Las mismas radiaciones u ondas son una forma alterna intermedia entre la contracción y la expansión, entre la materia y el espacio, que no pueden existir por separado. Con todo una deformación es un concepto puramente geométrico, mientras que una tensión o una fuerza no, siendo aquí donde empieza el dominio de la física propiamente dicha.
Sin embargo, desde el punto de vista del espacio, al que no accedemos directamente sino por la mediación de la luz, la consideración puede ser opuesta: la expansión sin coacción sería yang puro, mientras que la contracción puede ser una reacción de la materia ante la expansión del espacio, o de las radiaciones que lo atraviesan. Las mismas radiaciones u ondas son una forma alterna intermedia entre la contracción y la expansión, entre la materia y el espacio, que no pueden existir por separado. Con todo una deformación es un concepto puramente geométrico, mientras que una tensión o una fuerza no, siendo aquí donde empieza el dominio de la física propiamente dicha.
Tal vez así pueda vislumbrarse un criterio para conciliar ambas interpretaciones, no sin una atención cuidadosa al cuadro general del que forman parte; cada una puede tener su rango de aplicación, pero no pueden estar totalmente separadas.
Es ley del pensamiento que los conceptos aparezcan como pares de opuestos, habiendo una infinidad de ellos; encontrar su pertinencia en la naturaleza es ya otra cosa, y el problema parece hacerse insoluble cuando las ciencias cuantitativas introducen sus propios conceptos que también están sujetos a las antinomias pero de un orden a menudo muy diferente y desde luego mucho más especializado. Sin embargo la atención simultánea al conjunto y a los detalles hacen de esto una tarea que está lejos de ser imposible.
A menudo se ha hablado de holismo y reduccionismo para las ciencias pero hay que recordar que ninguna ciencia, empezando por la física, ha podido ser descrita en términos rigurosamente mecánicos. Los físicos se quedan con la aplicación local de los campos gauge, pero el mismo concepto del lagrangiano es integral o global, no local. Lo que sorprende es que aún no se haya aprovechado este carácter global en campos como la medicina, la biofísica o la biomecánica.
Partiendo de estos aspectos globales de la física es mucho más viable una conexión genuina y con sentido entre lo cualitativo y lo cuantitativo. La concepción del yin y el yang es sólo una de las muchas lecturas cualitativas que el hombre ha hecho de la naturaleza, pero aun teniendo en cuenta el carácter sumamente fluido de este tipo de distinciones no es difícil establecer las correspondencias. Por ejemplo, con las tres gunas del Samkya o los cuatro elementos y los cuatro humores de la tradición occidental, en que el fuego y el agua son los elementos extremos y el aire y la tierra los intermedios; también estos pueden verse en términos de contracción y expansión, o de presión, tensión y deformación.
Y por supuesto la idea de equilibrio tampoco es privativa de la concepción china, puesto que la misma cruz y el cuaternario han tenido siempre una connotación de equilibrio totalmente elemental y de carácter universal. Es más bien en la ciencia moderna que el equilibrio deja de tener un lugar central, a pesar de que tampoco en ella puede dejar de ser omnipresente, como lo es en el mismo razonamiento, la lógica y el álgebra. La misma posibilidad de contacto entre el conocimiento cuantitativo y cualitativo depende tanto de la ubicación que demos al concepto de equilibrio como de la apreciación del contexto y los rasgos genuinamente globales de lo que llamamos mecánica.
A diferencia de los conceptos científicos acostumbrados, que tienden inevitablemente a hacerse más detallados y a especializarse, nociones como el yin y el yang son ideas de la máxima generalidad, índices a identificar en los más concretos contextos; si queremos definirlas demasiado pierden la generalidad que les de su valor como guía intuitiva. Pero también las ideas más generales de la física han estado sujetas a constante evolución y modificación en función del contexto, y no hay más que ver las continuas transformaciones de conceptos cuantitativos como fuerza, energía o entropía, por no hablar de cuestiones como el criterio y rango de aplicación de los tres principios de la mecánica clásica.
Los vórtices pueden expresarse en el elegante lenguaje del continuo, de las compactas formas diferenciales exteriores o del álgebra geométrica; pero los vórtices hablan sobre todo con un lenguaje muy semejante al de nuestra propia imaginación y la plástica imaginación de la naturaleza. Por eso, cuando observamos la secuencia de Venis y sus variaciones, sabemos que nos encontramos en un terreno intermedio, pero genuino, entre la física matemática y la biología. Tanto en una como en otra la forma sigue a la función, pero en la ingeniería inversa de la naturaleza que toda ciencia humana es, la función debería seguir a la forma hasta las últimas consecuencias.
Venis habla repetidamente incluso de un equilibrio dimensional, es decir, un equilibrio entre las dimensiones entre las que se sitúa la evolución de un vórtice. Este amplía mucho el alcance del equilibrio pero hace más difícil contrastarlo. El cálculo fraccional tendría que ser clave para seguir esta evolución a través de los dominios intermedios entre dimensiones, pero esto también plantea aspectos interesantes para la medida experimental.
Cómo puedan interpretarse las dimensiones superiores a tres es siempre una cuestión abierta. Si en lugar de pensar en la materia como moviéndose en un espacio pasivo, pensamos en la materia como aquellas porciones a las que el espacio no tiene acceso, la misma materia partiría de una dimensión cero o puntual. Entonces las seis dimensiones de la evolución de los vórtices formarían un ciclo desde la emisión de luz por la materia al repliegue del espacio y la luz en la materia otra vez —y las tres dimensiones adicionales sólo serían el proceso en el sentido inverso, y desde una óptica inversa, lo que hace que se evite la repetición.
Es sólo una forma de ver algunos aspectos de la secuencia entre las muchas posibles, y el tema merece un estudio mucho más detallado que el que podemos dedicarle aquí. Una cosa es buscar algún tipo de simetría, debe haber muchos más tipos de vórtices de los que conocemos ahora, sin contar con las diferentes escalas en que pueden darse y las múltiples metamorfosis. Sólo en el trabajo de Venis puede encontrarse la debida introducción a estas cuestiones. Para Venis, aunque no haya manera de demostrarlo, el número de dimensiones es seguramente infinito. Un indicio de ello sería el número mínimo de meridianos necesarios para crear un vórtice, que aumenta exponencialmente con el numero de dimensiones y que el autor asocia con la serie de Fibonacci.
Puede hablarse de polaridad siempre que se aprecie una capacidad de autorregulación. Es decir, no cuando simplemente se cuenta con fuerzas aparentemente antagónicas, sino cuando no podemos dejar de advertir un principio por encima de ellas. Esa capacidad ha existido siempre desde el problema de Kepler, y es bien revelador que la ciencia no haya acertado a reconocerlo. La fuerza de Newton no es polar, la fuerza de Weber sí, pero el problema de los dos cuerpos exhibe una dinámica polar en cualquier caso. De hecho llamar «mecánica» a la evolución de los cuerpos celestes es sólo una racionalización, y en realidad no tenemos una explicación mecánica de nada cuando se habla de fuerzas fundamentales, ni probablemente podemos tenerla. Sólo cuando advertimos el principio regulador podemos usar el término dinámica haciendo honor a la intención original aún presente en tal nombre.