Cuestiones de interpretación -y de principio

Según Proclo, el objetivo principal de Euclides al escribir sus Elementos era elaborar una teoría geométrica completa de los cinco sólidos platónicos. De hecho, se ha dicho en diversas ocasiones que tras el nombre de «Euclides» podría haber un colectivo con un fuerte componente pitagórico. La existencia de sólo cinco sólidos regulares es posiblemente el mejor argumento para pensar que vivimos en un mundo de tres dimensiones.

Otro de los grandes campeones del concepto de armonía en la ciencia fue Kepler, el astrónomo que introdujo las elipses en la historia de la física, bastando con recordar el título de su obra magna, Harmonices Mundi. Descubrió la convergencia de la serie de Fibonacci, combinó el teorema de Pitágoras con la razón áurea en el triángulo que lleva su nombre y teorizó ampliamente sobre los cinco sólidos platónicos, a los que incluso colocó entre las órbitas de los planetas, y que han sido considerados por una cierta tradición como los arcanos de los cuatro elementos más la quintaesencia o Éter.

Este último estaría representado por el pentágono y el pentagrama, y por el dodecaedro complementario del icosaedro, en el que quiso verse una figuración del elemento agua.

a/b = b/c= c/d = (1+√ 5)/2

La cascada de proporciones idénticas a distintas escalas evoca de inmediato su capacidad para generar formas autosimilares como la espiral logarítmica que despliega indefinidamente su razón en una serie de potencias: φ, φ2, φ3, φ4… Si una recursión es aquello que permite definir a algo en sus propios términos, el pentagrama nos muestra el proceso recursivo más simple que pueda darse en el plano.

Todavía en 1884 Félix Klein, reconciliador de la geometría analítica y la sintética, daba unas Conferencias sobre el Icosaedro en las que consideraba a éste como objeto central de las principales ramas de la matemática: «Cada objeto geométrico único está conectado de una forma u otra a las propiedades del icosaedro regular». Estamos ante otro de esos objetos «extraordinariamente bien conectados» y sería muy interesante trazar los vínculos con las dos representaciones del Polo de las que partíamos. La fracción continua de Rogers-Ramanujan, por ejemplo, cumple un rol análogo para el icosaedro que la función exponencial para un polígono regular.

La orientación que propuso el influyente Klein no obtuvo tanta aceptación como la del célebre programa de Erlangen; para profundizar debidamente en ella se requería la guía dinámica de la naturaleza, de la física y de la matemática aplicadas. Incluso los tiempos actuales son más propicios para recuperar este programa, a pesar de que la misma física se haya hecho más abstracta a pasos agigantados. La mejor forma de reimpulsar hoy el segundo gran programa de Klein tendría que pasar por herramientas como un álgebra geométrica con los pies bien hundidos en la tierra.

La sección áurea emerge bajo el sello inequívoco de las simetrías quíntuples, que se creían privativas de los seres vivos hasta el descubrimiento de los cuasicristales. Que los cristales ordinarios, estructuras estáticas por definición, excluyan este tipo de simetría parece indicar que aquí se hacen posibles condiciones de equilibrio de más largo alcance. Se están estudiando intensivamente las propiedades ópticas de cuasicristales fotónicos y otras estructuras menos periódicas —a menudo con una refracción cero o un doble cero de permitividad y permeabilidad- en 1D, 2D, y 3D. Como era de esperar, se han encontrado fases con holonomía espiral. Al igual que en el grafeno, aunque la curvatura de Berry ha de ser cero, el desplazamiento de fase puede ser igual a cero o a π [26].

Sería interesante estudiar todos estos nuevos estados desde el punto de vista de la termomecánica, la termodinámica cuántica y los potenciales retardados, pudiendo ofrecer estos últimos una interpretación mucho más convincente de, por ejemplo, los llamados efectos relativistas del grafeno; al igual que permiten tratar los puntos singulares de manera más lógica. En la frontera entre lo periódico y lo aleatorio, los numerosos secretos de la simetría quíntuple no se abrirán sin una lectura cuidadosa.

*

Salvo para confundir las mentes y las cosas, la proscripción del Éter por la relatividad especial no deja de ser del todo irrelevante. Primero de todo, porque lo que hace funcionar a la relatividad especial es la transformación de Lorentz-Poincaré, concebida expresamente para el Éter. Segundo, porque aunque la relatividad especial, que es la teoría general, prescinda del Éter, la relatividad general, que es la teoría especial para la gravedad, lo demanda, aunque sea de forma harto teórica. En electrodinámica se puede escoger entre ambos caminos.

La electrodinámica de Weber coincide muy aproximadamente con el factor de Lorentz hasta velocidades de 0.85 c sin necesidad de arrojar por la ventana el tercer principio de la mecánica. Pero en cualquier caso, y aun si nos atenemos a las ecuaciones de Maxwell, que es el nudo mismo de la cuestión, lo que tenemos es que no existen ni pueden existir ondas electromagnéticas moviéndose en el espacio con un componente transversal al otro, sino un promedio estadístico de lo que ocurre entre el espacio y la materia. Esta es la conclusión de Nicolae Mazilu, pero sólo hay que ver el rotundo fracaso de todos los intentos de hacer efectiva la descripción geométrica del campo y las ondas [27].

Lo extraño, una vez más, es que no se haya visto con claridad esto antes. Pero resulta que la idea que se tenía del Éter hacia 1900, o al menos la que tenía Larmor, entre otros, es que éste no era sólo un medio entre las partículas de materia, sino algo que penetraba también esas partículas, que eran vistas como sus condensaciones —igual que ahora podemos ver las partículas como condensaciones del campo . Había Éter fuera en el espacio y Éter dentro de la materia —como en las ondas electromagnéticas, entre las que se encuentra la luz.

El Éter no es otra cosa que la misma luz, pero puede ser también otras cosas que la luz que vemos, y que todo el espectro electromagnético. Ocurre sólo que no podemos conocer nada sin el concurso de la luz. La luz es el mediador entre un espacio que no podemos conocer directamente, pero nos da la métrica, y una materia que se encuentra en la misma situación, pero es objeto de medida.

Y ahora que ya sabemos que estamos en medio del Éter, como el burgués gentilhombre que descubrió que siempre había hablado prosa sin saberlo, tal vez podamos mirar las cosas con más tranquilidad. Sólo una mentalidad consumadamente dualista que piense en términos de «esto o lo otro» ha podido permanecer perpleja durante tanto tiempo ante esta cuestión.

Esta idea del Éter in medias res no podía estar muy clara a principios del siglo XX, de otro modo los físicos no le habrían abierto los brazos a la teoría de la relatividad como lo hicieron. Si ésta fue bienvenida, dejando otras razones aparte, fue porque parecía terminar de una vez por todas con una serie interminable de dudas y contradicciones —o al menos así se creyó en su momento, hasta que empezaron a aflorar las insolubles «paradojas» una tras otra. Se dice que para entonces la ley de Weber, que ni siquiera precisaba la existencia de un medio porque tampoco hablaba de ondas, había caído mayormente en el olvido —aunque no para autores tan bien informados como Poincaré.

Naturalmente, en vez de Éter también podemos usar la palabra «campo», siempre que no lo entendamos como el suplemento de espacio que rodea a las partículas, sino como la entidad fundamental de la que éstas emergen.

En cualquier caso la relatividad especial por sí sola prácticamente no entra en contacto con la materia, y cuando lo hace a través de la electrodinámica cuántica desde Dirac, de nuevo volvemos a la polarización del vacío y a un medio aún más poblado, extraño y contradictorio que cualquiera de los anteriores avatares del Éter.

Hoy se usa la óptica de transformación y las anisotropías de los metamateriales para «ilustrar» los agujeros negros o para «diseñar» —se dice- espacio-tiempos diferentes. Y sin embargo sólo se están manipulando los parámetros macroscópicos de las viejas ecuaciones de Maxwell, como la permeabilidad y la permitividad. Puestos a distorsionar, ya no se podía llegar más lejos. ¿Y porqué habría de tener propiedades el espacio vacío si estuviera realmente vacío? Pero, una vez más, de lo que se trata es de promedios estadísticos entre el espacio y la materia. Sólo el prejuicio creado por la relatividad nos impide ver más claramente estas cosas.

Debería tener mucho más interés estudiar las propiedades del continuo espacio-materia accesible a nuestra modulación directa que aspectos exóticos de objetos hipotéticos de una teoría, la relatividad general, que ni siquiera se ha podido unificar con el electromagnetismo clásico.

Y si el éter de 1900 podía resultar inconveniente, ¿qué decir de una teoría que rompe con la continuidad de las ecuaciones de toda la mecánica clásica, y que para paliarlo introduce infinitos marcos de referencia? Ciertamente, no es una solución económica, y aún parece peor si pensamos que con el principio de equilibrio dinámico podemos prescindir de la inercia y de la distinción de marcos —embrollo que se ha usado, además, para dejar fuera de juego a otras teorías.

Para colmo, y de la forma más notoria, las ecuaciones de Maxwell sólo sirven para porciones del campo con extensión; la relatividad especial sólo es válida para eventos puntuales, y en las ecuaciones de campo de la relatividad general las partículas puntuales de nuevo vuelven a carecer de sentido. La óptica de transformación aprovecha esta triple incompatibilidad con un bypass que deja a la relatividad especial en el limbo, para unir a Maxwell con otra teoría incompatible. Y sin embargo, aunque esto no se diga, es por la relatividad especial que la mecánica cuántica ha sido incapaz de trabajar con partículas extensas. En cambio, partiendo de la mecánica de Weber no había problemas para trabajar tanto con partículas extensas como puntuales.

Para los que todavía crean que el marco fundamental de la mecánica clásica debe tener cuatro dimensiones, puede recordarse que en pleno siglo XXI, se han desarrollado teorías gauge de la gravedad consistentes que satisfacen el criterio formulado por Poincaré en 1902, a saber, elaborar una teoría relativista en el espacio plano ordinario modificando las leyes de la óptica, en lugar de curvar el espacio con respecto a las líneas geodésicas descritas por la luz. La luz es el mediador entre el espacio y la materia; y si la luz se deforma, lo cual es evidente, no hace falta deformar nada más.

Las ecuaciones de Maxwell ni siquiera son un caso general, sino un caso particular, tanto de Weber como de las ecuaciones de fluidos de Euler. Dentro de la mecánica de fluidos, Maxwell buscó el caso para un medio estático o sin movimiento propio; si las ecuaciones de Maxwell no son fundamentales, el principio de relatividad tampoco puede serlo [28]. La reciprocidad de la relatividad especial es puramente abstracta y cinemática, no mecánica, puesto que no está ligada a centros de cuerpos materiales con masa, y no permite distinguir entre fuerzas internas que cumplan con la tercera ley y fuerzas externas que no tienen porqué cumplirla. El principio de relatividad que afirma la imposibilidad de encontrar un marco de referencia privilegiado es válido sí y solo si no existen fuerzas externas a las consideradas dentro del sistema —pero por otra parte, al desatenderse el tercer principio, tampoco se definen mecánicamente las fuerzas internas.

El llamado estrés de Poincaré que el físico francés introdujo para que la fuerza de Lorentz cumpliera con el tercer principio cumple el mismo rol en el contexto relativista que las vibraciones longitudinales de Noskov para la fuerza de Weber. El hecho de que dicho estrés se considerara luego irrelevante para la relatividad especial muestra concluyentemente su divorcio de la mecánica.

Las ecuaciones de Maxwell, como dice Mazilu, son una reacción ante los aspectos parcial o totalmente incontrolables del Éter. En las teorías físicas las cantidades que importan no son las medibles, sino las controlables, pero de este modo prescindimos de información que podría ser integrada en un marco teórico más amplio.

Las cuestiones de interpretación nos devuelven inevitablemente a las cuestiones de principio; sin modificar los principios estamos condenados a trabajar para ellos.

El principio de relatividad es contingente y por lo tanto innecesariamente restrictivo, dependiendo además de procedimientos de sincronización arbitrarios. El principio de equivalencia de la relatividad general tampoco termina con los problemas de los marcos de referencia, y, en combinación con el principio de relatividad, más bien los multiplica.

El principio de equilibrio dinámico de la mecánica relacional simplifica radicalmente esta situación sin crear restricciones innecesarias. Dejando a un lado la generalidad, un principio no debería ser restrictivo, sino necesario. Por otra parte, la incapacidad del principio de equivalencia para librarse del principio de inercia lo subordina automáticamente a éste.

Y no es casualidad. Si de la inercia sabemos lo mismo que del Éter, más bien nada, es porque la inercia misma se solapa inadvertidamente con la idea del Éter y lo suplanta. Entonces, el Éter sólo podría emerger sin mixtificaciones de una física que prescindiera por completo de la idea de la inercia, lo cual es perfectamente viable y compatible con toda nuestra experiencia.

Sin duda cada teoría tiene sus propias virtudes, pero las de Maxwell y la relatividad ya se han ensalzado más que suficientemente. Aquí preferimos volver la vista a la teoría que tiene precedencia histórica sobre ambas, dado que la presentación que se hace hoy no puede ser más parcial.

Volviendo al pasado, vemos que el medio sin arrastre de Lorentz, el de arrastre parcial de Fresnel y Fizeau, y el de arrastre total de Stokes no son contradictorios y se refieren a casos claramente diferentes. Existen experimentos, como los de Miller, Hoek, Trouton y Noble, y otros muchos, que pueden volver a realizarse en muchas mejores condiciones y brindan una información inestimable desde todos los puntos de vista, siempre y cuando nuestro marco teórico nos permita contemplarlo, lo que ahora no es el caso [29]. Se trata por lo demás de experimentos miles de veces menos costosos, más simples y más informativos que las actuales «confirmaciones» de la relatividad especial y general.

Hay además una inevitable complementariedad entre los aspectos constitutivos del electromagnetismo en los modernos metamateriales, con su mezcla de factores controlables e incontrolables en la materia, y la medición de aspectos incontrolables del medio libre en el espacio. Pero esta complementariedad no puede apreciarse sin principios y un marco que, para empezar, permitan hacerlos compatibles. Por otro lado no es necesario decir que entre la óptica de transformación y la relatividad general no puede haber contacto, sino sólo paralelismo.

Otra forma de hablar de una fase geométrica es decir que es una transformación u holonomía en torno a una singularidad. Esta singularidad puede ser un vórtice, lo que brinda una conexión natural con la entropía o la atenuación de ciertas magnitudes, que evidentemente no pueden alcanzar valores infinitos.

Un caso interesante lo constituye la llamada transmutación de vórtices ópticos, esto es, el cambio cualitativo de su rasgo más intrínseco, que es la vorticidad, y que se ha podido realizar recientemente incluso en el espacio libre [30], involucrando además simetrías pentagonales. Los vórtices se presentan en los cuatro estados de la materia —sólido, líquido, gaseoso y plasma, que son nuestra versión de los antiguos cuatro elementos. Teniendo en cuenta que puede describirse su comportamiento característico en función de relaciones constitutivas de tensión/deformación, también es viable una descripción cuantitativa de la transmutación de los estados de la materia ampliamente diferente de la transmutación nuclear de los elementos, sin perjuicio de que también los núcleos se pueden describir más o menos clásicamente con vórtices como los eskirmiones.

La llamada fase geométrica, ese fenómeno tan universal que incluso se manifiesta como vorticidad sobre la superficie del agua, aplicada al electromagnetismo clásico viene a ser algo así como «la quinta ecuación de Maxwell», puesto que pone en juego y engloba a las cuatro conocidas. El mismo nombre «fase geométrica» parece claramente un eufemismo, puesto que no son los geómetras los que suelen ocuparse de ella, sino los físicos, y más aún, los físicos aplicados. Por lo demás, prefiero llamarla holonomía en lugar de anholonomía, pues lo último se refiere a que no es integrable dentro del cálculo de una teoría, mientras que la holonomía se refiere a un aspecto global que puede reconocerse incluso a simple vista.

El mismo Berry admite que la fase geométrica es una forma de incluir los (incontrolables) factores ambientales que no están dentro del sistema definido por la teoría [31]. En este sentido, para llegar a «la quinta ecuación» de Maxwell no hace falta añadir términos, sino remitirse a la «predinámica» de las ecuaciones menos restringidas o más generales de las que proceden —Weber y Euler. Y lo mismo vale para la relatividad.

Sin duda la fenomenología de la luz es tan vasta que no deja de sorprendernos, pero todo esto tendría una trascendencia incomparablemente mayor si un esfuerzo paralelo se dedicara a los aspectos incontrolables, pero complementarios, que ahora están proscritos o enmascarados por la teoría dominante. Pero en realidad no hay parte de la física que hoy no se esté contemplando bajo una óptica innecesariamente distorsionada.

*

En la teoría de los agujeros negros también emerge la razón áurea, justo en el punto crítico de inflexión en que su temperatura pasa de aumentar a caer: J2/M2 = (1+√ 5)/2 , siendo M y J la masa y el momento angular cuando las constantes c y G son 1. El significado y relevancia de esto no está claro, pero abunda en la costumbre de esta constante en aparecer en puntos críticos [32].

En fuerzas del tipo de la de Weber no hay cabida para objetos teóricos como los agujeros negros ya que la fuerza disminuye con la velocidad, y sería interesante ver si la óptica de transformación es capaz de encontrar una «réplica» de laboratorio para la evolución de estos parámetros. En la mecánica relacional, por contraste, lo más que puede esperarse es distintos tipos de singularidad de fase, como los vórtices ópticos mencionados.

Si algún interés tiene para nosotros la emergencia de φ en los agujeros negros, aunque se trate de cálculos puramente teóricos, es por su asociación directa con el momento angular, la entropía y la termodinámica. Nos muestra al menos que la proporción continua puede emerger también de acuerdo con el principio de máxima entropía que consideramos fundamental para entender la naturaleza, la mecánica cuántica, o la formulación termomecánica de la mecánica clásica. Si puede hacerlo allí, también puede hacerlo en otro tipo de singularidades, como la de fase de los vórtices, en el modelo óptico que para el rayo de luz construyó de Broglie, o en los hologramas.

Pues tal vez el mayor interés del estudio teórico de los agujeros negros haya sido introducir este principio de máxima entropía en la física fundamental, si bien como un término final, cuando seguramente se trata de algo efectivo en cualquier momento del pasado y el presente. En la física teórica con más predicamento, esto podría expresarse a través del llamado principio holográfico, lo que no está del todo mal dado que este principio hace un uso extensivo de la fase lumínica, y, después de todo, ya hemos visto que no hay conocimiento de nuestro mundo físico que no pase por la luz. Sin embargo existen todo tipo de dudas sobre cómo aplicar tal principio a la física ordinaria de bajas energías.

Los agujeros negros son objetos teóricos extremos de máxima energía, pero se ha llegado a ellos a través de la física ordinaria de la gravedad, gobernada por los principios de acción de mínima variación de energía. Técnicamente, esto no envuelve ninguna contradicción, pero sí nos lleva a preguntarnos por la naturaleza misma de los principios de acción, algo que aún preocupaba a un físico conservador como Planck.

El principio de acción de la ley de Weber, o el de Noskov, no permite la existencia de estos objetos extremos porque, aplicando la reciprocidad de forma estrictamente mecánica sobre los centros de masa, la fuerza y la velocidad, éstas últimas siempre se compensan. En la descomposición del lagrangiano por Mathis en dos fuerzas, también ocurre lo mismo. En la termomecánica de Pinheiro, en que hay un equilibrio entre mínima variación y máxima entropía, tampoco parece que esto sea posible, siempre que haya energía libre disponible.

El lagrangiano ordinario es el más «vacío» de causalidad, y la teoría de Mathis, que quiere prescindir de la energía y el principio de acción para quedarse sólo con vectores y fuerzas, es obviamente el modelo más «lleno»; otra cosa es que esto sea viable. Los otros dos se sitúan en lugares intermedios. Sabemos que con principios de acción las causas unívocas son imposibles. Uno puede elegir el camino que prefiera y ver hasta dónde llega, pero mi posición al respecto es que aunque no es posible una determinación unívoca de causas, sí podemos tener un sentido estadístico pero cierto de la causalidad, relacionado con la Segunda Ley de la termodinámica. El principio de acción de Noskov y el de Pinheiro son ciertamente compatibles.

El giro irónico es que es el tercer principio el que define qué es un sistema cerrado, pero no se puede aplicar este principio sin el concurso de un medio abierto y con energía libre que contribuya a cerrar el balance. Esto ocurre incluso en el modelo de Mathis, donde la carga libre es reciclada por la materia. Así pues, cualquier mecánica reversible emerge como una isla de un fondo irreversible, y es este doble nivel el que nos brinda nuestra intuición de la causalidad.

La propagación de la luz se funda en la homogeneidad del espacio, pero las masas sobre las que actúa la gravedad suponen una distribución no homogénea. Si suponemos un medio primitivo homogéneo, ningún tipo de fuerza, incluida la gravedad, puede alterar esa homogeneidad salvo de forma transitoria. La autocorrección de las fuerzas, que ya está implícita en Newton y en el lagrangiano original, lleva en esa dirección y parece la única forma concebible de cancelar los infinitos que surgen en los cálculos. El tratamiento entrópico y termodinámico de la gravedad también tendría que pasar necesariamente por ahí.

El surgimiento de la razón continua y sus series en el crecimiento vegetal, en piñas o girasoles, nos hace pensar en vórtices hechos de unidades discretas, a la vez que nos devuelve a las consideraciones sobre el óptimo, que no máximo, aprovechamiento de recursos, materia y recolección de datos del que parece hacer gala la naturaleza.

Yasuichi Horibe demostró que los árboles binarios de Fibonacci estaban sujetos al principio de máxima producción de entropía informativa [33], algo que podría extenderse a la entropía termodinámica y, tal vez a otras ramas como la óptica, la holografía, o la termodinámica cuántica. La cuestión es si estas series pueden emerger sin más del principio de máxima entropía o se encuentran en algún punto óptimo variable entre la mínima energía y la máxima entropía, como sugieren las ecuaciones de Pinheiro.

Puesto que éste comienza por probar su mecánica con algunos modelos bien simples, como una esfera rodando en una superficie cóncava, o el periodo de oscilación de un péndulo elemental, sería del mayor interés determinar el problema más simple, dentro de esta mecánica, en la que la razón continua aparezca con un rol crítico o relevante. Con esto podríamos retomar el hilo de Ariadna de esta razón para variables de acción y problemas de optimización.

A Planck todavía le inquietaba el hecho de que los principios de acción parecen entrañar una finalidad. Y lo mismo ocurría con la Segunda Ley de la termodinámica para Clausius, aunque a éste el hecho no le incomodaba en absoluto. Es bien fácil ver que ambos tipos de procesos, aparentemente tan alejados, son efectivamente teleológicos, y ello no es una coincidencia puesto que ni siquiera están separados, tal como la termomecánica de Pinheiro muestra. Parece que la inclusión simultánea de dos indudables propensidades de la naturaleza es más natural que su tratamiento por separado.

En Occidente ha habido un fuerte rechazo a cualquier connotación teleológica porque la teleología se ha confundido siempre o con la teología y la providencial mano invisible o con la mano intencionada del hombre. Tertium non datur. Sin embargo está claro que aquí, tanto para la mecánica como para la termodinámica, estamos hablando de una tendencia tan innegable como espontánea. Entender esta tercera posición, que ya existía antes del falso dilema del mecanicismo, nos lleva a cambiar radicalmente nuestra comprensión de la naturaleza.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *