Autoenergía y autointeracción – Partícula extensa y Termodinámica

English version

Desde los tiempos del Proyecto Manhattan es imposible esperar trasparencia en campos aplicados como la física de partículas. Nociones tales como la partícula puntual, la relatividad especial, o la segregación de los problemas termodinámicos prestan un gran servicio a la hora de levantar un muro de niebla sobre los procesos físicos más reales. Este velo o capa protectora se ha encontrado conveniente y se ha mantenido hasta el presente en los sectores tecnológicos de mayor valor estratégico. Buscamos tanto una perspectiva histórica como una prospectiva.

La teoría del electrón, ya desde los trabajos de Lorentz de 1895, parece cerrar definitivamente los problemas de la electrodinámica clásica de Maxwell y abrir el camino a la problemática de la Relatividad; por otra parte esta partícula es el taller mismo en el que la mecánica cuántica se desarrolla. Así, los enteros fundamentos de la física del siglo XX, a nivel micro y macroscópico, encuentran en ella un nudo común. Más tarde la extensión relativista de la mecánica clásica y la mecánica cuántica adquirieron un despliegue tal que las cuestiones del electromagnetismo que habían quedado abiertas llegaron a parecer lejanas, cuando no irrelevantes. Que esto no era así, y sigue sin serlo, lo demuestra concluyentemente el hecho de que los principales números del marco vigente, como la masa, la carga del electrón o la constante de estructura fina se siguen metiendo a mano y no se derivan de nada, lo que deja a todo este portentoso edificio colgando del aire.

Esa enorme incógnita a la que llamamos «electrón», el fiel y común servidor de toda nuestra tecnología, tan aparentemente ordinario que no deja lugar en nosotros para la sospecha, tan frotado, usado y abusado hasta en lo más trivial, es un genio como no hay otro: el único que tal vez nos permitiría realizar ciertos deseos no sacándolo de la lámpara, sino devolviéndolo a ella.

El problema básico de la autointeracción en los modelos vigentes es el de la reacción radiativa: una carga acelerada radia energía electromagnética y momento y por tanto ha de haber una reacción sobre la partícula, o de su campo electromagnético sobre sí mismo. Las causas de la radiación no necesariamente tienen que ser externas, pueden ser también internas por interacción con otras partículas.

Para alguno de los artífices de la QED, Feynman por ejemplo, la idea de autointeracción es simplemente tonta, y lo único sensato que uno puede hacer es librarse de ella y de paso ignorar todo el problema asegurando que un electrón acelerado no radia en absoluto. El tema ha sido siempre enormemente controvertido y aquí no queremos insistir en ninguna postura determinada, pero nos parece que la posición citada es ante todo cuestión de conveniencia, y que no se habla claramente de la razón de esta conveniencia.

No se dice, por ejemplo, que la Relatividad Especial, en realidad el caso general, es sólo un marco local de eventos puntuales, en el que no tiene sentido plantearse partículas con extensión —del mismo modo que en la Relatividad General, en realidad un caso particular para la gravedad, no tiene sentido hablar de masas puntuales.

Las ecuaciones de Maxwell tienen covariancia general pero ésta no conduce a la transformación de Lorentz que da pie a la Relatividad Especial. Las ecuaciones originales de Maxwell tienen forma integral y contienen más información que su posterior versión diferencial, pero aun en su versión diferencial no contemplan todavía cargas discretas que es el caso que Lorentz introduce. Sin embargo las ecuaciones de Maxwell, en su forma más universal y libres de la métrica expresamente introducida para el electromagnetismo tienen invariancia natural tal como supieron ver en su día Cartan, Kottler y van Dantzig.

La teoría de Maxwell, limitada como es, no deja de ser una teoría del Continuo físico (no geométrico), pero en la Relatividad Especial éste es el primer sacrificado por más que se hable de un Continuo espacio-temporal. Su carácter operacionalista o discrecional entraña justamente eso: el corte a discreción de ese continuo con la introducción de postulados arbitrarios e incompatibles con el continuo como el de la invariancia de la velocidad de la luz. Esto crea una contradicción adicional con el principio de sincronización global que aquí no se enuncia pero que desde Newton siempre se supone.

Si en Newton tal principio se reviste como mera afirmación por decreto del tiempo absoluto, en la TER sólo pueden contemplarse leyes de conservación local, puesto que se trata de un marco local de eventos puntuales. De hecho, si ni siquiera hoy parece viable un modelo de partícula extensa y con dimensiones es porque la relatividad especial ya de inicio lo excluye. Fenómenos tan básicos como la inductancia y autoinductancia que requieren circuitos con extensión no son asimilables para esta teoría. Nos encontramos entonces en la extraña situación de que se supone una sincronización global que está excluida por la misma teoría y que ella misma hace imposible de concretar. La invariancia introducida por Minkowski es incompatible con cualquier ecuación clásica de movimiento, y no parece que la Relatividad Especial pueda dar una transformación apropiada para marcos de referencia acelerados, y por ende, para la radiación.

No se trata aquí de hacer una diatriba contra la Relatividad Especial, sino de ver que ésta es incompatible con la idea de partícula extendida y con otras circunstancias básicas de la teoría clásica de campos como la aceleración y la radiación. Desde el principio se trata de una teoría altamente abstraída e inmaterial, surgida para dirimir salomónicamente el atolladero de los marcos de referencia y generalizada sin la menor contención a otros casos que ya contenían un rico contexto material. En todo esto la Relatividad Especial no caza ratones, y se paga un alto precio sacrificándolo todo a sus formalismos. Pero esto no se dice claramente, y se procura dirigir la atención sobre asuntos subordinados o secundarios.

Realmente no sabemos si sería preferible un modelo de partícula extendida u otro puntual, si contemplar los problemas de la radiación u olvidarnos de ellos; pero en cualquier caso para poder decidirlo tendríamos que partir de un marco lo bastante imparcial. La Relatividad Especial no lo es, pero la electrodinámica de Maxwell, o la de Maxwell-Lorentz, tampoco. En el campo electromagnético clásico no hay lugar para partículas puntuales, y por otro lado, si todavía en 1913 Bohr andaba proponiendo órbitas circulares, era porque en las ecuaciones de Maxwell no hay forma de saber en qué condiciones precisas se emite o no se emite radiación.

Hay un hueco en el balance de la fuerza en las ecuaciones de Maxwell si éstas irradian siempre que se aceleran, y la energía irradiada es la compensación del trabajo realizado por la auto-fuerza. Es obvio que si todavía no se sabe cuándo hay o no hay radiación, la auto-fuerza y la autoenergía constituyen posibles términos de ajuste para los grandes números cuyo origen aún queda por determinar, además de mostrarnos todo un flanco abierto a la termodinámica y la irreversibilidad al que se prefiere subcontratado. Ambas cosas parecen ser tan inconvenientes para la versión QED que aspira a ser la última palabra sobre el tema, como prometedoras para otros enfoques libres de semejantes compromisos.

Por otra parte, la oposición partícula puntual-partícula extensa seguramente no es tan aguda como a veces se nos quiere presentar, pues jamás ha existido nada parecido a una «partícula puntual», y sí una partícula-en-el-campo cuyo centro admite un punto sobre el que se puede aplicar una fuerza. Ya Hertz había visto la necesidad de distinguir entre partícula material y punto material: la primera es punto indestructible de aplicación de fuerzas, la segunda un conjunto extenso variable conectado entre sí. Se trata de acepciones y dominios de aplicación distintos, en un sentido muy similar al suscitado posteriormente por de Broglie.

¿De qué se supone que ha de estar hecho un electrón? De campos electromagnéticos, de qué si no. Es por esto que la partícula no se libra del Continuo, y es también por esto que se plantea la autointeracción. Y como campo electromagnético, los electrones no son partículas puntuales; la inmensa mayoría de su energía está en un radio 2.8×10–11metros, lo que da una buena aproximación como partícula puntual para distancias largas que no puede mantenerse para las suficientemente cortas. La onda de un electrón en un superconductor puede ocupar metros y aun kilómetros, mostrando hasta qué punto una partícula es lo que le permite su entorno. En cualquier caso la densidad de su campo disminuye como 1/r2, y del mismo modo que el campo magnético en torno a una corriente se hace notar a metros, así ha de ocurrir con el de cada electrón. En el límite este campo se diluye al infinito hasta el mayor tamaño y la mínima estructura; en la dirección contraria, en el confinamiento, es donde encontramos los detalles —que también son un espejo del confinamiento mismo.

Así que no hay partícula puntual sin el campo. Se supone que la electrodinámica cuántica iba justamente sobre eso, pero luego llegó el efecto Aharonov-Bohm y el desconcierto entre los paladines de la acción local fue más elocuente que millones de palabras; y resulta más elocuente todavía si pensamos que el efecto puede derivarse enteramente de la ecuación clásica de Hamilton-Jacobi y que Berry y otros incluso le encontraron su exacto análogo incluso en la superficie del agua, con ilustraciones que tanto recuerdan a las de Bjerkness en la Exposición Internacional de París en 1881. A pesar de todo, y quién sabe porqué, aún es común afirmar que el consabido efecto es un claro exponente del carácter único de los potenciales cuánticos.

Se afirma continuamente que la mecánica cuántica es el nivel fundamental y el electromagnetismo clásico se sigue necesariamente de ella, y así tendría que ser, pero en la práctica sin la visión clásica la mecánica cuántica es básicamente ciega, un formalismo estándar de cálculo al que hay que decirle sobre qué operar, y además la zona de transición entre ambas es sumamente difusa y carece de un criterio general.

Autointeracción sin radiación: la electrodinámica de Weber y los potenciales retardados

La electrodinámica de Weber, que precede en el tiempo a la de Maxwell, es una teoría de acción directa con muchas semejanzas con las electrodinámicas directas surgidas tras la Relatividad Especial pero sin ninguna de sus contraindicaciones, lo que todavía hoy hace tan recomendable su revisión. El mismo Maxwell reconoció finalmente en su Tratado la equivalencia básica entre las teorías de campos y las entonces llamadas teorías de acción a distancia como la de Weber.

Wilhelm Weber, tampoco está de más decirlo, desarrolló un modelo de átomo elíptico cincuenta o sesenta años antes de que Bohr dibujara su modelo de órbita circular y sin el beneficio de ninguno de los datos conocidos por el físico danés. Todavía más, el núcleo se mantenía estable sin necesidad siquiera de postular fuerzas nucleares.

La ley de Weber es el primer caso en que las fuerzas centrales no son definidas sólo por distancias sino también por la aceleración radial relativa; más allá de una distancia crítica, que viene a coincidir con el radio clásico del electrón, la masa inercial de la carga cambia de signo y pasa de ser positiva a negativa.

Un punto decisivo es que la electrodinámica de Weber, aun siendo en gran medida equivalente a la de Maxwell, permite ver otra cara de la autointeracción que no pasa necesariamente por la radiación. Se trata más bien de una autointeracción del sistema completo considerado, una realimentación global del circuito, en lugar de la autointeracción como reacción local. En la concepción original de Maxwell todo debería ser global y circuital también, lo que no podía pedírsele era que se aplicara a cargas puntuales. Las fórmulas de Weber permiten tanto cargas puntuales como extensas.

Como gusta de recordar Assis, la ley de fuerza eléctrica de Weber de 1846 es la primera ecuación de movimiento completamente relacional, esto es, expresada en cantidades conocidas del mismo tipo u homogéneas. El grado de uso de cantidades heterogéneas ya nos habla del grado de alejamiento de la trasparencia, igual que las constantes dimensionales o «universales» ya nos dicen claramente que una teoría no es universal. La ley de Weber ya cumplía plenamente todas las exigencias de Mach antes de Mach, las mismas exigencias, quién lo diría, en las que la Relatividad pretende inspirarse pero que no alcanza a cumplimentar.

También es la primera ley dinámica que supone una extensión, más que enmienda, de la ley de fuerzas centrales de Newton. Sus continuadores han sido más newtonianos que éste y han entendido las fuerzas centrales como sujetas por una cuerda, esto es, dependiendo sólo de las distancias. Cierto es que Newton pone el ejemplo de la honda, pero eso debe leerse más como metáfora que como analogía: en las definiciones de los Principia las fuerzas centrales no se restringen a esa forma.

La extensión de la ley de fuerzas centrales, al parecer sugerida por Gauss en 1835 y luego reformulada por Weber, es de hecho la forma más natural de evolución de la mecánica newtoniana: ésta suponía sólo el caso estático (gravitoestática), y así se introduce el caso dinámico en el que la fuerza no es invariable sino que depende de las velocidades y aceleraciones relativas. Esta combinación de factores dinámicos y estáticos, representados por la energía cinética y potencial, también será clave en la posterior formulación de Maxwell.

Sin embargo, para cuando los físicos se habían hecho a la idea de fuerzas centrales, también la habían sobredeterminado sin necesidad. La ley de Weber fue criticada por Helmholtz y Maxwell por no cumplir con la conservación de la energía ya que el retraso del potencial crece con el aumento de la velocidad relativa de los cuerpos, y parece perderse más energía potencial de la que se recupera cinéticamente. Weber consiguió demostrar en 1871 la conservación de la energía de la fuerza y su potencial en operaciones cíclicas pero acontecimientos diversos, como los trabajos de Hertz, inclinaron finalmente la balanza en favor de la concepción maxwelliana.

El mismo tipo de fuerza y potencial retardado fue aplicado por Gerber en 1898 para explicar la anomalía de la precesión de Mercurio; pretender, como han hecho tantos historiadores, que esta era una corrección empírica sin una base teórica es, salvo que se entienda por razón teórica la introducción de postulados arbitrarios, volver la verdad del revés.

Se ha dicho que la mayor limitación del modelo de Weber es que no contempla la radiación electromagnética, pero lo cierto es que si no la predice, tampoco la excluye de ningún modo. De hecho es con las fórmulas de Weber que se introduce por primera vez el término para la velocidad de la luz, lo que Maxwell conocía perfectamente. La extensión dinámica de la fuerza de Weber tiene una discrepancia respecto del caso estático del mismo orden que el factor de Lorentz, razón por lo que pueden obtenerse resultados similares a los de la Relatividad Especial y General de forma mucho más simple.

Tampoco la mecánica de Weber está libre de problemas y ambigüedades. El más evidente, que ya notaba Poincaré, es que si estamos obligados a multiplicar la velocidad al cuadrado ya no tenemos forma de distinguir entre la energía cinética y la potencial, e incluso éstas dejan de ser independientes de la energía interna de los cuerpos considerados. Por otro lado, si estamos obligados a trabajar con partículas puntuales difícilmente podemos considerar energías o fuerzas internas. Si la Relatividad predice un aumento de masa con la velocidad, la ley de Weber, la auténticamente relativista, predice una disminución de la fuerza y un aumento de la energía interna, que podemos atribuir, tal vez, a la frecuencia. Sin esta ambigüedad no habría ciclo de realimentación no trivial, ni posibilidad de autointeracción real.

Claro que el aumento de la frecuencia no es una predicción de Weber, sino del ingeniero nuclear Nikolay Noskov, que retomó la estela del potencial retardado en diversos artículos desde 1991 y le atribuyó un rango de validez universal. Puesto que la ley de Weber da predicciones correctas, y la energía después de todo se conserva, Noskov supone que el carácter no uniforme del potencial retardado origina vibraciones longitudinales en los cuerpos en movimiento, que son una ocurrencia normal a los más diversos niveles: «Esta es la base de la estructura y estabilidad de los núcleos, átomos y sistemas planetarios y estelares. Es la razón principal de la ocurrencia del sonido (y de las voces de las personas, animales y pájaros, así como del sonido de los instrumentos de viento), de las oscilaciones electromagnéticas y la luz, tornados, pulsaciones hidrodinámicas y golpes de viento. Explica al fin el movimiento orbital, en el cual el cuerpo central está en uno de los focos en lugar de en el centro de la elipse. Más aún, la elipse no puede ser arbitraria puesto que las longitudes de las oscilaciones cíclicas y longitudinales tienen valores diferentes con una resonancia v1 = v2. Esta circunstancia determina la elipticidad en cada caso concreto».

De manera notable, Noskov, que tampoco se contiene a la hora de hacer generalizaciones, se aventura a mencionar el caso de las órbitas elípticas de la mecánica celeste, tema que por acuerdo casi universal se prefiere no tocar. Tantas veces ha repetido la historia y la publicidad que Newton explicó definitivamente la elipse aproximada que trazan los planetas, que algunos reaccionarán con la mayor incredulidad. Pero es evidente que Newton no explicó el caso, lo que de paso da pie a una observación oportuna.

Quien se haya acostumbrado a la descripción newtoniana de las órbitas, da por supuesto que basta la balística y una fuerza dependiente sólo de la distancia para asegurar la estabilidad. Pero la verdad es que en Newton el movimiento innato que tiene el cuerpo —a diferencia de la velocidad orbital- es por definición invariable, lo que sólo permite dos opciones. La primera es que el planeta aumenta y disminuye su velocidad como un cohete con impulso autónomo, lo que no creo que nadie esté dispuesto a admitir. Esta opción también tiene un reverso cómico: aceptemos, en lugar de la autoimpulsión, que los vectores centrípetos pueden estirarse y encogerse en virtud de un cierto quantitative easing. La segunda es la que el mismo Newton propone con su juego de manos, y que todos han aceptado, combinando en una sola la velocidad orbital variable y el movimiento innato.

Lo que no se advierte en esta segunda circunstancia es que si la fuerza centrípeta contrarresta la velocidad orbital, y esta velocidad orbital es variable a pesar de que el movimiento innato no cambia, la velocidad orbital es ya de hecho un resultado de la interacción entre la fuerza centrípeta y la innata, con lo que entonces la fuerza centrípeta también está actuando sobre sí misma. No vemos cómo puede evitarse la autointeracción. Según las modernas ecuaciones de campo relativistas, la gravedad ha de ser no lineal y ha de poder acoplarse con su propia energía; sin embargo todo esto está ya presente al nivel más elemental en el viejo problema de la elipse, que la Relatividad General nunca ha osado tocar.

De modo que incluso las ecuaciones de Newton estarían ocultando una autointeracción y, ya pensemos en términos de acción a distancia, ya en términos de campo, lo que distinguiría a las fuerzas fundamentales de la Naturaleza de las que aplicamos por contacto en los Tres Principios de la Mecánica es justamente esta autointeracción del sistema en su conjunto. Hertz, el creador de la física de contactos, ya notó que justamente en la mecánica celeste no había forma de verificar el Tercer Principio.

Entonces, más que disputar sobre qué teoría «predice» mejor la ínfima anomalía en la precesión de Mercurio, que después de todo está sujeta a otras muchas incidencias, podríamos tomar el caso mayor de la elipse planetaria y su asimetría elemental. Pues nuestras llamadas leyes fundamentales todavía han sido incapaces de dar cuenta de las asimetrías más elementales de la naturaleza en términos de fuerzas contemporáneas y no de condiciones iniciales que más allá de la fuerza innata y su vector aquí son irrelevantes.

El lagrangiano de un sistema orbital, la diferencia entre la energía cinética y la potencial, es un valor positivo, y no cero como cabría esperar. El lagrangiano es la cantidad conservada, pero no se nos dice en ningún momento en virtud de qué hay más movimiento que energía potencial, lo que tendría que extrañar a todos. Según los razonamientos de los Principia, la energía cinética y la potencial, directamente derivadas del movimiento apreciable y la posición, tendrían que ser tan iguales como lo son la acción y reacción. ¿Sirve el potencial retardado para explicar la diferencia, o estamos igual que al principio?

Sirve para salvar el lapso temporal de las fuerzas en términos de energía, igual que el lagrangiano pero de forma más explícita. Con potenciales retardados es la energía la que no se hace presente en un momento dado, lo que supone otra forma de reclamar un principio de acción.

Se dice de la gravedad newtoniana que es la primera gran ley expresada como ecuación diferencial, pero en el caso concreto de la órbita es la descripción diferencial o contemporánea la que falla de forma notoria. Según los vectores de una fuerza fija, la órbita debería abrirse y el planeta alejarse; no hay forma de asegurar la estabilidad. La versión lagrangiana en términos de energía surge para obviar esta dificultad, no porque sea más conveniente para sistemas complejos. Así que en sentido estricto no existe aquí conservación local de las fuerzas, lo que hay es la derivabilidad a discreción de la integral que es la primera consecuencia del cálculo; y este es el criterio para que una teoría se considere «local».

La «irrazonable efectividad de las matemáticas en las ciencias naturales» de la que habló Wigner sólo sorprende si nos olvidamos del procedimiento seguido. Las grandes teorías de fuerzas naturales independientes de la mecánica del hombre, y que intentamos restringir dentro de los tres principios de la mecánica, no satisfacen éstos sino indirectamente -la gravedad en Newton y el electromagnetismo en Maxwell son teorías con un origen indiscutiblemente integral y una interpretación tan diferencial como su aplicación. La naturaleza no obedece nuestras ecuaciones, sino que éstas son la ingeniería inversa de la naturaleza, y lo normal es que nuestra ingeniería, como nuestro conocimiento, siempre se queden cortos.

Las oscilaciones longitudinales de Noskov dependen de tres variables: distancia, fuerza de interacción y velocidad de fase. Su longitud es directamente proporcional a la velocidad de fase e inversamente proporcional a la distancia entre los cuerpos y la fuerza de interacción. De aquí se pueden derivar naturalmente dos fórmulas capitales: la ley de radiación de Planck y la correlación de de Broglie, que debería incluir una velocidad de fase. Este factor de fase podría también aplicarse a los llamados defectos de masa de la física nuclear.

Sabemos que la correlación de de Broglie se aplica sin discusión a experimentos de difracción que muestran ondas en la materia desde los electrones a macromoléculas. La misma ecuación de Schrödinger es un híbrido de oscilaciones en un medio y en el móvil, lo que ya llevó en su día a Born, famoso por su lectura estadística, a considerarla en términos de onda longitudinales; La constante de Planck queda reducida a una constante local pertinente sólo para el electromagnetismo y masas del orden del electrón. Otra prueba de que la fuerza de Weber tiene algo que decir sobre el electrón a nivel atómico es la derivación automática que ya en 1926 hizo Vannevar Bush de la estructura fina de los niveles del átomo de hidrógeno usando las ecuaciones de Weber sin la asunción de cambio de masa por la velocidad. En líneas generales al menos, no parece haber grandes problemas en compatibilizar mecánica cuántica y la mecánica clásica relacional.

Y así la fuerza de Weber y su potencial retardado se encuentra en una envidiable posición en el cruce de caminos de la teoría del campo o continuo de Maxwell, la Relatividad Especial y General, y la Mecánica Cuántica —siendo anterior e inmensamente más simple que todas ellas. Y aunque seguramente se dirá que la citada conexión con la mecánica cuántica es demasiado genérica, el mero hecho de que ocurra sin forzar las cosas y sin un rosario de postulados a medida ya es algo.

Existen por su puesto muchos caminos para reescribir los jeroglíficos cuánticos y devolverlos a una óptica clásica; pero ninguno tan directo como la línea marcada por Weber, que tiene precedencia histórica y lógica sobre los demás. Uno tiene completa libertad para hollar otras vías pero siempre es recomendable contrastarla con ésta.

La ley de Weber se puede fácilmente transformar en una teoría de campo integrando sobre el volumen tal como ha mostrado J. P. Wesley, y entonces se revela que las ecuaciones de Maxwell son simplemente un caso particular de la primera. De este modo y con retardo temporal pueden tratarse las variaciones rápidas y los casos con radiación. Wesley también propuso otras modificaciones de la ley de Weber que no tocaremos aquí.

La conexión que hace Noskov con la fórmula de radiación de Planck es inevitable puesto que el potencial retardado demanda un principio de acción. Por otra parte, si el caso de la elipse en los términos newtonianos de una fuerza invariable y un movimiento innato invariable conducen a una órbita gradualmente abierta, lo que se pierde sin remedio es el sistema cerrado y reversible, como si tuviéramos una tasa de disipación. Una tasa virtual, se entiende, pues que la órbita se conserva es algo que ya sabemos. Dado que tenemos elipses en el micro como en el macrocosmos, esta es, por tanto, la forma más obvia de conexión entre la reversibilidad de la mecánica y la irreversibilidad termodinámica. Así, podemos situar la mecánica relacional en la juntura de la mecánica clásica, la cuántica y la termodinámica.

Puede temerse tal vez con razón, como dice Robert Wald, que una partícula extensa irreductible al caso puntual se pierda en los detalles y sea incapaz de rendir una ecuación universal; pero en la electrodinámica de Weber, a diferencia de la de Maxwell, puede trabajarse con partículas extensas sabiendo que siempre puede remitirse a las puntuales y seguir teniendo soluciones con sentido. Visto todo lo visto, semejante tipo de neutralidad es absolutamente deseable.

Termodinámica cuántica y sistemas abiertos metaestables

Físicos y matemáticos casi por igual procuran alejarse de la termodinámica tanto como pueden, y en caso de tener que ocuparse de ella, se espera al menos que se trate de la termodinámica de equilibrio más habitual, no la de sistemas abiertos alejados del equilibrio y en intercambio con su entorno. Este último caso, se supone, es el de los seres vivos, caracterizados por niveles de complejidad muy alejados de cualquier cosa que en física se pueda considerar fundamental.

La desconfianza podría estar justificada, si lo que corre riesgo es el carácter cerrado y estrictamente reversible de las llamadas leyes fundamentales —el más preciado tesoro de la ciencia. Pero por otra parte, no hay pérdida que no pueda convertirse en ganancia; y en este caso, la ganancia no sería otra que devolver la física a la corriente general del fuego y de la vida, de la que todavía hoy se mantiene inexplicablemente apartada.

La irreversibilidad macroscópica no puede derivarse en modo alguno de la reversibilidad microscópica. Boltzmann y luego otros muchos con él han asumido un argumento estadístico sumamente refinado, pero también existen argumentos topológicos, libre de estadística, que muestran aspectos irreversibles en el electromagnetismo independientes de escala o métrica. Más allá de cualquier sofisticación, estadística o no, tampoco se ve nunca que los rayos de luz emitidos vuelvan a su fuente, lo que ya nos dice que la física teórica tiene un criterio muy peculiar sobre lo que es irreversibe y lo que es fundamental.

Finalmente la evidencia experimental ha empezado a llegar y podría multiplicarse en los próximos años si realmente existe el interés, y ese interés existe por razones tecnológicas obvias. El entorno experimental y tecnológico en la física microscópica ha cambiado hasta lo irreconocible. Hoy se busca tanto la manipulación como la modulación de estados cuánticos individuales, y florecen nuevas disciplinas como la medida cuántica continua, el feedback cuántico y la termodinámica cuántica, que hacen posible un filtrado creciente del ruido y una distinción cada vez más aguda entre las fluctuaciones cuánticas y térmicas.

La huella de la irreversibilidad atómica ha de ser proporcionalmente pequeña y sólo hacerse macroscópicamente relevante con los grandes números habituales, pero cada vez hay y habrá más formas de medirla y detectarla. El tema está estrechamente relacionado con el del electrón puntual, que es una excelente aproximación para largas distancias pero que en distancias cada vez más cercanas no puede funcionar, o funcionará cada vez peor.

Siguiendo la lógica de la máxima miniaturización, la de las nanomáquinas o de la información cuántica, existe mucho más interés en tener en cuenta la disipación que en ignorarla, puesto que marca los límites mismos de operabilidad. Otra cosa es que se reporten los datos de forma trasparente. Una vez más la física aplicada le buscará problemas a la física teórica, pero es fácil que sigamos escuchando que todo son fantásticas nuevas confirmaciones de la increíble mecánica cuántica.

Parece pues que es la misma interacción entre fotones y cargas, qué si no, la que afecta de forma no reversible al electrón y al centro de masa del átomo; algunos ya avanzan una estimación del orden de los 10−13 julios. Por otro lado, si sólo podemos imaginar los electrones estando hechos de campos electromagnéticos —o por las tensiones y deformaciones constitutivas que lo traducen en su límite más material-, tarde o temprano es inevitable pensar, como se ha hecho a menudo, que las partículas de materia son sólo luz atrapada transformando momento lineal en momento angular. Al menos hace años que se intenta en el laboratorio crear electrones y positrones a partir de fotones y la perspectiva de conseguirlo parecen razonable.

La idea de que los mecanismos reversibles dependan de una dinámica irreversible, que los sistemas cerrados se dibujen sobre un fondo abierto, —o que las irreductibles e ideales partículas puntuales no sean tales— suena a los oídos del físico teórico como una suerte de degradación de rango, una caída del cielo matemático de las ideas puras. Pero es lo único que cabe esperar si se llevan las cosas lo bastante lejos, aun respetando el margen de validez de los sistemas cerrados o reversibles, o de las partículas puntuales. Lo normal es que las cosas reales tengan estructura.

Eso no significa que un electrón tenga que descomponerse, fotones aparte, en otras partículas materiales. Basta con que su superficie limitante y su espín tengan una estructura diferencial, no necesariamente geométrica, que pueda dar cuenta de su evolución continua y sus siempre efímeras configuraciones. Es decir, la estructura describe la relación momentánea con el entorno, no una composición interna en términos de otras partículas igualmente abstractas. Ya se han sugerido modelos para ello. Una vez que tenemos una superficie limitante de un volumen, tenemos igualmente un marco para sus cambios, la estructura de su espín, la densidad, las estadísticas, etcétera, etcétera. No se por qué habría que renunciar a todo esto en nombre de un mero principio divorciado de la realidad física.

En cuanto al mágico anillo de la reversibilidad, mientras la física crea que le pertenece por derecho propio, nunca estará en condiciones de recibirlo como regalo. Puesto que lo único que lo hace valioso es el fondo desde el que se constituye, condicional, precariamente.

V. E Zhvirblis estudió los anillos osmóticos y eléctricos de funcionamiento perpetuo y llegó a la conclusión de que los sistemas donde hay fuerzas estacionarias no pueden estar aislados. Los sistemas de la mecánica cuántica, que pretenden hacer eso, son ilegítimos desde el punto de vista termodinámico. Es curioso que se considere esto completamente normal a nivel cuántico pero se excluya a nivel macroscópico en el clarísimo caso del koltsar de Lazarev cuando lo único que hay que aceptar es que en puridad no son posibles los sistemas aislados.

El problema es que en estos casos las variables, aunque medibles, no son controlables, y la física se basa ante todo en cantidades controlables, como es el caso de las fuerzas. La única forma de resolver la paradoja, tal como observa Zhvirblis, es si las fuerzas de interacción en sistemas termodinámicos se describen sólo en términos de la termodinámica misma.

De este modo todos los sistemas, desde las partículas y átomos hasta los seres vivos y las estrellas, podrían verse como sistemas metaestables, islas temporalmente alejadas del equilibrio uniforme por sus propias leyes de equilibrio internas.

La física actual habla constantemente de conservación de la energía pero los mismos átomos que presenta parecen inverificables máquinas de movimiento perpetuo, sin hablar de la misma energía y la materia, que se conservan pero han surgido de la nada en un pasado remoto. Tendría que ser más interesante ver lo que es capaz de hacer un sistema en el presente que hace doce mil millones de años, intentar adivinar por qué una entidad real tal como una partícula no es un punto, que imaginar cómo sale el universo entero de un punto sin extensión. Ambas cosas están más relacionadas de lo que pensamos, pero unas conducen a respuestas aquí y ahora y las otras sólo nos alejan todo lo que se puede de ellas.

No es tan difícil encontrar la huella termodinámica y el origen en el continuo de las partículas: basta buscarlo con un celo parecido al que se ha puesto en darle la espalda a ambos —en excluirlos o separarlos de lo verdaderamente fundamental.

Reloj relacional, motor de pistón, ordenador del torbellino

Estadística relacional

Para los antiguos, preguntar porqué existía el mundo era como imaginar cómo el fuego había salido del agua; y preguntar por la vida equivalía a figurarse cómo el agua volvía a incorporarse el fuego sin apagarlo. Dos aparentes imposibilidades que sin embargo se equilibraban y adquirían la intangible consistencia de hechos. En física, la única manera de concitar una relación similar sería tratar de ver cómo lo irreversible sale de lo reversible, y cómo un mecanismo cerrado hace desaparecer por un tiempo la omnipresente huella del calor. Seguramente nunca seremos capaces de explicar ni lo uno ni lo otro, pero tal vez su justa ponderación nos libraría de la necesidad compulsiva de explicaciones.

Nada puede sustituir a la rectitud en los razonamientos, pero en la física moderna es imposible llegar muy lejos sin el uso de un cierto aparato estadístico que es, como si dijéramos, el invariable compañero del cálculo. No se trata sólo de la mecánica cuántica, incluso algo tan básico como el campo electromagnético clásico tiene un aspecto estadístico innegable. Y sobre todo, querríamos encontrar otro lugar para la termodinámica.

Los motivos para crear un aparato estadístico-relacional competente son múltiples y van desde lo más obvio a lo más profundo.

Lo relacional puro es la reversiblidad misma; por el contrario del calor sólo nos queda su huella estadística. Para ver cómo se interpenetran necesitamos primero dar un amplio rodeo. En física nunca tendremos demasiada perspectiva puesto que la perspectiva misma ya es la mejor parte del conocimiento.

La estadística relacional puede verse, en su versión más simple, como una modalidad de análisis dimensional, que procura llevar las ecuaciones, constantes y unidades de las fórmulas de las teorías vigentes lo más cerca posible del Principio de Homogeneidad de Fourier, generalizado en tiempos más recientes por Assis como Principio de las Proporciones Físicas: el desiderátum de que todas las leyes de la física han de depender sólo de la ratio entre cantidades conocidas del mismo tipo, y por tanto no pueden depender de constantes dimensionales. Tales eran por ejemplo las leyes de Arquímedes, la primitiva ley constitutiva de Hooke, o, pasando a la dinámica, la ley electrodinámica de Weber.

Puede decirse que este principio de homogeneidad es un ideal, no ya de la ciencia griega, sino de la ciencia en general; un cenit, un polo. Naturalmente, casi todas las leyes de la física moderna no cumplen este requisito, por lo que el tema no es desecharlas, lo que está fuera de cuestión, sino no perderlo de vista por lo que podría un día permitirnos ver.

No hace falta extenderse sobre las modalidades más estándar del análisis dimensional, que ya son bien conocidas, y que con el tiempo se han extendido a otras ramas combinatorias fundamentales como la teoría de grupos. Por otro lado no está de más recordar que cuando decimos «estadística relacional» estamos uniendo en un sólo concepto ideas que en física son más bien antagónicas: lo puramente relacional es lo más trasparente, lo puramente estadístico lo más opaco a nivel físico.

En cualquier caso siempre es recomendable comenzar por el análisis dimensional antes de proceder con las mayores complejidades del análisis estadístico. Todavía hoy la interacción entre estas dos ramas del análisis es escasa, debido en parte a la fama de superficial que tiene entre los físicos teóricos, siempre tan creativos, y más preocupados por la capacidad predictiva de sus formulaciones que por su limpieza. Y es que además muchas veces un análisis dimensional elemental deja en entredicho el fundamento de muchas de sus asunciones, como el mismo principio de indeterminación.

Un ejemplo de análisis estadístico relacional es el que propone V. V. Aristov. Aristov introduce un modelo constructivo y discreto del tiempo como movimiento usando la idea de sincronización y de reloj físico que ya introdujo Poincaré justamente con la problemática del electrón. Aquí cada momento del tiempo es un cuadro puramente espacial. Pero no sólo se trata de la conversión del tiempo en espacio, también de entender el origen de la forma matemática de las leyes físicas: «Las ecuaciones físicas ordinarias son consecuencias de los axiomas matemáticos, «proyectados» en la realidad física por medio de los instrumentos fundamentales. Uno puede asumir que es posible construir relojes diferentes con una estructura diferente, y en este caso tendríamos diferentes ecuaciones para la descripción del movimiento.»

Con un modelo de reglas rígidas para la geometría y de relojes para el tiempo se crea un modelo de espacio-tiempo de variables sin dimensiones. En la exposición de su idea Aristov se ocupa básicamente de las transformaciones de Lorentz, de la construcción axiomática de una geometría y de la relación más básica de indeterminación cuántica; y si esto es tan necesario por un lado del mapa, del otro podemos poner la propia mecánica relacional de Weber con sus derivaciones, igual que puede situarse en el centro un modelo extenso del electrón por reloj. De hecho, no hay ni que decirlo, los vectores de este electrón podrían utilizarse para otras muchas correlaciones.

Un enfoque cronométrico de la estadística relacional es oportuno por los muchos aspectos discretos que nunca va a dejar de haber en la física y que son independientes de la mecánica cuántica: son discretas las partículas, varios aspectos de la ondas, las colisiones, los actos de medición y los del tiempo en particular, los cortes impuestos a nivel axiomático.

El rendimiento de una red relacional es acumulativo. Sus ventajas, como los de la física que lleva tal nombre —y las redes de información en general- no se advierten a primera vista pero aumentan con el número de conexiones. La mejor forma de probar esto es extendiendo la red de conexiones relacionales. Y efectivamente, se trata de trabajo e inteligencia colectivas. Con los cortes arbitrarios a la homogeneidad relacional aumenta la interferencia destructiva y la redundancia irrelevante; por el contrario, a mayor densidad relacional, mayor es la interferencia constructiva. No creo que esto requiera demostración: Las relaciones totalmente homogéneas permiten grados de inclusión de orden superior sin obstrucción, del mismo modo que las ecuaciones hechas de elementos heterogéneos pueden incluir ecuaciones dentro de ecuaciones en calidad de elementos opacos o nudos por desenredar.

De la continuidad y la homogeneidad procede la legitimidad no escrita de las leyes, como de las aguas procedía la soberanía de los antiguos reyes y emperadores.

En su esbozo de estadística relacional Aristov no tiene consideraciones para la termodinámica, pero es justamente ésta la que tendría que darle una pertinencia especial a la estadística. En lugar de un reloj al estilo Poincaré, podíamos haber introducido, por ejemplo, un «motor» de pistón en un cilindro como el que ejemplificaba Zhvirblis para generar fuerzas sin salir del ámbito termodinámico.

Volvamos a nuestro particular ejercicio de perspectiva. La física tendría un polo norte «relacional» desde el que aspira a explicarlo todo como meras relaciones de movimiento homogéneas, y un polo sur, «sustancial», desde el que podría dar una auténtica explicación mecánica de los fenómenos, generalmente con un medio que aporta la continuidad para la transmisión de fuerzas entre partes de materia separadas.

Queriendo satisfacer ambos extremos, los compromisos de la historia nos han dejado en medio, con la física de magnitudes absolutas de Newton, o con las modernas teorías de campos, que procuran mantener la continuidad pero hacen uso de las mal llamadas constantes universales, en realidad magnitudes absolutas como en Newton.

Esta disquisición tan aparentemente filosófica contiene la pregunta por el sincronizador universal. Entre el fuego y el agua uno no pondría un cilindro y un pistón, pero sí tal vez un torbellino, como el del famoso experimento del cubo de agua del propio Newton, heredero lejano de otro más atrevido concebido ya por el padre de la teoría de los cuatro elementos. Empédocles notó que hacer girar un cubo de agua en vertical impedía que cayera, o dicho de otro modo, contrarrestaba la gravedad.

El experimento newtoniano del cubo y su fuerza centrífuga nos obliga a tomar una posición. ¿Cuál es la razón de la curvatura del agua? Newton dice que el espacio absoluto; Leibniz, Mach y la física relacional, que la relación con el resto de los objetos, incluidas las estrellas distantes. Para Newton, podría eliminarse toda la materia circundante y se produciría el mismo fenómeno; para la física de relaciones, tal cosa es imposible. ¿Y cuál sería la postura substancialista? La posición causal o substancialista diría que se requiere un medio de referencia absoluto, y que es ese medio en cualquier caso el que puede transmitir una influencia de cuerpos del entorno, ya sea próximo o distante.

No parece haber más posiciones concebibles que éstas. Y aun así ninguna de las tres nos parece satisfactoria. La afirmación de que existen magnitudes absolutas independientes del entorno, a pesar de conservarse en toda la física moderna es de naturaleza metafísica. Por otra parte las puras relaciones cinemáticas nunca serán capaces de explicar la realidad física, por más que el principio de homogeneidad sea deseable. Finalmente, la determinación de un marco independiente de los aparatos de medida parece violar el principio relacional -y el relativista posterior; aparte de que la no unicidad de los principios de acción excluye de antemano la identificación de causas únicas.

Pero puede sostenerse una cuarta posición, como la que sostiene Mario Pinheiro, consistente en afirmar que no hay cinemática sin irreversibilidad. Pinheiro observa que lo importante es el trasporte de momento angular sosteniendo el balance entre fuerza centrífuga y presión.

Creo que esta respuesta, cuando menos, revela tanto la parte de verdad que puede haber en cualquiera de las tres posturas como su manifiesta insuficiencia. Claro que Pinheiro aboga por el uso de un nuevo principio variacional para sistemas rotatorios fuera de equilibrio y un tiempo mecánico-termodinámico en un conjunto de dos ecuaciones diferenciales de primer orden. Hay un balance entre la variación mínima de la energía y la producción máxima de entropía que encaja en los ejemplos clásicos simples como la caída libre y que tendría que ser relevante en dinámica en general y electrodinámica en particular, pues la conversión de momento angular en lineal tendría que tener un papel central en ésta, por más que no sea así como se cuente.

Los últimos tiempos, no es necesario dar ejemplos, asisten a cada vez más intentos de integrar y generalizar en un marco conjunto dinámica y entropía/información. Los motivos para esto son diversos pero convergentes: la tendencia siempre en aumento a considerar la materia como mero soporte de la información, el agotamiento de los modelos dinámicos viables, la presencia de factores estadísticos de orden siempre creciente. Son tendencias que no van a remitir. Con todo, el uso que hasta ahora se hace de la entropía ayuda poco o nada a comprender de dónde surge la regularidad que observamos.

Se dice además que la gravedad lleva la entropía hasta su límite por área —en las singularidades-, si bien nuestra experiencia ordinaria dice más bien lo contrario, que es la única fuerza que parece compensarla y revertirla. En este caso la entropía alcanza su extremo porque se lleva igualmente hasta el extremo la teoría de la gravedad como fuerza absoluta; en una teoría relacional no hay lugar para singularidades gravitatorias, pues la fuerza disminuye con el aumento de la velocidad. Por otra parte es curioso que en el marco newtoniano las fuerzas que producen deformación, que es lo único que cabe esperar, se consideren seudofuerzas, mientras que la fuerza fundamental no ocasione deformación de los cuerpos en su movimiento de caída libre, y sí en el caso estático de su energía potencial.

Seguramente es imposible comprender la relación entre lo reversible y lo irreversible, gran clave de la naturaleza, mientras subordinemos ésta de forma exclusiva a la predicción. Está claro que lo predecible es regular y eso le confiere hasta cierto punto rango de ley. ¿Pero hasta qué punto? Sin un debido contraste nunca lo sabremos. Nos preciamos del poder predictivo de nuestras teorías, pero la predicción por sí sola no es clarividencia, sino más bien ofuscación.

Sí, poder de predicción es también poder de ofuscación. Nada hay más práctico que una buena teoría, y una buena teoría es la menos artificiosa y la que más respeta el caso que se presenta. Nuestro conocimiento es siempre muy limitado, incluso independientemente de nuestro grado de información, y el respeto a lo poco que conocemos, sabiendo que es intrínsecamente incompleto, es también respeto a todo lo que desconocemos. Está claro que los postulados ad hoc, la teleología de nuestros principios de acción, la ingeniería matemática inversa, reducen drásticamente la calidad de nuestras generalizaciones por más universalidad que les atribuyamos. No se trata de restar méritos a ninguna consecución humana, sino de ser conscientes de sus limitaciones.

R. M. Kiehn habló ya en 1976 de «determinismo retrodictivo»: «Parece que un sistema descrito por un campo tensorial puede ser estadísticamente predictivo, pero determinista en forma retrodictiva.» Cabe por ejemplo concebir que podamos deducir unas condiciones iniciales partiendo de la deformación global final de un sólido, mientras que, a la inversa, sólo podamos calcular probabilidades partiendo de la condición y la fuerza aplicada inicial.

La parte irreversible, disipativa del electromagnetismo parece estar incluida dentro de la covariancia intrínseca que las ecuaciones de Maxwell (y las de Weber) muestran en el lenguaje de las formas diferenciales exteriores. Tiene que existir otra forma de leer «el libro de la naturaleza» y esta forma no puede ser simplemente una inversión —no es simétrica o dual respecto de la evolución predictiva. En última distancia no se trata ni de ir hacia adelante ni hacia atrás, del futuro o del pasado, sino de lo que se va desvelando entre ambos.

La electrodinámica cuántica entera puede derivarse, a posteriori, del clásico principio de Huygens, que no es sino un principio de homogeneidad, igual que la conservación del momento se deriva directamente de la homogeneidad del espacio. Sin embargo, todo hace pensar que la gravedad existe debido al carácter heterogéneo del tiempo y el espacio. Esto nos devuelve a nuestras anteriores consideraciones en términos de extremos.

El enigma de la relación entre la disipación y el trabajo mecánico aprovechable, visto externamente como un problema de leyes naturales, es uno sólo con el de la relación entre el esfuerzo —que no es lo mismo que el trabajo-, el trabajo y las transacciones reversibles en la lógica de la equivalencia del capital. No es de extrañar que la termodinámica se desarrollara en los mismísimos años de la reivindicación del trabajo como categoría autónoma, y que lo hiciera a caballo entre las consideraciones de la fisiología, la sangre y el calor, (Mayer) y las del metal y las máquinas (Joule). Hay aquí aún un inopinado círculo por cerrar, y en la medida que acertemos a cerrarlo, mayores serán las repercusiones en nuestra visión de la naturaleza «externa» (recursos explotables) y la naturaleza «interna» (sociedad). Y tal vez entonces empecemos a comprender cabalmente hasta qué punto explotar a la naturaleza es lo mismo que explotarnos a nosotros mismos.

El doble lenguaje de la física moderna

Sabido es que desde el siglo XVII a los hombres de ciencia les ha gustado cifrar sus comunicaciones para poder reclamar prioridad al tiempo que evitaban conceder ventaja a sus competidores. Por añadidura, ya en tiempos de Galileo o Newton se era muy consciente del valor estratégico, mercantil y militar, que atesoraba incluso un conocimiento tan despegado del suelo como la astronomía o el cálculo marítimo de la longitud.

Así, durante siglos la ciencia se desarrolló en Occidente en un delicado equilibrio entre sus ansias de comunicarse y expandirse, y la conveniencia de ocultar en mayor o en menor grado sus procedimientos. Si esto ocurría incluso en las disciplinas más abstractas, como las matemáticas, podemos imaginar un poco de lo que pasaba con las ciencias aplicadas.

Cuando en las primeras décadas del siglo XX se desarrollaban la mecánica cuántica y la teoría de la relatividad, aunque ciertamente ya estaba en curso una reinvención de la imagen pública de la ciencia, puede todavía asumirse que los físicos comunicaban sus teorías con cierta espontaneidad y que la fiebre por avanzar rápido y a cualquier precio creaba una cierta «selección natural» en la oferta de métodos, hipótesis, e interpretaciones. Pero llegó la Segunda Gran Guerra, la Gran Ciencia y cosas como el Proyecto Manhattan, y los científicos, como admitió Oppenheimer, perdieron la poca inocencia que les quedaba.

Cabe suponer que fue más o menos por entonces o poco después cuando se empezó a comprender debidamente que las dos nuevas grandes teorías servían tanto para ocultar como para comunicar, lo que resultaba especialmente oportuno en campos aplicados tan comprometidos como la física de partículas.

¿Qué hacía alguien tan práctico y bien informado como Bush perdiendo su precioso tiempo con la olvidada teoría Weber en 1926, justo cuando la mecánica cuántica cristalizaba? El mismo inevitable Feynman, portavoz del nuevo estilo algorítmico en física y hombre del proyecto Manhattan, afirmó en alguna ocasión que la ley del potencial retardado cubría todos los casos de la electrodinámica incluidas las correcciones relativistas. Incluso Schwinger trabajaba para el gobierno en el desarrollo del radar. No es exagerado decir que los años de gestación de la QED conforman la época en que la línea divisoria entre física teórica y aplicada, con todo lo que eso implica para ambas, se esfuma para siempre.

Sencillamente, cuesta demasiado creer que ejércitos de talentosos físicos no hayan osado salir en física de partículas del superfluo marco relativista cuando cualquier aficionado que lo considere puede ver que se trata de un bloqueo en toda la regla a cualquier progreso sostenido en el campo. Aun más significativo es que esto no se diga. Claro que para convencernos de lo contrario surgió de la nada un nuevo espécimen de físico como no había existido nunca, extrovertido, desenfadado, persuasivo, fantásticamente dotado para la comunicación y las relaciones públicas. La viva imagen de la superficialidad —y con un notable parecido a Cornel Wilde. Cada cual podrá juzgar por sí mismo.

Obviaremos las cosas que se han dicho sobre la bomba atómica y la teoría de la relatividad, pues las barbaridades de la publicidad aún podrían abochornar a los físicos. Siempre podremos echar la culpa a los periodistas. Es obvio que la relatividad no tiene prácticamente nada que ver con el desarrollo de la física nuclear, e igual de obvio tendría que ser lo poco que tiene que ver la electrodinámica cuántica con la multitud de logros aplicados de todas estas últimas décadas.

El famoso «cállate y calcula» del citado físico y portavoz transmite a las mil maravillas lo que se espera del nuevo investigador. El cálculo tendría que ser sólo un tercio del trabajo en la física, teórica o no. Si dividimos la secuencia de cualquier actividad humana en principios, medios y fines, en física el cálculo o predicción sería sólo el medio entre el uso inteligente de los principios (que están presentes en todo momento), y las interpretaciones, que, lejos de ser un lujo subjetivo o filosófico, son inexcusables a la hora de darle sentido a la masa de datos empíricos, proseguir la investigación y motivar la síntesis de aplicaciones. Fines es tanto interpretaciones como aplicaciones.

De modo que no se ve porqué en física la interpretación tendría que ser de menor interés práctico que el cálculo, y creo que estos argumentos son tan básicos que puede entenderlos cualquiera. El que se atenga sólo a los medios, será igualmente usado tan sólo como un medio. Por lo demás, la mecánica cuántica y la relatividad lo que hacen a menudo es dificultar los cálculos de forma inusitada más que facilitarlos. Compárese, por ejemplo, los cómputos que requiere el más simple problema en la Relatividad General con los de una ley de Weber para la gravedad; por no hablar de los casos algo más complicados donde se hace por completo inmanejable. La prescripción de la partícula relativista tiene un sentido muy claro y es hacer imposible cualquier cálculo con sentido. Va de suyo que los logros experimentales y aplicados se han obtenido a pesar de esta piedra de tropiezo y escándalo, ignorando más que observando la prescripción.

«Cállate y calcula» significa simplemente «calcula lo que yo te diga y ni se te ocurra pensar en algo más». Curiosa consigna viniendo de alguien al que se ha glorificado como encarnación de irrestricta originalidad y del genio que va por su cuenta. También podría haber dicho: «Quédate con lo más superficial y olvídate de llegar nunca al fondo del asunto». El cálculo es completamente ciego si no está adecuadamente coordinado con principios e interpretaciones; incluso puede asegurarse que esta coordinación es más importante que todo lo demás. Pero no deberíamos ver en esto nada contradictorio, y si un fiel retrato del doble lenguaje de la Gran Ciencia y sus definidas prioridades tras la pantalla de las relaciones públicas.

Sabido es cómo en 1956 Bohr y von Neumann llegaron a Columbia para decirle a Charles Townes que la idea del láser, que requería el perfecto alineamiento en fase de un gran número de ondas de luz, era imposible porque violaba el inviolable Principio de Indeterminación de Heisenberg. El resto es historia. Ahora por supuesto lo que se dice es que el láser es otro triunfo más de la mecánica cuántica, del que no es más que un trillado caso particular.

El caso citado no ha sido la excepción sino la tónica general. Se nos dice que la mecánica cuántica es algo muy serio porque su masa de evidencia experimental supera el de cualquier teoría, pero parece más serio el trabajo de ingenieros y experimentadores intentando figurarse relaciones causales y aplicaciones sin el apoyo y aun con la obstrucción de una interpretación que prohibe la interpretación —física, se entiende- y que parece expresamente calculada para sabotear cualquier tentativa de aplicación concreta.

Y en cuanto al incomparable poder predictivo de la mecánica cuántica y la QED, que no le llega ni para figurarse el mismísimo colapso de la función de onda que postula, habrá que entender que se trata sobre todo de un poder de predicción a posteriori. También hoy se predice la fase de Berry, que aparece hasta en la sopa, aunque con las oportunas extensiones de eso que ni siquiera es «una teoría». Está claro que a procedimientos que sustraen infinitos de infinitos de forma recurrente e interminable, se los puede forzar hasta obtener prácticamente cualquier resultado; pero a pesar de todo esto se nos dice aún que estamos ante una teoría muy restrictiva. Tal vez lo sea a la luz de algún principio de simetría abstracto dentro de otros todavía más abstractos. Lo será, sin duda, después de que le haya ajustado todas las tuercas y tornillos imaginables al problema de turno. ¿Quién dijo autointeracción? Esta ya es una teoría autoajustable. Y lo mejor de todo es que a una teoría incoherente se le puede hacer decir cualquier cosa.

Nada podría ser más castrante para el físico que exigir de él la sola fidelidad a los cálculos. Más aún si estos cálculos son tan inescrupulosos que se los usa de forma abiertamente teleológica para replicar determinados resultados —pura ingeniería inversa, piratería de la naturaleza a la que se le quiere dar luego la categoría de Ley.

Si lo que se hackea de la naturaleza luego se convierte en Ley, no extrañe luego que se use como Ley para que otros no la pirateen. Y es por eso que hoy se usan las Grandes Teorías como el mejor bloqueo que cabe a la transferencia tecnológica.

Nada es más práctico que una buena teoría. Pero los que sólo están interesados en gobernar la naturaleza no son dignos de iluminarla, y menos aún de comprenderla. Así pues, seguramente tenemos el nivel de comprensión que nuestra estructura social puede tolerar, y esto es lo natural, primero porque el conocimiento científico es pura construcción social, y segundo porque toda construcción social es segunda naturaleza intentando aislarse de una supuesta naturaleza primera.

Hoy se usa la óptica de transformación y las anisotropías de los metamateriales para «ilustrar» los agujeros negros o para «ejemplificar» y «diseñar» —se dice- espacio-tiempos diferentes. Y sin embargo sólo se están manipulando las propiedades macroscópicas de las viejas ecuaciones de Maxwell. ¿Cabe llevar más lejos la distorsión y la distracción? Y el caso es que todo esto podría servir para indagar en los aspectos incontrolables del continuo electromagnético que no son sino la forma clásica de los famosos aspectos no locales de la mecánica cuántica. ¿Es que no hemos visto que si la función de onda de Schrödinger describe vibraciones en un móvil y en el medio, también las ondas electromagnéticas clásicas son un promedio estadístico de lo mismo?

En algo tan aparentemente trillado como el electrón podemos encontrar ya no sólo la llave para la física de partículas, también los límites de aplicación de las nanotecnologías, la computación cuántica, y una legión de emergentes nuevas tecnologías. Pero si todo esto son puras cuestiones de poder y de interés, podemos olvidarnos ya de la verdad.

Que no se puede servir simultáneamente al poder y a la verdad es algo que todos sabemos. Que la publicidad científica desarrolle sus historias y narrativas como si este conflicto no existiera es lo único que cabe esperar. Si los actuales relatos retrasan poco o mucho el desarrollo científico, tampoco es algo que debamos lamentar puesto que más avances tecnológicos, a falta de otras cosas, sólo pueden significar más desorden.

Afortunadamente, los que de una u otra forma obstruyen el conocimiento tampoco son capaces de desarrollar un saber de segundo orden libre de sus propias distorsiones; lo complicado de sus compromisos los limita rigurosamente. Todas las astucias del mundo, todo el arsenal experimental-estadístico-matemático-informático, no pueden sustituir al sentido de la rectitud, único capaz de ahondar en la ilimitada promesa de la simplicidad.

Referencias
N.K. Noskov, The theory of retarded potentials versus the theory of Relativity
N.K. Noskov, The phenomenon of the retarded potentials
J. P. Wesley, Weber electrodynamics
Assis, A. K. T, Relational Mechanics -An implementation of Mach’s Principle with Weber’s Gravitational force, Apeiron, Montreal, 2014
T. B. Batalhao, A. M. Souza, R. S. Sarthour, I. S. Oliveira, M. Paternostro, E. Lutz, R. M. Serra Irreversibility and the arrow of time in a quenched quantum system
Lucia, U, Macroscopic irreversibility and microscopic paradox: A Constructal law analysis of atoms as open systems
V. E. Zhvirblis, V. E, Stars and Koltsars, 1996
N. Mazilu, M. Agop, Role of surface gauging in extended particle interactions: The case for spin
N, Mazilu, Mechanical problem of Ether Apeiron, Vol. 15, No. 1, January 2008
V.V. Aristov, On the relational statistical space-time concept
R. M Kiehn, Retrodictive Determinism
M.J. Pinheiro, A reformulation of mechanics and electrodynamics

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *