## Golden mean, statistics and probability

It has been said for some time that in today’s science “correlation supersedes causation”, and by correlation we obviously mean a statistical correlation. But even since Newton, physics has not been concerned that much with causation, nor could do it, so that more than a radical change we only have a steady increase in the complexity of the variables involved.

In the handling of statistical distributions and frequencies it makes little sense to talk about false or correct theories, but rather about models that fit the data better or worse, which gives this area much more freedom and flexibility with respect to assumptions. Physical theories may be unnecessarily restrictive, and conversely no statistical interpretation is truly compelling; but on the other hand, fundamental physics is increasingly saturated with probabilistic aspects, so the interaction between both disciplines continues to tighten.

Things become even more interesting if we introduce the possibility that the principle of maximum entropy production is present in the fundamental equations of both classical and quantum mechanics —not to mention if basic relations between this principle and the continuous proportion φ were eventually discovered.

Possibly the reflected wave/retarded potential model we have outlined for the circulatory system gives us a good idea of a virtuous correlation/causation circle that meets the demands of mechanics but suspend —if not reverse- the sense in the cause-effect sequence. In the absence of a specific study in this area, we will now be content to mention some more circumstantial associations between our constant and the probability distributions.

The first association of φ with probability, combinatorics, binomial and hypergeometric distributions is already suggested by the presence of the Fibonacci series in the polar triangle already mentioned.

When we speak of probability in nature or in the social sciences, two distributions come first to mind: the almost ubiquitous bell-shaped normal or Gaussian distribution, and the power law distributions, also known as Zipf distributions, Pareto distributions, or zeta distribution for discrete cases.

Richard Merrick has spoken of a “harmonic interference function” resulting from harmonic damping, or in other words, the square of the first twelve frequencies of the harmonic series divided by the frequencies of the first twelve Fibonacci numbers. According to the author, this is a balance between spatial resonance and temporal damping.

In this way he arrives at what he calls a “symmetrical model of reflexive interference”, formed from the harmonic mean between a circle and a spiral. Merrick insists on the transcendental importance for all life of its organization around an axis, which Vladimir Vernadsky had already considered to be the key problem in biology.

Merrick’s ideas about thresholds of maximum resonance and maximum damping can be put in line with Pinheiro’s thermomechanical equations, and as we have indicated they would have a wider scope if they contemplated the principle of maximum entropy as conducive to organization rather than the opposite. Merrick elaborates also a sort of musical theory on the privileged proportion 5/6-10/12 at different levels, from the organization of the human torso to the arrangement of the double helix of DNA seen as the rotation of a dodecahedron around a bipolar axis.

*

The powers laws and zeta distributions are equally important in nature and human events, and are present, among many other things, in fundamental laws of physics, the distribution of wealth among populations, the size of cities or the frequency of earthquakes. Ferrer i Cancho and Fernández note that “φ is the value where the exponents of the probability distribution of a discrete magnitude and the value of the magnitude versus its rank coincide”. It is not known at this time if this is a curiosity or if it will allow to deepen the knowledge of these distributions [37].

Zipf or zeta distributions are linked to hierarchical structures and catastrophic events, and also overlap with fractals in the space domain and with the so-called 1/f noise in the time domain. A. Z. Mekjian makes a broader study of the application of the Fibonacci-Lucas numbers to statistics that include hyperbolic power laws [38].

I. Tanackov et al. show the close relationship of the elementary exponential distribution with the value 2ln φ, which makes them think that the emergence of the continuous proportion in nature could be linked to a special case of Markov processes —a non-reversible case, we would advance. It is well known that exponential distributions have maximum entropy. It can be obtained an incomparably faster convergence to the value of the number e with Lucas numbers, a generalization of Fibonacci numbers, than with Bernoulli’s original expression, which is enough food for thought; we can also get with non-reversible walks a faster convergence than with the usual random walk [38].

Edward Soroko proposed a law of structural harmony for the stability of self-organized systems, based on the continuous proportion and its series considering entropy from the point of view of thermodynamic equilibrium [39]. Although here we give preference to entropy in systems far from equilibrium, his work is of great interest and can be a source of new ideas.

It would be desirable to further clarify the relationship of power laws to entropy. The use of the principle of maximum entropy seems to be particularly suitable for open systems out of balance and with a strong self-interaction. Researchers such as Matt Visser think that Jaynes’ principle of maximum entropy allows a very direct and natural interpretation of powers laws [40].

Normally one looks for continuous power laws or discrete power laws, but in nature we can appreciate a middle ground between both as Mitchell Newberry observes with regard to the circulatory system. As usual, in such cases reverse engineering is imposed on the natural model. The continuous proportion and its series offer us an optimal recursive procedure to pass from continuous to discrete scales, and its appearance in this context could be natural [41].

The logarithmic average seems to be the most important component of these power laws, and we immediately associate the basis of the natural logarithms, the number e, with the exponential growth in which a certain variable increases without restrictions, something that in nature is only viable for very short periods of time. On the other hand, the golden mean seems to arise in a context of critical equilibrium between at least two variables. But this would lead us rather to logistic or S-curves, which are a modified form of the normal distribution and also a scaled compensation of a hyperbolic tangent function. On the other hand, exponential and power laws distributions look very different but sometimes can be directly connected, which is a subject on its own.

As already noticed, we can also connect the constants e and Φ through the complex plane, as in the equality (Φi = e ± πi/3). Although entropy has always been measured with algebras of real numbers, G. Rotundo and M. Ausloos have shown that here too the use of complex values can be justified, allowing to treat not only a “basic” free energy but also “corrections due to some underlying scale structure” [42]. The use of asymmetric correlation matrices could also be linked with the golden matrices generalized by Stakhov and applied to genetic code information by Sergey Pethoukov [43].

In the mechanical-statistical context the maximum entropy is only an extreme referred to the thermodynamic limit and to Poincaré’s immeasurable scales of recurrence; but in many relevant cases in nature, and evidently in the thermomechanical context, it is necessary to consider a non-maximum equilibrium entropy, which may be defined by the coarse grain of the system. Pérez-Cárdenas et al. show a non-maximum coarse-grained entropy linked to a power law, the entropy being so much lower when finer is the grain of the system [44]. This graininess can be linked to the constants of proportionality in the equations of mechanics, such as the same Planck’s constant.

*

Probability is a predictive concept and statistics a descriptive, interpretative one, and both should be balanced if we do not want human beings to be increasingly governed by concepts they do not understand at all.

Just to give an example, the mathematical apparatus known as the renormalization group applied to particle and statistical physics is particularly relevant in deep learning, to the point that some experts claim both are the same thing. But it goes without saying that this group historically emerged to deal with the effects of the Lagrangian self-interaction in the electromagnetic field, a central theme of this article.

For prediction, the effects of self-interaction are mostly “pathological”, since they complicate calculations and often lead to infinity —although in fact we should put the blame for this in the inability to work with extended particles of special relativity, rather than in self-interaction. But for the description and interpretation the problem is the opposite, it is about recovering the continuity of a natural feedback broken by layers and more layers of mathematical tricks. The conclusion could not be clearer: the search for predictions, and the “artificial intelligence” thus conceived, has grown exponentially at the expense of ignoring natural intelligence —the intrinsic capacity for self-compensation in nature.

If we want to somehow reverse the fact that man is increasingly governed by numbers that he does not understand —and even the experts are bound to trust in programs whose outputs are way beyond their understanding- it is necessary to work at least as hard in a regressive or retrodictive direction. If the gods destroy men by making them blind, they make them blind by means of predictions.

*

As Merrick points out, for the current theory of evolution, if life were to disappear from this planet or have to start all over again, the long-term results would be completely different, and if a rational species were to emerge it would be totally different from our own. That is what random evolution means. In a harmonically guided evolution conditioned by resonance and interference as Merrick suggests, the results would be fairly the same, except for the uncertain incidence that the great cosmic cycles beyond our reach might have.

There is not something like pure chance, there is nothing purely random; no matter how little organized an entity is, be it a particle or an atom, it cannot fail to filter out the environmental “random” influences according to its own intrinsic structure. And the first sign of organization is the appearance of an axis of symmetry, which in particles is defined by axes of rotation.

The dominant theory of evolution, like cosmology, has emerged to fill the great gap between abstract and reversible, and therefore timeless, physical laws and the ordinary world showing an irreversible time, perceptible forms and sequences of events. Today’s whole cosmology is really based on an unnecessary and contradictory assumption, the principle of inertia. The biological theory of evolution is based on a false one, that life is only governed by chance.

The present “synthetic theory” of evolution has only come into existence because of the separation of disciplines, and more specifically, due to the segregation of thermodynamics from fundamental physics despite the fact that there is nothing more fundamental than the Second Law. It is not by chance that thermodynamics emerged simultaneously with the theory of evolution: the first one begins with Mayer, who elaborated on work and physiology considerations, and the second one with Wallace and Darwin starting, according to the candid admission of the latter in the first pages of his main work, from Malthus’ assumptions of resources and competition, which in turn go back to Hobbes —one is a theory of work and the other of the global ecosystem understood as a capital market. The accumulated capital in this ecosystem is, of course, the biological inheritance.

Merrick’s harmonic evolution, due to the collective interference of waves-particles, is an updating of an idea as old as music; and it is also a timeless, purpose-free vision of the events of the world. But to reach the desired depth in time, it must be linked to the other two clearly teleological, but spontaneous domains, of mechanics and thermodynamics, which we call thermomechanics for short.

It would be enough to unite these three elements for the present theory of evolution to start becoming irrelevant; and not to mention that human and technological evolution is decidedly Lamarckian beyond speculation. Even DNA molecules are organized in the most obvious way along an axis. And as for information theory, one only has to remember that it has come out of a peculiar interpretation of thermodynamics, and that it is impossible to do automatic computations without components with a turning axis. Whatever the degree of chance, the Pole rules and defines its sense and meaning.

However, in order to better understand the action of the Pole and the spontaneous reaction involved in mechanics it would be good to rediscover the meaning of polarity.

## La razón continua, la estadística y la probabilidad

Se dice desde hace algún tiempo que en la ciencia de hoy “la correlación reemplaza a la causación”, y por correlación se entiende evidentemente una correlación estadística. Pero ya desde Newton la física no se ha preocupado demasiado por la causación, ni podía hacerlo, así que no se trata tanto de un cambio radical como de un incremento progresivo en la complejidad de las variables.

En el manejo de distribuciones y frecuencias estadísticas apenas tiene sentido hablar de teorías falsas o correctas, sino más bien de modelos que se ajustan peor o mejor a los datos, lo que dota a esta área de mucha mayor libertad y flexibilidad con respecto a los supuestos. Las teorías físicas pueden ser innecesariamente restrictivas, y por el contrario una interpretación estadística es siempre demasiado poco vinculante; pero por otro lado, la física moderna está cada vez más saturada de aspectos probabilísticos, así que la interacción entre ambas disciplinas es cada vez estrecha en ambas direcciones.

Las cosas aún se ponen más interesante si introducimos la posibilidad de que el principio de máxima producción entropía esté presente en las ecuaciones fundamentales, tanto de la mecánica clásica como de la mecánica cuántica —y ya no digamos si se descubriesen relaciones básicas entre este principio y la proporción continua φ.

Tal vez el modelo de onda refleja/potencial retardado que hemos visto para el sistema circulatorio nos da una buena idea de un círculo virtuoso correlación/causación que cumple sobradamente con las exigencias de la mecánica pero deja en suspenso el sentido de la secuencia causa-efecto. A falta de construir esos vínculos más sólidos e internos, ahora nos contentaremos con mencionar algunas asociaciones más circunstanciales entre nuestra constante y las distribuciones de probabilidad.

La primera asociación de la media áurea con la probabilidad, la combinatoria, la distribución binomial y la hipergeométrica viene ya sugerida por la presencia de las series de Fibonacci en el triángulo polar ya comentado.

Cuando hablamos de probabilidad en la naturaleza o en las ciencias sociales dos distribuciones nos vienen ante todo a la cabeza: la casi ubicua distribución normal o gaussiana, en forma de campana, y las distribuciones de leyes de potencias, también conocidas como distribuciones de Zipf, de Pareto, o zeta para los casos discretos.

El ya citado Richard Merrick ha hablado de una “función de interferencia armónica” resultado de la amortiguación de armónicos, o dicho de otro modo, del cuadrado de las primeras doce frecuencias de la serie armónica partido por las frecuencias de los primeros doce números de Fibonacci. Se trataría, según su autor, de un equilibrio entre la resonancia espacial y la amortiguación temporal.

De este modo llega a lo que llama un “modelo simétrico de interferencia reflexiva”, formado de la media armónica entre un círculo y una espiral. Merrick insiste en la trascendental importancia que tiene para toda la vida su organización en torno a un eje, lo que ya Vladimir Vernadsky había considerado como el problema clave de la biología.

Las ideas de Merrick sobre umbrales de máxima resonancia y máxima amortiguación pueden ponerse en concordancia con las ecuaciones de termomecánica de Pinheiro, y como ya hemos notado tendrían más alcance si contemplaran el principio de máxima entropía como conducente a la organización en lugar de lo contrario. Merrick elabora también una cierta teoría musical sobre una proporción privilegiada 5/6-10/12 a diferentes niveles, desde la organización del torso humano a la disposición de la doble hélice de DNA vista como la rotación de un dodecaedro en torno a un eje bipolar.

*

Las leyes de potencias y distribuciones zeta son igualmente importantes en la naturaleza y los acontecimientos humanos, y se presentan tanto en leyes de física fundamentales hasta la distribución de la riqueza entre la población, el tamaño de las ciudades o la frecuencia de los terremotos. Ferrer i Cancho y Fernández notan que φ es el valor en el que coinciden los exponentes de la distribución de probabilidad de una magnitud discreta y el del valor de la magnitud frente a su rango. De momento no se sabe si esto es una curiosidad o permitirá profundizar en el conocimiento de estas distribuciones [37].

Las distribuciones zeta o de Zipf están ligadas a las estructuras jerárquicas y a los acontecimientos catastróficos, y también se solapan con los fractales en el dominio espacial y con el llamado ruido 1/f en el dominio de los procesos temporales. A. Z. Mekjian hace un estudio mucho más generalizado de la aplicación de los números de Fibonacci-Lucas a la estadística que incluyen leyes de potencias hiperbólicas [38] .

I. Tanackov et al. muestran la estrecha relación de la distribución exponencial elemental con el valor 2ln φ, que les hace pensar que la aparición de de la proporción continua en la Naturaleza podría estar ligada a un caso especial de procesos de Markov —un caso no reversible, diríamos nosotros. Sabido es que las distribuciones exponenciales tienen máxima entropía. Con los números de Lucas, generalización de los de Fibonacci, se puede obtener una convergencia al valor de e mucho más rápida que con la misma expresión original de Bernouilli, lo que ya da en qué pensar; también con paseos no reversibles se puede obtener una convergencia más rápida que con el paseo aleatorio habitual [38bis].

Edward Soroko propuso una ley de armonía estructural para la estabilidad de los sistemas autoorganizados, basado en la razón continua y sus series considerando la entropía desde el punto de vista del equilibrio termodinámico [39]. Sin duda una parte de su trabajo es aprovechable o puede ser fuente de nuevas ideas, aunque aquí hemos hablado más de entropía en sistemas alejados del equilibrio.

Sería de gran interés precisar más las relaciones de las leyes de potencias con la entropía. El uso del principio de máxima entropía parece especialmente indicado para sistemas abiertos fuera de equilibrio y con alta autointeracción. Investigadores como Matt Visser piensan que el principio de máxima entropía entendido en el sentido de Jaynes permiten una interpretación muy directa y natural de las leyes de potencias [40].

Normalmente se buscan leyes de potencias discretas o leyes de potencias continuas, pero en la naturaleza se aprecia a menudo un término medio entre ambas como observa Mitchell Newberry a propósito del sistema circulatorio. Como casi siempre, en tales casos se impone la ingeniería inversa sobre el modelo natural. La proporción continua y sus series nos ofrecen un procedimiento recursivo óptimo para pasar de escalas continuas a discretas, y su aparición en este contexto podría ser natural [41].

El promedio logarítmico parece ser el componente más importante de estas leyes de potencias, y la base de los logaritmos naturales, el número e, lo asociamos de inmediato con el crecimiento exponencial en el que una determinada variable aumenta sin restricciones, algo que en la naturaleza sólo puede aparecer en breves lapsos de corta duración. En cambio la proporción continua parece surgir en un contexto de equilibrio crítico entre al menos dos variables. Pero esto nos llevaría más bien a las curvas logísticas o en S, que son una forma modificada de la distribución normal y también una compensación a escala de una función tangente hiperbólica. Por otro lado las distribuciones exponenciales y las de leyes de potencias parecen muy diferentes pero a veces pueden estar directamente conectadas, lo que merecería un estudio por sí solo.

Como ya se apuntó, también podemos conectar las constantes e y Φ a través del plano complejo, como en la igualdad (Φi = e ± πi/3). Aunque la entropía siempre se ha medido con álgebras de números reales, G. Rotundo y M. Ausloos han mostrado que también aquí el uso de valores complejos puede estar justificado, permitiendo tratar no sólo una energía libre “básica” sino también “correcciones debidas a alguna estructura de escala subyacente”[42]. El uso de matrices de correlación asimétricas tal vez pueda conectarse con las matrices áureas generalizadas por Stakhov y que Sergey Pethoukov ha aplicado a la información del código genético [43].

En el contexto mecánico-estadístico la máxima entropía es sólo un extremo referido al límite termodinámico y a escalas de recurrencia de Poincaré inmensurables; pero en muchos casos relevantes en la naturaleza, y evidentemente en el contexto termomecánico, hay que considerar una entropía de equilibrio no máxima, que puede estar definida por el grano grueso del sistema. Pérez-Cárdenas et al. demuestran una entropía de grano grueso no máxima unida a una ley de potencias, siendo la entropía tanto menor cuando más fina es la granulosidad del sistema [44]. Esta granulosidad se puede vincular con las constantes de proporcionalidad en las ecuaciones de la mecánica, como la propia constante de Planck.

*

La probabilidad es un concepto predictivo, y la estadística uno descriptivo e interpretativo, y ambos deberían estar equilibrados si no queremos que el ser humano esté cada vez más gobernado por conceptos que no entiende en absoluto.

Por poner un ejemplo, el grupo de renormalización de la física estadística tiene cada vez más importancia en el manejo de datos de los filtros multinivel del aprendizaje automático, hasta el punto en que hoy hay quien afirma que ambas son la misma cosa. Pero no hay ni que decir que este grupo surgió históricamente para compensar los efectos de la autointeracción del lagrangiano en el campo electromagnético, un tema central de este artículo.

Para la predicción, los efectos de la autointeracción son más que nada “patológicos”, puesto que complican los cálculos y conducen a menudo a infinitos —aunque la culpa de esto está en la incapacidad de tratar con partículas extensa de la relatividad especial, más que en la propia autointeracción. Pero para la descripción e interpretación el problema es el inverso, se trata de recuperar la continuidad de una realimentación natural rota por capas y más capas de reglas de cálculo, con sus convenciones y arbitrariedades. La conclusión no puede ser más clara: la búsqueda de predicciones, y la “inteligencia artificial” así concebida, ha crecido exponencialmente a costa de ignorar la inteligencia natural —la capacidad intrínseca de autocorrección en la naturaleza.

Si queremos revertir de alguna manera que el hombre sea gobernado por números que no entiende —y hasta los especialistas los entienden cada vez menos-, se impone ocuparse del camino regresivo o retrodictivo con al menos igual intensidad. Si los dioses destruyen a los hombres volviéndolos ciegos, los hacen ciegos por medio de las predicciones.

*

Como apunta Merrick, para la actual teoría de la evolución, si la vida desapareciera de este planeta o tuviera que empezar otra vez de cero, los resultados a largo plazo serían completamente diferentes, y si surgiera una especie racional sería biológicamente inconmensurable con el hombre. Eso es lo que comporta una evolución aleatoria. En una evolución armónicamente guiada por resonancia e interferencia como la que él contempla, los resultados volverían a ser más o menos los mismos, salvo por la incierta incidencia que puedan tener los grandes ciclos cósmicos más allá de nuestro alcance.

No existe azar puro, no hay nada puramente aleatorio; a poco organizada que sea una entidad, así sea una partícula o átomo, no puede dejar de filtrar el azar circundante según su propia estructura interna. Y el primer signo de organización es la aparición de un eje de simetría, que en las partículas viene definido por ejes de rotación.

La teoría de la evolución dominante, como la cosmología, ha surgido para llenar el gran vacío entre unas leyes físicas abstractas y reversibles, y por lo tanto ajenas al tiempo, y el mundo ordinario de la flecha del tiempo, las formas perceptibles y las secuencias de acontecimientos. La entera cosmología actual parte de un supuesto innecesario y contradictorio, el principio de inercia. La teoría biológica de la evolución, de uno falso, que la vida sólo está gobernada por el azar.

La presente “teoría sintética” de la evolución sólo ha llegado a existir por la separación de disciplinas, y en particular, por la segregación de la termodinámica de la física fundamental a pesar de que nada hay más fundamental que la Segunda Ley. No es casual que la termodinámica surgiera simultáneamente a la teoría de la evolución: la primera empieza con Mayer, de consideraciones sobre el trabajo y la fisiología, y la segunda con Wallace y Darwin partiendo, según la cándida admisión de éste último en las primeras páginas de su obra principal, de los supuestos de competencia de Malthus, que a su vez se retrotraen a Hobbes —una es una teoría del trabajo y la otra del ecosistema global entendido como un mercado de capital. En este ecosistema el capital acumulado es, por supuesto, la herencia biológica.

La evolución armónica de Merrick, por la interferencia colectiva de las partículas-ondas, es una puesta al día de una idea tan vieja como la música; y es además una visión sin finalidad y atemporal del acontecer del mundo. Pero para alcanzar la deseada profundidad en el tiempo, debe estar unida a los otros dos dominios claramente teleológicos, pero espontáneos, presentes en la mecánica y la termodinámica, y que aquí llamamos termomecánicos para abreviar.

Bastaría unir estos tres elementos para que la presente teoría de la evolución empezara a resultar irrelevante; y eso sin hablar de que la evolución humana y tecnológica es decididamente lamarckiana más allá de cualquier especulación. Hasta las moléculas de DNA están organizadas de la forma más manifiesta por un eje. Y en cuanto a la teoría de la información, sólo hay que recordar que ha salido de una interpretación peculiar de la termodinámica, y que es imposible hacer cómputos automáticos sin componentes con un eje de giro. Sea cual sea el grado de azar, el polo define su sentido.

Sin embargo, para entender mejor la acción del polo y la reacción espontánea que comporta la mecánica tendríamos que redescubrir la polaridad.

## The apple and the Dragon

To my knowledge, Nikolay Noskov was the first to appreciate, in the 1990s, that Weber’s dynamics was so far the only one that allowed for a physical account of the shape of the ellipses, even if it did not pretend to give a “mechanical explanation” for them. In this respect, Noskov particularly insisted on associating the retarded potentials with longitudinal vibrations of the moving bodies in order to give a content to the conservation, merely formal in Weber, of energy; he also insisted that their occurrence permeated all types of natural phenomena, from the stability of atoms and their nuclei, to orbital elliptical motion, sound, light, electromagnetism, the flow of water or gusts of wind [9].

Despite the misunderstandings on the subject, these longitudinal waves are not incompatible with known physics, and Noskov recalled that the same Schrödinger wave equation is a mixture of different equations that describe waves in a medium and waves within the moving body —and the same thing happened from the start with Maxwell’s “electromagnetic waves”, which even from the most classical point of view cannot be anything other than a statistical average between what occurs in portions of space and matter.

Noskov noticed that the behavior of forces and potentials in Weber’s law involved a sort of feedback, although he does not seem to recognize that this is already the case for all gauge theories, and finally even for Newtonian celestial mechanics itself, although in all these instances it is presented in disguise. Atoms would be definitely dumb without this ability to adjust embedded into the very idea of the field.

*

Let us now return to the continuous proportion. Miles Williams Mathis wonders how it is that, given the equality Φ2 + Φ = 1, phi has not been related to the most elementary inverse-square laws of physics; moreover, he wonders how it is that it has not been associated with the sphere itself, being so evident that the surface of a sphere also decreases to the square [10].

It could be argued that the Fibonacci series does not square, but the factor Φ does, as can be easily seen in the successive squares of the golden spiral (1, 1/Φ, 1/Φ2 , 1/Φ3 …) or in its expression as a continuous square root. Mathis is not confusing the inverse square with the square root, but is talking about a scale factor between two hypothetical subfields one into the other.

Mathis may be right in insisting that the presence of phi must also have an underlying physical cause; the only problem is that modern physics ignores and completely denies a scale relationship between charge and gravity, indeed light and gravity, as he is proposing. However, the origin of his correlation lies in the same Kepler’s problem, in which he wants to see a joint action of two different fields, the second one based not only on the inverse square of the distance but also on an inverse law of the fourth power (1/ r4) with a product of density by volume, instead of the usual formula of masses.

Now, Mathis is the first to specifically point out the conflation of orbital velocity and innate motion in Newton, interpreting the Lagrangian as the disguised product of two fields, of opposite attractive and repulsive effects, whose relative proportion or intensity is a function of scale and density [11].

The inclusion of density would have to be fundamental in a truly Archimedean relational physics, which brings us back to the issue of waves and spirals. Spirals are a common occurrence in astronomy, galaxies being their most apparent manifestation; these galaxies have been described in terms of density waves.

Many have noticed a logarithmic spiral with Φ as a key also in the Solar System and the distribution of its planets. As in the case of the so-called “law”, or rather rule of Titus-Bode, the existence of a non-random order seems quite evident, but the adjustment with the known values is somewhat arbitrary.

It goes without saying that the ellipse is the transformation of the circle when its centre is divided into two foci; although from the other point of view it can be said, and this is not unimportant, that the circle is only the limit case of the first one. Expanding on Kepler’s problem, although in a different light, Nicolae Mazilu refers us to Newton’s theorem of revolving orbits. Newton had already carefully considered the case of forces decreasing to the cube of distance, and in this hypothetical case the bodies describe orbits with logarithmic spiral shapes, which of course no one has observed.

However, E. B. Wilson’s works of 1919 and 1924 showed that the stable electron orbits in the atom were not ellipses but logarithmic spirals; only that the force involved here is not the Coulomb force, but a transition force between two different elliptical orbits. The later solution of the problem has buried in oblivion a model that was also consistent. And as for all applications of conic sections to physics, here too we find that signature of change in the potential, the shift in phase or plane of polarization known as the geometrical phase, discovered by Pancharatnam and so successfully generalized to quantum mechanics by Michael Berry [12] .

Various studies recount that the distribution of the planets in the Solar System follows the pattern of a logarithmic golden spiral with an accuracy of more than 97 percent, which may increase if the sidereal years and synodic periods of the system as a whole are taken into account [13]. For Hartmut Müller, the proximity is simply due to the closeness of phi to the value of √e, which is 1.648. According to other counts not verified by myself, the average distance between consecutive planets from the Sun to Pluto, taking the distance between the two previous ones as a unit, is just 1.618. If the last planet is discarded, the average deviates widely, which gives an idea of the fragility of these calibrations.

It has often been said that the perceptible harmony in the Solar System is not possible without some feedback mechanism, while the Newtonian approach simply combines a force at a distance with trajectories like cannonballs —a cannonball theory of everything- dependent on external forces or collisions. However, we have already seen that even in the Newtonian case a self-interaction is masked by merging innate motion and orbital velocity into one.

Newtonian celestial mechanics gave way to a more abstract version, Lagrangian mechanics, to avoid this mess; the difference between the kinetic energy and the potential begs the question to the so-called “initial conditions”, but these are nothing but Newton’s innate motion… at any rate, the case is that this average difference of the Lagrangian and the average eccentricity of the orbits is of the same order of magnitude than the deviations of the distribution of the solar system obtained by the logarithmic golden spiral. Thus, one can take the Lagrangian density of the entire system and its averages and see how the planets with their orbits nestle in.

It seems that scientific publications no longer admit studies on planetary distribution, since, having no underlying physics, they are relegated to the limbo of numerological speculation. However, the Lagrangian routinely used in celestial mechanics is also nothing more than a pure mathematical analogy, and exists only to blur differences of the same order of magnitude. Suffice it to admit this to realize that both issues are not on different grounds —maybe they are not even two different things.

To admit this is also to admit that gravity itself is an adjustment force that depends on the environment and not a universal constant, but this is something that was already implicit in Weber’s relational mechanics.

Mathis’ theory is more specific in that it regards G as a transformation between two radii. Not concerned with fitting his own notions of the physics underlying the Golden Section into the spiral of the Solar System, he deals in detail with Bode’s Law in a much simpler way based on a series based on √2. He also includes naturally in it the optical equivalence, the neglected fact that many planets look of the same size from the Sun, just as many satellites look the same size as the Sun seen from their respective planets. So this is not a punctual coincidence [13]. The optical equivalence would be the final wink that Nature gives us to see who is more blind, she or we.

And since it looks like a typical fancy of Nature, let us allow ourselves a bit of numerological fun. The optical equivalence that is shown in the total eclipses is an angular or projective relationship (with an approximate value of 1/720 of the celestial sphere) in accordance with the number 108, so important in different traditions, here entailing the number of solar diameters between the Sun and the Earth, the number of terrestrial diameters in the diameter of the Sun and the number of lunar diameters that separate the Moon from the Earth.

In the pentagram used to construct a golden spiral —and with which an ellipse can also be univocally determined in spherical geometry- we see that the reciprocal angles of the pentagon and the star are 108 and 72 degrees. On the other hand, Mathis himself comments, without relating it in any way to the optical equivalence, that in accelerators the relativistic mass of a proton usually finds a limit of 108 units that neither Relativity nor Quantum Mechanics explain, and he makes a derivation of the famous gamma factor that links it directly to G.

Of course, the Lorentz relativistic factor coincides with Weber’s mechanics up to a certain limit of energy —although in the latter what increases is the internal energy instead of mass. There could be no more natural connection with the optical equivalence than that of light itself, and Mathis’ theory establishes a series of equations and identities between light and charge, charge and mass, mass and gravity.

On the other hand, if we were to throw a stone into a well which perforated the Earth from side to side, and waited for it to return like a spring or a pendulum, it would take about 84 minutes, the same as an object in a close orbit around the planet. If we did the same thing with a particle of dust on an asteroid the size of an apple, but of the same density than our planet, the result would be exactly the same. This fact, which seems to assign an important role to density over mass and distance itself, pierce the appearance of the gravitational phenomenon, and should be as astonishing to us as Galileo’s finding that objects fall at the same speed regardless of their weight; it also fits very well in the context of an spiral equal at all scales.

In any case the Lagrangian, the difference between kinetic and potential energy, has to play a fundamental role as a reference for the fine tuning of the different elements of the Solar System. In celestial mechanics, despite what is said, the integral has always led to the differential, and not the other way around. The law discovered by Newton does not shape the ellipse but rather tries to fit it.

So we have Newton’s apple and the Golden Dragon of the Solar System Spiral. Will the dragon swallow the apple? The answer is that he doesn’t need to swallow it, since it has been inside him from the start. Let us say it again: the gauge fields, characterized by the invariance of the Lagrangian under transformations, are equivalent to a non-trivial feedback between force and potential, which in turn is indistinguishable from the eternal “information problem”, namely how the Moon knows where the Sun is and how it “knows” its mass to behave as it does. Why to ask about information at the microlevel of particles when the problem is in plain sight at the macrolevel in the first place?

Considering the adjustments of the Lagrangian in comparison with a system described exclusively by non-variable forces, the entire Solar System looks like a great spiral holonomy.

The Lagrangian can also hide virtual dissipation rates —virtual, of course, since we already know that the orbits are preserved. In fact, what Lagrange did was to dilute D’Alembert’s principle of virtual work by introducing generalized coordinates. But we are so used to separate the formalisms of thermodynamics from those of the supposedly more fundamental reversible systems that it is hard to see what this means. However, the most certain instinct tells us that everything reversible is an island surrounded by an ocean without forms. There is no motion without irreversibility; to pretend otherwise is just an illusion.

Mario J. Pinheiro wants to repair this divorce between convictions and formalisms by proposing a reformulation of mechanics alternative to the Lagrangian account, with a variational principle for rotating systems out of equilibrium and a mechanical-thermodynamic time in a set of two differential equations of first order. Here the equilibrium takes place between the minimum energy variation and the maximum entropy production.

This thermomechanics allows us to consistently describe systems with characteristics that are quite different from those of reversible systems, and which are particularly relevant to the case at hand: subsystems within a larger system can absorb the forces exerted on them, and instead of being enslaved there is room for interaction and self-regulation. There may be a component of topological torsion and conversion of linear or angular motion into angular motion. The angular momentum acts as a damper to dissipate the disturbances, “a well-known redressing mechanism in biomechanics and robotics ” [15] .

To my knowledge, Pinheiro’s proposal of an irreversible mechanics is the only one that gives a proper explanation of Newton’s famous buck experiment and the whirlpool formed by its rotation, by the transport of angular momentum, as opposed to Newton’s absolute interpretation or Leibniz’s purely relational one, neither of which are really to the point. Suffice it to recall the elemental observation that in this experiment the appearance of the vortex requires both time and friction, and matter is transferred to the regions of highest pressure, a clear signature of the Second Law. What is extraordinary is that no one has insisted on this before Pinheiro —something that can only be explained by the conventional roles adscribed to the different branches of physics. Besides, it is clear that springs, whirls and spirals are the most suitable and efficient forms of damping.

It is perhaps appropriate to remember that the so-called “principle of maximum entropy” does not tend towards maximum disorder, as is often thought even among the physicists, but rather the opposite, and this is how Clausius originally understood it. This establishes a very broad but essential link with highly organized systems, at the top of which we usually place living beings. On the other hand, it is enough to contemplate the spiral of the Solar System for a moment to understand that it only makes sense as an open, irreversible process in permanent production.

The concept of order that Boltzmann introduced is no less subjective than that of harmony, the main difference being that in statistical mechanics the micro-states, not the macro-states, have received a convenient quantification. Of course, this is another great rationalization: the irreversibility of phenomena or macrostates would be derived from the reversibility of microstates. But the mere postulation of stationary orbits in atoms —to pretend that there can be variable forces in isolated systems- is illegal both from the thermodynamic point of view and from the mere common sense.

The variational principle proposed by Pinheiro was first suggested by Landau and Lifshitz but has not been developed to date. This is inevitably reminiscent of the idea of damping wells in the Landau-Zener theory, which arise from adiabatic torque transfer when waves cross without destructive interference. Richard Merrick has directly related these wells or vortices to the golden spirals under conditions of resonance [17]. Many will say that one can not see how these conditions can be met in the Solar System, but, once again, the resonances of the classical theory of perturbations in Laplace’s celestial mechanics are in no better situation, being nothing else than pure mathematical relations. If anything, it could be said that they are in a worse situation, since we are asked to believe that gravity can have a repulsive effect.

Although Pinheiro’s thermomechanics involves something similar to this form of transfer, which evokes the parallel transport of the geometric phase, it also incorporates, and this is the key difference, a term for the thermodynamic free energy. A reversible system is a closed system, and there are no closed systems in the universe.

Merrick’s own theory of harmonic interference would be elevated to a much higher level of generality simply by appreciating that the principle of maximum entropy production is not contrary to the generation of harmony but rather conducive to it.

The principle of maximum entropy can be transferred to quantum mechanics with hardly any more sacrifice than the idea of reversibility, as shown by the quantum thermodynamics developed by Beretta, Hatsopoulos and Gyftopoulos; the subject is of extraordinary importance but now it would take us too far [18].

*

Physicists are proud of the high degree of accuracy of some of their theories, which is quite understandable given the work invested carrying out their calculations, sometimes to ten and twelve decimal places. Few things would be more eloquent than such precision if it came naturally, without special assumptions or arbitrary ad hoc adjustments, but that is the case most of the time. Still the value of gravity on Earth cannot be measured to more than three decimal places, but astrophysicists pretend to calculate to ten or twelve places to the confines of the universe.

In the case of Lagrange and Laplace this is absolutely evident, and one day we will wonder how we were able to accept their methods without even blinking an eye. The truth is that these procedures were not digested overnight, but if they were finally accepted it was from the invincible desire to expand the power of calculus at any rate, reinforced by the idea, inherited from Newton and Leibniz, that Nature is a clockwork machine of virtually infinite precision. And for the means, what better than to serve the Ideal.

It has rightly been said that had Kepler had more precise data, he would not have advanced his theory of elliptical motion; and in fact, Cassini ovals, fourth-degree curves with a constant distance product, seem to reproduce the observable trajectories more closely, something one should attribute to the perturbations involved. These ovals also raise interesting and profound questions about the dynamical connection between ellipses and hyperbolas. Interestingly, Cassini ovals are used to model the geometry of the spontaneous negative curvature of red blood cells, in which the golden ratio has also been found [19].

As Mathis points out, the very first analyses of perturbations included, already since Newton and Clairaut, a factor 1/ r4 with a repulsive force, which shows again to what extent the “auxiliary” elements of celestial mechanics are hiding something much more important [20].

To the eye of the naturalist, accustomed to the very variable precision of the descriptive sciences, the golden spiral of the Solar System would have to appear as the most splendid example of natural order; an order so magnificent that, unlike Laplace’s, it can include catastrophes in its bosom without hardly blurring. This is a characteristic that we invariably attribute to living beings. Whether judged as a natural phenomenon or as an organism, taking everything into account, the spiral shows a precision, more than sufficient, excellent.

And what is the place of the Taijitu, our symbol of the Pole generating the yin and yang, in all this? Well, it goes without saying that the system we are talking about, along with its subsystems — planets and satellites —is an eminently polar process, with axes defining its evolution; and so it is the spiral holonomy that envelops them. As for the yin and yang, if we were to say that they can also be the kinetic and potential energy, we would be told that we are proposing too trivial a correspondence. But all the above should serve to see that this is not the case.

We know that in the orbits kinetic and potential energy do not even compensate, and when they should, as in the case of circular motion in Binet’s equation, we do not even obtain a single force —at least a difference between the center of the circle and the center of the force is required. Looking for the simplest possible argument, the first thing that comes to mind is that the emergence of the golden section in the Taijitu, the freely rotating spherical vortex, contains a sort of analogical and a priori synthesis of 1) a law of areas applied to the two energies, 2) the focal geometry of the ellipses, and 3) a difference that is integrable and a shift in the plane of polarization that it is not. This third point overlaps the Lagrangian and a geometrical phase that in principle seem quite different.

Of course, we leave large loose ends here that such a simple diagram cannot translate. To begin with, just because an ellipse has two foci within does not mean that we have to look inside always for the origin of the forces that determine it, and this would lead us to the theory of perturbations. However, any environmental influence, also outer planets, should already be included in the geometric phase.

If we were to pass from celestial dynamics to light, we could reinterpret in terms of retarded potentials and their incidence on phase the data of ellipsometry or the “abstract monopole with a force of —1/2 at the center of the Poincaré sphere” to which Berry appeals in his generalization of the geometric phase. However, it should not be forgotten that light was already an essentially statistical process even from the times of Stokes and Verdet. The degree of polarization and entropy of a beam of light were always equivalent concepts, although we are still far from drawing all the consequences from this.

We assume the coincidence of the retarded potential and the geometrical phase, although there is not even a specific literature on the subject, nor is there agreement, otherwise, on the significance and status of the geometrical phase itself. There have been those who have seen it as an effect of the exchange of angular momentum, and in any case in classical mechanics the geometrical phase is shown by Hamilton-Jacobi’s formulation of angle-action variables [21].

If harmony is totality, the so-called geometrical phase should have its part in the mathematics of harmony, since it is nothing but the expression of “global change without local change”. We already noticed that the geometrical phase is inherent in fields involving conic sections, so its inclusion here is just elementary. However, the fact that it does not involve the known forces of interaction does not mean that we are dealing with mere “fictitious forces”; they are real forces that transport angular momentum and are essential in the effective configuration of the system.

Since this energy transport is an interference phenomenon, the potential energy of the Lagrangian must comprise the sum of all the interference from the adjacent systems, this being the missing “regulatory mechanism”. It may be argued that in the course of the planets we do not observe the manifestation of interference that characterizes wave processes, even though we do not hesitate to resort to “resonances” to explain perturbations. Let us look at this a little more closely.

If until now we have chosen to see the geometrical phase, in classical mechanics the difference in the solid angle or Hannay angle, as a relational property, the most appropriate way of understanding it would have to be within a purely relational mechanics such as Weber’s one. However, as Poincaré remarked, if we have to multiply the velocity squared, we no longer have a way of distinguishing between kinetic and potential energy, and even the latter is no longer independent of the internal energy of the bodies considered. Hence the postulation of an internal vibration by Noskov. However, this inherent ambiguity does not prevent us from making calculations as precise as with Maxwell’s equations, in addition to some other obvious advantages.

Remember the comparison of the stone that passes through the Earth and the dust particle on that tiny asteroid, which return to the same point in the same time. In a hypothetical medium of homogeneous density, this would suggest an overall dampening and synchronizing effect at different spatial scales. But, without the need for any hypothesis, what the geometrical phase implies is the effective coupling of systems that evolve at different time scales, for example, electrons and nuclei, or gravitational and atomic forces, or, within gravitational forces, the interactions between the different planets. This makes it particularly robust to noise or disturbances.

The ambiguity of relational mechanics need not be a weakness, but could be revealing some limitations inherent in mechanics and its calculus. Just when we want to take to its logical extreme the ideal of converting physics into a pure kinematics, a science of forces and motions, of mere extension, its inevitable dependence on potentials and “non-local” factors is revealed, although we would rather have to talk about definite global configurations.

What is essential in the apparently casual comparison between the Taijitu and the elliptical orbit is that the latter is also an integral expression of the totality: not only of the internal forces but also of the external forces that contribute to its form in real time. If the compensation mechanism serves as an effective regulation it cannot affect only the potentials but equally the forces.

## La manzana y el dragón

Por lo que sé, Nikolay Noskov fue el primero en apreciar, en los años 90 del pasado siglo, que la dinámica de Weber era hasta el momento la única que permitía dar cuenta de la forma de las elipses, incluso si no pretendían dar una “explicación mecánica” de su creación. A ese respecto, Noskov insistió particularmente en asociar los potenciales retardados con vibraciones longitudinales de los cuerpos en movimiento para darle un contenido a la conservación, meramente formal en Weber, de la energía; también insistió en que su ocurrencia penetraba todo tipo de fenómenos naturales, desde la estabilidad de los átomos y sus núcleos, al movimiento elíptico orbital, el sonido, la luz, el electromagnetismo, el flujo del agua o las ráfagas de viento [9].

A pesar de los malentendidos sobre el tema, estas ondas longitudinales no son incompatibles con la física conocida, y Noskov recordaba que la misma ecuación de onda de Schrödinger es una mezcla de ecuaciones diferentes que describen ondas en un medio y ondas dentro del cuerpo en movimiento —y lo mismo ocurrió desde el comienzo con las “ondas electromagnéticas” de Maxwell, que incluso desde el punto de vista más clásico no pueden ser otra cosa que un promedio estadístico entre lo que ocurre en porciones de espacio y de materia.

Fue también Noskov quien advirtió que el comportamiento de las fuerzas y potenciales en la ley de Weber habían entrañado desde siempre un feedback, aunque no parece haber percibido que esto es extensible a todas las teorías gauge, y, finalmente, incluso a la propia mecánica celeste newtoniana, si bien en todos estos casos se presenta disfrazada. Los átomos serían definitivamente “tontos” sin esta capacidad de ajuste incorporada en la misma idea del campo.

*

Volvamos ahora a la razón continua. Miles Williams Mathis se pregunta cómo es que, habida cuenta de la igualdad Φ2 + Φ = 1, no se ha relacionado phi con las más elementales leyes de cuadrados inversos de la física; más aún, se pregunta cómo es que no ha sido asociada con la propia esfera, siendo tan evidente que la superficie de una esfera también disminuye al cuadrado [10].

Podría argumentarse que la serie de Fibonacci no cae al cuadrado, pero el factor Φ sí, como puede visualizarse fácilmente en los cuadrados sucesivos de la espiral áurea (1, 1/Φ, 1/Φ2 , 1/Φ3 …) o en su expresión como raíz cuadrada continua. Mathis no está confundiendo el cuadrado inverso con la raíz cuadrada, sino que está hablando de un factor de escala entre dos hipotéticos subcampos el uno dentro del otro.

Puede que Mathis esté en lo cierto al insistir en que la presencia de phi debe tener también una causa física subyacente; el único problema es que la física moderna ignora y niega por completo una relación de escala entre carga y gravedad, en verdad luz y gravedad, como el que propone. Sin embargo el origen de su correlación se encuentra en el mismísimo problema de la elipse de Kepler, en el que quiere ver una acción conjunta de dos campos diferentes, el segundo basado no sólo en el cuadrado inverso de la distancia sino también en una ley inversa a la cuarta potencia (1/ r4) con un producto de la densidad por el volumen, en lugar de la fórmula habitual de masas.

Ahora bien, Mathis es quien primero que ha hablado expresamente de la conflación de la velocidad orbital y el movimiento innato en Newton, interpretando el lagrangiano como el velado producto de dos campos, de efectos atractivo y repulsivo, cuya proporción o intensidad relativa está en función de la escala y densidad [11].

La inclusión de la densidad tendría que ser fundamental en una física verdaderamente relacional que siguiera el espíritu de Arquímedes, lo que nos lleva de vuelta al tema de las ondas y las espirales. Las espirales son una ocurrencia común en astronomía, siendo las galaxias su manifestación más aparente; estas galaxias han sido descritas en términos de ondas de densidad.

También en el Sistema Solar y la distribución de sus planetas se ha querido ver una espiral logarítmica con Φ como clave. Como en el caso de la llamada “ley”, o más bien regla de Titus-Bode, la existencia de un orden no aleatorio parece bastante evidente, pero el ajuste fino de los valores dados resulta un tanto arbitrario.

No hay ni que decir que la elipse es la transformación del círculo cuando su centro se divide en dos focos; aunque desde el otro punto de vista bien puede decirse, y ello no carece de importancia, que el círculo es sólo el caso límite de la primera. Abundando en el problema de Kepler, aunque bajo otra luz, Nicolae Mazilu nos remite al teorema de Newton sobre las elipses giratorias en precesión. Newton ya había considerado cuidadosamente el caso de fuerzas decreciendo al cubo de la distancia, y en este caso hipotético los cuerpos describen órbitas en forma de espiral logarítmica, que por supuesto nadie ha observado.

Ahora bien, los trabajos de E. B. Wilson de 1919 y 1924 mostraban que las órbitas estables de los electrones en el átomo no eran elipses sino espirales logarítmicas; sólo que la fuerza implicada no es la fuerza de Coulomb, sino una fuerza de transición entre dos órbitas elípticas diferentes. La solución posterior del problema ha cubierto de olvido un modelo que también era consistente. Y como para todas las aplicaciones de las secciones cónicas a la física, también aquí se encuentra esa signatura de cambio en el potencial, el desplazamiento en la polarización o plano de fase conocido como fase geométrica, descubierta por Pancharatnam y generalizada con tanto éxito a la mecánica cuántica por Berry [12] .

Diversos estudios han mostrado que la distribución de los planetas del Sistema Solar sigue la pauta de una espiral logarítmica áurea con una precisión de más del 97 por ciento, que puede aumentar si se tienen en cuenta los años siderales y periodos sinódicos del sistema en su conjunto [13]. Para Hartmut Müller, la proximidad se debería simplemente a la cercanía de phi al valor de √e, que es 1,648. Según otros recuentos que no he verificado, el promedio de la distancia entre planetas consecutivos desde el Sol a Plutón, tomando la distancia entre los dos anteriores como unidad, es justamente 1,618. Si se descarta este último planeta la media se desvía ampliamente, lo que da una idea de la fragilidad de estas calibraciones.

Se ha dicho a menudo que la armonía perceptible en el Sistema Solar no es posible sin algún mecanismo de feedback, mientras que el acercamiento newtoniano combina sin más una fuerza a distancia con trayectorias como las balas de cañón, dependientes de fuerzas externas o colisiones. Sin embargo ya hemos visto que incluso en el caso newtoniano se esconde una autointeracción al fundir en uno solo el movimiento innato y la velocidad orbital.

La mecánica celeste da paso a una versión más abstracta, la mecánica lagrangiana, para evitar este embrollo; la diferencia entre la energía cinética y la potencial se remiten a las llamadas “condiciones iniciales”, pero estas no son otra cosa que el movimiento innato de Newton… el caso es que esta diferencia promedio del lagrangiano y la excentricidad promedio de las órbitas es del mismo orden de magnitud que las desviaciones de la distribución del sistema solar obtenidas por la espiral logarítmica áurea. Así pues, se puede tomar la densidad lagrangiana del sistema entero y sus promedios y ver cómo van encajando en ella los planetas con sus órbitas.

Parece ser que las publicaciones científicas han dejado de admitir estudios sobre la distribución planetaria, puesto que, al no tener una física subyacente, quedan relegados al limbo de la especulación numerológica. Sin embargo el lagrangiano usado rutinariamente en mecánica celeste tampoco es nada más que una pura analogía matemática, y existe sólo para difuminar diferencias del mismo orden de magnitud. Basta con admitir esto para darse cuenta de que en realidad no nos movemos en terrenos diferentes.

Admitirlo es admitir también que la gravedad es de suyo una fuerza de ajuste que depende del entorno y no una constante universal, pero esto es algo que ya está implícito en la mecánica relacional de Weber.

La teoría de Mathis, es más específica en el sentido de que contempla G como una transformación entre dos radios. No se ha ocupado de encajar sus propias nociones de la física subyacente a la Sección Áurea en la espiral del Sistema Solar, pero si ha tratado en detalle la Ley de Bode de forma mucho más simple basándose en una serie basada en √2, además de incluir naturalmente en ella la equivalencia óptica, el desatendido hecho de que muchos planetas vienen a tener el mismo tamaño desde el Sol, del mismo modo que muchos satélites tienen el mismo tamaño que el Sol vistos desde sus respectivos planetas. No se trata por tanto de una mera coincidencia puntual [13]. La equivalencia óptica sería el guiño final que nos dedica la Naturaleza para ver quién es más ciega, si ella o nosotros.

Y ya que parece una típica travesura de la Naturaleza, aquí vamos a permitirnos una pequeña diversión numerológica. La equivalencia óptica que se pone de manifiesto en los eclipses totales es una relación angular y proyectiva (con un valor aproximado de 1/720 de la esfera celeste) en concordancia con el número 108, tan importante en diferentes tradiciones, y que implica el número de diámetros solares que hay entre el Sol y la Tierra, el número de diámetros terrestres en el diámetro del Sol y el número de diámetros lunares que separa a la Luna de la Tierra.

En el pentagrama que sirve para construir una espiral áurea —y con el que también puede determinarse unívocamente una elipse en geometría esférica- vemos que los ángulos recíprocos del pentágono y la estrella son 108 y 72 grados. Por otra parte, el mismo Mathis comenta, sin relacionarlo para nada con la equivalencia óptica, que en los aceleradores la masa relativista de un protón suele encontrar un límite de 108 unidades que ni la Relatividad ni la mecánica cuántica explican, y hace una derivación del famoso factor gamma que lo vincula directamente con G.

Por supuesto, el factor relativista de Lorentz coincide con la mecánica de Weber hasta un cierto límite de energía —aunque en la segunda lo que aumenta es la propia energía interna y no la masa. No podría haber conexión más natural con la equivalencia óptica que la de la propia luz, y la teoría de Mathis establece una serie de ecuaciones e identidades entre la luz y la carga, la carga y la masa, y la masa con la gravedad.

Por el otro lado, si tiráramos una piedra en un pozo que perforara la Tierra de lado a lado, y esperáramos a que volviera igual que un muelle o un péndulo, tardaría unos 84 minutos, lo mismo que un objeto en una órbita cerrada. Si hiciéramos lo mismo con una partícula de polvo en un asteroide del tamaño de una manzana, pero de la misma densidad que nuestro planeta, el resultado sería exactamente el mismo. Este hecho, que parece asignar un papel importante a la densidad sobre la propia masa y la distancia, traspasa la apariencia del fenómeno gravitatorio, y debería resultarnos tan pasmoso como la comprobación de Galileo de que los objetos caen a la misma velocidad independientemente de su peso; también encaja muy bien en el contexto de una espiral igual a todas las escalas.

En cualquier caso el lagrangiano, la diferencia entre energía cinética y potencial, tiene que desempeñar un papel fundamental como referencia para el ajuste fino de los distintos elementos del Sistema Solar. En mecánica celeste, a pesar de lo que se diga, la integral siempre ha conducido al diferencial, y no al contrario. Como ya dijimos la ley descubierta por Newton no produce la elipse sino que aspira a encajar en ella.

Así pues tenemos la manzana de Newton y el Áureo Dragón de la Espiral del Sistema Solar. ¿Se tragará el Dragón a la Manzana? La respuesta es que no necesita tragársela, puesto que desde el principio ha estado dentro de él. Repitámoslo de nuevo: los campos gauge, caracterizados por la invariancia del lagrangiano bajo transformaciones, equivalen a un feedback no trivial entre la fuerza y el potencial, que a su vez se confunde con el eterno “problema de la información”, a saber, cómo sabe la Luna dónde está el Sol y cómo “conoce” su masa para comportarse como se comporta. ¿Por qué se pregunta por el problema de la información al nivel de las partículas y se ignora donde puede verse a simple vista para empezar?

Considerando los ajustes del lagrangiano con respecto a un sistema descrito exclusivamente por fuerzas no variables, el entero Sistema Solar parece una enorme holonomía espiral.

El lagrangiano también puede esconder tasas virtuales de disipación —virtuales, claro, pues que las órbitas se conservan es algo que ya sabemos. De hecho lo que Lagrange hizo fue diluir el principio de trabajo virtual de D’Alembert introduciendo coordenadas generalizadas. Pero estamos tan acostumbrados a separar los formalismos de la termodinámica de los de los sistemas reversibles, supuestamente más fundamentales, que cuesta ver lo que esto significa. Sin embargo, el instinto más cierto nos dice que todo lo reversible no es sino pura ilusión, y los comportamientos reversibles, meras islas rodeadas por un océano sin formas. No hay movimiento sin irreversibilidad; pretender lo contrario es una quimera.

Mario J. Pinheiro ha querido reparar ese divorcio entre convicciones y formalismos proponiendo una reformulación de la mecánica alternativa a la mecánica lagrangiana, con un principio variacional para sistemas rotatorios fuera de equilibrio y un tiempo mecánico-termodinámico en un conjunto de dos ecuaciones diferenciales de primer orden. Aquí el equilibrio se da entre la variación mínima de energía y la producción máxima de entropía.

Esta termomecánica permite describir consistentemente sistemas con unas características bien diferentes de las de los sistemas reversibles, particularmente relevantes para el caso que nos ocupa: los subsistemas dentro de un sistema más grande pueden amortiguar las fuerzas que se ejercen sobre ello, y en lugar de estar esclavizados queda espacio para la interacción y la autorregulación. Puede haber un componente de torsión topológica y conversión de movimiento lineal o angular en movimiento angular. El momento angular sirve de amortiguador para disipar las perturbaciones, “un mecanismo de compensación bien conocido en biomecánica y robótica” [15] .

Hasta donde sé, la propuesta de Pinheiro de una mecánica irreversible es la única que da una explicación apropiada del famoso experimento de Newton del cubo de agua y el torbellino formado por su rotación, por el transporte de momento angular, frente a la interpretación absoluta de Newton o la puramente relacional de Leibniz, ninguna de las cuales hace verdaderamente al caso. Baste para ello recordar la observación elemental de que en este experimento la aparición del vórtice requiere tanto tiempo como fricción, y la materia es transferida a las regiones de mayor presión, signo claro de la Segunda Ley. Lo extraordinario es que no se haya insistido en esto antes de Pinheiro —algo que sólo puede explicarse por los papeles convenidos de antemano para las distintas ramas de la física. Por lo demás salta a la vista que muelles, torbellinos y espirales son las formas idóneas y más eficientes para la amortiguación.

Tal vez sea oportuno recordar que el llamado “principio de máxima entropía” no tiende hacia el máximo desorden, como muy a menudo se piensa incluso dentro del mundo de la física, sino más bien hacia lo contrario, y así es como lo entendió originalmente Clausius [16]. Esto establece un vínculo muy amplio pero esencial con el mundo de los sistemas más altamente organizados, a cuya cabeza solemos poner a los seres vivos. Por lo demás, basta con detenerse a contemplarlo un momento para comprender que una espiral como la del Sistema Solar sólo tiene sentido como proceso irreversible y en producción permanente.

El concepto de orden que introdujo Boltzmann no es menos subjetivo que el de armonía, siendo la principal diferencia que en la mecánica estadística los microestados, que no los macroestados, han recibido una más o menos adecuada cuantificación. Claro que no deja de ser otra grandiosa racionalización: la irreversibilidad de los fenómenos o macroprocesos se derivaría de la reversibilidad de los microprocesos. Pero la mera postulación de órbitas estacionarias en los átomos —pretender que pueda haber fuerzas variables en sistemas aislados- es ilegal tanto desde el punto de vista termodinámico como desde el mero sentido común.

El principio variacional propuesto por Pinheiro fue sugerido por primera vez por Landau y Lifshitz pero no ha tenido desarrollo hasta el día de hoy. Esto recuerda inevitablemente la idea de los pozos de amortiguación de la teoría de Landau y Zener, que surgen de la transferencia adiabática de par de torsión al cruzarse ondas sin interferencia destructiva. Richard Merrick ha relacionado directamente estos pozos o vórtices con las espirales áureas en condiciones de resonancia [17]. Muchos dirán que no se ve cómo pueden satisfacerse esas condiciones en el Sistema Solar, pero, una vez más, las resonancias de la teoría clásica de perturbaciones en la mecánica celeste de Laplace no se encuentran en mejor situación, no siendo otra cosa que puras relaciones matemáticas. Podría en todo caso decirse que están en peor situación, puesto que se nos pide que creamos que la gravedad puede tener un efecto repulsivo.

Aunque la termomecánica de Pinheiro conlleva algo similar a esta forma de transferencia, que evoca el transporte paralelo de la fase geométrica, incorpora además un término para la energía libre termodinámica, y esta es la diferencia capital. Un sistema reversible es un sistema cerrado, y no hay sistemas cerrados en el universo.

La propia teoría de la interferencia armónica de Merrick se vería elevada a un nivel mucho más alto de generalidad con sólo apreciar que el principio de máxima producción de entropía no es contrario a la generación de armonía sino más bien conducente a ella.

El principio de máxima producción de entropía se puede trasladar a la mecánica cuántica sin apenas más sacrificio que el la idea de la reversibilidad, como ha mostrado la termodinámica cuántica de Gian Paolo Beretta, Hatsopoulos y Gyftopoulos; el tema es de extraordinaria importancia pero ahora nos llevaría demasiado lejos [18].

*

Los físicos se precian mucho del alto grado de precisión de algunas de sus teorías, lo que es harto comprensible habida cuenta de los trabajos que se toman en llevar adelante sus cálculos, en algunas ocasiones hasta diez y doce cifras decimales. Pocas cosas serían más elocuentes que tal precisión si llegara de forma natural, sin asunciones especiales ni arbitrarios ajustes ad hoc, pero en realidad ese suele ser el caso la mayoría de las veces. Aún no se puede medir el valor de la gravedad en la Tierra con más de tres cifras decimales, pero se pretenden hacer cálculos con diez o doce cifras hasta los confines del universo.

En el caso de Lagrange y Laplace esto es absolutamente evidente, y algún día nos preguntaremos cómo hemos podido aceptar sus métodos sin ni siquiera pestañear. Lo cierto es que esos procedimientos no se digirieron de la noche a la mañana, pero si finalmente se dieron por buenos fue precisamente por el deseo mismo de expandir más y más el dominio del cálculo, todo ello dentro de la idea, heredada de Newton y Leibniz, de que la Naturaleza no era sino una maquinaria de relojería de una precisión virtualmente infinita. Y para los medios qué mejor que servir al Ideal.

Con razón se ha dicho que si Kepler hubiera tenido datos más precisos, no hubiera avanzado su teoría del movimiento elíptico; y en verdad, los óvalos de Cassini, curvas de cuarto grado con un producto de las distancias constante, parecen reproducir las trayectorias observables con mejor aproximación, lo que habría que atribuir a las perturbaciones. Estos óvalos plantean además interesantes y profundas cuestiones sobre la conexión dinámica entre elipses e hipérbolas. Curiosamente, los óvalos de Cassini se utilizan para modelar la geometría de la curvatura negativa espontánea de los glóbulos rojos, en los que también se ha encontrado la proporción áurea [19].

Como nota Mathis, los primeros análisis de perturbaciones incluían, ya desde Newton y Clairaut, un factor 1/ r4 con una fuerza repulsiva, lo que muestra hasta qué punto los elementos “auxiliares” de la mecánica celeste están escondiendo algo mucho más importante [20].

Para la mirada del naturalista, acostumbrado a la muy variable precisión de las ciencias descriptivas, la espiral del Sistema Solar tendría que aparecer como el más espléndido ejemplo de ordenamiento natural; un orden tan magnífico que, a diferencia del de Laplace, puede incluir en su seno catástrofes sin apenas desdibujarse. Esta es una característica que atribuimos invariablemente a los seres vivos. Ya se juzgue como fenómeno natural o como organismo, teniendo todo en cuenta, la espiral muestra una precisión, más que suficiente, excelente.

¿Y cuál es el lugar del Taijitu, nuestro símbolo del Polo generador del Yin y el Yang, en todo esto? Bueno, ni que decir tiene que el sistema del que estamos hablando, junto con sus subsistemas —planetas y satélites- es un proceso eminentemente polar, con unos ejes que definen su evolución; y que también lo es la holonomía espiral que los envuelve. Y en cuanto al Yin y el Yang, si dijéramos que también pueden ser la energía cinética y la potencial, se nos diría que estamos proponiendo una correspondencia demasiado trivial. Pero lo ya apuntado debería servir para ver que no es el caso.

Sabemos que en las órbitas la energía cinética y la potencial ni siquiera se compensan, y cuando debieran hacerlo, como en el caso del movimiento circular en la ecuación de Binet, ni siquiera obtenemos una fuerza única —se requiere al menos una diferencia entre el centro del círculo y el de la fuerza. Buscando el argumento más simple posible, lo primero que viene a la mente es que la emergencia de la sección áurea en el Taijitu, el vórtice esférico en libre rotación, encierra una suerte de síntesis, analógica y a priori, de 1) una ley de áreas aplicada a las dos energías, 2) la geometría focal de las elipses, y 3) una diferencia integrable y un giro o cambio en el plano de polarización que no lo es. Este tercer punto solapa el lagrangiano y una fase geométrica que en principio parecen cosas bien diferentes.

Por supuesto, aquí dejamos grandes cabos sueltos que un diagrama tan simple no puede traducir. Para empezar, que una elipse tenga en su interior dos focos no significa que haya que buscar el origen de las fuerzas que la determinan en su interior, y esto nos llevaría a la teoría de perturbaciones. Pero cualquier influencia ambiental, incluida la de otros planetas, debería estar ya incluida en la fase geométrica.

Si pasáramos por un momento de la dinámica orbital a la luz, podríamos reinterpretar en clave de los potenciales retardados y su incidencia en la fase los datos de la elipsometría o el “monopolo abstracto con una fuerza de —1/2 en el centro de la esfera de Poincaré” al que apela Berry en su generalización de la fase geométrica. Ahora bien, conviene no olvidar que la luz era ya un problema esencialmente estadístico incluso desde los tiempos de Stokes y de Verdet. Grado de polarización y entropía de un haz de luz fueron siempre conceptos equivalentes, aunque aún estemos lejos de extraer todas las consecuencias de ello.

Damos por supuesta la coincidencia del potencial retardado y la fase geométrica, aunque ni siquiera existe una literatura específica sobre el tema, como tampoco hay acuerdo, por lo demás, en torno a la significación y estatus de la propia fase geométrica. No han faltado quienes la han visto como un efecto del intercambio de momento angular, y, en cualquier caso, en mecánica clásica la fase geométrica se pone de manifiesto con la formulación de Hamilton-Jacobi de variables de ángulo y acción [21].

Si armonía es totalidad, la llamada fase geométrica tendría que tener su parte en la matemática de la armonía, puesto que aquella no es sino la expresión de un “cambio global sin cambio local”. Ya notamos que la fase geométrica es inherente a campos que involucran secciones cónicas, así que su inclusión aquí es completamente elemental. Ahora bien, el que no implique a las fuerzas de interacción reconocidas no significa que se trate de meras “fuerzas ficticias”; se trata de fuerzas reales que transportan momento angular y resultan esenciales en la configuración efectiva del sistema.

Puesto que este transporte de energía es un fenómeno de interferencia, la energía potencial del lagrangiano ha de comprender la suma de todas las interferencias de los sistemas adyacentes, siendo este el “mecanismo de regulación”. Puede aducirse que en el curso de los planetas no observamos la manifestación de interferencias que caracteriza a los procesos ondulatorios, a pesar de que no se dude en recurrir a “resonancias” para explicar perturbaciones. Veamos esto un poco más de cerca.

Si hasta ahora se ha querido ver la fase geométrica, en mecánica clásica la diferencia en el ángulo sólido o ángulo de Hannay, como una propiedad relacional, la forma más adecuada de entenderla tendría que ser dentro de una mecánica puramente relacional como la ya mencionada de Weber. Ahora bien, como ya notó Poincaré, si tenemos que multiplicar la velocidad al cuadrado ya no tenemos forma de distinguir entre la energía cinética y la potencial, e incluso éstas dejan de ser independientes de la energía interna de los cuerpos considerados. De aquí la postulación de una vibración interna por Noskov. Empero, esta ambigüedad inherente no impide hacer cálculos tan precisos como con las ecuaciones de Maxwell, además de tener otras obvias ventajas.

Recuérdese la comparación de la piedra que atraviesa la Tierra y la partícula de polvo en su diminuto asteroide, que vuelven al mismo punto en el mismo tiempo. En un medio hipotético de densidad homogénea, esto sugeriría un efecto de amortiguación y sincronización conjuntos y a distintas escalas espaciales. Pero, sin necesidad de hipótesis alguna, lo que la fase geométrica implica es el acoplamiento efectivo de sistemas que evolucionan a diferentes escalas temporales, por ejemplo, los electrones y los núcleos, o fuerzas gravitatorias y atómicas, o, dentro de la misma gravedad, las interacciones entre los distintos planetas. Esto la hace particularmente robusta al ruido o las perturbaciones.

La ambigüedad de la mecánica relacional no tiene por qué ser una debilidad, sino que podría estarnos revelando ciertas limitaciones inherentes a la mecánica y su cálculo. Justo cuando queremos llevar a su extremo lógico el ideal de convertir la física en una pura cinemática, una ciencia de fuerzas y movimientos, de mera extensión, es cuando se revela su inevitable dependencia de los potenciales y de factores considerados “no locales”, aunque más bien tendríamos que hablar de configuraciones globales definidas.

Lo esencial en la comparación, aparentemente casual, entre el Taijitu y la órbita elíptica es que ésta última también es una expresión íntegra de la totalidad: no sólo de las fuerzas internas sino también de fuerzas externas que contribuyen contemporáneamente a su forma. Si el mecanismo de compensación sirve de regulación efectiva no puede afectar sólo a los potenciales sino igualmente a las fuerzas.