The religion of prediction and the knowledge of the slave

In calculus, infinitesimal quantities are an idealization, and the concept of limit, provided to support the results obtained, is a rationalization. This dynamics going from idealization to rationalization is inherent to the liberal-materialism or material liberalism of modern science. Idealization is necessary for conquest and expansion; rationalization, to colonize and consolidate all that conquered. The first reduces in the name of the subject, which is always more than any object x, and the second reduces in the name of the object, which becomes nothing more than x.

But going to the extremes does not grant at all that we have captured what is in between, which in the case of calculus is the constant differential 1. To perceive what does not change in the midst of change, that is the great merit of Mathis’ argument; that argument recognizes at the core of the concept of function that which is beyond functionalism, since physics has assumed to such an extent that it is based on the analysis of change, that it does not even seem to consider what this refers to.

Think about the problem of knowing where to run to catch fly balls—evaluating a three-dimensional parabola in real time. It is an ordinary skill that even recreational baseball players perform without knowing how they do it, but its imitation by machines triggers the whole usual arsenal of calculus, representations, and algorithms. However, McBeath et al. more than convincingly demonstrated in 1995 that what outfielders do is to move in such a way that the ball remains in a constant visual relation —at a constant relative angle of motion- instead of making complicated time estimates of acceleration as the heuristic model based on calculus intended [65]. Can there be any doubt about this? If the runner makes the correct move, it is precisely because he does not even consider anything like the graph of a parabola. Mathis’ method is equivalent to put this in numbers.

Continuar leyendo “The religion of prediction and the knowledge of the slave”

La religión de la predicción y el saber del esclavo

En el cálculo, las cantidades infinitesimales son una idealización, y el concepto de límite que se aporta para fundamentar los resultados obtenidos, una racionalización. La dinámica idealización-racionalización es consustancial al material-liberalismo o liberalismo material de la ciencia moderna. La idealización es necesaria para la conquista y la expansión; la racionalización, para colonizar y consolidar el terreno conquistado. La primera reduce en el nombre del sujeto, que siempre es más que cualquier objeto x, y la segunda reduce en nombre del objeto, que se convierte en nada más que x.

Pero irse a los extremos no asegura para nada que hayamos captado lo que queda en medio, que en el caso del cálculo es el diferencial constante. Percibir lo que no cambia en medio del cambio, ése es el gran mérito del argumento de Mathis, que ninguna otra consideración le puede quitar. Ese argumento tiene la virtud de encontrar en el núcleo del concepto de función aquello que está más allá del funcionalismo, pues la física ha asumido hasta tal punto que se basa en el análisis del cambio, que ni siquiera parece plantearse a qué está referido éste.

Piénsese en el problema de calcular la trayectoria de la pelota tras un batazo para cogerla —evaluar una parábola tridimensional en tiempo real. Es una habilidad ordinaria que los jugadores de béisbol realizan sin saber cómo la hacen, pero cuya reproducción por máquinas dispara todo el arsenal habitual de cálculos, representaciones y algoritmos. Sin embargo McBeath et al. demostraron en 1995 de forma más que convincente que lo que hacen los jugadores es moverse de tal modo que la bola se mantenga en una relación visual constante —en un ángulo constante de movimiento relativo-, en lugar de hacer complicadas estimaciones temporales de aceleración como se pretendía [65]. ¿Puede haber alguna duda al respecto? Si el corredor hace la evaluación correcta, es precisamente porque en ningún momento ve nada parecido al gráfico de una parábola. El método de Mathis equivale a tabular esto en números.

Continuar leyendo “La religión de la predicción y el saber del esclavo”

Questions of program —and of principle, again: calculus, dimensional analysis and chronometrology

In physics and mathematics, as in all areas of life, we have principles, means and ends. The principles are the starting points, the means, from a practical-theoretical point of view, are the different branches of calculus, and the interpretations the ends. These last ones, far from being a philosophical luxury, are the ones that determine the whole contour of representations and applications of a theory.

As for principles, we have already commented, if we want to see more closely where and how the continuous proportion emerges, we should observe as much as possible the ideas of continuity, homogeneity and reciprocity. And this includes the consideration that all systems are open, since if they are not open they cannot comply with the third principle in a way that is worthy of being considered “mechanical”. This is the main difference between Nature and manmade machines.

These three-four principles, are nonspecifically included in the principle of dynamic equilibrium, which is the way to dispense with the principle of inertia, and incidentally, the principle of relativity. If we talk about continuity, this does not mean that we are stating that the physical world must necessarily be continuous, but that what seems to be a natural continuity should not be broken without need.

Actually, the principles also determine the scope of our interpretations, although they do not specify them.

As for calculus, which in the form of predictions has become for modern physics the almost exclusive purpose, it is always a matter of justifying how to achieve results known in advance, so reverse engineering and heuristics always won the day over considerations of logic or consistency. Of course there is a laborious foundation of calculus by Bolzano, Cauchy and Weierstrass, but it is more concerned with saving the results than with making them more intelligible.

On this point we cannot agree more with Mathis, who stands alone in a battle to redefine these foundations. What Mathis proposes can be traced back to umbral calculus and the calculus of finite differences, but these are considered as sub-domains of the standard calculus and ultimately have not brought a better understanding to the field.

An instantaneous speed is still an impossible that reason rejects, and besides there is no such thing on a graph. If there are physical theories, such as special relativity, that unnecessarily break with the continuity of classical equations, here we have the opposite case, but with another equally disruptive effect: a false notion of continuity, or pseudo-continuity, is created that is not justified by anything. Modern calculus has created for us an illusion of dominion over infinity and motion by subtracting at least one dimension from the physical space, not honoring that term “analysis” which is so proud of. And this, naturally, should have consequences in all branches of mathematical physics [45].

Mathis’ arguments are absolutely elementary and irreducible; these are also questions of principle, but not only of principle as the problems of calculus are eminently technical. The original calculus was designed to calculate areas under curves and tangents to those curves. It is evident that the curves of a graph cannot be confused with the real trajectories of objects and that in them there are no points or moments; then all the generalizations of this methods contain this dimensional conflation.

Finite calculus is also closely related to the problem of particles with extension, without which it is nearly impossible to move from the ideal abstraction of physical laws to the apparent forms of nature.

Mathis himself is the first to admit, for example in his analysis of the exponential function, that there is still a great deal to do for a new foundation of calculus, but this should be good news. At any rate the procedure is clear: the derivative is not to be found in a differential that approaches zero, nor in limit values either, but in a sub-differential that is constant and can only be 1, a unit interval. A differential can only be an interval, never a point or subtraction of points, and it is to the interval that the very definition of limit owes its range of validity. In physical problems this unit interval must correspond to an elapsed time and a distance traveled.

Trying to see beyond Mathis’ efforts, it could be said that, if curves are defined by exponents, any variation in a function should be able to be expressed in the form of a dynamic equilibrium whose product is unity; and in any case by a dynamic equilibrium based on a constant unit value, which is the interval. If classical mechanics and calculus grew up side by side as almost indistinguishable twins, even more so should be in a relational mechanics where inertia always dissolves in motion.

The heuristic part of modern calculus is still based on averaging or error compensation; while the foundation is rationalized in terms of limit, but works due to the underlying unit interval. The parallel between the bar of a scale and a tangent is obvious; what is not seen is precisely what should be compensated. Mathis method does not work with averages; standard calculus does. Mathis has found the beam of the scale, now it comes down to set the plates and fine tune the weights. We will come back to this later.

The disputes that still exist from time to time, even among great mathematicians, regarding standard and non-standard calculus, or the various ways of dealing with infinitesimals, at least reveal that different paths are possible, but for most of us they are remote discussions far removed from the most basic questions that should be analyzed first.

We mentioned earlier Tanackov’s formula to calculate the constant e way faster than the classic “direct method”; but the fact is that amateur mathematicians like the already mentioned Harlan Brothers have found, just twenty years ago, many different closed expressions that calculate it faster, besides being more compact. The mathematical community may treat it as a curiosity, but if this happens with the most basic rudiments of elementary calculus, what cannot happen in the dense jungle of higher order functions.

A somewhat comparable case would be that of symbolic calculus or computer algebra, which already 50 years ago found that many classical algorithms, including much of linear algebra, were terribly inefficient. However, as far as we can see, none of this has affected calculus proper.

“Tricks” like those of Brothers play in the ground of heuristics, although it must be recognized that neither Newton, nor Euler, nor any other great name of calculus knew them; but even if they are heuristics they cannot fail to point in the right direction, since simplicity use to be indicative of truth. However with Mathis we are talking not only about the very foundations, which none of the revisions of symbolic calculus has dared to touch, but even about the validity of the results, which cross the red line of what mathematicians want to consider. At the end of the chapter we will see whether this can be justified.

In fact, to pretend that a differential tends to zero is equivalent to say that everything is permitted in order to get the desired result; it is the ideal condition of versatility for whatever heuristics and adhocracy. The fundamental requirement of simplified or unitary calculus —plain differential calculus, indeed- may at first seem like putting spanners in the works already in full gear, but it truthful. No amount of ingenuity can replace rectitude in the search for truth.

Mathis’ attempt is not Quixotic; there is here much more than meets the eye. There are reversible standards and standards irreversible in practice, such as the current inefficient distribution of the letters of the alphabet on the keyboard, which seems impossible to change even though nobody uses the old typewriters anymore. We do not know if modern calculus will be another example of a standard impossible to reverse, but what is at stake here is far beyond questions of convenience, and it blocks a better understanding of an infinite number of issues; overcoming it is an indispensable condition for the qualitative transformation of knowledge and the ideas we have —or cannot have- of space, time, change and motion.


Today’s theoretical physicists, forced into a highly creative manipulation of the equations, tend to dismiss dimensional analysis as little more than pettifogging; surely this attitude is due to the fact that they have to think that any revision of the foundations is out of question, and one can only look ahead.

In fact, dimensional analysis is more inconvenient than anything else, since it is by no means irrelevant: it can prove with just a few lines that the charge is equivalent to mass, that Heisenberg’s uncertainty relations are conditional and unfounded, or that Planck’s constant should only be applied to electromagnetism, instead of being generalized to the entire universe. And since modern theoretical physics is in the business of generalizing its conquests to everything imaginable, any contradiction or restriction to its expansion by the only place it is allowed to expand must be met with notorious hostility.

It is actually easy to see that dimensional analysis would have to be a major source of truth if it were allowed to play its part, since modern physics is a tower of Babel of highly heterogeneous units that are the reflection of contortions made in the name of algebraic simplicity or elegance. Maxwell’s equations, compared to the Weber force that preceded him, are the most eloquent example of this.

Dimensional analysis is also of interest when we delve into the relationship between intensive and extensive quantities. The disconnection between the mathematical constants e and φ may also be associated with this broad issue. In entropy, for example, we use logarithms to convert intensive properties such as pressure and temperature into extensive properties, converting for convenience multiplicative relations into more manageable additive relations. That convenience becomes a necessity only for those aspects that are already extensive, such as an expansion.

Ilya Prigogine showed that any type of energy is made up of an intensive and an extensive variable whose product gives us an amount; an expansion, for example, is given by the PxV product of pressure (intensive) by volume (extensive). The same can be applied to changes in mass/density with velocity and volume, and so on.

The unstoppable proliferation of measurements in all areas of expertise already makes simplification increasingly necessary. But, beyond that, there is an urgent need to reduce the heterogeneity of physical magnitudes if intuition is to win the battle against the complexity with which we are accomplices.

All this is also closely related to finite calculus and the equally finitist algorithmic measurement theory developed by A. Stakhov. The classical mathematical measure theory is based on Cantor’s set theory and as we know it is neither constructive nor connected with practical problems, let alone the hard problems of the modern physical measurement theory. However, the theory developed by Stakhov is constructive and naturally incorporates an optimization criterion.

To appreciate the scope of the algorithmic measurement theory in our present quantitative Babel we must understand that it takes us back to the Babylonian origins of the positional numbering system, filling an important gap in the current theory of numbers. This theory is isomorphic with a new number system and a new general theory of biological population. The number system, created by George Bergman in 1957 and generalized by Stakhov, is based on the powers of φ. If for Pythagoras “all is number”, for this system “all number is continuous proportion”.

The algorithmic measure theory also raises the question of equilibrium, since its starting point is the so-called Bachet-Mendeleyev problem, which curiously also appears for the first time in Western literature with Fibonacci’s Liber Abacci of 1202. The modern version of the problem is to find the optimal system of standard weights for a balance that has a response time or sensitivity.

According to Stakhov, the key point of the weight problem is the deep connection between measurement algorithms and positional numbering methods. My impression however is that it still supports a deeper connection between dynamic equilibrium, calculus and what it takes to adjust a function; the weights for the plates needed by the beam of the scale identified by Mathis. Maybe there is no need to use powers of φ or to change the number system, but very useful ideas might be developed about the simplest algorithms.

Alexey Stakhov, The mathematics of Harmony

Of course, the algorithmic theory of complexity tells us that we cannot prove an algorithm is the simplest for a task, but that does not mean that we do not look for it continually, regardless of any demonstration. Efficiency and formal demonstration are largely unrelated.

Human beings inevitably tend to optimize what they measure most; however, we do not have a theory that harmonizes the needs of metrology with those of mathematics, physics and the descriptive sciences, whether social or natural. Today there are many different measure theories, and each discipline look for what is best for it. However, all metrics are defined by a function, and functions are defined by calculus or analysis, which does not want to have anything to do with the practical problems of measurement and pretends to be as pure as arithmetic even though it is far from it.

This may seem a somewhat absurd situation and in fact it is, but it also places a hypothetical measure theory that is in direct contact with the practical aspects, the foundations of calculus and arithmetic in a strategic situation above the drift and inertia of the specialities.

Calculus or analysis is not pure math, and it is too much to pretend that it is. On the one hand, and as far as physics is concerned, it involves at least a direct connection with questions of measurement that should be more explicit in the same math; on the other hand, the highly heuristic nature of its most basic procedures speaks for itself. If arithmetic and geometry have large gaps, being incomparably clearer, it would be absurd to pretend that calculus cannot have even much greater gaps.


On the other hand, physics will never cease to have both statistical and discrete components —bodies, particles, waves, collisions, acts of measurement, etc- besides continuous ones, which makes a relational-statistical analysis advisable.

An example of relational statistical analysis is the one proposed by V.V. Aristov. Aristov introduces a constructive and discrete model of time as motion using the idea of synchronization and physical clock that Poincaré already introduced precisely with the problem of the electron. Here each moment of time is a purely spatial picture. But it is not only a matter of converting time into space, but also of understanding the origin of the mathematical form of the physical laws: “The ordinary physical equations are consequences of the mathematical axioms, ‘projected’ into physical reality by means of the fundamental instruments. One can assume that it is possible to build different clocks with a different structure, and in this case we would have different equations for the description of motion”.

Aristov himself has provided clock models based on non-periodic, theoretically random processes, that are also of great interest. A clock based on a non-periodic process could be, for example, a piston engine in a cylinder; and this could also include thermodynamic processes.

It should also be noted that cyclical processes, despite their periodicity, mask additional or environmental influences, as we have seen with the geometric phase. To this, a deductive filter of unnecessarily restrictive principles is added, as we have already seen in the case of relativity. And as if all this were not enough, we have the fact, hardly recognized, that many processes considered purely random or “spontaneous”, such as radioactive decay, show discrete states during fluctuations in macroscopic processes, as has been extensively shown by S. Shnoll and his school for more than half a century.

Indeed, all kind of processes, from radioactive decay to enzymatic and biological reactions, through random number generators, show recurrent periods of, 24 hours, 27 and 365 days, which obviously correspond to astronomical cyclic factors.

We know that this regularity is filtered and routinely discounted as “non-significant” or irrelevant, in an example of how well researchers are trained to select data, but, beyond this, the question of whether such reactions are spontaneous or forced remains. An answer may be advanced: one would call them spontaneous even if a causal link could be demonstrated, since bodies contribute with their own momentum.

The statistical performance of multilevel neural networks —ultimately a brute force strategy- is increasingly hampered by the highly heterogeneous nature of the data and units with which they are fed, even though dynamic processes are obviously independent of the units. In the long run, the pureness of principles and criteria is irreplaceable, and the shortcuts that theories have sought for prediction accumulates a huge deal of deadweight. And again, it is of little use what conclusions machines can reach when we are already incapable of seeing through the simplest assumptions.

The performance of a relational network is also cumulative, but in exactly the opposite sense; perhaps it should be said, rather, that it grows in a constructive and modular way. Its advantages, such as those of relational physics —and information networks in general – are not obvious at first sight but increase with the number of connections. The best way to prove this is by extending the network of relational connections. And indeed, it is about collective work and collective intelligence.

With arbitrary cuts to relational homogeneity, destructive interference and irrelevant redundancy increase; conversely, the greater the relational density, the greater the constructive interference. I don’t think this requires demonstration: Totally homogeneous relations allow higher order degrees of inclusion without obstruction, just as equations made of heterogeneous elements can include equations within equations as opaque elements or knots still to unravel [46].


Let us go back to the calculus, but from a different angle. Mathis’ differential calculus does not always get the same results as the standard one, which would seem sufficient to rule it out. Since the principle is unquestionable, errors, if possible, might be due to an incorrect application of the principle, leaving the criteria still to be clarified. On the other hand, that there is a “dimensional reduction” of the curves in standard calculus is a fact, which however is not widely recognized because after all now the graphs are supposed to be secondary and even dispensable.

Are they really? Without graphs and curves calculus would never have been born, so that is enough. David Hestenes, the great advocator of geometric algebra and geometric calculus, says that geometry without algebra is dumb, and algebra without geometry is blind. We should add that not only algebra, but calculus too, and to a greater extent than we think, provided we understand that there is more to “geometry” than what the graphs usually tell us. We can now look at another type of graph, this time of vortices, due to P. A. Venis [47].

Peter Alexander Venis

In the transformation sequence Venis makes an estimate of its dimensionality that at first may seem arbitrary, although it is based on something as “obvious” as the transition from point to line, line to plane and plane to volume. The fractional dimensions seems at first sight striking, until we recognize it is just an estimate of the continuity within the order of the sequence, which could not be more natural.

Although Venis does not look for a proof, his transformation sequence is self-evident and more compelling than a theorem. One need only a minute of real attention to understand its evolution. It is a general key to morphology, regardless of the physical interpretation we want to give it.

For Venis the appearance of a vortex in the physical plane is a phenomenon of projection of a wave from a single one field where the dimensions exist as a compact whole without parts: a different way to express the primitive homogeneous medium of reference for dynamic equilibrium. It is clear that in a completely homogeneous medium we cannot characterize it as either full or void, and that we could say that it has either an infinite number of dimensions or no dimensions at all.

Thus, both the ordinary dimensions, as well as the fractional ones, and even the negative dimensions are a phenomenon of projection, of projective geometry. The physical nature is real since it participates in this one field or homogeneous medium, and it is a projected illusion to the extent that we conceive it as an independent part or an infinity of separate parts.

Peter Alexander Venis

Negative dimensions are due to a projection angle lower than 0 degrees, and lead to toroidal evolution beyond the bulb in equilibrium in three dimensions —that is, dimensions greater than the ordinary three. So they form a complementary projective counter-space to the ordinary space of matter, which with respect to unity is not less a projection than the first. Light and electricity are at opposite ends of manifestation, of evolution and involution in matter: light is the fiat, and electricity the extinction. Much could be elaborated on this but we will leave something for later.

Arbitrary cuts in the sequence leave fractional dimensions exposed, coinciding with the shapes we can appreciate. Since Mathis himself attributes the differences in results between his calculus and the standard calculus to the fact that the latter eliminates at least one dimension, and in the sequence of transformations we have a whole series of intermediate dimensions for basic functions, this would be an excellent workbench to compare both.

Michael Howell consider that fractal analysis avoids the usual dimensional reduction, and translates the exponential curve into “a fractal form of variable acceleration” [48]. It is worth noting that for Mathis the standard calculus has errors even in the elementary exponential function; the analysis of the dimensional evolution of vortices gives us a wide spectrum of cases to settle differences. I am thinking about fractional derivatives and differentiable curves, rather than fractals as non-differentiable curves. It would be interesting to see how the constant differential works with fractional derivatives.

The history of fractional calculus, which has gained great momentum in the 21st century, goes back to Leibniz and Euler and is one of the rare cases where both mathematicians and physicists ask for an interpretation. Although its use has extended to intermediate domains in exponential, wave-diffusion, and many other types of processes, fractional dynamics presents a non-local history dependence that deviates from the usual case, though there is also local fractional calculus. To try to reconcile this divergence Igor Podlubny proposed a distinction between inhomogeneous cosmic time and homogeneous individual time [49].

Podlubny admits that the geometrization of time and its homogenization are primarily due to calculus itself, as the intervals of space can be compared simultaneously, but the intervals of time cannot, and we can only measure them sequentially. What may be surprising is that this author attributes non-homogeneity to cosmic time, rather than to individual time, since in reality mechanics and calculus develop in unison under the principle of global synchronization and simultaneity of action and reaction. In this respect relativity is not different from Newtonian mechanics. According to Podlubny, individual time would be an idealization of the time created by mechanics, which is to put it upside down: in any case the idealization is the global time.

On the one hand, fractional calculus is seen as a direct aid for the study of all kinds of “anomalous processes”; on the other hand, fractional calculus itself is a generalization of standard calculus that includes ordinary calculus and therefore also allows to deal with all modern physics without exception. This makes us wonder if, more than dealing with anomalous processes, it is ordinary calculus what enforces a normalization, which affects all quantities it computes, time among them.

Venis also speaks of non-homogeneous time and temporal branches, though his reasoning remains undecided between the logic of the sequence, which represents an individualized flow of time, and the logic of relativity. However, it is the sequential logic that should define time in general and individual or local time in particular —not the logic of simultaneity of the global synchronizer. We shall return to this soon.

Cuestiones de programa —y de principio, otra vez: el cálculo, el análisis dimensional, la metrología y el reloj

En física y matemáticas, como en todas las áreas de la vida, tenemos principios, medios y fines. Los principios son nuestros puntos de partida, los medios, desde el punto de vista práctico-teórico, son los procedimientos de cálculo, y los fines son las interpretaciones. Estas últimas, lejos de ser un lujo filosófico, son las que determinan el contorno entero de representaciones y aplicabilidad de una teoría.

En cuanto a los principios, como ya comentamos, si queremos ver más de cerca de dónde emerge la razón continua, deberíamos observar todo lo posible las ideas de continuidad, homogeneidad y reciprocidad. Y esto incluye la consideración de que todos los sistemas son abiertos, puesto que si no son abiertos no pueden cumplir con el tercer principio de una forma digna de considerarse “mecánica”.

Estos tres, o si se quiere cuatro principios, están incluidos de forma inespecífica en el principio de equilibrio dinámico, que es la forma de prescindir del principio de inercia, y de paso, del de relatividad. Si por lo demás hablamos de continuidad, ello no quiere decir que afirmemos que el mundo físico deba de ser necesariamente continuo, sino que no se debería romper lo que parece una continuidad natural sin necesidad.

En realidad los principios también determinan el alcance de nuestras interpretaciones aunque no las precisan.

En cuanto al cálculo, que en forma de predicciones se ha convertido para la física moderna en la casi exclusiva finalidad, es precisamente el hecho de que siempre se trata de justificar la forma en que se han llegado a resultados que ya se conocían de antemano —en el comienzo de las teorías, antes de que se empiecen a emitir predicciones potencialmente contenidas en ella- lo que lo ha convertido en un útil heurístico por encima de consideraciones de lógica y consistencia. Por supuesto que existe una trabajosa fundamentación del cálculo por Bolzano, Cauchy y Weierstrass, pero ésta se preocupa más de salvar los resultados ya conocidos que de hacerlos más inteligibles.

En este punto no podemos estar más de acuerdo con Mathis, que ha emprendido una batalla en solitario por intentar depurar y simplificar estos fundamentos. A lo que Mathis propone se le puede buscar el precedente del cálculo de diferencias finitas y el cálculo de umbrales, pero éstos se consideran subdominios del cálculo estándar y en última instancia no han contribuido a aportar claridad.

Una velocidad instantánea sigue siendo un imposible que la razón rechaza, y además no existe tal cosa sobre un gráfico. Si hay teorías físicas, como la relatividad especial, que rompen innecesariamente con la continuidad de las ecuaciones clásicas, aquí tenemos el caso contrario, pero con otro efecto igualmente disruptivo: se crea una falsa noción de continuidad, o pseudocontinuidad, que no está justificada por nada. El cálculo moderno nos ha creado para nosotros una ilusión de dominio sobre el infinito y el movimiento sustrayendo al menos una dimensión del espacio físico, no haciendo en este caso honor a ese término “análisis” del que tanto se precia. Y esto, naturalmente, debería tener consecuencias en todas las ramas de la física matemática [45].

Los argumentos de Mathis son absolutamente elementales e irreductibles; se trata también de cuestiones de principio, pero no sólo de principio puesto que los problemas del cálculo son eminentemente técnicos. El cálculo original se concibió para calcular áreas bajo curvas y tangentes a esas curvas. Es evidente que las curvas de un gráfico no pueden confundirse con las trayectorias reales de objetos y que en ellas no hay puntos ni instantes, luego las generalizaciones de sus métodos contienen esa conflación dimensional.

El cálculo de diferencias finitas está además íntimamente relacionado con el problema de las partículas con extensión, sin las cuales es casi imposible pasar de la abstracción ideal de las leyes físicas a las formas aparentes de la naturaleza.

El mismo Mathis admite repetidamente, por ejemplo en su análisis de la función exponencial, que hay muchísimas cosas todavía por definir en su redefinición del cálculo, pero esto deberían ser buenas noticias, no malas. Al menos el procedimiento es claro: la derivada no se encuentra en un diferencial que se aproxima a cero, sino en un subdiferencial que es constante y que sólo puede ser la unidad, un intervalo unidad; un diferencial sólo puede ser un intervalo, nunca un punto, y es a esto a lo que la misma definición del límite debe su rango de validez. En los problemas físicos ese intervalo unidad debe corresponder a un tiempo transcurrido y una distancia recorrida.

Tratando de ver más allá de los esfuerzos de Mathis, podría decirse que, si las curvas vienen definidas por exponentes, cualquier variación en una función tendría que poder expresarse en forma de equilibrio dinámico cuyo producto es la unidad; y en todo caso por un equilibrio dinámico basado en un valor constante unitario, que es el intervalo. Si el cálculo y la mecánica clásicos crecieron uno junto al otro como gemelos casi indistinguibles, con aún más razón debería hacerlo una mecánica relacional en la que la inercia se disuelve siempre en movimiento.

La parte heurística del cálculo moderno se sigue basando en el promedio y la compensación de errores; mientras que la fundación es racionalizada en términos de límite, pero funciona por el intervalo unidad subyacente. La semejanza entre la barra de una balanza y una tangente es obvia; lo que no se ve es qué es precisamente lo que se compensa. El cálculo de Mathis no opera por promedios, el que opera por promedios es el cálculo estándar. Mathis ha encontrado el fiel de la balanza, ahora lo que falta es poner a punto los platos y los pesos. Luego volveremos sobre esto.

Las disputas que de cuando en cuando todavía existen, incluso entre grandes matemáticos, respecto al cálculo estándar y no estándar, o incluso las diversas formas de tratar infinitesimales, revelan al menos que distintos caminos son posibles; sólo que para la mayoría de nosotros resultan remotas y muy alejadas de las cuestiones básicas que habría que analizar en primer lugar.

Antes hablábamos de una fórmula de Tanackov para calcular la constante e mucho más rápida que “el método directo” clásico; pero es que matemáticos aficionados como el ya citado Harlan Brothers han encontrado, hace apenas veinte años, muchas formas cerradas diferentes de calcularla más rápidas y a la par que más compactas. La comunidad matemática lo puede tratar como una curiosidad, pero si esto pasa con los rudimentos más básicos del cálculo elemental, qué no podrá ocurrir en la tupida selva de las funciones de orden superior.

Un caso hasta cierto punto comparable sería el del cálculo simbólico o álgebra computacional, que ya hace 50 años comprobó que muchos algoritmos clásicos, incluida gran parte del álgebra lineal, eran terriblemente ineficientes. Sin embargo, y por lo que se ve, nada de esto ha afectado al cálculo propiamente dicho.

“Trucos” como los de Brothers permanecen en el dominio de la heurística, aunque hay que reconocer que ni Newton, ni Euler, ni ningún otro gigante del cálculo los conocía; pero aunque sean heurística no pueden dejar de apuntar en la dirección correcta, puesto que la simplicidad suele ser indicativa de la verdad. Sin embargo en el caso de Mathis hablamos no sólo de los fundamentos mismos, que ninguno de las revisiones del cálculo simbólico ha osado tocar, sino incluso de la validez de los resultados, lo que ya rebasa lo que los matemáticos están dispuestos a considerar. Al final del capítulo veremos si se puede justificar esto.

En realidad, pretender que un diferencial tienda a cero equivale a permitirlo todo con tal de llegar al resultado deseado; es la condición ideal de versatilidad para la heurística y la adhocracia. La exigencia fundamental del cálculo constante o unitario —del cálculo diferencial sin más- puede parecer al principio como poner un palo en una rueda que ya funciona a pleno rendimiento, pero es ante todo veraz. Ninguna cantidad de ingenio puede sustituir a la rectitud en la búsqueda de la verdad.

Lo de Mathis no es algo quijotesco; hay aquí mucho más de lo que puede verse a simple vista. Existen estándares reversibles y estándares prácticamente irreversibles, como la ineficaz distribución actual de las letras del alfabeto en el teclado, que parece imposible de cambiar aunque ya nadie usa las viejas máquinas. No sabemos si el cálculo infinitesimal será otro ejemplo de estándar imposible de revertir pero lo que aquí está en juego está mucho más allá de cuestiones de conveniencia, y bloquea una mejor comprensión de una infinidad de asuntos; su superación es condición indispensable para la transformación cualitativa del conocimiento.


Los físicos teóricos de hoy, obligados a una manipulación altamente creativa de las ecuaciones, tienden a desestimar el análisis dimensional como algo irrelevante y estéril; seguramente esa actitud se debe a que consideran que cualquier revisión de los fundamentos está fuera de lugar, y sólo cabe mirar hacia adelante.

En realidad, el análisis dimensional es más inconveniente que otra cosa, puesto que de ningún modo es algo inocuo: puede demostrar con sólo unas líneas que la carga es equivalente a la masa, que las relaciones de indeterminación de Heisenberg son condicionales e infundadas, o que la constante de Planck sólo debería aplicarse al electromagnetismo, en lugar de generalizarse a todo el universo. Y puesto que a la física teórica moderna está en el negocio de generalizar sus conquistas a todo lo imaginable, cualquier contradicción o restricción a su expansión por el único lugar por el que se le permite expandirse tiene que verse con notoria hostilidad.

En realidad es fácil ver que el análisis dimensional tendría que ser una fuente importante de verdades con sólo que se le permitiera ejercer su papel, puesto que la física moderna es una torre de Babel de unidades sumamente heterogéneas que son el reflejo de las contorsiones realizadas en nombre de la simplicidad o elegancia algebraica. Las ecuaciones de Maxwell, en comparación con la fuerza de Weber que le precedió, son el ejemplo más elocuente de esto.

El análisis dimensional cobra además un interés añadido cuando ahondamos en la relación entre cantidades intensivas y extensivas. La desconexión entre las constantes matemáticas e y φ también está asociada con esta amplia cuestión. En materia de entropía, por ejemplo, usamos los logaritmos para convertir propiedades intensivas como la presión y la temperatura en propiedades extensivas, convirtiendo por conveniencia relaciones multiplicativas en relaciones aditivas más manejables. Esa conveniencia se convierte en necesidad sólo para los aspectos que ya son extensivos, como la expansión.

Ilya Prigogine mostró que cualquier tipo de energía puede descomponerse en una variable intensiva y otra extensiva cuyo producto nos da una cantidad; una expansión, por ejemplo viene dada por el producto PxV de la presión (intensiva) por el volumen (extensiva). Lo mismo puede hacerse para relaciones como cambios de masa/densidad con la relación entre velocidad y volumen, etcétera.

La imparable proliferación de medidas en todas las especialidades ya hace cada vez más necesaria la simplificación. Pero, aparte de eso, existe la urgencia de reducir la heterogeneidad de magnitudes físicas si es que queremos que la intuición le gane la batalla a la complejidad de la que somos cómplices.

Todo esto además se relaciona estrechamente con el cálculo finito y la teoría algorítmica de la medida, igualmente finitista, desarrollada por A. Stakhov. La teoría matemática clásica de la medida se basa en la teoría de conjuntos de Cantor y como es sabido no es constructiva ni está conectada con los problemas prácticos, por no hablar ya de los arduos problemas de la teoría de medida en física. Sin embargo la teoría desarrollada por Stakhov es constructiva e incorpora naturalmente un criterio de optimización.

Para apreciar el alcance de la teoría algorítmica de la medida en nuestra presente babel numérica hay que comprender que nos lleva de vuelta a los orígenes en Babilonia del sistema de numeración posicional, llenando una laguna de gran importancia en la actual teoría de los números y los campos numéricos. Esta teoría es isomorfa con un nuevo sistema numérico y una nueva teoría de las poblaciones biológicas. El sistema numérico, creado por George Bergman en 1957 y generalizado por Stakhov, se basa en las potencias de φ. Si para Pitágoras “todo es número”, para este sistema “todo número es proporción continua”.

La teoría algorítmica de la medida también plantea la cuestión del equilibrio, puesto que su punto de partida es el llamado problema de Bachet-Mendeleyev, que curiosamente aparece también por primera vez en la literatura occidental en 1202 con el Liber Abacci de Fibonacci. La versión moderna del problema consiste en encontrar el sistema óptimo de pesos estándar para una balanza que tiene un tiempo de respuesta o sensibilidad. En el caso límite, en que no hay lapso de respuesta, el tiempo no interviene como factor operativo en el acto de encontrar los pesos.

Alexey Stakhov, The mathematics of Harmony

Según Stakhov, el punto clave del problema de los pesos es la profunda conexión entre los algoritmos de medida y los métodos posicionales de numeración. Sin embargo, mi impresión es que aún admite una conexión más profunda con el cálculo mismo y los problemas de ajustar una función. En fin, los pesos de los platillos que necesitaba el fiel de la balanza identificado por Mathis. Naturalmente, no decimos que sea necesario utilizar potencias de φ ni cambiar de sistema de numeración, pero se pueden desarrollar ideas muy útiles sobre los algoritmos más simples.

Por supuesto, la teoría algorítmica de la complejidad nos dice que no se puede demostrar que un algoritmo es el más simple, pero eso no significa que no los busquemos continuamente, con independencia de la demostración. La eficiencia y la demostración no tienen por qué coincidir, eso no tiene nada de sorprendente.

El ser humano tiende inevitablemente a optimizar aquello que más mide; sin embargo no tenemos una teoría que armonice las necesidades de la metrología y la teoría de la medida con las de la matemática, la física y las ciencias descriptivas, ya sean sociales o naturales. Hoy de hecho existen muchas teorías de la medida diferentes, y cada disciplina tiende a buscar aquello que más le conviene. Sin embargo todas las métricas vienen definidas por una función, y las funciones vienen definidas por el cálculo o análisis, que no quiere tener nada que ver con los problemas prácticos de la medida y pretende ser tan pura como la aritmética aunque esté muy lejos de ello.

Esto puede parecer una situación un tanto absurda y de hecho lo es, pero también sitúa a una hipotética teoría de la medida que esté en contacto directo con los aspectos prácticos, los fundamentos del cálculo y la aritmética en una situación estratégica privilegiada por encima de la deriva e inercia de las especialidades.

El cálculo o análisis no es una ciencia exacta, y es demasiado pretender que lo sea. Por un lado, y en lo que respecta a la física, comporta al menos una conexión directa con las cuestiones de medida que debería ser explícita del lado mismo de la matemática; por el otro lado, el carácter altamente heurístico de sus procedimientos más básicos habla por sí solo. Si la propia aritmética y la geometría tienen grandes lagunas, siendo incomparablemente más nítidas, sería absurdo pretender que el cálculo no puede tenerlas.


Por otra parte, la física nunca va a dejar de tener tanto componentes discretos y estadísticos —cuerpos, partículas, ondas, colisiones, actos de medición, etc- como continuos, lo que hace aconsejable un análisis estadístico relacional cronométrico.

Un ejemplo de análisis estadístico relacional es el que propone V. V. Aristov. Aristov introduce un modelo constructivo y discreto del tiempo como movimiento usando la idea de sincronización y de reloj físico que ya introdujo Poincaré justamente con la problemática del electrón. Aquí cada momento del tiempo es un cuadro puramente espacial. Pero no sólo se trata de la conversión del tiempo en espacio, también de entender el origen de la forma matemática de las leyes físicas: “Las ecuaciones físicas ordinarias son consecuencias de los axiomas matemáticos, ‘proyectados’ en la realidad física por medio de los instrumentos fundamentales. Uno puede asumir que es posible construir relojes diferentes con una estructura diferente, y en este caso tendríamos diferentes ecuaciones para la descripción del movimiento.”

El mismo Aristov ha provisto modelos de reloj partiendo de procesos no periódicos, esto es, supuestamente aleatorios, que también tienen un gran interés. Un reloj que parte de un proceso no periódico podría ser, por ejemplo, un motor de pistón en un cilindro; y esto puede dar pie a incluir igualmente los procesos termodinámicos.

Hay que notar, además, que los procesos cíclicos, aun a pesar de su periodicidad, enmascaran influencias adicionales o ambientales, como bien hemos visto con la fase geométrica. A esto se suma el filtro deductivo de principios innecesariamente restrictivos, como ya hemos visto en el caso de la relatividad. Y por si todos ello fuera poco, tenemos el hecho, apenas reconocido, de que muchos procesos considerados puramente aleatorios o “espontáneos”, como la desintegración radiactiva, muestran estados discretos durante fluctuaciones en procesos macroscópicos, como ha mostrado extensivamente S. Shnoll y su escuela durante más de medio siglo.

Efectivamente, desde la desintegración radiactiva a las reacciones enzimáticas y biológicas, pasando por los generadores automáticos de números aleatorios, muestran periodos recurrentes de 24 horas, 24 horas, 27 y 365 días, que obviamente responden a un patrón astronómico y cosmofísico.

Sabemos que esta regularidad es “cribada” y descontada rutinariamente como “no significativa”, en un ejemplo de hasta qué punto los investigadores están bien enseñados a seleccionar los datos, pero, más allá de esto, la pregunta sobre si tales reacciones son espontáneas o forzadas permanece. Pero se puede avanzar una respuesta: uno las llamaría espontáneas incluso en el caso en que pudiera demostrarse un vínculo causal, desde el momento en que los cuerpos contribuyen con su propio impulso.

El rendimiento estadístico de las redes neuronales multinivel —la estrategia de la fuerza bruta del cálculo- se ve frenado incrementalmente por el carácter altamente heterogéneo de los datos y unidades con los que se los alimenta, aun a pesar de que obviamente las dinámicas tratadas sean independientes de las unidades. A la larga no se puede prescindir de la limpieza de principios y criterios, y los atajos que han buscado las teorías para calcular suponen un peso muerto que se acumula. Y por encima de todo, de poco sirve a qué conclusiones puedan llegar las máquinas cuando nosotros ya somos incapaces de interpretar las cuestiones más simples.

El rendimiento de una red relacional es también acumulativo, pero justo el sentido contrario; tal vez habría que decir, más bien, que crece de manera constructiva y modular. Sus ventajas, como los de la física que lleva tal nombre —y las redes de información en general- no se advierten a primera vista pero aumentan con el número de conexiones. La mejor forma de probar esto es extendiendo la red de conexiones relacionales. Y efectivamente, se trata de trabajo e inteligencia colectivas.

Con los cortes arbitrarios a la homogeneidad relacional aumenta la interferencia destructiva y la redundancia irrelevante; por el contrario, a mayor densidad relacional, mayor es la interferencia constructiva. No creo que esto requiera demostración: Las relaciones totalmente homogéneas permiten grados de inclusión de orden superior sin obstrucción, del mismo modo que las ecuaciones hechas de elementos heterogéneos comportan ecuaciones dentro de ecuaciones en calidad de elementos opacos o nudos por desenredar [46].


Volvamos de nuevo al cálculo, aunque bajo otro ángulo. El cálculo diferencial de Mathis no siempre obtiene los mismos resultados del cálculo estándar, lo que parecería suficiente para descartarlo. Puesto que su principio es indudable, los errores podrían estar en el uso del principio, en su aplicación, quedando todavía los criterios por clarificar. Esto por un lado. Por el otro, que hay una “reducción dimensional” de las curvas en el cálculo estándar es un hecho, que sin embargo no es muy reconocido porque después de todo ahora se supone que los gráficos son secundarios y aun prescindibles.

¿Lo son realmente? Sin los gráficos el cálculo nunca hubiera nacido, y eso ya es suficiente. David Hestenes, el gran valedor del álgebra y cálculo geométricos, suele decir que la geometría sin álgebra es torpe, y el álgebra sin geometría ciega. Habría que añadir que no sólo el álgebra, sino igualmente el cálculo, y en una medida mayor de la que nos imaginamos; siempre que comprendamos que en la “geometría” hay más de lo que suelen decirnos los gráficos. Vamos ahora a observar otro tipo de gráficos, esta vez de vórtices, debidos a P. A. Venis [47].

Peter Alexander Venis

En la secuencia de transformación de vórtices Venis hace una estimación de su dimensionalidad que al principio puede parecer arbitraria, aunque se basa en algo tan “evidente” como el paso del punto a la recta, de la recta al plano y del plano al volumen. También sorprenden las dimensiones fraccionarias, hasta que comprendemos que se trata de una simple estimación sobre la continuidad dentro del orden de la secuencia, que no puede ser más natural.

Peter Alexander Venis

Aunque Venis no busque una demostración, su secuencia de transformaciones es más convincente que un teorema. Basta mirar un minuto con atención para que su evolución resulte evidente. Se trata de una clave general para la morfología, con independencia de la interpretación física que queramos darle.

Para Venis la aparición de un vórtice en el plano físico es un fenómeno de proyección de una onda de un campo único donde las dimensiones existen como un todo compacto y sin partes: otra forma de hablar del medio homogéneo como unidad de referencia para el equilibrio dinámico. Está claro que en un medio completamente homogéneo no podemos caracterizarlo ni como lleno ni como vacío, y lo mismo da decir que tiene un número infinito de dimensiones que decir que no tiene ninguna.

Así, tanto las dimensiones ordinarias, como las fraccionarias, e incluso las dimensiones negativas son un fenómeno de proyección, de geometría proyectiva. La naturaleza física es real puesto que participa de este campo único o medio homogéneo, y es una ilusión proyectada en la medida en que lo concebimos como una parte independiente o una infinidad de partes separadas.

Las dimensiones negativas se deben a un ángulo de proyección menor de 0 grados, y conducen a la evolución toroidal que va más allá del bulbo en equilibrio en tres dimensiones —es decir, las dimensiones superiores a las tres ordinarias. Forman por tanto un contraespacio proyectivo complementario del espacio ordinario de la materia, que no es menos proyección que el primero con respecto a la unidad. La luz y la electricidad están en extremos opuestos de la manifestación, de evolución e involución en la materia: la luz es el fiat, y la electricidad la extinción. Se podría elaborar mucho sobre esto pero dejaremos algo para luego.

Cortes arbitrarios en la secuencia dejan expuestas dimensiones fraccionales que coinciden con las formas que apreciamos. Puesto que el propio Mathis atribuye las diferencias de resultados entre su cálculo y el cálculo estándar a que este último elimina al menos una dimensión, y en la secuencia de transformaciones tenemos toda una serie de dimensiones intermedias para funciones básicas, éste sería un excelente banco de pruebas para comparar ambos.

Michael Howell afirma que con el análisis fractal se evita la reducción de dimensiones, y traduce la curva exponencial en “una forma fractal de aceleración variable” [48]. Hay que recordar que según Mathis el cálculo estándar tiene errores incluso en la función exponencial; el análisis de la evolución dimensional de los vórtices nos brinda un amplio espectro de casos para sacarnos de dudas. Pienso en derivadas fraccionales y curvas diferenciables, antes que en fractales entendidos como curvas no diferenciables. Sería interesante ver cómo se aplica el diferencial constante a derivadas fraccionales.

La historia del cálculo fraccional, que ha adquirido tanto auge en el siglo XXI, se remonta a Leibniz y a Euler y es uno de los raros casos en que matemáticos y físicos echan en falta una interpretación. A pesar de que su uso se ha extendido a dominios intermedios en procesos exponenciales, ondulatorios, difusivos y de muchos otros tipos, la dinámica fraccional presenta una dependencia no local de la historia que no concuerda con el tipo de evolución temporal acostumbrado; aunque también existe un cálculo fraccional local. Para tratar de conciliar esta divergencia Igor Podlubny propuso distinguir entre un tiempo cósmico inhomogéneo y un tiempo individual homogéneo [49].

Podlubny admite que la geometrización del tiempo y su homogeneización se deben ante todo al cálculo, y nota que los intervalos de espacio pueden compararse simultáneamente, pero los de tiempo no, y sólo podemos medirlos como secuencia. Lo que puede sorprender es que este autor atribuya la no homogeneidad al tiempo cósmico, en lugar de al tiempo individual, puesto que en realidad la mecánica y el cálculo se desarrollan al unísono bajo el principio de la sincronización global, de la simultaneidad de acción y reacción. En esto la relatividad no es diferente de la mecánica de Newton. El tiempo individual sería una idealización del tiempo creado por la mecánica, lo que es ponerlo todo del revés: en todo caso sería el tiempo de la mecánica el que es una idealización.

Por un lado el cálculo fraccional es contemplado como un auxiliar directo para el estudio de todo tipo de “procesos anómalos”; pero por otro lado el mismo cálculo fraccional es una generalización del cálculo estándar que incluye al cálculo ordinario y por lo tanto también permite tratar toda la física sin excepción. Esto hace pensar que, más que ocuparse de procesos anómalos, es el cálculo ordinario el que produce una normalización, que afecta a todas las cantidades que computa y entre ellas el tiempo.

Venis también habla de ramas temporales y tiempo no homogéneo, aunque sus razonamientos se quedan más bien a mitad de camino entre la lógica de su secuencia, que representa un flujo del tiempo individualizado, y la lógica de la relatividad. Sin embargo es la lógica secuencial la que debería definir el tiempo en general y el tiempo individual o tiempo local en particular —no la lógica de la simultaneidad del sincronizador global. Volveremos pronto sobre esto.

The apple and the Dragon

To my knowledge, Nikolay Noskov was the first to appreciate, in the 1990s, that Weber’s dynamics was so far the only one that allowed for a physical account of the shape of the ellipses, even if it did not pretend to give a “mechanical explanation” for them. In this respect, Noskov particularly insisted on associating the retarded potentials with longitudinal vibrations of the moving bodies in order to give a content to the conservation, merely formal in Weber, of energy; he also insisted that their occurrence permeated all types of natural phenomena, from the stability of atoms and their nuclei, to orbital elliptical motion, sound, light, electromagnetism, the flow of water or gusts of wind [9].

Despite the misunderstandings on the subject, these longitudinal waves are not incompatible with known physics, and Noskov recalled that the same Schrödinger wave equation is a mixture of different equations that describe waves in a medium and waves within the moving body —and the same thing happened from the start with Maxwell’s “electromagnetic waves”, which even from the most classical point of view cannot be anything other than a statistical average between what occurs in portions of space and matter.

Noskov noticed that the behavior of forces and potentials in Weber’s law involved a sort of feedback, although he does not seem to recognize that this is already the case for all gauge theories, and finally even for Newtonian celestial mechanics itself, although in all these instances it is presented in disguise. Atoms would be definitely dumb without this ability to adjust embedded into the very idea of the field.


Let us now return to the continuous proportion. Miles Williams Mathis wonders how it is that, given the equality Φ2 + Φ = 1, phi has not been related to the most elementary inverse-square laws of physics; moreover, he wonders how it is that it has not been associated with the sphere itself, being so evident that the surface of a sphere also decreases to the square [10].

It could be argued that the Fibonacci series does not square, but the factor Φ does, as can be easily seen in the successive squares of the golden spiral (1, 1/Φ, 1/Φ2 , 1/Φ3 …) or in its expression as a continuous square root. Mathis is not confusing the inverse square with the square root, but is talking about a scale factor between two hypothetical subfields one into the other.

Miles Mathis: More on the Golden Ratio and Fibonacci Series

Mathis may be right in insisting that the presence of phi must also have an underlying physical cause; the only problem is that modern physics ignores and completely denies a scale relationship between charge and gravity, indeed light and gravity, as he is proposing. However, the origin of his correlation lies in the same Kepler’s problem, in which he wants to see a joint action of two different fields, the second one based not only on the inverse square of the distance but also on an inverse law of the fourth power (1/ r4) with a product of density by volume, instead of the usual formula of masses.

Now, Mathis is the first to specifically point out the conflation of orbital velocity and innate motion in Newton, interpreting the Lagrangian as the disguised product of two fields, of opposite attractive and repulsive effects, whose relative proportion or intensity is a function of scale and density [11].

The inclusion of density would have to be fundamental in a truly Archimedean relational physics, which brings us back to the issue of waves and spirals. Spirals are a common occurrence in astronomy, galaxies being their most apparent manifestation; these galaxies have been described in terms of density waves.

Many have noticed a logarithmic spiral with Φ as a key also in the Solar System and the distribution of its planets. As in the case of the so-called “law”, or rather rule of Titus-Bode, the existence of a non-random order seems quite evident, but the adjustment with the known values is somewhat arbitrary.

It goes without saying that the ellipse is the transformation of the circle when its centre is divided into two foci; although from the other point of view it can be said, and this is not unimportant, that the circle is only the limit case of the first one. Expanding on Kepler’s problem, although in a different light, Nicolae Mazilu refers us to Newton’s theorem of revolving orbits. Newton had already carefully considered the case of forces decreasing to the cube of distance, and in this hypothetical case the bodies describe orbits with logarithmic spiral shapes, which of course no one has observed.

However, E. B. Wilson’s works of 1919 and 1924 showed that the stable electron orbits in the atom were not ellipses but logarithmic spirals; only that the force involved here is not the Coulomb force, but a transition force between two different elliptical orbits. The later solution of the problem has buried in oblivion a model that was also consistent. And as for all applications of conic sections to physics, here too we find that signature of change in the potential, the shift in phase or plane of polarization known as the geometrical phase, discovered by Pancharatnam and so successfully generalized to quantum mechanics by Michael Berry [12] .

Jan Boeyens: Commensurability in the Solar System

Various studies recount that the distribution of the planets in the Solar System follows the pattern of a logarithmic golden spiral with an accuracy of more than 97 percent, which may increase if the sidereal years and synodic periods of the system as a whole are taken into account [13]. For Hartmut Müller, the proximity is simply due to the closeness of phi to the value of √e, which is 1.648. According to other counts not verified by myself, the average distance between consecutive planets from the Sun to Pluto, taking the distance between the two previous ones as a unit, is just 1.618. If the last planet is discarded, the average deviates widely, which gives an idea of the fragility of these calibrations.

It has often been said that the perceptible harmony in the Solar System is not possible without some feedback mechanism, while the Newtonian approach simply combines a force at a distance with trajectories like cannonballs —a cannonball theory of everything- dependent on external forces or collisions. However, we have already seen that even in the Newtonian case a self-interaction is masked by merging innate motion and orbital velocity into one.

Newtonian celestial mechanics gave way to a more abstract version, Lagrangian mechanics, to avoid this mess; the difference between the kinetic energy and the potential begs the question to the so-called “initial conditions”, but these are nothing but Newton’s innate motion… at any rate, the case is that this average difference of the Lagrangian and the average eccentricity of the orbits is of the same order of magnitude than the deviations of the distribution of the solar system obtained by the logarithmic golden spiral. Thus, one can take the Lagrangian density of the entire system and its averages and see how the planets with their orbits nestle in.

It seems that scientific publications no longer admit studies on planetary distribution, since, having no underlying physics, they are relegated to the limbo of numerological speculation. However, the Lagrangian routinely used in celestial mechanics is also nothing more than a pure mathematical analogy, and exists only to blur differences of the same order of magnitude. Suffice it to admit this to realize that both issues are not on different grounds —maybe they are not even two different things.

To admit this is also to admit that gravity itself is an adjustment force that depends on the environment and not a universal constant, but this is something that was already implicit in Weber’s relational mechanics.

Mathis’ theory is more specific in that it regards G as a transformation between two radii. Not concerned with fitting his own notions of the physics underlying the Golden Section into the spiral of the Solar System, he deals in detail with Bode’s Law in a much simpler way based on a series based on √2. He also includes naturally in it the optical equivalence, the neglected fact that many planets look of the same size from the Sun, just as many satellites look the same size as the Sun seen from their respective planets. So this is not a punctual coincidence [13]. The optical equivalence would be the final wink that Nature gives us to see who is more blind, she or we.

And since it looks like a typical fancy of Nature, let us allow ourselves a bit of numerological fun. The optical equivalence that is shown in the total eclipses is an angular or projective relationship (with an approximate value of 1/720 of the celestial sphere) in accordance with the number 108, so important in different traditions, here entailing the number of solar diameters between the Sun and the Earth, the number of terrestrial diameters in the diameter of the Sun and the number of lunar diameters that separate the Moon from the Earth.

In the pentagram used to construct a golden spiral —and with which an ellipse can also be univocally determined in spherical geometry- we see that the reciprocal angles of the pentagon and the star are 108 and 72 degrees. On the other hand, Mathis himself comments, without relating it in any way to the optical equivalence, that in accelerators the relativistic mass of a proton usually finds a limit of 108 units that neither Relativity nor Quantum Mechanics explain, and he makes a derivation of the famous gamma factor that links it directly to G.

Of course, the Lorentz relativistic factor coincides with Weber’s mechanics up to a certain limit of energy —although in the latter what increases is the internal energy instead of mass. There could be no more natural connection with the optical equivalence than that of light itself, and Mathis’ theory establishes a series of equations and identities between light and charge, charge and mass, mass and gravity.

On the other hand, if we were to throw a stone into a well which perforated the Earth from side to side, and waited for it to return like a spring or a pendulum, it would take about 84 minutes, the same as an object in a close orbit around the planet. If we did the same thing with a particle of dust on an asteroid the size of an apple, but of the same density than our planet, the result would be exactly the same. This fact, which seems to assign an important role to density over mass and distance itself, pierce the appearance of the gravitational phenomenon, and should be as astonishing to us as Galileo’s finding that objects fall at the same speed regardless of their weight; it also fits very well in the context of an spiral equal at all scales.

In any case the Lagrangian, the difference between kinetic and potential energy, has to play a fundamental role as a reference for the fine tuning of the different elements of the Solar System. In celestial mechanics, despite what is said, the integral has always led to the differential, and not the other way around. The law discovered by Newton does not shape the ellipse but rather tries to fit it.

So we have Newton’s apple and the Golden Dragon of the Solar System Spiral. Will the dragon swallow the apple? The answer is that he doesn’t need to swallow it, since it has been inside him from the start. Let us say it again: the gauge fields, characterized by the invariance of the Lagrangian under transformations, are equivalent to a non-trivial feedback between force and potential, which in turn is indistinguishable from the eternal “information problem”, namely how the Moon knows where the Sun is and how it “knows” its mass to behave as it does. Why to ask about information at the microlevel of particles when the problem is in plain sight at the macrolevel in the first place?

Considering the adjustments of the Lagrangian in comparison with a system described exclusively by non-variable forces, the entire Solar System looks like a great spiral holonomy.

The Lagrangian can also hide virtual dissipation rates —virtual, of course, since we already know that the orbits are preserved. In fact, what Lagrange did was to dilute D’Alembert’s principle of virtual work by introducing generalized coordinates. But we are so used to separate the formalisms of thermodynamics from those of the supposedly more fundamental reversible systems that it is hard to see what this means. However, the most certain instinct tells us that everything reversible is an island surrounded by an ocean without forms. There is no motion without irreversibility; to pretend otherwise is just an illusion.

Mario J. Pinheiro wants to repair this divorce between convictions and formalisms by proposing a reformulation of mechanics alternative to the Lagrangian account, with a variational principle for rotating systems out of equilibrium and a mechanical-thermodynamic time in a set of two differential equations of first order. Here the equilibrium takes place between the minimum energy variation and the maximum entropy production.

This thermomechanics allows us to consistently describe systems with characteristics that are quite different from those of reversible systems, and which are particularly relevant to the case at hand: subsystems within a larger system can absorb the forces exerted on them, and instead of being enslaved there is room for interaction and self-regulation. There may be a component of topological torsion and conversion of linear or angular motion into angular motion. The angular momentum acts as a damper to dissipate the disturbances, “a well-known redressing mechanism in biomechanics and robotics ” [15] .

To my knowledge, Pinheiro’s proposal of an irreversible mechanics is the only one that gives a proper explanation of Newton’s famous buck experiment and the whirlpool formed by its rotation, by the transport of angular momentum, as opposed to Newton’s absolute interpretation or Leibniz’s purely relational one, neither of which are really to the point. Suffice it to recall the elemental observation that in this experiment the appearance of the vortex requires both time and friction, and matter is transferred to the regions of highest pressure, a clear signature of the Second Law. What is extraordinary is that no one has insisted on this before Pinheiro —something that can only be explained by the conventional roles adscribed to the different branches of physics. Besides, it is clear that springs, whirls and spirals are the most suitable and efficient forms of damping.

It is perhaps appropriate to remember that the so-called “principle of maximum entropy” does not tend towards maximum disorder, as is often thought even among the physicists, but rather the opposite, and this is how Clausius originally understood it. This establishes a very broad but essential link with highly organized systems, at the top of which we usually place living beings. On the other hand, it is enough to contemplate the spiral of the Solar System for a moment to understand that it only makes sense as an open, irreversible process in permanent production.

The concept of order that Boltzmann introduced is no less subjective than that of harmony, the main difference being that in statistical mechanics the micro-states, not the macro-states, have received a convenient quantification. Of course, this is another great rationalization: the irreversibility of phenomena or macrostates would be derived from the reversibility of microstates. But the mere postulation of stationary orbits in atoms —to pretend that there can be variable forces in isolated systems- is illegal both from the thermodynamic point of view and from the mere common sense.

Richard Merrick: Harmonic formation helps explain why phi pervades the solar system

The variational principle proposed by Pinheiro was first suggested by Landau and Lifshitz but has not been developed to date. This is inevitably reminiscent of the idea of damping wells in the Landau-Zener theory, which arise from adiabatic torque transfer when waves cross without destructive interference. Richard Merrick has directly related these wells or vortices to the golden spirals under conditions of resonance [17]. Many will say that one can not see how these conditions can be met in the Solar System, but, once again, the resonances of the classical theory of perturbations in Laplace’s celestial mechanics are in no better situation, being nothing else than pure mathematical relations. If anything, it could be said that they are in a worse situation, since we are asked to believe that gravity can have a repulsive effect.

Although Pinheiro’s thermomechanics involves something similar to this form of transfer, which evokes the parallel transport of the geometric phase, it also incorporates, and this is the key difference, a term for the thermodynamic free energy. A reversible system is a closed system, and there are no closed systems in the universe.

Merrick’s own theory of harmonic interference would be elevated to a much higher level of generality simply by appreciating that the principle of maximum entropy production is not contrary to the generation of harmony but rather conducive to it.

The principle of maximum entropy can be transferred to quantum mechanics with hardly any more sacrifice than the idea of reversibility, as shown by the quantum thermodynamics developed by Beretta, Hatsopoulos and Gyftopoulos; the subject is of extraordinary importance but now it would take us too far [18].


Physicists are proud of the high degree of accuracy of some of their theories, which is quite understandable given the work invested carrying out their calculations, sometimes to ten and twelve decimal places. Few things would be more eloquent than such precision if it came naturally, without special assumptions or arbitrary ad hoc adjustments, but that is the case most of the time. Still the value of gravity on Earth cannot be measured to more than three decimal places, but astrophysicists pretend to calculate to ten or twelve places to the confines of the universe.

In the case of Lagrange and Laplace this is absolutely evident, and one day we will wonder how we were able to accept their methods without even blinking an eye. The truth is that these procedures were not digested overnight, but if they were finally accepted it was from the invincible desire to expand the power of calculus at any rate, reinforced by the idea, inherited from Newton and Leibniz, that Nature is a clockwork machine of virtually infinite precision. And for the means, what better than to serve the Ideal.

It has rightly been said that had Kepler had more precise data, he would not have advanced his theory of elliptical motion; and in fact, Cassini ovals, fourth-degree curves with a constant distance product, seem to reproduce the observable trajectories more closely, something one should attribute to the perturbations involved. These ovals also raise interesting and profound questions about the dynamical connection between ellipses and hyperbolas. Interestingly, Cassini ovals are used to model the geometry of the spontaneous negative curvature of red blood cells, in which the golden ratio has also been found [19].

As Mathis points out, the very first analyses of perturbations included, already since Newton and Clairaut, a factor 1/ r4 with a repulsive force, which shows again to what extent the “auxiliary” elements of celestial mechanics are hiding something much more important [20].

To the eye of the naturalist, accustomed to the very variable precision of the descriptive sciences, the golden spiral of the Solar System would have to appear as the most splendid example of natural order; an order so magnificent that, unlike Laplace’s, it can include catastrophes in its bosom without hardly blurring. This is a characteristic that we invariably attribute to living beings. Whether judged as a natural phenomenon or as an organism, taking everything into account, the spiral shows a precision, more than sufficient, excellent.

And what is the place of the Taijitu, our symbol of the Pole generating the yin and yang, in all this? Well, it goes without saying that the system we are talking about, along with its subsystems — planets and satellites —is an eminently polar process, with axes defining its evolution; and so it is the spiral holonomy that envelops them. As for the yin and yang, if we were to say that they can also be the kinetic and potential energy, we would be told that we are proposing too trivial a correspondence. But all the above should serve to see that this is not the case.

We know that in the orbits kinetic and potential energy do not even compensate, and when they should, as in the case of circular motion in Binet’s equation, we do not even obtain a single force —at least a difference between the center of the circle and the center of the force is required. Looking for the simplest possible argument, the first thing that comes to mind is that the emergence of the golden section in the Taijitu, the freely rotating spherical vortex, contains a sort of analogical and a priori synthesis of 1) a law of areas applied to the two energies, 2) the focal geometry of the ellipses, and 3) a difference that is integrable and a shift in the plane of polarization that it is not. This third point overlaps the Lagrangian and a geometrical phase that in principle seem quite different.

Of course, we leave large loose ends here that such a simple diagram cannot translate. To begin with, just because an ellipse has two foci within does not mean that we have to look inside always for the origin of the forces that determine it, and this would lead us to the theory of perturbations. However, any environmental influence, also outer planets, should already be included in the geometric phase.

If we were to pass from celestial dynamics to light, we could reinterpret in terms of retarded potentials and their incidence on phase the data of ellipsometry or the “abstract monopole with a force of —1/2 at the center of the Poincaré sphere” to which Berry appeals in his generalization of the geometric phase. However, it should not be forgotten that light was already an essentially statistical process even from the times of Stokes and Verdet. The degree of polarization and entropy of a beam of light were always equivalent concepts, although we are still far from drawing all the consequences from this.

We assume the coincidence of the retarded potential and the geometrical phase, although there is not even a specific literature on the subject, nor is there agreement, otherwise, on the significance and status of the geometrical phase itself. There have been those who have seen it as an effect of the exchange of angular momentum, and in any case in classical mechanics the geometrical phase is shown by Hamilton-Jacobi’s formulation of angle-action variables [21].

If harmony is totality, the so-called geometrical phase should have its part in the mathematics of harmony, since it is nothing but the expression of “global change without local change”. We already noticed that the geometrical phase is inherent in fields involving conic sections, so its inclusion here is just elementary. However, the fact that it does not involve the known forces of interaction does not mean that we are dealing with mere “fictitious forces”; they are real forces that transport angular momentum and are essential in the effective configuration of the system.

Since this energy transport is an interference phenomenon, the potential energy of the Lagrangian must comprise the sum of all the interference from the adjacent systems, this being the missing “regulatory mechanism”. It may be argued that in the course of the planets we do not observe the manifestation of interference that characterizes wave processes, even though we do not hesitate to resort to “resonances” to explain perturbations. Let us look at this a little more closely.

If until now we have chosen to see the geometrical phase, in classical mechanics the difference in the solid angle or Hannay angle, as a relational property, the most appropriate way of understanding it would have to be within a purely relational mechanics such as Weber’s one. However, as Poincaré remarked, if we have to multiply the velocity squared, we no longer have a way of distinguishing between kinetic and potential energy, and even the latter is no longer independent of the internal energy of the bodies considered. Hence the postulation of an internal vibration by Noskov. However, this inherent ambiguity does not prevent us from making calculations as precise as with Maxwell’s equations, in addition to some other obvious advantages.

Remember the comparison of the stone that passes through the Earth and the dust particle on that tiny asteroid, which return to the same point in the same time. In a hypothetical medium of homogeneous density, this would suggest an overall dampening and synchronizing effect at different spatial scales. But, without the need for any hypothesis, what the geometrical phase implies is the effective coupling of systems that evolve at different time scales, for example, electrons and nuclei, or gravitational and atomic forces, or, within gravitational forces, the interactions between the different planets. This makes it particularly robust to noise or disturbances.

The ambiguity of relational mechanics need not be a weakness, but could be revealing some limitations inherent in mechanics and its calculus. Just when we want to take to its logical extreme the ideal of converting physics into a pure kinematics, a science of forces and motions, of mere extension, its inevitable dependence on potentials and “non-local” factors is revealed, although we would rather have to talk about definite global configurations.

What is essential in the apparently casual comparison between the Taijitu and the elliptical orbit is that the latter is also an integral expression of the totality: not only of the internal forces but also of the external forces that contribute to its form in real time. If the compensation mechanism serves as an effective regulation it cannot affect only the potentials but equally the forces.

La manzana y el dragón

Por lo que sé, Nikolay Noskov fue el primero en apreciar, en los años 90 del pasado siglo, que la dinámica de Weber era hasta el momento la única que permitía dar cuenta de la forma de las elipses, incluso si no pretendían dar una “explicación mecánica” de su creación. A ese respecto, Noskov insistió particularmente en asociar los potenciales retardados con vibraciones longitudinales de los cuerpos en movimiento para darle un contenido a la conservación, meramente formal en Weber, de la energía; también insistió en que su ocurrencia penetraba todo tipo de fenómenos naturales, desde la estabilidad de los átomos y sus núcleos, al movimiento elíptico orbital, el sonido, la luz, el electromagnetismo, el flujo del agua o las ráfagas de viento [9].

A pesar de los malentendidos sobre el tema, estas ondas longitudinales no son incompatibles con la física conocida, y Noskov recordaba que la misma ecuación de onda de Schrödinger es una mezcla de ecuaciones diferentes que describen ondas en un medio y ondas dentro del cuerpo en movimiento —y lo mismo ocurrió desde el comienzo con las “ondas electromagnéticas” de Maxwell, que incluso desde el punto de vista más clásico no pueden ser otra cosa que un promedio estadístico entre lo que ocurre en porciones de espacio y de materia.

Fue también Noskov quien advirtió que el comportamiento de las fuerzas y potenciales en la ley de Weber habían entrañado desde siempre un feedback, aunque no parece haber percibido que esto es extensible a todas las teorías gauge, y, finalmente, incluso a la propia mecánica celeste newtoniana, si bien en todos estos casos se presenta disfrazada. Los átomos serían definitivamente “tontos” sin esta capacidad de ajuste incorporada en la misma idea del campo.


Volvamos ahora a la razón continua. Miles Williams Mathis se pregunta cómo es que, habida cuenta de la igualdad Φ2 + Φ = 1, no se ha relacionado phi con las más elementales leyes de cuadrados inversos de la física; más aún, se pregunta cómo es que no ha sido asociada con la propia esfera, siendo tan evidente que la superficie de una esfera también disminuye al cuadrado [10].

Podría argumentarse que la serie de Fibonacci no cae al cuadrado, pero el factor Φ sí, como puede visualizarse fácilmente en los cuadrados sucesivos de la espiral áurea (1, 1/Φ, 1/Φ2 , 1/Φ3 …) o en su expresión como raíz cuadrada continua. Mathis no está confundiendo el cuadrado inverso con la raíz cuadrada, sino que está hablando de un factor de escala entre dos hipotéticos subcampos el uno dentro del otro.

  Miles Mathis: More on the Golden Ratio and Fibonacci Series

Puede que Mathis esté en lo cierto al insistir en que la presencia de phi debe tener también una causa física subyacente; el único problema es que la física moderna ignora y niega por completo una relación de escala entre carga y gravedad, en verdad luz y gravedad, como el que propone. Sin embargo el origen de su correlación se encuentra en el mismísimo problema de la elipse de Kepler, en el que quiere ver una acción conjunta de dos campos diferentes, el segundo basado no sólo en el cuadrado inverso de la distancia sino también en una ley inversa a la cuarta potencia (1/ r4) con un producto de la densidad por el volumen, en lugar de la fórmula habitual de masas.

Ahora bien, Mathis es quien primero que ha hablado expresamente de la conflación de la velocidad orbital y el movimiento innato en Newton, interpretando el lagrangiano como el velado producto de dos campos, de efectos atractivo y repulsivo, cuya proporción o intensidad relativa está en función de la escala y densidad [11].

La inclusión de la densidad tendría que ser fundamental en una física verdaderamente relacional que siguiera el espíritu de Arquímedes, lo que nos lleva de vuelta al tema de las ondas y las espirales. Las espirales son una ocurrencia común en astronomía, siendo las galaxias su manifestación más aparente; estas galaxias han sido descritas en términos de ondas de densidad.

También en el Sistema Solar y la distribución de sus planetas se ha querido ver una espiral logarítmica con Φ como clave. Como en el caso de la llamada “ley”, o más bien regla de Titus-Bode, la existencia de un orden no aleatorio parece bastante evidente, pero el ajuste fino de los valores dados resulta un tanto arbitrario.

No hay ni que decir que la elipse es la transformación del círculo cuando su centro se divide en dos focos; aunque desde el otro punto de vista bien puede decirse, y ello no carece de importancia, que el círculo es sólo el caso límite de la primera. Abundando en el problema de Kepler, aunque bajo otra luz, Nicolae Mazilu nos remite al teorema de Newton sobre las elipses giratorias en precesión. Newton ya había considerado cuidadosamente el caso de fuerzas decreciendo al cubo de la distancia, y en este caso hipotético los cuerpos describen órbitas en forma de espiral logarítmica, que por supuesto nadie ha observado.

Ahora bien, los trabajos de E. B. Wilson de 1919 y 1924 mostraban que las órbitas estables de los electrones en el átomo no eran elipses sino espirales logarítmicas; sólo que la fuerza implicada no es la fuerza de Coulomb, sino una fuerza de transición entre dos órbitas elípticas diferentes. La solución posterior del problema ha cubierto de olvido un modelo que también era consistente. Y como para todas las aplicaciones de las secciones cónicas a la física, también aquí se encuentra esa signatura de cambio en el potencial, el desplazamiento en la polarización o plano de fase conocido como fase geométrica, descubierta por Pancharatnam y generalizada con tanto éxito a la mecánica cuántica por Berry [12] .

Jan Boeyens: Commensurability in the Solar System

Diversos estudios han mostrado que la distribución de los planetas del Sistema Solar sigue la pauta de una espiral logarítmica áurea con una precisión de más del 97 por ciento, que puede aumentar si se tienen en cuenta los años siderales y periodos sinódicos del sistema en su conjunto [13]. Para Hartmut Müller, la proximidad se debería simplemente a la cercanía de phi al valor de √e, que es 1,648. Según otros recuentos que no he verificado, el promedio de la distancia entre planetas consecutivos desde el Sol a Plutón, tomando la distancia entre los dos anteriores como unidad, es justamente 1,618. Si se descarta este último planeta la media se desvía ampliamente, lo que da una idea de la fragilidad de estas calibraciones.

Se ha dicho a menudo que la armonía perceptible en el Sistema Solar no es posible sin algún mecanismo de feedback, mientras que el acercamiento newtoniano combina sin más una fuerza a distancia con trayectorias como las balas de cañón, dependientes de fuerzas externas o colisiones. Sin embargo ya hemos visto que incluso en el caso newtoniano se esconde una autointeracción al fundir en uno solo el movimiento innato y la velocidad orbital.

La mecánica celeste da paso a una versión más abstracta, la mecánica lagrangiana, para evitar este embrollo; la diferencia entre la energía cinética y la potencial se remiten a las llamadas “condiciones iniciales”, pero estas no son otra cosa que el movimiento innato de Newton… el caso es que esta diferencia promedio del lagrangiano y la excentricidad promedio de las órbitas es del mismo orden de magnitud que las desviaciones de la distribución del sistema solar obtenidas por la espiral logarítmica áurea. Así pues, se puede tomar la densidad lagrangiana del sistema entero y sus promedios y ver cómo van encajando en ella los planetas con sus órbitas.

Parece ser que las publicaciones científicas han dejado de admitir estudios sobre la distribución planetaria, puesto que, al no tener una física subyacente, quedan relegados al limbo de la especulación numerológica. Sin embargo el lagrangiano usado rutinariamente en mecánica celeste tampoco es nada más que una pura analogía matemática, y existe sólo para difuminar diferencias del mismo orden de magnitud. Basta con admitir esto para darse cuenta de que en realidad no nos movemos en terrenos diferentes.

Admitirlo es admitir también que la gravedad es de suyo una fuerza de ajuste que depende del entorno y no una constante universal, pero esto es algo que ya está implícito en la mecánica relacional de Weber.

La teoría de Mathis, es más específica en el sentido de que contempla G como una transformación entre dos radios. No se ha ocupado de encajar sus propias nociones de la física subyacente a la Sección Áurea en la espiral del Sistema Solar, pero si ha tratado en detalle la Ley de Bode de forma mucho más simple basándose en una serie basada en √2, además de incluir naturalmente en ella la equivalencia óptica, el desatendido hecho de que muchos planetas vienen a tener el mismo tamaño desde el Sol, del mismo modo que muchos satélites tienen el mismo tamaño que el Sol vistos desde sus respectivos planetas. No se trata por tanto de una mera coincidencia puntual [13]. La equivalencia óptica sería el guiño final que nos dedica la Naturaleza para ver quién es más ciega, si ella o nosotros.

Y ya que parece una típica travesura de la Naturaleza, aquí vamos a permitirnos una pequeña diversión numerológica. La equivalencia óptica que se pone de manifiesto en los eclipses totales es una relación angular y proyectiva (con un valor aproximado de 1/720 de la esfera celeste) en concordancia con el número 108, tan importante en diferentes tradiciones, y que implica el número de diámetros solares que hay entre el Sol y la Tierra, el número de diámetros terrestres en el diámetro del Sol y el número de diámetros lunares que separa a la Luna de la Tierra.

En el pentagrama que sirve para construir una espiral áurea —y con el que también puede determinarse unívocamente una elipse en geometría esférica- vemos que los ángulos recíprocos del pentágono y la estrella son 108 y 72 grados. Por otra parte, el mismo Mathis comenta, sin relacionarlo para nada con la equivalencia óptica, que en los aceleradores la masa relativista de un protón suele encontrar un límite de 108 unidades que ni la Relatividad ni la mecánica cuántica explican, y hace una derivación del famoso factor gamma que lo vincula directamente con G.

Por supuesto, el factor relativista de Lorentz coincide con la mecánica de Weber hasta un cierto límite de energía —aunque en la segunda lo que aumenta es la propia energía interna y no la masa. No podría haber conexión más natural con la equivalencia óptica que la de la propia luz, y la teoría de Mathis establece una serie de ecuaciones e identidades entre la luz y la carga, la carga y la masa, y la masa con la gravedad.

Por el otro lado, si tiráramos una piedra en un pozo que perforara la Tierra de lado a lado, y esperáramos a que volviera igual que un muelle o un péndulo, tardaría unos 84 minutos, lo mismo que un objeto en una órbita cerrada. Si hiciéramos lo mismo con una partícula de polvo en un asteroide del tamaño de una manzana, pero de la misma densidad que nuestro planeta, el resultado sería exactamente el mismo. Este hecho, que parece asignar un papel importante a la densidad sobre la propia masa y la distancia, traspasa la apariencia del fenómeno gravitatorio, y debería resultarnos tan pasmoso como la comprobación de Galileo de que los objetos caen a la misma velocidad independientemente de su peso; también encaja muy bien en el contexto de una espiral igual a todas las escalas.

En cualquier caso el lagrangiano, la diferencia entre energía cinética y potencial, tiene que desempeñar un papel fundamental como referencia para el ajuste fino de los distintos elementos del Sistema Solar. En mecánica celeste, a pesar de lo que se diga, la integral siempre ha conducido al diferencial, y no al contrario. Como ya dijimos la ley descubierta por Newton no produce la elipse sino que aspira a encajar en ella.

Así pues tenemos la manzana de Newton y el Áureo Dragón de la Espiral del Sistema Solar. ¿Se tragará el Dragón a la Manzana? La respuesta es que no necesita tragársela, puesto que desde el principio ha estado dentro de él. Repitámoslo de nuevo: los campos gauge, caracterizados por la invariancia del lagrangiano bajo transformaciones, equivalen a un feedback no trivial entre la fuerza y el potencial, que a su vez se confunde con el eterno “problema de la información”, a saber, cómo sabe la Luna dónde está el Sol y cómo “conoce” su masa para comportarse como se comporta. ¿Por qué se pregunta por el problema de la información al nivel de las partículas y se ignora donde puede verse a simple vista para empezar?

Considerando los ajustes del lagrangiano con respecto a un sistema descrito exclusivamente por fuerzas no variables, el entero Sistema Solar parece una enorme holonomía espiral.

El lagrangiano también puede esconder tasas virtuales de disipación —virtuales, claro, pues que las órbitas se conservan es algo que ya sabemos. De hecho lo que Lagrange hizo fue diluir el principio de trabajo virtual de D’Alembert introduciendo coordenadas generalizadas. Pero estamos tan acostumbrados a separar los formalismos de la termodinámica de los de los sistemas reversibles, supuestamente más fundamentales, que cuesta ver lo que esto significa. Sin embargo, el instinto más cierto nos dice que todo lo reversible no es sino pura ilusión, y los comportamientos reversibles, meras islas rodeadas por un océano sin formas. No hay movimiento sin irreversibilidad; pretender lo contrario es una quimera.

Mario J. Pinheiro ha querido reparar ese divorcio entre convicciones y formalismos proponiendo una reformulación de la mecánica alternativa a la mecánica lagrangiana, con un principio variacional para sistemas rotatorios fuera de equilibrio y un tiempo mecánico-termodinámico en un conjunto de dos ecuaciones diferenciales de primer orden. Aquí el equilibrio se da entre la variación mínima de energía y la producción máxima de entropía.

Esta termomecánica permite describir consistentemente sistemas con unas características bien diferentes de las de los sistemas reversibles, particularmente relevantes para el caso que nos ocupa: los subsistemas dentro de un sistema más grande pueden amortiguar las fuerzas que se ejercen sobre ello, y en lugar de estar esclavizados queda espacio para la interacción y la autorregulación. Puede haber un componente de torsión topológica y conversión de movimiento lineal o angular en movimiento angular. El momento angular sirve de amortiguador para disipar las perturbaciones, “un mecanismo de compensación bien conocido en biomecánica y robótica” [15] .

Hasta donde sé, la propuesta de Pinheiro de una mecánica irreversible es la única que da una explicación apropiada del famoso experimento de Newton del cubo de agua y el torbellino formado por su rotación, por el transporte de momento angular, frente a la interpretación absoluta de Newton o la puramente relacional de Leibniz, ninguna de las cuales hace verdaderamente al caso. Baste para ello recordar la observación elemental de que en este experimento la aparición del vórtice requiere tanto tiempo como fricción, y la materia es transferida a las regiones de mayor presión, signo claro de la Segunda Ley. Lo extraordinario es que no se haya insistido en esto antes de Pinheiro —algo que sólo puede explicarse por los papeles convenidos de antemano para las distintas ramas de la física. Por lo demás salta a la vista que muelles, torbellinos y espirales son las formas idóneas y más eficientes para la amortiguación.

Tal vez sea oportuno recordar que el llamado “principio de máxima entropía” no tiende hacia el máximo desorden, como muy a menudo se piensa incluso dentro del mundo de la física, sino más bien hacia lo contrario, y así es como lo entendió originalmente Clausius [16]. Esto establece un vínculo muy amplio pero esencial con el mundo de los sistemas más altamente organizados, a cuya cabeza solemos poner a los seres vivos. Por lo demás, basta con detenerse a contemplarlo un momento para comprender que una espiral como la del Sistema Solar sólo tiene sentido como proceso irreversible y en producción permanente.

El concepto de orden que introdujo Boltzmann no es menos subjetivo que el de armonía, siendo la principal diferencia que en la mecánica estadística los microestados, que no los macroestados, han recibido una más o menos adecuada cuantificación. Claro que no deja de ser otra grandiosa racionalización: la irreversibilidad de los fenómenos o macroprocesos se derivaría de la reversibilidad de los microprocesos. Pero la mera postulación de órbitas estacionarias en los átomos —pretender que pueda haber fuerzas variables en sistemas aislados- es ilegal tanto desde el punto de vista termodinámico como desde el mero sentido común.

El principio variacional propuesto por Pinheiro fue sugerido por primera vez por Landau y Lifshitz pero no ha tenido desarrollo hasta el día de hoy. Esto recuerda inevitablemente la idea de los pozos de amortiguación de la teoría de Landau y Zener, que surgen de la transferencia adiabática de par de torsión al cruzarse ondas sin interferencia destructiva. Richard Merrick ha relacionado directamente estos pozos o vórtices con las espirales áureas en condiciones de resonancia [17]. Muchos dirán que no se ve cómo pueden satisfacerse esas condiciones en el Sistema Solar, pero, una vez más, las resonancias de la teoría clásica de perturbaciones en la mecánica celeste de Laplace no se encuentran en mejor situación, no siendo otra cosa que puras relaciones matemáticas. Podría en todo caso decirse que están en peor situación, puesto que se nos pide que creamos que la gravedad puede tener un efecto repulsivo.

Richard Merrick: Harmonic formation helps explain why phi pervades the solar system

Aunque la termomecánica de Pinheiro conlleva algo similar a esta forma de transferencia, que evoca el transporte paralelo de la fase geométrica, incorpora además un término para la energía libre termodinámica, y esta es la diferencia capital. Un sistema reversible es un sistema cerrado, y no hay sistemas cerrados en el universo.

La propia teoría de la interferencia armónica de Merrick se vería elevada a un nivel mucho más alto de generalidad con sólo apreciar que el principio de máxima producción de entropía no es contrario a la generación de armonía sino más bien conducente a ella.

El principio de máxima producción de entropía se puede trasladar a la mecánica cuántica sin apenas más sacrificio que el la idea de la reversibilidad, como ha mostrado la termodinámica cuántica de Gian Paolo Beretta, Hatsopoulos y Gyftopoulos; el tema es de extraordinaria importancia pero ahora nos llevaría demasiado lejos [18].


Los físicos se precian mucho del alto grado de precisión de algunas de sus teorías, lo que es harto comprensible habida cuenta de los trabajos que se toman en llevar adelante sus cálculos, en algunas ocasiones hasta diez y doce cifras decimales. Pocas cosas serían más elocuentes que tal precisión si llegara de forma natural, sin asunciones especiales ni arbitrarios ajustes ad hoc, pero en realidad ese suele ser el caso la mayoría de las veces. Aún no se puede medir el valor de la gravedad en la Tierra con más de tres cifras decimales, pero se pretenden hacer cálculos con diez o doce cifras hasta los confines del universo.

En el caso de Lagrange y Laplace esto es absolutamente evidente, y algún día nos preguntaremos cómo hemos podido aceptar sus métodos sin ni siquiera pestañear. Lo cierto es que esos procedimientos no se digirieron de la noche a la mañana, pero si finalmente se dieron por buenos fue precisamente por el deseo mismo de expandir más y más el dominio del cálculo, todo ello dentro de la idea, heredada de Newton y Leibniz, de que la Naturaleza no era sino una maquinaria de relojería de una precisión virtualmente infinita. Y para los medios qué mejor que servir al Ideal.

Con razón se ha dicho que si Kepler hubiera tenido datos más precisos, no hubiera avanzado su teoría del movimiento elíptico; y en verdad, los óvalos de Cassini, curvas de cuarto grado con un producto de las distancias constante, parecen reproducir las trayectorias observables con mejor aproximación, lo que habría que atribuir a las perturbaciones. Estos óvalos plantean además interesantes y profundas cuestiones sobre la conexión dinámica entre elipses e hipérbolas. Curiosamente, los óvalos de Cassini se utilizan para modelar la geometría de la curvatura negativa espontánea de los glóbulos rojos, en los que también se ha encontrado la proporción áurea [19].

Como nota Mathis, los primeros análisis de perturbaciones incluían, ya desde Newton y Clairaut, un factor 1/ r4 con una fuerza repulsiva, lo que muestra hasta qué punto los elementos “auxiliares” de la mecánica celeste están escondiendo algo mucho más importante [20].

Para la mirada del naturalista, acostumbrado a la muy variable precisión de las ciencias descriptivas, la espiral del Sistema Solar tendría que aparecer como el más espléndido ejemplo de ordenamiento natural; un orden tan magnífico que, a diferencia del de Laplace, puede incluir en su seno catástrofes sin apenas desdibujarse. Esta es una característica que atribuimos invariablemente a los seres vivos. Ya se juzgue como fenómeno natural o como organismo, teniendo todo en cuenta, la espiral muestra una precisión, más que suficiente, excelente.

¿Y cuál es el lugar del Taijitu, nuestro símbolo del Polo generador del Yin y el Yang, en todo esto? Bueno, ni que decir tiene que el sistema del que estamos hablando, junto con sus subsistemas —planetas y satélites- es un proceso eminentemente polar, con unos ejes que definen su evolución; y que también lo es la holonomía espiral que los envuelve. Y en cuanto al Yin y el Yang, si dijéramos que también pueden ser la energía cinética y la potencial, se nos diría que estamos proponiendo una correspondencia demasiado trivial. Pero lo ya apuntado debería servir para ver que no es el caso.

Sabemos que en las órbitas la energía cinética y la potencial ni siquiera se compensan, y cuando debieran hacerlo, como en el caso del movimiento circular en la ecuación de Binet, ni siquiera obtenemos una fuerza única —se requiere al menos una diferencia entre el centro del círculo y el de la fuerza. Buscando el argumento más simple posible, lo primero que viene a la mente es que la emergencia de la sección áurea en el Taijitu, el vórtice esférico en libre rotación, encierra una suerte de síntesis, analógica y a priori, de 1) una ley de áreas aplicada a las dos energías, 2) la geometría focal de las elipses, y 3) una diferencia integrable y un giro o cambio en el plano de polarización que no lo es. Este tercer punto solapa el lagrangiano y una fase geométrica que en principio parecen cosas bien diferentes.

Por supuesto, aquí dejamos grandes cabos sueltos que un diagrama tan simple no puede traducir. Para empezar, que una elipse tenga en su interior dos focos no significa que haya que buscar el origen de las fuerzas que la determinan en su interior, y esto nos llevaría a la teoría de perturbaciones. Pero cualquier influencia ambiental, incluida la de otros planetas, debería estar ya incluida en la fase geométrica.

Si pasáramos por un momento de la dinámica orbital a la luz, podríamos reinterpretar en clave de los potenciales retardados y su incidencia en la fase los datos de la elipsometría o el “monopolo abstracto con una fuerza de —1/2 en el centro de la esfera de Poincaré” al que apela Berry en su generalización de la fase geométrica. Ahora bien, conviene no olvidar que la luz era ya un problema esencialmente estadístico incluso desde los tiempos de Stokes y de Verdet. Grado de polarización y entropía de un haz de luz fueron siempre conceptos equivalentes, aunque aún estemos lejos de extraer todas las consecuencias de ello.

Damos por supuesta la coincidencia del potencial retardado y la fase geométrica, aunque ni siquiera existe una literatura específica sobre el tema, como tampoco hay acuerdo, por lo demás, en torno a la significación y estatus de la propia fase geométrica. No han faltado quienes la han visto como un efecto del intercambio de momento angular, y, en cualquier caso, en mecánica clásica la fase geométrica se pone de manifiesto con la formulación de Hamilton-Jacobi de variables de ángulo y acción [21].

Si armonía es totalidad, la llamada fase geométrica tendría que tener su parte en la matemática de la armonía, puesto que aquella no es sino la expresión de un “cambio global sin cambio local”. Ya notamos que la fase geométrica es inherente a campos que involucran secciones cónicas, así que su inclusión aquí es completamente elemental. Ahora bien, el que no implique a las fuerzas de interacción reconocidas no significa que se trate de meras “fuerzas ficticias”; se trata de fuerzas reales que transportan momento angular y resultan esenciales en la configuración efectiva del sistema.

Puesto que este transporte de energía es un fenómeno de interferencia, la energía potencial del lagrangiano ha de comprender la suma de todas las interferencias de los sistemas adyacentes, siendo este el “mecanismo de regulación”. Puede aducirse que en el curso de los planetas no observamos la manifestación de interferencias que caracteriza a los procesos ondulatorios, a pesar de que no se dude en recurrir a “resonancias” para explicar perturbaciones. Veamos esto un poco más de cerca.

Si hasta ahora se ha querido ver la fase geométrica, en mecánica clásica la diferencia en el ángulo sólido o ángulo de Hannay, como una propiedad relacional, la forma más adecuada de entenderla tendría que ser dentro de una mecánica puramente relacional como la ya mencionada de Weber. Ahora bien, como ya notó Poincaré, si tenemos que multiplicar la velocidad al cuadrado ya no tenemos forma de distinguir entre la energía cinética y la potencial, e incluso éstas dejan de ser independientes de la energía interna de los cuerpos considerados. De aquí la postulación de una vibración interna por Noskov. Empero, esta ambigüedad inherente no impide hacer cálculos tan precisos como con las ecuaciones de Maxwell, además de tener otras obvias ventajas.

Recuérdese la comparación de la piedra que atraviesa la Tierra y la partícula de polvo en su diminuto asteroide, que vuelven al mismo punto en el mismo tiempo. En un medio hipotético de densidad homogénea, esto sugeriría un efecto de amortiguación y sincronización conjuntos y a distintas escalas espaciales. Pero, sin necesidad de hipótesis alguna, lo que la fase geométrica implica es el acoplamiento efectivo de sistemas que evolucionan a diferentes escalas temporales, por ejemplo, los electrones y los núcleos, o fuerzas gravitatorias y atómicas, o, dentro de la misma gravedad, las interacciones entre los distintos planetas. Esto la hace particularmente robusta al ruido o las perturbaciones.

La ambigüedad de la mecánica relacional no tiene por qué ser una debilidad, sino que podría estarnos revelando ciertas limitaciones inherentes a la mecánica y su cálculo. Justo cuando queremos llevar a su extremo lógico el ideal de convertir la física en una pura cinemática, una ciencia de fuerzas y movimientos, de mera extensión, es cuando se revela su inevitable dependencia de los potenciales y de factores considerados “no locales”, aunque más bien tendríamos que hablar de configuraciones globales definidas.

Lo esencial en la comparación, aparentemente casual, entre el Taijitu y la órbita elíptica es que ésta última también es una expresión íntegra de la totalidad: no sólo de las fuerzas internas sino también de fuerzas externas que contribuyen contemporáneamente a su forma. Si el mecanismo de compensación sirve de regulación efectiva no puede afectar sólo a los potenciales sino igualmente a las fuerzas.