The religion of prediction and the knowledge of the slave

In calculus, infinitesimal quantities are an idealization, and the concept of limit, provided to support the results obtained, is a rationalization. This dynamics going from idealization to rationalization is inherent to the liberal-materialism or material liberalism of modern science. Idealization is necessary for conquest and expansion; rationalization, to colonize and consolidate all that conquered. The first reduces in the name of the subject, which is always more than any object x, and the second reduces in the name of the object, which becomes nothing more than x.

But going to the extremes does not grant at all that we have captured what is in between, which in the case of calculus is the constant differential 1. To perceive what does not change in the midst of change, that is the great merit of Mathis’ argument; that argument recognizes at the core of the concept of function that which is beyond functionalism, since physics has assumed to such an extent that it is based on the analysis of change, that it does not even seem to consider what this refers to.

Think about the problem of knowing where to run to catch fly balls—evaluating a three-dimensional parabola in real time. It is an ordinary skill that even recreational baseball players perform without knowing how they do it, but its imitation by machines triggers the whole usual arsenal of calculus, representations, and algorithms. However, McBeath et al. more than convincingly demonstrated in 1995 that what outfielders do is to move in such a way that the ball remains in a constant visual relation —at a constant relative angle of motion- instead of making complicated time estimates of acceleration as the heuristic model based on calculus intended [65]. Can there be any doubt about this? If the runner makes the correct move, it is precisely because he does not even consider anything like the graph of a parabola. Mathis’ method is equivalent to put this in numbers.

Continuar leyendo “The religion of prediction and the knowledge of the slave”

La religión de la predicción y el saber del esclavo

En el cálculo, las cantidades infinitesimales son una idealización, y el concepto de límite que se aporta para fundamentar los resultados obtenidos, una racionalización. La dinámica idealización-racionalización es consustancial al material-liberalismo o liberalismo material de la ciencia moderna. La idealización es necesaria para la conquista y la expansión; la racionalización, para colonizar y consolidar el terreno conquistado. La primera reduce en el nombre del sujeto, que siempre es más que cualquier objeto x, y la segunda reduce en nombre del objeto, que se convierte en nada más que x.

Pero irse a los extremos no asegura para nada que hayamos captado lo que queda en medio, que en el caso del cálculo es el diferencial constante. Percibir lo que no cambia en medio del cambio, ése es el gran mérito del argumento de Mathis, que ninguna otra consideración le puede quitar. Ese argumento tiene la virtud de encontrar en el núcleo del concepto de función aquello que está más allá del funcionalismo, pues la física ha asumido hasta tal punto que se basa en el análisis del cambio, que ni siquiera parece plantearse a qué está referido éste.

Piénsese en el problema de calcular la trayectoria de la pelota tras un batazo para cogerla —evaluar una parábola tridimensional en tiempo real. Es una habilidad ordinaria que los jugadores de béisbol realizan sin saber cómo la hacen, pero cuya reproducción por máquinas dispara todo el arsenal habitual de cálculos, representaciones y algoritmos. Sin embargo McBeath et al. demostraron en 1995 de forma más que convincente que lo que hacen los jugadores es moverse de tal modo que la bola se mantenga en una relación visual constante —en un ángulo constante de movimiento relativo-, en lugar de hacer complicadas estimaciones temporales de aceleración como se pretendía [65]. ¿Puede haber alguna duda al respecto? Si el corredor hace la evaluación correcta, es precisamente porque en ningún momento ve nada parecido al gráfico de una parábola. El método de Mathis equivale a tabular esto en números.

Continuar leyendo “La religión de la predicción y el saber del esclavo”

Individual evolution of an entity

The so-called “new synthesis” of the theory of evolution has never had the least predictive power, but neither has any descriptive power, and like cosmology, it has been used mostly as a narrative complement for normative physical laws unable to connect with the real world and the real time in the most decisive sense.

To alleviate the evident limitations of a theory that only through phantasy can have some contact with natural forms —and let us not underestimate the power of fantasy in this instance-, evolution has been combined with the perspective of biological development (evo-devo), and even with ecology (eco-evo-devo), but even then it has not been possible to create a moderately unitary framework to describe problems such as the emergence, maturation, aging and death of organized beings.

There is no need to call all this by any other name than evolution without further ado, since the present theory has only taken over the name to deal with speculative and remote issues, rather than with close and fully approachable problems.

What determines the aging and death of individual organisms and societies? This is a real evolution problem that takes us closer to the real time.

Astrophysicist Eric Chaisson has observed that the energy rate density is a much more decisive and unequivocal measure for complexity metrics and evolution than the various uses of the concept of entropy, and his arguments are fairly straightforward and convincing [60]. In any case it would be desirable to include this quantity in a context better articulated with other physical principles.

Georgiev et al. have attempted to do so by establishing a feedback loop between this energy flow, the physical principle of minimum action understood as efficiency or as movement along paths with less curvature or restriction, and a quantitative principle of maximum action; that is, with the “metabolic” energy flow per mass mediating between efficiency and size, applying it experimentally to CPUs as organized flow systems [61]. When these flow-efficiency-size vertices are connected in a positive feedback loop, an exponential growth of all three is produced and power-law relations between them arise. Although this model admits many improvements and can be illustrated in very different ways, it seems on the right track.

Since the basic problem of aging is the increasing restriction and the inability to overcome it, and any theory not addressing this fundamental issue cannot make a dent in the subject. Another way of saying the same is that organic aging is the increasing inability to eliminate. Aging is irreversibility, and irreversibility is the increasing incapacity to be an open system.

Let us think a bit about this. Something as basic and elementary in physics as the principle of least action is capable of telling us something absolutely essential about aging: to understand the real value of this we only have to know how to apply global measurements in the context of open systems with a variable use of the available free energy.

The theoretical advance in this field is infinitely more feasible than in the modern synthesis and infinitely more relevant, since here it is no longer a question of species, but of the destiny and individual evolution of any spontaneous organization, be it a vortex or a soliton, a human being or a civilization; to a large extent it affects even the Lamarckian evolution of machines and computers with a definite design and purpose.

The energy rate density is a measurable, unambiguous quantity, profoundly significant from a cosmic perspective, and can also have a bearing on bringing down to earth unmanageable entropy criteria. Naturally, the flow-curvature-size criterion can be contrasted with the flow-curvature-entropy criterion, whether the latter is maximum or not.

This threefold flow density-curvature-size criterion can be applied fruitfully to contexts where flow is the decisive factor, be it in strongly quantitative models like the monetary flows, or in purely qualitative models of vortices evolving between expansion and contraction such as the one proposed by Venis. It can be applied even to the circle of individual destiny, suggesting a clock of its evolution, which in today’s terminology many would call an aging clock.

From monopoles to polarity

Polarity was always an essential component of natural philosophy and even of plain thought, but the advent of the theory of electric charge replaced a living idea with a mere convention.

Regarding the universal spherical vortex, we mentioned earlier Dirac’s monopole hypothesis. Dirac conjectured the existence of a magnetic monopole just for the sake of symmetry: if there are electric monopoles, why can not exist magnetic monopoles too?

Mazilu, following E. Katz, suggest quietly that there is no need to complete this symmetry, since we already have a higher order symmetry: the magnetic poles appear separated by portions of matter, and the electric poles only appear separated by portions of space. This is in full accordance with the interpretation of electromagnetic waves as a statistical average of what occurs between space and matter.

And this puts the finger on the point everybody tries to avoid: it is said that the current is the effect that occurs between charges, but actually it is the charge what is defined by the current. Elementary charge is a postulated entity, not something that follows from definitions. Mathis can rightly say that the idea of elementary charge can be completely dispensed with and replaced by mass, which is justified by dimensional analysis and greatly simplifies the picture —freeing us, among other things, from “vacuum constants” such as permittivity and permeability that are completely inconsistent with the word “vacuum” [50].

In this light, there are no magnetic monopoles, because there are no electric monopoles nor dipoles to begin with. The only things that would exist are gradients of a neutral charge, photons producing attractive or repulsive effects according to the relative densities and the screening exerted by other particles. And by the way, it is this purely relative and changing sense of shadow and light what characterized the original notion of yin and yang and polarity in all cultures until the great invention of elementary charge.

So it can well be said that electricity killed polarity, a death that will not last long since polarity is a much larger and more interesting concept. It is truly liberating for the imagination and our way of conceiving Nature to dispense with the idea of bottled charges everywhere.

Yes, it is more interesting even for such a theoretical subject as the monopole. Theoretical physicists have even imagined global cosmological monopoles. But it is enough to imagine a universal spherical vortex like the one already mentioned, without any kind of charge, but with self-interaction and a double motion for the rotations associated with magnetism and the attractions and repulsions associated with charges to arise. The same reversals of the field in Weber’s electrodynamics already invited to think that the charge is a theoretical construct.

We should come to see electromagnetic attraction and repulsion as totally independent of charge, and conversely, the unique field that includes gravity, as capable of both attraction and repulsion. This is the condition, not to unify, but to approach the effective unity that we presuppose in Nature.


The issue of polarity leads us to think of another great theoretical problem for which an experimental correlate is sought: the Riemann zeta function. As we know, basic aspects of this function present an enigmatic similarity with the random matrices of subatomic energy levels and many other collective features of quantum mechanics. Science looks for mathematical structures in physical reality, but here on the contrary we would have a physical structure reflected in a mathematical reality. Great physicists and mathematicians such as Berry or Connes proposed more than ten years ago to confine an electron in two dimensions under electromagnetic fields to “get its confession” in the form of the zeros of the function.

Polar zeta

There has been a great deal of discussion about the dynamics capable of recreating the real part of the zeros of the Riemann zeta function. Berry surmises that this dynamics should be irreversible, bounded and unstable, which makes a big difference for the ordinary processes expected from the current view of fundamental fields, but it is closer to quantum thermomechanics, or what is the same, irreversible quantum thermodynamics. Moreover, it seems that what it is at stake here is the most basic arithmetic relationship between addition and multiplication, as opposed to the scope of multiplicative and additive reciprocities in physics.

Most physicists and mathematicians think that there is nothing to scratch about the nature of the imaginary numbers or the complex plane; but as soon as they have to deal with the zeta function, there is hardly anyone who does not begin with an interpretation of the zeros of the function —especially when it comes to its connections with quantum mechanics. So it seems that only when there are no solutions the interpretation matters.

Maybe it would be healthy to purge the calculus in the sense that Mathis asks for and see to what extent it is possible to obtain results in the domain of quantum mechanics without resorting to complex numbers or the stark heuristics methods of renormalization. In fact, in Mathis’ version of calculus each point is equivalent to at least one distance, which should give us additional information. If the complex plane allows extensions to any dimension, we should check what is its minimum transposition into real numbers, both for physical and arithmetic problems. After all, Riemann’s starting point was the theory of functions, rather than number theory.

Surely if physicists and mathematicians knew the role of the complex plane in their equations they would not be thinking of confining electrons in two dimensions and other equally desperate attempts. The Riemann zeta function is inviting us to inspect the foundations of calculus, the bases of dynamics, and even our models of the point particles and elementary charge.

The zeta function has a pole at unity and a critical line with a value of 1/2 where lie all its known non-trivial zeros. The carriers of “elementary charge”, the electron and the proton, both have a spin with a value of 1/2 and the photon that connects them, a spin with a value equal to 1. But why should spin be a statistical feature and not charge? Possibly the interest of the physical analogies for the zeta function would be much greater if the concept of elementary charge were to be dispensed with.

That the imaginary part of the electron wave function is linked to spin and rotation is no mystery. But the imaginary part associated with the quantization of particles of matter or fermions, among which is the electron has no obvious relation with spin. However, in classical electromagnetic waves we can deduce that the imaginary part of the electrical component is related to the real part of the magnetic component, and vice versa. The scattering amplitudes and their analytical continuation cannot be separated from the spin statistics, and vice versa; and both are associated with timelike and spacelike phenomena respectively. There can be also different analytical continuations with different meanings and geometrical interpretations in the Dirac algebra.

In electrodynamics all the development of the theory goes very explicitly from global to local. Gauss’ divergence theorem of integral calculus, which Cauchy used to prove his residue theorem of complex analysis, is the prototype of the cyclic or period integral. Like Gauss law of electrostatics, is originally independent of metric, though this is seldom taken into account. The Aharonov-Bohm integral, a prototype of geometric phase, is very similar in structure to the Gauss integral.

As Evert Jan Post emphasize time and again, the Gauss integral works as a natural counter of net charge, just as the Aharonov-Bohm integral works for quantized units of flux in self-interaction of beams. This clearly speaks in favor of the ensemble interpretation of quantum mechanics, in contrast to the Copenhagen interpretation stating that the wave function corresponds to a single individual system with special or non-classical statistics. The main statistical parameters here would be, in line with Planck’s 1912 work in which he introduced the zero point energy, the mutual phase and orientation of the ensemble elements [51]. Of course orientation is a metric-independent property.

Naturally, this integral line of reasoning shows its validity in the quantum Hall effect and its fractional variant, present in two-dimensional electronic systems under special conditions; this would bring us back to the above-mentioned attempts of electron confinement, but from the angle of classical, ordinary statistics. In short, if there is a correlation between this function and atomic energy levels, it should not be attributed to some special property of quantum mechanics but to the large random numbers generated at the microscopic level.

If we cannot understand something in the classical domain, hardly we will see it more clearly under the thick fog of quantum mechanics. There are very significant correlates of Riemann zeta in classical physics without the need to invoke quantum chaos; and in fact well known models such as those of Berry, Keating and Connes are semiclassical, which is a way to stay in between. We can find a purely classical exponent of the zeta function in dynamic billiards, starting with a circular billiard, which can be extended to other shapes like ellipses or the so-called stadium shape, a rectangle capped with two semicircles.

The circular billiard dynamics with a point particle bouncing is integrable and allows to model, for instance, the electromagnetic field in resonators such as microwave and optical cavities. If we open holes along the boundary, so that the ball has a certain probability of escape, we have a dissipation rate and the problem becomes more interesting. Of course, the probability depends on the ratio between the size of the holes and the size of the perimeter.

The connection with the prime numbers occurs through the angles in the trajectories according to a module 2 π/n. Bunimovich and Detteman showed that for a two hole problem with holes separated by 0º, 60º, 90º, 120º or 180º the probability is uniquely determined by the pole and non-trivial zeros of the Riemann zeta function [52]. The sum over can be determined explicitly and involves terms that can be connected with Fourier harmonic series and hypergeometric series. I do not know if this result may be extended to elliptical boundaries, which are also integrable. But if the boundary of the circle is smoothly deformed to create a stadium-like shape, the system is not integrable anymore and becomes chaotic, requiring an evolutionary operator.

Dynamic billiards have multiple applications in physics and are used as paradigmatic examples of conservative systems and Hamiltonian mechanics; however the “leakage” allowed to the particles is nothing more than a dissipation rate, and in the most explicit manner possible. Therefore, our guess that the zeta should be associated with thermomechanical systems that are irreversible at a fundamental level it is plain to understand —it is Hamiltonian mechanics that begs the exception to begin with. Since it is assumed that fundamental physics is conservative, there is a need for “a little bit open” closed systems, when, according to our point of view, what we always have is open systems that are partially closed. And according to our interpretation, physics has the question upside-down: a system is reversible because it is open, and it is irreversible to the extent that becomes closed, differentiated from the fundamental homogeneous medium.

From a different angle, the most apparent aspect of electromagnetism is light and color. Goethe said that color was the frontier phenomenon between shadow and light, in that uncertain region we call penumbra. Of course his was not a physical theory, but a phenomenology, which not only does not detract from it but adds to it. Schrödinger’s theory of color space of 1920, based on arguments of affine geometry though with a Riemannian metric, is somewhat halfway between perception and quantification and can serve us, with some improvements introduced later, to bring together visions that seem totally unconnected. Mazilu shows that it possible to obtain matrices similar to those arising from field interactions [53].

Needless to say, the objection to Goethe was that his concept of polarity between light and darkness, as opposed to the sound polarity of electric charge, was not justified by anything, but we believe that it is just the opposite. All that exists are density gradients; light and shadow can create them, a charge that is only a + or — sign attached to a point, can not. Colors are within light-and-darkness as light-and-darkness are within space-and-matter.

It is said, for example, that the Riemann zeta function could play the same role for chaotic quantum systems as the harmonic oscillator does for integrable quantum systems. Maybe. But do we know everything about the harmonic oscillator? Far from it, as the Hopf fibration or the monopole remind us. On the other hand, the first appearance of the zeta function in physics was with Planck’s formula for blackbody radiation, where it enters the calculation of the average energy of what would later be called “photons”.

The physical interpretation of the zeta function always forces us to consider the correspondences between quantum and classical mechanics. Therefore, a problem almost as intriguing as this should be finding a classical counterpart to the spectrum described by Planck’s law; however, there seems to be no apparent interest in this. Mazilu, again, reminds us the discovery by Irwin Priest in 1919 of a simple and enigmatic transformation under which Planck’s formula yields a Gaussian, normal distribution with an exquisite correspondence over the whole frequency range [54].

In fact, the correspondence between quantum mechanics and classical mechanics is an incomparably more relevant issue on a practical and technological level than that of the zeta function. As for the theory, there is no clarification from quantum mechanics about where the transition zone would be. There are probably good reasons why this field receives apparently so little attention. However, it is highly probable that Riemann’s zeta function unexpectedly connects different realm of physics, making it a mathematical object of unparalleled depth.

The point is that there is no interpretation for the cubic root of the frequency of Priest transformation. Referring to the cosmic background radiation, “and perhaps to thermal radiation in general”, Mazilu tries his best guess in order to finish with this observation: “Mention should be made that such a result can very well be specific to the way the measurements of the radiation are usually made, i.e. by a bolometer”. Leaving this transformation aside, various more or less direct ways of deriving Planck’s law from classical assumptions have been proposed, from that suggested by Noskov on the basis of Weber’s electrodynamics to that of C.K. Thornhill [55]. Thornhill proposed a kinetic theory of electromagnetic radiation with a gaseous ether composed of an infinite variety of particles, where the frequency of electromagnetic waves is correlated with the energy per unit mass of the particles instead of just the energy —obtaining the Planck distribution in a much simpler way.

The statistical explanation of Plank’s law is already known, but Priest’s Gaussian transformation demands a physical explanation for classical statistics. Mazilu makes specific mention of the measurement device used, in this case the bolometer, based on an absorptive element —the Riemann zeta function is said to correspond to an absorption spectrum, not an emission spectrum. If today metamaterials are used to “illustrate” space-time variations and mock black holes —where the zeta function is also used to regularize calculations- they could be used with much sounder arguments to study variations of the absorption spectrum to attempt a reconstruction by a sort of reverse engineering. The enigma of Priest’s formula could be approached from a theoretical as well as a practical and constructive point of view —although the very explanations for the performance of metamaterials are controversial and would have to be purged of numerous assumptions.

Of course by the time Priest published his article the idea of quantization had already won the day. His work fell into oblivion, and little else is known about the author except for his dedication to colorimetry, in which he established a criterion of reciprocal temperatures for the minimum difference in color perception [56]; of course these are perceptive temperatures, not physical ones; the correspondence between temperatures and colors was never found. If there is an elementary additive and subtractive algebra of colors, there must also be a product algebra, surely related to their perception. This brings to mind the so-called non-spectral line of purples between the red and violet ends of the spectrum, the perception of which is limited by the luminosity function. With a proper correspondence this could give as a beautiful analogy that the reader may try to guess.

On the other hand, it should not be forgotten that Planck’s constant has nothing to do with the uncertainty in the energy of a photon, though today they are routinely associated [57]. Noskov’s longitudinal vibrations in the moving bodies immediately remind us of the zitterbewegung or “trembling motion” introduced by Schrödinger to interpret the interference of positive and negative energy in the relativistic Dirac equation. Schrödinger and Dirac conceived this motion as “a circulation of charge” generating the magnetic moment of the electron. The frequency of the rotation of the zbw would be of the order of 1021 hertz, too high for detection except for the resonances.

David Hestenes has analyzed various aspects of the zitter in his view of quantum mechanics as self-interaction. P. Catillon et al. conducted an electron channeling experiment on a crystal in 2008 to confirm de Broglie’s internal clock hypothesis. The resonance detected experimentally is very close to the de Broglie frequency, which is half the frequency of the zitter; the de Broglie period would be directly associated with mass, as has recently been suggested. There are several models for creating resonances with the electron reproducing the zeta function in cavities and Artin’s dynamic billiards, but they are not usually associated with the zitter or the de Broglie internal clock, since this does not fit into the conventional version of quantum mechanics. On the other hand, it would be advisable to consider a totally classical zero-point energy as can be followed from the works of Planck and his continuators in stochastic electrodynamics, though all these models are based on point particles [58].

Math, it is said, is the queen of sciences, and arithmetic the queen of mathematics. The fundamental theorem of arithmetic places prime numbers at its center, as the more irreducible aspect of the integer numbers. The main problem with prime numbers is their distribution, and the best approximation to their distribution comes from the Riemann zeta function. This in turn has a critical condition, which is precisely to find out if all the non-trivial zeros of the function lie on the critical line. Time past and competition among mathematicians have turn the task of proving the Riemann hypothesis into the K-1 of mathematics, which would involve a sort of duel between man and infinity.

William Clifford said that geometry was the mother of all sciences, and that one should enter it bending down like children; it seems on the contrary that arithmetic makes us more haughty, because in order to count we do not need to look down. And that, looking down to the most elementary and forgetting about the hypothesis as much as possible, would be the best thing for the understanding of this subject. Naturally, this could also be said of countless questions where the overuse of mathematics creates too rarefied a context, but here at least a basic lack in understanding is admitted.

There seem to be two basic ways of understanding the Riemann zeta function: as a problem posed by infinity or as a problem posed by unity. So far modern science, driven by the history of calculus, has been much more concerned with the first aspect than with the second, even if both are inextricably linked.

It has been said that if a zero is found outside the critical line —if Riemann’s hypothesis turns out to be false-, that would create havoc in number theory. But if the first zeros already evaluated by the German mathematician are well calculated, the hypothesis can be practically taken for granted, without the need to calculate more trillions or quadrillions of them. In fact, and in line with what was said in the previous chapter, it seems much more likely to find flaws in the foundations of calculus and its results than to find zeros off the line, and in addition the healthy creative chaos that would produce would surely not be confined to a single branch of math.

Of course, this applies to the evaluation of the zeta function itself. If Mathis’ simplified calculus, using a unitary interval criterion, finds divergences even for the values of the elementary logarithmic function, these divergences would have to be far more important in such convoluted calculations like those of this function. And in any case it gives us a different criterion for the evaluation of the function; furthermore, there might be a criterion to settle if certain divergences and error terms cancel out.

The devil’s advocates in this case would not have done the most important part of their work yet. On the other hand, fractional derivatives of this function have been calculated allowing us to see where the real and imaginary parts converge; this is of interest both for complex analysis and physics. In fact it is known that in physical models the evolution of the system with respect to the pole and zeros usually depends on the dimension, which in many cases is fractional or fractal, and even multi-fractal for potentials associated with the number themselves.

Arithmetic and counting exist primarily in the time domain, and there are good reasons to think that methods based on finite differences should take a certain kind of preference when dealing with changes in the time domain —since with infinitesimals the act of counting dissolves. The fractional analysis of the function should also be concerned with sequential time. Finally, the relationship between discrete and continuous variables characteristic of quantum mechanics should also be connected with the methods of finite differences.

Quantum physics can be described more intuitively with a combination of geometric algebra and fractional calculus for cases containing intermediate domains. In fact, these intermediate domains can be much more numerous than we think if we take into account both the mixed assignment of variables in orbital dynamics and the different scales at which waves and vortices can occur between the field and the particles in a different perspective like Venis’. The same self-interaction of the zitterbewegung calls for a much greater concreteness than hitherto achieved. This movement allows, among other things, a more directly geometric, and even classical, translation of the non-commutative aspects of quantum mechanics which in turn allow for a key natural connection between discrete and continuous variables.

Michel Riguidel makes the zeta function object of an intensive work of interaction in search of a morphogenetic approach. It would be great if the computing power of machines can be used to refine our intuition, interpretation and reflection, rather than the other way around. However, here it is easy to present two major objections. First, the huge plasticity of the function, which although completely differentiable, according to Voronin’s theorem of universality contains any amount of information an infinite number of times.

The second objection is that if the function already has an huge plasticity, and on the other hand graphics can only represent partial aspects of the function at any rate, further deformations and transformations, however evocative they may be, still introduce new degrees of arbitrariness. The logarithm can be transformed into a spiral halfway between the line and the circle, and create spiral waves and whatnot, but in the end they are just representations. The interest, at any rate, is in the interaction function-subject-representation —the interaction between mathematical, conceptual and representational tools.

But there is no need for more convoluted concepts. The greatest obstacle to go deeper into this subject, as in so many others, lies in the stark opposition to examining the foundations of calculus, classical and quantum mechanics. The more complex the arguments to prove or disprove the hypothesis, be it true or false, the less importance the result can have for the real world.

It is often said that the meaning of the Riemann hypothesis, and even of all the computed zeros of the function, is that the prime numbers have as random a distribution as possible, which of course leaves wide open how much randomness is possible. We may have no choice but to talk about apparent randomness.

But even so, there we have it: the highest degree of apparent randomness in a simple linear sequence generalizable to any dimension hides an ordered structure of unfathomable richness.

Michel Riguidel: Morphogenesis of the Zeta Function in the Critical Strip by Computational Approach
Michel Riguidel: Morphogenesis of the Zeta Function in the Critical Strip by Computational Approach


Let us return to the qualitative aspect of polarity and its problematic relationship with the quantitative realm. Not only the relation between the qualitative and the quantitative is problematic, but the qualitative interpretation itself raises a basic question inevitably connected with the quantitative.

For P. A. Venis everything can be explained with yin and yang, seen in terms of expansion and contraction, and of a higher or a lower dimension. Although this interpretation greatly deepens the possibility of connection with physics and mathematics, the version of the yin yang theory he uses is that of the Japanese practical philosopher George Ohsawa. In the Chinese tradition, yin is basically related to contraction and yang to expansion. Venis surmises that the Chinese interpretation may be more metaphysical and Ohsawa’s more physical; and latter he thinks that the former could be more related to the microcyclical processes of matter and the latter to the mesocyclical processes more typical of our scale of observation, but both views seem to be quite divergent.

Without resolving these very basic differences we cannot expect to soundly connect these categories with quantitative aspects, although one may still speak of contraction and expansion, with or without relation to dimensions. But on the other hand, any reduction of such vast and nuanced categories to mere linear relations with coefficients of separate aspects such as “expansion” or “contraction” runs the risk of becoming a poor simplification dissolving the value of the qualitative in appreciating nuances and degrees.

Venis’ interpretation is not superficial at all, and on the contrary it is easy to see that it gives a much deeper dimension, quite literally, to these terms. The extrapolation to aspects such as heat and color may seem to lack the desirable quantitative and theoretical justification, but in any case they are logical and consistent with his general vision and are wide open to delve into the subject. However, the radical disagreement on the most basic qualifications is already a challenge for interpretation.

It should be said right from the start that the Chinese version cannot be reduced to the understanding of yin and yang as contraction and expansion, nor to any pair of conceptual opposites to the exclusion of all the others. Contraction and expansion are only one of the many possible pairs, and even if they are often used, as with any other pair they depend entirely on the context. Perhaps the most common use is that of “full” and “empty”, which on the other hand is intimately linked to contraction and expansion, although they are far from identical. Or also, depending on the context, the tendency towards fullness or void; it is not for nothing the common distinction between young and old yang, or young and old yin. Reversal is the way of Tao, so it is only natural that these points of potential, spontaneous reversal are also notorious in the Taijitu.

On the other hand, qualities such as full and empty not only have a clear translation in differential terms for field theories, hydrodynamics or even thermodynamics, but also have an immediate meaning, although much more diffuse, for our inner sense, which is precisely the common sense or sensorium as a whole, our undifferentiated sensation prior to the imprecise “sensory cut” which seems to generate the field of our five senses. This common sensorium also includes kinesthesia, our immediate perception of movement and our self-perception, which can be both of the body and of consciousness itself.

This inner sense or common sensorium is just another expression for the homogeneous, undivided medium that we already are —the background and tacit reference for feeling, perception and thought. And any kind of intuitive or qualitative knowledge takes that as the reference, which obviously goes beyond any rational or sensory criteria of discernment. Conversely, we could say that this background is obviated in formal thought but is assumed in intuitive knowledge. Physicists often speak of a result being “counter-intuitive” only in the sense that it goes against the expected or acquired knowledge, not against intuition, which it would be vain to define.

However it would be absurd to say that the qualitative and the quantitative are completely separate spheres. Mathematics is both qualitative and quantitative. We use to hear that there are more qualitative branches, like topology, and more quantitative branches like arithmetic or calculus, but on closer inspection this hardly makes any sense. Venis’ morphology is totally based on the idea of flow and on such elementary notions as points of equilibrium and points of inversion. Newton himself called his differential calculus “method of fluxions”, the analysis of fluent quantities, and the methods for evaluating curves are based on the identification of turning points. So there is a compatibility that not only is not forced but it is natural; if modern science has advanced in the opposite direction towards increasing abstraction, which in turn is the just counterbalance to its utilitarianism, is another story.

Polarity and duality are quite different things but it is useful to perceive their relation before the convention of electric charge was introduced. The reference here cannot fail to be the electromagnetic theory, which is the basic theory of light and matter, and to a large extent also of space and matter.

Obviously, it would be absurd to say that a positive charge is yang and a negative charge is yin, since between both there is only an arbitrary change of sign. In the case of an electron or a proton other factors come in play, such as the fact that one is much less massive than the other, or that one is peripheral and the other is at the core of the atom. Let us take another example. At the biological and psychological level, we live between stress and pressure, which frame our way of perceiving things. But it would also be absurd to say that one or the other is yin or yang insofar as we understand tension only as a negative pressure, or viceversa. In other words, mere changes of sign seems to us trivial; but they become more interesting qualitatively and quantitatively when they involve other transformations.

Whether all or nothing is trivial depends only on our knowledge and attention; a superficial knowledge may judge as trivial things that in fact are are full of content. The polarity of charge may seem trivial, as may seem the duality of electricity and magnetism, or the relationship between kinetic and potential energy. Actually none of them is trivial at all, but when we try to see everything together we already have a space-time algebra with a huge range of variants.

In the case of pressure and stress or tension, the more apparent transformation is the deformation of a material. Strain-stress-pressure relations define, for instance, the properties of the pulse, whether in the pulsology of traditional Chinese or Indian medicine or in modern quantitative pulse analysis; but that also leads us to the stress-strain relations that define the constitutive law in materials science. Constitutive relations, on the other hand, are the complementary aspect of Maxwell’s electromagnetic field equations that tell us how the field interacts with matter.

It is usually said that electricity and magnetism, which are measured with dimensionally different units, are the dual expression of the same force. As we have already pointed out, this duality implies the space-matter relationship, both for the waves and for what is supposed to be the material support of the electric and magnetic polarity; in fact, and without going into further detail, this seems to be the key distinction.

All gauge field theories can be expressed by forces and potentials but also by non-trivial pressure-strain-stress variations that involve feedback, and there is feedback at any rate because first of all there is a global balance, and only then a local one. These relations are already present in Weber force law, only in this one what is “deformed” is force, instead of matter. The great virtue of Maxwell’s theory is to make explicit the duality between electricity and magnetism, hidden in Weber’s law. But we must insist, with Nicolae Mazilu, that we can find the essence of the gauge theory already in Kepler’s problem.

Constitutive relations with definite values such as permittivity and permeability cannot occur in empty space, so they can only be a statistical average of what occurs in between matter and space. Matter can sustain stress without exhibiting strain or deformation, and space can deform without stress or tension —this runs in parallel with the basic signatures of electricity and magnetism, which are tension and deformation. Strain and tension are not yin or yang, but to yield easily to deformation is yin, and to withstand tension without deformation is yang —at least as far as the material aspect is concerned. Of course between both there must be a whole continuous spectrum, often affected by many other considerations.

However, from the point of view of space, to which we do not have direct access but through the mediation of light, we could see the opposite: the expansion without coercion would be pure yang, while the contraction may be seen as a reaction of matter to the expansion of space, or the radiations that fill it. The waves of radiation themselves are an intermediate and alternate process between contraction and expansion, between matter and space, which cannot exist separately. However, a deformation is a purely geometrical concept, while a tension or a force is not, being here where the proper domain of physics begins.

Perhaps in this way a criterion for reconciling the two interpretations can be discerned, not without careful attention to the overall picture of which they are part; each may have its range of application, but they cannot be totally separate.

It is a law of thought that concepts appear as pairs of opposites, there being an infinity of them; finding their relevance in nature is something else, and the problem becomes nearly unsolvable when quantitative sciences introduce their own concepts that are also subject to antinomies but of a very different order and certainly much more specialized. However, the simultaneous attention to the whole and to the details makes this a task far from impossible.

Much have been said about holism and reductionism in sciences but it must be remembered that physics to start with, never has been described in rigorously mechanical terms. Physicists hold onto the local application of gauge fields, only because that is what give them predictions, but the very concept of Lagrangian that makes all that possible is integral or global, not local. What is surprising is that this global character has not a proper use in fields such as medicine or biophysics.

Starting from these global aspects of physics, a genuine and meaningful connection between the qualitative and the quantitative is much more feasible. The conception of yin and yang is only one of many qualitative readings man has made of nature, but even taking into account the extremely fluid character of these distinctions it is not difficult to establish the correspondences. For example, with the three gunas of Samkya or the four elements and four humors of the Western tradition, in which fire and water are the extreme elements and air and earth are the intermediate ones; these also can be seen in terms of contraction and expansion, of pressure, tension and deformation.

Needless to say, the idea of balance is not exclusive of the Chinese conception either, since the same cross and the quaternary have always had a connotation of equilibrium that is totally elemental and of universal character. It is rather in modern physics that equilibrium ceases to have a central place due to inertia, although it cannot cease to be omnipresent and essential for the use of reason itself, as it is for logic and algebra. The possibility of contact between quantitative and qualitative knowledge depends both on the precise location we give to the concept of equilibrium and the correct appreciation of the context and global features of the so-called mechanics.

Unlike the usual scientific concepts, which inevitably tend to become more detailed and specialized, notions such as yin and yang are ideas of utmost generality, indexes to be identified in the most specific contexts; if we pretend to define them too much they also lose the generality that gives them their value as an intuitive aid. But also the most general ideas of physics have been subject to constant evolution and modification depending on the context, and we only have to look at the continuous transformations of quantitative concepts such as force, energy or entropy, not to mention issues such as the criterion and range of application of the three principles of classical mechanics.

Vortices can be expressed in the elegant language of the continuum, of compact exterior differential forms or geometric algebra; but vortices speak above all with a language very similar to that of our own imagination and the plastic imagination of nature. Therefore, when we observe the Venis sequence and its wide range of variations, we know that we have find an intermediate, but genuine, ground between mathematical physics and biology. In both, form follows function, but in the reverse engineering of nature that human science is, function should follow form to the very end.

In Venis account there is a dynamic equilibrium between the dimensions in which the vortex evolves. This widens the scope of the equilibrium concept but makes it more problematic to assess. Fractional calculus would have to be key to follow this evolution through the intermediate domains between dimensions, but this also rise interesting points for experimental measurements.

How dimensions higher than three can be interpreted is always an open question. If instead of thinking of matter as moving in a passive space, we think of matter as those portions to which space has no access, the same matter would start from the point or zero dimension. Then the six dimensions of the evolution of vortices would form a cycle from the emission of light by matter to the retraction of space and light into matter again —and the three additional dimensions would only be the process in the opposite direction, and from an inverse optic, which circumvent repetition.

This is just one way of looking at some aspects of the sequence among many possible ways, and the subject deserves a much more detailed study than we can devote to it here. One think is to look for some sort of symmetry, but there must be many more types of vortices than we know now, not to speak of the different scales of occurrence, and the multiple metamorphoses. Only in Venis’ work one can find the due introduction to these questions. Venis assumes the number of dimensions to be infinite, so we could not find and count them all. An indication of this would be the minimum number of meridians necessary to create a vortex, which increases exponentially with the number of dimensions and which the author associates with the Fibonacci series.

We can speak of polarity as long as we can appreciate a capacity for self-regulation. That is to say, not when we just count on apparently antagonistic forces, but when we can not help notice a principle above them. This capacity was always present since the very Kepler’s problem, and it is only telling that science has failed to recognize it. Weber’s force and potential are explicitly polar, Newton’s force is not, but the two-body problem exhibit a polar dynamics in any case. To call the evolution of celestial bodies “mechanics” is just a rationalization, and in fact we do not have a mechanical explanation of anything when we speak of fundamental forces, and probably we cannot have one. Only when we notice a self-regulating principle could we use the term dynamics honoring the original intention still present in that name.

Del monopolo a la polaridad

La polaridad fue siempre un componente esencial de la filosofía natural y aun del pensamiento sin más, pero la llegada de la teoría de la carga eléctrica sustituyó una idea viva por una simple convención.

A propósito del vórtice esférico universal, hablábamos antes de la hipótesis del monopolo de Dirac. Dirac conjeturó la existencia de un monopolo magnético por una mera cuestión de simetría: si existen monopolos eléctricos, ¿por qué no existen igualmente unidades de carga magnética?

Mazilu, siguiendo a E. Katz, razona que no hay ninguna necesidad de completar la simetría, puesto que en realidad ya tenemos una simetría de orden superior: los polos magnéticos aparecen separados por porciones de materia, y los polos eléctricos sólo se presentan separados por porciones de espacio vacío. Lo cual está en perfecta sintonía con la interpretación de las ondas electromagnéticas como un promedio estadístico de lo que ocurre entre el espacio y la materia.

Y que pone el dedo sobre la cuestión que se procura evitar: se dice que la corriente es el efecto que se produce entre cargas, pero en realidad es la carga la que está definida por la corriente. La carga elemental es una entidad postulada, no algo que se siga de las definiciones. Con razón puede decir Mathis que puede prescindirse por completo de la idea de carga elemental y sustituirla por la masa, lo que está justificado por el análisis dimensional y simplifica enormemente el panorama —librándonos entre otras cosas, de constantes del vacío como la permitividad y permeabilidad que son totalmente inconsecuentes con la misma palabra “vacío” [50].

Visto así, no se encuentran monopolos magnéticos porque para empezar tampoco existen ni monopolos eléctricos ni dipolos. Lo único que habría es gradientes de una carga neutra, fotones, produciendo efectos atractivos o repulsivos según las densidades relativas y la sombra o pantalla ejercida por otras partículas. Y por cierto, es este sentido puramente relativo y cambiante de la sombra y luz lo que caracterizaba la noción original del yin y el yang y la polaridad en todas las culturas hasta que llegó el gran invento de la carga elemental.

Así pues, bien puede decirse que la electricidad mató a la polaridad, muerte que no durará mucho tiempo puesto que la polaridad es un concepto mucho más vasto e interesante. Es verdaderamente liberador para la imaginación y nuestra forma de concebir la Naturaleza prescindir de la idea de cargas embotelladas por doquier.

Y es más interesante incluso para un objeto teorético tal como el monopolo. Los físicos teóricos han imaginado incluso monopolos cosmológicos globales. Pero basta con imaginar un vórtice esférico universal como el ya apuntado, sin ningún tipo de carga, pero con autointeracción y un movimiento doble para que surjan las rotaciones asociadas al magnetismo y las atracciones y repulsiones asociadas a las cargas. Las mismas inversiones del campo en la electrodinámica de Weber invitaban ya a pensar que la carga es un constructo teórico.

Deberíamos llegar a ver la atracción y repulsión electromagnéticas como totalmente independientes de las cargas, e inversamente, al campo único que incluye la gravedad, como capaz tanto de atracción como de repulsión. Esta es la condición, no ya para unificar, sino para acercarse a la unidad efectiva que presuponemos en la Naturaleza.


El tema de la polaridad nos lleva a pensar en otro gran problema teórico para el que se busca un correlato experimental: la función zeta de Riemann. Como es sabido ésta presenta una enigmática semejanza con las matrices aleatorias que describen niveles de energía subatómicos y otros muchos aspectos colectivos de la mecánica cuántica. La ciencia busca estructuras matemáticas en la realidad física, pero aquí por el contrario tendríamos una estructura física reflejada en una realidad matemática. Grandes físicos y matemáticos como Berry o Connes propusieron hace más de diez años confinar un electrón en dos dimensiones y someterlo a campos electromagnéticos para «obtener su confesión» con la forma de los ceros de la función.

Polar zeta

Se ha conjeturado ampliamente sobre la dinámica idónea para recrear la parte real de los ceros de la función zeta. Berry conjetura que esta dinámica debería ser irreversible, acotada e inestable, lo cual la aleja de los estados ordinarios de los campos fundamentales, pero no tanto de las posibilidades termomecánicas; tanto más si lo que está en cuestión es la relación aritmética entre la adición y la multiplicación, frente al alcance de las reciprocidades multiplicativas y aditivas en física.

Los físicos y matemáticos piensan en su inmensa mayoría que no hay nada que interpretar en los números imaginarios o el plano complejo; sin embargo, en cuanto se toca la función zeta, apenas hay nadie que no empiece por hablar de la interpretación de los ceros de la función —especialmente cuando se trata de su relación con la mecánica cuántica. A este respecto todo son muy débiles conjeturas, lo que demuestra que basta con que no se tengan soluciones para que sí haya un problema de interpretación, y de gran magnitud, por lo demás.

Tal vez, para saber a qué atenerse, habría que depurar el cálculo en el sentido en que lo hace Mathis y ver hasta qué punto se pueden obtener los resultados de la mecánica cuántica sin recurrir a los números complejos ni a los métodos tan crudamente utilitarios de la renormalización. De hecho en la versión del cálculo de Mathis cada punto equivale al menos a una distancia, lo que debería darnos información adicional. Si el plano complejo permite extensiones a cualquier dimensión, deberíamos verificar cuál es su traducción mínima en números reales, tanto para problemas físicos como aritméticos. Después de todo, el punto de partida de Riemann fue la teoría de funciones y el análisis complejo, antes que la teoría de los números.

Seguramente si físicos y matemáticos conocieran el rol del plano complejo en sus ecuaciones no estarían pensando en confinar electrones en dos dimensiones y otras tentativas igualmente desesperadas. La función zeta de Riemann nos está invitando a inspeccionar los fundamentos del cálculo, las bases de la dinámica, y hasta el modelo de la partícula puntual y carga elemental.

La función zeta tiene un polo en la unidad y una línea crítica con valor de 1/2 en la que aparecen todos los ceros no triviales conocidos. Obviamente los portadores de la “carga elemental”, el electrón y el protón, tienen ambos un espín con valor de 1/2 y el fotón que los acopla, uno con valor igual a 1. ¿Pero porqué el espín ha de ser un valor estadístico y la carga no? Está claro que hay una conexión íntima entre la descripción de los bosones y fermiones y las propiedades de la función zeta, que ya se ha aplicado a muchos problemas. El interés de las analogías físicas para la función zeta sería posiblemente mucho mayor si se prescindiera del concepto de carga elemental.

Que la parte imaginaria de la función de onda del electrón está ligada al espín y a la rotación no es ningún misterio. La parte imaginaria de las partículas de materia o fermiones, entre las que se cuenta el electrón no tiene sin embargo ninguna relación obvia con el espín. Ahora bien, en las ondas electromagnéticas clásicas se observa que la parte imaginaria del componente eléctrico está relacionada con la parte real del componente magnético, y al revés. Las amplitudes de dispersión y su continuación analítica no pueden estar separadas de las estadísticas de espín, y viceversa; y ambos están respectivamente asociados con fenómenos de tipo tiempo y tipo espacio. También puede haber distintas continuaciones analíticas con distintas interpretaciones geométricas en el álgebra de Dirac.

En electrodinámica todo el desarrollo de la teoría va de la forma más explícita de lo global a lo local. El teorema integral de Gauss, que Cauchy usó para demostrar su teorema del residuo del análisis complejo, da el prototipo de integral cíclica o de periodo, y originalmente está libre de especificaciones métricas —como lo está la ley de electrostática de Gauss, aunque esto muy rara vez se recuerda. La integral de Aharonov-Bohm, prototipo de fase geométrica, tiene una estructura equivalente a la de Gauss.

Como subraya Evert Jan Post, la integral de Gauss funciona como un contador natural de unidades de carga, igual que la de Aharonov-Bohm lo es para unidades de flujo cuantizadas en la autointerferencia de haces. Esto habla en favor de la interpretación colectiva o estadística de la mecánica cuántica como opuesta a la interpretación de Copenhague que enfatiza la existencia de un sistema individual con estadísticas no-clásicas. Los principales parámetros estadísticos serían aquí, en línea con el trabajo de Planck de 1912 en el que introdujo la energía de punto cero, la fase mutua y la orientación de los elementos del conjunto [51]. No hay ni que decir que la orientación es un aspecto independiente de la métrica.

Ni que decir tiene, este razonamiento integral demuestra toda su vigencia en el efecto Hall cuántico y su variante fraccional, presente en sistemas electrónicos bidimensionales sometidos a condiciones especiales; lo que nos llevaría a los mencionados intentos de confinamiento de electrones, pero desde el ángulo de la estadística ordinaria. En definitiva, si hay una correlación entre la función y los niveles de energía atómicos, ello no debería atribuirse a alguna propiedad especial de la mecánica cuántica sino a los grandes números aleatorios que pueden generarse a nivel microscópico.

Si algo no lo podemos entender en el dominio clásico, difícilmente lo vamos a ver más claro bajo las cortinas de niebla de la mecánica cuántica. Existen correlatos bien significativos de la zeta en física clásica sin necesidad de invocar el caos cuántico; y de hecho modelos bien conocidos como el de Berry, Keating y Connes son semiclásicos, lo que es una forma de quedarse a mitad de camino. Podemos encontrar un exponente clásico en los billares dinámicos, empezando con un billar circular, que puede extenderse a otras formas como elipses o la llamada forma de estadio, un rectángulo con dos semicírculos.

La dinámica del billar circular con una partícula puntual rebotando es integrable y sirve, por ejemplo, para modelar el comportamiento del campo electromagnético en resonadores tales como cavidades ópticas o de microondas. Si se abren rendijas en el perímetro, de modo que la bola tenga cierta probabilidad de escapar del billar, tenemos una tasa de disipación y el problema adquiere mayor interés. Por supuesto, la probabilidad depende de la ratio entre el tamaño de las aperturas y el del perímetro.

La conexión con los números primos viene a través de los ángulos en las trayectorias según un módulo 2 π/n. Bunimovich y Detteman demostraron que para un billar circular con dos aperturas separadas por 0, 60, 90, 120 o 180º la probabilidad está únicamente determinada por el polo y los ceros no triviales de la función zeta [52]. La suma total se puede determinar explícitamente y comporta términos que pueden conectarse con las series armónicas de Fourier y las series hipergeométricas. Desconozco si esto puede extenderse a contornos elípticos, que también son integrables. Es al pasar del contorno circular a contornos deformados como el del estadio que el sistema deja de ser integrable y se torna caótico, requiriendo un operador de evolución.

Los billares dinámicos tienen múltiples aplicaciones en física y se usan como ejemplo paradigmático de los sistemas conservativos y la mecánica hamiltoniana; sin embargo el “escape” que se permite a las partículas no es otra cosa que una tasa de disipación, y de la forma más explícita posible. Por lo tanto, nuestra idea inicial de que la zeta debería tener vigencia en sistemas termomecánicos irreversibles a un nivel fundamental es bien fácil de entender —es la mecánica hamiltoniana la que pide la excepción para empezar. Puesto que se asume que la física fundamental es conservativa, se buscan sistemas cerrados “un poco abiertos”, cuando, según nuestro punto de vista, lo que tenemos siempre es sistemas abiertos parcialmente cerrados. Y según nuestra interpretación, hemos entendido la cuestión al revés: un sistema es reversible porque es abierto, y es irreversible en la medida en que deviene cerrado.

Pasando a otro orden de cosas, el aspecto más evidente del electromagnetismo es la luz y el color. Goethe decía que el color era el fenómeno fronterizo entre la sombra y la luz, en esa incierta región a la que llamamos penumbra. Por supuesto lo suyo no era una teoría física, sino una fenomenología, lo que no sólo no le quita valor sino que se lo añade. La teoría del espacio del color de Schrödinger de 1920, basada en argumentos de geometría afín aunque con una métrica riemaniana, se encuentra a mitad de camino entre la percepción y la cuantificación y puede servirnos, con algunas mejoras introducidas posteriormente, para acercar visiones que parecen totalmente inconexas. Mazilu muestra que también aquí pueden obtenerse matrices semejantes a las que surgen de las interacciones de campo [53].

Ni que decir tiene que a Goethe se le objetó que su concepto de polaridad entre luz y oscuridad, a diferencia de la firmemente establecida polaridad de carga eléctrica, no estaba justificado por nada, pero nosotros creemos que es justamente lo contrario. Lo único que existen son gradientes; la luz y la sombra pueden crearlos, una carga que es sólo un signo + o — adscrito a un punto, no. El color está dentro de la luz-oscuridad como la luz-oscuridad está dentro del espacio-materia.

Se dice por ejemplo que la función zeta de Riemann podría jugar el mismo papel para los sistemas cuánticos caóticos que el oscilador armónico para los sistemas cuánticos integrables. ¿Pero se sabe todo del oscilador armónico? Ni mucho menos, ya vemos lo que ocurre con la fibración de Hopf o el mismo monopolo. Por otra parte, sabido es que la primera aparición de la zeta en la física es con la fórmula de radiación de cuerpo negro de Planck, donde entra en el cálculo de la energía promedio de lo que luego se llamaría “fotón”.

La interpretación física de la función zeta siempre obliga a plantearse las correspondencias entre la mecánica cuántica y la clásica. Por tanto, un problema casi tan intrigante como éste tendría que ser encontrar una contraparte clásica del espectro descrito por la ley de Planck; sin embargo las tendencias dominantes no parecen interesadas en encontrar una respuesta para esto. Mazilu, otra vez, nos recuerda el descubrimiento por Irwin Priest en 1919, de una sencilla y enigmática transformación bajo la cual la fórmula de Planck rinde una distribución gaussiana o normal con un ajuste exquisito a lo largo de todo el espectro [54].

En realidad el tema de la correspondencia entre la mecánica cuántica y la clásica es incomparablemente más relevante a nivel práctico y tecnológico que el de la función zeta. Y en cuanto a la teoría, tampoco existe ningún tipo de aclaración por parte de la mecánica cuántica sobre dónde se encontraría la zona de transición. Probablemente haya buenos motivos para que este campo reciba aparentemente tan poca atención. Sin embargo es altamente probable que la función zeta de Riemann conecte de manera inesperada distintos dominios de la física, lo que hace de ella un objeto matemático de un calado incomparable.

La cuestión es que no existe una interpretación para la raíz cúbica de la frecuencia de la transformación de Priest. Refiriéndose a la radiación cósmica de fondo, “y tal vez a la radiación térmica en general”, Mazilu no deja de hacer sus conjeturas para terminar con esta observación: “debería hacerse mención de que tal resultado bien podría ser específico de la forma en que las medidas de la radiación se hacen habitualmente, a saber, mediante un bolómetro”. Dejando a un lado esta transformación, se han propuesto diversas maneras más o o menos directas de derivar la ley de Planck de supuestos clásicos, desde la que sugiere Noskov partiendo de la electrodinámica de Weber a la de C. K. Thornhill [55]. Thornhill propuso una teoría cinética de la radiación electromagnética con un éter gaseoso compuesto por una variedad infinita de partículas, de manera que la frecuencia de las ondas electromagnéticas se correlaciona con la energía por unidad de masa de las partículas en lugar de sólo la energía, obteniendo la distribución de Planck de una forma mucho más simple.

La explicación estadística de la ley de Plank ya la conocemos, pero la transformación gaussiana de Priest demanda una explicación física para una estadística clásica. Mazilu hace mención expresa del dispositivo de medición empleado, en este caso el bolómetro, basado en un elemento de absorción —se dice que la función zeta de Riemann se corresponde con un espectro de absorción, no de emisión. Si hoy se emplean metamateriales para “ilustrar” variaciones del espacio tiempo y los agujeros negros —donde también se usa la función zeta para regularizar los cálculos-, con más razón y mucho más fundamento físico y teórico se podrían utilizar para estudiar variantes del espectro de absorción para poder reconstruir la razón por una suerte de ingeniería inversa. El enigma de la fórmula de Priest podría abordarse desde un punto de vista tanto teórico como práctico y constructivo —aunque también la explicación que se da del rendimiento de los metamateriales es más que discutible y habría que purgarla de numerosas asunciones.

Por supuesto para cuando Priest publicó su artículo la idea de cuantización ya tenía ganada la batalla. Su trabajo cayó en el olvido y del autor apenas se recuerda más que su dedicación a la colorimetría, en la que estableció un criterio de temperaturas recíprocas para la diferencia mínima en la percepción de colores [56]; se trata de temperaturas perceptivas, naturalmente, no físicas; la correspondencia entre temperaturas y colores no parece que pueda establecerse jamás. Si existe un álgebra elemental aditiva y sustractiva de los colores, también debe haber un álgebra producto, seguramente relacionada con su percepción. Esto hace pensar en la llamada línea de púrpuras no espectrales entre los extremos rojo y violeta del espectro, cuya percepción está limitada por la función de luminosidad. Con la debida correspondencia esto podría prestarse a una hermosa analogía que el lector puede intentar adivinar.

Por otra parte conviene no olvidar que la constante de Planck no tiene nada que ver con la incertidumbre en la energía de un fotón, aunque hoy sea una costumbre asociarlos [57]. Las vibraciones longitudinales en el interior de los cuerpos en movimiento de Noskov recuerdan de inmediato el concepto de zitterbewegung o “movimiento trémulo” introducido por Schrödinger para interpretar la interferencia de energía positiva y negativa en la ecuación relativista del electrón de Dirac. Schrödinger y Dirac concibieron este movimiento como “una circulación de carga” que generaba el momento magnético del electrón. La frecuencia de la rotación del zbw sería del orden de los 1021 hertzios, demasiado elevada para la detección salvo por resonancias.

David Hestenes ha analizado diversos aspectos del zitter en su modelo de la mecánica cuántica como autointeracción. P. Catillon et al. hicieron un experimento de canalización de electrones en un cristal en el 2008 para confirmar la hipótesis del reloj interno al electrón de de Broglie. La resonancia detectada experimentalmente es muy próxima a la frecuencia de de Broglie, que es la mitad de la frecuencia del zitter; el periodo de de Broglie estaría directamente asociado a la masa, tal como se ha sugerido recientemente. Existen diversos modelos hipotéticos para crear resonancias con el electrón reproduciendo la función zeta en cavidades y billares dinámicos como el de Artin, pero no suelen asociarse con el zitter ni con el reloj interno de de Broglie, puesto que este experimento no encuentra acomodo en la versión convencional de la mecánica cuántica. Por otro lado sería recomendable considerar una energía de punto cero totalmente clásica como puede seguirse del trabajo de Planck y sus continuadores en la electrodinámica estocástica, aunque todos estos modelos se basen en partículas puntuales. [58].

La matemática, se dice, es la reina de las ciencias, y la aritmética la reina de la matemática. El teorema fundamental de la aritmética pone en el centro a los números primos, cuyo producto permite generar todos los números enteros mayores que 1. El mayor problema de los números primos es su distribución, y la mejor aproximación a su distribución proviene de la función zeta de Riemann. Esta a su vez tiene un aspecto crítico, que es justamente averiguar si todos los ceros no triviales de la función yacen en la línea crítica. El tiempo y la competencia entre matemáticos ha agigantado la tarea de demostrar la hipótesis de Riemann, el K-1 de la matemática, que comportaría una especie de lucha del hombre contra el infinito.

William Clifford dijo que la geometría era la madre de todas las ciencias, y que uno debería entrar en ella agachado igual que los niños; parece por el contrario que la aritmética nos hace más altivos, porque no necesitamos mirar hacia abajo para contar. Y eso, mirar hacia abajo y hacia lo más elemental, sería lo mejor para la comprensión de este tema, olvidándose de la hipótesis tanto como fuera posible. Naturalmente, esto también podría decirse de innumerables cuestiones donde el sobreuso de la matemática crea un contexto demasiado enrarecido, pero al menos aquí se admite una falla básica en la comprensión, y en otras partes eso no parece importar demasiado.

Cabe decir que hay dos formas básicas de entender la función zeta de Riemann: como un problema que nos plantea el infinito o un problema que nos plantea la unidad. Hasta ahora la ciencia moderna, impulsada por la historia del cálculo, se ha ocupado mucho más del primer aspecto que del segundo, a pesar de que ambos estén unidos de manera indisociable.

Se dice que si se encontrara un cero fuera de la línea crítica —si la hipótesis de Riemann resultara falsa-, eso provocaría estragos en la teoría de los números. Pero si los primeros ceros que ya evaluó el matemático alemán están bien calculados, la hipótesis puede darse prácticamente por cierta, sin necesidad de calcular más trillones o cuatrillones de ellos. En realidad, y al hilo de lo dicho en el capítulo anterior, parece mucho más probable encontrar fallos en los fundamentos del cálculo y sus resultados que encontrar ceros fuera de la línea, y además el saludable caos creativo que produciría seguro que no quedaría confinado a una rama de las matemáticas.

Naturalmente, esto cabe aplicarlo al cálculo de la propia función zeta. Si el cálculo simplificado de Mathis, usando un criterio unitario de intervalo, encuentra divergencias incluso para los valores de la función logarítmica elemental, estas divergencias tendrían que ser mucho más importantes en un cálculo tan complicado como el de esta función especial. Y en cualquier caso nos brinda un criterio diferente en la evaluación de la función. Más aún, este nuevo criterio podría revelar si ciertas divergencias y términos de error se cancelan.

Los abogados del diablo en este caso no habrían hecho todavía la parte más importante de su trabajo. Por otra parte, también se han calculado derivadas fraccionales de esta función que permiten ver dónde convergen la parte real y la imaginaria; esto tiene interés tanto para el análisis complejo como para la física. De hecho se sabe que en los modelos físicos la evolución del sistema con respecto al polo y los ceros suele depender de la dimensión, que en muchos casos es fraccionaria o fractal, o incluso multi-fractal para los potenciales asociados con los números mismos.

La aritmética y el acto de contar existen primariamente en el dominio tiempo, y hay buenas razones para pensar que los métodos basados en diferencias finitas tendrían que tener preferencia al tratar de cambios en el dominio temporal —puesto que con infinitesimales se disuelve el acto de contar. El análisis fraccional de la función también debería estar referido a las secuencias temporales. Finalmente, la relación entre variables discretas y continuas característica de la mecánica cuántica también tendría que pasar por los métodos de diferencias finitas.

La física cuántica pude describirse de una forma más intuitiva con una combinación de álgebra geométrica y cálculo fraccional para los casos que contienen dominios intermedios. De hecho los dominios intermedios pueden ser mucho más numerosos de lo que creemos si se tiene en cuenta tanto la asignación mezclada de variables en la dinámica orbital como las diferentes escalas a las que pueden tener lugar ondas y vórtices entre el campo y las partículas en una perspectiva diferente como la de Venis. La misma autointeracción del zitterbewegung reclama todavía de una concreción mucho mayor de la lograda hasta ahora. Este movimiento permite, entre otras cosas, una traducción más directamente geométrica, e incluso clásica, de los aspectos no conmutativos de la mecánica cuántica, que a su vez permiten una conexión natural clave entre variables discretas y continuas.

Michel Riguidel somete a la función zeta a un trabajo intensivo de interacción para buscar un acercamiento morfogenético. Sería excelente si la potencia de cómputo de los ordenadores pudiera usarse para refinar nuestra intuición, interpretación y reflexión, en vez de lo contrario. Sin embargo aquí es fácil presentar dos grandes objeciones. Primero, la enorme plasticidad de la función, que aun siendo completamente diferenciable, según el teorema de universalidad de Voronin contiene cualquier cantidad de información un número infinito de veces.

La segunda objeción es que si ya la función tiene una enorme plasticidad, y por otro lado los gráficos sólo representan en todo momento aspectos muy parciales de la función, las deformaciones y transformaciones, por más evocadoras que puedan ser, aún introducen nuevos grados de arbitrariedad. Se puede transformar el logaritmo en una espiral a mitad de camino entre la línea y el círculo, y crear ondas espirales y qué no, pero no dejan de ser representaciones. El interés, en todo caso, está en la interacción función-sujeto-representación —la interacción entre herramientas matemáticas, conceptuales y de representación.

Pero no se necesitan más enrevesados conceptos. El mayor obstáculo para profundizar en este tema, como en tantos otros, reside en la frontal oposición a revisar los fundamentos del cálculo, la mecánica clásica y la cuántica. Por otro lado, cuanto más complejos sean los argumentos para demostrar o refutar la hipótesis, menos importancia puede tener el resultado para el mundo real, sea cierta o falsa.

Suele decirse que el significado de la hipótesis de Riemann es que los números primos tienen una distribución tan aleatoria como es posible, lo que por supuesto deja totalmente abierto cuánto azar es posible. Tal vez no tengamos más remedio que hablar de azar aparente.

Pero aún así, ahí lo tenemos: el máximo grado de azar aparente en una simple secuencia lineal generalizable a cualquier dimensión esconde una estructura ordenada de una insondable riqueza.

Michel Riguidel: Morphogenesis of the Zeta Function in the Critical Strip by Computational Approach
Michel Riguidel: Morphogenesis of the Zeta Function in the Critical Strip by Computational Approach


Volvamos ahora al aspecto cualitativo de la polaridad y a la problemática relación con el dominio cuantitativo. Pero no sólo la relación entre lo cualitativo y lo cuantitativo es problemática, sino que la misma interpretación cualitativa plantea un interrogante básico, que inevitablemente remite a las conexiones cuantitativas.

Para Venis todo puede explicarse con el yin y el yang, que él ve en términos de expansión y contracción, y de una dimensión más alta o una dimensión más baja. Aunque su interpretación ahonda mucho la posibilidad de conexión con la física y la matemática, supone una asunción básica de la acepción del yin y el yang del filósofo práctico japonés George Ohsawa. Se suele afirmar repetidamente que en la tradición china, el yin se relaciona básicamente con la contracción y el yang con la expansión. Venis conjetura que la interpretación china puede ser más metafísica y la de Ohsawa más física; y en otra ocasión opina que la primera podría estar más relacionada con los procesos microcíclicos de la materia y la segunda con los procesos mesocíclicos más propios de nuestra escala de observación, pero ambas consideraciones parecen bastante divergentes.

Cuesta creer que sin resolver estas diferencias tan básicas puedan alguna vez aplicarse estas categorías a aspectos cuantitativos, aunque aún puede hablarse de contracción y expansión, con y sin relación a las dimensiones. Pero por otro lado, cualquier reducción de categorías tan vastas y llenas de matices a meras relaciones lineales con coeficientes de aspectos aislados como “expansión” o “contracción” corre el peligro de convertirse en una enorme simplificación que anula precisamente el valor de lo cualitativo para apreciar grados y matices.

La lectura que Venis hace no es en absoluto superficial, y por el contrario es fácil ver que lo que hace es darle una dimensión mucho más amplia a estos términos, y nunca mejor dicho. Su extrapolación a aspectos como el calor y el color puede parecer falta de la deseable justificación cuantitativa y teórica, pero en cualquier caso son lógicas y consecuentes con su visión general y están abiertas a la profundización del tema. Sin embargo el radical desacuerdo en la cualificación más básica ya es todo un desafío para la interpretación.

Habría que decir para empezar que la versión china no puede reducirse de ningún modo al entendimiento del yin y el yang como contracción y expansión, ni tampoco a ningún par de opuestos conceptuales con exclusión de los demás. Contracción y expansión son sólo uno entre los muchos posibles, y aun siendo muy empleado, depende enteramente, como cualquier otro par, del contexto. Tal vez la acepción más común sea la de “lleno” y “vacío”, que por otra parte no deja de estar íntimamente ligada a la contracción y la expansión, aunque no sean ni mucho menos idénticos. O también, según el contexto, la tendencia a llenarse o a vaciarse; no es por nada que se distinga muy a menudo entre yang viejo y joven, y lo mismo para el yin. Estos puntos de espontánea inversión potencial también están expresados en el Taijitu, puesto que la inversión espontánea es el camino del Tao.

Por otra parte, cualidades como lo lleno y lo vacío no sólo tienen un significado claro en términos diferenciales y de las teorías de campos, la hidrodinámica o aun la termodinámica, sino que también tienen un sentido inmediato, aunque mucho más difuso, para nuestro sentido interno, o cenestesia, que es justamente el sentido común o sensorio común, que es justamente nuestra sensación indiferenciada anterior al impreciso “corte sensorial” que parece generar el campo de nuestros cinco sentidos. Esta cenestesia o sentido interno también incluye la cinestesia, nuestra percepción inmediata del movimiento y nuestra autopercepción, que puede ser tanto del cuerpo como de la misma conciencia.

Este sentido interno o sensorio es sólo otra forma de hablar del medio homogéneo e indiviso que ya somos, y es a él que se refiere siempre la percepción mediada por cualquiera de los sentidos. Y cualquier tipo de conocimiento intuitivo o cualitativo toma eso como referencia, que evidentemente va más allá de cualquier criterio racional o sensorial de discernimiento. Y a la inversa, podría decirse que ese trasfondo se obvia en el pensamiento formal pero se lo supone en el conocimiento intuitivo. Los físicos hablan a menudo de que un resultado es “contraintuitivo” sólo en el sentido de que va contra lo esperado o el conocimiento adquirido, no contra la intuición, que en vano querríamos definir.

Sería con todo absurdo decir que lo cualitativo y lo cuantitativo son esferas completamente separadas. Las matemáticas son cualitativas y cuantitativas por igual. Se habla de ramas más cualitativas, como la topología, y ramas más cuantitativas como la aritmética o el cálculo, pero una inspección más atenta revela que eso apenas tiene sentido. La morfología de Venis está totalmente basada en la idea de flujo y en nociones tan elementales como puntos de equilibrio y puntos de inversión. El mismo Newton llamó a su cálculo “método de fluxiones”, de cantidades en flujo continuo, y los métodos para evaluar curvas se basan en la identificación de puntos de inflexión. De modo que hay una compatibilidad que no sólo no es forzada sino que es verdaderamente natural; que la ciencia moderna haya avanzado en dirección contraria hacia la abstracción creciente, lo que a su vez es el justo contrapeso a su utilitarismo, es ya otra historia.

Polaridad y dualidad son cosas bien diferentes pero conviene percibir sus relaciones antes de que se introdujera la convención de la carga eléctrica. La referencia aquí no puede dejar de ser la teoría electromagnética, que es la teoría básica sobre la luz y la materia, y en buena medida también sobre el espacio y la materia.

Evidentemente, sería totalmente absurdo decir que una carga positiva es yang y una carga negativa es yin, puesto que entre ambos sólo hay un cambio de signo arbitrario. En el caso de un electrón o protón ya intervienen otros factores, como el hecho de que uno es mucho menos masivo que el otro, o que uno se encuentra en la periferia y el otro en el centro del átomo. Pongamos otro ejemplo. A nivel biológico y psicológico, vivimos entre la tensión y la presión, grandes condicionantes de nuestra forma de percibir las cosas. Pero sería absurdo también que uno u otro son yin o yang en la medida en que entendamos la tensión sólo como una presión negativa. Dicho de otro modo, los meros cambios de signo nos parecen enteramente triviales; pero se hacen mucho más interesantes cualitativa y cuantitativamente cuando comportan otras transformaciones.

Que todo sea trivial o nada lo sea, depende sólo de nuestro conocimiento y atención; un conocimiento superficial puede presentarnos como triviales cosas que en absoluto lo son y están llenas de contenido. La polaridad de la carga puede parecer trivial, lo mismo que la dualidad de la electricidad y el magnetismo, o la relación entre la energía cinética y potencial. En realidad ninguna de ellas es en absoluto trivial ni siquiera tomada por separado, pero cuando intentamos verlo todo junto tenemos ya un álgebra espacio-temporal con una enorme riqueza de variantes.

En el caso de la presión y la tensión, la transformación relevante es la deformación aparente de un material. Las variaciones de presión-tensión-deformación son, por ejemplo, las que definen las propiedades del pulso, ya sea en la pulsología de las medicinas tradicionales china o india como en el moderno análisis cuantitativo del pulso; pero eso también nos lleva a las relaciones tensión-deformación que define a la ley constitutiva en la ciencia de materiales. Las relaciones constitutivas, por otro lado, son el aspecto complementario de las ecuaciones del campo electromagnético de Maxwell que nos dicen cómo éste interactúa con la materia.

Se dice normalmente que electricidad y magnetismo, que se miden con unidades con dimensiones diferentes, son la expresión dual de una misma fuerza. Como ya hemos señalado, esta dualidad implica la relación espacio-materia, tanto para las ondas como para lo que se supone que es el soporte material de la polaridad eléctrica y magnética; de hecho, y sin entrar en más detalles, esta parece ser la distinción fundamental.

Todas las teorías de campos gauge pueden expresarse por fuerzas y potenciales pero también por variaciones de presión-tensión-deformación que en cualquier caso comportan un feedback. Y hay un feedback porque hay un balance global primero, y sólo luego uno local. Estas relaciones están presentes en la ley de Weber, sólo que en ella lo que se “deforma” es la fuerza en lugar de la materia. La gran virtud de la teoría de Maxwell es hacer explícita la dualidad entre electricidad y magnetismo que se oculta en la ecuación de Weber. Pero hay que insistir, con Nicolae Mazilu, que la esencia de la teoría gauge se puede encontrar ya en el problema de Kepler.

Ya vimos que relaciones constitutivas como la permitividad y la permeabilidad con sus magnitudes respectivas no pueden darse en el espacio vacío, por lo que sólo pueden ser un promedio estadístico de lo que ocurre en la materia y lo que ocurre en el espacio. La materia puede soportar tensión sin exhibir deformación, y el espacio puede deformarse sin tensión —esto está en paralelo con las signaturas básicas de la electricidad y el magnetismo, que son la tensión y la deformación. Deformación y tensión no son yin ni yang, pero ceder fácilmente a la deformación sí es yin, y soportar la tensión sin deformación es yang —al menos por lo que respecta al aspecto material. Entre ambos tiene que haber por supuesto todo un espectro continuo, a menudo interferido por otras consideraciones.

Sin embargo, desde el punto de vista del espacio, al que no accedemos directamente sino por la mediación de la luz, la consideración puede ser opuesta: la expansión sin coacción sería yang puro, mientras que la contracción puede ser una reacción de la materia ante la expansión del espacio, o de las radiaciones que lo atraviesan. Las mismas radiaciones u ondas son una forma alterna intermedia entre la contracción y la expansión, entre la materia y el espacio, que no pueden existir por separado. Con todo una deformación es un concepto puramente geométrico, mientras que una tensión o una fuerza no, siendo aquí donde empieza el dominio de la física propiamente dicha.

Sin embargo, desde el punto de vista del espacio, al que no accedemos directamente sino por la mediación de la luz, la consideración puede ser opuesta: la expansión sin coacción sería yang puro, mientras que la contracción puede ser una reacción de la materia ante la expansión del espacio, o de las radiaciones que lo atraviesan. Las mismas radiaciones u ondas son una forma alterna intermedia entre la contracción y la expansión, entre la materia y el espacio, que no pueden existir por separado. Con todo una deformación es un concepto puramente geométrico, mientras que una tensión o una fuerza no, siendo aquí donde empieza el dominio de la física propiamente dicha.

Tal vez así pueda vislumbrarse un criterio para conciliar ambas interpretaciones, no sin una atención cuidadosa al cuadro general del que forman parte; cada una puede tener su rango de aplicación, pero no pueden estar totalmente separadas.

Es ley del pensamiento que los conceptos aparezcan como pares de opuestos, habiendo una infinidad de ellos; encontrar su pertinencia en la naturaleza es ya otra cosa, y el problema parece hacerse insoluble cuando las ciencias cuantitativas introducen sus propios conceptos que también están sujetos a las antinomias pero de un orden a menudo muy diferente y desde luego mucho más especializado. Sin embargo la atención simultánea al conjunto y a los detalles hacen de esto una tarea que está lejos de ser imposible.

A menudo se ha hablado de holismo y reduccionismo para las ciencias pero hay que recordar que ninguna ciencia, empezando por la física, ha podido ser descrita en términos rigurosamente mecánicos. Los físicos se quedan con la aplicación local de los campos gauge, pero el mismo concepto del lagrangiano es integral o global, no local. Lo que sorprende es que aún no se haya aprovechado este carácter global en campos como la medicina, la biofísica o la biomecánica.

Partiendo de estos aspectos globales de la física es mucho más viable una conexión genuina y con sentido entre lo cualitativo y lo cuantitativo. La concepción del yin y el yang es sólo una de las muchas lecturas cualitativas que el hombre ha hecho de la naturaleza, pero aun teniendo en cuenta el carácter sumamente fluido de este tipo de distinciones no es difícil establecer las correspondencias. Por ejemplo, con las tres gunas del Samkya o los cuatro elementos y los cuatro humores de la tradición occidental, en que el fuego y el agua son los elementos extremos y el aire y la tierra los intermedios; también estos pueden verse en términos de contracción y expansión, o de presión, tensión y deformación.

Y por supuesto la idea de equilibrio tampoco es privativa de la concepción china, puesto que la misma cruz y el cuaternario han tenido siempre una connotación de equilibrio totalmente elemental y de carácter universal. Es más bien en la ciencia moderna que el equilibrio deja de tener un lugar central, a pesar de que tampoco en ella puede dejar de ser omnipresente, como lo es en el mismo razonamiento, la lógica y el álgebra. La misma posibilidad de contacto entre el conocimiento cuantitativo y cualitativo depende tanto de la ubicación que demos al concepto de equilibrio como de la apreciación del contexto y los rasgos genuinamente globales de lo que llamamos mecánica.

A diferencia de los conceptos científicos acostumbrados, que tienden inevitablemente a hacerse más detallados y a especializarse, nociones como el yin y el yang son ideas de la máxima generalidad, índices a identificar en los más concretos contextos; si queremos definirlas demasiado pierden la generalidad que les de su valor como guía intuitiva. Pero también las ideas más generales de la física han estado sujetas a constante evolución y modificación en función del contexto, y no hay más que ver las continuas transformaciones de conceptos cuantitativos como fuerza, energía o entropía, por no hablar de cuestiones como el criterio y rango de aplicación de los tres principios de la mecánica clásica.

Los vórtices pueden expresarse en el elegante lenguaje del continuo, de las compactas formas diferenciales exteriores o del álgebra geométrica; pero los vórtices hablan sobre todo con un lenguaje muy semejante al de nuestra propia imaginación y la plástica imaginación de la naturaleza. Por eso, cuando observamos la secuencia de Venis y sus variaciones, sabemos que nos encontramos en un terreno intermedio, pero genuino, entre la física matemática y la biología. Tanto en una como en otra la forma sigue a la función, pero en la ingeniería inversa de la naturaleza que toda ciencia humana es, la función debería seguir a la forma hasta las últimas consecuencias.

Venis habla repetidamente incluso de un equilibrio dimensional, es decir, un equilibrio entre las dimensiones entre las que se sitúa la evolución de un vórtice. Este amplía mucho el alcance del equilibrio pero hace más difícil contrastarlo. El cálculo fraccional tendría que ser clave para seguir esta evolución a través de los dominios intermedios entre dimensiones, pero esto también plantea aspectos interesantes para la medida experimental.

Cómo puedan interpretarse las dimensiones superiores a tres es siempre una cuestión abierta. Si en lugar de pensar en la materia como moviéndose en un espacio pasivo, pensamos en la materia como aquellas porciones a las que el espacio no tiene acceso, la misma materia partiría de una dimensión cero o puntual. Entonces las seis dimensiones de la evolución de los vórtices formarían un ciclo desde la emisión de luz por la materia al repliegue del espacio y la luz en la materia otra vez —y las tres dimensiones adicionales sólo serían el proceso en el sentido inverso, y desde una óptica inversa, lo que hace que se evite la repetición.

Es sólo una forma de ver algunos aspectos de la secuencia entre las muchas posibles, y el tema merece un estudio mucho más detallado que el que podemos dedicarle aquí. Una cosa es buscar algún tipo de simetría, debe haber muchos más tipos de vórtices de los que conocemos ahora, sin contar con las diferentes escalas en que pueden darse y las múltiples metamorfosis. Sólo en el trabajo de Venis puede encontrarse la debida introducción a estas cuestiones. Para Venis, aunque no haya manera de demostrarlo, el número de dimensiones es seguramente infinito. Un indicio de ello sería el número mínimo de meridianos necesarios para crear un vórtice, que aumenta exponencialmente con el numero de dimensiones y que el autor asocia con la serie de Fibonacci.

Puede hablarse de polaridad siempre que se aprecie una capacidad de autorregulación. Es decir, no cuando simplemente se cuenta con fuerzas aparentemente antagónicas, sino cuando no podemos dejar de advertir un principio por encima de ellas. Esa capacidad ha existido siempre desde el problema de Kepler, y es bien revelador que la ciencia no haya acertado a reconocerlo. La fuerza de Newton no es polar, la fuerza de Weber sí, pero el problema de los dos cuerpos exhibe una dinámica polar en cualquier caso. De hecho llamar “mecánica” a la evolución de los cuerpos celestes es sólo una racionalización, y en realidad no tenemos una explicación mecánica de nada cuando se habla de fuerzas fundamentales, ni probablemente podemos tenerla. Sólo cuando advertimos el principio regulador podemos usar el término dinámica haciendo honor a la intención original aún presente en tal nombre.

Questions of program —and of principle, again: calculus, dimensional analysis and chronometrology

In physics and mathematics, as in all areas of life, we have principles, means and ends. The principles are the starting points, the means, from a practical-theoretical point of view, are the different branches of calculus, and the interpretations the ends. These last ones, far from being a philosophical luxury, are the ones that determine the whole contour of representations and applications of a theory.

As for principles, we have already commented, if we want to see more closely where and how the continuous proportion emerges, we should observe as much as possible the ideas of continuity, homogeneity and reciprocity. And this includes the consideration that all systems are open, since if they are not open they cannot comply with the third principle in a way that is worthy of being considered “mechanical”. This is the main difference between Nature and manmade machines.

These three-four principles, are nonspecifically included in the principle of dynamic equilibrium, which is the way to dispense with the principle of inertia, and incidentally, the principle of relativity. If we talk about continuity, this does not mean that we are stating that the physical world must necessarily be continuous, but that what seems to be a natural continuity should not be broken without need.

Actually, the principles also determine the scope of our interpretations, although they do not specify them.

As for calculus, which in the form of predictions has become for modern physics the almost exclusive purpose, it is always a matter of justifying how to achieve results known in advance, so reverse engineering and heuristics always won the day over considerations of logic or consistency. Of course there is a laborious foundation of calculus by Bolzano, Cauchy and Weierstrass, but it is more concerned with saving the results than with making them more intelligible.

On this point we cannot agree more with Mathis, who stands alone in a battle to redefine these foundations. What Mathis proposes can be traced back to umbral calculus and the calculus of finite differences, but these are considered as sub-domains of the standard calculus and ultimately have not brought a better understanding to the field.

An instantaneous speed is still an impossible that reason rejects, and besides there is no such thing on a graph. If there are physical theories, such as special relativity, that unnecessarily break with the continuity of classical equations, here we have the opposite case, but with another equally disruptive effect: a false notion of continuity, or pseudo-continuity, is created that is not justified by anything. Modern calculus has created for us an illusion of dominion over infinity and motion by subtracting at least one dimension from the physical space, not honoring that term “analysis” which is so proud of. And this, naturally, should have consequences in all branches of mathematical physics [45].

Mathis’ arguments are absolutely elementary and irreducible; these are also questions of principle, but not only of principle as the problems of calculus are eminently technical. The original calculus was designed to calculate areas under curves and tangents to those curves. It is evident that the curves of a graph cannot be confused with the real trajectories of objects and that in them there are no points or moments; then all the generalizations of this methods contain this dimensional conflation.

Finite calculus is also closely related to the problem of particles with extension, without which it is nearly impossible to move from the ideal abstraction of physical laws to the apparent forms of nature.

Mathis himself is the first to admit, for example in his analysis of the exponential function, that there is still a great deal to do for a new foundation of calculus, but this should be good news. At any rate the procedure is clear: the derivative is not to be found in a differential that approaches zero, nor in limit values either, but in a sub-differential that is constant and can only be 1, a unit interval. A differential can only be an interval, never a point or subtraction of points, and it is to the interval that the very definition of limit owes its range of validity. In physical problems this unit interval must correspond to an elapsed time and a distance traveled.

Trying to see beyond Mathis’ efforts, it could be said that, if curves are defined by exponents, any variation in a function should be able to be expressed in the form of a dynamic equilibrium whose product is unity; and in any case by a dynamic equilibrium based on a constant unit value, which is the interval. If classical mechanics and calculus grew up side by side as almost indistinguishable twins, even more so should be in a relational mechanics where inertia always dissolves in motion.

The heuristic part of modern calculus is still based on averaging or error compensation; while the foundation is rationalized in terms of limit, but works due to the underlying unit interval. The parallel between the bar of a scale and a tangent is obvious; what is not seen is precisely what should be compensated. Mathis method does not work with averages; standard calculus does. Mathis has found the beam of the scale, now it comes down to set the plates and fine tune the weights. We will come back to this later.

The disputes that still exist from time to time, even among great mathematicians, regarding standard and non-standard calculus, or the various ways of dealing with infinitesimals, at least reveal that different paths are possible, but for most of us they are remote discussions far removed from the most basic questions that should be analyzed first.

We mentioned earlier Tanackov’s formula to calculate the constant e way faster than the classic “direct method”; but the fact is that amateur mathematicians like the already mentioned Harlan Brothers have found, just twenty years ago, many different closed expressions that calculate it faster, besides being more compact. The mathematical community may treat it as a curiosity, but if this happens with the most basic rudiments of elementary calculus, what cannot happen in the dense jungle of higher order functions.

A somewhat comparable case would be that of symbolic calculus or computer algebra, which already 50 years ago found that many classical algorithms, including much of linear algebra, were terribly inefficient. However, as far as we can see, none of this has affected calculus proper.

“Tricks” like those of Brothers play in the ground of heuristics, although it must be recognized that neither Newton, nor Euler, nor any other great name of calculus knew them; but even if they are heuristics they cannot fail to point in the right direction, since simplicity use to be indicative of truth. However with Mathis we are talking not only about the very foundations, which none of the revisions of symbolic calculus has dared to touch, but even about the validity of the results, which cross the red line of what mathematicians want to consider. At the end of the chapter we will see whether this can be justified.

In fact, to pretend that a differential tends to zero is equivalent to say that everything is permitted in order to get the desired result; it is the ideal condition of versatility for whatever heuristics and adhocracy. The fundamental requirement of simplified or unitary calculus —plain differential calculus, indeed- may at first seem like putting spanners in the works already in full gear, but it truthful. No amount of ingenuity can replace rectitude in the search for truth.

Mathis’ attempt is not Quixotic; there is here much more than meets the eye. There are reversible standards and standards irreversible in practice, such as the current inefficient distribution of the letters of the alphabet on the keyboard, which seems impossible to change even though nobody uses the old typewriters anymore. We do not know if modern calculus will be another example of a standard impossible to reverse, but what is at stake here is far beyond questions of convenience, and it blocks a better understanding of an infinite number of issues; overcoming it is an indispensable condition for the qualitative transformation of knowledge and the ideas we have —or cannot have- of space, time, change and motion.


Today’s theoretical physicists, forced into a highly creative manipulation of the equations, tend to dismiss dimensional analysis as little more than pettifogging; surely this attitude is due to the fact that they have to think that any revision of the foundations is out of question, and one can only look ahead.

In fact, dimensional analysis is more inconvenient than anything else, since it is by no means irrelevant: it can prove with just a few lines that the charge is equivalent to mass, that Heisenberg’s uncertainty relations are conditional and unfounded, or that Planck’s constant should only be applied to electromagnetism, instead of being generalized to the entire universe. And since modern theoretical physics is in the business of generalizing its conquests to everything imaginable, any contradiction or restriction to its expansion by the only place it is allowed to expand must be met with notorious hostility.

It is actually easy to see that dimensional analysis would have to be a major source of truth if it were allowed to play its part, since modern physics is a tower of Babel of highly heterogeneous units that are the reflection of contortions made in the name of algebraic simplicity or elegance. Maxwell’s equations, compared to the Weber force that preceded him, are the most eloquent example of this.

Dimensional analysis is also of interest when we delve into the relationship between intensive and extensive quantities. The disconnection between the mathematical constants e and φ may also be associated with this broad issue. In entropy, for example, we use logarithms to convert intensive properties such as pressure and temperature into extensive properties, converting for convenience multiplicative relations into more manageable additive relations. That convenience becomes a necessity only for those aspects that are already extensive, such as an expansion.

Ilya Prigogine showed that any type of energy is made up of an intensive and an extensive variable whose product gives us an amount; an expansion, for example, is given by the PxV product of pressure (intensive) by volume (extensive). The same can be applied to changes in mass/density with velocity and volume, and so on.

The unstoppable proliferation of measurements in all areas of expertise already makes simplification increasingly necessary. But, beyond that, there is an urgent need to reduce the heterogeneity of physical magnitudes if intuition is to win the battle against the complexity with which we are accomplices.

All this is also closely related to finite calculus and the equally finitist algorithmic measurement theory developed by A. Stakhov. The classical mathematical measure theory is based on Cantor’s set theory and as we know it is neither constructive nor connected with practical problems, let alone the hard problems of the modern physical measurement theory. However, the theory developed by Stakhov is constructive and naturally incorporates an optimization criterion.

To appreciate the scope of the algorithmic measurement theory in our present quantitative Babel we must understand that it takes us back to the Babylonian origins of the positional numbering system, filling an important gap in the current theory of numbers. This theory is isomorphic with a new number system and a new general theory of biological population. The number system, created by George Bergman in 1957 and generalized by Stakhov, is based on the powers of φ. If for Pythagoras “all is number”, for this system “all number is continuous proportion”.

The algorithmic measure theory also raises the question of equilibrium, since its starting point is the so-called Bachet-Mendeleyev problem, which curiously also appears for the first time in Western literature with Fibonacci’s Liber Abacci of 1202. The modern version of the problem is to find the optimal system of standard weights for a balance that has a response time or sensitivity.

According to Stakhov, the key point of the weight problem is the deep connection between measurement algorithms and positional numbering methods. My impression however is that it still supports a deeper connection between dynamic equilibrium, calculus and what it takes to adjust a function; the weights for the plates needed by the beam of the scale identified by Mathis. Maybe there is no need to use powers of φ or to change the number system, but very useful ideas might be developed about the simplest algorithms.

Alexey Stakhov, The mathematics of Harmony

Of course, the algorithmic theory of complexity tells us that we cannot prove an algorithm is the simplest for a task, but that does not mean that we do not look for it continually, regardless of any demonstration. Efficiency and formal demonstration are largely unrelated.

Human beings inevitably tend to optimize what they measure most; however, we do not have a theory that harmonizes the needs of metrology with those of mathematics, physics and the descriptive sciences, whether social or natural. Today there are many different measure theories, and each discipline look for what is best for it. However, all metrics are defined by a function, and functions are defined by calculus or analysis, which does not want to have anything to do with the practical problems of measurement and pretends to be as pure as arithmetic even though it is far from it.

This may seem a somewhat absurd situation and in fact it is, but it also places a hypothetical measure theory that is in direct contact with the practical aspects, the foundations of calculus and arithmetic in a strategic situation above the drift and inertia of the specialities.

Calculus or analysis is not pure math, and it is too much to pretend that it is. On the one hand, and as far as physics is concerned, it involves at least a direct connection with questions of measurement that should be more explicit in the same math; on the other hand, the highly heuristic nature of its most basic procedures speaks for itself. If arithmetic and geometry have large gaps, being incomparably clearer, it would be absurd to pretend that calculus cannot have even much greater gaps.


On the other hand, physics will never cease to have both statistical and discrete components —bodies, particles, waves, collisions, acts of measurement, etc- besides continuous ones, which makes a relational-statistical analysis advisable.

An example of relational statistical analysis is the one proposed by V.V. Aristov. Aristov introduces a constructive and discrete model of time as motion using the idea of synchronization and physical clock that Poincaré already introduced precisely with the problem of the electron. Here each moment of time is a purely spatial picture. But it is not only a matter of converting time into space, but also of understanding the origin of the mathematical form of the physical laws: “The ordinary physical equations are consequences of the mathematical axioms, ‘projected’ into physical reality by means of the fundamental instruments. One can assume that it is possible to build different clocks with a different structure, and in this case we would have different equations for the description of motion”.

Aristov himself has provided clock models based on non-periodic, theoretically random processes, that are also of great interest. A clock based on a non-periodic process could be, for example, a piston engine in a cylinder; and this could also include thermodynamic processes.

It should also be noted that cyclical processes, despite their periodicity, mask additional or environmental influences, as we have seen with the geometric phase. To this, a deductive filter of unnecessarily restrictive principles is added, as we have already seen in the case of relativity. And as if all this were not enough, we have the fact, hardly recognized, that many processes considered purely random or “spontaneous”, such as radioactive decay, show discrete states during fluctuations in macroscopic processes, as has been extensively shown by S. Shnoll and his school for more than half a century.

Indeed, all kind of processes, from radioactive decay to enzymatic and biological reactions, through random number generators, show recurrent periods of, 24 hours, 27 and 365 days, which obviously correspond to astronomical cyclic factors.

We know that this regularity is filtered and routinely discounted as “non-significant” or irrelevant, in an example of how well researchers are trained to select data, but, beyond this, the question of whether such reactions are spontaneous or forced remains. An answer may be advanced: one would call them spontaneous even if a causal link could be demonstrated, since bodies contribute with their own momentum.

The statistical performance of multilevel neural networks —ultimately a brute force strategy- is increasingly hampered by the highly heterogeneous nature of the data and units with which they are fed, even though dynamic processes are obviously independent of the units. In the long run, the pureness of principles and criteria is irreplaceable, and the shortcuts that theories have sought for prediction accumulates a huge deal of deadweight. And again, it is of little use what conclusions machines can reach when we are already incapable of seeing through the simplest assumptions.

The performance of a relational network is also cumulative, but in exactly the opposite sense; perhaps it should be said, rather, that it grows in a constructive and modular way. Its advantages, such as those of relational physics —and information networks in general – are not obvious at first sight but increase with the number of connections. The best way to prove this is by extending the network of relational connections. And indeed, it is about collective work and collective intelligence.

With arbitrary cuts to relational homogeneity, destructive interference and irrelevant redundancy increase; conversely, the greater the relational density, the greater the constructive interference. I don’t think this requires demonstration: Totally homogeneous relations allow higher order degrees of inclusion without obstruction, just as equations made of heterogeneous elements can include equations within equations as opaque elements or knots still to unravel [46].


Let us go back to the calculus, but from a different angle. Mathis’ differential calculus does not always get the same results as the standard one, which would seem sufficient to rule it out. Since the principle is unquestionable, errors, if possible, might be due to an incorrect application of the principle, leaving the criteria still to be clarified. On the other hand, that there is a “dimensional reduction” of the curves in standard calculus is a fact, which however is not widely recognized because after all now the graphs are supposed to be secondary and even dispensable.

Are they really? Without graphs and curves calculus would never have been born, so that is enough. David Hestenes, the great advocator of geometric algebra and geometric calculus, says that geometry without algebra is dumb, and algebra without geometry is blind. We should add that not only algebra, but calculus too, and to a greater extent than we think, provided we understand that there is more to “geometry” than what the graphs usually tell us. We can now look at another type of graph, this time of vortices, due to P. A. Venis [47].

Peter Alexander Venis

In the transformation sequence Venis makes an estimate of its dimensionality that at first may seem arbitrary, although it is based on something as “obvious” as the transition from point to line, line to plane and plane to volume. The fractional dimensions seems at first sight striking, until we recognize it is just an estimate of the continuity within the order of the sequence, which could not be more natural.

Although Venis does not look for a proof, his transformation sequence is self-evident and more compelling than a theorem. One need only a minute of real attention to understand its evolution. It is a general key to morphology, regardless of the physical interpretation we want to give it.

For Venis the appearance of a vortex in the physical plane is a phenomenon of projection of a wave from a single one field where the dimensions exist as a compact whole without parts: a different way to express the primitive homogeneous medium of reference for dynamic equilibrium. It is clear that in a completely homogeneous medium we cannot characterize it as either full or void, and that we could say that it has either an infinite number of dimensions or no dimensions at all.

Thus, both the ordinary dimensions, as well as the fractional ones, and even the negative dimensions are a phenomenon of projection, of projective geometry. The physical nature is real since it participates in this one field or homogeneous medium, and it is a projected illusion to the extent that we conceive it as an independent part or an infinity of separate parts.

Peter Alexander Venis

Negative dimensions are due to a projection angle lower than 0 degrees, and lead to toroidal evolution beyond the bulb in equilibrium in three dimensions —that is, dimensions greater than the ordinary three. So they form a complementary projective counter-space to the ordinary space of matter, which with respect to unity is not less a projection than the first. Light and electricity are at opposite ends of manifestation, of evolution and involution in matter: light is the fiat, and electricity the extinction. Much could be elaborated on this but we will leave something for later.

Arbitrary cuts in the sequence leave fractional dimensions exposed, coinciding with the shapes we can appreciate. Since Mathis himself attributes the differences in results between his calculus and the standard calculus to the fact that the latter eliminates at least one dimension, and in the sequence of transformations we have a whole series of intermediate dimensions for basic functions, this would be an excellent workbench to compare both.

Michael Howell consider that fractal analysis avoids the usual dimensional reduction, and translates the exponential curve into “a fractal form of variable acceleration” [48]. It is worth noting that for Mathis the standard calculus has errors even in the elementary exponential function; the analysis of the dimensional evolution of vortices gives us a wide spectrum of cases to settle differences. I am thinking about fractional derivatives and differentiable curves, rather than fractals as non-differentiable curves. It would be interesting to see how the constant differential works with fractional derivatives.

The history of fractional calculus, which has gained great momentum in the 21st century, goes back to Leibniz and Euler and is one of the rare cases where both mathematicians and physicists ask for an interpretation. Although its use has extended to intermediate domains in exponential, wave-diffusion, and many other types of processes, fractional dynamics presents a non-local history dependence that deviates from the usual case, though there is also local fractional calculus. To try to reconcile this divergence Igor Podlubny proposed a distinction between inhomogeneous cosmic time and homogeneous individual time [49].

Podlubny admits that the geometrization of time and its homogenization are primarily due to calculus itself, as the intervals of space can be compared simultaneously, but the intervals of time cannot, and we can only measure them sequentially. What may be surprising is that this author attributes non-homogeneity to cosmic time, rather than to individual time, since in reality mechanics and calculus develop in unison under the principle of global synchronization and simultaneity of action and reaction. In this respect relativity is not different from Newtonian mechanics. According to Podlubny, individual time would be an idealization of the time created by mechanics, which is to put it upside down: in any case the idealization is the global time.

On the one hand, fractional calculus is seen as a direct aid for the study of all kinds of “anomalous processes”; on the other hand, fractional calculus itself is a generalization of standard calculus that includes ordinary calculus and therefore also allows to deal with all modern physics without exception. This makes us wonder if, more than dealing with anomalous processes, it is ordinary calculus what enforces a normalization, which affects all quantities it computes, time among them.

Venis also speaks of non-homogeneous time and temporal branches, though his reasoning remains undecided between the logic of the sequence, which represents an individualized flow of time, and the logic of relativity. However, it is the sequential logic that should define time in general and individual or local time in particular —not the logic of simultaneity of the global synchronizer. We shall return to this soon.

Cuestiones de programa —y de principio, otra vez: el cálculo, el análisis dimensional, la metrología y el reloj

En física y matemáticas, como en todas las áreas de la vida, tenemos principios, medios y fines. Los principios son nuestros puntos de partida, los medios, desde el punto de vista práctico-teórico, son los procedimientos de cálculo, y los fines son las interpretaciones. Estas últimas, lejos de ser un lujo filosófico, son las que determinan el contorno entero de representaciones y aplicabilidad de una teoría.

En cuanto a los principios, como ya comentamos, si queremos ver más de cerca de dónde emerge la razón continua, deberíamos observar todo lo posible las ideas de continuidad, homogeneidad y reciprocidad. Y esto incluye la consideración de que todos los sistemas son abiertos, puesto que si no son abiertos no pueden cumplir con el tercer principio de una forma digna de considerarse “mecánica”.

Estos tres, o si se quiere cuatro principios, están incluidos de forma inespecífica en el principio de equilibrio dinámico, que es la forma de prescindir del principio de inercia, y de paso, del de relatividad. Si por lo demás hablamos de continuidad, ello no quiere decir que afirmemos que el mundo físico deba de ser necesariamente continuo, sino que no se debería romper lo que parece una continuidad natural sin necesidad.

En realidad los principios también determinan el alcance de nuestras interpretaciones aunque no las precisan.

En cuanto al cálculo, que en forma de predicciones se ha convertido para la física moderna en la casi exclusiva finalidad, es precisamente el hecho de que siempre se trata de justificar la forma en que se han llegado a resultados que ya se conocían de antemano —en el comienzo de las teorías, antes de que se empiecen a emitir predicciones potencialmente contenidas en ella- lo que lo ha convertido en un útil heurístico por encima de consideraciones de lógica y consistencia. Por supuesto que existe una trabajosa fundamentación del cálculo por Bolzano, Cauchy y Weierstrass, pero ésta se preocupa más de salvar los resultados ya conocidos que de hacerlos más inteligibles.

En este punto no podemos estar más de acuerdo con Mathis, que ha emprendido una batalla en solitario por intentar depurar y simplificar estos fundamentos. A lo que Mathis propone se le puede buscar el precedente del cálculo de diferencias finitas y el cálculo de umbrales, pero éstos se consideran subdominios del cálculo estándar y en última instancia no han contribuido a aportar claridad.

Una velocidad instantánea sigue siendo un imposible que la razón rechaza, y además no existe tal cosa sobre un gráfico. Si hay teorías físicas, como la relatividad especial, que rompen innecesariamente con la continuidad de las ecuaciones clásicas, aquí tenemos el caso contrario, pero con otro efecto igualmente disruptivo: se crea una falsa noción de continuidad, o pseudocontinuidad, que no está justificada por nada. El cálculo moderno nos ha creado para nosotros una ilusión de dominio sobre el infinito y el movimiento sustrayendo al menos una dimensión del espacio físico, no haciendo en este caso honor a ese término “análisis” del que tanto se precia. Y esto, naturalmente, debería tener consecuencias en todas las ramas de la física matemática [45].

Los argumentos de Mathis son absolutamente elementales e irreductibles; se trata también de cuestiones de principio, pero no sólo de principio puesto que los problemas del cálculo son eminentemente técnicos. El cálculo original se concibió para calcular áreas bajo curvas y tangentes a esas curvas. Es evidente que las curvas de un gráfico no pueden confundirse con las trayectorias reales de objetos y que en ellas no hay puntos ni instantes, luego las generalizaciones de sus métodos contienen esa conflación dimensional.

El cálculo de diferencias finitas está además íntimamente relacionado con el problema de las partículas con extensión, sin las cuales es casi imposible pasar de la abstracción ideal de las leyes físicas a las formas aparentes de la naturaleza.

El mismo Mathis admite repetidamente, por ejemplo en su análisis de la función exponencial, que hay muchísimas cosas todavía por definir en su redefinición del cálculo, pero esto deberían ser buenas noticias, no malas. Al menos el procedimiento es claro: la derivada no se encuentra en un diferencial que se aproxima a cero, sino en un subdiferencial que es constante y que sólo puede ser la unidad, un intervalo unidad; un diferencial sólo puede ser un intervalo, nunca un punto, y es a esto a lo que la misma definición del límite debe su rango de validez. En los problemas físicos ese intervalo unidad debe corresponder a un tiempo transcurrido y una distancia recorrida.

Tratando de ver más allá de los esfuerzos de Mathis, podría decirse que, si las curvas vienen definidas por exponentes, cualquier variación en una función tendría que poder expresarse en forma de equilibrio dinámico cuyo producto es la unidad; y en todo caso por un equilibrio dinámico basado en un valor constante unitario, que es el intervalo. Si el cálculo y la mecánica clásicos crecieron uno junto al otro como gemelos casi indistinguibles, con aún más razón debería hacerlo una mecánica relacional en la que la inercia se disuelve siempre en movimiento.

La parte heurística del cálculo moderno se sigue basando en el promedio y la compensación de errores; mientras que la fundación es racionalizada en términos de límite, pero funciona por el intervalo unidad subyacente. La semejanza entre la barra de una balanza y una tangente es obvia; lo que no se ve es qué es precisamente lo que se compensa. El cálculo de Mathis no opera por promedios, el que opera por promedios es el cálculo estándar. Mathis ha encontrado el fiel de la balanza, ahora lo que falta es poner a punto los platos y los pesos. Luego volveremos sobre esto.

Las disputas que de cuando en cuando todavía existen, incluso entre grandes matemáticos, respecto al cálculo estándar y no estándar, o incluso las diversas formas de tratar infinitesimales, revelan al menos que distintos caminos son posibles; sólo que para la mayoría de nosotros resultan remotas y muy alejadas de las cuestiones básicas que habría que analizar en primer lugar.

Antes hablábamos de una fórmula de Tanackov para calcular la constante e mucho más rápida que “el método directo” clásico; pero es que matemáticos aficionados como el ya citado Harlan Brothers han encontrado, hace apenas veinte años, muchas formas cerradas diferentes de calcularla más rápidas y a la par que más compactas. La comunidad matemática lo puede tratar como una curiosidad, pero si esto pasa con los rudimentos más básicos del cálculo elemental, qué no podrá ocurrir en la tupida selva de las funciones de orden superior.

Un caso hasta cierto punto comparable sería el del cálculo simbólico o álgebra computacional, que ya hace 50 años comprobó que muchos algoritmos clásicos, incluida gran parte del álgebra lineal, eran terriblemente ineficientes. Sin embargo, y por lo que se ve, nada de esto ha afectado al cálculo propiamente dicho.

“Trucos” como los de Brothers permanecen en el dominio de la heurística, aunque hay que reconocer que ni Newton, ni Euler, ni ningún otro gigante del cálculo los conocía; pero aunque sean heurística no pueden dejar de apuntar en la dirección correcta, puesto que la simplicidad suele ser indicativa de la verdad. Sin embargo en el caso de Mathis hablamos no sólo de los fundamentos mismos, que ninguno de las revisiones del cálculo simbólico ha osado tocar, sino incluso de la validez de los resultados, lo que ya rebasa lo que los matemáticos están dispuestos a considerar. Al final del capítulo veremos si se puede justificar esto.

En realidad, pretender que un diferencial tienda a cero equivale a permitirlo todo con tal de llegar al resultado deseado; es la condición ideal de versatilidad para la heurística y la adhocracia. La exigencia fundamental del cálculo constante o unitario —del cálculo diferencial sin más- puede parecer al principio como poner un palo en una rueda que ya funciona a pleno rendimiento, pero es ante todo veraz. Ninguna cantidad de ingenio puede sustituir a la rectitud en la búsqueda de la verdad.

Lo de Mathis no es algo quijotesco; hay aquí mucho más de lo que puede verse a simple vista. Existen estándares reversibles y estándares prácticamente irreversibles, como la ineficaz distribución actual de las letras del alfabeto en el teclado, que parece imposible de cambiar aunque ya nadie usa las viejas máquinas. No sabemos si el cálculo infinitesimal será otro ejemplo de estándar imposible de revertir pero lo que aquí está en juego está mucho más allá de cuestiones de conveniencia, y bloquea una mejor comprensión de una infinidad de asuntos; su superación es condición indispensable para la transformación cualitativa del conocimiento.


Los físicos teóricos de hoy, obligados a una manipulación altamente creativa de las ecuaciones, tienden a desestimar el análisis dimensional como algo irrelevante y estéril; seguramente esa actitud se debe a que consideran que cualquier revisión de los fundamentos está fuera de lugar, y sólo cabe mirar hacia adelante.

En realidad, el análisis dimensional es más inconveniente que otra cosa, puesto que de ningún modo es algo inocuo: puede demostrar con sólo unas líneas que la carga es equivalente a la masa, que las relaciones de indeterminación de Heisenberg son condicionales e infundadas, o que la constante de Planck sólo debería aplicarse al electromagnetismo, en lugar de generalizarse a todo el universo. Y puesto que a la física teórica moderna está en el negocio de generalizar sus conquistas a todo lo imaginable, cualquier contradicción o restricción a su expansión por el único lugar por el que se le permite expandirse tiene que verse con notoria hostilidad.

En realidad es fácil ver que el análisis dimensional tendría que ser una fuente importante de verdades con sólo que se le permitiera ejercer su papel, puesto que la física moderna es una torre de Babel de unidades sumamente heterogéneas que son el reflejo de las contorsiones realizadas en nombre de la simplicidad o elegancia algebraica. Las ecuaciones de Maxwell, en comparación con la fuerza de Weber que le precedió, son el ejemplo más elocuente de esto.

El análisis dimensional cobra además un interés añadido cuando ahondamos en la relación entre cantidades intensivas y extensivas. La desconexión entre las constantes matemáticas e y φ también está asociada con esta amplia cuestión. En materia de entropía, por ejemplo, usamos los logaritmos para convertir propiedades intensivas como la presión y la temperatura en propiedades extensivas, convirtiendo por conveniencia relaciones multiplicativas en relaciones aditivas más manejables. Esa conveniencia se convierte en necesidad sólo para los aspectos que ya son extensivos, como la expansión.

Ilya Prigogine mostró que cualquier tipo de energía puede descomponerse en una variable intensiva y otra extensiva cuyo producto nos da una cantidad; una expansión, por ejemplo viene dada por el producto PxV de la presión (intensiva) por el volumen (extensiva). Lo mismo puede hacerse para relaciones como cambios de masa/densidad con la relación entre velocidad y volumen, etcétera.

La imparable proliferación de medidas en todas las especialidades ya hace cada vez más necesaria la simplificación. Pero, aparte de eso, existe la urgencia de reducir la heterogeneidad de magnitudes físicas si es que queremos que la intuición le gane la batalla a la complejidad de la que somos cómplices.

Todo esto además se relaciona estrechamente con el cálculo finito y la teoría algorítmica de la medida, igualmente finitista, desarrollada por A. Stakhov. La teoría matemática clásica de la medida se basa en la teoría de conjuntos de Cantor y como es sabido no es constructiva ni está conectada con los problemas prácticos, por no hablar ya de los arduos problemas de la teoría de medida en física. Sin embargo la teoría desarrollada por Stakhov es constructiva e incorpora naturalmente un criterio de optimización.

Para apreciar el alcance de la teoría algorítmica de la medida en nuestra presente babel numérica hay que comprender que nos lleva de vuelta a los orígenes en Babilonia del sistema de numeración posicional, llenando una laguna de gran importancia en la actual teoría de los números y los campos numéricos. Esta teoría es isomorfa con un nuevo sistema numérico y una nueva teoría de las poblaciones biológicas. El sistema numérico, creado por George Bergman en 1957 y generalizado por Stakhov, se basa en las potencias de φ. Si para Pitágoras “todo es número”, para este sistema “todo número es proporción continua”.

La teoría algorítmica de la medida también plantea la cuestión del equilibrio, puesto que su punto de partida es el llamado problema de Bachet-Mendeleyev, que curiosamente aparece también por primera vez en la literatura occidental en 1202 con el Liber Abacci de Fibonacci. La versión moderna del problema consiste en encontrar el sistema óptimo de pesos estándar para una balanza que tiene un tiempo de respuesta o sensibilidad. En el caso límite, en que no hay lapso de respuesta, el tiempo no interviene como factor operativo en el acto de encontrar los pesos.

Alexey Stakhov, The mathematics of Harmony

Según Stakhov, el punto clave del problema de los pesos es la profunda conexión entre los algoritmos de medida y los métodos posicionales de numeración. Sin embargo, mi impresión es que aún admite una conexión más profunda con el cálculo mismo y los problemas de ajustar una función. En fin, los pesos de los platillos que necesitaba el fiel de la balanza identificado por Mathis. Naturalmente, no decimos que sea necesario utilizar potencias de φ ni cambiar de sistema de numeración, pero se pueden desarrollar ideas muy útiles sobre los algoritmos más simples.

Por supuesto, la teoría algorítmica de la complejidad nos dice que no se puede demostrar que un algoritmo es el más simple, pero eso no significa que no los busquemos continuamente, con independencia de la demostración. La eficiencia y la demostración no tienen por qué coincidir, eso no tiene nada de sorprendente.

El ser humano tiende inevitablemente a optimizar aquello que más mide; sin embargo no tenemos una teoría que armonice las necesidades de la metrología y la teoría de la medida con las de la matemática, la física y las ciencias descriptivas, ya sean sociales o naturales. Hoy de hecho existen muchas teorías de la medida diferentes, y cada disciplina tiende a buscar aquello que más le conviene. Sin embargo todas las métricas vienen definidas por una función, y las funciones vienen definidas por el cálculo o análisis, que no quiere tener nada que ver con los problemas prácticos de la medida y pretende ser tan pura como la aritmética aunque esté muy lejos de ello.

Esto puede parecer una situación un tanto absurda y de hecho lo es, pero también sitúa a una hipotética teoría de la medida que esté en contacto directo con los aspectos prácticos, los fundamentos del cálculo y la aritmética en una situación estratégica privilegiada por encima de la deriva e inercia de las especialidades.

El cálculo o análisis no es una ciencia exacta, y es demasiado pretender que lo sea. Por un lado, y en lo que respecta a la física, comporta al menos una conexión directa con las cuestiones de medida que debería ser explícita del lado mismo de la matemática; por el otro lado, el carácter altamente heurístico de sus procedimientos más básicos habla por sí solo. Si la propia aritmética y la geometría tienen grandes lagunas, siendo incomparablemente más nítidas, sería absurdo pretender que el cálculo no puede tenerlas.


Por otra parte, la física nunca va a dejar de tener tanto componentes discretos y estadísticos —cuerpos, partículas, ondas, colisiones, actos de medición, etc- como continuos, lo que hace aconsejable un análisis estadístico relacional cronométrico.

Un ejemplo de análisis estadístico relacional es el que propone V. V. Aristov. Aristov introduce un modelo constructivo y discreto del tiempo como movimiento usando la idea de sincronización y de reloj físico que ya introdujo Poincaré justamente con la problemática del electrón. Aquí cada momento del tiempo es un cuadro puramente espacial. Pero no sólo se trata de la conversión del tiempo en espacio, también de entender el origen de la forma matemática de las leyes físicas: “Las ecuaciones físicas ordinarias son consecuencias de los axiomas matemáticos, ‘proyectados’ en la realidad física por medio de los instrumentos fundamentales. Uno puede asumir que es posible construir relojes diferentes con una estructura diferente, y en este caso tendríamos diferentes ecuaciones para la descripción del movimiento.”

El mismo Aristov ha provisto modelos de reloj partiendo de procesos no periódicos, esto es, supuestamente aleatorios, que también tienen un gran interés. Un reloj que parte de un proceso no periódico podría ser, por ejemplo, un motor de pistón en un cilindro; y esto puede dar pie a incluir igualmente los procesos termodinámicos.

Hay que notar, además, que los procesos cíclicos, aun a pesar de su periodicidad, enmascaran influencias adicionales o ambientales, como bien hemos visto con la fase geométrica. A esto se suma el filtro deductivo de principios innecesariamente restrictivos, como ya hemos visto en el caso de la relatividad. Y por si todos ello fuera poco, tenemos el hecho, apenas reconocido, de que muchos procesos considerados puramente aleatorios o “espontáneos”, como la desintegración radiactiva, muestran estados discretos durante fluctuaciones en procesos macroscópicos, como ha mostrado extensivamente S. Shnoll y su escuela durante más de medio siglo.

Efectivamente, desde la desintegración radiactiva a las reacciones enzimáticas y biológicas, pasando por los generadores automáticos de números aleatorios, muestran periodos recurrentes de 24 horas, 24 horas, 27 y 365 días, que obviamente responden a un patrón astronómico y cosmofísico.

Sabemos que esta regularidad es “cribada” y descontada rutinariamente como “no significativa”, en un ejemplo de hasta qué punto los investigadores están bien enseñados a seleccionar los datos, pero, más allá de esto, la pregunta sobre si tales reacciones son espontáneas o forzadas permanece. Pero se puede avanzar una respuesta: uno las llamaría espontáneas incluso en el caso en que pudiera demostrarse un vínculo causal, desde el momento en que los cuerpos contribuyen con su propio impulso.

El rendimiento estadístico de las redes neuronales multinivel —la estrategia de la fuerza bruta del cálculo- se ve frenado incrementalmente por el carácter altamente heterogéneo de los datos y unidades con los que se los alimenta, aun a pesar de que obviamente las dinámicas tratadas sean independientes de las unidades. A la larga no se puede prescindir de la limpieza de principios y criterios, y los atajos que han buscado las teorías para calcular suponen un peso muerto que se acumula. Y por encima de todo, de poco sirve a qué conclusiones puedan llegar las máquinas cuando nosotros ya somos incapaces de interpretar las cuestiones más simples.

El rendimiento de una red relacional es también acumulativo, pero justo el sentido contrario; tal vez habría que decir, más bien, que crece de manera constructiva y modular. Sus ventajas, como los de la física que lleva tal nombre —y las redes de información en general- no se advierten a primera vista pero aumentan con el número de conexiones. La mejor forma de probar esto es extendiendo la red de conexiones relacionales. Y efectivamente, se trata de trabajo e inteligencia colectivas.

Con los cortes arbitrarios a la homogeneidad relacional aumenta la interferencia destructiva y la redundancia irrelevante; por el contrario, a mayor densidad relacional, mayor es la interferencia constructiva. No creo que esto requiera demostración: Las relaciones totalmente homogéneas permiten grados de inclusión de orden superior sin obstrucción, del mismo modo que las ecuaciones hechas de elementos heterogéneos comportan ecuaciones dentro de ecuaciones en calidad de elementos opacos o nudos por desenredar [46].


Volvamos de nuevo al cálculo, aunque bajo otro ángulo. El cálculo diferencial de Mathis no siempre obtiene los mismos resultados del cálculo estándar, lo que parecería suficiente para descartarlo. Puesto que su principio es indudable, los errores podrían estar en el uso del principio, en su aplicación, quedando todavía los criterios por clarificar. Esto por un lado. Por el otro, que hay una “reducción dimensional” de las curvas en el cálculo estándar es un hecho, que sin embargo no es muy reconocido porque después de todo ahora se supone que los gráficos son secundarios y aun prescindibles.

¿Lo son realmente? Sin los gráficos el cálculo nunca hubiera nacido, y eso ya es suficiente. David Hestenes, el gran valedor del álgebra y cálculo geométricos, suele decir que la geometría sin álgebra es torpe, y el álgebra sin geometría ciega. Habría que añadir que no sólo el álgebra, sino igualmente el cálculo, y en una medida mayor de la que nos imaginamos; siempre que comprendamos que en la “geometría” hay más de lo que suelen decirnos los gráficos. Vamos ahora a observar otro tipo de gráficos, esta vez de vórtices, debidos a P. A. Venis [47].

Peter Alexander Venis

En la secuencia de transformación de vórtices Venis hace una estimación de su dimensionalidad que al principio puede parecer arbitraria, aunque se basa en algo tan “evidente” como el paso del punto a la recta, de la recta al plano y del plano al volumen. También sorprenden las dimensiones fraccionarias, hasta que comprendemos que se trata de una simple estimación sobre la continuidad dentro del orden de la secuencia, que no puede ser más natural.

Peter Alexander Venis

Aunque Venis no busque una demostración, su secuencia de transformaciones es más convincente que un teorema. Basta mirar un minuto con atención para que su evolución resulte evidente. Se trata de una clave general para la morfología, con independencia de la interpretación física que queramos darle.

Para Venis la aparición de un vórtice en el plano físico es un fenómeno de proyección de una onda de un campo único donde las dimensiones existen como un todo compacto y sin partes: otra forma de hablar del medio homogéneo como unidad de referencia para el equilibrio dinámico. Está claro que en un medio completamente homogéneo no podemos caracterizarlo ni como lleno ni como vacío, y lo mismo da decir que tiene un número infinito de dimensiones que decir que no tiene ninguna.

Así, tanto las dimensiones ordinarias, como las fraccionarias, e incluso las dimensiones negativas son un fenómeno de proyección, de geometría proyectiva. La naturaleza física es real puesto que participa de este campo único o medio homogéneo, y es una ilusión proyectada en la medida en que lo concebimos como una parte independiente o una infinidad de partes separadas.

Las dimensiones negativas se deben a un ángulo de proyección menor de 0 grados, y conducen a la evolución toroidal que va más allá del bulbo en equilibrio en tres dimensiones —es decir, las dimensiones superiores a las tres ordinarias. Forman por tanto un contraespacio proyectivo complementario del espacio ordinario de la materia, que no es menos proyección que el primero con respecto a la unidad. La luz y la electricidad están en extremos opuestos de la manifestación, de evolución e involución en la materia: la luz es el fiat, y la electricidad la extinción. Se podría elaborar mucho sobre esto pero dejaremos algo para luego.

Cortes arbitrarios en la secuencia dejan expuestas dimensiones fraccionales que coinciden con las formas que apreciamos. Puesto que el propio Mathis atribuye las diferencias de resultados entre su cálculo y el cálculo estándar a que este último elimina al menos una dimensión, y en la secuencia de transformaciones tenemos toda una serie de dimensiones intermedias para funciones básicas, éste sería un excelente banco de pruebas para comparar ambos.

Michael Howell afirma que con el análisis fractal se evita la reducción de dimensiones, y traduce la curva exponencial en “una forma fractal de aceleración variable” [48]. Hay que recordar que según Mathis el cálculo estándar tiene errores incluso en la función exponencial; el análisis de la evolución dimensional de los vórtices nos brinda un amplio espectro de casos para sacarnos de dudas. Pienso en derivadas fraccionales y curvas diferenciables, antes que en fractales entendidos como curvas no diferenciables. Sería interesante ver cómo se aplica el diferencial constante a derivadas fraccionales.

La historia del cálculo fraccional, que ha adquirido tanto auge en el siglo XXI, se remonta a Leibniz y a Euler y es uno de los raros casos en que matemáticos y físicos echan en falta una interpretación. A pesar de que su uso se ha extendido a dominios intermedios en procesos exponenciales, ondulatorios, difusivos y de muchos otros tipos, la dinámica fraccional presenta una dependencia no local de la historia que no concuerda con el tipo de evolución temporal acostumbrado; aunque también existe un cálculo fraccional local. Para tratar de conciliar esta divergencia Igor Podlubny propuso distinguir entre un tiempo cósmico inhomogéneo y un tiempo individual homogéneo [49].

Podlubny admite que la geometrización del tiempo y su homogeneización se deben ante todo al cálculo, y nota que los intervalos de espacio pueden compararse simultáneamente, pero los de tiempo no, y sólo podemos medirlos como secuencia. Lo que puede sorprender es que este autor atribuya la no homogeneidad al tiempo cósmico, en lugar de al tiempo individual, puesto que en realidad la mecánica y el cálculo se desarrollan al unísono bajo el principio de la sincronización global, de la simultaneidad de acción y reacción. En esto la relatividad no es diferente de la mecánica de Newton. El tiempo individual sería una idealización del tiempo creado por la mecánica, lo que es ponerlo todo del revés: en todo caso sería el tiempo de la mecánica el que es una idealización.

Por un lado el cálculo fraccional es contemplado como un auxiliar directo para el estudio de todo tipo de “procesos anómalos”; pero por otro lado el mismo cálculo fraccional es una generalización del cálculo estándar que incluye al cálculo ordinario y por lo tanto también permite tratar toda la física sin excepción. Esto hace pensar que, más que ocuparse de procesos anómalos, es el cálculo ordinario el que produce una normalización, que afecta a todas las cantidades que computa y entre ellas el tiempo.

Venis también habla de ramas temporales y tiempo no homogéneo, aunque sus razonamientos se quedan más bien a mitad de camino entre la lógica de su secuencia, que representa un flujo del tiempo individualizado, y la lógica de la relatividad. Sin embargo es la lógica secuencial la que debería definir el tiempo en general y el tiempo individual o tiempo local en particular —no la lógica de la simultaneidad del sincronizador global. Volveremos pronto sobre esto.

POLE OF INSPIRATION – The spark and the thread

Those who like simple problems can try to demonstrate this relationship before moving on. It’s insultingly easy:

φ = 1/φ +1 = φ-1+1 = 1/φ-1

We owe this fortunate discovery to John Arioni. The elementary demonstration, along with other unexpected relationships, is on the site Cut the knot [1]. The number φ is, naturally, the golden ratio (1+√ 5)/2, in decimal figures 1.6180339887…, and φ-1 is the reciprocal, 0.6180339887… . And since its infinite decimal places can be calculated by means of the simplest continuous fraction, here we will also call it the continuous ratio or continuous proportion, because of its unique role as mediator between discrete and continuous aspects of nature and mathematics.

This looks like the typical casual association of recreational math pages. One can get φ in many different ways with circles, but to my knowledge this is by far the most elementary of all, being the radius the unit of reference. In other words, this relation seems too simple and direct not to contain something important. And yet it has only recently been discovered, almost by chance.

John Arioni

Since Euclid and probably much earlier, the entire history of findings on this proportion has been derived from the division of a segment “in the extreme and mean ratio”, and has developed with the construction of squares and rectangles. The most immediate cases involving the circle come from the construction of the pentagon and the pentagram, no doubt known to the Pythagoreans; but one does not need to know anything about mathematics to realize that the relationship contained in this symbol is of a much more fundamental order —just as, from the quantitative point of view, the 2 is closer to 1 than 5, or from the qualitative one, the dyad is closer to the monad than the pentad.

If the circle and its central point are the most general and comprehensive symbol of the monad or unit, we have here the most immediate and revealing proportion of reciprocity, or dynamic symmetry, presented after the division into two parts. The Taijitu has a double function, as a symbol of the supreme Pole, beyond duality, and as a representation of the first great polarity or duality. It is, as it were, halfway between both, and both are linked by a ternary relationship —precisely the continuous proportion.

A relation is the perception of a dual connection, while a proportion implies a third order relationship, a “perception of perception”. Since at least the times of the Kepler’s triangle, we have known that the golden mean articulates and conjugates in itself the three most fundamental means of mathematics: the arithmetic mean, the geometric mean, and the so-called harmonic mean between both.

We could ask ourselves what would have happened if Pythagoras had known about this correlation, which would certainly have exalted Kepler’s imagination as well. It will be said that, like any other counterfactual, there is no point about it. But the question is not as much about the past that might have been as it is about the possible future. Pythagoras could hardly have been as surprised as we are, since he knew nothing about the decimal values of φ or π . Today we know that they are two ratios running to an infinite number of decimal places, and yet they are linked exactly by the most elementary triangular relationship.

Mathematical truth is beyond time, but not its revelation and construction. This allows us to see certain things with the insight of a Geohistory, as it were, in four dimensions. There has been speculation about what would have happened if the Greeks had known and made use of the zero, and whether they might have developed modern calculus. This is very doubtful, since they would have still needed to make a series of great leaps far from their conception of the world, such as the numbering system, the zero and its positional use, the idea of derivative, and so on. The double spirals were a common motif in archaic Greece, and the arithmetical speculations of the Pythagoreans, very similar in nature to those developed by the Chinese over time; but for whatever reason the Greeks did not intertwine the two spirals into one, and, in China itself, a diagram like the one we know today did not came into existence until the end of the Ming dynasty and only after a lengthy evolution.

Which is just another example of how hard is to see the obvious. It’s not so much the thing itself, but the context in which it emerges and in which it fits. Depending on how one looks at it, this can be encouraging or discouraging. In knowledge there is always a high margin to simplify, but as in so many other things, that margin depends to a large extent on knowing how to make it happen.

The Taijitu, the symbol of the supreme Pole, is a circle, a wave and a vortex all in one. Of course, the vortex is reduced to its minimum expression in the form of a double spiral. Characteristically, the Greeks separated their double spirals, and eventually turn them into squares, in the motifs known today as grecas. It is just another expression of their taste for statics, a bent that set the general framework for the reception of the golden mean in mathematics and art, and which has come down to us through the Renaissance.

The series of numbers that approximate infinitely the continuous proportion, known to us as Fibonacci numbers, appeared already long before in the numerical triangles consecrated in India to Mount Meru, “the mountain that surrounds the world”, which is just another designation of the Pole. As it is well known, from this figure, called the Pascal’s triangle in the West, a huge number of combinatory properties, scales and sequences of musical notes are derived.

The polar triangle, known in other cultures as Khayyam’s triangle or Yang Hui’s triangle, is one of those “extraordinarily well connected” mathematical objects: from it one can derive the binomial expansion, the binomial and normal statistical distributions, the sin(x)n+1/x transform of harmonic analysis, the matrix esponential and the exponential function, or the values of the two great gears of calculus, the constants π and e. It is almost incredible that the elemental connection with the Euler number has not been discovered until 2012 by Harlan J. Brothers. Instead of adding up all the figures in each row, one only needs to extract the ratio of ratios for their product; the difference between sums and products is a motif that will emerge several times throughout this article.

The polar triangle looks like an arithmetic and “static” representation, while the Taijitu is like a geometric snapshot of something purely dynamic. However, the rich implications for music of this triangle, partially explored by the work of Ervin Wilson, largely circumvent the separations created by adjectives such as “static” and “dynamic”. In any case, if the staircase of figures deployed in Mount Meru is an infinite progression, when we finally see the lines hidden in the circular diagram of the Pole we immediately know that it is something irreducible —the first offers us its arithmetical deployment and the second its geometric retraction.

The oldest known mention of the triangle, albeit a cryptical one, can be found in the Chandaḥśāstra of Pingala, where Mount Meru is shown as the formal archetype for metric variants in versification. It is also fair to say that the first Chinese author to deal with the polar triangle is not Yang Hui but Jia Xian (ca. 1010-1070), a strict contemporary of the philosopher and cosmologist Zhou Dunyi (1017-1073), the first author who publicized the Taijitu diagram.

Nowadays very few people are aware that both figures are representations of the Pole. It is my conjecture that all the mathematical relationships that can be derived from the polar triangle can also be found in Taijitu, or at least generated from it, although under a very different aspect, and with a certain twist that possibly involves φ. Both would be a dual expression of the same unity. Mathematicians will see what is the point of this.

Between counting and measuring, between arithmetic and geometry, we have the basic areas of algebra and calculus; but there is an overwhelming evidence that the latter branches have developed in one particular direction more than in others —more in decomposition than in composition, more in addition than in multiplication, more in analysis than synthesis. So the study of the relations between this two expressions of the Pole could be full of interesting surprises and basic but not trivial results, and it poses a different orientation for mathematics.

It can be seen that the arithmetic triangle has closed links with fundamental aspects of calculus and the mathematical constant e, while the Taijitu and the constant φ lack in this respect relevant connections —hence the totally marginal character of the continuous proportion in modern science. It has been said that the latter, unlike the intimate connection with change of Euler’s number, is a static relationship. However, its appearance in the extremely dynamic character of the yin-yang symbol already warns us of a general change of context.

For centuries calculus has been dissolving the relationship between geometry and change in favor of algebra and arithmetic, of not so pure numbers. Now we can turn this sandglass upside down observing what happens on the upper bulb, the lower bulb and the neck.


The appearance of the golden mean between the yin and yang in a purely curvilinear fashion not only is not static but on the contrary cannot be more dynamic and functional, and indeed the Taijitu is the most complete expression of activity and dynamism with the minimum number of elements. The diagram also has an intrinsic organic and biological connotation, inevitably evoking cell division, which in fact is an asymmetrical process, and, at least in plant growth, often follows a sequence governed by this ratio. In other words, the context in which the continuous ratio emerges here is the true antithesis of its Greek reception that has lasted until today, and this can have far-reaching implications on our perception of this proportion.

Oleg Bodnar has developed an elegant mathematical model of plant phyllotaxis with hyperbolic golden functions in three dimensions and with coefficients of reciprocal expansion and contraction that can be seen in the great panoramic book that Alexey Stakhov dedicates to the Mathematics of Harmony [2]. It is an example of dynamic symmetry that can be perfectly combined with the great diagram of polarity, regardless of the nature of the underlying physical forces.

The presence of spiral patterns based on the continuous proportion and their numerical series in living beings does not seem mysterious. Whether in the case of a nautilus or vegetable tendrils, the logarithmic spiral —the general case- allows indefinite growth with no change of shape. Spirals and helixes seem an inevitable result of the dynamics of growth, by the constant accretion of material on what is already there. At any rate, we should ask why among all the possible proportions of the logarithmic spiral those close to this constant arise so often.

And the answer would be that the discrete approaches to the continuous proportion also have optimal properties from several points of view —and cell growth ultimately depends on the discrete process of cell division, and at higher levels of organization, on other discrete elements such as tendrils or leaves. Since the convergence of the continuous ratio is the slowest, and plants tend to fill as much room as possible, this ratio allows them to emit the greatest number of leaves in the space available.

This explanation seems, from a descriptive point of view, sufficient, and makes it unnecessary to invoke natural selection or deeper physical mechanisms. However, in addition to the basic discrete-continuos relationship, it contains implicitly a powerful link between forms generated by an axis, such as the pine cones, and the so-called “principle of maximum entropy production” of thermodynamics, which we will find later again.

Needless to say, we do not think this proportion has “the secret” to any universal canon of beauty, since surely such a canon does not even exist. However, its recurrent presence in the patterns of nature shows us different aspects of an spontaneous principle of organization, or self-organization, behind what we superficially call “design”. On the other hand, the appearance of this mathematical constant, due to its very irreducible properties, in a great number of problems of optimization, maximums and minimums, and parameters with critical points allows us to connect it both naturally and functionally with human design and its search for the most efficient and elegant configurations.

The emergence of the continuous proportion in the dynamic symbol of the Pole —of the very principle- augurs a substantive change both in the contemplation of Nature and in the artificial constructions of human beings. Contemplation and construction are antagonistic activities. One goes top-down and the other bottom-up, but there is always some sort of balance between both. Contemplation allows us to free ourselves from the connections already built, and construction gets ready to fill the resulting void with new ones.

It is somewhat strange that the continuous proportion, despite its frequent presence in Nature, is so poorly connected with the two great constants of calculus, π and e —except for anecdotic incidences as the “logarithmic golden spiral”, which is only a particular case of an equiangular spiral. We know that both π and e are transcendental numbers, while φ is not, although it is indeed the “most irrational number”, in the sense that it is the one with the slowest approximation by rational numbers or fractions. φ is also the simplest natural fractal.

Until now, the most direct link with trigonometric series has been through the decagon and the identities φ = 2cos 36° = 2cos (π/5). It has not been associated so far with imaginary numbers, i being the other great constant of calculus, which is concurrent with the other two in Euler’s formula, of which the so-called Euler identity (eiπ = -1) is a particular case.

The number e, base of the function that is its own derivative, appears naturally in rates of change, the subdivisions ad infinitum of a unit that tend to a limit or in wave mechanics. The imaginary numbers, on the other hand, so common in modern physics, appeared for the first time with the cubic equations and pop up each time additional degrees of freedom are assigned to the complex plane.

Actually, complex numbers behave exactly like two-dimensional vectors, in which the real part is the inner or scalar product or and the so-called imaginary part corresponds to the cross or vector product; so imaginary numbers can only be associated with motions, rotations and positions in space in additional dimensions, not with the physical quantities themselves.

This is easier to say than to think of, since it is even more “complex” to determine what a physical quantity or a mathematical variable can be independently of change and motion. Both to geometrically interpret the meaning of vectors and complex numbers in physics and to generalize them to any dimension a tool like geometric algebra may be used —”the algebra flowing from geometry”, as Hestenes put it; but even then there is much more to geometry than we may think.

Many problems become more simple on the complex plane, or so the mathematicians say. One of them, under the pseudonym Agno sent in 2011 an entry to a math forum with the title “Imaginary Golden Mean”, which shows a direct connection with π and e : Φi = e ± πi/3 [3]. Another anonymous author found this same identity in 2016, along with similar derivations, looking for fundamental properties of an operation known as “reciprocal addition”, of interest in circuits and parallel resistances calculations. As refraction is a kind of impedance, it may also have its place in optics. The relation in the polar diagram may be associated right from the start with geometric series and hypergeometric functions associated with continuous fractions, modular forms and Fibonacci series, and even with noncommutative geometry [4]. The imaginary golden ratio, in any case, reflects as in a mirror many of the qualities of its real part.

The Taijitu is a circle, a wave and a vortex all in one. The synthetic genius of nature is quite different from that of man, and she does not ask for unifications because not to arbitrarily separate is enough for her. Nature, as Fresnel said, does not care about analytical difficulties.

The diagram of the Taijitu becomes a flat section of a double spiral expanding and contracting in three dimensions, a motion that seems to give it an “extra dimension” in time. It is always a real challenge to follow the evolution of this process, both spiral and helical, within a vertical cylinder, which is but the complete representation of the indefinite propagation of a wave motion, the “universal spherical vortex” described by René Guenon in three short chapters of his work “The Symbolism of the Cross”. The cross of which Guenon speaks is certainly a system of coordinates in the most metaphysical sense of the word; but the physical side of the subject is by no means negligible.

The propagation of a wave in space is a process as simple as it is difficult to grasp in its entirety; one need only think of Huygens’ principle, the universal mode of propagation, which also underlies all quantum mechanics, and which involves continuous deformation in a homogeneous medium.

In that same year of 1931 when Guenon was writing about the evolution of the universal spherical vortex, the first work was published on what we know today as the Hopf fibration, the map of the connections between a three-dimensional sphere and a sphere in two dimensions. This enormously complex fibration is found even in a simple two-dimensional harmonic oscillator. Also in the same year, Paul Dirac conjectured the existence of that unicorn of modern physics known as the magnetic monopole, which brought the same kind of evolution into the context of quantum electrodynamics.

Peter Alexander Venis gives us in a wonderful work a completely phenomenological approach to the classification and typology of the different vortices. There is nothing mathematical here, neither advanced nor elementary, but a sequence of transformations of 5 + 5 + 2, or 7 classes of vortices with many types and countless variants that unfold from the completely undifferentiated only to return to the undifferentiated again —or to the infinity of which Venis prefers to speak. The transitions from ideal points with no extension to the apparent forms of nature seems quite arbitrary without the aid of vortices, hence their importance and universality.

Peter Alexander Venis

Venis does not deal with the mathematical and physical aspects of such a complex subject as vortices, and of course he does not apply to them the continuous proportion; on the contrary he gives us the privilege of a new fresh vision of these rich processes, in which the insight of a presocratic naturalist and the capacity for synthesis of a Chinese systematist meet together effortlessly.

Even if the Venis sequence admits variations, it presents us a morphological model of evolution that goes beyond the scope of ordinary sciences and disciplines. The author includes under the term “vortices” flow processes that may or may not have rotation, but there is a good reason for that, since this is necessary to cover key conditions of equilibrium. He also applies the theory of yin and yang in a way that is both logical and intuitive, which probably admits a fairly elementary translation to the qualitative principles of other traditions.

The study of this sequence of transformations, in which questions of acoustics and image are closely linked, should be of immediate interest in order to deepen the criteria of morphology and design even without the need to enter into further considerations.

Peter Alexander Venis

A metric-free description would be, precisely, the perfect counterpoint for a subject as badly affected by arbitrariness in the measurement criteria as the study of proportionality. Naturally, mathematics also has several tools essentially free of metrics, such as external differential forms, which allow the study of the physical fields with maximum elegance. Then, perhaps, the metrics that physics deals with could be used as a middle ground between both extremes.

Thus, in this search to better define the context for the appearance of the continuous proportion in the world of phenomena, we can speak of three types of basic spaces: the ametric or metric-free space, the metric spaces, and the parametric or parameter spaces.

By metric-free space we understand the different spaces that are free of metrics and the action of measurement, from the purely morphological sequence of vortices above to projective geometry or the metric independent parts of the topology or differential forms. The projective, metric-independent space is the only true space; if we sometimes speak of metric spaces it is only because of the different connections with metric spaces.

By metric spaces, we mean those of the fundamental theories in physics, not only mainstream theories but also other related, with a special emphasis on Euclidean metric space in three dimensions of our ordinary experience. They include physical constants and variables, but here we are particularly interested in theories that do not depend on dimensional constants and can be expressed in homogeneous proportions or quantities.

By parametric or parameter spaces we mean the spaces of correlations, data, and adjustable values that serve to define mathematical models, with any number of dimensions. We can also call it the algorithmic and statistical sector.

We are not going to deal here with the countless relationships that can exist between these three kinds of spaces. Suffice it to say that to get out of this labyrinth of complexity in which all sciences are already immersed, the only possible Ariadne’s thread, if any, has to trace a retrograde path: from numbers to phenomena, with the emphasis on the latter and not the other way around. And we are referring to phenomena not previously limited by a metric space.

Much has been said about the distinction between “the two cultures” of sciences and the humanities, but it should be noted that, before attempting to close this by now unsurmountable gap, we should begin first by bridging the gap between the natural, descriptive sciences and a physical science that, justified by its predictions, becomes indistinguishable with the power of abstraction of mathematics while isolating itself from the rest of Nature, to which it would like to serve as foundation. Reversing this fatal trend is of the greatest importance for the human being, and all efforts in that direction are worthwhile.

POLO DE INSPIRACIÓN – El hilo de Ariadna

Los que gusten de problemas sencillos, pueden intentar demostrar esta relación antes de seguir adelante. Es insultantemente fácil:

φ = 1/φ +1 = φ-1+1 = 1/φ-1

Debemos este afortunado descubrimiento a John Arioni. El que quiera puede ver la elemental demostración, junto a otras relaciones inesperadas, en la página correspondiente de Cut the knot, [1]. El número φ es, naturalmente, la razón áurea (1+√ 5)/2, en cifras decimales 1,6180339887…, y cuyo recíproco es 0,6180339887… . Y puesto que sus infinitas cifras pueden calcularse por medio de la fracción continua más simple, aquí también la llamaremos razón continua o proporción continua, debido a su rol de mediador entre aspectos discretos y continuos de la naturaleza y la matemática.

Podría pensarse que esta es la típica asociación casual de las páginas de matemáticas recreativas. Se puede obtener φ de muchas maneras con círculos, pero por lo que sé ésta es la más elemental de todas, y la única en que la unidad de referencia es el radio. Dicho de otro modo, esta relación parece demasiado simple y directa para no contener algo importante. Y sin embargo no se ha descubierto sino muy recientemente.

John Arioni

Desde Euclides y probablemente desde mucho antes, la entera historia de las investigaciones sobre esta proporción se ha derivado de la división de un segmento “en extrema y media razón”, y ha proseguido con la construcción de cuadrados y rectángulos. Los casos más inmediatos implicando al círculo provienen de la construcción del pentágono y el pentagrama, conocidos sin duda por los pitagóricos; pero no hace falta saber nada de matemáticas para darse cuenta de que la relación contenida en este símbolo es de un orden mucho más fundamental —tanto como, desde el punto de vista cuantitativo, el 2 está más cerca del 1 que el 5, o desde el punto cualitativo, la díada está más cerca de la mónada que la péntada.

Si el círculo y su punto central son el símbolo más general y abarcador de la mónada o unidad, aquí sin duda tenemos la proporción más inmediata y reveladora de la reciprocidad, o simetría dinámica, presentada tras la división en dos partes. El Taijitu tiene una doble función, como símbolo del Polo supremo, más allá de la dualidad, y como representación de la primera gran polaridad o dualidad. Se encuentra, como si dijéramos, a mitad de camino entre ambos, y ambos se vinculan por una relación ternaria —justamente la proporción continua.

Una relación es la percepción de una conexión dual, mientras que una proporción o correlación implica una relación de tercer orden, una “percepción de la percepción”. Desde al menos los tiempos del triángulo de Kepler, hemos sabido que la razón áurea articula y conjuga en sí misma las tres medias más fundamentales de la matemática: la media aritmética, la media geométrica, y la llamada media armónica entre ambas.

Podríamos preguntarnos qué hubiera ocurrido si Pitágoras hubiera conocido esta correlación, que ciertamente habría exaltado a Kepler también. Se dirá que, como cualquier otro supuesto contrafáctico, la pregunta es irrelevante. Pero la pregunta podría no estar dirigida tanto a los pasados que pudieron ser como a los futuros posibles. Pitágoras difícilmente hubiera podido sorprenderse tanto como nosotros, puesto que nada sabía de los valores decimales de φ o de π . Hoy sabemos que son dos razones con un número infinito de cifras, y que sin embargo se vinculan de manera exacta por la más elemental relación triangular.

La verdad matemática está más allá del tiempo, pero su revelación y construcción no. Esto nos permite ver ciertas cosas con la mirada de una Geohistoria, como si dijéramos, en cuatro dimensiones. Se ha especulado sobre lo que habría pasado si los griegos hubieran conocido y hecho uso del cero, sobre si tal vez hubieran desarrollado el cálculo moderno. Ello es muy dudoso, pues aún habrían necesitado dar una serie de grandes saltos muy lejanos a su concepción del mundo, como el sistema de numeración, el cero y su uso posicional, la idea de derivada, etcétera. Las espirales dobles eran un motivo común en la Grecia arcaica, y las especulaciones aritmológicas de los pitagóricos, muy similares en naturaleza a las que con el paso del tiempo desarrollaron los chinos; pero por lo que fuera los griegos no entrelazaron las dos espirales en una, y, en la misma China, no se llegó a un diagrama como el que hoy conocemos sino hasta finales de la dinastía Ming, tras una larga evolución.

Lo que es sólo otro ejemplo de cuánto cuesta ver lo más simple. No es tanto la cosa misma, sino el contexto en el que emerge y en el que encaja. Según se mire, esto puede ser tan alentador como desalentador. En el conocimiento siempre hay un alto margen para simplificar, pero como en tantas otras cosas, ese margen depende en la mayor medida de saber encontrar las circunstancias.

El Taijitu, el símbolo del polo supremo, es un círculo, una onda y un vórtice todo en uno. Por supuesto, el vórtice está reducido a su mínima expresión en la forma de una doble espiral. De forma característica, los griegos separaron sus espirales dobles, y llegaron con el tiempo a dibujarlas cuadradas, en lo que hoy conocemos como grecas. No es sino otra expresión de su gusto por la estática, un gusto que también sirvió de marco general para la recepción de la proporción continua en la matemática y el arte, y que ha llegado hasta nosotros a través del Renacimiento.

La serie de números que aproximan hasta el infinito la razón continua, conocida ahora como números de Fibonacci, aparecía ya mucho antes en los triángulos de números consagrados en la India al monte Meru, “la montaña que rodea al mundo”, que es justamente otra designación del Polo. Como es sabido, de esta figura, conocida en Occidente como triángulo de Pascal, se derivan un enorme número de propiedades combinatorias, de teoría de la probabilidad o de escalas y secuencias de notas musicales.

El triángulo polar, conocido en otras culturas como triángulo de Khayyam o triángulo de Yang Hui, es uno de esos objetos matemáticos de los que se dice que están “extraordinariamente bien conectados”: de él pueden derivarse la expansión binomial, las distribuciones binomial y normal de la estadística, la transformada sen(x)n+1/x del análisis armónico, la matriz y la función exponencial, o los valores de los dos grandes engranajes del cálculo, las constantes π y e. Resulta casi increíble que la elemental conexión con el número de Euler no se haya descubierto hasta el año 2012 —por Harlan J. Brothers. Se trata, en lugar de sumar todas las cifras de cada fila, simplemente de extraer la ratio de ratios de su producto; la diferencia entre sumas y productos es un motivo que emergerá varias veces a lo largo de este artículo.

El triángulo polar parece una representación aritmética y “estática”, mientra que el Taijitu es como una instantánea geométrica de algo puramente dinámico. Sin embargo las complejas implicaciones para la música de este triángulo, parcialmente exploradas por el gran trabajo de investigación de Ervin Wilson, burlan en buena medida las separaciones creadas por adjetivos como “estático” y “dinámico”. En cualquier caso, si la escalera de cifras descrita por el monte Meru es un despliegue infinito, al ver las líneas escondidas en el diagrama circular del Polo sabemos de inmediato que se trata de algo irreductible —la primera nos ofrece su despliegue aritmético y la segunda su repliegue geométrico.

La primera mención conocida del triángulo, si bien de forma críptica, se encuentra en el Chandaḥśāstra de Pingala, donde el monte Meru se muestra como arquetipo formal para las variantes métricas en la versificación. También cabe decir que el primer autor chino que trata del triángulo polar no es Yang Hui sino Jia Xian (ca. 1010–1070), estricto contemporáneo del primer autor que difundió el símbolo del yin y del yang, el filósofo y cosmólogo Zhou Dunyi (1017–1073).

Hoy en día muy pocos son consciente de que ambas figuras son representaciones del Polo. Es mi conjetura que todas las relaciones matemáticas que pueden derivarse del triángulo polar también pueden encontrarse en el Taijitu, o al menos generarse a partir de él, aunque ciertamente bajo un aspecto muy diferente, y con un cierto giro que posiblemente implique a φ. Ambas serían la expresión dual de una misma unidad. Queda para los matemáticos ver qué hay de cierto en esto.

Entre contar y medir, entre la geometría y la aritmética, tenemos las áreas básicas del álgebra y el cálculo; pero hay sobrada evidencia de que éstas últimas ramas se han desarrollado en una dirección particular más que en otras —más en descomponer que en recomponer, más en el análisis que en la síntesis, más en las sumas que en los productos. Así que el estudio de las relaciones entre las dos expresiones del polo podría estar llena de interesantes sorpresas y resultados básicos pero no triviales, y plantea una orientación muy diferente para las matemáticas.

Se observa que el triángulo aritmético tiene diversas asociaciones con aspectos fundamentales del cálculo y la constante matemática e, mientras que el Taijitu y la constante φ carecen a este respecto de conexiones relevantes —de ahí el carácter totalmente marginal de la proporción continua en la ciencia moderna. Se ha dicho que ésta es una relación estática, a diferencia de la íntima relación con el cambio del número de Euler. Sin embargo el carácter extremadamente dinámico del símbolo del yin y el yang ya nos advierte de un cambio general de contexto.

Durante siglos el cálculo ha estado disolviendo la relación entre la geometría y el cambio en beneficio de la aritmética, de no tan puros números. Ahora podemos darle la vuelta a este reloj de arena, observando lo que ocurre en la ampolla superior, la inferior y en el cuello.


La disposición de la proporción continua entre el yin y el yang en un entorno puramente curvilíneo no solo no es estática sino que por el contrario no puede ser más dinámica y funcional, y, efectivamente, el Taijitu es la expresión más acabada de actividad y dinamismo con el número mínimo de elementos. El diagrama tiene además una intrínseca connotación orgánica y biológica, evocando de forma inevitable la división celular, que en realidad es asimétrica, y, al menos en el crecimiento vegetal, sigue a menudo una secuencia gobernada por esta razón. Es decir, el contexto en el que aquí emerge la razón continua es la verdadera antítesis de su recepción griega prolongada hasta hoy, y eso debería tener profundas consecuencias en nuestra percepción de dicha proporción.

Oleg Bodnar ha desarrollado un elegante modelo matemático de la filotaxis vegetal con funciones hiperbólicas áureas en tres dimensiones y con coeficientes recíprocos de expansión y contracción que puede verse en el gran libro panorámico que Alexey Stakhov dedica a la Matemática de la Armonía [2]. Es un ejemplo de simetría dinámica que puede conjugarse perfectamente con el gran diagrama de la polaridad, con independencia de la naturaleza de las fuerzas físicas subyacentes.

La presencia de patrones espirales basados en la proporción continua y sus series numéricas en los seres vivos no parece demasiado misteriosa. Ya sea en el caso de un nautilo o de zarcillos vegetales, la espiral logarítmica —el caso general- permite un crecimiento indefinido sin cambio de forma. Las hélices y espirales son un resultado inevitable de la dinámica del crecimiento, por la acreción constante de material sobre lo que ya está allí. En todo caso habría que preguntar por qué entre todas las posibles medidas de la espiral logarítmica surgen tan a menudo las que se acercan a este número en particular.

Y la respuesta sería que las aproximaciones discretas a la proporción continua tienen también unas propiedades óptimas desde varios puntos de vista —y el crecimiento celular depende en última instancia del proceso discreto de división celular, y a niveles de organización más elevados, de otros elementos discretos como las hojas. Puesto que la convergencia de la razón continua es la más lenta, y las plantas tienden a ocupar al máximo el espacio disponible, esta proporción les permite emitir el mayor número de hojas en un espacio dado.

Esta explicación parece, desde un punto de vista descriptivo, suficiente, y hace innecesario invocar la selección natural o mecanismos más profundos relacionados con la física. Sin embargo, además de la relación básica entre lo continuo y lo discreto, contiene implícito un vínculo de gran alcance entre formas generadas por un eje, como las piñas de un pino, y la termodinámica, en particular con el llamado “principio de la máxima producción de entropía”, que volveremos a encontrar más adelante.

Ni que decir tiene que no pensamos que esta proporción contenga “el secreto” para ningún canon universal de belleza, puesto que seguramente un canon tal ni siquiera existe. Sin embargo su presencia recurrente en los patrones de la naturaleza nos muestra aspectos muy variados de un principio espontáneo de organización, o autoorganización, detrás de lo que denominamos superficialmente “diseño”. Por otra parte la aparición de esta constante matemática, por sus mismas irreductibles propiedades, en un gran número de problemas de máximos y mínimos —de optimización- y de parámetros con puntos críticos permite vincularla natural y funcionalmente con el diseño humano y su búsqueda de las configuraciones más eficientes y elegantes.

La emergencia de la razón continua en el símbolo dinámico del polo —del principio mismo- augura un cambio sustantivo tanto en la contemplación de la naturaleza como en las construcciones artificiales de los seres humanos. Contemplación y construcción son actividades antagónicas. Una va de arriba abajo y la otra de abajo arriba, pero siempre se produce alguna suerte de equilibrio entre ambas. La contemplación permite liberarnos de los vínculos ya construidos, y la construcción se apresta a llenar el vacío resultante con otros nuevos.

Resulta un tanto extraño que la razón continua, a pesar de su frecuente presencia en la naturaleza, se encuentre tan poco conectada con las dos grandes constantes del cálculo, π y e —salvo por la ocurrencia de la “espiral logarítmica áurea”, que es sólo un caso particular de espiral equiangular. Sabemos que tanto π como e son números trascendentales, mientras que φ no lo es, aunque sí es el “número más irracional”, en el sentido de que es el de más lenta aproximación por números racionales o fracciones. φ también es el más simple fractal natural.

Hasta ahora, el vínculo más directo con las series trigonométricas ha sido a través del decágono y las identidades φ = 2cos 36° = 2cos (π/5). Tampoco hasta ahora se ha asociado demasiado con los números imaginarios, siendo i, por así decirlo, la tercera gran constante, que se conjuga con las dos citadas en la fórmula de Euler, de la que la llamada identidad de Euler (eiπ = -1) es un caso particular.

El número e, base de la función que es su propia derivada, aparece naturalmente en tasas de cambio, las subdivisiones ad infinitum de una unidad que tienden a un límite y en la mecánica ondulatoria en general. Los números imaginarios, por otro lado, tan comunes en la física moderna, aparecen por primera vez con las ecuaciones cúbicas y retornan cada vez que se asignan grados de libertad adicional al plano complejo.

En realidad los números complejos se comportan exactamente como vectores con dos dimensiones, en los que la parte real es el producto interno o escalar y la parte llamada imaginaria corresponde al producto cruz o vectorial; así que sólo cabe asociarlos a movimientos, posiciones y rotaciones en el espacio en dimensiones adicionales, no a las cantidades físicas propiamente dichas.

Esto se dice más fácil que se piensa, puesto que es aún más “complejo” determinar qué es una cantidad física o una variable matemática independientemente de cambio y movimiento. Tanto para interpretar geométricamente el significado de vectores y números complejos en física como para generalizarlos a cualquier dimensión, se puede usar una herramienta como el álgebra geométrica —ese “álgebra que fluye de la geometría”, al decir de Hestenes; pero aún así queda más para la geometría de lo que podemos pensar.

Muchos problemas se simplifican en el plano complejo, o al menos eso nos aseguran los matemáticos. Uno de ellos bajo el seudónimo Agno enviaba en el 2011 una entrada a un foro de matemáticas con el título “Razón Áurea Imaginaria”, que muestra una conexión directa con π y e : Φi = e ± πi/3 [3]. Otro autor anónimo encontró esta misma identidad en 2016, junto con similares derivaciones, buscando propiedades fundamentales de una operación conocida como “adición recíproca”, de interés en cálculos de resistencias en paralelo y en circuitos. Siendo la refracción un tipo de impedancia, también puede tener pertinencia en la óptica. Nuestro motivo de partida puede relacionarse desde el comienzo también con las series geométricas y funciones hipergeométricas ordinarias y con argumento complejo asociadas a fracciones continuas, formas modulares y series de Fibonacci, e incluso con la geometría no conmutativa [4]. La razón áurea imaginaria, en cualquier caso, refleja como en un espejo muchas de las cualidades de su modelo real.

El Taijitu es un círculo, una onda y un vórtice, todo en uno. El genio sintético de la naturaleza es bien diferente del de el hombre, y no necesita ninguna unificación porque le basta con no separar. A la naturaleza, como decía Fresnel, no le importan las dificultades analíticas.

El diagrama del Taijitu viene a ser una sección plana de una doble espiral expandiéndose y contrayéndose en tres dimensiones, movimiento éste que parece darle una “dimensión adicional” en el tiempo. Resulta siempre un auténtico desafío la visualización y recreación animada de este proceso, a la vez espiral y helicoidal, dentro de un cilindro vertical, que no es sino la representación completa de la propagación indefinida de un movimiento ondulatorio, el “vórtice esférico universal” en el que se detiene René Guenon en tres muy breves capítulos de su obra “El simbolismo de la Cruz” [5]. La cruz de la que habla Guenon es ciertamente un sistema de coordenadas en el sentido más metafísico de la palabra; pero el lado más físico del tema no es en absoluto despreciable.

La propagación de una onda en el espacio es un proceso tan simple como difícil de captar en su integridad; no hay más que pensar en el principio de Huygens, el modo universal de propagación, que subyace también a toda la mecánica cuántica, y que entraña una deformación continua en un medio homogéneo.

En ese mismo año de 1931 en que Guenon escribía sobre la evolución del vórtice esférico universal, se publicaba el primer trabajo sobre lo que hoy conocemos como la fibración de Hopf, el mapa de las conexiones entre una esfera tridimensional y otra en dos dimensiones. Esta fibración, tan enormemente compleja, se encuentra incluso en un simple oscilador armónico bidimensional. También en ese año, el físico Paul Dirac conjeturaba la existencia de ese unicornio de la física moderna conocido como monopolo magnético, que trasladaba el mismo tipo de evolución al contexto de la electrodinámica cuántica.

Un acercamiento completamente fenomenológico a la clasificación de los diferentes vórtices nos la da el maravilloso trabajo de Peter Alexander Venis [6]. No hay aquí nada de matemática, ni avanzada ni elemental, pero se propone una secuencia de transformaciones de 5 + 5 + 2, o bien 7 clases de vórtices con mucho tipos e incontables variantes que se despliegan desde lo completamente indiferenciado para volver de nuevo a lo indiferenciado —o a la infinidad de la que habla Venis. Las transiciones desde el punto sin extensión a las formas aparentes de la naturaleza sin el concurso de los vórtices son cuando menos arbitrarias, de ahí su importancia y universalidad.

Peter Alexander Venis

Venis no toca ni la matemática ni la física de un tema complejo como los vórtices, y por supuesto no aplica a ellos la proporción continua; por el contrario nos brinda el privilegio de una visión virgen de estos ricos procesos, y en la que, como sin quererlo, parecen darse cita la visión de un naturalista presocrático y la capacidad de síntesis de un sistematizador chino.

Aun si la secuencia de Venis admite variaciones, nos ofrece en todo caso un modelo morfológico de evolución que va más allá del alcance de las ciencias y disciplinas ordinarias. El autor engloba bajo el término “vórtices” procesos de flujo que pueden tener rotación o no, pero hay un buen motivo para hacerlo, puesto que esto es necesario para abarcar condiciones clave de equilibrio. También aplica la teoría del yin y el yang de una forma a la vez lógica e intuitiva, que probablemente admite una traducción elemental a los principios cualitativos de otras tradiciones.

Peter Alexander Venis

El estudio de esta secuencia de transformaciones, en la que se unen estrechamente cuestiones de acústica y de imagen, debería ser de interés inmediato para profundizar en los criterios de la morfología y el diseño incluso sin necesidad de adentrarse en consideraciones ulteriores. Pero hay mucho más que eso, y luego volveremos sobre ello.

Una descripción independiente de métricas sería, justamente, el contrapunto perfecto para un sujeto tan perjudicado por la discrecionalidad y la arbitrariedad en los criterios de medida como el estudio de la proporcionalidad. Naturalmente, también la matemática dispone de herramientas esencialmente libres de métrica, como las formas diferenciales exteriores, que permiten estudiar los campos de la física con la máxima elegancia. Entonces, tal vez, las métricas de las que se ocupa la física podrían ejercer de término medio entre ambos extremos.

Así pues, en esta búsqueda por definir mejor el entorno de aparición de la razón continua en el mundo de las apariencias, podemos hablar de tres tipos de espacios básicos: el espacio amétrico, los espacios métricos, y los espacios paramétricos.

Por espacio amétrico entendemos los espacios que son libres de métrica y la acción de medir, desde la secuencia puramente morfológica de vórtices ya comentada a la geometría proyectiva y la afín o las partes independientes de métrica de la topología o las formas diferenciales. El espacio amétrico, el espacio sin medida, es el único y verdadero espacio; si a veces hablamos de espacios amétricos es sólo por las diversas conexiones posibles con los espacios métricos.

Por espacios métricos, entendemos sobre todo a los de los de las teorías fundamentales en física, no sólo las actualmente en circulación sino también otras relacionadas, con un énfasis especial en el espacio métrico euclídeo en tres dimensiones de nuestra experiencia ordinaria. Incluyen constantes físicas y variables, pero aquí nos interesan particularmente las teorías que no dependen de constantes dimensionales y pueden expresarse en proporciones o cantidades homogéneas.

Por espacios paramétricos o espacios de parámetros entendemos los espacios de correlaciones, datos, y valores ajustables que sirven para definir modelos matemáticos, con cualquier número de dimensiones. Podemos llamarlo también el sector algorítmico y estadístico.

No nos vamos a ocupar aquí de las incontables relaciones que puede haber entre estos tres tipos de espacios. Baste decir que para salir de este laberinto de la complejidad en el que ya se encuentran inmersas todas las ciencias el único hilo de Ariadna posible, si es que hay alguno, tiene que describir un camino retrógrado: de los números a los fenómenos, con el énfasis puesto en estos últimos y no al contrario. Y nos referimos a fenómenos que no están ya previamente acotados por el espacio de medida.

Mucho se ha hablado de la distinción entre las “dos culturas”, las ciencias y las humanidades, pero se debe observar que, antes de intentar cruzar esa distancia hoy por hoy insalvable, habría que empezar por salvar la brecha entre ciencias naturales, descriptivas, y una ciencia física que, al justificarse por sus predicciones, se confunde cada vez más con el poder de abstracción de la matemática mientras se aísla del resto de la naturaleza, a la que querría servir de fundamento. Revertir esta fatal tendencia es de la mayor importancia para el ser humano, y podemos dar por bien empleados todos los esfuerzos encaminados en esa dirección.