Del Libro de los cambios al álgebra de la conciencia, pasando por el análisis técnico

En su espléndido libro sobre la Matemática de la Armonía, Alexey Stakhov dedica una sección a la teoría matemática de la decisión e interacción estratégica de Vladimir Lefebvre, que a diferencia de otros desarrollos en este área como la tan promocionada teoría de juegos, incluye un intrínseco componente conductual y moral [62].

Todo parte de la observación de que, si a alguien se le pide que separe alubias verdes buenas y malas en dos montones, la probabilidad del número final de alubias no se reparte en una proporción 50%—50%, sino en una 62%-38% a favor de las consideradas buenas.

Según Lefebvre, lo que hay al fondo de esta percepción asimétrica es una triple gradación de implicaciones lógicas definibles dentro de una lógica binaria o álgebra booleana:

A [a0conciencia→a1reflexión→a2intención]

siendo la conciencia el campo primario, la reflexión el secundario y la intención una reflexión de segundo orden.

Dentro de esta estructura de la reflexión humana, la evaluación personal de la conducta comporta, por implicación lógica, una autoimagen:
A= a0a1a2 ; A=(a2→ a1)→ a0.

La tabla de verdad subsiguiente nos da una secuencia asimétrica de 8 posibles valores, con 5 con una estimación positiva y 3 con una negativa. Naturalmente, 8, 5 y 3 son números adyacentes de la serie de Fibonacci.

Lo extraordinario del marco lógico de cognición ética creado por Lefebvre es que, sin que él mismo parezca haberlo notado, permite una interpretación completamente moderna del Libro de los Cambios sin desvirtuar su índole sapiencial y moral. No es algo que aquí vayamos a probar, pero dada la profunda influencia del Yi Jing en la historia de la cultura china, sería del máximo interés buscar la correspondencia rigurosa entre ambas visiones.

Sin duda el marco de Lefebvre está más formalizado, y más enfocado en la imagen que el individuo o agente tiene de sí mismo, que en la situación o coyuntura, como es el caso del Yi Jing; en realidad podríamos decir que la formalización de Lefebvre es un límite booleano y mensurable para interacciones con el menor número de individuos, pero aún así la correspondencia se mantiene intacta y se puede llevar a grados mucho más amplios e impersonales de implicación, y por tanto, de comprensión.

*

Stakhov le dedica a continuación un apartado al análisis técnico bursátil de ondas de Elliott, que como se sabe también se fundan en las series de Fibonacci. El alcance teórico de las ondas de Elliott es, en el mejor de los casos, limitado, por más que su modalidad de análisis fractal pueda aplicarse a discreción. Pero aquí quería apuntar a una cuestión metodológica mucho más profunda.

El modelo de Lefebvre nos muestra que estas series tienen, o al menos admiten, un componente reflexivo —de hecho su trabajo se ha calificado como una teoría reflexiva de la psicología social. Y ese componente reflexivo es justamente lo que más se echa en falta en el modelo de Elliott. Existe también una teoría reflexiva de la economía y el mercado, con ciclos de feedback positivos y negativos; esta teoría no carece de mérito, si la comparamos por ejemplo con la hipótesis del mercado eficiente, que, aun si no fuera falsa, siempre será incapaz de decirnos nada. Además, la teoría reflexiva no afecta sólo a los precios, sino también a los fundamentos de la economía.

La reflexividad económica es un modelo de autointeracción, como lo es también de autoimagen, y nunca se podrá prescindir de ese decisivo elemento en los asuntos humanos, aunque sea imposible de cuantificar. ¿Pero qué ocurre cuando la autointeracción atraviesa la conducta de los sistemas naturales? Pensemos por ejemplo en el caso del análisis del pulso que hemos mencionado, que es un modelo clarísimo de autointeracción, y que, como bonus, tiende a ratios áureas en el ritmo y la presión. Pero está claro que en los sistemas sociales la reflexividad pasa por el conocimiento de una situación externa, mientras que en un sistema orgánico la reflexividad es una pura cuestión de acción.

¿Cuánto espacio le deja un tipo de reflexividad a la otra? ¿Hasta dónde puede manipularse la percepción de los mercados? Hoy vemos además que los bancos centrales intervienen sin el menor disimulo en los precios, inyectando dinero a discreción y convirtiéndose en guardianes de las burbujas financieras. Pues bien, el análisis del pulso, la transformación de sus modalidades, y el estudio de los límites de la manipulación consciente a través del biofeedback nos están dando lo más cercano que hay a un marco cualitativo para estudiar ese inasible problema. Y si, además de las implicaciones cuantitativas que todo esto ya tiene, se desean métodos más intensivos, también es posible aplicar a los flujos monetarios modelos con CPUs como el de la realimentación triangular de flujo-eficiencia-tamaño que comentábamos anteriormente.

*

En El álgebra de la conciencia Lefebvre hacía un análisis comparativo del contexto ético estadounidense y soviético dentro del marco de confrontación de la guerra fría [63]. El sistema W del mundo occidental cree que el compromiso entre el bien y el mal es malo, y que la confrontación entre el bien y el mal es buena. El sistema S del mundo soviético, por el contrario, creía que el compromiso entre el bien y el mal es bueno y la confrontación entre el bien y el mal es mala —lo que no dice Lefebvre, porque va más allá de su análisis formal, es que el afán de confrontación del sistema W no se basaba en ninguna idiosincrasia moral sino en la imprescindible expectativa de seguir creciendo; del mismo modo que el deseo de evitar la confrontación del sistema S se basaba en su miedo a desaparecer.

En cualquier caso, de las opciones e implicaciones entre el compromiso y la confrontación surgen cuatro actitudes básicas, la del santo, el héroe, el filisteo y el hipócrita: el santo lleva al máximo el sufrimiento y la culpa; el filisteo quiere disminuir el sufrimiento pero puede sentir una aguda culpa; el héroe minimiza su culpa pero no su sufrimiento; y el hipócrita minimiza el sufrimiento y la culpa.

Podríamos haber creado 8 tipos en lugar de 4, en consonancia o disonancia con otros 8 escenarios o tropismos naturales, con dos implicaciones binarias más de tercer grado o una única de sexto grado. La lógica y el cálculo sirven para ascender esta escalera y la comprensión empieza donde acaba el cálculo. Así, la razón áurea nos mostraría de forma muy directa su rol de mediador entre lo discreto y lo continuo, lo digital y lo analógico.

En realidad tenemos aquí un insospechado Centauro, a saber, un punto medio entre la lógica formal binaria y la lógica dialéctica entendida a la manera de Hegel. Pero la prueba de que se trata de algo genuino, y no una mezcla arbitraria, es que incorpora “de fábrica” una asimetría que es un rasgo inequívoco de la naturaleza. Podríamos llamarlo una lógica asimétrica de la implicación.

Se ha dicho que la teoría de Lefebvre fue usada a los más altos niveles de negociación durante el colapso de la Unión Soviética; y aquí no entraremos a juzgar qué rol positivo o negativo pudo tener, y para quién. En cualquier caso su marco sólo abarca a dos agentes, y no al escenario o coyuntura que puede disponer de ellos. El marco del Yi Jing puede servir no sólo para ver cómo uno se ve en el mundo, sino también para ver cómo el mundo lo percibe a uno; a fin de cuentas se trata de ilusiones paralelas. Se diría que la percepción asimétrica forma parte de la misma realidad; una doble asimetría abraza mejor las implicaciones y el eje inadvertido de su dinamismo.

Sin duda se podría hacer un gran juego de mesa o de salón con estos argumentos. Más interés tiene, sin embargo, el estudio de la conciencia moral o social por el análisis de sus implicaciones. Y mayor interés aún tiene el tomar conciencia de cómo se interpenetran la coyuntura externa, para la que siempre buscamos imagen, con la cambiante imagen que nos hacemos de nosotros mismos, formando ambos un mapa momentáneo de nuestra situación y conciencia.

Es de suponer que Lefebvre conoce el texto del Yi Jing; sin embargo es evidente que la línea de sus razonamientos es del todo independiente del clásico chino y ha llegado a su “sistema posicional” de la conciencia moral partiendo de la tradición lógica y matemática occidental. Le hubiera bastado con ver por un segundo el Taijitu con la razón áurea entre el yin y el yang para que la chispa saltara en su mente. En los próximos años podemos asistir a otras muchas conmixtiones de este género inducidas por un cambio de contexto.

Individual evolution of an entity

The so-called “new synthesis” of the theory of evolution has never had the least predictive power, but neither has any descriptive power, and like cosmology, it has been used mostly as a narrative complement for normative physical laws unable to connect with the real world and the real time in the most decisive sense.

To alleviate the evident limitations of a theory that only through phantasy can have some contact with natural forms —and let us not underestimate the power of fantasy in this instance-, evolution has been combined with the perspective of biological development (evo-devo), and even with ecology (eco-evo-devo), but even then it has not been possible to create a moderately unitary framework to describe problems such as the emergence, maturation, aging and death of organized beings.

There is no need to call all this by any other name than evolution without further ado, since the present theory has only taken over the name to deal with speculative and remote issues, rather than with close and fully approachable problems.

What determines the aging and death of individual organisms and societies? This is a real evolution problem that takes us closer to the real time.

Astrophysicist Eric Chaisson has observed that the energy rate density is a much more decisive and unequivocal measure for complexity metrics and evolution than the various uses of the concept of entropy, and his arguments are fairly straightforward and convincing [60]. In any case it would be desirable to include this quantity in a context better articulated with other physical principles.

Georgiev et al. have attempted to do so by establishing a feedback loop between this energy flow, the physical principle of minimum action understood as efficiency or as movement along paths with less curvature or restriction, and a quantitative principle of maximum action; that is, with the “metabolic” energy flow per mass mediating between efficiency and size, applying it experimentally to CPUs as organized flow systems [61]. When these flow-efficiency-size vertices are connected in a positive feedback loop, an exponential growth of all three is produced and power-law relations between them arise. Although this model admits many improvements and can be illustrated in very different ways, it seems on the right track.

Since the basic problem of aging is the increasing restriction and the inability to overcome it, and any theory not addressing this fundamental issue cannot make a dent in the subject. Another way of saying the same is that organic aging is the increasing inability to eliminate. Aging is irreversibility, and irreversibility is the increasing incapacity to be an open system.

Let us think a bit about this. Something as basic and elementary in physics as the principle of least action is capable of telling us something absolutely essential about aging: to understand the real value of this we only have to know how to apply global measurements in the context of open systems with a variable use of the available free energy.

The theoretical advance in this field is infinitely more feasible than in the modern synthesis and infinitely more relevant, since here it is no longer a question of species, but of the destiny and individual evolution of any spontaneous organization, be it a vortex or a soliton, a human being or a civilization; to a large extent it affects even the Lamarckian evolution of machines and computers with a definite design and purpose.

The energy rate density is a measurable, unambiguous quantity, profoundly significant from a cosmic perspective, and can also have a bearing on bringing down to earth unmanageable entropy criteria. Naturally, the flow-curvature-size criterion can be contrasted with the flow-curvature-entropy criterion, whether the latter is maximum or not.

This threefold flow density-curvature-size criterion can be applied fruitfully to contexts where flow is the decisive factor, be it in strongly quantitative models like the monetary flows, or in purely qualitative models of vortices evolving between expansion and contraction such as the one proposed by Venis. It can be applied even to the circle of individual destiny, suggesting a clock of its evolution, which in today’s terminology many would call an aging clock.

Evolución individual de una entidad

La presente síntesis de la teoría de la evolución nunca ha tenido el menor poder predictivo, pero tampoco ha tenido poder descriptivo, por lo que, como la cosmología, se ha usado mayormente como complemento narrativo para leyes físicas sin ningún espesor temporal en el más decisivo de los sentidos.

Para paliar las evidentes limitaciones de una teoría que sólo gracias a la fantasía puede tener algún contacto con las formas naturales —y no desestimemos el poder de la fantasía en un campo como éste-, la evolución se ha combinado con la perspectiva del desarrollo biológico (evo-devo), y aun con la ecología (eco-evo-devo), pero ni aún así se ha podido crear un marco medianamente consistente o unitario para describir problemas como la emergencia, la maduración, el envejecimiento y la muerte de los seres organizados.

No hay necesidad de llamar a todo esto por otro nombre que evolución sin más, dado que la presente teoría sólo se ha apropiado de ese nombre para dedicarse luego a tratar cuestiones especulativas y remotas, en lugar de problemas cercanos y plenamente abordables.

¿Qué es lo que determina el envejecimiento y muerte de los organismos y las sociedades? Esto es un problema real de evolución.

El astrofísico Eric Chaisson ha observado que la densidad de la tasa de energía es una medida mucho más decisiva e inequívoca para la métrica de la complejidad y su evolución que los distintos usos del concepto de entropía, y sus argumentos son muy simples y convincentes [60]. En todo caso sería deseable la inclusión de esta cantidad en un contexto mejor articulado con otros principios físicos.

Georgiev et al. han intentado hacerlo estableciendo un bucle de retroalimentación entre dicho flujo de energía, el principio físico de mínima acción entendido como eficiencia o como movimiento a lo largo de los caminos con menor curvatura o restricción, y un principio cuantitativo de máxima acción; es decir, con la densidad de flujo por masa mediando entre la eficiencia y el tamaño, aplicándolo experimentalmente a CPUs como sistemas de flujo organizado [61]. Cuando estos vértices de flujo-eficiencia-tamaño se conectan en un bucle de realimentación positivo se produce un crecimiento exponencial de los tres y surgen relaciones de leyes de potencias entre ellos. Aunque este modelo admite muchas mejoras y puede ilustrarse de formas muy diferentes, parece que apunta en la buena dirección.

Puesto que el problema básico del envejecimiento es la restricción creciente y la incapacidad de superarla, y ninguna teoría que no aborde esto como asunto fundamental puede hacer mella en el tema. Otra forma de decir lo mismo es que el envejecimiento orgánico es la incapacidad creciente para eliminar. Envejecimiento es irreversibilidad, y la irreversibilidad es una incapacidad para seguir siendo un sistema abierto.

Piénsese un poco en esto. Algo tan básico y elemental en física como el principio de mínima acción es capaz de decirnos algo absolutamente esencial sobre el envejecimiento: para darle su debido valor sólo tenemos que saber aplicar medidas globales adecuándolas a sistemas abiertos con un uso variable de la energía libre disponible.

El avance teórico en este campo es infinitamente más factible que en la “síntesis moderna” e infinitamente más relevante, puesto que aquí de lo que se trata no es ya de especies, sino del destino individual de cualquier organización espontánea, ya sea un vórtice o un solitón, un ser humano o una civilización; en buena medida afecta incluso a la evolución lamarckiana de máquinas y ordenadores con un diseño o finalidad asignada.

La densidad de la tasa de energía es una medida cuantitativamente robusta, profundamente significativa desde una perspectiva cósmica, y también puede tener alcance a la hora de llevar a tierra criterios de entropía poco manejables. Naturalmente, el criterio flujo-curvatura-tamaño puede contrastarse con el criterio flujo-curvatura-entropía, ya sea ésta última máxima o no.

Este triple criterio densidad de flujo-curvatura-tamaño puede aplicarse con fruto a contextos donde el flujo es lo decisivo, ya sea en modelos tan fuertemente cuantitativos como el de los flujos monetarios, como en modelos puramente cualitativos de vórtices como el que propone Venis, evolucionando entre la expansión y la contracción. Puede aplicarse incluso al círculo del destino individual, y hace pensar en un reloj de esa evolución, que en la terminología actual muchos llamarían un reloj del envejecimiento.

Tao of Technoscience

The paths in the science-technology continuum may be innumerable but they all presuppose a potential reciprocity between knowledge and application —thus between knowledge and power. And yet we still have no idea of what kind of circle knowledge and power draws on us.

Newton’s celestial mechanics seemed initially far removed from worldly affairs but the unwarranted generalization of his principles to things far removed from human artifacts had the effect of turning the world into a wheelless rolling machine.

Society has taken shape as it becomes isolated from Nature but cannot subsist without a permanent commerce with her which in turn depends more and more on our knowledge of it. Any dominance relationship over Nature is reproduced within society, between some parts that exercise control and others parts subject to this control.

The solar system bound by gravity, or the function of the heart in our blood circulation, have been seen as simply governed by the concept of force in our present world view. Since the middle of the 20th century, stability theory and cybernetics developed a theory of control over these so-called “blind forces”, generalizing a version of entropy that was already far removed from the original thermodynamical context. Now it remains to be seen what twist would result for control theory assuming spontaneous regulation in action principles, in the Second Law and in the collective resonance between elements; as well as in the relationship between these three aspects.

Overcoming reductionism cannot in any way involve last-minute corrections that seek to compensate increasing degrees of abstraction with also increasing degrees of subjectivity for the sake of the inclusion of the observer, be it in statistical mechanics, quantum mechanics or relativity; it involves in any case correcting the gaps in the foundational position, which so far remains unaffected.

But the reciprocity between man and nature goes far beyond anything we suspect, and cannot be encompassed by a mere theoretical turn, however wide or deep it may seem. It is not a matter of looking for an idealized external nature either, since all that is trapped in the human being is also nature.

We do not know and maybe we do not want to live without machines. Can we radically change our relationship with them? Machines, too, are trapped, molded and compressed nature; and while we are forced to depend on them we are routinely trained for obedience. I will now pick up a few paragraphs from a topic I discussed at greater length in Techno-Science and the Laboratory of Self:

“Vico’s principle, which states that knowing is making, is more general than Descartes’. But surely one can also doubt Vico’s principle. I can move my hand, but do I know how I move my hand? Second hand, so to speak, not first hand. Of course making is not doing, except in thinking, and we make machines not to do things directly, and not to directly think. We can then try to introduce into the realm of knowledge-power the duly reformed Vico principle: I only know that in what I take part, and to the extent that I take part.

It is not by calculus, but by the practical arts, that we know the world best. The same concept of efficiency, as economy of effort or elegance, was a natural notion in the art of all cultures before techniques were invaded by stacked layers of scientific mediations; now it would have to be taken out of the bottom of the stack. There is a natural sense of efficiency in any physical activity, in the right intonation, in any gesture or brushstroke.

To move from one area to another, from the functional domain governed by calculus to the intuitive functioning, we can take as example the biological feedback and biofeedback. A signal that corresponds to a vital function can be used to vary it at will, within certain limits of course. However, and this is the important thing, here any notion of manipulation is out of place, as in this context loses all meaning. Even control, with all its vast current theory, is subsumed in the idea of self-control, which far from being a particular case, seems to be the most indefinite and general.

In our ordinary physical control of external objects, the relationship between action and calculus is also reversed. Think of the complicated balance involved riding a bicycle; dynamics can hardly solve the problem by means of centrifugal forces in the case of slow motion, but it gets out of hands in cases with higher speeds. And yet for the cyclist it is just the opposite: speed is the solution, and excessive slowness the problem. Motion is shown by pedalling.

However, within the category of self-control there is more than just cycles of perception and action; there is also self-observation. In the case of biofeedback there are two basic cases, direct monitoring of a function, such as when we observe our breathing and modify it without even intending to do so, and indirect monitoring, either by means of a mirror that returns our image to try to move involuntary muscles or by a device with sensors that translates signals generated by ourselves without being aware of it.

The biofeedback motif may seem very limited as it has hardly transcended the level of a curiosity since its appearance and diffusion fifty years ago. However, it marks a turning point in the relationship between man and the machine. If the most helpful idea in explaining the emergence of tools is that they are extensions or prostheses that project our capacity as organisms, and if we have later recognized that from certain point onwards all harmonious relations between the tool and the organ are lost, here for the first time we use the machine to help us regain consciousness of organic functions that have already sunk below the threshold of attention.

So, if technology came out of the biology of the conscious organism, it is precisely here that it returns to it in the most mediated way possible, and with a somewhat undecided intention. Clearly, the entire cybernetic theory of control would have to return to self-control as its archetype, since this one already incorporates the cycles of perception and action, allowing the right space for the self-consciousness around which they revolve; the automatic is subsumed in self-control, self-control in self-interaction and this in spontaneity.

In spite that gauge fields contain a basic feedback mechanism, the use of the Lagrangian in control theory seems totally secondary, which is a curious situation. Things could change working with Weber-type forces, and also with dissipative, thermomechanical forces, in the sense proposed by Pinheiro. The measure theory would also have to be adjusted to the different requirements of this type of systems.

Today it is said that the double access to perception and action defines an artificial intelligence problem. But a greater field in self-perception and natural intelligence awaits us.

Tao de la Tecnociencia

Los caminos en el continuo ciencia-tecnología pueden ser innumerables pero todos presuponen una reciprocidad potencial entre conocimiento y aplicación —luego entre conocimiento y poder. Y sin embargo aún no tenemos la menor idea de qué clase de círculo cierran conocimiento y poder sobre nosotros.

La mecánica celeste de Newton parecía inicialmente muy alejada de los asuntos mundanos pero la generalización no justificada de sus principios a cosas muy alejadas de los artefactos humanos tuvo el efecto de convertir al mundo en una máquina que rodaba sin que se le vieran las ruedas.

La sociedad se ha ido dando forma a sí misma en la medida en que se aislaba de la naturaleza pero no puede subsistir sin un intercambio o comercio con ella que a su vez depende de nuestro conocimiento de ella. Cualquier relación de dominio sobre la naturaleza se reproduce al interior de la sociedad, entre unas partes que ejercen el control y otras que lo padecen.

El sistema solar ligado por la gravedad, o la función del corazón en la circulación, se han visto como gobernados sin más por el concepto de fuerza en nuestra presente cosmovisión. Desde mitad de siglo XX la teoría de la estabilidad y la cibernética han desarrollado una teoría del control sobre esas mismas pretendidas “fuerzas ciegas”, generalizando una versión de la entropía que ya de por sí estaba muy alejada de su contexto termodinámico original. Habría que ver cómo evoluciona la teoría del control si se asume la regulación espontánea en los principios dinámicos de acción, en la Segunda Ley y en la resonancia colectiva entre elementos; así como en la relación entre estos tres aspectos.

La superación del reduccionismo de ningún modo puede pasar por las correcciones de última hora que pretenden compensar grados crecientes de abstracción con grados también crecientes de subjetividad en nombre de la inclusión del observador, ya sea en la mecánica estadística, la mecánica cuántica o la relatividad; pasa en todo caso por corregir las lagunas de la posición fundacional, que hasta ahora permanece inafectada.

Pero la reciprocidad entre el hombre y la naturaleza llega mucho más lejos de todo cuanto sospechamos, y no puede ser abarcada por un mero giro teórico, por amplio o profundo que parezca. No se trata de buscar una naturaleza externa idealizada a la que retornar, pues también todo lo que está atrapado en el ser humano es naturaleza.

No sabemos ni tal vez queremos prescindir de las máquinas. ¿Podemos cambiar nuestra relación con ellas? También las máquinas son naturaleza atrapada, comprimida y moldeada; y mientras se nos fuerza a depender de ellas se nos entrena rutinariamente para la obediencia. Recojo ahora algunos párrafos de un tema que traté más extensamente en La tecnociencia y el laboratorio del yo:

“El principio de Vico, que afirma que sólo comprendemos lo que hacemos, es más general que el de Descartes. Aunque seguramente también se puede dudar del principio de Vico. Sé mover mi mano, pero ¿sé cómo es que muevo mi mano? De segunda mano, por así decir, no de primera. Por supuesto hacer no es producir, salvo en el pensar, y producimos máquinas para no hacer cosas directamente, y para no directamente pensar. Podemos tratar entonces de introducir en el ámbito del saber-poder el principio de Vico debidamente reformado: sólo comprendo aquello en lo que participo, y en la medida en que participo.

No es por el cálculo, sino por las artes prácticas, que mejor conocemos el mundo. El mismo concepto de eficiencia, como economía de esfuerzo o elegancia, era una noción natural en el arte de todas las culturas antes de que las técnicas fueran invadidas por una montaña apilada de mediaciones científicas; habría que sacarla del fondo de la pila. Existe un sentido natural de la eficiencia en cualquier actividad física, en la entonación justa, en cualquier gesto o pincelada.

Para pasar de un ámbito al otro, del funcional regido por el cálculo al funcional intuitivo, pensemos por ejemplo en el biofeedback o realimentación biológica. Una señal que esté en correspondencia con una función vital nos puede servir para variar ésta a voluntad, dentro por supuesto de unos límites. Sin embargo, y esto es lo importante, aquí está fuera de lugar cualquier noción de manipulación, que en este contexto pierde todo su sentido. Incluso el control, con toda su vasta teoría actual, queda subsumido en la idea de autocontrol, que lejos de ser un caso particular, parece el caso más indefinido y general.

En nuestro control físico ordinario de objetos externos también se invierte la relación entre acción y cálculo. Pensemos en el complicado equilibrio que conlleva ir en bicicleta; la dinámica a duras penas puede resolver el problema mediante las fuerzas centrífugas en caso de movimiento lento, pero se le va de las manos en casos de mayor velocidad. Y sin embargo para el ciclista es todo lo contrario: la velocidad es la solución, y la excesiva lentitud el problema. El movimiento se demuestra pedaleando.

Sin embargo dentro de la categoría del autocontrol hay algo más que ciclos de percepción y acción; hay también autoobservación. En el caso del biofeedback se presentan dos casos básicos, el seguimiento de una función de forma directa, como cuando al observar nuestra respiración la modificamos sin siquiera pretenderlo, y el seguimiento indirecto, ya sea mediante un espejo que nos devuelve nuestra imagen para intentar mover músculos involuntarios o por un aparato con sensores que nos traduce señales generadas por nosotros mismos pero de las que nosotros no somos conscientes.

El motivo del biofeedback puede parecer muy limitado puesto que desde su aparición y difusión hace cincuenta años apenas ha trascendido el nivel de una curiosidad. Sin embargo marca un punto de inflexión en la relación entre el hombre y la máquina. Si la idea más socorrida a la hora de explicar el surgimiento de herramientas es como extensiones o prótesis que proyectan fuera nuestra capacidad como organismos, y si luego hemos dado en reconocer que a partir de cierto punto se pierde toda relación armónica entre la herramienta y el órgano, aquí por primera vez empleamos la máquina para que nos ayude a tener o recobrar la conciencia de funciones orgánicas hundidas ya por debajo del umbral de la atención.

Así pues, si la técnica salió de la biología del organismo consciente, es justamente aquí que retorna a ella de la forma más mediada posible, aunque con la intención más directa. En puridad, toda la teoría cibernética del control tendría que retornar al autocontrol como su arquetipo, puesto que éste ya incorpora los ciclos de percepción y acción permitiendo el hueco justo para la autoconciencia en torno a la que giran; lo automático se subsume en el autocontrol, el autocontrol en la autointeracción y ésta en lo espontáneo.

A pesar de que estamos hablando de que los campos gauge contienen un mecanismo básico de feedback, el uso del lagrangiano en teoría del control parece totalmente secundario, lo que supone una curiosa situación. Las cosas podrían cambiar si se trabajara con fuerzas del tipo de la de Weber, y también con fuerzas disipativas, termomecánicas, en el sentido propuesto por Pinheiro. También la teoría de la medida tendría que ajustarse a los requerimientos de este tipo de sistemas.

Hoy se dice que el doble acceso a la percepción y a la acción definen un problema de inteligencia artificial. Pero todavía hay un campo mayor esperándonos en la autopercepción y la inteligencia natural.

Time and the Clock

Pendulums, circles, waves, vortices, electrons, ellipses, spirals… What kind of “clock” could be built with all this? Or better yet, what kind of “time” would it be measuring, counting, calculating? Furthermore, would it be calculating it, or rather indicating it?

To speak of the third principle of dynamics is to speak of the very concept of reciprocity —within closed systems. The reciprocity of relativistic reference frames is purely mathematical, since it is not bound to centers of mass —but the same applies to forces in ellipses according to Newton.

Relativistic simultaneity, even the local determinism of quantum mechanics, is embedded in the basic Newtonian assumption of the global synchronizer, the absolute time in which the third principle does not take place sequentially but simultaneously. But the same vortex of Newton’s bucket experiment, as Pinheiro notes, denies this absolute time in the most convincing and categorical way —and not only for instinct, which is always stronger than metaphysics. The thermomechanical reading allows us to obtain more information, as well as another type of indication. And that same vortex is already a completely different model of clock, that we should learn to contemplate —if to contemplate something, in this our artificial world, we have to start by being able to somehow reproduce it.

We agree here with Pinheiro and other authors [59]. Various arguments and numerical calculations indicate that the third principle is not applicable to systems out of equilibrium; and if it is applicable, it can only be so in the sense of the retarded potentials. That is, we assume that even celestial orbits are always out of equilibrium and only reach it instantly thanks to an additional term representing the action of the medium on matter; this term can be entropic, or respond to a longitudinal vibration, or a constant bombardment of external particles.

In quantum mechanics, which is supposed to be the fundamental theory, forces become secondary to the potential; however, we continue to understand everything according to the logic of the three principles, even after the relativistic generalization of the principle of equivalence.

But the decisive turn had already taken place when the potential went from representing a mere position to having an irreducible temporal component. For Weber’s relational dynamics that emerged halfway between Newtonian and 20th century physics, it does not make sense to separate the dynamic component of the state of the system, nor the forces of the environment in which they occur. The rigorous application of the principle of dynamic equilibrium also made this distinction irrelevant, as it made irrelevant the equivalence principle, since inertia itself is dispensable.

If, by virtue of the principle of dynamic equilibrium, we dispense with the concept of inertia, we also dispense with the intentionality —the dispositio underlying mechanics. The Global Synchronizer, so perfectly intangible, is the supreme symbol of power in the present civilizing cycle. It is intangible as it is metaphysical, but it suppresses or in any case makes unrecognizable the local exchange of information of the open systems and the interaction with the environment.

It has been said that after Newton the universe went from breathing like a mother to ticking like a clock; there is still time to bring it back to breath again.

El tiempo y el reloj

Péndulos, círculos, ondas, vórtices, electrones, elipses, espirales… ¿Qué clase de “reloj” podría construirse con todo esto? O mejor todavía, ¿qué clase de “tiempo” estaría midiendo, contando, o calculando? Y además, ¿lo estaría calculando, o más bien señalando?

Hablar del tercer principio en dinámica es hablar del concepto mismo de reciprocidad —dentro de sistemas cerrados. La reciprocidad de los sistemas de referencia relativistas es puramente matemática, puesto que no está ligada a la masa de ninguna partícula—pero lo mismo ocurre con las fuerzas en las elipses según Newton.

La simultaneidad relativista, incluso el determinismo local de la mecánica cuántica, se insertan en el supuesto básico newtoniano del sincronizador global, el tiempo absoluto en el que el tercer principio no tiene lugar de forma secuencial sino simultánea. Pero el mismo vórtice del experimento del cubo del propio Newton, como nota Pinheiro, niega ese tiempo absoluto de la forma más convincente y categórica —y no sólo para el instinto, siempre más fuerte que la metafísica. La lectura termomecánica permite obtener más información, además de otro tipo de indicación. Y ese mismo vórtice es ya otro modelo de reloj, completamente diferente, que hemos de aprender a contemplar —si es que para contemplar algo, en este nuestro mundo artificial, hemos de empezar por poder de algún modo reproducirlo.

Nuestro punto de vista aquí es el mismo que el Pinheiro y otros autores [59]. Diversos argumentos y cálculos numéricos indican que el tercer principio no es aplicable a sistemas fuera de equilibrio; y si es aplicable, sólo puede serlo en el sentido de los potenciales retardados. Es decir, damos por supuesto que incluso las órbitas órbitas celestes están siempre fuera de equilibrio y que sólo lo alcanzan instantáneamente gracias a un término adicional que representa la acción del medio sobre la materia; este término puede ser entrópico, o responder a una vibración longitudinal, o un bombardeo constante por otras partículas.

En mecánica cuántica, que se supone que es la teoría fundamental, las fuerzas pasan a ser secundarias con respecto al potencial; sin embargo seguimos entendiéndolo todo según la lógica de los tres principios, incluso tras la generalización relativista del principio de equivalencia.

Pero el giro decisivo ya había tenido lugar cuando el potencial pasa, de ser una mera posición, a tener un componente temporal irreductible. Para la mecánica relacional de Weber que surgió a mitad de camino entre la clásica y la cuántica no tiene sentido separar el componente dinámico del estado del sistema, ni las fuerzas del entorno en el que se presentan. La aplicación rigurosa del principio de equilibrio dinámico también hacía improcedente esta distinción, como lo hacía al principio de equivalencia, puesto que también la inercia es irrelevante.

Si en virtud del principio de equilibrio dinámico prescindimos del concepto de inercia, prescindimos también de la intencionalidad subyacente a la mecánica, su dispositio. El Sincronizador Global, tan perfectamente intangible, es el símbolo supremo de poder en el presente ciclo civilizatorio. Es inatacable por lo metafísico, pero suprime o en todo caso vuelve irreconocible el intercambio local de información del sistema abierto y su interacción con el medio.

Se ha dicho que después de Newton el universo pasó de respirar como una madre a hacer tic tac como un reloj; todavía estamos a tiempo de devolverle el aliento a su cuerpo.

From monopoles to polarity

Polarity was always an essential component of natural philosophy and even of plain thought, but the advent of the theory of electric charge replaced a living idea with a mere convention.

Regarding the universal spherical vortex, we mentioned earlier Dirac’s monopole hypothesis. Dirac conjectured the existence of a magnetic monopole just for the sake of symmetry: if there are electric monopoles, why can not exist magnetic monopoles too?

Mazilu, following E. Katz, suggest quietly that there is no need to complete this symmetry, since we already have a higher order symmetry: the magnetic poles appear separated by portions of matter, and the electric poles only appear separated by portions of space. This is in full accordance with the interpretation of electromagnetic waves as a statistical average of what occurs between space and matter.

And this puts the finger on the point everybody tries to avoid: it is said that the current is the effect that occurs between charges, but actually it is the charge what is defined by the current. Elementary charge is a postulated entity, not something that follows from definitions. Mathis can rightly say that the idea of elementary charge can be completely dispensed with and replaced by mass, which is justified by dimensional analysis and greatly simplifies the picture —freeing us, among other things, from “vacuum constants” such as permittivity and permeability that are completely inconsistent with the word “vacuum” [50].

In this light, there are no magnetic monopoles, because there are no electric monopoles nor dipoles to begin with. The only things that would exist are gradients of a neutral charge, photons producing attractive or repulsive effects according to the relative densities and the screening exerted by other particles. And by the way, it is this purely relative and changing sense of shadow and light what characterized the original notion of yin and yang and polarity in all cultures until the great invention of elementary charge.

So it can well be said that electricity killed polarity, a death that will not last long since polarity is a much larger and more interesting concept. It is truly liberating for the imagination and our way of conceiving Nature to dispense with the idea of bottled charges everywhere.

Yes, it is more interesting even for such a theoretical subject as the monopole. Theoretical physicists have even imagined global cosmological monopoles. But it is enough to imagine a universal spherical vortex like the one already mentioned, without any kind of charge, but with self-interaction and a double motion for the rotations associated with magnetism and the attractions and repulsions associated with charges to arise. The same reversals of the field in Weber’s electrodynamics already invited to think that the charge is a theoretical construct.

We should come to see electromagnetic attraction and repulsion as totally independent of charge, and conversely, the unique field that includes gravity, as capable of both attraction and repulsion. This is the condition, not to unify, but to approach the effective unity that we presuppose in Nature.

*

The issue of polarity leads us to think of another great theoretical problem for which an experimental correlate is sought: the Riemann zeta function. As we know, basic aspects of this function present an enigmatic similarity with the random matrices of subatomic energy levels and many other collective features of quantum mechanics. Science looks for mathematical structures in physical reality, but here on the contrary we would have a physical structure reflected in a mathematical reality. Great physicists and mathematicians such as Berry or Connes proposed more than ten years ago to confine an electron in two dimensions under electromagnetic fields to “get its confession” in the form of the zeros of the function.

Polar zeta

There has been a great deal of discussion about the dynamics capable of recreating the real part of the zeros of the Riemann zeta function. Berry surmises that this dynamics should be irreversible, bounded and unstable, which makes a big difference for the ordinary processes expected from the current view of fundamental fields, but it is closer to quantum thermomechanics, or what is the same, irreversible quantum thermodynamics. Moreover, it seems that what it is at stake here is the most basic arithmetic relationship between addition and multiplication, as opposed to the scope of multiplicative and additive reciprocities in physics.

Most physicists and mathematicians think that there is nothing to scratch about the nature of the imaginary numbers or the complex plane; but as soon as they have to deal with the zeta function, there is hardly anyone who does not begin with an interpretation of the zeros of the function —especially when it comes to its connections with quantum mechanics. So it seems that only when there are no solutions the interpretation matters.

Maybe it would be healthy to purge the calculus in the sense that Mathis asks for and see to what extent it is possible to obtain results in the domain of quantum mechanics without resorting to complex numbers or the stark heuristics methods of renormalization. In fact, in Mathis’ version of calculus each point is equivalent to at least one distance, which should give us additional information. If the complex plane allows extensions to any dimension, we should check what is its minimum transposition into real numbers, both for physical and arithmetic problems. After all, Riemann’s starting point was the theory of functions, rather than number theory.

Surely if physicists and mathematicians knew the role of the complex plane in their equations they would not be thinking of confining electrons in two dimensions and other equally desperate attempts. The Riemann zeta function is inviting us to inspect the foundations of calculus, the bases of dynamics, and even our models of the point particles and elementary charge.

The zeta function has a pole at unity and a critical line with a value of 1/2 where lie all its known non-trivial zeros. The carriers of “elementary charge”, the electron and the proton, both have a spin with a value of 1/2 and the photon that connects them, a spin with a value equal to 1. But why should spin be a statistical feature and not charge? Possibly the interest of the physical analogies for the zeta function would be much greater if the concept of elementary charge were to be dispensed with.

That the imaginary part of the electron wave function is linked to spin and rotation is no mystery. But the imaginary part associated with the quantization of particles of matter or fermions, among which is the electron has no obvious relation with spin. However, in classical electromagnetic waves we can deduce that the imaginary part of the electrical component is related to the real part of the magnetic component, and vice versa. The scattering amplitudes and their analytical continuation cannot be separated from the spin statistics, and vice versa; and both are associated with timelike and spacelike phenomena respectively. There can be also different analytical continuations with different meanings and geometrical interpretations in the Dirac algebra.

In electrodynamics all the development of the theory goes very explicitly from global to local. Gauss’ divergence theorem of integral calculus, which Cauchy used to prove his residue theorem of complex analysis, is the prototype of the cyclic or period integral. Like Gauss law of electrostatics, is originally independent of metric, though this is seldom taken into account. The Aharonov-Bohm integral, a prototype of geometric phase, is very similar in structure to the Gauss integral.

As Evert Jan Post emphasize time and again, the Gauss integral works as a natural counter of net charge, just as the Aharonov-Bohm integral works for quantized units of flux in self-interaction of beams. This clearly speaks in favor of the ensemble interpretation of quantum mechanics, in contrast to the Copenhagen interpretation stating that the wave function corresponds to a single individual system with special or non-classical statistics. The main statistical parameters here would be, in line with Planck’s 1912 work in which he introduced the zero point energy, the mutual phase and orientation of the ensemble elements [51]. Of course orientation is a metric-independent property.

Naturally, this integral line of reasoning shows its validity in the quantum Hall effect and its fractional variant, present in two-dimensional electronic systems under special conditions; this would bring us back to the above-mentioned attempts of electron confinement, but from the angle of classical, ordinary statistics. In short, if there is a correlation between this function and atomic energy levels, it should not be attributed to some special property of quantum mechanics but to the large random numbers generated at the microscopic level.

If we cannot understand something in the classical domain, hardly we will see it more clearly under the thick fog of quantum mechanics. There are very significant correlates of Riemann zeta in classical physics without the need to invoke quantum chaos; and in fact well known models such as those of Berry, Keating and Connes are semiclassical, which is a way to stay in between. We can find a purely classical exponent of the zeta function in dynamic billiards, starting with a circular billiard, which can be extended to other shapes like ellipses or the so-called stadium shape, a rectangle capped with two semicircles.

The circular billiard dynamics with a point particle bouncing is integrable and allows to model, for instance, the electromagnetic field in resonators such as microwave and optical cavities. If we open holes along the boundary, so that the ball has a certain probability of escape, we have a dissipation rate and the problem becomes more interesting. Of course, the probability depends on the ratio between the size of the holes and the size of the perimeter.

The connection with the prime numbers occurs through the angles in the trajectories according to a module 2 π/n. Bunimovich and Detteman showed that for a two hole problem with holes separated by 0º, 60º, 90º, 120º or 180º the probability is uniquely determined by the pole and non-trivial zeros of the Riemann zeta function [52]. The sum over can be determined explicitly and involves terms that can be connected with Fourier harmonic series and hypergeometric series. I do not know if this result may be extended to elliptical boundaries, which are also integrable. But if the boundary of the circle is smoothly deformed to create a stadium-like shape, the system is not integrable anymore and becomes chaotic, requiring an evolutionary operator.

Dynamic billiards have multiple applications in physics and are used as paradigmatic examples of conservative systems and Hamiltonian mechanics; however the “leakage” allowed to the particles is nothing more than a dissipation rate, and in the most explicit manner possible. Therefore, our guess that the zeta should be associated with thermomechanical systems that are irreversible at a fundamental level it is plain to understand —it is Hamiltonian mechanics that begs the exception to begin with. Since it is assumed that fundamental physics is conservative, there is a need for “a little bit open” closed systems, when, according to our point of view, what we always have is open systems that are partially closed. And according to our interpretation, physics has the question upside-down: a system is reversible because it is open, and it is irreversible to the extent that becomes closed, differentiated from the fundamental homogeneous medium.

From a different angle, the most apparent aspect of electromagnetism is light and color. Goethe said that color was the frontier phenomenon between shadow and light, in that uncertain region we call penumbra. Of course his was not a physical theory, but a phenomenology, which not only does not detract from it but adds to it. Schrödinger’s theory of color space of 1920, based on arguments of affine geometry though with a Riemannian metric, is somewhat halfway between perception and quantification and can serve us, with some improvements introduced later, to bring together visions that seem totally unconnected. Mazilu shows that it possible to obtain matrices similar to those arising from field interactions [53].

Needless to say, the objection to Goethe was that his concept of polarity between light and darkness, as opposed to the sound polarity of electric charge, was not justified by anything, but we believe that it is just the opposite. All that exists are density gradients; light and shadow can create them, a charge that is only a + or — sign attached to a point, can not. Colors are within light-and-darkness as light-and-darkness are within space-and-matter.

It is said, for example, that the Riemann zeta function could play the same role for chaotic quantum systems as the harmonic oscillator does for integrable quantum systems. Maybe. But do we know everything about the harmonic oscillator? Far from it, as the Hopf fibration or the monopole remind us. On the other hand, the first appearance of the zeta function in physics was with Planck’s formula for blackbody radiation, where it enters the calculation of the average energy of what would later be called “photons”.

The physical interpretation of the zeta function always forces us to consider the correspondences between quantum and classical mechanics. Therefore, a problem almost as intriguing as this should be finding a classical counterpart to the spectrum described by Planck’s law; however, there seems to be no apparent interest in this. Mazilu, again, reminds us the discovery by Irwin Priest in 1919 of a simple and enigmatic transformation under which Planck’s formula yields a Gaussian, normal distribution with an exquisite correspondence over the whole frequency range [54].

In fact, the correspondence between quantum mechanics and classical mechanics is an incomparably more relevant issue on a practical and technological level than that of the zeta function. As for the theory, there is no clarification from quantum mechanics about where the transition zone would be. There are probably good reasons why this field receives apparently so little attention. However, it is highly probable that Riemann’s zeta function unexpectedly connects different realm of physics, making it a mathematical object of unparalleled depth.

The point is that there is no interpretation for the cubic root of the frequency of Priest transformation. Referring to the cosmic background radiation, “and perhaps to thermal radiation in general”, Mazilu tries his best guess in order to finish with this observation: “Mention should be made that such a result can very well be specific to the way the measurements of the radiation are usually made, i.e. by a bolometer”. Leaving this transformation aside, various more or less direct ways of deriving Planck’s law from classical assumptions have been proposed, from that suggested by Noskov on the basis of Weber’s electrodynamics to that of C.K. Thornhill [55]. Thornhill proposed a kinetic theory of electromagnetic radiation with a gaseous ether composed of an infinite variety of particles, where the frequency of electromagnetic waves is correlated with the energy per unit mass of the particles instead of just the energy —obtaining the Planck distribution in a much simpler way.

The statistical explanation of Plank’s law is already known, but Priest’s Gaussian transformation demands a physical explanation for classical statistics. Mazilu makes specific mention of the measurement device used, in this case the bolometer, based on an absorptive element —the Riemann zeta function is said to correspond to an absorption spectrum, not an emission spectrum. If today metamaterials are used to “illustrate” space-time variations and mock black holes —where the zeta function is also used to regularize calculations- they could be used with much sounder arguments to study variations of the absorption spectrum to attempt a reconstruction by a sort of reverse engineering. The enigma of Priest’s formula could be approached from a theoretical as well as a practical and constructive point of view —although the very explanations for the performance of metamaterials are controversial and would have to be purged of numerous assumptions.

Of course by the time Priest published his article the idea of quantization had already won the day. His work fell into oblivion, and little else is known about the author except for his dedication to colorimetry, in which he established a criterion of reciprocal temperatures for the minimum difference in color perception [56]; of course these are perceptive temperatures, not physical ones; the correspondence between temperatures and colors was never found. If there is an elementary additive and subtractive algebra of colors, there must also be a product algebra, surely related to their perception. This brings to mind the so-called non-spectral line of purples between the red and violet ends of the spectrum, the perception of which is limited by the luminosity function. With a proper correspondence this could give as a beautiful analogy that the reader may try to guess.

On the other hand, it should not be forgotten that Planck’s constant has nothing to do with the uncertainty in the energy of a photon, though today they are routinely associated [57]. Noskov’s longitudinal vibrations in the moving bodies immediately remind us of the zitterbewegung or “trembling motion” introduced by Schrödinger to interpret the interference of positive and negative energy in the relativistic Dirac equation. Schrödinger and Dirac conceived this motion as “a circulation of charge” generating the magnetic moment of the electron. The frequency of the rotation of the zbw would be of the order of 1021 hertz, too high for detection except for the resonances.

David Hestenes has analyzed various aspects of the zitter in his view of quantum mechanics as self-interaction. P. Catillon et al. conducted an electron channeling experiment on a crystal in 2008 to confirm de Broglie’s internal clock hypothesis. The resonance detected experimentally is very close to the de Broglie frequency, which is half the frequency of the zitter; the de Broglie period would be directly associated with mass, as has recently been suggested. There are several models for creating resonances with the electron reproducing the zeta function in cavities and Artin’s dynamic billiards, but they are not usually associated with the zitter or the de Broglie internal clock, since this does not fit into the conventional version of quantum mechanics. On the other hand, it would be advisable to consider a totally classical zero-point energy as can be followed from the works of Planck and his continuators in stochastic electrodynamics, though all these models are based on point particles [58].

Math, it is said, is the queen of sciences, and arithmetic the queen of mathematics. The fundamental theorem of arithmetic places prime numbers at its center, as the more irreducible aspect of the integer numbers. The main problem with prime numbers is their distribution, and the best approximation to their distribution comes from the Riemann zeta function. This in turn has a critical condition, which is precisely to find out if all the non-trivial zeros of the function lie on the critical line. Time past and competition among mathematicians have turn the task of proving the Riemann hypothesis into the K-1 of mathematics, which would involve a sort of duel between man and infinity.

William Clifford said that geometry was the mother of all sciences, and that one should enter it bending down like children; it seems on the contrary that arithmetic makes us more haughty, because in order to count we do not need to look down. And that, looking down to the most elementary and forgetting about the hypothesis as much as possible, would be the best thing for the understanding of this subject. Naturally, this could also be said of countless questions where the overuse of mathematics creates too rarefied a context, but here at least a basic lack in understanding is admitted.

There seem to be two basic ways of understanding the Riemann zeta function: as a problem posed by infinity or as a problem posed by unity. So far modern science, driven by the history of calculus, has been much more concerned with the first aspect than with the second, even if both are inextricably linked.

It has been said that if a zero is found outside the critical line —if Riemann’s hypothesis turns out to be false-, that would create havoc in number theory. But if the first zeros already evaluated by the German mathematician are well calculated, the hypothesis can be practically taken for granted, without the need to calculate more trillions or quadrillions of them. In fact, and in line with what was said in the previous chapter, it seems much more likely to find flaws in the foundations of calculus and its results than to find zeros off the line, and in addition the healthy creative chaos that would produce would surely not be confined to a single branch of math.

Of course, this applies to the evaluation of the zeta function itself. If Mathis’ simplified calculus, using a unitary interval criterion, finds divergences even for the values of the elementary logarithmic function, these divergences would have to be far more important in such convoluted calculations like those of this function. And in any case it gives us a different criterion for the evaluation of the function; furthermore, there might be a criterion to settle if certain divergences and error terms cancel out.

The devil’s advocates in this case would not have done the most important part of their work yet. On the other hand, fractional derivatives of this function have been calculated allowing us to see where the real and imaginary parts converge; this is of interest both for complex analysis and physics. In fact it is known that in physical models the evolution of the system with respect to the pole and zeros usually depends on the dimension, which in many cases is fractional or fractal, and even multi-fractal for potentials associated with the number themselves.

Arithmetic and counting exist primarily in the time domain, and there are good reasons to think that methods based on finite differences should take a certain kind of preference when dealing with changes in the time domain —since with infinitesimals the act of counting dissolves. The fractional analysis of the function should also be concerned with sequential time. Finally, the relationship between discrete and continuous variables characteristic of quantum mechanics should also be connected with the methods of finite differences.

Quantum physics can be described more intuitively with a combination of geometric algebra and fractional calculus for cases containing intermediate domains. In fact, these intermediate domains can be much more numerous than we think if we take into account both the mixed assignment of variables in orbital dynamics and the different scales at which waves and vortices can occur between the field and the particles in a different perspective like Venis’. The same self-interaction of the zitterbewegung calls for a much greater concreteness than hitherto achieved. This movement allows, among other things, a more directly geometric, and even classical, translation of the non-commutative aspects of quantum mechanics which in turn allow for a key natural connection between discrete and continuous variables.

Michel Riguidel makes the zeta function object of an intensive work of interaction in search of a morphogenetic approach. It would be great if the computing power of machines can be used to refine our intuition, interpretation and reflection, rather than the other way around. However, here it is easy to present two major objections. First, the huge plasticity of the function, which although completely differentiable, according to Voronin’s theorem of universality contains any amount of information an infinite number of times.

The second objection is that if the function already has an huge plasticity, and on the other hand graphics can only represent partial aspects of the function at any rate, further deformations and transformations, however evocative they may be, still introduce new degrees of arbitrariness. The logarithm can be transformed into a spiral halfway between the line and the circle, and create spiral waves and whatnot, but in the end they are just representations. The interest, at any rate, is in the interaction function-subject-representation —the interaction between mathematical, conceptual and representational tools.

But there is no need for more convoluted concepts. The greatest obstacle to go deeper into this subject, as in so many others, lies in the stark opposition to examining the foundations of calculus, classical and quantum mechanics. The more complex the arguments to prove or disprove the hypothesis, be it true or false, the less importance the result can have for the real world.

It is often said that the meaning of the Riemann hypothesis, and even of all the computed zeros of the function, is that the prime numbers have as random a distribution as possible, which of course leaves wide open how much randomness is possible. We may have no choice but to talk about apparent randomness.

But even so, there we have it: the highest degree of apparent randomness in a simple linear sequence generalizable to any dimension hides an ordered structure of unfathomable richness.

Michel Riguidel: Morphogenesis of the Zeta Function in the Critical Strip by Computational Approach
Michel Riguidel: Morphogenesis of the Zeta Function in the Critical Strip by Computational Approach

*

Let us return to the qualitative aspect of polarity and its problematic relationship with the quantitative realm. Not only the relation between the qualitative and the quantitative is problematic, but the qualitative interpretation itself raises a basic question inevitably connected with the quantitative.

For P. A. Venis everything can be explained with yin and yang, seen in terms of expansion and contraction, and of a higher or a lower dimension. Although this interpretation greatly deepens the possibility of connection with physics and mathematics, the version of the yin yang theory he uses is that of the Japanese practical philosopher George Ohsawa. In the Chinese tradition, yin is basically related to contraction and yang to expansion. Venis surmises that the Chinese interpretation may be more metaphysical and Ohsawa’s more physical; and latter he thinks that the former could be more related to the microcyclical processes of matter and the latter to the mesocyclical processes more typical of our scale of observation, but both views seem to be quite divergent.

Without resolving these very basic differences we cannot expect to soundly connect these categories with quantitative aspects, although one may still speak of contraction and expansion, with or without relation to dimensions. But on the other hand, any reduction of such vast and nuanced categories to mere linear relations with coefficients of separate aspects such as “expansion” or “contraction” runs the risk of becoming a poor simplification dissolving the value of the qualitative in appreciating nuances and degrees.

Venis’ interpretation is not superficial at all, and on the contrary it is easy to see that it gives a much deeper dimension, quite literally, to these terms. The extrapolation to aspects such as heat and color may seem to lack the desirable quantitative and theoretical justification, but in any case they are logical and consistent with his general vision and are wide open to delve into the subject. However, the radical disagreement on the most basic qualifications is already a challenge for interpretation.

It should be said right from the start that the Chinese version cannot be reduced to the understanding of yin and yang as contraction and expansion, nor to any pair of conceptual opposites to the exclusion of all the others. Contraction and expansion are only one of the many possible pairs, and even if they are often used, as with any other pair they depend entirely on the context. Perhaps the most common use is that of “full” and “empty”, which on the other hand is intimately linked to contraction and expansion, although they are far from identical. Or also, depending on the context, the tendency towards fullness or void; it is not for nothing the common distinction between young and old yang, or young and old yin. Reversal is the way of Tao, so it is only natural that these points of potential, spontaneous reversal are also notorious in the Taijitu.

On the other hand, qualities such as full and empty not only have a clear translation in differential terms for field theories, hydrodynamics or even thermodynamics, but also have an immediate meaning, although much more diffuse, for our inner sense, which is precisely the common sense or sensorium as a whole, our undifferentiated sensation prior to the imprecise “sensory cut” which seems to generate the field of our five senses. This common sensorium also includes kinesthesia, our immediate perception of movement and our self-perception, which can be both of the body and of consciousness itself.

This inner sense or common sensorium is just another expression for the homogeneous, undivided medium that we already are —the background and tacit reference for feeling, perception and thought. And any kind of intuitive or qualitative knowledge takes that as the reference, which obviously goes beyond any rational or sensory criteria of discernment. Conversely, we could say that this background is obviated in formal thought but is assumed in intuitive knowledge. Physicists often speak of a result being “counter-intuitive” only in the sense that it goes against the expected or acquired knowledge, not against intuition, which it would be vain to define.

However it would be absurd to say that the qualitative and the quantitative are completely separate spheres. Mathematics is both qualitative and quantitative. We use to hear that there are more qualitative branches, like topology, and more quantitative branches like arithmetic or calculus, but on closer inspection this hardly makes any sense. Venis’ morphology is totally based on the idea of flow and on such elementary notions as points of equilibrium and points of inversion. Newton himself called his differential calculus “method of fluxions”, the analysis of fluent quantities, and the methods for evaluating curves are based on the identification of turning points. So there is a compatibility that not only is not forced but it is natural; if modern science has advanced in the opposite direction towards increasing abstraction, which in turn is the just counterbalance to its utilitarianism, is another story.

Polarity and duality are quite different things but it is useful to perceive their relation before the convention of electric charge was introduced. The reference here cannot fail to be the electromagnetic theory, which is the basic theory of light and matter, and to a large extent also of space and matter.

Obviously, it would be absurd to say that a positive charge is yang and a negative charge is yin, since between both there is only an arbitrary change of sign. In the case of an electron or a proton other factors come in play, such as the fact that one is much less massive than the other, or that one is peripheral and the other is at the core of the atom. Let us take another example. At the biological and psychological level, we live between stress and pressure, which frame our way of perceiving things. But it would also be absurd to say that one or the other is yin or yang insofar as we understand tension only as a negative pressure, or viceversa. In other words, mere changes of sign seems to us trivial; but they become more interesting qualitatively and quantitatively when they involve other transformations.

Whether all or nothing is trivial depends only on our knowledge and attention; a superficial knowledge may judge as trivial things that in fact are are full of content. The polarity of charge may seem trivial, as may seem the duality of electricity and magnetism, or the relationship between kinetic and potential energy. Actually none of them is trivial at all, but when we try to see everything together we already have a space-time algebra with a huge range of variants.

In the case of pressure and stress or tension, the more apparent transformation is the deformation of a material. Strain-stress-pressure relations define, for instance, the properties of the pulse, whether in the pulsology of traditional Chinese or Indian medicine or in modern quantitative pulse analysis; but that also leads us to the stress-strain relations that define the constitutive law in materials science. Constitutive relations, on the other hand, are the complementary aspect of Maxwell’s electromagnetic field equations that tell us how the field interacts with matter.

It is usually said that electricity and magnetism, which are measured with dimensionally different units, are the dual expression of the same force. As we have already pointed out, this duality implies the space-matter relationship, both for the waves and for what is supposed to be the material support of the electric and magnetic polarity; in fact, and without going into further detail, this seems to be the key distinction.

All gauge field theories can be expressed by forces and potentials but also by non-trivial pressure-strain-stress variations that involve feedback, and there is feedback at any rate because first of all there is a global balance, and only then a local one. These relations are already present in Weber force law, only in this one what is “deformed” is force, instead of matter. The great virtue of Maxwell’s theory is to make explicit the duality between electricity and magnetism, hidden in Weber’s law. But we must insist, with Nicolae Mazilu, that we can find the essence of the gauge theory already in Kepler’s problem.

Constitutive relations with definite values such as permittivity and permeability cannot occur in empty space, so they can only be a statistical average of what occurs in between matter and space. Matter can sustain stress without exhibiting strain or deformation, and space can deform without stress or tension —this runs in parallel with the basic signatures of electricity and magnetism, which are tension and deformation. Strain and tension are not yin or yang, but to yield easily to deformation is yin, and to withstand tension without deformation is yang —at least as far as the material aspect is concerned. Of course between both there must be a whole continuous spectrum, often affected by many other considerations.

However, from the point of view of space, to which we do not have direct access but through the mediation of light, we could see the opposite: the expansion without coercion would be pure yang, while the contraction may be seen as a reaction of matter to the expansion of space, or the radiations that fill it. The waves of radiation themselves are an intermediate and alternate process between contraction and expansion, between matter and space, which cannot exist separately. However, a deformation is a purely geometrical concept, while a tension or a force is not, being here where the proper domain of physics begins.

Perhaps in this way a criterion for reconciling the two interpretations can be discerned, not without careful attention to the overall picture of which they are part; each may have its range of application, but they cannot be totally separate.

It is a law of thought that concepts appear as pairs of opposites, there being an infinity of them; finding their relevance in nature is something else, and the problem becomes nearly unsolvable when quantitative sciences introduce their own concepts that are also subject to antinomies but of a very different order and certainly much more specialized. However, the simultaneous attention to the whole and to the details makes this a task far from impossible.

Much have been said about holism and reductionism in sciences but it must be remembered that physics to start with, never has been described in rigorously mechanical terms. Physicists hold onto the local application of gauge fields, only because that is what give them predictions, but the very concept of Lagrangian that makes all that possible is integral or global, not local. What is surprising is that this global character has not a proper use in fields such as medicine or biophysics.

Starting from these global aspects of physics, a genuine and meaningful connection between the qualitative and the quantitative is much more feasible. The conception of yin and yang is only one of many qualitative readings man has made of nature, but even taking into account the extremely fluid character of these distinctions it is not difficult to establish the correspondences. For example, with the three gunas of Samkya or the four elements and four humors of the Western tradition, in which fire and water are the extreme elements and air and earth are the intermediate ones; these also can be seen in terms of contraction and expansion, of pressure, tension and deformation.

Needless to say, the idea of balance is not exclusive of the Chinese conception either, since the same cross and the quaternary have always had a connotation of equilibrium that is totally elemental and of universal character. It is rather in modern physics that equilibrium ceases to have a central place due to inertia, although it cannot cease to be omnipresent and essential for the use of reason itself, as it is for logic and algebra. The possibility of contact between quantitative and qualitative knowledge depends both on the precise location we give to the concept of equilibrium and the correct appreciation of the context and global features of the so-called mechanics.

Unlike the usual scientific concepts, which inevitably tend to become more detailed and specialized, notions such as yin and yang are ideas of utmost generality, indexes to be identified in the most specific contexts; if we pretend to define them too much they also lose the generality that gives them their value as an intuitive aid. But also the most general ideas of physics have been subject to constant evolution and modification depending on the context, and we only have to look at the continuous transformations of quantitative concepts such as force, energy or entropy, not to mention issues such as the criterion and range of application of the three principles of classical mechanics.

Vortices can be expressed in the elegant language of the continuum, of compact exterior differential forms or geometric algebra; but vortices speak above all with a language very similar to that of our own imagination and the plastic imagination of nature. Therefore, when we observe the Venis sequence and its wide range of variations, we know that we have find an intermediate, but genuine, ground between mathematical physics and biology. In both, form follows function, but in the reverse engineering of nature that human science is, function should follow form to the very end.

In Venis account there is a dynamic equilibrium between the dimensions in which the vortex evolves. This widens the scope of the equilibrium concept but makes it more problematic to assess. Fractional calculus would have to be key to follow this evolution through the intermediate domains between dimensions, but this also rise interesting points for experimental measurements.

How dimensions higher than three can be interpreted is always an open question. If instead of thinking of matter as moving in a passive space, we think of matter as those portions to which space has no access, the same matter would start from the point or zero dimension. Then the six dimensions of the evolution of vortices would form a cycle from the emission of light by matter to the retraction of space and light into matter again —and the three additional dimensions would only be the process in the opposite direction, and from an inverse optic, which circumvent repetition.

This is just one way of looking at some aspects of the sequence among many possible ways, and the subject deserves a much more detailed study than we can devote to it here. One think is to look for some sort of symmetry, but there must be many more types of vortices than we know now, not to speak of the different scales of occurrence, and the multiple metamorphoses. Only in Venis’ work one can find the due introduction to these questions. Venis assumes the number of dimensions to be infinite, so we could not find and count them all. An indication of this would be the minimum number of meridians necessary to create a vortex, which increases exponentially with the number of dimensions and which the author associates with the Fibonacci series.

We can speak of polarity as long as we can appreciate a capacity for self-regulation. That is to say, not when we just count on apparently antagonistic forces, but when we can not help notice a principle above them. This capacity was always present since the very Kepler’s problem, and it is only telling that science has failed to recognize it. Weber’s force and potential are explicitly polar, Newton’s force is not, but the two-body problem exhibit a polar dynamics in any case. To call the evolution of celestial bodies “mechanics” is just a rationalization, and in fact we do not have a mechanical explanation of anything when we speak of fundamental forces, and probably we cannot have one. Only when we notice a self-regulating principle could we use the term dynamics honoring the original intention still present in that name.

Del monopolo a la polaridad

La polaridad fue siempre un componente esencial de la filosofía natural y aun del pensamiento sin más, pero la llegada de la teoría de la carga eléctrica sustituyó una idea viva por una simple convención.

A propósito del vórtice esférico universal, hablábamos antes de la hipótesis del monopolo de Dirac. Dirac conjeturó la existencia de un monopolo magnético por una mera cuestión de simetría: si existen monopolos eléctricos, ¿por qué no existen igualmente unidades de carga magnética?

Mazilu, siguiendo a E. Katz, razona que no hay ninguna necesidad de completar la simetría, puesto que en realidad ya tenemos una simetría de orden superior: los polos magnéticos aparecen separados por porciones de materia, y los polos eléctricos sólo se presentan separados por porciones de espacio vacío. Lo cual está en perfecta sintonía con la interpretación de las ondas electromagnéticas como un promedio estadístico de lo que ocurre entre el espacio y la materia.

Y que pone el dedo sobre la cuestión que se procura evitar: se dice que la corriente es el efecto que se produce entre cargas, pero en realidad es la carga la que está definida por la corriente. La carga elemental es una entidad postulada, no algo que se siga de las definiciones. Con razón puede decir Mathis que puede prescindirse por completo de la idea de carga elemental y sustituirla por la masa, lo que está justificado por el análisis dimensional y simplifica enormemente el panorama —librándonos entre otras cosas, de constantes del vacío como la permitividad y permeabilidad que son totalmente inconsecuentes con la misma palabra “vacío” [50].

Visto así, no se encuentran monopolos magnéticos porque para empezar tampoco existen ni monopolos eléctricos ni dipolos. Lo único que habría es gradientes de una carga neutra, fotones, produciendo efectos atractivos o repulsivos según las densidades relativas y la sombra o pantalla ejercida por otras partículas. Y por cierto, es este sentido puramente relativo y cambiante de la sombra y luz lo que caracterizaba la noción original del yin y el yang y la polaridad en todas las culturas hasta que llegó el gran invento de la carga elemental.

Así pues, bien puede decirse que la electricidad mató a la polaridad, muerte que no durará mucho tiempo puesto que la polaridad es un concepto mucho más vasto e interesante. Es verdaderamente liberador para la imaginación y nuestra forma de concebir la Naturaleza prescindir de la idea de cargas embotelladas por doquier.

Y es más interesante incluso para un objeto teorético tal como el monopolo. Los físicos teóricos han imaginado incluso monopolos cosmológicos globales. Pero basta con imaginar un vórtice esférico universal como el ya apuntado, sin ningún tipo de carga, pero con autointeracción y un movimiento doble para que surjan las rotaciones asociadas al magnetismo y las atracciones y repulsiones asociadas a las cargas. Las mismas inversiones del campo en la electrodinámica de Weber invitaban ya a pensar que la carga es un constructo teórico.

Deberíamos llegar a ver la atracción y repulsión electromagnéticas como totalmente independientes de las cargas, e inversamente, al campo único que incluye la gravedad, como capaz tanto de atracción como de repulsión. Esta es la condición, no ya para unificar, sino para acercarse a la unidad efectiva que presuponemos en la Naturaleza.

*

El tema de la polaridad nos lleva a pensar en otro gran problema teórico para el que se busca un correlato experimental: la función zeta de Riemann. Como es sabido ésta presenta una enigmática semejanza con las matrices aleatorias que describen niveles de energía subatómicos y otros muchos aspectos colectivos de la mecánica cuántica. La ciencia busca estructuras matemáticas en la realidad física, pero aquí por el contrario tendríamos una estructura física reflejada en una realidad matemática. Grandes físicos y matemáticos como Berry o Connes propusieron hace más de diez años confinar un electrón en dos dimensiones y someterlo a campos electromagnéticos para «obtener su confesión» con la forma de los ceros de la función.

Polar zeta

Se ha conjeturado ampliamente sobre la dinámica idónea para recrear la parte real de los ceros de la función zeta. Berry conjetura que esta dinámica debería ser irreversible, acotada e inestable, lo cual la aleja de los estados ordinarios de los campos fundamentales, pero no tanto de las posibilidades termomecánicas; tanto más si lo que está en cuestión es la relación aritmética entre la adición y la multiplicación, frente al alcance de las reciprocidades multiplicativas y aditivas en física.

Los físicos y matemáticos piensan en su inmensa mayoría que no hay nada que interpretar en los números imaginarios o el plano complejo; sin embargo, en cuanto se toca la función zeta, apenas hay nadie que no empiece por hablar de la interpretación de los ceros de la función —especialmente cuando se trata de su relación con la mecánica cuántica. A este respecto todo son muy débiles conjeturas, lo que demuestra que basta con que no se tengan soluciones para que sí haya un problema de interpretación, y de gran magnitud, por lo demás.

Tal vez, para saber a qué atenerse, habría que depurar el cálculo en el sentido en que lo hace Mathis y ver hasta qué punto se pueden obtener los resultados de la mecánica cuántica sin recurrir a los números complejos ni a los métodos tan crudamente utilitarios de la renormalización. De hecho en la versión del cálculo de Mathis cada punto equivale al menos a una distancia, lo que debería darnos información adicional. Si el plano complejo permite extensiones a cualquier dimensión, deberíamos verificar cuál es su traducción mínima en números reales, tanto para problemas físicos como aritméticos. Después de todo, el punto de partida de Riemann fue la teoría de funciones y el análisis complejo, antes que la teoría de los números.

Seguramente si físicos y matemáticos conocieran el rol del plano complejo en sus ecuaciones no estarían pensando en confinar electrones en dos dimensiones y otras tentativas igualmente desesperadas. La función zeta de Riemann nos está invitando a inspeccionar los fundamentos del cálculo, las bases de la dinámica, y hasta el modelo de la partícula puntual y carga elemental.

La función zeta tiene un polo en la unidad y una línea crítica con valor de 1/2 en la que aparecen todos los ceros no triviales conocidos. Obviamente los portadores de la “carga elemental”, el electrón y el protón, tienen ambos un espín con valor de 1/2 y el fotón que los acopla, uno con valor igual a 1. ¿Pero porqué el espín ha de ser un valor estadístico y la carga no? Está claro que hay una conexión íntima entre la descripción de los bosones y fermiones y las propiedades de la función zeta, que ya se ha aplicado a muchos problemas. El interés de las analogías físicas para la función zeta sería posiblemente mucho mayor si se prescindiera del concepto de carga elemental.

Que la parte imaginaria de la función de onda del electrón está ligada al espín y a la rotación no es ningún misterio. La parte imaginaria de las partículas de materia o fermiones, entre las que se cuenta el electrón no tiene sin embargo ninguna relación obvia con el espín. Ahora bien, en las ondas electromagnéticas clásicas se observa que la parte imaginaria del componente eléctrico está relacionada con la parte real del componente magnético, y al revés. Las amplitudes de dispersión y su continuación analítica no pueden estar separadas de las estadísticas de espín, y viceversa; y ambos están respectivamente asociados con fenómenos de tipo tiempo y tipo espacio. También puede haber distintas continuaciones analíticas con distintas interpretaciones geométricas en el álgebra de Dirac.

En electrodinámica todo el desarrollo de la teoría va de la forma más explícita de lo global a lo local. El teorema integral de Gauss, que Cauchy usó para demostrar su teorema del residuo del análisis complejo, da el prototipo de integral cíclica o de periodo, y originalmente está libre de especificaciones métricas —como lo está la ley de electrostática de Gauss, aunque esto muy rara vez se recuerda. La integral de Aharonov-Bohm, prototipo de fase geométrica, tiene una estructura equivalente a la de Gauss.

Como subraya Evert Jan Post, la integral de Gauss funciona como un contador natural de unidades de carga, igual que la de Aharonov-Bohm lo es para unidades de flujo cuantizadas en la autointerferencia de haces. Esto habla en favor de la interpretación colectiva o estadística de la mecánica cuántica como opuesta a la interpretación de Copenhague que enfatiza la existencia de un sistema individual con estadísticas no-clásicas. Los principales parámetros estadísticos serían aquí, en línea con el trabajo de Planck de 1912 en el que introdujo la energía de punto cero, la fase mutua y la orientación de los elementos del conjunto [51]. No hay ni que decir que la orientación es un aspecto independiente de la métrica.

Ni que decir tiene, este razonamiento integral demuestra toda su vigencia en el efecto Hall cuántico y su variante fraccional, presente en sistemas electrónicos bidimensionales sometidos a condiciones especiales; lo que nos llevaría a los mencionados intentos de confinamiento de electrones, pero desde el ángulo de la estadística ordinaria. En definitiva, si hay una correlación entre la función y los niveles de energía atómicos, ello no debería atribuirse a alguna propiedad especial de la mecánica cuántica sino a los grandes números aleatorios que pueden generarse a nivel microscópico.

Si algo no lo podemos entender en el dominio clásico, difícilmente lo vamos a ver más claro bajo las cortinas de niebla de la mecánica cuántica. Existen correlatos bien significativos de la zeta en física clásica sin necesidad de invocar el caos cuántico; y de hecho modelos bien conocidos como el de Berry, Keating y Connes son semiclásicos, lo que es una forma de quedarse a mitad de camino. Podemos encontrar un exponente clásico en los billares dinámicos, empezando con un billar circular, que puede extenderse a otras formas como elipses o la llamada forma de estadio, un rectángulo con dos semicírculos.

La dinámica del billar circular con una partícula puntual rebotando es integrable y sirve, por ejemplo, para modelar el comportamiento del campo electromagnético en resonadores tales como cavidades ópticas o de microondas. Si se abren rendijas en el perímetro, de modo que la bola tenga cierta probabilidad de escapar del billar, tenemos una tasa de disipación y el problema adquiere mayor interés. Por supuesto, la probabilidad depende de la ratio entre el tamaño de las aperturas y el del perímetro.

La conexión con los números primos viene a través de los ángulos en las trayectorias según un módulo 2 π/n. Bunimovich y Detteman demostraron que para un billar circular con dos aperturas separadas por 0, 60, 90, 120 o 180º la probabilidad está únicamente determinada por el polo y los ceros no triviales de la función zeta [52]. La suma total se puede determinar explícitamente y comporta términos que pueden conectarse con las series armónicas de Fourier y las series hipergeométricas. Desconozco si esto puede extenderse a contornos elípticos, que también son integrables. Es al pasar del contorno circular a contornos deformados como el del estadio que el sistema deja de ser integrable y se torna caótico, requiriendo un operador de evolución.

Los billares dinámicos tienen múltiples aplicaciones en física y se usan como ejemplo paradigmático de los sistemas conservativos y la mecánica hamiltoniana; sin embargo el “escape” que se permite a las partículas no es otra cosa que una tasa de disipación, y de la forma más explícita posible. Por lo tanto, nuestra idea inicial de que la zeta debería tener vigencia en sistemas termomecánicos irreversibles a un nivel fundamental es bien fácil de entender —es la mecánica hamiltoniana la que pide la excepción para empezar. Puesto que se asume que la física fundamental es conservativa, se buscan sistemas cerrados “un poco abiertos”, cuando, según nuestro punto de vista, lo que tenemos siempre es sistemas abiertos parcialmente cerrados. Y según nuestra interpretación, hemos entendido la cuestión al revés: un sistema es reversible porque es abierto, y es irreversible en la medida en que deviene cerrado.

Pasando a otro orden de cosas, el aspecto más evidente del electromagnetismo es la luz y el color. Goethe decía que el color era el fenómeno fronterizo entre la sombra y la luz, en esa incierta región a la que llamamos penumbra. Por supuesto lo suyo no era una teoría física, sino una fenomenología, lo que no sólo no le quita valor sino que se lo añade. La teoría del espacio del color de Schrödinger de 1920, basada en argumentos de geometría afín aunque con una métrica riemaniana, se encuentra a mitad de camino entre la percepción y la cuantificación y puede servirnos, con algunas mejoras introducidas posteriormente, para acercar visiones que parecen totalmente inconexas. Mazilu muestra que también aquí pueden obtenerse matrices semejantes a las que surgen de las interacciones de campo [53].

Ni que decir tiene que a Goethe se le objetó que su concepto de polaridad entre luz y oscuridad, a diferencia de la firmemente establecida polaridad de carga eléctrica, no estaba justificado por nada, pero nosotros creemos que es justamente lo contrario. Lo único que existen son gradientes; la luz y la sombra pueden crearlos, una carga que es sólo un signo + o — adscrito a un punto, no. El color está dentro de la luz-oscuridad como la luz-oscuridad está dentro del espacio-materia.

Se dice por ejemplo que la función zeta de Riemann podría jugar el mismo papel para los sistemas cuánticos caóticos que el oscilador armónico para los sistemas cuánticos integrables. ¿Pero se sabe todo del oscilador armónico? Ni mucho menos, ya vemos lo que ocurre con la fibración de Hopf o el mismo monopolo. Por otra parte, sabido es que la primera aparición de la zeta en la física es con la fórmula de radiación de cuerpo negro de Planck, donde entra en el cálculo de la energía promedio de lo que luego se llamaría “fotón”.

La interpretación física de la función zeta siempre obliga a plantearse las correspondencias entre la mecánica cuántica y la clásica. Por tanto, un problema casi tan intrigante como éste tendría que ser encontrar una contraparte clásica del espectro descrito por la ley de Planck; sin embargo las tendencias dominantes no parecen interesadas en encontrar una respuesta para esto. Mazilu, otra vez, nos recuerda el descubrimiento por Irwin Priest en 1919, de una sencilla y enigmática transformación bajo la cual la fórmula de Planck rinde una distribución gaussiana o normal con un ajuste exquisito a lo largo de todo el espectro [54].

En realidad el tema de la correspondencia entre la mecánica cuántica y la clásica es incomparablemente más relevante a nivel práctico y tecnológico que el de la función zeta. Y en cuanto a la teoría, tampoco existe ningún tipo de aclaración por parte de la mecánica cuántica sobre dónde se encontraría la zona de transición. Probablemente haya buenos motivos para que este campo reciba aparentemente tan poca atención. Sin embargo es altamente probable que la función zeta de Riemann conecte de manera inesperada distintos dominios de la física, lo que hace de ella un objeto matemático de un calado incomparable.

La cuestión es que no existe una interpretación para la raíz cúbica de la frecuencia de la transformación de Priest. Refiriéndose a la radiación cósmica de fondo, “y tal vez a la radiación térmica en general”, Mazilu no deja de hacer sus conjeturas para terminar con esta observación: “debería hacerse mención de que tal resultado bien podría ser específico de la forma en que las medidas de la radiación se hacen habitualmente, a saber, mediante un bolómetro”. Dejando a un lado esta transformación, se han propuesto diversas maneras más o o menos directas de derivar la ley de Planck de supuestos clásicos, desde la que sugiere Noskov partiendo de la electrodinámica de Weber a la de C. K. Thornhill [55]. Thornhill propuso una teoría cinética de la radiación electromagnética con un éter gaseoso compuesto por una variedad infinita de partículas, de manera que la frecuencia de las ondas electromagnéticas se correlaciona con la energía por unidad de masa de las partículas en lugar de sólo la energía, obteniendo la distribución de Planck de una forma mucho más simple.

La explicación estadística de la ley de Plank ya la conocemos, pero la transformación gaussiana de Priest demanda una explicación física para una estadística clásica. Mazilu hace mención expresa del dispositivo de medición empleado, en este caso el bolómetro, basado en un elemento de absorción —se dice que la función zeta de Riemann se corresponde con un espectro de absorción, no de emisión. Si hoy se emplean metamateriales para “ilustrar” variaciones del espacio tiempo y los agujeros negros —donde también se usa la función zeta para regularizar los cálculos-, con más razón y mucho más fundamento físico y teórico se podrían utilizar para estudiar variantes del espectro de absorción para poder reconstruir la razón por una suerte de ingeniería inversa. El enigma de la fórmula de Priest podría abordarse desde un punto de vista tanto teórico como práctico y constructivo —aunque también la explicación que se da del rendimiento de los metamateriales es más que discutible y habría que purgarla de numerosas asunciones.

Por supuesto para cuando Priest publicó su artículo la idea de cuantización ya tenía ganada la batalla. Su trabajo cayó en el olvido y del autor apenas se recuerda más que su dedicación a la colorimetría, en la que estableció un criterio de temperaturas recíprocas para la diferencia mínima en la percepción de colores [56]; se trata de temperaturas perceptivas, naturalmente, no físicas; la correspondencia entre temperaturas y colores no parece que pueda establecerse jamás. Si existe un álgebra elemental aditiva y sustractiva de los colores, también debe haber un álgebra producto, seguramente relacionada con su percepción. Esto hace pensar en la llamada línea de púrpuras no espectrales entre los extremos rojo y violeta del espectro, cuya percepción está limitada por la función de luminosidad. Con la debida correspondencia esto podría prestarse a una hermosa analogía que el lector puede intentar adivinar.

Por otra parte conviene no olvidar que la constante de Planck no tiene nada que ver con la incertidumbre en la energía de un fotón, aunque hoy sea una costumbre asociarlos [57]. Las vibraciones longitudinales en el interior de los cuerpos en movimiento de Noskov recuerdan de inmediato el concepto de zitterbewegung o “movimiento trémulo” introducido por Schrödinger para interpretar la interferencia de energía positiva y negativa en la ecuación relativista del electrón de Dirac. Schrödinger y Dirac concibieron este movimiento como “una circulación de carga” que generaba el momento magnético del electrón. La frecuencia de la rotación del zbw sería del orden de los 1021 hertzios, demasiado elevada para la detección salvo por resonancias.

David Hestenes ha analizado diversos aspectos del zitter en su modelo de la mecánica cuántica como autointeracción. P. Catillon et al. hicieron un experimento de canalización de electrones en un cristal en el 2008 para confirmar la hipótesis del reloj interno al electrón de de Broglie. La resonancia detectada experimentalmente es muy próxima a la frecuencia de de Broglie, que es la mitad de la frecuencia del zitter; el periodo de de Broglie estaría directamente asociado a la masa, tal como se ha sugerido recientemente. Existen diversos modelos hipotéticos para crear resonancias con el electrón reproduciendo la función zeta en cavidades y billares dinámicos como el de Artin, pero no suelen asociarse con el zitter ni con el reloj interno de de Broglie, puesto que este experimento no encuentra acomodo en la versión convencional de la mecánica cuántica. Por otro lado sería recomendable considerar una energía de punto cero totalmente clásica como puede seguirse del trabajo de Planck y sus continuadores en la electrodinámica estocástica, aunque todos estos modelos se basen en partículas puntuales. [58].

La matemática, se dice, es la reina de las ciencias, y la aritmética la reina de la matemática. El teorema fundamental de la aritmética pone en el centro a los números primos, cuyo producto permite generar todos los números enteros mayores que 1. El mayor problema de los números primos es su distribución, y la mejor aproximación a su distribución proviene de la función zeta de Riemann. Esta a su vez tiene un aspecto crítico, que es justamente averiguar si todos los ceros no triviales de la función yacen en la línea crítica. El tiempo y la competencia entre matemáticos ha agigantado la tarea de demostrar la hipótesis de Riemann, el K-1 de la matemática, que comportaría una especie de lucha del hombre contra el infinito.

William Clifford dijo que la geometría era la madre de todas las ciencias, y que uno debería entrar en ella agachado igual que los niños; parece por el contrario que la aritmética nos hace más altivos, porque no necesitamos mirar hacia abajo para contar. Y eso, mirar hacia abajo y hacia lo más elemental, sería lo mejor para la comprensión de este tema, olvidándose de la hipótesis tanto como fuera posible. Naturalmente, esto también podría decirse de innumerables cuestiones donde el sobreuso de la matemática crea un contexto demasiado enrarecido, pero al menos aquí se admite una falla básica en la comprensión, y en otras partes eso no parece importar demasiado.

Cabe decir que hay dos formas básicas de entender la función zeta de Riemann: como un problema que nos plantea el infinito o un problema que nos plantea la unidad. Hasta ahora la ciencia moderna, impulsada por la historia del cálculo, se ha ocupado mucho más del primer aspecto que del segundo, a pesar de que ambos estén unidos de manera indisociable.

Se dice que si se encontrara un cero fuera de la línea crítica —si la hipótesis de Riemann resultara falsa-, eso provocaría estragos en la teoría de los números. Pero si los primeros ceros que ya evaluó el matemático alemán están bien calculados, la hipótesis puede darse prácticamente por cierta, sin necesidad de calcular más trillones o cuatrillones de ellos. En realidad, y al hilo de lo dicho en el capítulo anterior, parece mucho más probable encontrar fallos en los fundamentos del cálculo y sus resultados que encontrar ceros fuera de la línea, y además el saludable caos creativo que produciría seguro que no quedaría confinado a una rama de las matemáticas.

Naturalmente, esto cabe aplicarlo al cálculo de la propia función zeta. Si el cálculo simplificado de Mathis, usando un criterio unitario de intervalo, encuentra divergencias incluso para los valores de la función logarítmica elemental, estas divergencias tendrían que ser mucho más importantes en un cálculo tan complicado como el de esta función especial. Y en cualquier caso nos brinda un criterio diferente en la evaluación de la función. Más aún, este nuevo criterio podría revelar si ciertas divergencias y términos de error se cancelan.

Los abogados del diablo en este caso no habrían hecho todavía la parte más importante de su trabajo. Por otra parte, también se han calculado derivadas fraccionales de esta función que permiten ver dónde convergen la parte real y la imaginaria; esto tiene interés tanto para el análisis complejo como para la física. De hecho se sabe que en los modelos físicos la evolución del sistema con respecto al polo y los ceros suele depender de la dimensión, que en muchos casos es fraccionaria o fractal, o incluso multi-fractal para los potenciales asociados con los números mismos.

La aritmética y el acto de contar existen primariamente en el dominio tiempo, y hay buenas razones para pensar que los métodos basados en diferencias finitas tendrían que tener preferencia al tratar de cambios en el dominio temporal —puesto que con infinitesimales se disuelve el acto de contar. El análisis fraccional de la función también debería estar referido a las secuencias temporales. Finalmente, la relación entre variables discretas y continuas característica de la mecánica cuántica también tendría que pasar por los métodos de diferencias finitas.

La física cuántica pude describirse de una forma más intuitiva con una combinación de álgebra geométrica y cálculo fraccional para los casos que contienen dominios intermedios. De hecho los dominios intermedios pueden ser mucho más numerosos de lo que creemos si se tiene en cuenta tanto la asignación mezclada de variables en la dinámica orbital como las diferentes escalas a las que pueden tener lugar ondas y vórtices entre el campo y las partículas en una perspectiva diferente como la de Venis. La misma autointeracción del zitterbewegung reclama todavía de una concreción mucho mayor de la lograda hasta ahora. Este movimiento permite, entre otras cosas, una traducción más directamente geométrica, e incluso clásica, de los aspectos no conmutativos de la mecánica cuántica, que a su vez permiten una conexión natural clave entre variables discretas y continuas.

Michel Riguidel somete a la función zeta a un trabajo intensivo de interacción para buscar un acercamiento morfogenético. Sería excelente si la potencia de cómputo de los ordenadores pudiera usarse para refinar nuestra intuición, interpretación y reflexión, en vez de lo contrario. Sin embargo aquí es fácil presentar dos grandes objeciones. Primero, la enorme plasticidad de la función, que aun siendo completamente diferenciable, según el teorema de universalidad de Voronin contiene cualquier cantidad de información un número infinito de veces.

La segunda objeción es que si ya la función tiene una enorme plasticidad, y por otro lado los gráficos sólo representan en todo momento aspectos muy parciales de la función, las deformaciones y transformaciones, por más evocadoras que puedan ser, aún introducen nuevos grados de arbitrariedad. Se puede transformar el logaritmo en una espiral a mitad de camino entre la línea y el círculo, y crear ondas espirales y qué no, pero no dejan de ser representaciones. El interés, en todo caso, está en la interacción función-sujeto-representación —la interacción entre herramientas matemáticas, conceptuales y de representación.

Pero no se necesitan más enrevesados conceptos. El mayor obstáculo para profundizar en este tema, como en tantos otros, reside en la frontal oposición a revisar los fundamentos del cálculo, la mecánica clásica y la cuántica. Por otro lado, cuanto más complejos sean los argumentos para demostrar o refutar la hipótesis, menos importancia puede tener el resultado para el mundo real, sea cierta o falsa.

Suele decirse que el significado de la hipótesis de Riemann es que los números primos tienen una distribución tan aleatoria como es posible, lo que por supuesto deja totalmente abierto cuánto azar es posible. Tal vez no tengamos más remedio que hablar de azar aparente.

Pero aún así, ahí lo tenemos: el máximo grado de azar aparente en una simple secuencia lineal generalizable a cualquier dimensión esconde una estructura ordenada de una insondable riqueza.

Michel Riguidel: Morphogenesis of the Zeta Function in the Critical Strip by Computational Approach
Michel Riguidel: Morphogenesis of the Zeta Function in the Critical Strip by Computational Approach

*

Volvamos ahora al aspecto cualitativo de la polaridad y a la problemática relación con el dominio cuantitativo. Pero no sólo la relación entre lo cualitativo y lo cuantitativo es problemática, sino que la misma interpretación cualitativa plantea un interrogante básico, que inevitablemente remite a las conexiones cuantitativas.

Para Venis todo puede explicarse con el yin y el yang, que él ve en términos de expansión y contracción, y de una dimensión más alta o una dimensión más baja. Aunque su interpretación ahonda mucho la posibilidad de conexión con la física y la matemática, supone una asunción básica de la acepción del yin y el yang del filósofo práctico japonés George Ohsawa. Se suele afirmar repetidamente que en la tradición china, el yin se relaciona básicamente con la contracción y el yang con la expansión. Venis conjetura que la interpretación china puede ser más metafísica y la de Ohsawa más física; y en otra ocasión opina que la primera podría estar más relacionada con los procesos microcíclicos de la materia y la segunda con los procesos mesocíclicos más propios de nuestra escala de observación, pero ambas consideraciones parecen bastante divergentes.

Cuesta creer que sin resolver estas diferencias tan básicas puedan alguna vez aplicarse estas categorías a aspectos cuantitativos, aunque aún puede hablarse de contracción y expansión, con y sin relación a las dimensiones. Pero por otro lado, cualquier reducción de categorías tan vastas y llenas de matices a meras relaciones lineales con coeficientes de aspectos aislados como “expansión” o “contracción” corre el peligro de convertirse en una enorme simplificación que anula precisamente el valor de lo cualitativo para apreciar grados y matices.

La lectura que Venis hace no es en absoluto superficial, y por el contrario es fácil ver que lo que hace es darle una dimensión mucho más amplia a estos términos, y nunca mejor dicho. Su extrapolación a aspectos como el calor y el color puede parecer falta de la deseable justificación cuantitativa y teórica, pero en cualquier caso son lógicas y consecuentes con su visión general y están abiertas a la profundización del tema. Sin embargo el radical desacuerdo en la cualificación más básica ya es todo un desafío para la interpretación.

Habría que decir para empezar que la versión china no puede reducirse de ningún modo al entendimiento del yin y el yang como contracción y expansión, ni tampoco a ningún par de opuestos conceptuales con exclusión de los demás. Contracción y expansión son sólo uno entre los muchos posibles, y aun siendo muy empleado, depende enteramente, como cualquier otro par, del contexto. Tal vez la acepción más común sea la de “lleno” y “vacío”, que por otra parte no deja de estar íntimamente ligada a la contracción y la expansión, aunque no sean ni mucho menos idénticos. O también, según el contexto, la tendencia a llenarse o a vaciarse; no es por nada que se distinga muy a menudo entre yang viejo y joven, y lo mismo para el yin. Estos puntos de espontánea inversión potencial también están expresados en el Taijitu, puesto que la inversión espontánea es el camino del Tao.

Por otra parte, cualidades como lo lleno y lo vacío no sólo tienen un significado claro en términos diferenciales y de las teorías de campos, la hidrodinámica o aun la termodinámica, sino que también tienen un sentido inmediato, aunque mucho más difuso, para nuestro sentido interno, o cenestesia, que es justamente el sentido común o sensorio común, que es justamente nuestra sensación indiferenciada anterior al impreciso “corte sensorial” que parece generar el campo de nuestros cinco sentidos. Esta cenestesia o sentido interno también incluye la cinestesia, nuestra percepción inmediata del movimiento y nuestra autopercepción, que puede ser tanto del cuerpo como de la misma conciencia.

Este sentido interno o sensorio es sólo otra forma de hablar del medio homogéneo e indiviso que ya somos, y es a él que se refiere siempre la percepción mediada por cualquiera de los sentidos. Y cualquier tipo de conocimiento intuitivo o cualitativo toma eso como referencia, que evidentemente va más allá de cualquier criterio racional o sensorial de discernimiento. Y a la inversa, podría decirse que ese trasfondo se obvia en el pensamiento formal pero se lo supone en el conocimiento intuitivo. Los físicos hablan a menudo de que un resultado es “contraintuitivo” sólo en el sentido de que va contra lo esperado o el conocimiento adquirido, no contra la intuición, que en vano querríamos definir.

Sería con todo absurdo decir que lo cualitativo y lo cuantitativo son esferas completamente separadas. Las matemáticas son cualitativas y cuantitativas por igual. Se habla de ramas más cualitativas, como la topología, y ramas más cuantitativas como la aritmética o el cálculo, pero una inspección más atenta revela que eso apenas tiene sentido. La morfología de Venis está totalmente basada en la idea de flujo y en nociones tan elementales como puntos de equilibrio y puntos de inversión. El mismo Newton llamó a su cálculo “método de fluxiones”, de cantidades en flujo continuo, y los métodos para evaluar curvas se basan en la identificación de puntos de inflexión. De modo que hay una compatibilidad que no sólo no es forzada sino que es verdaderamente natural; que la ciencia moderna haya avanzado en dirección contraria hacia la abstracción creciente, lo que a su vez es el justo contrapeso a su utilitarismo, es ya otra historia.

Polaridad y dualidad son cosas bien diferentes pero conviene percibir sus relaciones antes de que se introdujera la convención de la carga eléctrica. La referencia aquí no puede dejar de ser la teoría electromagnética, que es la teoría básica sobre la luz y la materia, y en buena medida también sobre el espacio y la materia.

Evidentemente, sería totalmente absurdo decir que una carga positiva es yang y una carga negativa es yin, puesto que entre ambos sólo hay un cambio de signo arbitrario. En el caso de un electrón o protón ya intervienen otros factores, como el hecho de que uno es mucho menos masivo que el otro, o que uno se encuentra en la periferia y el otro en el centro del átomo. Pongamos otro ejemplo. A nivel biológico y psicológico, vivimos entre la tensión y la presión, grandes condicionantes de nuestra forma de percibir las cosas. Pero sería absurdo también que uno u otro son yin o yang en la medida en que entendamos la tensión sólo como una presión negativa. Dicho de otro modo, los meros cambios de signo nos parecen enteramente triviales; pero se hacen mucho más interesantes cualitativa y cuantitativamente cuando comportan otras transformaciones.

Que todo sea trivial o nada lo sea, depende sólo de nuestro conocimiento y atención; un conocimiento superficial puede presentarnos como triviales cosas que en absoluto lo son y están llenas de contenido. La polaridad de la carga puede parecer trivial, lo mismo que la dualidad de la electricidad y el magnetismo, o la relación entre la energía cinética y potencial. En realidad ninguna de ellas es en absoluto trivial ni siquiera tomada por separado, pero cuando intentamos verlo todo junto tenemos ya un álgebra espacio-temporal con una enorme riqueza de variantes.

En el caso de la presión y la tensión, la transformación relevante es la deformación aparente de un material. Las variaciones de presión-tensión-deformación son, por ejemplo, las que definen las propiedades del pulso, ya sea en la pulsología de las medicinas tradicionales china o india como en el moderno análisis cuantitativo del pulso; pero eso también nos lleva a las relaciones tensión-deformación que define a la ley constitutiva en la ciencia de materiales. Las relaciones constitutivas, por otro lado, son el aspecto complementario de las ecuaciones del campo electromagnético de Maxwell que nos dicen cómo éste interactúa con la materia.

Se dice normalmente que electricidad y magnetismo, que se miden con unidades con dimensiones diferentes, son la expresión dual de una misma fuerza. Como ya hemos señalado, esta dualidad implica la relación espacio-materia, tanto para las ondas como para lo que se supone que es el soporte material de la polaridad eléctrica y magnética; de hecho, y sin entrar en más detalles, esta parece ser la distinción fundamental.

Todas las teorías de campos gauge pueden expresarse por fuerzas y potenciales pero también por variaciones de presión-tensión-deformación que en cualquier caso comportan un feedback. Y hay un feedback porque hay un balance global primero, y sólo luego uno local. Estas relaciones están presentes en la ley de Weber, sólo que en ella lo que se “deforma” es la fuerza en lugar de la materia. La gran virtud de la teoría de Maxwell es hacer explícita la dualidad entre electricidad y magnetismo que se oculta en la ecuación de Weber. Pero hay que insistir, con Nicolae Mazilu, que la esencia de la teoría gauge se puede encontrar ya en el problema de Kepler.

Ya vimos que relaciones constitutivas como la permitividad y la permeabilidad con sus magnitudes respectivas no pueden darse en el espacio vacío, por lo que sólo pueden ser un promedio estadístico de lo que ocurre en la materia y lo que ocurre en el espacio. La materia puede soportar tensión sin exhibir deformación, y el espacio puede deformarse sin tensión —esto está en paralelo con las signaturas básicas de la electricidad y el magnetismo, que son la tensión y la deformación. Deformación y tensión no son yin ni yang, pero ceder fácilmente a la deformación sí es yin, y soportar la tensión sin deformación es yang —al menos por lo que respecta al aspecto material. Entre ambos tiene que haber por supuesto todo un espectro continuo, a menudo interferido por otras consideraciones.

Sin embargo, desde el punto de vista del espacio, al que no accedemos directamente sino por la mediación de la luz, la consideración puede ser opuesta: la expansión sin coacción sería yang puro, mientras que la contracción puede ser una reacción de la materia ante la expansión del espacio, o de las radiaciones que lo atraviesan. Las mismas radiaciones u ondas son una forma alterna intermedia entre la contracción y la expansión, entre la materia y el espacio, que no pueden existir por separado. Con todo una deformación es un concepto puramente geométrico, mientras que una tensión o una fuerza no, siendo aquí donde empieza el dominio de la física propiamente dicha.

Sin embargo, desde el punto de vista del espacio, al que no accedemos directamente sino por la mediación de la luz, la consideración puede ser opuesta: la expansión sin coacción sería yang puro, mientras que la contracción puede ser una reacción de la materia ante la expansión del espacio, o de las radiaciones que lo atraviesan. Las mismas radiaciones u ondas son una forma alterna intermedia entre la contracción y la expansión, entre la materia y el espacio, que no pueden existir por separado. Con todo una deformación es un concepto puramente geométrico, mientras que una tensión o una fuerza no, siendo aquí donde empieza el dominio de la física propiamente dicha.

Tal vez así pueda vislumbrarse un criterio para conciliar ambas interpretaciones, no sin una atención cuidadosa al cuadro general del que forman parte; cada una puede tener su rango de aplicación, pero no pueden estar totalmente separadas.

Es ley del pensamiento que los conceptos aparezcan como pares de opuestos, habiendo una infinidad de ellos; encontrar su pertinencia en la naturaleza es ya otra cosa, y el problema parece hacerse insoluble cuando las ciencias cuantitativas introducen sus propios conceptos que también están sujetos a las antinomias pero de un orden a menudo muy diferente y desde luego mucho más especializado. Sin embargo la atención simultánea al conjunto y a los detalles hacen de esto una tarea que está lejos de ser imposible.

A menudo se ha hablado de holismo y reduccionismo para las ciencias pero hay que recordar que ninguna ciencia, empezando por la física, ha podido ser descrita en términos rigurosamente mecánicos. Los físicos se quedan con la aplicación local de los campos gauge, pero el mismo concepto del lagrangiano es integral o global, no local. Lo que sorprende es que aún no se haya aprovechado este carácter global en campos como la medicina, la biofísica o la biomecánica.

Partiendo de estos aspectos globales de la física es mucho más viable una conexión genuina y con sentido entre lo cualitativo y lo cuantitativo. La concepción del yin y el yang es sólo una de las muchas lecturas cualitativas que el hombre ha hecho de la naturaleza, pero aun teniendo en cuenta el carácter sumamente fluido de este tipo de distinciones no es difícil establecer las correspondencias. Por ejemplo, con las tres gunas del Samkya o los cuatro elementos y los cuatro humores de la tradición occidental, en que el fuego y el agua son los elementos extremos y el aire y la tierra los intermedios; también estos pueden verse en términos de contracción y expansión, o de presión, tensión y deformación.

Y por supuesto la idea de equilibrio tampoco es privativa de la concepción china, puesto que la misma cruz y el cuaternario han tenido siempre una connotación de equilibrio totalmente elemental y de carácter universal. Es más bien en la ciencia moderna que el equilibrio deja de tener un lugar central, a pesar de que tampoco en ella puede dejar de ser omnipresente, como lo es en el mismo razonamiento, la lógica y el álgebra. La misma posibilidad de contacto entre el conocimiento cuantitativo y cualitativo depende tanto de la ubicación que demos al concepto de equilibrio como de la apreciación del contexto y los rasgos genuinamente globales de lo que llamamos mecánica.

A diferencia de los conceptos científicos acostumbrados, que tienden inevitablemente a hacerse más detallados y a especializarse, nociones como el yin y el yang son ideas de la máxima generalidad, índices a identificar en los más concretos contextos; si queremos definirlas demasiado pierden la generalidad que les de su valor como guía intuitiva. Pero también las ideas más generales de la física han estado sujetas a constante evolución y modificación en función del contexto, y no hay más que ver las continuas transformaciones de conceptos cuantitativos como fuerza, energía o entropía, por no hablar de cuestiones como el criterio y rango de aplicación de los tres principios de la mecánica clásica.

Los vórtices pueden expresarse en el elegante lenguaje del continuo, de las compactas formas diferenciales exteriores o del álgebra geométrica; pero los vórtices hablan sobre todo con un lenguaje muy semejante al de nuestra propia imaginación y la plástica imaginación de la naturaleza. Por eso, cuando observamos la secuencia de Venis y sus variaciones, sabemos que nos encontramos en un terreno intermedio, pero genuino, entre la física matemática y la biología. Tanto en una como en otra la forma sigue a la función, pero en la ingeniería inversa de la naturaleza que toda ciencia humana es, la función debería seguir a la forma hasta las últimas consecuencias.

Venis habla repetidamente incluso de un equilibrio dimensional, es decir, un equilibrio entre las dimensiones entre las que se sitúa la evolución de un vórtice. Este amplía mucho el alcance del equilibrio pero hace más difícil contrastarlo. El cálculo fraccional tendría que ser clave para seguir esta evolución a través de los dominios intermedios entre dimensiones, pero esto también plantea aspectos interesantes para la medida experimental.

Cómo puedan interpretarse las dimensiones superiores a tres es siempre una cuestión abierta. Si en lugar de pensar en la materia como moviéndose en un espacio pasivo, pensamos en la materia como aquellas porciones a las que el espacio no tiene acceso, la misma materia partiría de una dimensión cero o puntual. Entonces las seis dimensiones de la evolución de los vórtices formarían un ciclo desde la emisión de luz por la materia al repliegue del espacio y la luz en la materia otra vez —y las tres dimensiones adicionales sólo serían el proceso en el sentido inverso, y desde una óptica inversa, lo que hace que se evite la repetición.

Es sólo una forma de ver algunos aspectos de la secuencia entre las muchas posibles, y el tema merece un estudio mucho más detallado que el que podemos dedicarle aquí. Una cosa es buscar algún tipo de simetría, debe haber muchos más tipos de vórtices de los que conocemos ahora, sin contar con las diferentes escalas en que pueden darse y las múltiples metamorfosis. Sólo en el trabajo de Venis puede encontrarse la debida introducción a estas cuestiones. Para Venis, aunque no haya manera de demostrarlo, el número de dimensiones es seguramente infinito. Un indicio de ello sería el número mínimo de meridianos necesarios para crear un vórtice, que aumenta exponencialmente con el numero de dimensiones y que el autor asocia con la serie de Fibonacci.

Puede hablarse de polaridad siempre que se aprecie una capacidad de autorregulación. Es decir, no cuando simplemente se cuenta con fuerzas aparentemente antagónicas, sino cuando no podemos dejar de advertir un principio por encima de ellas. Esa capacidad ha existido siempre desde el problema de Kepler, y es bien revelador que la ciencia no haya acertado a reconocerlo. La fuerza de Newton no es polar, la fuerza de Weber sí, pero el problema de los dos cuerpos exhibe una dinámica polar en cualquier caso. De hecho llamar “mecánica” a la evolución de los cuerpos celestes es sólo una racionalización, y en realidad no tenemos una explicación mecánica de nada cuando se habla de fuerzas fundamentales, ni probablemente podemos tenerla. Sólo cuando advertimos el principio regulador podemos usar el término dinámica haciendo honor a la intención original aún presente en tal nombre.

Questions of program —and of principle, again: calculus, dimensional analysis and chronometrology

In physics and mathematics, as in all areas of life, we have principles, means and ends. The principles are the starting points, the means, from a practical-theoretical point of view, are the different branches of calculus, and the interpretations the ends. These last ones, far from being a philosophical luxury, are the ones that determine the whole contour of representations and applications of a theory.

As for principles, we have already commented, if we want to see more closely where and how the continuous proportion emerges, we should observe as much as possible the ideas of continuity, homogeneity and reciprocity. And this includes the consideration that all systems are open, since if they are not open they cannot comply with the third principle in a way that is worthy of being considered “mechanical”. This is the main difference between Nature and manmade machines.

These three-four principles, are nonspecifically included in the principle of dynamic equilibrium, which is the way to dispense with the principle of inertia, and incidentally, the principle of relativity. If we talk about continuity, this does not mean that we are stating that the physical world must necessarily be continuous, but that what seems to be a natural continuity should not be broken without need.

Actually, the principles also determine the scope of our interpretations, although they do not specify them.

As for calculus, which in the form of predictions has become for modern physics the almost exclusive purpose, it is always a matter of justifying how to achieve results known in advance, so reverse engineering and heuristics always won the day over considerations of logic or consistency. Of course there is a laborious foundation of calculus by Bolzano, Cauchy and Weierstrass, but it is more concerned with saving the results than with making them more intelligible.

On this point we cannot agree more with Mathis, who stands alone in a battle to redefine these foundations. What Mathis proposes can be traced back to umbral calculus and the calculus of finite differences, but these are considered as sub-domains of the standard calculus and ultimately have not brought a better understanding to the field.

An instantaneous speed is still an impossible that reason rejects, and besides there is no such thing on a graph. If there are physical theories, such as special relativity, that unnecessarily break with the continuity of classical equations, here we have the opposite case, but with another equally disruptive effect: a false notion of continuity, or pseudo-continuity, is created that is not justified by anything. Modern calculus has created for us an illusion of dominion over infinity and motion by subtracting at least one dimension from the physical space, not honoring that term “analysis” which is so proud of. And this, naturally, should have consequences in all branches of mathematical physics [45].

Mathis’ arguments are absolutely elementary and irreducible; these are also questions of principle, but not only of principle as the problems of calculus are eminently technical. The original calculus was designed to calculate areas under curves and tangents to those curves. It is evident that the curves of a graph cannot be confused with the real trajectories of objects and that in them there are no points or moments; then all the generalizations of this methods contain this dimensional conflation.

Finite calculus is also closely related to the problem of particles with extension, without which it is nearly impossible to move from the ideal abstraction of physical laws to the apparent forms of nature.

Mathis himself is the first to admit, for example in his analysis of the exponential function, that there is still a great deal to do for a new foundation of calculus, but this should be good news. At any rate the procedure is clear: the derivative is not to be found in a differential that approaches zero, nor in limit values either, but in a sub-differential that is constant and can only be 1, a unit interval. A differential can only be an interval, never a point or subtraction of points, and it is to the interval that the very definition of limit owes its range of validity. In physical problems this unit interval must correspond to an elapsed time and a distance traveled.

Trying to see beyond Mathis’ efforts, it could be said that, if curves are defined by exponents, any variation in a function should be able to be expressed in the form of a dynamic equilibrium whose product is unity; and in any case by a dynamic equilibrium based on a constant unit value, which is the interval. If classical mechanics and calculus grew up side by side as almost indistinguishable twins, even more so should be in a relational mechanics where inertia always dissolves in motion.

The heuristic part of modern calculus is still based on averaging or error compensation; while the foundation is rationalized in terms of limit, but works due to the underlying unit interval. The parallel between the bar of a scale and a tangent is obvious; what is not seen is precisely what should be compensated. Mathis method does not work with averages; standard calculus does. Mathis has found the beam of the scale, now it comes down to set the plates and fine tune the weights. We will come back to this later.

The disputes that still exist from time to time, even among great mathematicians, regarding standard and non-standard calculus, or the various ways of dealing with infinitesimals, at least reveal that different paths are possible, but for most of us they are remote discussions far removed from the most basic questions that should be analyzed first.

We mentioned earlier Tanackov’s formula to calculate the constant e way faster than the classic “direct method”; but the fact is that amateur mathematicians like the already mentioned Harlan Brothers have found, just twenty years ago, many different closed expressions that calculate it faster, besides being more compact. The mathematical community may treat it as a curiosity, but if this happens with the most basic rudiments of elementary calculus, what cannot happen in the dense jungle of higher order functions.

A somewhat comparable case would be that of symbolic calculus or computer algebra, which already 50 years ago found that many classical algorithms, including much of linear algebra, were terribly inefficient. However, as far as we can see, none of this has affected calculus proper.

“Tricks” like those of Brothers play in the ground of heuristics, although it must be recognized that neither Newton, nor Euler, nor any other great name of calculus knew them; but even if they are heuristics they cannot fail to point in the right direction, since simplicity use to be indicative of truth. However with Mathis we are talking not only about the very foundations, which none of the revisions of symbolic calculus has dared to touch, but even about the validity of the results, which cross the red line of what mathematicians want to consider. At the end of the chapter we will see whether this can be justified.

In fact, to pretend that a differential tends to zero is equivalent to say that everything is permitted in order to get the desired result; it is the ideal condition of versatility for whatever heuristics and adhocracy. The fundamental requirement of simplified or unitary calculus —plain differential calculus, indeed- may at first seem like putting spanners in the works already in full gear, but it truthful. No amount of ingenuity can replace rectitude in the search for truth.

Mathis’ attempt is not Quixotic; there is here much more than meets the eye. There are reversible standards and standards irreversible in practice, such as the current inefficient distribution of the letters of the alphabet on the keyboard, which seems impossible to change even though nobody uses the old typewriters anymore. We do not know if modern calculus will be another example of a standard impossible to reverse, but what is at stake here is far beyond questions of convenience, and it blocks a better understanding of an infinite number of issues; overcoming it is an indispensable condition for the qualitative transformation of knowledge and the ideas we have —or cannot have- of space, time, change and motion.

*

Today’s theoretical physicists, forced into a highly creative manipulation of the equations, tend to dismiss dimensional analysis as little more than pettifogging; surely this attitude is due to the fact that they have to think that any revision of the foundations is out of question, and one can only look ahead.

In fact, dimensional analysis is more inconvenient than anything else, since it is by no means irrelevant: it can prove with just a few lines that the charge is equivalent to mass, that Heisenberg’s uncertainty relations are conditional and unfounded, or that Planck’s constant should only be applied to electromagnetism, instead of being generalized to the entire universe. And since modern theoretical physics is in the business of generalizing its conquests to everything imaginable, any contradiction or restriction to its expansion by the only place it is allowed to expand must be met with notorious hostility.

It is actually easy to see that dimensional analysis would have to be a major source of truth if it were allowed to play its part, since modern physics is a tower of Babel of highly heterogeneous units that are the reflection of contortions made in the name of algebraic simplicity or elegance. Maxwell’s equations, compared to the Weber force that preceded him, are the most eloquent example of this.

Dimensional analysis is also of interest when we delve into the relationship between intensive and extensive quantities. The disconnection between the mathematical constants e and φ may also be associated with this broad issue. In entropy, for example, we use logarithms to convert intensive properties such as pressure and temperature into extensive properties, converting for convenience multiplicative relations into more manageable additive relations. That convenience becomes a necessity only for those aspects that are already extensive, such as an expansion.

Ilya Prigogine showed that any type of energy is made up of an intensive and an extensive variable whose product gives us an amount; an expansion, for example, is given by the PxV product of pressure (intensive) by volume (extensive). The same can be applied to changes in mass/density with velocity and volume, and so on.

The unstoppable proliferation of measurements in all areas of expertise already makes simplification increasingly necessary. But, beyond that, there is an urgent need to reduce the heterogeneity of physical magnitudes if intuition is to win the battle against the complexity with which we are accomplices.

All this is also closely related to finite calculus and the equally finitist algorithmic measurement theory developed by A. Stakhov. The classical mathematical measure theory is based on Cantor’s set theory and as we know it is neither constructive nor connected with practical problems, let alone the hard problems of the modern physical measurement theory. However, the theory developed by Stakhov is constructive and naturally incorporates an optimization criterion.

To appreciate the scope of the algorithmic measurement theory in our present quantitative Babel we must understand that it takes us back to the Babylonian origins of the positional numbering system, filling an important gap in the current theory of numbers. This theory is isomorphic with a new number system and a new general theory of biological population. The number system, created by George Bergman in 1957 and generalized by Stakhov, is based on the powers of φ. If for Pythagoras “all is number”, for this system “all number is continuous proportion”.

The algorithmic measure theory also raises the question of equilibrium, since its starting point is the so-called Bachet-Mendeleyev problem, which curiously also appears for the first time in Western literature with Fibonacci’s Liber Abacci of 1202. The modern version of the problem is to find the optimal system of standard weights for a balance that has a response time or sensitivity.

According to Stakhov, the key point of the weight problem is the deep connection between measurement algorithms and positional numbering methods. My impression however is that it still supports a deeper connection between dynamic equilibrium, calculus and what it takes to adjust a function; the weights for the plates needed by the beam of the scale identified by Mathis. Maybe there is no need to use powers of φ or to change the number system, but very useful ideas might be developed about the simplest algorithms.

Alexey Stakhov, The mathematics of Harmony

Of course, the algorithmic theory of complexity tells us that we cannot prove an algorithm is the simplest for a task, but that does not mean that we do not look for it continually, regardless of any demonstration. Efficiency and formal demonstration are largely unrelated.

Human beings inevitably tend to optimize what they measure most; however, we do not have a theory that harmonizes the needs of metrology with those of mathematics, physics and the descriptive sciences, whether social or natural. Today there are many different measure theories, and each discipline look for what is best for it. However, all metrics are defined by a function, and functions are defined by calculus or analysis, which does not want to have anything to do with the practical problems of measurement and pretends to be as pure as arithmetic even though it is far from it.

This may seem a somewhat absurd situation and in fact it is, but it also places a hypothetical measure theory that is in direct contact with the practical aspects, the foundations of calculus and arithmetic in a strategic situation above the drift and inertia of the specialities.

Calculus or analysis is not pure math, and it is too much to pretend that it is. On the one hand, and as far as physics is concerned, it involves at least a direct connection with questions of measurement that should be more explicit in the same math; on the other hand, the highly heuristic nature of its most basic procedures speaks for itself. If arithmetic and geometry have large gaps, being incomparably clearer, it would be absurd to pretend that calculus cannot have even much greater gaps.

*

On the other hand, physics will never cease to have both statistical and discrete components —bodies, particles, waves, collisions, acts of measurement, etc- besides continuous ones, which makes a relational-statistical analysis advisable.

An example of relational statistical analysis is the one proposed by V.V. Aristov. Aristov introduces a constructive and discrete model of time as motion using the idea of synchronization and physical clock that Poincaré already introduced precisely with the problem of the electron. Here each moment of time is a purely spatial picture. But it is not only a matter of converting time into space, but also of understanding the origin of the mathematical form of the physical laws: “The ordinary physical equations are consequences of the mathematical axioms, ‘projected’ into physical reality by means of the fundamental instruments. One can assume that it is possible to build different clocks with a different structure, and in this case we would have different equations for the description of motion”.

Aristov himself has provided clock models based on non-periodic, theoretically random processes, that are also of great interest. A clock based on a non-periodic process could be, for example, a piston engine in a cylinder; and this could also include thermodynamic processes.

It should also be noted that cyclical processes, despite their periodicity, mask additional or environmental influences, as we have seen with the geometric phase. To this, a deductive filter of unnecessarily restrictive principles is added, as we have already seen in the case of relativity. And as if all this were not enough, we have the fact, hardly recognized, that many processes considered purely random or “spontaneous”, such as radioactive decay, show discrete states during fluctuations in macroscopic processes, as has been extensively shown by S. Shnoll and his school for more than half a century.

Indeed, all kind of processes, from radioactive decay to enzymatic and biological reactions, through random number generators, show recurrent periods of, 24 hours, 27 and 365 days, which obviously correspond to astronomical cyclic factors.

We know that this regularity is filtered and routinely discounted as “non-significant” or irrelevant, in an example of how well researchers are trained to select data, but, beyond this, the question of whether such reactions are spontaneous or forced remains. An answer may be advanced: one would call them spontaneous even if a causal link could be demonstrated, since bodies contribute with their own momentum.

The statistical performance of multilevel neural networks —ultimately a brute force strategy- is increasingly hampered by the highly heterogeneous nature of the data and units with which they are fed, even though dynamic processes are obviously independent of the units. In the long run, the pureness of principles and criteria is irreplaceable, and the shortcuts that theories have sought for prediction accumulates a huge deal of deadweight. And again, it is of little use what conclusions machines can reach when we are already incapable of seeing through the simplest assumptions.

The performance of a relational network is also cumulative, but in exactly the opposite sense; perhaps it should be said, rather, that it grows in a constructive and modular way. Its advantages, such as those of relational physics —and information networks in general – are not obvious at first sight but increase with the number of connections. The best way to prove this is by extending the network of relational connections. And indeed, it is about collective work and collective intelligence.

With arbitrary cuts to relational homogeneity, destructive interference and irrelevant redundancy increase; conversely, the greater the relational density, the greater the constructive interference. I don’t think this requires demonstration: Totally homogeneous relations allow higher order degrees of inclusion without obstruction, just as equations made of heterogeneous elements can include equations within equations as opaque elements or knots still to unravel [46].

*

Let us go back to the calculus, but from a different angle. Mathis’ differential calculus does not always get the same results as the standard one, which would seem sufficient to rule it out. Since the principle is unquestionable, errors, if possible, might be due to an incorrect application of the principle, leaving the criteria still to be clarified. On the other hand, that there is a “dimensional reduction” of the curves in standard calculus is a fact, which however is not widely recognized because after all now the graphs are supposed to be secondary and even dispensable.

Are they really? Without graphs and curves calculus would never have been born, so that is enough. David Hestenes, the great advocator of geometric algebra and geometric calculus, says that geometry without algebra is dumb, and algebra without geometry is blind. We should add that not only algebra, but calculus too, and to a greater extent than we think, provided we understand that there is more to “geometry” than what the graphs usually tell us. We can now look at another type of graph, this time of vortices, due to P. A. Venis [47].

Peter Alexander Venis

In the transformation sequence Venis makes an estimate of its dimensionality that at first may seem arbitrary, although it is based on something as “obvious” as the transition from point to line, line to plane and plane to volume. The fractional dimensions seems at first sight striking, until we recognize it is just an estimate of the continuity within the order of the sequence, which could not be more natural.

Although Venis does not look for a proof, his transformation sequence is self-evident and more compelling than a theorem. One need only a minute of real attention to understand its evolution. It is a general key to morphology, regardless of the physical interpretation we want to give it.

For Venis the appearance of a vortex in the physical plane is a phenomenon of projection of a wave from a single one field where the dimensions exist as a compact whole without parts: a different way to express the primitive homogeneous medium of reference for dynamic equilibrium. It is clear that in a completely homogeneous medium we cannot characterize it as either full or void, and that we could say that it has either an infinite number of dimensions or no dimensions at all.

Thus, both the ordinary dimensions, as well as the fractional ones, and even the negative dimensions are a phenomenon of projection, of projective geometry. The physical nature is real since it participates in this one field or homogeneous medium, and it is a projected illusion to the extent that we conceive it as an independent part or an infinity of separate parts.

Peter Alexander Venis

Negative dimensions are due to a projection angle lower than 0 degrees, and lead to toroidal evolution beyond the bulb in equilibrium in three dimensions —that is, dimensions greater than the ordinary three. So they form a complementary projective counter-space to the ordinary space of matter, which with respect to unity is not less a projection than the first. Light and electricity are at opposite ends of manifestation, of evolution and involution in matter: light is the fiat, and electricity the extinction. Much could be elaborated on this but we will leave something for later.

Arbitrary cuts in the sequence leave fractional dimensions exposed, coinciding with the shapes we can appreciate. Since Mathis himself attributes the differences in results between his calculus and the standard calculus to the fact that the latter eliminates at least one dimension, and in the sequence of transformations we have a whole series of intermediate dimensions for basic functions, this would be an excellent workbench to compare both.

Michael Howell consider that fractal analysis avoids the usual dimensional reduction, and translates the exponential curve into “a fractal form of variable acceleration” [48]. It is worth noting that for Mathis the standard calculus has errors even in the elementary exponential function; the analysis of the dimensional evolution of vortices gives us a wide spectrum of cases to settle differences. I am thinking about fractional derivatives and differentiable curves, rather than fractals as non-differentiable curves. It would be interesting to see how the constant differential works with fractional derivatives.

The history of fractional calculus, which has gained great momentum in the 21st century, goes back to Leibniz and Euler and is one of the rare cases where both mathematicians and physicists ask for an interpretation. Although its use has extended to intermediate domains in exponential, wave-diffusion, and many other types of processes, fractional dynamics presents a non-local history dependence that deviates from the usual case, though there is also local fractional calculus. To try to reconcile this divergence Igor Podlubny proposed a distinction between inhomogeneous cosmic time and homogeneous individual time [49].

Podlubny admits that the geometrization of time and its homogenization are primarily due to calculus itself, as the intervals of space can be compared simultaneously, but the intervals of time cannot, and we can only measure them sequentially. What may be surprising is that this author attributes non-homogeneity to cosmic time, rather than to individual time, since in reality mechanics and calculus develop in unison under the principle of global synchronization and simultaneity of action and reaction. In this respect relativity is not different from Newtonian mechanics. According to Podlubny, individual time would be an idealization of the time created by mechanics, which is to put it upside down: in any case the idealization is the global time.

On the one hand, fractional calculus is seen as a direct aid for the study of all kinds of “anomalous processes”; on the other hand, fractional calculus itself is a generalization of standard calculus that includes ordinary calculus and therefore also allows to deal with all modern physics without exception. This makes us wonder if, more than dealing with anomalous processes, it is ordinary calculus what enforces a normalization, which affects all quantities it computes, time among them.

Venis also speaks of non-homogeneous time and temporal branches, though his reasoning remains undecided between the logic of the sequence, which represents an individualized flow of time, and the logic of relativity. However, it is the sequential logic that should define time in general and individual or local time in particular —not the logic of simultaneity of the global synchronizer. We shall return to this soon.

Cuestiones de programa —y de principio, otra vez: el cálculo, el análisis dimensional, la metrología y el reloj

En física y matemáticas, como en todas las áreas de la vida, tenemos principios, medios y fines. Los principios son nuestros puntos de partida, los medios, desde el punto de vista práctico-teórico, son los procedimientos de cálculo, y los fines son las interpretaciones. Estas últimas, lejos de ser un lujo filosófico, son las que determinan el contorno entero de representaciones y aplicabilidad de una teoría.

En cuanto a los principios, como ya comentamos, si queremos ver más de cerca de dónde emerge la razón continua, deberíamos observar todo lo posible las ideas de continuidad, homogeneidad y reciprocidad. Y esto incluye la consideración de que todos los sistemas son abiertos, puesto que si no son abiertos no pueden cumplir con el tercer principio de una forma digna de considerarse “mecánica”.

Estos tres, o si se quiere cuatro principios, están incluidos de forma inespecífica en el principio de equilibrio dinámico, que es la forma de prescindir del principio de inercia, y de paso, del de relatividad. Si por lo demás hablamos de continuidad, ello no quiere decir que afirmemos que el mundo físico deba de ser necesariamente continuo, sino que no se debería romper lo que parece una continuidad natural sin necesidad.

En realidad los principios también determinan el alcance de nuestras interpretaciones aunque no las precisan.

En cuanto al cálculo, que en forma de predicciones se ha convertido para la física moderna en la casi exclusiva finalidad, es precisamente el hecho de que siempre se trata de justificar la forma en que se han llegado a resultados que ya se conocían de antemano —en el comienzo de las teorías, antes de que se empiecen a emitir predicciones potencialmente contenidas en ella- lo que lo ha convertido en un útil heurístico por encima de consideraciones de lógica y consistencia. Por supuesto que existe una trabajosa fundamentación del cálculo por Bolzano, Cauchy y Weierstrass, pero ésta se preocupa más de salvar los resultados ya conocidos que de hacerlos más inteligibles.

En este punto no podemos estar más de acuerdo con Mathis, que ha emprendido una batalla en solitario por intentar depurar y simplificar estos fundamentos. A lo que Mathis propone se le puede buscar el precedente del cálculo de diferencias finitas y el cálculo de umbrales, pero éstos se consideran subdominios del cálculo estándar y en última instancia no han contribuido a aportar claridad.

Una velocidad instantánea sigue siendo un imposible que la razón rechaza, y además no existe tal cosa sobre un gráfico. Si hay teorías físicas, como la relatividad especial, que rompen innecesariamente con la continuidad de las ecuaciones clásicas, aquí tenemos el caso contrario, pero con otro efecto igualmente disruptivo: se crea una falsa noción de continuidad, o pseudocontinuidad, que no está justificada por nada. El cálculo moderno nos ha creado para nosotros una ilusión de dominio sobre el infinito y el movimiento sustrayendo al menos una dimensión del espacio físico, no haciendo en este caso honor a ese término “análisis” del que tanto se precia. Y esto, naturalmente, debería tener consecuencias en todas las ramas de la física matemática [45].

Los argumentos de Mathis son absolutamente elementales e irreductibles; se trata también de cuestiones de principio, pero no sólo de principio puesto que los problemas del cálculo son eminentemente técnicos. El cálculo original se concibió para calcular áreas bajo curvas y tangentes a esas curvas. Es evidente que las curvas de un gráfico no pueden confundirse con las trayectorias reales de objetos y que en ellas no hay puntos ni instantes, luego las generalizaciones de sus métodos contienen esa conflación dimensional.

El cálculo de diferencias finitas está además íntimamente relacionado con el problema de las partículas con extensión, sin las cuales es casi imposible pasar de la abstracción ideal de las leyes físicas a las formas aparentes de la naturaleza.

El mismo Mathis admite repetidamente, por ejemplo en su análisis de la función exponencial, que hay muchísimas cosas todavía por definir en su redefinición del cálculo, pero esto deberían ser buenas noticias, no malas. Al menos el procedimiento es claro: la derivada no se encuentra en un diferencial que se aproxima a cero, sino en un subdiferencial que es constante y que sólo puede ser la unidad, un intervalo unidad; un diferencial sólo puede ser un intervalo, nunca un punto, y es a esto a lo que la misma definición del límite debe su rango de validez. En los problemas físicos ese intervalo unidad debe corresponder a un tiempo transcurrido y una distancia recorrida.

Tratando de ver más allá de los esfuerzos de Mathis, podría decirse que, si las curvas vienen definidas por exponentes, cualquier variación en una función tendría que poder expresarse en forma de equilibrio dinámico cuyo producto es la unidad; y en todo caso por un equilibrio dinámico basado en un valor constante unitario, que es el intervalo. Si el cálculo y la mecánica clásicos crecieron uno junto al otro como gemelos casi indistinguibles, con aún más razón debería hacerlo una mecánica relacional en la que la inercia se disuelve siempre en movimiento.

La parte heurística del cálculo moderno se sigue basando en el promedio y la compensación de errores; mientras que la fundación es racionalizada en términos de límite, pero funciona por el intervalo unidad subyacente. La semejanza entre la barra de una balanza y una tangente es obvia; lo que no se ve es qué es precisamente lo que se compensa. El cálculo de Mathis no opera por promedios, el que opera por promedios es el cálculo estándar. Mathis ha encontrado el fiel de la balanza, ahora lo que falta es poner a punto los platos y los pesos. Luego volveremos sobre esto.

Las disputas que de cuando en cuando todavía existen, incluso entre grandes matemáticos, respecto al cálculo estándar y no estándar, o incluso las diversas formas de tratar infinitesimales, revelan al menos que distintos caminos son posibles; sólo que para la mayoría de nosotros resultan remotas y muy alejadas de las cuestiones básicas que habría que analizar en primer lugar.

Antes hablábamos de una fórmula de Tanackov para calcular la constante e mucho más rápida que “el método directo” clásico; pero es que matemáticos aficionados como el ya citado Harlan Brothers han encontrado, hace apenas veinte años, muchas formas cerradas diferentes de calcularla más rápidas y a la par que más compactas. La comunidad matemática lo puede tratar como una curiosidad, pero si esto pasa con los rudimentos más básicos del cálculo elemental, qué no podrá ocurrir en la tupida selva de las funciones de orden superior.

Un caso hasta cierto punto comparable sería el del cálculo simbólico o álgebra computacional, que ya hace 50 años comprobó que muchos algoritmos clásicos, incluida gran parte del álgebra lineal, eran terriblemente ineficientes. Sin embargo, y por lo que se ve, nada de esto ha afectado al cálculo propiamente dicho.

“Trucos” como los de Brothers permanecen en el dominio de la heurística, aunque hay que reconocer que ni Newton, ni Euler, ni ningún otro gigante del cálculo los conocía; pero aunque sean heurística no pueden dejar de apuntar en la dirección correcta, puesto que la simplicidad suele ser indicativa de la verdad. Sin embargo en el caso de Mathis hablamos no sólo de los fundamentos mismos, que ninguno de las revisiones del cálculo simbólico ha osado tocar, sino incluso de la validez de los resultados, lo que ya rebasa lo que los matemáticos están dispuestos a considerar. Al final del capítulo veremos si se puede justificar esto.

En realidad, pretender que un diferencial tienda a cero equivale a permitirlo todo con tal de llegar al resultado deseado; es la condición ideal de versatilidad para la heurística y la adhocracia. La exigencia fundamental del cálculo constante o unitario —del cálculo diferencial sin más- puede parecer al principio como poner un palo en una rueda que ya funciona a pleno rendimiento, pero es ante todo veraz. Ninguna cantidad de ingenio puede sustituir a la rectitud en la búsqueda de la verdad.

Lo de Mathis no es algo quijotesco; hay aquí mucho más de lo que puede verse a simple vista. Existen estándares reversibles y estándares prácticamente irreversibles, como la ineficaz distribución actual de las letras del alfabeto en el teclado, que parece imposible de cambiar aunque ya nadie usa las viejas máquinas. No sabemos si el cálculo infinitesimal será otro ejemplo de estándar imposible de revertir pero lo que aquí está en juego está mucho más allá de cuestiones de conveniencia, y bloquea una mejor comprensión de una infinidad de asuntos; su superación es condición indispensable para la transformación cualitativa del conocimiento.

*

Los físicos teóricos de hoy, obligados a una manipulación altamente creativa de las ecuaciones, tienden a desestimar el análisis dimensional como algo irrelevante y estéril; seguramente esa actitud se debe a que consideran que cualquier revisión de los fundamentos está fuera de lugar, y sólo cabe mirar hacia adelante.

En realidad, el análisis dimensional es más inconveniente que otra cosa, puesto que de ningún modo es algo inocuo: puede demostrar con sólo unas líneas que la carga es equivalente a la masa, que las relaciones de indeterminación de Heisenberg son condicionales e infundadas, o que la constante de Planck sólo debería aplicarse al electromagnetismo, en lugar de generalizarse a todo el universo. Y puesto que a la física teórica moderna está en el negocio de generalizar sus conquistas a todo lo imaginable, cualquier contradicción o restricción a su expansión por el único lugar por el que se le permite expandirse tiene que verse con notoria hostilidad.

En realidad es fácil ver que el análisis dimensional tendría que ser una fuente importante de verdades con sólo que se le permitiera ejercer su papel, puesto que la física moderna es una torre de Babel de unidades sumamente heterogéneas que son el reflejo de las contorsiones realizadas en nombre de la simplicidad o elegancia algebraica. Las ecuaciones de Maxwell, en comparación con la fuerza de Weber que le precedió, son el ejemplo más elocuente de esto.

El análisis dimensional cobra además un interés añadido cuando ahondamos en la relación entre cantidades intensivas y extensivas. La desconexión entre las constantes matemáticas e y φ también está asociada con esta amplia cuestión. En materia de entropía, por ejemplo, usamos los logaritmos para convertir propiedades intensivas como la presión y la temperatura en propiedades extensivas, convirtiendo por conveniencia relaciones multiplicativas en relaciones aditivas más manejables. Esa conveniencia se convierte en necesidad sólo para los aspectos que ya son extensivos, como la expansión.

Ilya Prigogine mostró que cualquier tipo de energía puede descomponerse en una variable intensiva y otra extensiva cuyo producto nos da una cantidad; una expansión, por ejemplo viene dada por el producto PxV de la presión (intensiva) por el volumen (extensiva). Lo mismo puede hacerse para relaciones como cambios de masa/densidad con la relación entre velocidad y volumen, etcétera.

La imparable proliferación de medidas en todas las especialidades ya hace cada vez más necesaria la simplificación. Pero, aparte de eso, existe la urgencia de reducir la heterogeneidad de magnitudes físicas si es que queremos que la intuición le gane la batalla a la complejidad de la que somos cómplices.

Todo esto además se relaciona estrechamente con el cálculo finito y la teoría algorítmica de la medida, igualmente finitista, desarrollada por A. Stakhov. La teoría matemática clásica de la medida se basa en la teoría de conjuntos de Cantor y como es sabido no es constructiva ni está conectada con los problemas prácticos, por no hablar ya de los arduos problemas de la teoría de medida en física. Sin embargo la teoría desarrollada por Stakhov es constructiva e incorpora naturalmente un criterio de optimización.

Para apreciar el alcance de la teoría algorítmica de la medida en nuestra presente babel numérica hay que comprender que nos lleva de vuelta a los orígenes en Babilonia del sistema de numeración posicional, llenando una laguna de gran importancia en la actual teoría de los números y los campos numéricos. Esta teoría es isomorfa con un nuevo sistema numérico y una nueva teoría de las poblaciones biológicas. El sistema numérico, creado por George Bergman en 1957 y generalizado por Stakhov, se basa en las potencias de φ. Si para Pitágoras “todo es número”, para este sistema “todo número es proporción continua”.

La teoría algorítmica de la medida también plantea la cuestión del equilibrio, puesto que su punto de partida es el llamado problema de Bachet-Mendeleyev, que curiosamente aparece también por primera vez en la literatura occidental en 1202 con el Liber Abacci de Fibonacci. La versión moderna del problema consiste en encontrar el sistema óptimo de pesos estándar para una balanza que tiene un tiempo de respuesta o sensibilidad. En el caso límite, en que no hay lapso de respuesta, el tiempo no interviene como factor operativo en el acto de encontrar los pesos.

Alexey Stakhov, The mathematics of Harmony

Según Stakhov, el punto clave del problema de los pesos es la profunda conexión entre los algoritmos de medida y los métodos posicionales de numeración. Sin embargo, mi impresión es que aún admite una conexión más profunda con el cálculo mismo y los problemas de ajustar una función. En fin, los pesos de los platillos que necesitaba el fiel de la balanza identificado por Mathis. Naturalmente, no decimos que sea necesario utilizar potencias de φ ni cambiar de sistema de numeración, pero se pueden desarrollar ideas muy útiles sobre los algoritmos más simples.

Por supuesto, la teoría algorítmica de la complejidad nos dice que no se puede demostrar que un algoritmo es el más simple, pero eso no significa que no los busquemos continuamente, con independencia de la demostración. La eficiencia y la demostración no tienen por qué coincidir, eso no tiene nada de sorprendente.

El ser humano tiende inevitablemente a optimizar aquello que más mide; sin embargo no tenemos una teoría que armonice las necesidades de la metrología y la teoría de la medida con las de la matemática, la física y las ciencias descriptivas, ya sean sociales o naturales. Hoy de hecho existen muchas teorías de la medida diferentes, y cada disciplina tiende a buscar aquello que más le conviene. Sin embargo todas las métricas vienen definidas por una función, y las funciones vienen definidas por el cálculo o análisis, que no quiere tener nada que ver con los problemas prácticos de la medida y pretende ser tan pura como la aritmética aunque esté muy lejos de ello.

Esto puede parecer una situación un tanto absurda y de hecho lo es, pero también sitúa a una hipotética teoría de la medida que esté en contacto directo con los aspectos prácticos, los fundamentos del cálculo y la aritmética en una situación estratégica privilegiada por encima de la deriva e inercia de las especialidades.

El cálculo o análisis no es una ciencia exacta, y es demasiado pretender que lo sea. Por un lado, y en lo que respecta a la física, comporta al menos una conexión directa con las cuestiones de medida que debería ser explícita del lado mismo de la matemática; por el otro lado, el carácter altamente heurístico de sus procedimientos más básicos habla por sí solo. Si la propia aritmética y la geometría tienen grandes lagunas, siendo incomparablemente más nítidas, sería absurdo pretender que el cálculo no puede tenerlas.

*

Por otra parte, la física nunca va a dejar de tener tanto componentes discretos y estadísticos —cuerpos, partículas, ondas, colisiones, actos de medición, etc- como continuos, lo que hace aconsejable un análisis estadístico relacional cronométrico.

Un ejemplo de análisis estadístico relacional es el que propone V. V. Aristov. Aristov introduce un modelo constructivo y discreto del tiempo como movimiento usando la idea de sincronización y de reloj físico que ya introdujo Poincaré justamente con la problemática del electrón. Aquí cada momento del tiempo es un cuadro puramente espacial. Pero no sólo se trata de la conversión del tiempo en espacio, también de entender el origen de la forma matemática de las leyes físicas: “Las ecuaciones físicas ordinarias son consecuencias de los axiomas matemáticos, ‘proyectados’ en la realidad física por medio de los instrumentos fundamentales. Uno puede asumir que es posible construir relojes diferentes con una estructura diferente, y en este caso tendríamos diferentes ecuaciones para la descripción del movimiento.”

El mismo Aristov ha provisto modelos de reloj partiendo de procesos no periódicos, esto es, supuestamente aleatorios, que también tienen un gran interés. Un reloj que parte de un proceso no periódico podría ser, por ejemplo, un motor de pistón en un cilindro; y esto puede dar pie a incluir igualmente los procesos termodinámicos.

Hay que notar, además, que los procesos cíclicos, aun a pesar de su periodicidad, enmascaran influencias adicionales o ambientales, como bien hemos visto con la fase geométrica. A esto se suma el filtro deductivo de principios innecesariamente restrictivos, como ya hemos visto en el caso de la relatividad. Y por si todos ello fuera poco, tenemos el hecho, apenas reconocido, de que muchos procesos considerados puramente aleatorios o “espontáneos”, como la desintegración radiactiva, muestran estados discretos durante fluctuaciones en procesos macroscópicos, como ha mostrado extensivamente S. Shnoll y su escuela durante más de medio siglo.

Efectivamente, desde la desintegración radiactiva a las reacciones enzimáticas y biológicas, pasando por los generadores automáticos de números aleatorios, muestran periodos recurrentes de 24 horas, 24 horas, 27 y 365 días, que obviamente responden a un patrón astronómico y cosmofísico.

Sabemos que esta regularidad es “cribada” y descontada rutinariamente como “no significativa”, en un ejemplo de hasta qué punto los investigadores están bien enseñados a seleccionar los datos, pero, más allá de esto, la pregunta sobre si tales reacciones son espontáneas o forzadas permanece. Pero se puede avanzar una respuesta: uno las llamaría espontáneas incluso en el caso en que pudiera demostrarse un vínculo causal, desde el momento en que los cuerpos contribuyen con su propio impulso.

El rendimiento estadístico de las redes neuronales multinivel —la estrategia de la fuerza bruta del cálculo- se ve frenado incrementalmente por el carácter altamente heterogéneo de los datos y unidades con los que se los alimenta, aun a pesar de que obviamente las dinámicas tratadas sean independientes de las unidades. A la larga no se puede prescindir de la limpieza de principios y criterios, y los atajos que han buscado las teorías para calcular suponen un peso muerto que se acumula. Y por encima de todo, de poco sirve a qué conclusiones puedan llegar las máquinas cuando nosotros ya somos incapaces de interpretar las cuestiones más simples.

El rendimiento de una red relacional es también acumulativo, pero justo el sentido contrario; tal vez habría que decir, más bien, que crece de manera constructiva y modular. Sus ventajas, como los de la física que lleva tal nombre —y las redes de información en general- no se advierten a primera vista pero aumentan con el número de conexiones. La mejor forma de probar esto es extendiendo la red de conexiones relacionales. Y efectivamente, se trata de trabajo e inteligencia colectivas.

Con los cortes arbitrarios a la homogeneidad relacional aumenta la interferencia destructiva y la redundancia irrelevante; por el contrario, a mayor densidad relacional, mayor es la interferencia constructiva. No creo que esto requiera demostración: Las relaciones totalmente homogéneas permiten grados de inclusión de orden superior sin obstrucción, del mismo modo que las ecuaciones hechas de elementos heterogéneos comportan ecuaciones dentro de ecuaciones en calidad de elementos opacos o nudos por desenredar [46].

*

Volvamos de nuevo al cálculo, aunque bajo otro ángulo. El cálculo diferencial de Mathis no siempre obtiene los mismos resultados del cálculo estándar, lo que parecería suficiente para descartarlo. Puesto que su principio es indudable, los errores podrían estar en el uso del principio, en su aplicación, quedando todavía los criterios por clarificar. Esto por un lado. Por el otro, que hay una “reducción dimensional” de las curvas en el cálculo estándar es un hecho, que sin embargo no es muy reconocido porque después de todo ahora se supone que los gráficos son secundarios y aun prescindibles.

¿Lo son realmente? Sin los gráficos el cálculo nunca hubiera nacido, y eso ya es suficiente. David Hestenes, el gran valedor del álgebra y cálculo geométricos, suele decir que la geometría sin álgebra es torpe, y el álgebra sin geometría ciega. Habría que añadir que no sólo el álgebra, sino igualmente el cálculo, y en una medida mayor de la que nos imaginamos; siempre que comprendamos que en la “geometría” hay más de lo que suelen decirnos los gráficos. Vamos ahora a observar otro tipo de gráficos, esta vez de vórtices, debidos a P. A. Venis [47].

Peter Alexander Venis

En la secuencia de transformación de vórtices Venis hace una estimación de su dimensionalidad que al principio puede parecer arbitraria, aunque se basa en algo tan “evidente” como el paso del punto a la recta, de la recta al plano y del plano al volumen. También sorprenden las dimensiones fraccionarias, hasta que comprendemos que se trata de una simple estimación sobre la continuidad dentro del orden de la secuencia, que no puede ser más natural.

Peter Alexander Venis

Aunque Venis no busque una demostración, su secuencia de transformaciones es más convincente que un teorema. Basta mirar un minuto con atención para que su evolución resulte evidente. Se trata de una clave general para la morfología, con independencia de la interpretación física que queramos darle.

Para Venis la aparición de un vórtice en el plano físico es un fenómeno de proyección de una onda de un campo único donde las dimensiones existen como un todo compacto y sin partes: otra forma de hablar del medio homogéneo como unidad de referencia para el equilibrio dinámico. Está claro que en un medio completamente homogéneo no podemos caracterizarlo ni como lleno ni como vacío, y lo mismo da decir que tiene un número infinito de dimensiones que decir que no tiene ninguna.

Así, tanto las dimensiones ordinarias, como las fraccionarias, e incluso las dimensiones negativas son un fenómeno de proyección, de geometría proyectiva. La naturaleza física es real puesto que participa de este campo único o medio homogéneo, y es una ilusión proyectada en la medida en que lo concebimos como una parte independiente o una infinidad de partes separadas.

Las dimensiones negativas se deben a un ángulo de proyección menor de 0 grados, y conducen a la evolución toroidal que va más allá del bulbo en equilibrio en tres dimensiones —es decir, las dimensiones superiores a las tres ordinarias. Forman por tanto un contraespacio proyectivo complementario del espacio ordinario de la materia, que no es menos proyección que el primero con respecto a la unidad. La luz y la electricidad están en extremos opuestos de la manifestación, de evolución e involución en la materia: la luz es el fiat, y la electricidad la extinción. Se podría elaborar mucho sobre esto pero dejaremos algo para luego.

Cortes arbitrarios en la secuencia dejan expuestas dimensiones fraccionales que coinciden con las formas que apreciamos. Puesto que el propio Mathis atribuye las diferencias de resultados entre su cálculo y el cálculo estándar a que este último elimina al menos una dimensión, y en la secuencia de transformaciones tenemos toda una serie de dimensiones intermedias para funciones básicas, éste sería un excelente banco de pruebas para comparar ambos.

Michael Howell afirma que con el análisis fractal se evita la reducción de dimensiones, y traduce la curva exponencial en “una forma fractal de aceleración variable” [48]. Hay que recordar que según Mathis el cálculo estándar tiene errores incluso en la función exponencial; el análisis de la evolución dimensional de los vórtices nos brinda un amplio espectro de casos para sacarnos de dudas. Pienso en derivadas fraccionales y curvas diferenciables, antes que en fractales entendidos como curvas no diferenciables. Sería interesante ver cómo se aplica el diferencial constante a derivadas fraccionales.

La historia del cálculo fraccional, que ha adquirido tanto auge en el siglo XXI, se remonta a Leibniz y a Euler y es uno de los raros casos en que matemáticos y físicos echan en falta una interpretación. A pesar de que su uso se ha extendido a dominios intermedios en procesos exponenciales, ondulatorios, difusivos y de muchos otros tipos, la dinámica fraccional presenta una dependencia no local de la historia que no concuerda con el tipo de evolución temporal acostumbrado; aunque también existe un cálculo fraccional local. Para tratar de conciliar esta divergencia Igor Podlubny propuso distinguir entre un tiempo cósmico inhomogéneo y un tiempo individual homogéneo [49].

Podlubny admite que la geometrización del tiempo y su homogeneización se deben ante todo al cálculo, y nota que los intervalos de espacio pueden compararse simultáneamente, pero los de tiempo no, y sólo podemos medirlos como secuencia. Lo que puede sorprender es que este autor atribuya la no homogeneidad al tiempo cósmico, en lugar de al tiempo individual, puesto que en realidad la mecánica y el cálculo se desarrollan al unísono bajo el principio de la sincronización global, de la simultaneidad de acción y reacción. En esto la relatividad no es diferente de la mecánica de Newton. El tiempo individual sería una idealización del tiempo creado por la mecánica, lo que es ponerlo todo del revés: en todo caso sería el tiempo de la mecánica el que es una idealización.

Por un lado el cálculo fraccional es contemplado como un auxiliar directo para el estudio de todo tipo de “procesos anómalos”; pero por otro lado el mismo cálculo fraccional es una generalización del cálculo estándar que incluye al cálculo ordinario y por lo tanto también permite tratar toda la física sin excepción. Esto hace pensar que, más que ocuparse de procesos anómalos, es el cálculo ordinario el que produce una normalización, que afecta a todas las cantidades que computa y entre ellas el tiempo.

Venis también habla de ramas temporales y tiempo no homogéneo, aunque sus razonamientos se quedan más bien a mitad de camino entre la lógica de su secuencia, que representa un flujo del tiempo individualizado, y la lógica de la relatividad. Sin embargo es la lógica secuencial la que debería definir el tiempo en general y el tiempo individual o tiempo local en particular —no la lógica de la simultaneidad del sincronizador global. Volveremos pronto sobre esto.


Golden mean, statistics and probability

It has been said for some time that in today’s science “correlation supersedes causation”, and by correlation we obviously mean a statistical correlation. But even since Newton, physics has not been concerned that much with causation, nor could do it, so that more than a radical change we only have a steady increase in the complexity of the variables involved.

In the handling of statistical distributions and frequencies it makes little sense to talk about false or correct theories, but rather about models that fit the data better or worse, which gives this area much more freedom and flexibility with respect to assumptions. Physical theories may be unnecessarily restrictive, and conversely no statistical interpretation is truly compelling; but on the other hand, fundamental physics is increasingly saturated with probabilistic aspects, so the interaction between both disciplines continues to tighten.

Things become even more interesting if we introduce the possibility that the principle of maximum entropy production is present in the fundamental equations of both classical and quantum mechanics —not to mention if basic relations between this principle and the continuous proportion φ were eventually discovered.

Possibly the reflected wave/retarded potential model we have outlined for the circulatory system gives us a good idea of a virtuous correlation/causation circle that meets the demands of mechanics but suspend —if not reverse- the sense in the cause-effect sequence. In the absence of a specific study in this area, we will now be content to mention some more circumstantial associations between our constant and the probability distributions.

The first association of φ with probability, combinatorics, binomial and hypergeometric distributions is already suggested by the presence of the Fibonacci series in the polar triangle already mentioned.

When we speak of probability in nature or in the social sciences, two distributions come first to mind: the almost ubiquitous bell-shaped normal or Gaussian distribution, and the power law distributions, also known as Zipf distributions, Pareto distributions, or zeta distribution for discrete cases.

Richard Merrick has spoken of a “harmonic interference function” resulting from harmonic damping, or in other words, the square of the first twelve frequencies of the harmonic series divided by the frequencies of the first twelve Fibonacci numbers. According to the author, this is a balance between spatial resonance and temporal damping.

In this way he arrives at what he calls a “symmetrical model of reflexive interference”, formed from the harmonic mean between a circle and a spiral. Merrick insists on the transcendental importance for all life of its organization around an axis, which Vladimir Vernadsky had already considered to be the key problem in biology.

Richard Merrick, Harmonically guided evolution

Merrick’s ideas about thresholds of maximum resonance and maximum damping can be put in line with Pinheiro’s thermomechanical equations, and as we have indicated they would have a wider scope if they contemplated the principle of maximum entropy as conducive to organization rather than the opposite. Merrick elaborates also a sort of musical theory on the privileged proportion 5/6-10/12 at different levels, from the organization of the human torso to the arrangement of the double helix of DNA seen as the rotation of a dodecahedron around a bipolar axis.

*

The powers laws and zeta distributions are equally important in nature and human events, and are present, among many other things, in fundamental laws of physics, the distribution of wealth among populations, the size of cities or the frequency of earthquakes. Ferrer i Cancho and Fernández note that “φ is the value where the exponents of the probability distribution of a discrete magnitude and the value of the magnitude versus its rank coincide”. It is not known at this time if this is a curiosity or if it will allow to deepen the knowledge of these distributions [37].

Zipf or zeta distributions are linked to hierarchical structures and catastrophic events, and also overlap with fractals in the space domain and with the so-called 1/f noise in the time domain. A. Z. Mekjian makes a broader study of the application of the Fibonacci-Lucas numbers to statistics that include hyperbolic power laws [38].

I. Tanackov et al. show the close relationship of the elementary exponential distribution with the value 2ln φ, which makes them think that the emergence of the continuous proportion in nature could be linked to a special case of Markov processes —a non-reversible case, we would advance. It is well known that exponential distributions have maximum entropy. It can be obtained an incomparably faster convergence to the value of the number e with Lucas numbers, a generalization of Fibonacci numbers, than with Bernoulli’s original expression, which is enough food for thought; we can also get with non-reversible walks a faster convergence than with the usual random walk [38].

Edward Soroko proposed a law of structural harmony for the stability of self-organized systems, based on the continuous proportion and its series considering entropy from the point of view of thermodynamic equilibrium [39]. Although here we give preference to entropy in systems far from equilibrium, his work is of great interest and can be a source of new ideas.

It would be desirable to further clarify the relationship of power laws to entropy. The use of the principle of maximum entropy seems to be particularly suitable for open systems out of balance and with a strong self-interaction. Researchers such as Matt Visser think that Jaynes’ principle of maximum entropy allows a very direct and natural interpretation of powers laws [40].

Normally one looks for continuous power laws or discrete power laws, but in nature we can appreciate a middle ground between both as Mitchell Newberry observes with regard to the circulatory system. As usual, in such cases reverse engineering is imposed on the natural model. The continuous proportion and its series offer us an optimal recursive procedure to pass from continuous to discrete scales, and its appearance in this context could be natural [41].

The logarithmic average seems to be the most important component of these power laws, and we immediately associate the basis of the natural logarithms, the number e, with the exponential growth in which a certain variable increases without restrictions, something that in nature is only viable for very short periods of time. On the other hand, the golden mean seems to arise in a context of critical equilibrium between at least two variables. But this would lead us rather to logistic or S-curves, which are a modified form of the normal distribution and also a scaled compensation of a hyperbolic tangent function. On the other hand, exponential and power laws distributions look very different but sometimes can be directly connected, which is a subject on its own.

As already noticed, we can also connect the constants e and Φ through the complex plane, as in the equality (Φi = e ± πi/3). Although entropy has always been measured with algebras of real numbers, G. Rotundo and M. Ausloos have shown that here too the use of complex values can be justified, allowing to treat not only a “basic” free energy but also “corrections due to some underlying scale structure” [42]. The use of asymmetric correlation matrices could also be linked with the golden matrices generalized by Stakhov and applied to genetic code information by Sergey Pethoukov [43].

In the mechanical-statistical context the maximum entropy is only an extreme referred to the thermodynamic limit and to Poincaré’s immeasurable scales of recurrence; but in many relevant cases in nature, and evidently in the thermomechanical context, it is necessary to consider a non-maximum equilibrium entropy, which may be defined by the coarse grain of the system. Pérez-Cárdenas et al. show a non-maximum coarse-grained entropy linked to a power law, the entropy being so much lower when finer is the grain of the system [44]. This graininess can be linked to the constants of proportionality in the equations of mechanics, such as the same Planck’s constant.

*

Probability is a predictive concept and statistics a descriptive, interpretative one, and both should be balanced if we do not want human beings to be increasingly governed by concepts they do not understand at all.

Just to give an example, the mathematical apparatus known as the renormalization group applied to particle and statistical physics is particularly relevant in deep learning, to the point that some experts claim both are the same thing. But it goes without saying that this group historically emerged to deal with the effects of the Lagrangian self-interaction in the electromagnetic field, a central theme of this article.

For prediction, the effects of self-interaction are mostly “pathological”, since they complicate calculations and often lead to infinity —although in fact we should put the blame for this in the inability to work with extended particles of special relativity, rather than in self-interaction. But for the description and interpretation the problem is the opposite, it is about recovering the continuity of a natural feedback broken by layers and more layers of mathematical tricks. The conclusion could not be clearer: the search for predictions, and the “artificial intelligence” thus conceived, has grown exponentially at the expense of ignoring natural intelligence —the intrinsic capacity for self-compensation in nature.

If we want to somehow reverse the fact that man is increasingly governed by numbers that he does not understand —and even the experts are bound to trust in programs whose outputs are way beyond their understanding- it is necessary to work at least as hard in a regressive or retrodictive direction. If the gods destroy men by making them blind, they make them blind by means of predictions.

*

As Merrick points out, for the current theory of evolution, if life were to disappear from this planet or have to start all over again, the long-term results would be completely different, and if a rational species were to emerge it would be totally different from our own. That is what random evolution means. In a harmonically guided evolution conditioned by resonance and interference as Merrick suggests, the results would be fairly the same, except for the uncertain incidence that the great cosmic cycles beyond our reach might have.

There is not something like pure chance, there is nothing purely random; no matter how little organized an entity is, be it a particle or an atom, it cannot fail to filter out the environmental “random” influences according to its own intrinsic structure. And the first sign of organization is the appearance of an axis of symmetry, which in particles is defined by axes of rotation.

The dominant theory of evolution, like cosmology, has emerged to fill the great gap between abstract and reversible, and therefore timeless, physical laws and the ordinary world showing an irreversible time, perceptible forms and sequences of events. Today’s whole cosmology is really based on an unnecessary and contradictory assumption, the principle of inertia. The biological theory of evolution is based on a false one, that life is only governed by chance.

The present “synthetic theory” of evolution has only come into existence because of the separation of disciplines, and more specifically, due to the segregation of thermodynamics from fundamental physics despite the fact that there is nothing more fundamental than the Second Law. It is not by chance that thermodynamics emerged simultaneously with the theory of evolution: the first one begins with Mayer, who elaborated on work and physiology considerations, and the second one with Wallace and Darwin starting, according to the candid admission of the latter in the first pages of his main work, from Malthus’ assumptions of resources and competition, which in turn go back to Hobbes —one is a theory of work and the other of the global ecosystem understood as a capital market. The accumulated capital in this ecosystem is, of course, the biological inheritance.

Merrick’s harmonic evolution, due to the collective interference of waves-particles, is an updating of an idea as old as music; and it is also a timeless, purpose-free vision of the events of the world. But to reach the desired depth in time, it must be linked to the other two clearly teleological, but spontaneous domains, of mechanics and thermodynamics, which we call thermomechanics for short.

It would be enough to unite these three elements for the present theory of evolution to start becoming irrelevant; and not to mention that human and technological evolution is decidedly Lamarckian beyond speculation. Even DNA molecules are organized in the most obvious way along an axis. And as for information theory, one only has to remember that it has come out of a peculiar interpretation of thermodynamics, and that it is impossible to do automatic computations without components with a turning axis. Whatever the degree of chance, the Pole rules and defines its sense and meaning.

However, in order to better understand the action of the Pole and the spontaneous reaction involved in mechanics it would be good to rediscover the meaning of polarity.

La razón continua, la estadística y la probabilidad

Se dice desde hace algún tiempo que en la ciencia de hoy “la correlación reemplaza a la causación”, y por correlación se entiende evidentemente una correlación estadística. Pero ya desde Newton la física no se ha preocupado demasiado por la causación, ni podía hacerlo, así que no se trata tanto de un cambio radical como de un incremento progresivo en la complejidad de las variables.

En el manejo de distribuciones y frecuencias estadísticas apenas tiene sentido hablar de teorías falsas o correctas, sino más bien de modelos que se ajustan peor o mejor a los datos, lo que dota a esta área de mucha mayor libertad y flexibilidad con respecto a los supuestos. Las teorías físicas pueden ser innecesariamente restrictivas, y por el contrario una interpretación estadística es siempre demasiado poco vinculante; pero por otro lado, la física moderna está cada vez más saturada de aspectos probabilísticos, así que la interacción entre ambas disciplinas es cada vez estrecha en ambas direcciones.

Las cosas aún se ponen más interesante si introducimos la posibilidad de que el principio de máxima producción entropía esté presente en las ecuaciones fundamentales, tanto de la mecánica clásica como de la mecánica cuántica —y ya no digamos si se descubriesen relaciones básicas entre este principio y la proporción continua φ.

Tal vez el modelo de onda refleja/potencial retardado que hemos visto para el sistema circulatorio nos da una buena idea de un círculo virtuoso correlación/causación que cumple sobradamente con las exigencias de la mecánica pero deja en suspenso el sentido de la secuencia causa-efecto. A falta de construir esos vínculos más sólidos e internos, ahora nos contentaremos con mencionar algunas asociaciones más circunstanciales entre nuestra constante y las distribuciones de probabilidad.

La primera asociación de la media áurea con la probabilidad, la combinatoria, la distribución binomial y la hipergeométrica viene ya sugerida por la presencia de las series de Fibonacci en el triángulo polar ya comentado.

Cuando hablamos de probabilidad en la naturaleza o en las ciencias sociales dos distribuciones nos vienen ante todo a la cabeza: la casi ubicua distribución normal o gaussiana, en forma de campana, y las distribuciones de leyes de potencias, también conocidas como distribuciones de Zipf, de Pareto, o zeta para los casos discretos.

El ya citado Richard Merrick ha hablado de una “función de interferencia armónica” resultado de la amortiguación de armónicos, o dicho de otro modo, del cuadrado de las primeras doce frecuencias de la serie armónica partido por las frecuencias de los primeros doce números de Fibonacci. Se trataría, según su autor, de un equilibrio entre la resonancia espacial y la amortiguación temporal.

De este modo llega a lo que llama un “modelo simétrico de interferencia reflexiva”, formado de la media armónica entre un círculo y una espiral. Merrick insiste en la trascendental importancia que tiene para toda la vida su organización en torno a un eje, lo que ya Vladimir Vernadsky había considerado como el problema clave de la biología.

Richard Merrick, Harmonically guided evolution

Las ideas de Merrick sobre umbrales de máxima resonancia y máxima amortiguación pueden ponerse en concordancia con las ecuaciones de termomecánica de Pinheiro, y como ya hemos notado tendrían más alcance si contemplaran el principio de máxima entropía como conducente a la organización en lugar de lo contrario. Merrick elabora también una cierta teoría musical sobre una proporción privilegiada 5/6-10/12 a diferentes niveles, desde la organización del torso humano a la disposición de la doble hélice de DNA vista como la rotación de un dodecaedro en torno a un eje bipolar.

*

Las leyes de potencias y distribuciones zeta son igualmente importantes en la naturaleza y los acontecimientos humanos, y se presentan tanto en leyes de física fundamentales hasta la distribución de la riqueza entre la población, el tamaño de las ciudades o la frecuencia de los terremotos. Ferrer i Cancho y Fernández notan que φ es el valor en el que coinciden los exponentes de la distribución de probabilidad de una magnitud discreta y el del valor de la magnitud frente a su rango. De momento no se sabe si esto es una curiosidad o permitirá profundizar en el conocimiento de estas distribuciones [37].

Las distribuciones zeta o de Zipf están ligadas a las estructuras jerárquicas y a los acontecimientos catastróficos, y también se solapan con los fractales en el dominio espacial y con el llamado ruido 1/f en el dominio de los procesos temporales. A. Z. Mekjian hace un estudio mucho más generalizado de la aplicación de los números de Fibonacci-Lucas a la estadística que incluyen leyes de potencias hiperbólicas [38] .

I. Tanackov et al. muestran la estrecha relación de la distribución exponencial elemental con el valor 2ln φ, que les hace pensar que la aparición de de la proporción continua en la Naturaleza podría estar ligada a un caso especial de procesos de Markov —un caso no reversible, diríamos nosotros. Sabido es que las distribuciones exponenciales tienen máxima entropía. Con los números de Lucas, generalización de los de Fibonacci, se puede obtener una convergencia al valor de e mucho más rápida que con la misma expresión original de Bernouilli, lo que ya da en qué pensar; también con paseos no reversibles se puede obtener una convergencia más rápida que con el paseo aleatorio habitual [38bis].

Edward Soroko propuso una ley de armonía estructural para la estabilidad de los sistemas autoorganizados, basado en la razón continua y sus series considerando la entropía desde el punto de vista del equilibrio termodinámico [39]. Sin duda una parte de su trabajo es aprovechable o puede ser fuente de nuevas ideas, aunque aquí hemos hablado más de entropía en sistemas alejados del equilibrio.

Sería de gran interés precisar más las relaciones de las leyes de potencias con la entropía. El uso del principio de máxima entropía parece especialmente indicado para sistemas abiertos fuera de equilibrio y con alta autointeracción. Investigadores como Matt Visser piensan que el principio de máxima entropía entendido en el sentido de Jaynes permiten una interpretación muy directa y natural de las leyes de potencias [40].

Normalmente se buscan leyes de potencias discretas o leyes de potencias continuas, pero en la naturaleza se aprecia a menudo un término medio entre ambas como observa Mitchell Newberry a propósito del sistema circulatorio. Como casi siempre, en tales casos se impone la ingeniería inversa sobre el modelo natural. La proporción continua y sus series nos ofrecen un procedimiento recursivo óptimo para pasar de escalas continuas a discretas, y su aparición en este contexto podría ser natural [41].

El promedio logarítmico parece ser el componente más importante de estas leyes de potencias, y la base de los logaritmos naturales, el número e, lo asociamos de inmediato con el crecimiento exponencial en el que una determinada variable aumenta sin restricciones, algo que en la naturaleza sólo puede aparecer en breves lapsos de corta duración. En cambio la proporción continua parece surgir en un contexto de equilibrio crítico entre al menos dos variables. Pero esto nos llevaría más bien a las curvas logísticas o en S, que son una forma modificada de la distribución normal y también una compensación a escala de una función tangente hiperbólica. Por otro lado las distribuciones exponenciales y las de leyes de potencias parecen muy diferentes pero a veces pueden estar directamente conectadas, lo que merecería un estudio por sí solo.

Como ya se apuntó, también podemos conectar las constantes e y Φ a través del plano complejo, como en la igualdad (Φi = e ± πi/3). Aunque la entropía siempre se ha medido con álgebras de números reales, G. Rotundo y M. Ausloos han mostrado que también aquí el uso de valores complejos puede estar justificado, permitiendo tratar no sólo una energía libre “básica” sino también “correcciones debidas a alguna estructura de escala subyacente”[42]. El uso de matrices de correlación asimétricas tal vez pueda conectarse con las matrices áureas generalizadas por Stakhov y que Sergey Pethoukov ha aplicado a la información del código genético [43].

En el contexto mecánico-estadístico la máxima entropía es sólo un extremo referido al límite termodinámico y a escalas de recurrencia de Poincaré inmensurables; pero en muchos casos relevantes en la naturaleza, y evidentemente en el contexto termomecánico, hay que considerar una entropía de equilibrio no máxima, que puede estar definida por el grano grueso del sistema. Pérez-Cárdenas et al. demuestran una entropía de grano grueso no máxima unida a una ley de potencias, siendo la entropía tanto menor cuando más fina es la granulosidad del sistema [44]. Esta granulosidad se puede vincular con las constantes de proporcionalidad en las ecuaciones de la mecánica, como la propia constante de Planck.

*

La probabilidad es un concepto predictivo, y la estadística uno descriptivo e interpretativo, y ambos deberían estar equilibrados si no queremos que el ser humano esté cada vez más gobernado por conceptos que no entiende en absoluto.

Por poner un ejemplo, el grupo de renormalización de la física estadística tiene cada vez más importancia en el manejo de datos de los filtros multinivel del aprendizaje automático, hasta el punto en que hoy hay quien afirma que ambas son la misma cosa. Pero no hay ni que decir que este grupo surgió históricamente para compensar los efectos de la autointeracción del lagrangiano en el campo electromagnético, un tema central de este artículo.

Para la predicción, los efectos de la autointeracción son más que nada “patológicos”, puesto que complican los cálculos y conducen a menudo a infinitos —aunque la culpa de esto está en la incapacidad de tratar con partículas extensa de la relatividad especial, más que en la propia autointeracción. Pero para la descripción e interpretación el problema es el inverso, se trata de recuperar la continuidad de una realimentación natural rota por capas y más capas de reglas de cálculo, con sus convenciones y arbitrariedades. La conclusión no puede ser más clara: la búsqueda de predicciones, y la “inteligencia artificial” así concebida, ha crecido exponencialmente a costa de ignorar la inteligencia natural —la capacidad intrínseca de autocorrección en la naturaleza.

Si queremos revertir de alguna manera que el hombre sea gobernado por números que no entiende —y hasta los especialistas los entienden cada vez menos-, se impone ocuparse del camino regresivo o retrodictivo con al menos igual intensidad. Si los dioses destruyen a los hombres volviéndolos ciegos, los hacen ciegos por medio de las predicciones.

*

Como apunta Merrick, para la actual teoría de la evolución, si la vida desapareciera de este planeta o tuviera que empezar otra vez de cero, los resultados a largo plazo serían completamente diferentes, y si surgiera una especie racional sería biológicamente inconmensurable con el hombre. Eso es lo que comporta una evolución aleatoria. En una evolución armónicamente guiada por resonancia e interferencia como la que él contempla, los resultados volverían a ser más o menos los mismos, salvo por la incierta incidencia que puedan tener los grandes ciclos cósmicos más allá de nuestro alcance.

No existe azar puro, no hay nada puramente aleatorio; a poco organizada que sea una entidad, así sea una partícula o átomo, no puede dejar de filtrar el azar circundante según su propia estructura interna. Y el primer signo de organización es la aparición de un eje de simetría, que en las partículas viene definido por ejes de rotación.

La teoría de la evolución dominante, como la cosmología, ha surgido para llenar el gran vacío entre unas leyes físicas abstractas y reversibles, y por lo tanto ajenas al tiempo, y el mundo ordinario de la flecha del tiempo, las formas perceptibles y las secuencias de acontecimientos. La entera cosmología actual parte de un supuesto innecesario y contradictorio, el principio de inercia. La teoría biológica de la evolución, de uno falso, que la vida sólo está gobernada por el azar.

La presente “teoría sintética” de la evolución sólo ha llegado a existir por la separación de disciplinas, y en particular, por la segregación de la termodinámica de la física fundamental a pesar de que nada hay más fundamental que la Segunda Ley. No es casual que la termodinámica surgiera simultáneamente a la teoría de la evolución: la primera empieza con Mayer, de consideraciones sobre el trabajo y la fisiología, y la segunda con Wallace y Darwin partiendo, según la cándida admisión de éste último en las primeras páginas de su obra principal, de los supuestos de competencia de Malthus, que a su vez se retrotraen a Hobbes —una es una teoría del trabajo y la otra del ecosistema global entendido como un mercado de capital. En este ecosistema el capital acumulado es, por supuesto, la herencia biológica.

La evolución armónica de Merrick, por la interferencia colectiva de las partículas-ondas, es una puesta al día de una idea tan vieja como la música; y es además una visión sin finalidad y atemporal del acontecer del mundo. Pero para alcanzar la deseada profundidad en el tiempo, debe estar unida a los otros dos dominios claramente teleológicos, pero espontáneos, presentes en la mecánica y la termodinámica, y que aquí llamamos termomecánicos para abreviar.

Bastaría unir estos tres elementos para que la presente teoría de la evolución empezara a resultar irrelevante; y eso sin hablar de que la evolución humana y tecnológica es decididamente lamarckiana más allá de cualquier especulación. Hasta las moléculas de DNA están organizadas de la forma más manifiesta por un eje. Y en cuanto a la teoría de la información, sólo hay que recordar que ha salido de una interpretación peculiar de la termodinámica, y que es imposible hacer cómputos automáticos sin componentes con un eje de giro. Sea cual sea el grado de azar, el polo define su sentido.

Sin embargo, para entender mejor la acción del polo y la reacción espontánea que comporta la mecánica tendríamos que redescubrir la polaridad.

Biological feedback – quantitative and qualitative models

In a recent paper we speculated on the presence of a geometric phase or phase memory in the bilateral nasal cycle, using a certain analogy between the mechanics of the circulatory system and a gauge field such as the electromagnetic one [34], and taking into account that Maxwell’s equations are a particular case of the fluid equations. It is known that shortly after its discovery, the geometric phase was generalized well beyond the adiabatic or even the cyclic cases, and that today it is studied even in dissipative open systems and in various cases of animal locomotion. The analogy may be relevant despite the fact that the respiratory system obviously operates in a gaseous phase instead of a liquid one, while still being coupled to the blood circulation.

According to V. D. Tsvetkov, the ratio between systolic and diastolic time in humans and other mammals averages the same reciprocal values of the golden mean, and also the ratio of the maximum systolic pressure to the minimum diastolic pressure points to a relative value of 0.618/0.382 on average. Although these values may be arbitrarily approximate, we would have an excellent opportunity here to contrast them mechanically and see if there really is some kind of underlying optimization, since the systolic time already echoes the reflected vascular wave, and the same is true of the diastolic time.

On the other hand there is the Pulse Wave Velocity, which is a measure of arterial elasticity: both are derived from the second law of mechanics through the Moens-Korteweg equation. This wave velocity varies with pressure, as well as with the elasticity of the vessels, increasing with their stiffness. The return distance of the reflex wave and the time it takes increases with height, and a lower diastolic pressure, which indicates less resistance of the whole vascular system, reduces the magnitude of the reflected wave. Treatment of hypertension should focus, it is said, on decreasing the amplitude of the reflected wave, slowing it down, and increasing the distance between the aorta and the return points of this wave.

Now, we can try to apply here Noskov’s retarded potentials with longitudinal waves, as he emphasized their universality and their place in the most elementary feedback; in fact, there is perhaps no better way of illustrating these waves and their correlation with certain proportions in a complete mechanical system than the circulatory system itself.

Since, to a large extent, it seems that we can consider the elasticity of the reflected wave as a retarded Weber-Noskov potential dependent on distance, force and phase velocity, and check whether this results in coupling or resonance conditions that incidentally tend to the values of the golden section. The myocardium is a self-exciting muscle, but the return of the reflex wave also contributes to this, so we have a fair example of a circuit with tension-pressure-deformation transformations that are fed back and that do not differ in essence from the gauge transformations of modern physics, in which there is also an implicit feedback mechanism.

This would be a perfect instance to explore these correlations in a sort of “closed loop” process, even if the system remains open through the breath, which is not contrary to our approach because for us every natural system is open by definition. It allows both numerical simulation and approximation by real physical models created with elastic tubes and coupled “pumps”, so that it can be approached in the most tangible and direct way [35].

However, the idea that the heart is really a pump, being as it is a spiral muscular band, or that the motion of the blood, which generates vortices in the vessels and the heart, is due to pressure, when it is the pressure that is an effect of the former, should be thoroughly revised. In fact this is an excellent example of how we can give a strictly mechanical description while radically questioning not only the form but the very content of causality —the cause-effect relationship. The essential factor of the pressure created is not the heart, but the open component, in this case, the breath and the atmosphere. And although it is clear that these are very different cases, this is in line with our idea of gauge fields and natural processes in general.

*

The dynamics and biomechanics of the blood pulse can be derived from the applied force, but if we look within modern science for a suitable equivalent to Newton’s three principles of mechanics in open systems such as biological organisms, we do not find it. To find something similar we have to look back to principles that are more “archaic” to us, and then look for a quantitative and mathematical translation.

Actually, the triguna of the Indian Samkya system —samkya means proportion- and its application to the human body as the tridosha in Ayurveda is the better match. The triguna, as it were, is a kind of system of coordinates for modalities of the material world in qualitative terms. The three basic qualities, Tamas, Rajas and Satwa, and their reactive forms in the body, Kapha, Pitta and Vata correspond very well to the mass or amount of inertia, the force or energy, and the dynamic equilibrium through motion (let us say: passivity, activity and balance). But it is evident that in this case we are talking about qualities and the systems are considered open from the start without need for further definition.

So, here is the law of conservation of momentum, not the third law of mechanics, what really should hold here, as a system like this implicitly admits a variable degree of interaction with the environment. In harmony with this, the Ayurveda considers that Vata is the guiding principle of the three since it has autonomy to move by itself in addition to moving the other two. Vata defines the sensitivity of the system in relation to the environment, its degree of permeability or lack thereof. In other words, the state of Vata indicates by itself to which extent the system is effectively open.

In the human body the most explicit and continuous form of interaction with the environment is the breath, and therefore it is just in the order of things that Vata governs this function most directly. Although the doshas are modes or qualities, in the pulse they find a faithful translation in terms of dynamic values and the continuum mechanics —provided we settle for modest degrees of precision, but surely enough to give us a qualitative idea of the dynamics and its basic patterns.

The other two modes are simply what moves and what is moved, but the articulation and coexistence of the three can be understood in very different ways: from a purely mechanical way to a more specifically semiotic one. Here again, the indistinction or ambiguity between kinetic, potential and internal energy, which we have already noticed in relational mechanics, might be of some relevance.

The principle of inertia is a possibility, that of force a brute fact, the action-reaction —the same act seen from two sides- is a relationship of mediation or continuity. We can put them on the same plane or put them on different planes, which constitute an ascending or descending gradation, as in fact are the modalities of the Samkya system.

Actually, it should not be too difficult to find the common ground that the Indian and Chinese semiologies of the pulse have, beyond the differences of terminology and categories; and to move from this common ground to the quantitative, but extremely fluid, language of continuum mechanics. Thus we would have a method to pass from qualitative to quantitative aspects, and vice versa; and to find dynamic patterns that now pass unnoticed. There are several issues here. One is the extent to which these qualitative descriptions can be made consistent.

Another question is to what extent the representation of a qualitative scale can be made intuitive. Let us think, for example, of biofeedback signals, which can be effective under the representation of forces, potentials, and many other more indirect relationships. What is interesting is that these types of assisted feedback do not aim at control and manipulation, but at tuning in to the organizing principle of the dynamics.

From our perspective, as we have already said repeatedly, all physical systems, from galaxies to atoms, have feedback. But what are the physical limits of, let us say a human being, to tune in to other entities? The phase rhythmodynamics and its resonances, the time scale, the energy scale, strain-stress constitutive relations, the dependence on free energy? Or the capacity to align with the Pole that both systems have in common? Is there interference or is there rather a parallelism on the same background?

These are subjects for which science has not yet found even the minimum criteria, but which should help us to overcome the instrumental compulsion, the instrumentation syndrome that has guided human technology since the first tools, and which intensifies as the tools offers less resistance to the user.

One more question is whether this type of trimodal analysis, or even a bimodal one, has a recursive character, as the same feedback and the presence of the continuous proportion in the circulatory system suggest; and what type of recursion is involved.

*

The characterization of the dynamic equilibrium should always indicate the Pole of the evolution of a system, if it has one. In the case of the Solar System and the planets this is obvious —and notwithstanding, it is still far from receiving the attention it deserves. But it turns out that the bilateral nasal cycle is also telling us about an axis even in a process where polarity does not look very relevant, from the biomechanical point of view, such as the compression and release of a gas in our own organism. This should be of great interest to us, and it provides a thread through which many other things can be revealed.

In fact, the Earth’s own climate or that of other planets, with its great complexity, is a more explicitly polar system than the respiratory regime of any mammal —and in this case the separating barrier would be the intertropical convergence zone. The point of interest here is that, if the analogy is sound, from a thermomechanical point of view the degree of separation that the barrier exerts, possibly associated with a topological torsion, could also be defining the degree of autonomy of the system with respect to the external conditions —let us call it the endogenous component. An endogenous view that would have to be duly complemented with appropriate sensors and observations of the so-called spatial time [36].

If we said before that the fact that an ellipse has in its interior two focuses does not mean that we only have to look inside it for the origin of the forces that determine its shape, the same is true for the disturbances that usually affect other organisms or systems, which does not prevent them from synthesizing in their behavior the product of external and internal factors, in the breath not less than in other balances that run in parallel.

Realimentación biológica —modelos cuantitativos y cualitativos

En otra parte hemos especulado sobre la presencia de una fase geométrica o memoria de fase y el ciclo nasal bilateral, aprovechando cierta analogía entre la mecánica del sistema circulatorio y un campo gauge como el electromagnético [34], y teniendo en cuenta que las ecuaciones de Maxwell son un caso particular de las ecuaciones de fluidos. Sabido es que al poco de su descubrimiento la fase geométrica se generalizó más allá del caso adiabático o incluso el cíclico, y que hoy se estudia incluso en sistemas abiertos disipativos y en diversos casos de locomoción animal. La analogía puede ser pertinente a pesar de que, obviamente, el sistema respiratorio opera en fase gaseosa en vez de líquida, sin dejar por ello de estar acoplado con la circulación sanguínea.

Según V. D. Tsvetkov, la razón entre el tiempo de la sístole y la diástole en humanos y otros mamíferos promedia los mismos valores recíprocos de la razón áurea, y también la proporción entre la presión máxima sistólica y la mínima diastólica apunta a un valor relativo de 0.618/0.382. Aunque estos valores puedan ser arbitrariamente aproximados tendríamos aquí una excelente ocasión de contrastarlos mecánicamente y ver si realmente existe algún tipo de optimización subyacente, puesto que el tiempo sistólico ya se hace eco de la onda vascular refleja, y lo mismo ocurre con el tiempo de la diástole.

Por otro lado está la Velocidad de la Onda del Pulso, que es una medida de la elasticidad arterial: ambas se derivan de la segunda ley de la mecánica a través de la ecuación de Moens-Korteweg. Esta velocidad de la onda varía con la presión, así como con la elasticidad de los vasos, aumentando con su rigidez. La distancia de retorno de la onda refleja y el tiempo que conlleva aumenta con la estatura, y una menor presión diastólica, que indica menor resistencia del conjunto del sistema vascular, reduce la magnitud de la onda refleja. El tratamiento de la hipertensión debería centrarse, se dice, en disminuir la amplitud de la onda refleja, rebajar su velocidad, y aumentar la distancia entre la aorta y los puntos de retorno de esta onda.

Así pues, podemos intentar aplicar aquí la idea del potencial retardado y las ondas longitudinales de Noskov, teniendo en cuenta que él fue el primero en proponer su lugar en el feedback más elemental y su universalidad; de hecho, tal vez no haya mejor forma de ilustrar estas ondas y su correlación con ciertas proporciones en un sistema mecánico completo que el propio sistema circulatorio.

Dado que, en buena medida, parece que podemos considerar la elasticidad de la onda refleja como un potencial retardado de Weber-Noskov dependiente de la distancia, fuerza y velocidad de fase, y comprobar si esto procura un acoplamiento o unas condiciones de resonancia que, incidentalmente, tendieran a los valores de la sección áurea. El miocardio es un músculo autoexcitable pero a ello también concurre el retorno de la onda refleja, así que tenemos un hermoso ejemplo de circuito de transformaciones tensión-presión-deformación que se realimentan y que no difieren en lo esencial de las transformaciones gauge de la física moderna, en los que también hay un implícito mecanismo de realimentación.

Esta sería una instancia perfecta para explorar estas correlaciones como un proceso “en circuito cerrado”, aunque el sistema mantenga una apertura a través de la respiración, lo que no es contrario a nuestro planteamiento porque para nosotros todos los sistemas naturales son abiertos por definición. Permite tanto la simulación numérica como la aproximación por modelos físicos reales creados con tubos elásticos y “bombas” acopladas, de modo que puede abordarse de la forma más tangible y directa [35].

Sin embargo conviene revisar a fondo la idea de que el corazón es realmente una bomba, siendo como es una cinta muscular espiral, o que el movimiento de la sangre, que genera vórtices en los vasos y el corazón, se debe a la presión, cuando es la presión la que es un efecto del primero. En realidad este es un ejemplo magnífico de cómo puede darse una descripción estrictamente mecánica a la vez que se cuestiona radicalmente no sólo la forma sino el mismo contenido de de la causalidad. El factor esencial de la presión creada no es el corazón, sino el componente abierto, en este caso, la respiración y la atmósfera. Y aunque es evidente de que se trata de casos muy diferentes, esto se haya en consonancia con nuestra idea de los campos gauge y de los procesos naturales en general.

*

La dinámica y biomecánica del pulso sanguíneo puede derivarse de la fuerza aplicada, pero si buscamos dentro de la ciencia moderna un equivalente adecuado para los tres principios de la mecánica de Newton en sistemas abiertos como los organismos biológicos, no lo vamos a encontrar. Para encontrar algo parecido tenemos que mirar hacia atrás, para buscar luego una traducción cuantitativa y matemática.

Realmente, el triguna del Samkya indio —samkya significa proporción- y su aplicación al cuerpo humano como tridosha en el Ayurveda es lo que encuentra más semejanza para el caso. El triguna, como si dijéramos, es el sistema de coordenadas para modalidades del mundo material en términos cualitativos. Las tres cualidades básicas, Tamas, Rajas y Satwa, y sus formas reactivas en el organismo, Kapha, Pitta y Vata se corresponden muy bien con la masa o cantidad de inercia, la fuerza o energía, y el equilibrio dinámico a través del movimiento (o pasividad, actividad y equilibrio). Pero es evidente que en este caso hablamos de cualidades y los sistemas se consideran abiertos sin necesidad de definición.

Aquí la tercera ley de la mecánica ha de dejar paso a la conservación del momento y admite implícitamente un grado variable de interacción con el medio. En armonía con esto, el Ayurveda considera que Vata es el principio-guía de los tres ya que tiene autonomía para moverse por sí solo además de mover a los otros dos. Vata define la sensibilidad del sistema en relación con el ambiente, su grado de permeabilidad o por el contrario embotamiento con respecto a él. Es decir, el estado de Vata es por sí mismo un índice del grado en que el sistema es efectivamente abierto.

En el cuerpo humano la forma más explícita y continua de interacción con el medio es la respiración, y por lo tanto está en el orden de las cosas que Vata gobierne esta función de forma más directa. Aunque los doshas son modos o cualidades, en el pulso encuentran su fiel traducción en términos de valores dinámicos y de la mecánica del continuo —siempre que nos conformemos con grados de precisión modestos, pero seguramente suficientes para darnos una idea cualitativa de la dinámica y sus patrones básicos.

Los otros dos modos son lo que mueve y lo que es movido, pero la articulación y coexistencia de los tres puede entenderse de formas muy diferentes: desde una manera puramente mecánica a otra más específicamente semiótica. Posiblemente también aquí tiene algún grado de vigencia la condición de indistinción o ambigüedad entre la energía cinética, la potencial y la interna que ya hemos notado en la mecánica relacional.

El principio de inercia es una posibilidad, el de fuerza un hecho bruto, la acción-reacción —un mismo acto visto desde dos caras- es una relación de mediación o continuidad. Podemos ponerlos en un mismo plano o ponerlos en planos diferentes, que constituyen una gradación ascendente o descendente, tal como en efecto son las modalidades del Samkya.

Realmente, no tendría que ser demasiado difícil hallar el suelo común que tienen las semiologías india y china del pulso más allá de las diferencias de terminología y categorías, y pasar de este suelo común al lenguaje cuantitativo, pero extremadamente fluido, de la mecánica de medios continuos. Así tendríamos un método para pasar de aspectos cualitativos a cuantitativos, y viceversa; y encontrar dinámicas y patrones que ahora nos pasan desapercibidos por inherentes. Hay aquí varias cuestiones. Una es hasta qué punto pueden hacerse estas descripciones cualitativas consistentes.

Otra cuestión es hasta qué punto pueden hacerse intuitiva la representación de una escala cualitativa. Pensemos por ejemplo en las señales del biofeedback, que pueden resultar efectivas bajo la representación de fuerzas, de potenciales, y de otras muchas relaciones más indirectas. Lo interesante es que estos tipos de realimentación asistidos no apuntan hacia el control y la manipulación, sino hacia la sintonización con el principio organizador de los “sistemas”.

Desde nuestra perspectiva, ya lo hemos dicho repetidamente, todos los sistemas físicos, también los átomos, tienen realimentación ¿Cuáles son los límites físicos de, por ejemplo, un ser humano, para sintonizar con otras entidades? ¿La ritmodinámica de fase y sus resonancias, las escalas de tiempo, de energía, las relaciones constitutivas de tensión-deformación, la dependencia de la energía libre? ¿O la capacidad para alinearse con el polo que ambos sistemas tienen en común? ¿Hay interferencia o hay más bien un paralelismo sobre un mismo fondo?

Se trata de temas para los que la ciencia todavía no ha encontrado ni siquiera los mínimos criterios, pero que precisamente debería ayudarnos a superar la compulsión instrumental o síndrome de instrumentación que ha guiado a la tecnología humana desde las primeras herramientas, y que se intensifica a medida que el objeto ofrece menos resistencia.

Otra cuestión más es si este tipo de análisis trimodal, o incluso uno bimodal, tiene un carácter recursivo, como la misma realimentación y la presencia de la proporción continua en el sistema circulatorio permiten conjeturar; y de qué tipo de recursividad se trata.

*

La caracterización del equilibrio dinámico debería indicarnos siempre el Polo de la evolución de un sistema, si es que este lo tiene. En el caso del Sistema Solar y los planetas la cosa resulta obvia —y a pesar de todo todavía está muy lejos de recibir toda la atención que merece. Pero resulta que el ciclo nasal bilateral también nos está hablando de un eje en algo presuntamente poco polar, desde el punto de vista de la física, como la compresión y la liberación de un gas en nuestro propio organismo. Esto también debería llamar grandemente nuestra atención, y nos brinda un cabo a través del cual pueden revelarse otras muchas cosas.

De hecho el propio clima terrestre o el de otros planetas, con su enorme complejidad, es un sistema más explícitamente polar que el régimen respiratorio de cualquier mamífero —y en este caso la barrera separadora sería la zona de convergencia intertropical. La cuestión de interés es que, si se nos permite la analogía, desde un punto de vista termomecánico el grado de separación que ejerce la barrera, posiblemente asociado a una torsión topológica, podría estar definiendo también el grado de autonomía del sistema con respecto a las condiciones exteriores —llamémoslo el componente endógeno, si se quiere. Una visión endógena que tendría que complementarse debidamente con los sensores y observaciones apropiadas del llamado tiempo espacial [36].

Si antes decíamos que el que una elipse tenga en su interior dos focos no significa que sólo haya que buscar el origen de las fuerzas que la determinan en su interior, lo mismo vale para las perturbaciones que de ordinario afectan a otros organismos o sistemas, lo que no impide que sinteticen en su comportamiento la suma de factores externos e internos, en la respiración no menos que en otros balances que discurren en paralelo.