From the Book of Changes to the Algebra of Conscience, through technical analysis

In his splendid book on Harmony Mathematics, Alexey Stakhov devotes a section to Vladimir Lefebvre’s mathematical theory of decision and strategic interaction, which, unlike other developments in this area such as the much-hyped game theory, includes an intrinsic behavioral and moral component [62].

Everything starts from the observation that if someone is asked to divide a pile of string beans into two piles of bad and good ones, oddly enough the average result is not 50%-50% as expected, but 62%-38% in favor of those considered good.

According to Lefebvre, what lies at the bottom of this asymmetric perception is a triple gradation of definable logical implications within a binary logic or Boolean algebra:

A [a0consciousness→a1reflection→a2intention]

consciousness being the primary field, reflection the secondary level and intention a reflection of second order.

Within this structure of human reflexion, the personal evaluation of behavior implies, by logical implication, a self-image:
A= a0a1a2 ; A=(a2→ a1)→ a0.

The subsequent truth table gives us an asymmetric sequence of 8 possible values, 5 being a positive estimate and 3 a negative one. Naturally, 8, 5 and 3 are adjacent numbers in the Fibonacci series.

The extraordinary thing about the logical framework of ethical cognition created by Lefebvre is that, inadvertently, it allows a completely modern interpretation of the Book of Changes without distorting its sapiential and moral nature. It is not something that we are going to prove here, but given the deep influence of Yi Jing in the history of Chinese culture, it would be of utmost interest to look for a rigorous correspondence between both views.

Undoubtedly, Lefebvre’s framework is more formalized, and more focused on the image that the individual agent has of himself, than on the situation or critical juncture, as is the case with the Yi Jing; in fact, we could say that Lefebvre’s formalization is a Boolean and measurable limit for interactions with a low number of individual agents, but even then the correspondence remains intact and can lead to much broader and impersonal degrees of involvement, and therefore, of understanding.

*

Stakhov devotes another section to Elliott’s technical wave analysis, a tool also based on the Fibonacci series. The theoretical scope of Elliott waves is limited at best, even if its fractal-type analysis can be applied discretionally. But here we want to point out a much deeper methodological issue.

Lefebvre’s model shows us that these series have, or at least admit, a reflexive component —in fact his work has been qualified as a reflexive theory of social psychology. And that reflective component is precisely what is most missing in Elliott’s model. There is also a reflexive theory of the economy and the market, with positive and negative feedback cycles; this theory is not without merit, if we compare it, for example, with the hypothesis of the efficient market, which, even if it were not false, would always be incapable of telling us anything. Moreover, the reflexive theory does not only affect prices, but also the fundamentals of the economy.

Economic reflexivity is a model of self-interaction, as it is also of self-image, and this decisive element in human affairs can never be dispensed with, even if it is impossible to quantify it. But what happens when self-interaction runs through the whole behavior of natural systems? Let us think, for example, of the case of the pulse analysis we have mentioned, a transparent model of self-interaction, which, as a bonus, tends towards golden ratios in rhythm and pressure. But it is clear that in social systems reflexivity passes through the knowledge of an external situation, while in an organic system reflexivity is a pure question of action.

How much room does one type of reflexivity leave for the other? How far can the perception of the markets be manipulated? Today we also see that central banks have an undisguised and unabated intervention in prices, injecting money discretionally and becoming guardians of the financial bubbles. Well, the analysis of the pulse, the transformation of its modalities, and the study of the limits of conscious manipulation through biofeedback are giving us a good match or at least some sort of reference for this elusive problem. And if we want more intensive methods, besides the quantitative implications that all this already have, we can also apply to monetary flows CPUs models like that of the triangular flow-efficiency-size feedback that we commented on earlier.

*

In The Algebra of Conscience, Lefebvre made a comparative analysis of the Western and Soviet ethical context within the framework of the Cold War confrontation [63]. The W-system of the United States believed that the compromise between good and evil was bad, and that the confrontation between good and evil was good. The S-system of the Soviet world, on the contrary, believed that the compromise between good and evil was good and the confrontation between good and evil was bad —what Lefebvre does not say, as it goes beyond his formal analysis, is that the desire for confrontation of the W system was not based on any moral idiosyncrasy but on the essential expectation of further expansion; just as the desire of the S system to avoid confrontation was based on the fear of disappearing.

At any rate, from the choices and implications between commitment and confrontation, four basic attitudes emerge, that of the saint, the hero, the philistine and the dissembler: the saint embraces suffering and guilt to the maximum; the philistine wants to diminish suffering but may feel acute guilt; the hero minimizes his guilt but not his suffering; and the dissembler minimizes suffering and guilt.

Maybe we could have created 8 types instead of 4, in consonance or dissonance with 8 other scenarios or natural tropisms, with two more third grade binary implications or a single sixth grade one. Logic and calculus serve to ascend this ladder and understanding begins where calculus ends. Thus, the continuous proportion would show us in a very direct way its role of mediator between the discrete and the continuous, the digital and the analogical.

In reality we have here an unsuspected Centaur, namely, a halfway point between binary formal logic and the dialectical logic as in Hegel. But the proof that this is something genuine, and not a mere theoretical construct, is that it has a built-in asymmetry that is a distinctive feature of Nature. We could call it an asymmetrical logic of implication.

It has been said that Lefebvre’s theory was used at the highest levels of negotiation during the collapse of the Soviet Union; and here we will not go into judging what positive or negative role it might have had, and for whom. In any case, its framework only covers two agents, and not the scenario or juncture that may dispose of them. Yi Jing’s framework can serve not only to see how I perceive myself in the world, but also to evaluate how the world perceives me; in the end, both are parallel illusions. One could say that asymmetric perception is part of the same reality; a double asymmetry better embraces the implications and the unnoticed axis of the dynamics of a situation.

Surely one could make a great parlor game out of these arguments. More interesting, however, is the study of moral or social conscience through the analysis of its implications. And even more interesting is the awareness of how the external situation, for which we are always looking for an image, interpenetrates with the changing image we make of ourselves, forming both a momentary map of our situation and conscience.

One can only guess that Lefebvre knows the text of the Yi Jing; however it is evident that the line of his reasoning is completely independent from the Chinese classic and he has arrived at his “positional system” of moral consciousness starting from the Western logical and mathematical tradition. If he had had just a glimpse of the Taijitu with the golden section embedded, the immediate association would have shine in his mind. In the coming years we may witness many new associations of this kind induced by the evolving environment.

Del Libro de los cambios al álgebra de la conciencia, pasando por el análisis técnico

En su espléndido libro sobre la Matemática de la Armonía, Alexey Stakhov dedica una sección a la teoría matemática de la decisión e interacción estratégica de Vladimir Lefebvre, que a diferencia de otros desarrollos en este área como la tan promocionada teoría de juegos, incluye un intrínseco componente conductual y moral [62].

Todo parte de la observación de que, si a alguien se le pide que separe alubias verdes buenas y malas en dos montones, la probabilidad del número final de alubias no se reparte en una proporción 50%—50%, sino en una 62%-38% a favor de las consideradas buenas.

Según Lefebvre, lo que hay al fondo de esta percepción asimétrica es una triple gradación de implicaciones lógicas definibles dentro de una lógica binaria o álgebra booleana:

A [a0conciencia→a1reflexión→a2intención]

siendo la conciencia el campo primario, la reflexión el secundario y la intención una reflexión de segundo orden.

Dentro de esta estructura de la reflexión humana, la evaluación personal de la conducta comporta, por implicación lógica, una autoimagen:
A= a0a1a2 ; A=(a2→ a1)→ a0.

La tabla de verdad subsiguiente nos da una secuencia asimétrica de 8 posibles valores, con 5 con una estimación positiva y 3 con una negativa. Naturalmente, 8, 5 y 3 son números adyacentes de la serie de Fibonacci.

Lo extraordinario del marco lógico de cognición ética creado por Lefebvre es que, sin que él mismo parezca haberlo notado, permite una interpretación completamente moderna del Libro de los Cambios sin desvirtuar su índole sapiencial y moral. No es algo que aquí vayamos a probar, pero dada la profunda influencia del Yi Jing en la historia de la cultura china, sería del máximo interés buscar la correspondencia rigurosa entre ambas visiones.

Sin duda el marco de Lefebvre está más formalizado, y más enfocado en la imagen que el individuo o agente tiene de sí mismo, que en la situación o coyuntura, como es el caso del Yi Jing; en realidad podríamos decir que la formalización de Lefebvre es un límite booleano y mensurable para interacciones con el menor número de individuos, pero aún así la correspondencia se mantiene intacta y se puede llevar a grados mucho más amplios e impersonales de implicación, y por tanto, de comprensión.

*

Stakhov le dedica a continuación un apartado al análisis técnico bursátil de ondas de Elliott, que como se sabe también se fundan en las series de Fibonacci. El alcance teórico de las ondas de Elliott es, en el mejor de los casos, limitado, por más que su modalidad de análisis fractal pueda aplicarse a discreción. Pero aquí quería apuntar a una cuestión metodológica mucho más profunda.

El modelo de Lefebvre nos muestra que estas series tienen, o al menos admiten, un componente reflexivo —de hecho su trabajo se ha calificado como una teoría reflexiva de la psicología social. Y ese componente reflexivo es justamente lo que más se echa en falta en el modelo de Elliott. Existe también una teoría reflexiva de la economía y el mercado, con ciclos de feedback positivos y negativos; esta teoría no carece de mérito, si la comparamos por ejemplo con la hipótesis del mercado eficiente, que, aun si no fuera falsa, siempre será incapaz de decirnos nada. Además, la teoría reflexiva no afecta sólo a los precios, sino también a los fundamentos de la economía.

La reflexividad económica es un modelo de autointeracción, como lo es también de autoimagen, y nunca se podrá prescindir de ese decisivo elemento en los asuntos humanos, aunque sea imposible de cuantificar. ¿Pero qué ocurre cuando la autointeracción atraviesa la conducta de los sistemas naturales? Pensemos por ejemplo en el caso del análisis del pulso que hemos mencionado, que es un modelo clarísimo de autointeracción, y que, como bonus, tiende a ratios áureas en el ritmo y la presión. Pero está claro que en los sistemas sociales la reflexividad pasa por el conocimiento de una situación externa, mientras que en un sistema orgánico la reflexividad es una pura cuestión de acción.

¿Cuánto espacio le deja un tipo de reflexividad a la otra? ¿Hasta dónde puede manipularse la percepción de los mercados? Hoy vemos además que los bancos centrales intervienen sin el menor disimulo en los precios, inyectando dinero a discreción y convirtiéndose en guardianes de las burbujas financieras. Pues bien, el análisis del pulso, la transformación de sus modalidades, y el estudio de los límites de la manipulación consciente a través del biofeedback nos están dando lo más cercano que hay a un marco cualitativo para estudiar ese inasible problema. Y si, además de las implicaciones cuantitativas que todo esto ya tiene, se desean métodos más intensivos, también es posible aplicar a los flujos monetarios modelos con CPUs como el de la realimentación triangular de flujo-eficiencia-tamaño que comentábamos anteriormente.

*

En El álgebra de la conciencia Lefebvre hacía un análisis comparativo del contexto ético estadounidense y soviético dentro del marco de confrontación de la guerra fría [63]. El sistema W del mundo occidental cree que el compromiso entre el bien y el mal es malo, y que la confrontación entre el bien y el mal es buena. El sistema S del mundo soviético, por el contrario, creía que el compromiso entre el bien y el mal es bueno y la confrontación entre el bien y el mal es mala —lo que no dice Lefebvre, porque va más allá de su análisis formal, es que el afán de confrontación del sistema W no se basaba en ninguna idiosincrasia moral sino en la imprescindible expectativa de seguir creciendo; del mismo modo que el deseo de evitar la confrontación del sistema S se basaba en su miedo a desaparecer.

En cualquier caso, de las opciones e implicaciones entre el compromiso y la confrontación surgen cuatro actitudes básicas, la del santo, el héroe, el filisteo y el hipócrita: el santo lleva al máximo el sufrimiento y la culpa; el filisteo quiere disminuir el sufrimiento pero puede sentir una aguda culpa; el héroe minimiza su culpa pero no su sufrimiento; y el hipócrita minimiza el sufrimiento y la culpa.

Podríamos haber creado 8 tipos en lugar de 4, en consonancia o disonancia con otros 8 escenarios o tropismos naturales, con dos implicaciones binarias más de tercer grado o una única de sexto grado. La lógica y el cálculo sirven para ascender esta escalera y la comprensión empieza donde acaba el cálculo. Así, la razón áurea nos mostraría de forma muy directa su rol de mediador entre lo discreto y lo continuo, lo digital y lo analógico.

En realidad tenemos aquí un insospechado Centauro, a saber, un punto medio entre la lógica formal binaria y la lógica dialéctica entendida a la manera de Hegel. Pero la prueba de que se trata de algo genuino, y no una mezcla arbitraria, es que incorpora “de fábrica” una asimetría que es un rasgo inequívoco de la naturaleza. Podríamos llamarlo una lógica asimétrica de la implicación.

Se ha dicho que la teoría de Lefebvre fue usada a los más altos niveles de negociación durante el colapso de la Unión Soviética; y aquí no entraremos a juzgar qué rol positivo o negativo pudo tener, y para quién. En cualquier caso su marco sólo abarca a dos agentes, y no al escenario o coyuntura que puede disponer de ellos. El marco del Yi Jing puede servir no sólo para ver cómo uno se ve en el mundo, sino también para ver cómo el mundo lo percibe a uno; a fin de cuentas se trata de ilusiones paralelas. Se diría que la percepción asimétrica forma parte de la misma realidad; una doble asimetría abraza mejor las implicaciones y el eje inadvertido de su dinamismo.

Sin duda se podría hacer un gran juego de mesa o de salón con estos argumentos. Más interés tiene, sin embargo, el estudio de la conciencia moral o social por el análisis de sus implicaciones. Y mayor interés aún tiene el tomar conciencia de cómo se interpenetran la coyuntura externa, para la que siempre buscamos imagen, con la cambiante imagen que nos hacemos de nosotros mismos, formando ambos un mapa momentáneo de nuestra situación y conciencia.

Es de suponer que Lefebvre conoce el texto del Yi Jing; sin embargo es evidente que la línea de sus razonamientos es del todo independiente del clásico chino y ha llegado a su “sistema posicional” de la conciencia moral partiendo de la tradición lógica y matemática occidental. Le hubiera bastado con ver por un segundo el Taijitu con la razón áurea entre el yin y el yang para que la chispa saltara en su mente. En los próximos años podemos asistir a otras muchas conmixtiones de este género inducidas por un cambio de contexto.

Cuestiones de programa —y de principio, otra vez: el cálculo, el análisis dimensional, la metrología y el reloj

En física y matemáticas, como en todas las áreas de la vida, tenemos principios, medios y fines. Los principios son nuestros puntos de partida, los medios, desde el punto de vista práctico-teórico, son los procedimientos de cálculo, y los fines son las interpretaciones. Estas últimas, lejos de ser un lujo filosófico, son las que determinan el contorno entero de representaciones y aplicabilidad de una teoría.

En cuanto a los principios, como ya comentamos, si queremos ver más de cerca de dónde emerge la razón continua, deberíamos observar todo lo posible las ideas de continuidad, homogeneidad y reciprocidad. Y esto incluye la consideración de que todos los sistemas son abiertos, puesto que si no son abiertos no pueden cumplir con el tercer principio de una forma digna de considerarse “mecánica”.

Estos tres, o si se quiere cuatro principios, están incluidos de forma inespecífica en el principio de equilibrio dinámico, que es la forma de prescindir del principio de inercia, y de paso, del de relatividad. Si por lo demás hablamos de continuidad, ello no quiere decir que afirmemos que el mundo físico deba de ser necesariamente continuo, sino que no se debería romper lo que parece una continuidad natural sin necesidad.

En realidad los principios también determinan el alcance de nuestras interpretaciones aunque no las precisan.

En cuanto al cálculo, que en forma de predicciones se ha convertido para la física moderna en la casi exclusiva finalidad, es precisamente el hecho de que siempre se trata de justificar la forma en que se han llegado a resultados que ya se conocían de antemano —en el comienzo de las teorías, antes de que se empiecen a emitir predicciones potencialmente contenidas en ella- lo que lo ha convertido en un útil heurístico por encima de consideraciones de lógica y consistencia. Por supuesto que existe una trabajosa fundamentación del cálculo por Bolzano, Cauchy y Weierstrass, pero ésta se preocupa más de salvar los resultados ya conocidos que de hacerlos más inteligibles.

En este punto no podemos estar más de acuerdo con Mathis, que ha emprendido una batalla en solitario por intentar depurar y simplificar estos fundamentos. A lo que Mathis propone se le puede buscar el precedente del cálculo de diferencias finitas y el cálculo de umbrales, pero éstos se consideran subdominios del cálculo estándar y en última instancia no han contribuido a aportar claridad.

Una velocidad instantánea sigue siendo un imposible que la razón rechaza, y además no existe tal cosa sobre un gráfico. Si hay teorías físicas, como la relatividad especial, que rompen innecesariamente con la continuidad de las ecuaciones clásicas, aquí tenemos el caso contrario, pero con otro efecto igualmente disruptivo: se crea una falsa noción de continuidad, o pseudocontinuidad, que no está justificada por nada. El cálculo moderno nos ha creado para nosotros una ilusión de dominio sobre el infinito y el movimiento sustrayendo al menos una dimensión del espacio físico, no haciendo en este caso honor a ese término “análisis” del que tanto se precia. Y esto, naturalmente, debería tener consecuencias en todas las ramas de la física matemática [45].

Los argumentos de Mathis son absolutamente elementales e irreductibles; se trata también de cuestiones de principio, pero no sólo de principio puesto que los problemas del cálculo son eminentemente técnicos. El cálculo original se concibió para calcular áreas bajo curvas y tangentes a esas curvas. Es evidente que las curvas de un gráfico no pueden confundirse con las trayectorias reales de objetos y que en ellas no hay puntos ni instantes, luego las generalizaciones de sus métodos contienen esa conflación dimensional.

El cálculo de diferencias finitas está además íntimamente relacionado con el problema de las partículas con extensión, sin las cuales es casi imposible pasar de la abstracción ideal de las leyes físicas a las formas aparentes de la naturaleza.

El mismo Mathis admite repetidamente, por ejemplo en su análisis de la función exponencial, que hay muchísimas cosas todavía por definir en su redefinición del cálculo, pero esto deberían ser buenas noticias, no malas. Al menos el procedimiento es claro: la derivada no se encuentra en un diferencial que se aproxima a cero, sino en un subdiferencial que es constante y que sólo puede ser la unidad, un intervalo unidad; un diferencial sólo puede ser un intervalo, nunca un punto, y es a esto a lo que la misma definición del límite debe su rango de validez. En los problemas físicos ese intervalo unidad debe corresponder a un tiempo transcurrido y una distancia recorrida.

Tratando de ver más allá de los esfuerzos de Mathis, podría decirse que, si las curvas vienen definidas por exponentes, cualquier variación en una función tendría que poder expresarse en forma de equilibrio dinámico cuyo producto es la unidad; y en todo caso por un equilibrio dinámico basado en un valor constante unitario, que es el intervalo. Si el cálculo y la mecánica clásicos crecieron uno junto al otro como gemelos casi indistinguibles, con aún más razón debería hacerlo una mecánica relacional en la que la inercia se disuelve siempre en movimiento.

La parte heurística del cálculo moderno se sigue basando en el promedio y la compensación de errores; mientras que la fundación es racionalizada en términos de límite, pero funciona por el intervalo unidad subyacente. La semejanza entre la barra de una balanza y una tangente es obvia; lo que no se ve es qué es precisamente lo que se compensa. El cálculo de Mathis no opera por promedios, el que opera por promedios es el cálculo estándar. Mathis ha encontrado el fiel de la balanza, ahora lo que falta es poner a punto los platos y los pesos. Luego volveremos sobre esto.

Las disputas que de cuando en cuando todavía existen, incluso entre grandes matemáticos, respecto al cálculo estándar y no estándar, o incluso las diversas formas de tratar infinitesimales, revelan al menos que distintos caminos son posibles; sólo que para la mayoría de nosotros resultan remotas y muy alejadas de las cuestiones básicas que habría que analizar en primer lugar.

Antes hablábamos de una fórmula de Tanackov para calcular la constante e mucho más rápida que “el método directo” clásico; pero es que matemáticos aficionados como el ya citado Harlan Brothers han encontrado, hace apenas veinte años, muchas formas cerradas diferentes de calcularla más rápidas y a la par que más compactas. La comunidad matemática lo puede tratar como una curiosidad, pero si esto pasa con los rudimentos más básicos del cálculo elemental, qué no podrá ocurrir en la tupida selva de las funciones de orden superior.

Un caso hasta cierto punto comparable sería el del cálculo simbólico o álgebra computacional, que ya hace 50 años comprobó que muchos algoritmos clásicos, incluida gran parte del álgebra lineal, eran terriblemente ineficientes. Sin embargo, y por lo que se ve, nada de esto ha afectado al cálculo propiamente dicho.

“Trucos” como los de Brothers permanecen en el dominio de la heurística, aunque hay que reconocer que ni Newton, ni Euler, ni ningún otro gigante del cálculo los conocía; pero aunque sean heurística no pueden dejar de apuntar en la dirección correcta, puesto que la simplicidad suele ser indicativa de la verdad. Sin embargo en el caso de Mathis hablamos no sólo de los fundamentos mismos, que ninguno de las revisiones del cálculo simbólico ha osado tocar, sino incluso de la validez de los resultados, lo que ya rebasa lo que los matemáticos están dispuestos a considerar. Al final del capítulo veremos si se puede justificar esto.

En realidad, pretender que un diferencial tienda a cero equivale a permitirlo todo con tal de llegar al resultado deseado; es la condición ideal de versatilidad para la heurística y la adhocracia. La exigencia fundamental del cálculo constante o unitario —del cálculo diferencial sin más- puede parecer al principio como poner un palo en una rueda que ya funciona a pleno rendimiento, pero es ante todo veraz. Ninguna cantidad de ingenio puede sustituir a la rectitud en la búsqueda de la verdad.

Lo de Mathis no es algo quijotesco; hay aquí mucho más de lo que puede verse a simple vista. Existen estándares reversibles y estándares prácticamente irreversibles, como la ineficaz distribución actual de las letras del alfabeto en el teclado, que parece imposible de cambiar aunque ya nadie usa las viejas máquinas. No sabemos si el cálculo infinitesimal será otro ejemplo de estándar imposible de revertir pero lo que aquí está en juego está mucho más allá de cuestiones de conveniencia, y bloquea una mejor comprensión de una infinidad de asuntos; su superación es condición indispensable para la transformación cualitativa del conocimiento.

*

Los físicos teóricos de hoy, obligados a una manipulación altamente creativa de las ecuaciones, tienden a desestimar el análisis dimensional como algo irrelevante y estéril; seguramente esa actitud se debe a que consideran que cualquier revisión de los fundamentos está fuera de lugar, y sólo cabe mirar hacia adelante.

En realidad, el análisis dimensional es más inconveniente que otra cosa, puesto que de ningún modo es algo inocuo: puede demostrar con sólo unas líneas que la carga es equivalente a la masa, que las relaciones de indeterminación de Heisenberg son condicionales e infundadas, o que la constante de Planck sólo debería aplicarse al electromagnetismo, en lugar de generalizarse a todo el universo. Y puesto que a la física teórica moderna está en el negocio de generalizar sus conquistas a todo lo imaginable, cualquier contradicción o restricción a su expansión por el único lugar por el que se le permite expandirse tiene que verse con notoria hostilidad.

En realidad es fácil ver que el análisis dimensional tendría que ser una fuente importante de verdades con sólo que se le permitiera ejercer su papel, puesto que la física moderna es una torre de Babel de unidades sumamente heterogéneas que son el reflejo de las contorsiones realizadas en nombre de la simplicidad o elegancia algebraica. Las ecuaciones de Maxwell, en comparación con la fuerza de Weber que le precedió, son el ejemplo más elocuente de esto.

El análisis dimensional cobra además un interés añadido cuando ahondamos en la relación entre cantidades intensivas y extensivas. La desconexión entre las constantes matemáticas e y φ también está asociada con esta amplia cuestión. En materia de entropía, por ejemplo, usamos los logaritmos para convertir propiedades intensivas como la presión y la temperatura en propiedades extensivas, convirtiendo por conveniencia relaciones multiplicativas en relaciones aditivas más manejables. Esa conveniencia se convierte en necesidad sólo para los aspectos que ya son extensivos, como la expansión.

Ilya Prigogine mostró que cualquier tipo de energía puede descomponerse en una variable intensiva y otra extensiva cuyo producto nos da una cantidad; una expansión, por ejemplo viene dada por el producto PxV de la presión (intensiva) por el volumen (extensiva). Lo mismo puede hacerse para relaciones como cambios de masa/densidad con la relación entre velocidad y volumen, etcétera.

La imparable proliferación de medidas en todas las especialidades ya hace cada vez más necesaria la simplificación. Pero, aparte de eso, existe la urgencia de reducir la heterogeneidad de magnitudes físicas si es que queremos que la intuición le gane la batalla a la complejidad de la que somos cómplices.

Todo esto además se relaciona estrechamente con el cálculo finito y la teoría algorítmica de la medida, igualmente finitista, desarrollada por A. Stakhov. La teoría matemática clásica de la medida se basa en la teoría de conjuntos de Cantor y como es sabido no es constructiva ni está conectada con los problemas prácticos, por no hablar ya de los arduos problemas de la teoría de medida en física. Sin embargo la teoría desarrollada por Stakhov es constructiva e incorpora naturalmente un criterio de optimización.

Para apreciar el alcance de la teoría algorítmica de la medida en nuestra presente babel numérica hay que comprender que nos lleva de vuelta a los orígenes en Babilonia del sistema de numeración posicional, llenando una laguna de gran importancia en la actual teoría de los números y los campos numéricos. Esta teoría es isomorfa con un nuevo sistema numérico y una nueva teoría de las poblaciones biológicas. El sistema numérico, creado por George Bergman en 1957 y generalizado por Stakhov, se basa en las potencias de φ. Si para Pitágoras “todo es número”, para este sistema “todo número es proporción continua”.

La teoría algorítmica de la medida también plantea la cuestión del equilibrio, puesto que su punto de partida es el llamado problema de Bachet-Mendeleyev, que curiosamente aparece también por primera vez en la literatura occidental en 1202 con el Liber Abacci de Fibonacci. La versión moderna del problema consiste en encontrar el sistema óptimo de pesos estándar para una balanza que tiene un tiempo de respuesta o sensibilidad. En el caso límite, en que no hay lapso de respuesta, el tiempo no interviene como factor operativo en el acto de encontrar los pesos.

Alexey Stakhov, The mathematics of Harmony

Según Stakhov, el punto clave del problema de los pesos es la profunda conexión entre los algoritmos de medida y los métodos posicionales de numeración. Sin embargo, mi impresión es que aún admite una conexión más profunda con el cálculo mismo y los problemas de ajustar una función. En fin, los pesos de los platillos que necesitaba el fiel de la balanza identificado por Mathis. Naturalmente, no decimos que sea necesario utilizar potencias de φ ni cambiar de sistema de numeración, pero se pueden desarrollar ideas muy útiles sobre los algoritmos más simples.

Por supuesto, la teoría algorítmica de la complejidad nos dice que no se puede demostrar que un algoritmo es el más simple, pero eso no significa que no los busquemos continuamente, con independencia de la demostración. La eficiencia y la demostración no tienen por qué coincidir, eso no tiene nada de sorprendente.

El ser humano tiende inevitablemente a optimizar aquello que más mide; sin embargo no tenemos una teoría que armonice las necesidades de la metrología y la teoría de la medida con las de la matemática, la física y las ciencias descriptivas, ya sean sociales o naturales. Hoy de hecho existen muchas teorías de la medida diferentes, y cada disciplina tiende a buscar aquello que más le conviene. Sin embargo todas las métricas vienen definidas por una función, y las funciones vienen definidas por el cálculo o análisis, que no quiere tener nada que ver con los problemas prácticos de la medida y pretende ser tan pura como la aritmética aunque esté muy lejos de ello.

Esto puede parecer una situación un tanto absurda y de hecho lo es, pero también sitúa a una hipotética teoría de la medida que esté en contacto directo con los aspectos prácticos, los fundamentos del cálculo y la aritmética en una situación estratégica privilegiada por encima de la deriva e inercia de las especialidades.

El cálculo o análisis no es una ciencia exacta, y es demasiado pretender que lo sea. Por un lado, y en lo que respecta a la física, comporta al menos una conexión directa con las cuestiones de medida que debería ser explícita del lado mismo de la matemática; por el otro lado, el carácter altamente heurístico de sus procedimientos más básicos habla por sí solo. Si la propia aritmética y la geometría tienen grandes lagunas, siendo incomparablemente más nítidas, sería absurdo pretender que el cálculo no puede tenerlas.

*

Por otra parte, la física nunca va a dejar de tener tanto componentes discretos y estadísticos —cuerpos, partículas, ondas, colisiones, actos de medición, etc- como continuos, lo que hace aconsejable un análisis estadístico relacional cronométrico.

Un ejemplo de análisis estadístico relacional es el que propone V. V. Aristov. Aristov introduce un modelo constructivo y discreto del tiempo como movimiento usando la idea de sincronización y de reloj físico que ya introdujo Poincaré justamente con la problemática del electrón. Aquí cada momento del tiempo es un cuadro puramente espacial. Pero no sólo se trata de la conversión del tiempo en espacio, también de entender el origen de la forma matemática de las leyes físicas: “Las ecuaciones físicas ordinarias son consecuencias de los axiomas matemáticos, ‘proyectados’ en la realidad física por medio de los instrumentos fundamentales. Uno puede asumir que es posible construir relojes diferentes con una estructura diferente, y en este caso tendríamos diferentes ecuaciones para la descripción del movimiento.”

El mismo Aristov ha provisto modelos de reloj partiendo de procesos no periódicos, esto es, supuestamente aleatorios, que también tienen un gran interés. Un reloj que parte de un proceso no periódico podría ser, por ejemplo, un motor de pistón en un cilindro; y esto puede dar pie a incluir igualmente los procesos termodinámicos.

Hay que notar, además, que los procesos cíclicos, aun a pesar de su periodicidad, enmascaran influencias adicionales o ambientales, como bien hemos visto con la fase geométrica. A esto se suma el filtro deductivo de principios innecesariamente restrictivos, como ya hemos visto en el caso de la relatividad. Y por si todos ello fuera poco, tenemos el hecho, apenas reconocido, de que muchos procesos considerados puramente aleatorios o “espontáneos”, como la desintegración radiactiva, muestran estados discretos durante fluctuaciones en procesos macroscópicos, como ha mostrado extensivamente S. Shnoll y su escuela durante más de medio siglo.

Efectivamente, desde la desintegración radiactiva a las reacciones enzimáticas y biológicas, pasando por los generadores automáticos de números aleatorios, muestran periodos recurrentes de 24 horas, 24 horas, 27 y 365 días, que obviamente responden a un patrón astronómico y cosmofísico.

Sabemos que esta regularidad es “cribada” y descontada rutinariamente como “no significativa”, en un ejemplo de hasta qué punto los investigadores están bien enseñados a seleccionar los datos, pero, más allá de esto, la pregunta sobre si tales reacciones son espontáneas o forzadas permanece. Pero se puede avanzar una respuesta: uno las llamaría espontáneas incluso en el caso en que pudiera demostrarse un vínculo causal, desde el momento en que los cuerpos contribuyen con su propio impulso.

El rendimiento estadístico de las redes neuronales multinivel —la estrategia de la fuerza bruta del cálculo- se ve frenado incrementalmente por el carácter altamente heterogéneo de los datos y unidades con los que se los alimenta, aun a pesar de que obviamente las dinámicas tratadas sean independientes de las unidades. A la larga no se puede prescindir de la limpieza de principios y criterios, y los atajos que han buscado las teorías para calcular suponen un peso muerto que se acumula. Y por encima de todo, de poco sirve a qué conclusiones puedan llegar las máquinas cuando nosotros ya somos incapaces de interpretar las cuestiones más simples.

El rendimiento de una red relacional es también acumulativo, pero justo el sentido contrario; tal vez habría que decir, más bien, que crece de manera constructiva y modular. Sus ventajas, como los de la física que lleva tal nombre —y las redes de información en general- no se advierten a primera vista pero aumentan con el número de conexiones. La mejor forma de probar esto es extendiendo la red de conexiones relacionales. Y efectivamente, se trata de trabajo e inteligencia colectivas.

Con los cortes arbitrarios a la homogeneidad relacional aumenta la interferencia destructiva y la redundancia irrelevante; por el contrario, a mayor densidad relacional, mayor es la interferencia constructiva. No creo que esto requiera demostración: Las relaciones totalmente homogéneas permiten grados de inclusión de orden superior sin obstrucción, del mismo modo que las ecuaciones hechas de elementos heterogéneos comportan ecuaciones dentro de ecuaciones en calidad de elementos opacos o nudos por desenredar [46].

*

Volvamos de nuevo al cálculo, aunque bajo otro ángulo. El cálculo diferencial de Mathis no siempre obtiene los mismos resultados del cálculo estándar, lo que parecería suficiente para descartarlo. Puesto que su principio es indudable, los errores podrían estar en el uso del principio, en su aplicación, quedando todavía los criterios por clarificar. Esto por un lado. Por el otro, que hay una “reducción dimensional” de las curvas en el cálculo estándar es un hecho, que sin embargo no es muy reconocido porque después de todo ahora se supone que los gráficos son secundarios y aun prescindibles.

¿Lo son realmente? Sin los gráficos el cálculo nunca hubiera nacido, y eso ya es suficiente. David Hestenes, el gran valedor del álgebra y cálculo geométricos, suele decir que la geometría sin álgebra es torpe, y el álgebra sin geometría ciega. Habría que añadir que no sólo el álgebra, sino igualmente el cálculo, y en una medida mayor de la que nos imaginamos; siempre que comprendamos que en la “geometría” hay más de lo que suelen decirnos los gráficos. Vamos ahora a observar otro tipo de gráficos, esta vez de vórtices, debidos a P. A. Venis [47].

Peter Alexander Venis

En la secuencia de transformación de vórtices Venis hace una estimación de su dimensionalidad que al principio puede parecer arbitraria, aunque se basa en algo tan “evidente” como el paso del punto a la recta, de la recta al plano y del plano al volumen. También sorprenden las dimensiones fraccionarias, hasta que comprendemos que se trata de una simple estimación sobre la continuidad dentro del orden de la secuencia, que no puede ser más natural.

Peter Alexander Venis

Aunque Venis no busque una demostración, su secuencia de transformaciones es más convincente que un teorema. Basta mirar un minuto con atención para que su evolución resulte evidente. Se trata de una clave general para la morfología, con independencia de la interpretación física que queramos darle.

Para Venis la aparición de un vórtice en el plano físico es un fenómeno de proyección de una onda de un campo único donde las dimensiones existen como un todo compacto y sin partes: otra forma de hablar del medio homogéneo como unidad de referencia para el equilibrio dinámico. Está claro que en un medio completamente homogéneo no podemos caracterizarlo ni como lleno ni como vacío, y lo mismo da decir que tiene un número infinito de dimensiones que decir que no tiene ninguna.

Así, tanto las dimensiones ordinarias, como las fraccionarias, e incluso las dimensiones negativas son un fenómeno de proyección, de geometría proyectiva. La naturaleza física es real puesto que participa de este campo único o medio homogéneo, y es una ilusión proyectada en la medida en que lo concebimos como una parte independiente o una infinidad de partes separadas.

Las dimensiones negativas se deben a un ángulo de proyección menor de 0 grados, y conducen a la evolución toroidal que va más allá del bulbo en equilibrio en tres dimensiones —es decir, las dimensiones superiores a las tres ordinarias. Forman por tanto un contraespacio proyectivo complementario del espacio ordinario de la materia, que no es menos proyección que el primero con respecto a la unidad. La luz y la electricidad están en extremos opuestos de la manifestación, de evolución e involución en la materia: la luz es el fiat, y la electricidad la extinción. Se podría elaborar mucho sobre esto pero dejaremos algo para luego.

Cortes arbitrarios en la secuencia dejan expuestas dimensiones fraccionales que coinciden con las formas que apreciamos. Puesto que el propio Mathis atribuye las diferencias de resultados entre su cálculo y el cálculo estándar a que este último elimina al menos una dimensión, y en la secuencia de transformaciones tenemos toda una serie de dimensiones intermedias para funciones básicas, éste sería un excelente banco de pruebas para comparar ambos.

Michael Howell afirma que con el análisis fractal se evita la reducción de dimensiones, y traduce la curva exponencial en “una forma fractal de aceleración variable” [48]. Hay que recordar que según Mathis el cálculo estándar tiene errores incluso en la función exponencial; el análisis de la evolución dimensional de los vórtices nos brinda un amplio espectro de casos para sacarnos de dudas. Pienso en derivadas fraccionales y curvas diferenciables, antes que en fractales entendidos como curvas no diferenciables. Sería interesante ver cómo se aplica el diferencial constante a derivadas fraccionales.

La historia del cálculo fraccional, que ha adquirido tanto auge en el siglo XXI, se remonta a Leibniz y a Euler y es uno de los raros casos en que matemáticos y físicos echan en falta una interpretación. A pesar de que su uso se ha extendido a dominios intermedios en procesos exponenciales, ondulatorios, difusivos y de muchos otros tipos, la dinámica fraccional presenta una dependencia no local de la historia que no concuerda con el tipo de evolución temporal acostumbrado; aunque también existe un cálculo fraccional local. Para tratar de conciliar esta divergencia Igor Podlubny propuso distinguir entre un tiempo cósmico inhomogéneo y un tiempo individual homogéneo [49].

Podlubny admite que la geometrización del tiempo y su homogeneización se deben ante todo al cálculo, y nota que los intervalos de espacio pueden compararse simultáneamente, pero los de tiempo no, y sólo podemos medirlos como secuencia. Lo que puede sorprender es que este autor atribuya la no homogeneidad al tiempo cósmico, en lugar de al tiempo individual, puesto que en realidad la mecánica y el cálculo se desarrollan al unísono bajo el principio de la sincronización global, de la simultaneidad de acción y reacción. En esto la relatividad no es diferente de la mecánica de Newton. El tiempo individual sería una idealización del tiempo creado por la mecánica, lo que es ponerlo todo del revés: en todo caso sería el tiempo de la mecánica el que es una idealización.

Por un lado el cálculo fraccional es contemplado como un auxiliar directo para el estudio de todo tipo de “procesos anómalos”; pero por otro lado el mismo cálculo fraccional es una generalización del cálculo estándar que incluye al cálculo ordinario y por lo tanto también permite tratar toda la física sin excepción. Esto hace pensar que, más que ocuparse de procesos anómalos, es el cálculo ordinario el que produce una normalización, que afecta a todas las cantidades que computa y entre ellas el tiempo.

Venis también habla de ramas temporales y tiempo no homogéneo, aunque sus razonamientos se quedan más bien a mitad de camino entre la lógica de su secuencia, que representa un flujo del tiempo individualizado, y la lógica de la relatividad. Sin embargo es la lógica secuencial la que debería definir el tiempo en general y el tiempo individual o tiempo local en particular —no la lógica de la simultaneidad del sincronizador global. Volveremos pronto sobre esto.