CHINA IN SPACE AND TIME

From the West, we tend to judge today’s China more by its economic presence and the impact of its material development on the rest of the world than by the internal needs in the development of its history; thus giving an overwhelming priority to the geopolitical perspective over the cultural one, which should have at least a comparable importance.

In fact, it is easy to see that China’s overall impact will depend to a large extent on how well it manages to fit this whole period and the foreseeable future into a historical framework for which it would like as little change as possible. A sense of continuity on a large scale is fundamental to Chinese culture, and in the long term it will always do its best to assimilate and make the origin of foreign influences undetectable. It has already achieved this to a large extent with Marxism and capitalism, which lose so much of their original meaning in translation that it is no longer known whether to call the Chinese system “market socialism” or “state capitalism”.

Continuar leyendo “CHINA IN SPACE AND TIME”

CHINA EN EL ESPACIO Y EL TIEMPO

Desde Occidente, tendemos a juzgar a la China actual más por su presencia económica y el impacto de su desarrollo material en el resto del mundo que por las necesidades internas en el desarrollo de su historia; dando así una prioridad abrumadora a la óptica geopolítica sobre la cultural, que debería tener al menos una importancia comparable.

De hecho, es fácil ver que el impacto global de China va a depender en gran medida de cómo acierte a encajar todo este periodo y el futuro previsible dentro de un marco histórico para el que desearía el menor número de cambios. Para la cultura china el sentido de la continuidad a gran escala es fundamental, y a largo plazo siempre hará cuanto pueda por asimilar y hacer indetectable el origen de las influencias extranjeras. Ya lo ha conseguido en buena medida con el marxismo y el capitalismo, que pierden tanto de su significado original en la traducción que ya no se sabe si denominar al sistema chino “socialismo de mercado” o “capitalismo de estado”.

Continuar leyendo “CHINA EN EL ESPACIO Y EL TIEMPO”

El PACTO DE LOS CACAHUETES

Pero, ¿cuánto vale una hora de trabajo?

Puesto que en las actuales condiciones de choque secundadas por la mayoría de los medios se habla cada vez más del tema de la renta básica, tendría que ser obligado, para empezar, hacer una estimación seria del precio y el valor de las salarios, algo que difícilmente encontraremos en ninguna parte.

En un artículo de hace algunos meses Miles Mathis hacía la siguiente reflexión. El salario mínimo en los Estados Unidos para empleados que reciben propinas, como los camareros, es ahora de 2.13 dólares/hora. Cuando él lo hacía en la Universidad para pagarse los estudios, en 1984, cobraba 2 dólares por hora. Puesto que la inflación real en estos 36 años es de un 300%, lo que antes valía un dólar ahora vale 4. Lo que significa que ahora los camareros cobran aproximadamente 1/4 o una cuarta parte que entonces.

Continuar leyendo “El PACTO DE LOS CACAHUETES”

THE REVOLUTION THAT WILL HAPPEN: CHINA AND THE FUTURE OF TECHNO-SCIENCE

It is being said that this year 2020 could mark the beginning of the Asian Century, or if you prefer, the Chinese Century; though we will not find Chinese analysts among those who claim such things. The authors who insist on this reading of the facts point, for example, to China’s clear leadership in such an strategic sector as 5G, or the imminent arrival of the digital yuan, which could cause the collapse of the dollar hegemony sooner or later. No doubt, China plays for real.

Yet this need for China to do things independently and in its own way is too often interpreted as an aggressive or expansionist policy in the West, without wanting to see that it is the West itself that has created the current rules where the winner takes it all. In the coming years we will not fail to see this rivalry for technological supremacy increasing, with the usual war of accusations and disqualifications led almost exclusively by one side.

But here I want to touch on a much broader subject than that of technological competition that is not receiving the slightest attention. I am referring to the relationship between science and technology to form a whole, what we now call Technoscience. Technoscience is the reciprocal action or continuity existing between the utilitarian applications and the development of the scientific method, between practice and theory, between power and knowledge. Power and knowledge limit each other, but incredibly, modern studies on technoscience, still know nothing about how and on what depends that knowledge and power are self-limiting —in a totally involuntary, spontaneous way.

Continuar leyendo “THE REVOLUTION THAT WILL HAPPEN: CHINA AND THE FUTURE OF TECHNO-SCIENCE”

LA REVOLUCIÓN QUE SÍ OCURRIRÁ: CHINA Y EL FUTURO DE LA TECNOCIENCIA

Ya se empieza a decir que este año 2020 podría marcar el comienzo del Siglo Asiático, o si se prefiere, del Siglo Chino; aunque no encontraremos a analistas chinos entre los que afirman tales cosas. Los autores que insisten en esta lectura apuntan, por ejemplo, al claro liderazgo de China en un sector tan estratégico como la 5G, o la inminente aparición del yuan digital, que podría hacer que tarde o temprano la hegemonía del dólar se derrumbe. De que China juega en serio caben ya pocas dudas.

Continuar leyendo “LA REVOLUCIÓN QUE SÍ OCURRIRÁ: CHINA Y EL FUTURO DE LA TECNOCIENCIA”

PLANDEMIA: MANUFACTURANDO CULPAS

En un artículo reproducido hace poco en Rebelión, Eva Illouz, de la Universidad Hebrea de Jerusalén, presentada a menudo como “una especialista de las emociones”, no pierde el tiempo a la hora de proyectar sospechas y culpas sobre el gobierno y el pueblo chino en la difusión del más famoso de los coronavirus [1].

Ya en el primer párrafo se nos habla de la transmisión zoonótica, el salto de especies animales al hombre, para que no queden dudas de cuál es el origen de todo el asunto. La palabra se repite varias veces, respaldada por la opinión de especialistas norteamericanos tales como Dennis Carroll del CDC, Larry Brilliant o el mismo Bill Gates, y con la inevitable alusión a los famosos mercados al aire libre chinos. Finalmente, en el último párrafo se lanza al aire el cuchillo: “el silenciamiento de la crisis por parte de China hasta enero fue criminal, dado que en diciembre todavía era posible detener el virus”.

Continuar leyendo “PLANDEMIA: MANUFACTURANDO CULPAS”

The religion of prediction and the knowledge of the slave

In calculus, infinitesimal quantities are an idealization, and the concept of limit, provided to support the results obtained, is a rationalization. This dynamics going from idealization to rationalization is inherent to the liberal-materialism or material liberalism of modern science. Idealization is necessary for conquest and expansion; rationalization, to colonize and consolidate all that conquered. The first reduces in the name of the subject, which is always more than any object x, and the second reduces in the name of the object, which becomes nothing more than x.

But going to the extremes does not grant at all that we have captured what is in between, which in the case of calculus is the constant differential 1. To perceive what does not change in the midst of change, that is the great merit of Mathis’ argument; that argument recognizes at the core of the concept of function that which is beyond functionalism, since physics has assumed to such an extent that it is based on the analysis of change, that it does not even seem to consider what this refers to.

Think about the problem of knowing where to run to catch fly balls—evaluating a three-dimensional parabola in real time. It is an ordinary skill that even recreational baseball players perform without knowing how they do it, but its imitation by machines triggers the whole usual arsenal of calculus, representations, and algorithms. However, McBeath et al. more than convincingly demonstrated in 1995 that what outfielders do is to move in such a way that the ball remains in a constant visual relation —at a constant relative angle of motion- instead of making complicated time estimates of acceleration as the heuristic model based on calculus intended [65]. Can there be any doubt about this? If the runner makes the correct move, it is precisely because he does not even consider anything like the graph of a parabola. Mathis’ method is equivalent to put this in numbers.

Continuar leyendo “The religion of prediction and the knowledge of the slave”

La religión de la predicción y el saber del esclavo

En el cálculo, las cantidades infinitesimales son una idealización, y el concepto de límite que se aporta para fundamentar los resultados obtenidos, una racionalización. La dinámica idealización-racionalización es consustancial al material-liberalismo o liberalismo material de la ciencia moderna. La idealización es necesaria para la conquista y la expansión; la racionalización, para colonizar y consolidar el terreno conquistado. La primera reduce en el nombre del sujeto, que siempre es más que cualquier objeto x, y la segunda reduce en nombre del objeto, que se convierte en nada más que x.

Pero irse a los extremos no asegura para nada que hayamos captado lo que queda en medio, que en el caso del cálculo es el diferencial constante. Percibir lo que no cambia en medio del cambio, ése es el gran mérito del argumento de Mathis, que ninguna otra consideración le puede quitar. Ese argumento tiene la virtud de encontrar en el núcleo del concepto de función aquello que está más allá del funcionalismo, pues la física ha asumido hasta tal punto que se basa en el análisis del cambio, que ni siquiera parece plantearse a qué está referido éste.

Piénsese en el problema de calcular la trayectoria de la pelota tras un batazo para cogerla —evaluar una parábola tridimensional en tiempo real. Es una habilidad ordinaria que los jugadores de béisbol realizan sin saber cómo la hacen, pero cuya reproducción por máquinas dispara todo el arsenal habitual de cálculos, representaciones y algoritmos. Sin embargo McBeath et al. demostraron en 1995 de forma más que convincente que lo que hacen los jugadores es moverse de tal modo que la bola se mantenga en una relación visual constante —en un ángulo constante de movimiento relativo-, en lugar de hacer complicadas estimaciones temporales de aceleración como se pretendía [65]. ¿Puede haber alguna duda al respecto? Si el corredor hace la evaluación correcta, es precisamente porque en ningún momento ve nada parecido al gráfico de una parábola. El método de Mathis equivale a tabular esto en números.

Continuar leyendo “La religión de la predicción y el saber del esclavo”

Science and Conscience

We have tried to approach a single subject from the most diverse angles, so that everyone has some possibility of connecting it in the most direct way with his or her own interests. This is a minimal introduction relying on a bibliography that is not at all exhaustive, but necessary to delve into any of the issues presented.

Of course our subject proper was not the continuous proportion, but reciprocity and self-organization in Nature and beyond Nature. The constant φ continues to play a marginal, totally episodic role within modern science, which is mainly focused on calculus.

Thus, our preferential point of view is not so much that of science and objectivity, as that of reciprocity itself, to which I attach more importance; as an attempt to give more importance to the awareness of reality than to science.

And reality itself resembles a parable. We can say that next to unity, sometimes also symbolized by the point, the circle and the constant π, two other great mathematical constants exist from eternity, e and φ. The constant e, the basis of the natural logarithms and the exponential function, perfectly embodies the analytical exhaustiveness of calculus, as if looking towards the plurality of the world. The constant φ, the natural algorithm of a Nature that completely ignores calculus, looks at unity without knowing it. And unity itself, if it is really unity, cannot show a preference for either.

Now, it is clear that in modern science the weight of e is infinitely greater than that of φ, to the point that we could perfectly dispense with φ without even noticing it. The number e refers us to continuity and infinite divisibility; φ refers us to discrete operations without intended purpose —and it should be understood that infinite divisibility is already a human purpose that can always exceed its operational limits. Hence the need to look back to the contradictory basis of infinitesimal calculus.

As it is known, the number e was first identified by Jacob Bernoulli in 1683 in a problem of compound interest, and is absolutely consubstantial with the modern spirit of calculus with all that it entails. The continuous proportion has undoubtedly a much older past but, in the eyes of the moderns, it is hard to see how it could have played a relevant role in the knowledge of antiquity. Euler’s number is at the base of so-called advanced or superior mathematics, while the number closest to the muses cannot ever deny the elemental character of its origin —which is also its greatest charm. Surely this is the reason for its permanent popularity among amateur mathematicians.

But this undeniable circumstance hides another naivety on the part of the spirit of calculus that we should learn to appreciate. It is well known that people like Stevin or Newton still believed that ancient cultures could have had broader knowledge than their contemporaries; if mathematicians like them still dared to think that, it must surely be attributed to the incomparable impact that the legacy of Apollonius and Archimedes —the most advanced mathematicians of antiquity – had at that time.

But this already presupposed a totally biased idea about what was advanced in knowledge, which has been perpetuated until today.

It is said that the amount of knowledge regularly doubles every 15 years since the scientific revolution, which implies that today our knowledge of physics and mathematics is four million times greater than in 1687, when the Principia were published. Yet this magnum opus is already an obscure, hard to read treatise that has been and continues to be routinely misinterpreted even by the best experts.

Let us try to understand four million Principia. We do not walk on the shoulders of giants, the giants advance on our shoulders, although less and less, as it is easy to understand. And the logic of accumulated capital is that accumulated capital does not take risks. The theory of relativity and other “revolutions” were adopted following the principle of minimum elimination and maximum conservation of capital. The whole exacerbated search for novelty in theoretical physics is nothing but the enforced headlong rush because it is not allowed to really examine the foundations. But the less one eliminates, and the less one renews the foundation, the more inexorably one ages.

Obviously the stratification of knowledge and the branching of specialities follows the logic of continuous interest and accumulated capital and debt.

It is really curious that two constants as ubiquitous as e and φ, the “two natural fractals”, cross so little of each other’s paths in a field as unlimited but redundant as mathematics. So curious, that the study of the points of contact and divergence of both constants should be an area of mathematical research in its own right, full of interest for both pure and applied mathematics. If this has not happened yet, is because of the one-sided development of all sciences and mathematics on the side of calculus and prediction, putting the rest of the resources at their service.

It is understandable that there is, among many mathematicians, a typical allergic reaction to the questions raised by the continuous proportion and the mathematics of harmony. They are seen more as a hindrance than as a guide, since they might imply some sort of discrete, constructive limits to an analysis for which no restriction is wanted. Nothing should measure the one who measures.

It seems that at the time of the emergence of writing and the first great cities, the priests kept the standards of measurement in the temples. But Nature is the perfect temple that keeps everything without hiding anything.

We have said that φ seems to be “the natural algorithm” of a Nature that does not care in the least about calculus. But not having any system of calculus and measurement is, in a sense, equivalent to having all of them and surpassing them all; in the same way that nature’s lack of intention infinitely surpasses human purposes. So, the value of this branch of mathematics for the theory of measurement and computation should be out of the question. It is a matter of identifying relevant problems in the domain of interdependence.

In just over three centuries we have had at least five great cuts with the constructive and proportional conception of measurement: the infinitesimal calculus and Newton’s classical mechanics, Maxwell’s theory, set theory, relativity and quantum mechanics. With each of these successive steps, the problem of measurement has become more and more critical and controversial. But it is absolutely superficial to think that only the latest developments count and that measure theory itself is just an aid to our predictions. This is exactly how this tower of Babel was built.

*

The interest of the continuous proportion would go beyond our modern involvement in complexity and calculus. In this area, new discoveries are always possible even at the elementary level that are so unexpected that we do not even know how to value them. Moreover, its persistent appearance in music —that unconscious arithmetic, as Leibniz said-, in physiological rhythms and anatomical sequences indicates not only an intuitive, but, ultimately, pre-numerical character.

There is here a great open track not only for the archaeology of knowledge, but for the very activation of an ancient knowledge that seems inconceivable to us today. In the Book of Changes we may see an asymmetric implication algebra. The six lines of a hexagram correspond to the six directions of space at the ends of its three axes, which oppose an I and its circumstance. But here the symmetry of the coordinates is only the external and passive frame, it is the asymmetry what constitutes the internal dynamic spring in which agent and situation interpenetrate.

The Book of Changes is the best possible example of an analogical knowledge that does not depend on calculus, and towards which a certain natural logic of implication converges. What is important is not the 64 cases or the 384 lines, but the plane of synthesis towards which they point.

If mathematical analysis has its so-called complex plane to operate with any number of dimensions or variables, one can equally conceive an implication logic that is capable of reducing any number of variables to an equally intangible plane of synthesis, which we will call the plane of universal synthesis or universal inclusion.

Of course, in this day and age anyone who hears of “universal inclusion” can only think of universal confusion. That is why we have developed the analysis, because we do not believe in knowledge that is not properly formalized. However, the development of formalization has not contributed to greater intelligibility, but rather the opposite. For us, formal knowledge increasingly projects more shadows than light; shadows we know too well are cast by ourselves. Shadows of power over natural or social processes.

The whole philosophy of the West since Descartes is based on the idea of a separate intelligence. That is why the successive cuts that come one after another since Newton do not seem a loss to us, since in this line of logic, more separation from Nature amounts to more self-affirmation. But any process has its limit, and when there is nothing left to assert oneself about —because Nature vanished- everything stops making sense, except for the mere exercise of power, which lacks intrinsic stimulus for knowledge.

Besides, the golden age when the field of fundamental predictions was growing is now far behind us. It will not return, for the simple reason that everything was optimized for predictions and all the low hanging fruit is already picked. One can only scrape out diminishing returns in the ugly struggle with complexity. Yet modern science finds it almost impossible to examine its foundations, which is the only thing where there could be real novelty; we have the great advantage of our historical perspective, but the very existence of the specialities depends on not reflecting on foundations.

Modern science is not capable of dealing with either transcendence or immanence; for as subjects we cannot separate ourselves anymore, nor does we know how to see things again from within Nature.

Now, if we look back as we have done, only reordering our perception of the present theories, what does it mean to dispense with the principle of inertia? What is the point of saying that everything is based on self-interaction? What is the point of saying that the only thing we perceive is the Ether?

These are transcendental statements, in the sense that the father of phenomenology, Edmund Husserl might have given them, had he dealt with physics. However, to suspend the principle of inertia ends with the false idealism of physics, such a fecund contradiction that isolates a ball that rolls from the rest of the world except from ourselves. To realize that we only perceive the Ether, because we only perceive in the mode of light, is to realize that we are always right in the middle and that matter and space themselves are transcendental limits.

Finally, to say that the planets or the electrons orbit their centers by self-interaction can only be understood in the sense that the relationship between matter and the medium appear to be reflexive just because both are not separate.

Separation and reflexivity are appearances both for the subject and the object, and it is useless to adhere to one part trying to deny the other, as science has attempted. Intelligence and being coincide —at least from the point of view of intelligence, since this one is incapable of perceiving itself. This reflexivity, this intelligibility, is the plane of universal synthesis itself. But this has also a physical translation. The evolution of a vortex in six dimensions in Venis coordinates could be a good example of the intersection of a naturalistic view with the transcendental plane.

These ideas can be applied to both the mediate and immediate knowledge of Nature. From the operational and formal point of view, all observable knowledge of physics can be included in the principle of dynamic equilibrium. But from the point of view of immediate cognition, one can hardly sustain oneself in the contemplation of the instant without inertia —to such an extent that ball rolling in the void has captured our subjective idea of succession. However, these principles, which seem now much more demanding from the intuitive point of view, since they are much more full of content, are not based on the separation of nature and therefore make their forced “unification” by man less necessary.

Truly, that transcendental plane is the one in which transcendence with respect to Nature and its return to it coincide —but in truth the only nature that is transcended here is that relative to the inertia of habits, what we call our “second nature”. Here we could say with Raymond Abellio: “The perception of relationships belongs to the mode of vision of the “empirical” consciousness, while the perception of proportions is part of the mode of vision of the “transcendental” consciousness” [64].

But, of course, in modern science there are hardly any proportions, because all the units we handle are a heterogeneous and unintelligible jumble of quantities —that’s why we rely more and more on computers and their programs for data crunching.

The term “transcendental” can only have some meaning for those who deal with the intelligibility of knowledge, not for those who are simply content with its formalization to obtain predictions. However, here we are making it descend to the very core of physical principles and of that eternal unknown we call causality; and this can be done both in a qualitative and a quantitative way.

No physicist or mathematician needs to prove the existence of the complex plane or the complex manifolds, however advisable it may be to review its foundations; much less could we prove the existence of a transcendental plane of synthesis, since the word “transcendental” means that it is the condition of knowledge. Motion is shown by walking, and knowledge by understanding.

Moreover, to speak of the “existence” of such a plane in relation to the world of objects and measurements is not only out of place but completely reverses the situation. Santayana said that essences are “the only thing that people see and the last thing they notice”; from a perspective in line with what we have already said, and which of course has little to do with the usual narratives and cosmologies, the entire experience is a transition between an unknowable but measurable matter and a space that is diaphanous to knowledge but immeasurable. Existence itself is that process of awakening, but with dissimilar rhythms for all kinds of systems and entities.

This our condition “between Heaven and Earth”, between the diaphanous and the measurable, is not a mere philosophical or poetic remark, but it determines the whole range of our possibilities of knowledge, which began with the acts of counting and measuring, of arithmetic and geometry, and which have been successively developing with calculus, algebra and everything else until we got here. And we can not only see that it determines it, but also appreciate that there is always a double current, a double movement, descending and ascending.

Nor is it to be believed that this plane of essences is reduced to the mathematical aspect; on the contrary, this is only one possible expression of an infinity of modalities. In our time we have come to believe that complexity exists only in numbers, computers and models, but the richness of phenomena has always been infinite, regardless of any quantification. Our perceptions, as our thoughts, are also a fleeting part of the absolute.

*

Technoscience is a continuum of practice and theory that dictates what seems acceptable to both. On the other hand, it is not ideas that determine our actions —it is what we do and what we want to do what determine our ideas.

For today’s technoscience, to see intelligence as something totally separate from Nature is an indispensable condition for recombining any aspect of nature at will: atoms, machines, biological molecules and genes, and all the possible interfaces between them under the least restrictive criterion of information.

But granting this convenient separation of domains to manipulate them with the least possible restrictions, paradoxically entails unnecessarily restrictive principles, as is already evident in fundamental physics, which is also the founding ground of our overall commerce with Nature.

The reintegration of intelligence into the unity of being is absolutely contrary to the liberal principle of prior separation in order to recombine without restrictions. The mere possibility of an intelligence in Nature threatens to short-circuit this separating intelligence who has established herself as the ultimate arbiter.

And yet, as we have seen, the idea that there is feedback in the orbit of a planet or an electron is less contradictory than the usual picture that we are dealing with a cannonball trapped in a field. In fact, it is not contradictory at all: it is just absolutely disconcerting, as well as inconvenient, for most of us.

We want to see on the one hand a separate intelligence, and on the other a completely inert matter, and between these two fictions, the evidence of a perfectly impersonal, pre-individual consciousness without qualities becomes totally inconceivable.

There is nothing extraordinary about the fact that apparently heterogeneous bodies seek to attain the homogeneous condition with the environment from which they have emerged, and that they cannot do it without both inner and outer action. The particular aspect of this balance is indiscernible from the intelligence of that entity or system, which cannot but participate in the universal intelligence. Were it not for our involvement in this last one, our very intelligence would only exists subjectively for ourselves.

It is not strange at all, but it is totally inconvenient for the practices in which we are immersed, for the horizontal, indiscriminate remixing that aspires to dissolve all natural boundaries.

*

In the immediate postwar period, around 1948, under the shadow of the Manhattan project and other military programs, three new “theories” emerged that consolidated the new “algorithmic” style of the sciences: quantum electrodynamics with its endless loops of calculations, information theory, and cybernetics or modern control theory. To this was added, five years later, the identification of the DNA helix, which would soon be reduced equally to the category of information.

Except for the calculation feats that are its only justification, the quantization of the electromagnetic field was on a theoretical level a superfluous undertaking that added nothing new to the known equations. The funny thing is that its promoters had to be averting terms like “self-interaction” and “self-energy” constantly popping up in their faces. Terms like this seem to sound undesirable for such a clean and fundamental theory as QED, and moreover in physics it is assumed that any kind of feedback only can result in stronger non-linear effects.

Thus, while fundamental physics fought tooth and nail to conjure up the idea of feedback, cybernetics had to assume that feedback is a weak, emergent property of highly organized systems made up of “fundamental” blind blocks. At the same time, information theory hacked Boltzmann’s mechanical-statistical entropy into a new brand, rather than the irreversible entropy of thermodynamics. To question the foundations of the past theories would have been out of place, so theorists were content to generalize heuristic procedures, and it could not be otherwise since this science-technology continuum does not demand anything else.

We have seen that our very idea of celestial mechanics, of calculus, and of the mechanical-statistical interpretation of the Second Law are based on flagrant rationalizations —not to speak of more recent developments. Even the explanation of the functioning of our heart is based on a rationalization that tries to ignore the monumental evidence of the role of the breath in the global dynamics of blood circulation.

The only reason we maintain these mirages is a very powerful one, because they reaffirm our idea that we have a separate intelligence, while justifying our indiscriminate intervention in Nature, a Nature that we very conveniently want to reduce to blind laws and random processes. Men of science find it shocking, to say the least, to talk about the transcendental in knowledge, but all modern scientific knowledge is based on an ego pretending to be transcendental that in the end became trivial.

Ciencia y conciencia

Hemos procurado tratar un solo tema desde los ángulos más diversos, para que cada cual tenga alguna posibilidad de conectarlo de la forma más directa con sus propios intereses. Se trata de una introducción mínima que remite a una bibliografía en absoluto exhaustiva, pero necesaria para ahondar en cualquiera de los aspectos tratados.

Claro que nuestra tema no era la razón áurea, sino que hemos usado esta constante como un índice de reciprocidad, para sondear cual es la relación de la ciencia con la misma reciprocidad. La constante φ sigue teniendo un papel atípico, marginal y episódico dentro de la ciencia moderna, centrada sobre todo en el cálculo.

Así pues, mi punto de vista preferente no es tanto el de la ciencia y la objetividad, como el de la reciprocidad misma, a la que concedo más importancia; como intento dar más importancia a la conciencia de la realidad que a la ciencia.

Y la realidad misma se parece a una parábola. Podemos decir que junto a la unidad, a veces también simbolizada por el punto, el círculo y la constante π, existen desde la eternidad otras dos grandes constantes matemáticas, e y φ. La constante e, base de los logaritmos naturales y de la función exponencial, encarna a la perfección la exhaustividad analítica del cálculo y mira hacia la pluralidad del mundo. La constante φ, el algoritmo natural de una naturaleza que ignora por completo el cálculo, mira a la unidad sin saberlo. Y la propia unidad, si realmente lo es, no puede mostrar preferencia por ninguna de las dos.

Ahora bien, en la ciencia moderna el peso de e es infinitamente mayor que el de φ, hasta el punto de que podríamos prescindir de φ sin siquiera darnos cuenta. El número e nos remite al continuo y la infinita divisibilidad; φ nos remite a operaciones discretas sin finalidad —y se sobreentiende que la divisibilidad infinita ya es una finalidad humana que siempre puede exceder sus límites de operación. De aquí la necesidad de volver al contradictorio fundamento del cálculo.

Como es sabido, el número e fue identificado por vez primera por Jacob Bernoulli en 1683 en un problema de interés compuesto, y es absolutamente consustancial al moderno espíritu del cálculo con todo lo que conlleva. La razón áurea tiene sin duda un pasado mucho más antiguo pero, a ojos de los modernos, cuesta mucho ver cómo podría haber tenido un papel relevante en el conocimiento de la antigüedad. El número de Euler está en la base de la llamada matemática avanzada o superior, mientras que el número amigo de las musas no puede quitarse de encima lo elemental e ingenuo de su origen —lo que también constituye su mayor encanto. Este el motivo de su permanente popularidad entre matemáticos aficionados.

Esta circunstancia indudable esconde otra ingenuidad por parte del espíritu del cálculo que deberíamos aprender a apreciar. Sabido es que hombres como Stevin o Newton todavía creían que el hombre antiguo podía haber tenido conocimientos más amplios que sus contemporáneos; si matemáticos como ellos aún osaban pensar eso, hay que atribuirlo sin duda al impacto incomparable que en esa época tuvo el legado de Apolonio y Arquímedes —los más avanzados matemáticos de la antigüedad.

Pero esto ya presuponía una idea totalmente sesgada sobre qué era lo avanzado en el conocimiento, que se ha perpetuado hasta hoy.

Se dice que la cantidad de conocimiento se duplica regularmente cada 15 años desde la revolución científica, lo que implica que hoy nuestros conocimientos de física y matemáticas son cuatro millones de veces mayores que en 1687 cuando se publicaron los Principia. Por lo demás esta obra magna ya es de por sí un tratado oscuro y difícil de leer que ha sido y sigue siendo rutinariamente malinterpretado incluso por los mejores expertos.

Intentemos comprender cuatro millones de Principia. No caminamos a hombros de gigantes, sino que los gigantes avanzan sobre nuestros hombros, aunque cada vez menos, como es fácil comprender. Y la lógica del capital acumulado es que el capital acumulado no se arriesga. La teoría de la relatividad y otras “revoluciones” fueron adoptadas siguiendo el principio de mínima eliminación y de máxima conservación del capital. Toda la búsqueda exacerbada de novedad en la física teórica no es sino la huída hacia adelante obligada por no estar permitido examinar realmente los fundamentos. Pero cuanto menos se elimina, y menos se renueva el fundamento, más inexorablemente se envejece.

Obviamente la estratificación del conocimiento y la ramificación de especialidades sigue la lógica del interés continuo y el capital —y deuda- acumulados.

Es realmente curioso que dos constantes tan ubicuas como e y φ, los “dos fractales naturales”, crucen tan poco sus caminos en un campo tan ilimitado pero redundante como las matemáticas. Tan curioso, que el estudio del encuentro y desencuentro de ambas constantes debería ser un área de investigación matemática por derecho propio, llena de interés tanto para la matemática pura como para la matemática aplicada. Si esto no ha ocurrido todavía, es por el desarrollo absolutamente unilateral de todas las ciencias y las matemáticas del lado del cálculo y la predicción, que han puesto el resto de sus armas, como por ejemplo el álgebra, enteramente a su servicio.

Se comprende que exista, entre muchos matemáticos, una típica reacción alérgica a las cuestiones que plantea la razón áurea y la matemática de la armonía, y que se vean más como un estorbo que como una guía, puesto que en el fondo de lo que se trata es de ponerle límites discretos y constructivos a un análisis para el que no se quiere la menor restricción. Nada debe medir al que mide.

Parece ser que en la época en que surgió la escritura y las primeras grandes ciudades la casta sacerdotal guardaba los estándares de medida en los templos. Pero la naturaleza es el templo perfecto que lo guarda todo sin ocultar nada.

Hemos dicho que φ parece “el algoritmo natural” de una naturaleza que no sabe medir ni calcular. Pero no tener ningún sistema de medida y de cálculo equivale, en cierto sentido, a tenerlos todos y superarlos a todos; del mismo modo que la falta de intención de la naturaleza supera infinitamente los propósitos humanos. Entonces, el valor de esta rama de la matemática para la teoría de la medida y la computación debería estar fuera de cuestión. Se trata de identificar problemas pertinentes en el dominio de la interdependencia.

En poco más de tres siglos hemos tenido al menos cinco grandes cortes con la concepción constructiva y proporcional de la medida: el cálculo infinitesimal y la mecánica clásica, la teoría de Maxwell, la teoría de conjuntos, la relatividad y la mecánica cuántica. Con cada uno de estos sucesivos pasos, el problema de la medida se ha ido tornando más y más crítico y discutible. Pero es absolutamente superficial pensar que sólo los últimos desarrollos cuentan y que la propia teoría de la medida es un auxiliar para nuestras predicciones. Justamente así es como se construyó esta torre de Babel.

*

El interés de la razón áurea iría más allá de nuestra implicación en la complejidad y el cálculo modernos. En este área, siempre son posibles descubrimientos nuevos a nivel elemental tan inesperados que ni siquiera sabemos cómo valorar. Por lo demás, su aparición persistente en la música —esa aritmética inconsciente, al decir de Leibniz-, en ritmos fisiológicos y secuencias anatómicas nos indica su carácter no sólo intuitivo, sino, en última instancia, prenumérico.

Hay aquí una gran pista abierta no sólo para la arqueología del saber, sino para la misma activación de ese conocimiento antiguo que nos parece hoy inconcebible. En el Libro de los Cambios hemos visto un álgebra asimétrico de implicación. Las seis líneas de un hexagrama se corresponden con las seis direcciones del espacio en los extremos de sus tres ejes, que contraponen a un yo y su circunstancia. Pero aquí la simetría de las coordenadas es sólo el marco externo y pasivo, es la asimetría la que constituye el resorte dinámico interno en el que se interpenetran agente y situación.

El Libro de los Cambios es el mejor ejemplo posible de un saber analógico que no depende del cálculo, y hacia el que una cierta lógica natural de la implicación confluye. Lo importante no son los 64 casos o las 384 líneas, sino el plano de síntesis hacia el que apuntan.

Si el análisis tiene su llamado plano complejo para operar con cualquier número de dimensiones o variables, no menos cabe concebir una lógica de implicación que es capaz de reducir cualquier número de variables a un plano igualmente intangible de síntesis, que llamaremos el plano de la síntesis universal o de la inclusión universal.

Por supuesto, en esta época cualquiera que oiga hablar de una “inclusión universal” sólo puede pensar en la confusión universal. Por eso hemos desarrollado el análisis, porque no creemos en el conocimiento que no esté debidamente formalizado. Sin embargo, el desarrollo de la formalización no ha contribuido a una mayor inteligibilidad, sino más bien lo contrario. Para nosotros, cada vez más, el conocimiento formal no es tanto luz como sombra; una sombra que sabemos demasiado bien está proyectada por nosotros mismos. La sombra del poder sobre la naturaleza o los procesos sociales.

Toda la filosofía de Occidente desde Descartes se basa en la idea de una inteligencia separada. Por eso los sucesivos cortes que vienen uno detrás de otro desde Newton no nos parecen tales, puesto que, dentro de esta lógica, más separación de la naturaleza es más autoafirmación. Pero cualquier proceso tiene su límite, y cuando ya no hay nada sobre lo que afirmarse —porque la naturaleza es inhallable-, todo deja de tener sentido, salvo por el mero ejercicio del poder, que carece de estímulo intrínseco para el conocimiento.

Y además, la época dorada en que aumentaba el campo de las predicciones queda ya muy atrás, cada vez más lejos. No volverá, por la sencilla razón de que todo se optimizó para obtener predicciones y toda la fruta baja del árbol ya está cogida. Sólo cabe raspar rendimientos decrecientes en la fea lucha con la complejidad. A pesar de todo a la ciencia moderna le resulta casi imposible revisar sus bases, que es en lo único donde podría haber verdadera novedad. Tenemos la gran ventaja de nuestra perspectiva histórica, pero la misma existencia de las especialidades depende de que no se reflexione sobre sus fundamentos.

La ciencia moderna no es capaz de habérselas ni con la trascendencia ni con la inmanencia; porque ni puede ya separarse más, ni sabe cómo volver a ver las cosas desde el interior de la naturaleza.

Ahora bien, si volvemos la vista atrás como hemos hecho, tan sólo reordenando nuestra percepción de las presentes teorías, ¿qué significa prescindir del principio de inercia? ¿Qué sentido tiene decir que todo se basa en la autointeracción? ¿Qué sentido tiene decir que lo único que percibimos es el Éter?

Se trata de afirmaciones trascendentales, en el sentido en que podría haberle dado el padre de la fenomenología, Edmund Husserl, si se hubiera ocupado de la física. Sin embargo suspender el principio de inercia derriba al falso idealismo de la física de su caballo de madera, esa contradicción tan fecunda que aísla a una bola que rueda del resto del mundo menos de nosotros mismos. Darnos cuenta de que sólo percibimos el Éter, porque sólo percibimos en el modo de la luz es darnos cuenta de que ya estamos siempre en medio y que la propia materia y el espacio son límites trascendentales.

Finalmente, decir que los planetas o los electrones orbitan sus centros por autointeracción sólo puede entenderse como que la relación entre la materia y el medio parece reflexiva simplemente porque ambos no están separados.

Separación y reflexividad son ambas apariencia tanto en el sujeto como en el objeto, y es inútil querer adherirse a una parte queriendo negar la otra, como la ciencia ha pretendido. La inteligencia y el ser coinciden —al menos desde el punto de vista de la inteligencia, puesto que ésta es incapaz de percibirse a sí misma. Esta reflexividad, esta inteligibilidad, es el mismo plano de la síntesis universal. Pero esto también tiene una traducción física. La evolución de un vórtice en seis dimensiones en las coordenadas de Venis podrían ser un buen ejemplo de intersección del naturalismo con el plano trascendental.

Estas ideas las puede aplicar uno mismo tanto al conocimiento mediato como al inmediato de la naturaleza. Desde el punto de vista operativo y formal, todo el conocimiento observable de la física se puede incluir en el principio de equilibrio dinámico. Pero desde el punto de vista de la cognición inmediata, apenas puede uno sostenerse en la contemplación del instante sin la inercia —hasta tal punto esa bola que rueda ha capturado nuestra idea subjetiva de la sucesión. Sin embargo, estos principios, que ahora nos resultan mucho más exigentes desde el punto de vista intuitivo, puesto que están mucho más llenos de contenido, no se basan en la separación de la naturaleza y por lo mismo hacen menos necesaria su forzada “unificación” por el hombre.

Verdaderamente, ese plano trascendental es aquel en que la trascendencia con respecto a la naturaleza y su regreso a ella coinciden —pero en verdad la única naturaleza que aquí se trasciende es la relativa a la inercia de los hábitos, lo que llamamos nuestra “segunda naturaleza”. Aquí podríamos decir con Raymond Abellio: “La percepción de relaciones pertenece al modo de visión de la conciencia “empírica”, mientras que la percepción de proporciones forma parte del modo de visión de la conciencia “trascendental” [64].

Pero, por supuesto, en la ciencia moderna apenas hay proporciones, porque todas las unidades que manejamos son un amasijo heterogéneo e ininteligible de cantidades —por eso se las confiamos cada vez más a los ordenadores y sus programas para que “trituren” los datos.

El término “trascendental” sólo puede tener significado para aquellos que se ocupen de lo inteligible del conocimiento, no para aquellos que simplemente se contentan con su formalización para obtener predicciones. Sin embargo, aquí lo estamos haciendo descender al núcleo mismo de los principios físicos y de esa eterna incógnita que llamamos causalidad; y esto puede hacerse no sólo de forma cualitativa, sino igualmente cuantitativa.

Ningún físico o matemático necesita creer en la existencia del plano complejo o las variedades complejas, por más aconsejable que pueda ser revisar sus fundamentos; menos aún se nos podría pedir que probemos la existencia de un plano de síntesis trascendental, puesto que la palabra “trascendental” significa que es la condición del conocimiento. El movimiento se demuestra andando, y el conocimiento, comprendiendo.

Además, hablar de la “existencia” de semejante plano con relación al mundo de objetos y medidas no sólo está fuera de lugar sino que invierte por completo la situación. Decía Santayana que las esencias son “lo único que la gente ve y lo último que nota”; desde una perspectiva acorde con lo que ya hemos dicho, y que desde luego poco tiene que ver con las habituales narrativas y cosmologías, la entera experiencia es una transición entre una materia incognoscible pero medible y un espacio diáfano al conocimiento pero inmensurable. La existencia misma es ese proceso de despertar, pero con ritmos disímiles para todo tipo de sistemas y entidades.

Esta nuestra condición “entre el Cielo y la Tierra”, entre lo diáfano y lo mensurable, no es una mera acotación filosófica o poética, sino que determina la gama entera de nuestras posibilidades de conocimiento, que empezaron por los actos de contar y medir, de la aritmética y la geometría, y que se han ido complicando sucesivamente con el cálculo, el álgebra y todo lo demás hasta llegar hasta aquí. Y no sólo podemos ver que la determina, sino apreciar que existe siempre una doble corriente, una doble dirección, descendente y ascendente.

Tampoco hay creer que este plano de las esencias se reduzca al aspecto matemático; por el contrario éste es sólo una expresión posible de una infinidad de modalidades. En nuestra época hemos llegado a creer que la complejidad sólo existe en los números, los ordenadores y los modelos, pero la riqueza de los fenómenos siempre ha sido infinita, independientemente de cualquier cuantificación. También nuestras percepciones, como nuestros pensamientos, son una parte fugaz del absoluto.

*

La tecnociencia es un continuo de práctica y teoría que dicta lo que parece admisible para ambas. Por otra parte, no son las ideas las que determinan nuestras acciones, sino que es lo que hacemos y lo que queremos hacer lo que determina nuestras ideas.

Para la tecnociencia actual, que la inteligencia esté totalmente separada de la naturaleza es condición indispensable para recombinar todos los aspectos de la naturaleza a nuestro antojo: átomos, máquinas, moléculas biológicas y genes, la interfaz entre cualquiera de ellos bajo el criterio menos restrictivo posible de la información.

Pero garantizar esta separación de dominios para poder manipularlos con toda libertad exige, como hemos visto, principios innecesariamente restrictivos, como se advierte ya en la física fundamental, que es también el plano fundante de nuestro comercio con la naturaleza en general.

Reintegrar la inteligencia a la unidad del ser es absolutamente contrario al principio liberal de separación arbitraria para poder unir y recombinar a su antojo. La mera posibilidad de una inteligencia en la naturaleza amenaza de cortocircuito a la propia inteligencia separadora que se ha erigido en árbitro supremo.

Y sin embargo, ya lo hemos visto, la idea de que hay realimentación en la órbita de un planeta o un electrón es menos contradictoria que el predicado habitual de que estamos ante una bala de cañón atrapada en un campo. De hecho no es contradictoria en absoluto: sólo es absolutamente desconcertante, además de inconveniente.

Queremos ver por un lado una inteligencia separada, y por otro una materia completamente inerte, y entre ambas ficciones, la evidencia de una conciencia perfectamente impersonal, preindividual y sin cualidades se hace del todo inconcebible.

Tampoco tiene nada de extraordinario que los cuerpos aparentemente heterogéneos busquen el equilibrio con el medio homogéneo del que han salido y que no puedan hacerlo sin su concurso. El aspecto particular de este equilibrio es indiscernible de la inteligencia de esa entidad o sistema, que no puede dejar de participar de la inteligencia universal. De no ser por la conexión con ésta, nuestra misma inteligencia sólo existiría subjetivamente para nosotros mismos.

No es extraño, pero es totalmente inconveniente para las prácticas en las que estamos sumidos, para la mezcla horizontal indiscriminada que aspira a disolver todas las barreras naturales.

*

En la inmediata postguerra, en torno a 1948, y a la sombra del proyecto Manhattan y otros programas militares, surgen tres nuevas “teorías” que consolidan el nuevo estilo “algorítmico” de las ciencias: la electrodinámica cuántica con sus interminables ciclos de cálculo, la teoría de la información, y la cibernética o moderna teoría del control. A esto se sumaba, cinco años después, la identificación de la hélice del ADN, que pronto sería reducida igualmente a la categoría de la información.

Salvo por las proezas de cálculo que son su única justificación, la cuantización del campo electromagnético era una empresa superflua a nivel teórico que nada nuevo añadía a las ecuaciones conocidas. Lo gracioso es que sus promotores tuvieran que estar ahuyentando términos como “autointeracción” y “autoenergía” que continuamente les saltaban a la cara. Además de lo indeseable de estos términos para una teoría que se precie de fundamental, en física se supone que cualquier retroalimentación sólo puede aumentar los efectos no lineales.

Así, mientras la física fundamental luchaba a brazo partido por conjurar la idea de retroalimentación, la cibernética tenía que asumir que ésta es una propiedad emergente de seres con organización compleja, constituidos a su vez por bloques “fundamentales”. Simultáneamente, la teoría de la información pirateaba una versión paralela de la entropía mecánico-estadística de Boltzmann, en lugar de la entropía irreversible de la termodinámica. Cuestionar la herencia del pasado hubiera estado fuera de lugar, así que los teóricos se contentaron con generalizar procedimientos heurísticos, y no podía ser de otro modo puesto que el continuo ciencia-tecnología no demanda otra cosa.

Hemos visto que nuestra misma idea de la mecánica celeste, del cálculo y de la interpretación mecánico-estadística de la Segunda Ley están basadas en flagrantes racionalizaciones —por no hablar de desarrollos más recientes. Incluso la explicación del funcionamiento de nuestro corazón se basa en una racionalización que intenta ignorar la monumental evidencia del papel de la respiración en la dinámica global de la circulación de la sangre.

La única razón por la que mantenemos estos espejismos es porque reafirman nuestra idea de que tenemos una inteligencia separada, a la vez que justifica nuestra intervención indiscriminada en la naturaleza, una naturaleza que muy convenientemente se quiere reducir a leyes ciegas y procesos aleatorios. A los hombres de ciencia les parece chocante como mínimo hablar de lo trascendental en el conocimiento pero todo el conocimiento científico moderno se basa en un yo que se pretendía trascendental, y que finalmente se hizo trivial.


From the Book of Changes to the Algebra of Conscience, through technical analysis

In his splendid book on Harmony Mathematics, Alexey Stakhov devotes a section to Vladimir Lefebvre’s mathematical theory of decision and strategic interaction, which, unlike other developments in this area such as the much-hyped game theory, includes an intrinsic behavioral and moral component [62].

Everything starts from the observation that if someone is asked to divide a pile of string beans into two piles of bad and good ones, oddly enough the average result is not 50%-50% as expected, but 62%-38% in favor of those considered good.

According to Lefebvre, what lies at the bottom of this asymmetric perception is a triple gradation of definable logical implications within a binary logic or Boolean algebra:

A [a0consciousness→a1reflection→a2intention]

consciousness being the primary field, reflection the secondary level and intention a reflection of second order.

Within this structure of human reflexion, the personal evaluation of behavior implies, by logical implication, a self-image:
A= a0a1a2 ; A=(a2→ a1)→ a0.

The subsequent truth table gives us an asymmetric sequence of 8 possible values, 5 being a positive estimate and 3 a negative one. Naturally, 8, 5 and 3 are adjacent numbers in the Fibonacci series.

The extraordinary thing about the logical framework of ethical cognition created by Lefebvre is that, inadvertently, it allows a completely modern interpretation of the Book of Changes without distorting its sapiential and moral nature. It is not something that we are going to prove here, but given the deep influence of Yi Jing in the history of Chinese culture, it would be of utmost interest to look for a rigorous correspondence between both views.

Undoubtedly, Lefebvre’s framework is more formalized, and more focused on the image that the individual agent has of himself, than on the situation or critical juncture, as is the case with the Yi Jing; in fact, we could say that Lefebvre’s formalization is a Boolean and measurable limit for interactions with a low number of individual agents, but even then the correspondence remains intact and can lead to much broader and impersonal degrees of involvement, and therefore, of understanding.

*

Stakhov devotes another section to Elliott’s technical wave analysis, a tool also based on the Fibonacci series. The theoretical scope of Elliott waves is limited at best, even if its fractal-type analysis can be applied discretionally. But here we want to point out a much deeper methodological issue.

Lefebvre’s model shows us that these series have, or at least admit, a reflexive component —in fact his work has been qualified as a reflexive theory of social psychology. And that reflective component is precisely what is most missing in Elliott’s model. There is also a reflexive theory of the economy and the market, with positive and negative feedback cycles; this theory is not without merit, if we compare it, for example, with the hypothesis of the efficient market, which, even if it were not false, would always be incapable of telling us anything. Moreover, the reflexive theory does not only affect prices, but also the fundamentals of the economy.

Economic reflexivity is a model of self-interaction, as it is also of self-image, and this decisive element in human affairs can never be dispensed with, even if it is impossible to quantify it. But what happens when self-interaction runs through the whole behavior of natural systems? Let us think, for example, of the case of the pulse analysis we have mentioned, a transparent model of self-interaction, which, as a bonus, tends towards golden ratios in rhythm and pressure. But it is clear that in social systems reflexivity passes through the knowledge of an external situation, while in an organic system reflexivity is a pure question of action.

How much room does one type of reflexivity leave for the other? How far can the perception of the markets be manipulated? Today we also see that central banks have an undisguised and unabated intervention in prices, injecting money discretionally and becoming guardians of the financial bubbles. Well, the analysis of the pulse, the transformation of its modalities, and the study of the limits of conscious manipulation through biofeedback are giving us a good match or at least some sort of reference for this elusive problem. And if we want more intensive methods, besides the quantitative implications that all this already have, we can also apply to monetary flows CPUs models like that of the triangular flow-efficiency-size feedback that we commented on earlier.

*

In The Algebra of Conscience, Lefebvre made a comparative analysis of the Western and Soviet ethical context within the framework of the Cold War confrontation [63]. The W-system of the United States believed that the compromise between good and evil was bad, and that the confrontation between good and evil was good. The S-system of the Soviet world, on the contrary, believed that the compromise between good and evil was good and the confrontation between good and evil was bad —what Lefebvre does not say, as it goes beyond his formal analysis, is that the desire for confrontation of the W system was not based on any moral idiosyncrasy but on the essential expectation of further expansion; just as the desire of the S system to avoid confrontation was based on the fear of disappearing.

At any rate, from the choices and implications between commitment and confrontation, four basic attitudes emerge, that of the saint, the hero, the philistine and the dissembler: the saint embraces suffering and guilt to the maximum; the philistine wants to diminish suffering but may feel acute guilt; the hero minimizes his guilt but not his suffering; and the dissembler minimizes suffering and guilt.

Maybe we could have created 8 types instead of 4, in consonance or dissonance with 8 other scenarios or natural tropisms, with two more third grade binary implications or a single sixth grade one. Logic and calculus serve to ascend this ladder and understanding begins where calculus ends. Thus, the continuous proportion would show us in a very direct way its role of mediator between the discrete and the continuous, the digital and the analogical.

In reality we have here an unsuspected Centaur, namely, a halfway point between binary formal logic and the dialectical logic as in Hegel. But the proof that this is something genuine, and not a mere theoretical construct, is that it has a built-in asymmetry that is a distinctive feature of Nature. We could call it an asymmetrical logic of implication.

It has been said that Lefebvre’s theory was used at the highest levels of negotiation during the collapse of the Soviet Union; and here we will not go into judging what positive or negative role it might have had, and for whom. In any case, its framework only covers two agents, and not the scenario or juncture that may dispose of them. Yi Jing’s framework can serve not only to see how I perceive myself in the world, but also to evaluate how the world perceives me; in the end, both are parallel illusions. One could say that asymmetric perception is part of the same reality; a double asymmetry better embraces the implications and the unnoticed axis of the dynamics of a situation.

Surely one could make a great parlor game out of these arguments. More interesting, however, is the study of moral or social conscience through the analysis of its implications. And even more interesting is the awareness of how the external situation, for which we are always looking for an image, interpenetrates with the changing image we make of ourselves, forming both a momentary map of our situation and conscience.

One can only guess that Lefebvre knows the text of the Yi Jing; however it is evident that the line of his reasoning is completely independent from the Chinese classic and he has arrived at his “positional system” of moral consciousness starting from the Western logical and mathematical tradition. If he had had just a glimpse of the Taijitu with the golden section embedded, the immediate association would have shine in his mind. In the coming years we may witness many new associations of this kind induced by the evolving environment.

Del Libro de los cambios al álgebra de la conciencia, pasando por el análisis técnico

En su espléndido libro sobre la Matemática de la Armonía, Alexey Stakhov dedica una sección a la teoría matemática de la decisión e interacción estratégica de Vladimir Lefebvre, que a diferencia de otros desarrollos en este área como la tan promocionada teoría de juegos, incluye un intrínseco componente conductual y moral [62].

Todo parte de la observación de que, si a alguien se le pide que separe alubias verdes buenas y malas en dos montones, la probabilidad del número final de alubias no se reparte en una proporción 50%—50%, sino en una 62%-38% a favor de las consideradas buenas.

Según Lefebvre, lo que hay al fondo de esta percepción asimétrica es una triple gradación de implicaciones lógicas definibles dentro de una lógica binaria o álgebra booleana:

A [a0conciencia→a1reflexión→a2intención]

siendo la conciencia el campo primario, la reflexión el secundario y la intención una reflexión de segundo orden.

Dentro de esta estructura de la reflexión humana, la evaluación personal de la conducta comporta, por implicación lógica, una autoimagen:
A= a0a1a2 ; A=(a2→ a1)→ a0.

La tabla de verdad subsiguiente nos da una secuencia asimétrica de 8 posibles valores, con 5 con una estimación positiva y 3 con una negativa. Naturalmente, 8, 5 y 3 son números adyacentes de la serie de Fibonacci.

Lo extraordinario del marco lógico de cognición ética creado por Lefebvre es que, sin que él mismo parezca haberlo notado, permite una interpretación completamente moderna del Libro de los Cambios sin desvirtuar su índole sapiencial y moral. No es algo que aquí vayamos a probar, pero dada la profunda influencia del Yi Jing en la historia de la cultura china, sería del máximo interés buscar la correspondencia rigurosa entre ambas visiones.

Sin duda el marco de Lefebvre está más formalizado, y más enfocado en la imagen que el individuo o agente tiene de sí mismo, que en la situación o coyuntura, como es el caso del Yi Jing; en realidad podríamos decir que la formalización de Lefebvre es un límite booleano y mensurable para interacciones con el menor número de individuos, pero aún así la correspondencia se mantiene intacta y se puede llevar a grados mucho más amplios e impersonales de implicación, y por tanto, de comprensión.

*

Stakhov le dedica a continuación un apartado al análisis técnico bursátil de ondas de Elliott, que como se sabe también se fundan en las series de Fibonacci. El alcance teórico de las ondas de Elliott es, en el mejor de los casos, limitado, por más que su modalidad de análisis fractal pueda aplicarse a discreción. Pero aquí quería apuntar a una cuestión metodológica mucho más profunda.

El modelo de Lefebvre nos muestra que estas series tienen, o al menos admiten, un componente reflexivo —de hecho su trabajo se ha calificado como una teoría reflexiva de la psicología social. Y ese componente reflexivo es justamente lo que más se echa en falta en el modelo de Elliott. Existe también una teoría reflexiva de la economía y el mercado, con ciclos de feedback positivos y negativos; esta teoría no carece de mérito, si la comparamos por ejemplo con la hipótesis del mercado eficiente, que, aun si no fuera falsa, siempre será incapaz de decirnos nada. Además, la teoría reflexiva no afecta sólo a los precios, sino también a los fundamentos de la economía.

La reflexividad económica es un modelo de autointeracción, como lo es también de autoimagen, y nunca se podrá prescindir de ese decisivo elemento en los asuntos humanos, aunque sea imposible de cuantificar. ¿Pero qué ocurre cuando la autointeracción atraviesa la conducta de los sistemas naturales? Pensemos por ejemplo en el caso del análisis del pulso que hemos mencionado, que es un modelo clarísimo de autointeracción, y que, como bonus, tiende a ratios áureas en el ritmo y la presión. Pero está claro que en los sistemas sociales la reflexividad pasa por el conocimiento de una situación externa, mientras que en un sistema orgánico la reflexividad es una pura cuestión de acción.

¿Cuánto espacio le deja un tipo de reflexividad a la otra? ¿Hasta dónde puede manipularse la percepción de los mercados? Hoy vemos además que los bancos centrales intervienen sin el menor disimulo en los precios, inyectando dinero a discreción y convirtiéndose en guardianes de las burbujas financieras. Pues bien, el análisis del pulso, la transformación de sus modalidades, y el estudio de los límites de la manipulación consciente a través del biofeedback nos están dando lo más cercano que hay a un marco cualitativo para estudiar ese inasible problema. Y si, además de las implicaciones cuantitativas que todo esto ya tiene, se desean métodos más intensivos, también es posible aplicar a los flujos monetarios modelos con CPUs como el de la realimentación triangular de flujo-eficiencia-tamaño que comentábamos anteriormente.

*

En El álgebra de la conciencia Lefebvre hacía un análisis comparativo del contexto ético estadounidense y soviético dentro del marco de confrontación de la guerra fría [63]. El sistema W del mundo occidental cree que el compromiso entre el bien y el mal es malo, y que la confrontación entre el bien y el mal es buena. El sistema S del mundo soviético, por el contrario, creía que el compromiso entre el bien y el mal es bueno y la confrontación entre el bien y el mal es mala —lo que no dice Lefebvre, porque va más allá de su análisis formal, es que el afán de confrontación del sistema W no se basaba en ninguna idiosincrasia moral sino en la imprescindible expectativa de seguir creciendo; del mismo modo que el deseo de evitar la confrontación del sistema S se basaba en su miedo a desaparecer.

En cualquier caso, de las opciones e implicaciones entre el compromiso y la confrontación surgen cuatro actitudes básicas, la del santo, el héroe, el filisteo y el hipócrita: el santo lleva al máximo el sufrimiento y la culpa; el filisteo quiere disminuir el sufrimiento pero puede sentir una aguda culpa; el héroe minimiza su culpa pero no su sufrimiento; y el hipócrita minimiza el sufrimiento y la culpa.

Podríamos haber creado 8 tipos en lugar de 4, en consonancia o disonancia con otros 8 escenarios o tropismos naturales, con dos implicaciones binarias más de tercer grado o una única de sexto grado. La lógica y el cálculo sirven para ascender esta escalera y la comprensión empieza donde acaba el cálculo. Así, la razón áurea nos mostraría de forma muy directa su rol de mediador entre lo discreto y lo continuo, lo digital y lo analógico.

En realidad tenemos aquí un insospechado Centauro, a saber, un punto medio entre la lógica formal binaria y la lógica dialéctica entendida a la manera de Hegel. Pero la prueba de que se trata de algo genuino, y no una mezcla arbitraria, es que incorpora “de fábrica” una asimetría que es un rasgo inequívoco de la naturaleza. Podríamos llamarlo una lógica asimétrica de la implicación.

Se ha dicho que la teoría de Lefebvre fue usada a los más altos niveles de negociación durante el colapso de la Unión Soviética; y aquí no entraremos a juzgar qué rol positivo o negativo pudo tener, y para quién. En cualquier caso su marco sólo abarca a dos agentes, y no al escenario o coyuntura que puede disponer de ellos. El marco del Yi Jing puede servir no sólo para ver cómo uno se ve en el mundo, sino también para ver cómo el mundo lo percibe a uno; a fin de cuentas se trata de ilusiones paralelas. Se diría que la percepción asimétrica forma parte de la misma realidad; una doble asimetría abraza mejor las implicaciones y el eje inadvertido de su dinamismo.

Sin duda se podría hacer un gran juego de mesa o de salón con estos argumentos. Más interés tiene, sin embargo, el estudio de la conciencia moral o social por el análisis de sus implicaciones. Y mayor interés aún tiene el tomar conciencia de cómo se interpenetran la coyuntura externa, para la que siempre buscamos imagen, con la cambiante imagen que nos hacemos de nosotros mismos, formando ambos un mapa momentáneo de nuestra situación y conciencia.

Es de suponer que Lefebvre conoce el texto del Yi Jing; sin embargo es evidente que la línea de sus razonamientos es del todo independiente del clásico chino y ha llegado a su “sistema posicional” de la conciencia moral partiendo de la tradición lógica y matemática occidental. Le hubiera bastado con ver por un segundo el Taijitu con la razón áurea entre el yin y el yang para que la chispa saltara en su mente. En los próximos años podemos asistir a otras muchas conmixtiones de este género inducidas por un cambio de contexto.

Individual evolution of an entity

The so-called “new synthesis” of the theory of evolution has never had the least predictive power, but neither has any descriptive power, and like cosmology, it has been used mostly as a narrative complement for normative physical laws unable to connect with the real world and the real time in the most decisive sense.

To alleviate the evident limitations of a theory that only through phantasy can have some contact with natural forms —and let us not underestimate the power of fantasy in this instance-, evolution has been combined with the perspective of biological development (evo-devo), and even with ecology (eco-evo-devo), but even then it has not been possible to create a moderately unitary framework to describe problems such as the emergence, maturation, aging and death of organized beings.

There is no need to call all this by any other name than evolution without further ado, since the present theory has only taken over the name to deal with speculative and remote issues, rather than with close and fully approachable problems.

What determines the aging and death of individual organisms and societies? This is a real evolution problem that takes us closer to the real time.

Astrophysicist Eric Chaisson has observed that the energy rate density is a much more decisive and unequivocal measure for complexity metrics and evolution than the various uses of the concept of entropy, and his arguments are fairly straightforward and convincing [60]. In any case it would be desirable to include this quantity in a context better articulated with other physical principles.

Georgiev et al. have attempted to do so by establishing a feedback loop between this energy flow, the physical principle of minimum action understood as efficiency or as movement along paths with less curvature or restriction, and a quantitative principle of maximum action; that is, with the “metabolic” energy flow per mass mediating between efficiency and size, applying it experimentally to CPUs as organized flow systems [61]. When these flow-efficiency-size vertices are connected in a positive feedback loop, an exponential growth of all three is produced and power-law relations between them arise. Although this model admits many improvements and can be illustrated in very different ways, it seems on the right track.

Since the basic problem of aging is the increasing restriction and the inability to overcome it, and any theory not addressing this fundamental issue cannot make a dent in the subject. Another way of saying the same is that organic aging is the increasing inability to eliminate. Aging is irreversibility, and irreversibility is the increasing incapacity to be an open system.

Let us think a bit about this. Something as basic and elementary in physics as the principle of least action is capable of telling us something absolutely essential about aging: to understand the real value of this we only have to know how to apply global measurements in the context of open systems with a variable use of the available free energy.

The theoretical advance in this field is infinitely more feasible than in the modern synthesis and infinitely more relevant, since here it is no longer a question of species, but of the destiny and individual evolution of any spontaneous organization, be it a vortex or a soliton, a human being or a civilization; to a large extent it affects even the Lamarckian evolution of machines and computers with a definite design and purpose.

The energy rate density is a measurable, unambiguous quantity, profoundly significant from a cosmic perspective, and can also have a bearing on bringing down to earth unmanageable entropy criteria. Naturally, the flow-curvature-size criterion can be contrasted with the flow-curvature-entropy criterion, whether the latter is maximum or not.

This threefold flow density-curvature-size criterion can be applied fruitfully to contexts where flow is the decisive factor, be it in strongly quantitative models like the monetary flows, or in purely qualitative models of vortices evolving between expansion and contraction such as the one proposed by Venis. It can be applied even to the circle of individual destiny, suggesting a clock of its evolution, which in today’s terminology many would call an aging clock.

Evolución individual de una entidad

La presente síntesis de la teoría de la evolución nunca ha tenido el menor poder predictivo, pero tampoco ha tenido poder descriptivo, por lo que, como la cosmología, se ha usado mayormente como complemento narrativo para leyes físicas sin ningún espesor temporal en el más decisivo de los sentidos.

Para paliar las evidentes limitaciones de una teoría que sólo gracias a la fantasía puede tener algún contacto con las formas naturales —y no desestimemos el poder de la fantasía en un campo como éste-, la evolución se ha combinado con la perspectiva del desarrollo biológico (evo-devo), y aun con la ecología (eco-evo-devo), pero ni aún así se ha podido crear un marco medianamente consistente o unitario para describir problemas como la emergencia, la maduración, el envejecimiento y la muerte de los seres organizados.

No hay necesidad de llamar a todo esto por otro nombre que evolución sin más, dado que la presente teoría sólo se ha apropiado de ese nombre para dedicarse luego a tratar cuestiones especulativas y remotas, en lugar de problemas cercanos y plenamente abordables.

¿Qué es lo que determina el envejecimiento y muerte de los organismos y las sociedades? Esto es un problema real de evolución.

El astrofísico Eric Chaisson ha observado que la densidad de la tasa de energía es una medida mucho más decisiva e inequívoca para la métrica de la complejidad y su evolución que los distintos usos del concepto de entropía, y sus argumentos son muy simples y convincentes [60]. En todo caso sería deseable la inclusión de esta cantidad en un contexto mejor articulado con otros principios físicos.

Georgiev et al. han intentado hacerlo estableciendo un bucle de retroalimentación entre dicho flujo de energía, el principio físico de mínima acción entendido como eficiencia o como movimiento a lo largo de los caminos con menor curvatura o restricción, y un principio cuantitativo de máxima acción; es decir, con la densidad de flujo por masa mediando entre la eficiencia y el tamaño, aplicándolo experimentalmente a CPUs como sistemas de flujo organizado [61]. Cuando estos vértices de flujo-eficiencia-tamaño se conectan en un bucle de realimentación positivo se produce un crecimiento exponencial de los tres y surgen relaciones de leyes de potencias entre ellos. Aunque este modelo admite muchas mejoras y puede ilustrarse de formas muy diferentes, parece que apunta en la buena dirección.

Puesto que el problema básico del envejecimiento es la restricción creciente y la incapacidad de superarla, y ninguna teoría que no aborde esto como asunto fundamental puede hacer mella en el tema. Otra forma de decir lo mismo es que el envejecimiento orgánico es la incapacidad creciente para eliminar. Envejecimiento es irreversibilidad, y la irreversibilidad es una incapacidad para seguir siendo un sistema abierto.

Piénsese un poco en esto. Algo tan básico y elemental en física como el principio de mínima acción es capaz de decirnos algo absolutamente esencial sobre el envejecimiento: para darle su debido valor sólo tenemos que saber aplicar medidas globales adecuándolas a sistemas abiertos con un uso variable de la energía libre disponible.

El avance teórico en este campo es infinitamente más factible que en la “síntesis moderna” e infinitamente más relevante, puesto que aquí de lo que se trata no es ya de especies, sino del destino individual de cualquier organización espontánea, ya sea un vórtice o un solitón, un ser humano o una civilización; en buena medida afecta incluso a la evolución lamarckiana de máquinas y ordenadores con un diseño o finalidad asignada.

La densidad de la tasa de energía es una medida cuantitativamente robusta, profundamente significativa desde una perspectiva cósmica, y también puede tener alcance a la hora de llevar a tierra criterios de entropía poco manejables. Naturalmente, el criterio flujo-curvatura-tamaño puede contrastarse con el criterio flujo-curvatura-entropía, ya sea ésta última máxima o no.

Este triple criterio densidad de flujo-curvatura-tamaño puede aplicarse con fruto a contextos donde el flujo es lo decisivo, ya sea en modelos tan fuertemente cuantitativos como el de los flujos monetarios, como en modelos puramente cualitativos de vórtices como el que propone Venis, evolucionando entre la expansión y la contracción. Puede aplicarse incluso al círculo del destino individual, y hace pensar en un reloj de esa evolución, que en la terminología actual muchos llamarían un reloj del envejecimiento.

Tao of Technoscience

The paths in the science-technology continuum may be innumerable but they all presuppose a potential reciprocity between knowledge and application —thus between knowledge and power. And yet we still have no idea of what kind of circle knowledge and power draws on us.

Newton’s celestial mechanics seemed initially far removed from worldly affairs but the unwarranted generalization of his principles to things far removed from human artifacts had the effect of turning the world into a wheelless rolling machine.

Society has taken shape as it becomes isolated from Nature but cannot subsist without a permanent commerce with her which in turn depends more and more on our knowledge of it. Any dominance relationship over Nature is reproduced within society, between some parts that exercise control and others parts subject to this control.

The solar system bound by gravity, or the function of the heart in our blood circulation, have been seen as simply governed by the concept of force in our present world view. Since the middle of the 20th century, stability theory and cybernetics developed a theory of control over these so-called “blind forces”, generalizing a version of entropy that was already far removed from the original thermodynamical context. Now it remains to be seen what twist would result for control theory assuming spontaneous regulation in action principles, in the Second Law and in the collective resonance between elements; as well as in the relationship between these three aspects.

Overcoming reductionism cannot in any way involve last-minute corrections that seek to compensate increasing degrees of abstraction with also increasing degrees of subjectivity for the sake of the inclusion of the observer, be it in statistical mechanics, quantum mechanics or relativity; it involves in any case correcting the gaps in the foundational position, which so far remains unaffected.

But the reciprocity between man and nature goes far beyond anything we suspect, and cannot be encompassed by a mere theoretical turn, however wide or deep it may seem. It is not a matter of looking for an idealized external nature either, since all that is trapped in the human being is also nature.

We do not know and maybe we do not want to live without machines. Can we radically change our relationship with them? Machines, too, are trapped, molded and compressed nature; and while we are forced to depend on them we are routinely trained for obedience. I will now pick up a few paragraphs from a topic I discussed at greater length in Techno-Science and the Laboratory of Self:

“Vico’s principle, which states that knowing is making, is more general than Descartes’. But surely one can also doubt Vico’s principle. I can move my hand, but do I know how I move my hand? Second hand, so to speak, not first hand. Of course making is not doing, except in thinking, and we make machines not to do things directly, and not to directly think. We can then try to introduce into the realm of knowledge-power the duly reformed Vico principle: I only know that in what I take part, and to the extent that I take part.

It is not by calculus, but by the practical arts, that we know the world best. The same concept of efficiency, as economy of effort or elegance, was a natural notion in the art of all cultures before techniques were invaded by stacked layers of scientific mediations; now it would have to be taken out of the bottom of the stack. There is a natural sense of efficiency in any physical activity, in the right intonation, in any gesture or brushstroke.

To move from one area to another, from the functional domain governed by calculus to the intuitive functioning, we can take as example the biological feedback and biofeedback. A signal that corresponds to a vital function can be used to vary it at will, within certain limits of course. However, and this is the important thing, here any notion of manipulation is out of place, as in this context loses all meaning. Even control, with all its vast current theory, is subsumed in the idea of self-control, which far from being a particular case, seems to be the most indefinite and general.

In our ordinary physical control of external objects, the relationship between action and calculus is also reversed. Think of the complicated balance involved riding a bicycle; dynamics can hardly solve the problem by means of centrifugal forces in the case of slow motion, but it gets out of hands in cases with higher speeds. And yet for the cyclist it is just the opposite: speed is the solution, and excessive slowness the problem. Motion is shown by pedalling.

However, within the category of self-control there is more than just cycles of perception and action; there is also self-observation. In the case of biofeedback there are two basic cases, direct monitoring of a function, such as when we observe our breathing and modify it without even intending to do so, and indirect monitoring, either by means of a mirror that returns our image to try to move involuntary muscles or by a device with sensors that translates signals generated by ourselves without being aware of it.

The biofeedback motif may seem very limited as it has hardly transcended the level of a curiosity since its appearance and diffusion fifty years ago. However, it marks a turning point in the relationship between man and the machine. If the most helpful idea in explaining the emergence of tools is that they are extensions or prostheses that project our capacity as organisms, and if we have later recognized that from certain point onwards all harmonious relations between the tool and the organ are lost, here for the first time we use the machine to help us regain consciousness of organic functions that have already sunk below the threshold of attention.

So, if technology came out of the biology of the conscious organism, it is precisely here that it returns to it in the most mediated way possible, and with a somewhat undecided intention. Clearly, the entire cybernetic theory of control would have to return to self-control as its archetype, since this one already incorporates the cycles of perception and action, allowing the right space for the self-consciousness around which they revolve; the automatic is subsumed in self-control, self-control in self-interaction and this in spontaneity.

In spite that gauge fields contain a basic feedback mechanism, the use of the Lagrangian in control theory seems totally secondary, which is a curious situation. Things could change working with Weber-type forces, and also with dissipative, thermomechanical forces, in the sense proposed by Pinheiro. The measure theory would also have to be adjusted to the different requirements of this type of systems.

Today it is said that the double access to perception and action defines an artificial intelligence problem. But a greater field in self-perception and natural intelligence awaits us.