INFORMATION THEORY AND THE ZETA FUNCTION

It has been said that if the Riemann hypothesis were solved, all the keys to cryptography and cybersecurity could be broken; no one has specified how that could lead to faster factorization methods, but at least it reminds us of the close relationship between a hitherto intractable problem, cryptography and information theory.

Such speculations are only based on the fact that the Riemann zeta function establishes a connection between prime numbers and the zeros of an infinitely differentiable function that provides the most powerful method for exploring this field, prime numbers being the basis of classical cryptography. But we have already seen that the zeta is way more than this.

Continuar leyendo “INFORMATION THEORY AND THE ZETA FUNCTION”

LA FUNCIÓN ZETA Y LA TEORÍA DE LA INFORMACIÓN

Se ha dicho que si se resolviera la hipótesis de Riemann, se podrían romper todos las claves de criptografía y ciberseguridad; nadie ha precisado cómo eso podría conducir a métodos más rápidos de factorización, pero al menos nos recuerda la estrecha relación entre un problema hasta hoy intratable, la criptografía y la teoría de la información.

Tales especulaciones sólo se basan en el hecho de que la función zeta de Riemann establece una conexión entre los números primos y los ceros de una función infinitamente diferenciable que brinda el método más potente para explorar este campo, siendo los números primos la base de la criptografía clásica; pero ya hemos visto que la función zeta es mucho más que todo eso.

Continuar leyendo “LA FUNCIÓN ZETA Y LA TEORÍA DE LA INFORMACIÓN”

THE LITTLE FINGER STRATEGY

AGAINST THE TECH TSUNAMI… THE LITTLE FINGER STRATEGY

There is a technological war, but whoever thinks it is only technological has already lost it. Now China seems to have taken the lead over the United States in the fight for control of communication channels, and many would celebrate it were it not for the fact that this 5G is only intensifying what already was a huge wave overflow.

Not only do we oppose the indiscriminate deployment of technologies but, in a now distant article, we even suggested another line of biophysical research to evaluate the impact of electromagnetic radiation on humans and other living beings [1]. It is clear that the big corporations promoting this deployment are only concerned about market shares, but who says that in a few years they will not be sued for damages?

Continuar leyendo “THE LITTLE FINGER STRATEGY”

LA ESTRATEGIA DEL DEDO MEÑIQUE

Frente al tsunami tecnológico

Hay una guerra tecnológica, pero el que crea que es sólo tecnológica ya la tiene perdida. Ahora China parece haberle tomado la delantera a los Estados Unidos en la lucha por el control de los canales de comunicación, y muchos lo celebrarían si no fuera porque esta quinta generación de telefonía no hace sino intensificar lo que ya era a todas luces un exceso.

No sólo nos oponemos al despliegue indiscriminado de tecnologías sino que, en un artículo ya lejano, incluso sugeríamos otra línea de investigación biofísica para evaluar la incidencia de la radiación electromagnética en la salud humana y del resto de los seres vivos [1]. Está claro que las grandes corporaciones que promueven este despliegue sólo están preocupadas por las cuotas de mercado, pero, ¿quién dice que dentro de unos años no puedan ser objeto de gigantescas reclamaciones por daños y perjuicios?

Continuar leyendo “LA ESTRATEGIA DEL DEDO MEÑIQUE”

CHINA IN SPACE AND TIME

From the West, we tend to judge today’s China more by its economic presence and the impact of its material development on the rest of the world than by the internal needs in the development of its history; thus giving an overwhelming priority to the geopolitical perspective over the cultural one, which should have at least a comparable importance.

In fact, it is easy to see that China’s overall impact will depend to a large extent on how well it manages to fit this whole period and the foreseeable future into a historical framework for which it would like as little change as possible. A sense of continuity on a large scale is fundamental to Chinese culture, and in the long term it will always do its best to assimilate and make the origin of foreign influences undetectable. It has already achieved this to a large extent with Marxism and capitalism, which lose so much of their original meaning in translation that it is no longer known whether to call the Chinese system “market socialism” or “state capitalism”.

Continuar leyendo “CHINA IN SPACE AND TIME”

CHINA EN EL ESPACIO Y EL TIEMPO

Desde Occidente, tendemos a juzgar a la China actual más por su presencia económica y el impacto de su desarrollo material en el resto del mundo que por las necesidades internas en el desarrollo de su historia; dando así una prioridad abrumadora a la óptica geopolítica sobre la cultural, que debería tener al menos una importancia comparable.

De hecho, es fácil ver que el impacto global de China va a depender en gran medida de cómo acierte a encajar todo este periodo y el futuro previsible dentro de un marco histórico para el que desearía el menor número de cambios. Para la cultura china el sentido de la continuidad a gran escala es fundamental, y a largo plazo siempre hará cuanto pueda por asimilar y hacer indetectable el origen de las influencias extranjeras. Ya lo ha conseguido en buena medida con el marxismo y el capitalismo, que pierden tanto de su significado original en la traducción que ya no se sabe si denominar al sistema chino “socialismo de mercado” o “capitalismo de estado”.

Continuar leyendo “CHINA EN EL ESPACIO Y EL TIEMPO”

El PACTO DE LOS CACAHUETES

Pero, ¿cuánto vale una hora de trabajo?

Puesto que en las actuales condiciones de choque secundadas por la mayoría de los medios se habla cada vez más del tema de la renta básica, tendría que ser obligado, para empezar, hacer una estimación seria del precio y el valor de las salarios, algo que difícilmente encontraremos en ninguna parte.

En un artículo de hace algunos meses Miles Mathis hacía la siguiente reflexión. El salario mínimo en los Estados Unidos para empleados que reciben propinas, como los camareros, es ahora de 2.13 dólares/hora. Cuando él lo hacía en la Universidad para pagarse los estudios, en 1984, cobraba 2 dólares por hora. Puesto que la inflación real en estos 36 años es de un 300%, lo que antes valía un dólar ahora vale 4. Lo que significa que ahora los camareros cobran aproximadamente 1/4 o una cuarta parte que entonces.

Continuar leyendo “El PACTO DE LOS CACAHUETES”

THE REVOLUTION THAT WILL HAPPEN: CHINA AND THE FUTURE OF TECHNO-SCIENCE

It is being said that this year 2020 could mark the beginning of the Asian Century, or if you prefer, the Chinese Century; though we will not find Chinese analysts among those who claim such things. The authors who insist on this reading of the facts point, for example, to China’s clear leadership in such an strategic sector as 5G, or the imminent arrival of the digital yuan, which could cause the collapse of the dollar hegemony sooner or later. No doubt, China plays for real.

Yet this need for China to do things independently and in its own way is too often interpreted as an aggressive or expansionist policy in the West, without wanting to see that it is the West itself that has created the current rules where the winner takes it all. In the coming years we will not fail to see this rivalry for technological supremacy increasing, with the usual war of accusations and disqualifications led almost exclusively by one side.

But here I want to touch on a much broader subject than that of technological competition that is not receiving the slightest attention. I am referring to the relationship between science and technology to form a whole, what we now call Technoscience. Technoscience is the reciprocal action or continuity existing between the utilitarian applications and the development of the scientific method, between practice and theory, between power and knowledge. Power and knowledge limit each other, but incredibly, modern studies on technoscience, still know nothing about how and on what depends that knowledge and power are self-limiting —in a totally involuntary, spontaneous way.

Continuar leyendo “THE REVOLUTION THAT WILL HAPPEN: CHINA AND THE FUTURE OF TECHNO-SCIENCE”

LA REVOLUCIÓN QUE SÍ OCURRIRÁ: CHINA Y EL FUTURO DE LA TECNOCIENCIA

Ya se empieza a decir que este año 2020 podría marcar el comienzo del Siglo Asiático, o si se prefiere, del Siglo Chino; aunque no encontraremos a analistas chinos entre los que afirman tales cosas. Los autores que insisten en esta lectura apuntan, por ejemplo, al claro liderazgo de China en un sector tan estratégico como la 5G, o la inminente aparición del yuan digital, que podría hacer que tarde o temprano la hegemonía del dólar se derrumbe. De que China juega en serio caben ya pocas dudas.

Continuar leyendo “LA REVOLUCIÓN QUE SÍ OCURRIRÁ: CHINA Y EL FUTURO DE LA TECNOCIENCIA”

PLANDEMIA: MANUFACTURANDO CULPAS

En un artículo reproducido hace poco en Rebelión, Eva Illouz, de la Universidad Hebrea de Jerusalén, presentada a menudo como “una especialista de las emociones”, no pierde el tiempo a la hora de proyectar sospechas y culpas sobre el gobierno y el pueblo chino en la difusión del más famoso de los coronavirus [1].

Ya en el primer párrafo se nos habla de la transmisión zoonótica, el salto de especies animales al hombre, para que no queden dudas de cuál es el origen de todo el asunto. La palabra se repite varias veces, respaldada por la opinión de especialistas norteamericanos tales como Dennis Carroll del CDC, Larry Brilliant o el mismo Bill Gates, y con la inevitable alusión a los famosos mercados al aire libre chinos. Finalmente, en el último párrafo se lanza al aire el cuchillo: “el silenciamiento de la crisis por parte de China hasta enero fue criminal, dado que en diciembre todavía era posible detener el virus”.

Continuar leyendo “PLANDEMIA: MANUFACTURANDO CULPAS”

The religion of prediction and the knowledge of the slave

In calculus, infinitesimal quantities are an idealization, and the concept of limit, provided to support the results obtained, is a rationalization. This dynamics going from idealization to rationalization is inherent to the liberal-materialism or material liberalism of modern science. Idealization is necessary for conquest and expansion; rationalization, to colonize and consolidate all that conquered. The first reduces in the name of the subject, which is always more than any object x, and the second reduces in the name of the object, which becomes nothing more than x.

But going to the extremes does not grant at all that we have captured what is in between, which in the case of calculus is the constant differential 1. To perceive what does not change in the midst of change, that is the great merit of Mathis’ argument; that argument recognizes at the core of the concept of function that which is beyond functionalism, since physics has assumed to such an extent that it is based on the analysis of change, that it does not even seem to consider what this refers to.

Think about the problem of knowing where to run to catch fly balls—evaluating a three-dimensional parabola in real time. It is an ordinary skill that even recreational baseball players perform without knowing how they do it, but its imitation by machines triggers the whole usual arsenal of calculus, representations, and algorithms. However, McBeath et al. more than convincingly demonstrated in 1995 that what outfielders do is to move in such a way that the ball remains in a constant visual relation —at a constant relative angle of motion- instead of making complicated time estimates of acceleration as the heuristic model based on calculus intended [65]. Can there be any doubt about this? If the runner makes the correct move, it is precisely because he does not even consider anything like the graph of a parabola. Mathis’ method is equivalent to put this in numbers.

Continuar leyendo “The religion of prediction and the knowledge of the slave”

La religión de la predicción y el saber del esclavo

En el cálculo, las cantidades infinitesimales son una idealización, y el concepto de límite que se aporta para fundamentar los resultados obtenidos, una racionalización. La dinámica idealización-racionalización es consustancial al material-liberalismo o liberalismo material de la ciencia moderna. La idealización es necesaria para la conquista y la expansión; la racionalización, para colonizar y consolidar el terreno conquistado. La primera reduce en el nombre del sujeto, que siempre es más que cualquier objeto x, y la segunda reduce en nombre del objeto, que se convierte en nada más que x.

Pero irse a los extremos no asegura para nada que hayamos captado lo que queda en medio, que en el caso del cálculo es el diferencial constante. Percibir lo que no cambia en medio del cambio, ése es el gran mérito del argumento de Mathis, que ninguna otra consideración le puede quitar. Ese argumento tiene la virtud de encontrar en el núcleo del concepto de función aquello que está más allá del funcionalismo, pues la física ha asumido hasta tal punto que se basa en el análisis del cambio, que ni siquiera parece plantearse a qué está referido éste.

Piénsese en el problema de calcular la trayectoria de la pelota tras un batazo para cogerla —evaluar una parábola tridimensional en tiempo real. Es una habilidad ordinaria que los jugadores de béisbol realizan sin saber cómo la hacen, pero cuya reproducción por máquinas dispara todo el arsenal habitual de cálculos, representaciones y algoritmos. Sin embargo McBeath et al. demostraron en 1995 de forma más que convincente que lo que hacen los jugadores es moverse de tal modo que la bola se mantenga en una relación visual constante —en un ángulo constante de movimiento relativo-, en lugar de hacer complicadas estimaciones temporales de aceleración como se pretendía [65]. ¿Puede haber alguna duda al respecto? Si el corredor hace la evaluación correcta, es precisamente porque en ningún momento ve nada parecido al gráfico de una parábola. El método de Mathis equivale a tabular esto en números.

Continuar leyendo “La religión de la predicción y el saber del esclavo”

Science and Conscience

We have tried to approach a single subject from the most diverse angles, so that everyone has some possibility of connecting it in the most direct way with his or her own interests. This is a minimal introduction relying on a bibliography that is not at all exhaustive, but necessary to delve into any of the issues presented.

Of course our subject proper was not the continuous proportion, but reciprocity and self-organization in Nature and beyond Nature. The constant φ continues to play a marginal, totally episodic role within modern science, which is mainly focused on calculus.

Thus, our preferential point of view is not so much that of science and objectivity, as that of reciprocity itself, to which I attach more importance; as an attempt to give more importance to the awareness of reality than to science.

And reality itself resembles a parable. We can say that next to unity, sometimes also symbolized by the point, the circle and the constant π, two other great mathematical constants exist from eternity, e and φ. The constant e, the basis of the natural logarithms and the exponential function, perfectly embodies the analytical exhaustiveness of calculus, as if looking towards the plurality of the world. The constant φ, the natural algorithm of a Nature that completely ignores calculus, looks at unity without knowing it. And unity itself, if it is really unity, cannot show a preference for either.

Now, it is clear that in modern science the weight of e is infinitely greater than that of φ, to the point that we could perfectly dispense with φ without even noticing it. The number e refers us to continuity and infinite divisibility; φ refers us to discrete operations without intended purpose —and it should be understood that infinite divisibility is already a human purpose that can always exceed its operational limits. Hence the need to look back to the contradictory basis of infinitesimal calculus.

As it is known, the number e was first identified by Jacob Bernoulli in 1683 in a problem of compound interest, and is absolutely consubstantial with the modern spirit of calculus with all that it entails. The continuous proportion has undoubtedly a much older past but, in the eyes of the moderns, it is hard to see how it could have played a relevant role in the knowledge of antiquity. Euler’s number is at the base of so-called advanced or superior mathematics, while the number closest to the muses cannot ever deny the elemental character of its origin —which is also its greatest charm. Surely this is the reason for its permanent popularity among amateur mathematicians.

But this undeniable circumstance hides another naivety on the part of the spirit of calculus that we should learn to appreciate. It is well known that people like Stevin or Newton still believed that ancient cultures could have had broader knowledge than their contemporaries; if mathematicians like them still dared to think that, it must surely be attributed to the incomparable impact that the legacy of Apollonius and Archimedes —the most advanced mathematicians of antiquity – had at that time.

But this already presupposed a totally biased idea about what was advanced in knowledge, which has been perpetuated until today.

It is said that the amount of knowledge regularly doubles every 15 years since the scientific revolution, which implies that today our knowledge of physics and mathematics is four million times greater than in 1687, when the Principia were published. Yet this magnum opus is already an obscure, hard to read treatise that has been and continues to be routinely misinterpreted even by the best experts.

Let us try to understand four million Principia. We do not walk on the shoulders of giants, the giants advance on our shoulders, although less and less, as it is easy to understand. And the logic of accumulated capital is that accumulated capital does not take risks. The theory of relativity and other “revolutions” were adopted following the principle of minimum elimination and maximum conservation of capital. The whole exacerbated search for novelty in theoretical physics is nothing but the enforced headlong rush because it is not allowed to really examine the foundations. But the less one eliminates, and the less one renews the foundation, the more inexorably one ages.

Obviously the stratification of knowledge and the branching of specialities follows the logic of continuous interest and accumulated capital and debt.

It is really curious that two constants as ubiquitous as e and φ, the “two natural fractals”, cross so little of each other’s paths in a field as unlimited but redundant as mathematics. So curious, that the study of the points of contact and divergence of both constants should be an area of mathematical research in its own right, full of interest for both pure and applied mathematics. If this has not happened yet, is because of the one-sided development of all sciences and mathematics on the side of calculus and prediction, putting the rest of the resources at their service.

It is understandable that there is, among many mathematicians, a typical allergic reaction to the questions raised by the continuous proportion and the mathematics of harmony. They are seen more as a hindrance than as a guide, since they might imply some sort of discrete, constructive limits to an analysis for which no restriction is wanted. Nothing should measure the one who measures.

It seems that at the time of the emergence of writing and the first great cities, the priests kept the standards of measurement in the temples. But Nature is the perfect temple that keeps everything without hiding anything.

We have said that φ seems to be “the natural algorithm” of a Nature that does not care in the least about calculus. But not having any system of calculus and measurement is, in a sense, equivalent to having all of them and surpassing them all; in the same way that nature’s lack of intention infinitely surpasses human purposes. So, the value of this branch of mathematics for the theory of measurement and computation should be out of the question. It is a matter of identifying relevant problems in the domain of interdependence.

In just over three centuries we have had at least five great cuts with the constructive and proportional conception of measurement: the infinitesimal calculus and Newton’s classical mechanics, Maxwell’s theory, set theory, relativity and quantum mechanics. With each of these successive steps, the problem of measurement has become more and more critical and controversial. But it is absolutely superficial to think that only the latest developments count and that measure theory itself is just an aid to our predictions. This is exactly how this tower of Babel was built.

*

The interest of the continuous proportion would go beyond our modern involvement in complexity and calculus. In this area, new discoveries are always possible even at the elementary level that are so unexpected that we do not even know how to value them. Moreover, its persistent appearance in music —that unconscious arithmetic, as Leibniz said-, in physiological rhythms and anatomical sequences indicates not only an intuitive, but, ultimately, pre-numerical character.

There is here a great open track not only for the archaeology of knowledge, but for the very activation of an ancient knowledge that seems inconceivable to us today. In the Book of Changes we may see an asymmetric implication algebra. The six lines of a hexagram correspond to the six directions of space at the ends of its three axes, which oppose an I and its circumstance. But here the symmetry of the coordinates is only the external and passive frame, it is the asymmetry what constitutes the internal dynamic spring in which agent and situation interpenetrate.

The Book of Changes is the best possible example of an analogical knowledge that does not depend on calculus, and towards which a certain natural logic of implication converges. What is important is not the 64 cases or the 384 lines, but the plane of synthesis towards which they point.

If mathematical analysis has its so-called complex plane to operate with any number of dimensions or variables, one can equally conceive an implication logic that is capable of reducing any number of variables to an equally intangible plane of synthesis, which we will call the plane of universal synthesis or universal inclusion.

Of course, in this day and age anyone who hears of “universal inclusion” can only think of universal confusion. That is why we have developed the analysis, because we do not believe in knowledge that is not properly formalized. However, the development of formalization has not contributed to greater intelligibility, but rather the opposite. For us, formal knowledge increasingly projects more shadows than light; shadows we know too well are cast by ourselves. Shadows of power over natural or social processes.

The whole philosophy of the West since Descartes is based on the idea of a separate intelligence. That is why the successive cuts that come one after another since Newton do not seem a loss to us, since in this line of logic, more separation from Nature amounts to more self-affirmation. But any process has its limit, and when there is nothing left to assert oneself about —because Nature vanished- everything stops making sense, except for the mere exercise of power, which lacks intrinsic stimulus for knowledge.

Besides, the golden age when the field of fundamental predictions was growing is now far behind us. It will not return, for the simple reason that everything was optimized for predictions and all the low hanging fruit is already picked. One can only scrape out diminishing returns in the ugly struggle with complexity. Yet modern science finds it almost impossible to examine its foundations, which is the only thing where there could be real novelty; we have the great advantage of our historical perspective, but the very existence of the specialities depends on not reflecting on foundations.

Modern science is not capable of dealing with either transcendence or immanence; for as subjects we cannot separate ourselves anymore, nor does we know how to see things again from within Nature.

Now, if we look back as we have done, only reordering our perception of the present theories, what does it mean to dispense with the principle of inertia? What is the point of saying that everything is based on self-interaction? What is the point of saying that the only thing we perceive is the Ether?

These are transcendental statements, in the sense that the father of phenomenology, Edmund Husserl might have given them, had he dealt with physics. However, to suspend the principle of inertia ends with the false idealism of physics, such a fecund contradiction that isolates a ball that rolls from the rest of the world except from ourselves. To realize that we only perceive the Ether, because we only perceive in the mode of light, is to realize that we are always right in the middle and that matter and space themselves are transcendental limits.

Finally, to say that the planets or the electrons orbit their centers by self-interaction can only be understood in the sense that the relationship between matter and the medium appear to be reflexive just because both are not separate.

Separation and reflexivity are appearances both for the subject and the object, and it is useless to adhere to one part trying to deny the other, as science has attempted. Intelligence and being coincide —at least from the point of view of intelligence, since this one is incapable of perceiving itself. This reflexivity, this intelligibility, is the plane of universal synthesis itself. But this has also a physical translation. The evolution of a vortex in six dimensions in Venis coordinates could be a good example of the intersection of a naturalistic view with the transcendental plane.

These ideas can be applied to both the mediate and immediate knowledge of Nature. From the operational and formal point of view, all observable knowledge of physics can be included in the principle of dynamic equilibrium. But from the point of view of immediate cognition, one can hardly sustain oneself in the contemplation of the instant without inertia —to such an extent that ball rolling in the void has captured our subjective idea of succession. However, these principles, which seem now much more demanding from the intuitive point of view, since they are much more full of content, are not based on the separation of nature and therefore make their forced “unification” by man less necessary.

Truly, that transcendental plane is the one in which transcendence with respect to Nature and its return to it coincide —but in truth the only nature that is transcended here is that relative to the inertia of habits, what we call our “second nature”. Here we could say with Raymond Abellio: “The perception of relationships belongs to the mode of vision of the “empirical” consciousness, while the perception of proportions is part of the mode of vision of the “transcendental” consciousness” [64].

But, of course, in modern science there are hardly any proportions, because all the units we handle are a heterogeneous and unintelligible jumble of quantities —that’s why we rely more and more on computers and their programs for data crunching.

The term “transcendental” can only have some meaning for those who deal with the intelligibility of knowledge, not for those who are simply content with its formalization to obtain predictions. However, here we are making it descend to the very core of physical principles and of that eternal unknown we call causality; and this can be done both in a qualitative and a quantitative way.

No physicist or mathematician needs to prove the existence of the complex plane or the complex manifolds, however advisable it may be to review its foundations; much less could we prove the existence of a transcendental plane of synthesis, since the word “transcendental” means that it is the condition of knowledge. Motion is shown by walking, and knowledge by understanding.

Moreover, to speak of the “existence” of such a plane in relation to the world of objects and measurements is not only out of place but completely reverses the situation. Santayana said that essences are “the only thing that people see and the last thing they notice”; from a perspective in line with what we have already said, and which of course has little to do with the usual narratives and cosmologies, the entire experience is a transition between an unknowable but measurable matter and a space that is diaphanous to knowledge but immeasurable. Existence itself is that process of awakening, but with dissimilar rhythms for all kinds of systems and entities.

This our condition “between Heaven and Earth”, between the diaphanous and the measurable, is not a mere philosophical or poetic remark, but it determines the whole range of our possibilities of knowledge, which began with the acts of counting and measuring, of arithmetic and geometry, and which have been successively developing with calculus, algebra and everything else until we got here. And we can not only see that it determines it, but also appreciate that there is always a double current, a double movement, descending and ascending.

Nor is it to be believed that this plane of essences is reduced to the mathematical aspect; on the contrary, this is only one possible expression of an infinity of modalities. In our time we have come to believe that complexity exists only in numbers, computers and models, but the richness of phenomena has always been infinite, regardless of any quantification. Our perceptions, as our thoughts, are also a fleeting part of the absolute.

*

Technoscience is a continuum of practice and theory that dictates what seems acceptable to both. On the other hand, it is not ideas that determine our actions —it is what we do and what we want to do what determine our ideas.

For today’s technoscience, to see intelligence as something totally separate from Nature is an indispensable condition for recombining any aspect of nature at will: atoms, machines, biological molecules and genes, and all the possible interfaces between them under the least restrictive criterion of information.

But granting this convenient separation of domains to manipulate them with the least possible restrictions, paradoxically entails unnecessarily restrictive principles, as is already evident in fundamental physics, which is also the founding ground of our overall commerce with Nature.

The reintegration of intelligence into the unity of being is absolutely contrary to the liberal principle of prior separation in order to recombine without restrictions. The mere possibility of an intelligence in Nature threatens to short-circuit this separating intelligence who has established herself as the ultimate arbiter.

And yet, as we have seen, the idea that there is feedback in the orbit of a planet or an electron is less contradictory than the usual picture that we are dealing with a cannonball trapped in a field. In fact, it is not contradictory at all: it is just absolutely disconcerting, as well as inconvenient, for most of us.

We want to see on the one hand a separate intelligence, and on the other a completely inert matter, and between these two fictions, the evidence of a perfectly impersonal, pre-individual consciousness without qualities becomes totally inconceivable.

There is nothing extraordinary about the fact that apparently heterogeneous bodies seek to attain the homogeneous condition with the environment from which they have emerged, and that they cannot do it without both inner and outer action. The particular aspect of this balance is indiscernible from the intelligence of that entity or system, which cannot but participate in the universal intelligence. Were it not for our involvement in this last one, our very intelligence would only exists subjectively for ourselves.

It is not strange at all, but it is totally inconvenient for the practices in which we are immersed, for the horizontal, indiscriminate remixing that aspires to dissolve all natural boundaries.

*

In the immediate postwar period, around 1948, under the shadow of the Manhattan project and other military programs, three new “theories” emerged that consolidated the new “algorithmic” style of the sciences: quantum electrodynamics with its endless loops of calculations, information theory, and cybernetics or modern control theory. To this was added, five years later, the identification of the DNA helix, which would soon be reduced equally to the category of information.

Except for the calculation feats that are its only justification, the quantization of the electromagnetic field was on a theoretical level a superfluous undertaking that added nothing new to the known equations. The funny thing is that its promoters had to be averting terms like “self-interaction” and “self-energy” constantly popping up in their faces. Terms like this seem to sound undesirable for such a clean and fundamental theory as QED, and moreover in physics it is assumed that any kind of feedback only can result in stronger non-linear effects.

Thus, while fundamental physics fought tooth and nail to conjure up the idea of feedback, cybernetics had to assume that feedback is a weak, emergent property of highly organized systems made up of “fundamental” blind blocks. At the same time, information theory hacked Boltzmann’s mechanical-statistical entropy into a new brand, rather than the irreversible entropy of thermodynamics. To question the foundations of the past theories would have been out of place, so theorists were content to generalize heuristic procedures, and it could not be otherwise since this science-technology continuum does not demand anything else.

We have seen that our very idea of celestial mechanics, of calculus, and of the mechanical-statistical interpretation of the Second Law are based on flagrant rationalizations —not to speak of more recent developments. Even the explanation of the functioning of our heart is based on a rationalization that tries to ignore the monumental evidence of the role of the breath in the global dynamics of blood circulation.

The only reason we maintain these mirages is a very powerful one, because they reaffirm our idea that we have a separate intelligence, while justifying our indiscriminate intervention in Nature, a Nature that we very conveniently want to reduce to blind laws and random processes. Men of science find it shocking, to say the least, to talk about the transcendental in knowledge, but all modern scientific knowledge is based on an ego pretending to be transcendental that in the end became trivial.

Ciencia y conciencia

Hemos procurado tratar un solo tema desde los ángulos más diversos, para que cada cual tenga alguna posibilidad de conectarlo de la forma más directa con sus propios intereses. Se trata de una introducción mínima que remite a una bibliografía en absoluto exhaustiva, pero necesaria para ahondar en cualquiera de los aspectos tratados.

Claro que nuestra tema no era la razón áurea, sino que hemos usado esta constante como un índice de reciprocidad, para sondear cual es la relación de la ciencia con la misma reciprocidad. La constante φ sigue teniendo un papel atípico, marginal y episódico dentro de la ciencia moderna, centrada sobre todo en el cálculo.

Así pues, mi punto de vista preferente no es tanto el de la ciencia y la objetividad, como el de la reciprocidad misma, a la que concedo más importancia; como intento dar más importancia a la conciencia de la realidad que a la ciencia.

Y la realidad misma se parece a una parábola. Podemos decir que junto a la unidad, a veces también simbolizada por el punto, el círculo y la constante π, existen desde la eternidad otras dos grandes constantes matemáticas, e y φ. La constante e, base de los logaritmos naturales y de la función exponencial, encarna a la perfección la exhaustividad analítica del cálculo y mira hacia la pluralidad del mundo. La constante φ, el algoritmo natural de una naturaleza que ignora por completo el cálculo, mira a la unidad sin saberlo. Y la propia unidad, si realmente lo es, no puede mostrar preferencia por ninguna de las dos.

Ahora bien, en la ciencia moderna el peso de e es infinitamente mayor que el de φ, hasta el punto de que podríamos prescindir de φ sin siquiera darnos cuenta. El número e nos remite al continuo y la infinita divisibilidad; φ nos remite a operaciones discretas sin finalidad —y se sobreentiende que la divisibilidad infinita ya es una finalidad humana que siempre puede exceder sus límites de operación. De aquí la necesidad de volver al contradictorio fundamento del cálculo.

Como es sabido, el número e fue identificado por vez primera por Jacob Bernoulli en 1683 en un problema de interés compuesto, y es absolutamente consustancial al moderno espíritu del cálculo con todo lo que conlleva. La razón áurea tiene sin duda un pasado mucho más antiguo pero, a ojos de los modernos, cuesta mucho ver cómo podría haber tenido un papel relevante en el conocimiento de la antigüedad. El número de Euler está en la base de la llamada matemática avanzada o superior, mientras que el número amigo de las musas no puede quitarse de encima lo elemental e ingenuo de su origen —lo que también constituye su mayor encanto. Este el motivo de su permanente popularidad entre matemáticos aficionados.

Esta circunstancia indudable esconde otra ingenuidad por parte del espíritu del cálculo que deberíamos aprender a apreciar. Sabido es que hombres como Stevin o Newton todavía creían que el hombre antiguo podía haber tenido conocimientos más amplios que sus contemporáneos; si matemáticos como ellos aún osaban pensar eso, hay que atribuirlo sin duda al impacto incomparable que en esa época tuvo el legado de Apolonio y Arquímedes —los más avanzados matemáticos de la antigüedad.

Pero esto ya presuponía una idea totalmente sesgada sobre qué era lo avanzado en el conocimiento, que se ha perpetuado hasta hoy.

Se dice que la cantidad de conocimiento se duplica regularmente cada 15 años desde la revolución científica, lo que implica que hoy nuestros conocimientos de física y matemáticas son cuatro millones de veces mayores que en 1687 cuando se publicaron los Principia. Por lo demás esta obra magna ya es de por sí un tratado oscuro y difícil de leer que ha sido y sigue siendo rutinariamente malinterpretado incluso por los mejores expertos.

Intentemos comprender cuatro millones de Principia. No caminamos a hombros de gigantes, sino que los gigantes avanzan sobre nuestros hombros, aunque cada vez menos, como es fácil comprender. Y la lógica del capital acumulado es que el capital acumulado no se arriesga. La teoría de la relatividad y otras “revoluciones” fueron adoptadas siguiendo el principio de mínima eliminación y de máxima conservación del capital. Toda la búsqueda exacerbada de novedad en la física teórica no es sino la huída hacia adelante obligada por no estar permitido examinar realmente los fundamentos. Pero cuanto menos se elimina, y menos se renueva el fundamento, más inexorablemente se envejece.

Obviamente la estratificación del conocimiento y la ramificación de especialidades sigue la lógica del interés continuo y el capital —y deuda- acumulados.

Es realmente curioso que dos constantes tan ubicuas como e y φ, los “dos fractales naturales”, crucen tan poco sus caminos en un campo tan ilimitado pero redundante como las matemáticas. Tan curioso, que el estudio del encuentro y desencuentro de ambas constantes debería ser un área de investigación matemática por derecho propio, llena de interés tanto para la matemática pura como para la matemática aplicada. Si esto no ha ocurrido todavía, es por el desarrollo absolutamente unilateral de todas las ciencias y las matemáticas del lado del cálculo y la predicción, que han puesto el resto de sus armas, como por ejemplo el álgebra, enteramente a su servicio.

Se comprende que exista, entre muchos matemáticos, una típica reacción alérgica a las cuestiones que plantea la razón áurea y la matemática de la armonía, y que se vean más como un estorbo que como una guía, puesto que en el fondo de lo que se trata es de ponerle límites discretos y constructivos a un análisis para el que no se quiere la menor restricción. Nada debe medir al que mide.

Parece ser que en la época en que surgió la escritura y las primeras grandes ciudades la casta sacerdotal guardaba los estándares de medida en los templos. Pero la naturaleza es el templo perfecto que lo guarda todo sin ocultar nada.

Hemos dicho que φ parece “el algoritmo natural” de una naturaleza que no sabe medir ni calcular. Pero no tener ningún sistema de medida y de cálculo equivale, en cierto sentido, a tenerlos todos y superarlos a todos; del mismo modo que la falta de intención de la naturaleza supera infinitamente los propósitos humanos. Entonces, el valor de esta rama de la matemática para la teoría de la medida y la computación debería estar fuera de cuestión. Se trata de identificar problemas pertinentes en el dominio de la interdependencia.

En poco más de tres siglos hemos tenido al menos cinco grandes cortes con la concepción constructiva y proporcional de la medida: el cálculo infinitesimal y la mecánica clásica, la teoría de Maxwell, la teoría de conjuntos, la relatividad y la mecánica cuántica. Con cada uno de estos sucesivos pasos, el problema de la medida se ha ido tornando más y más crítico y discutible. Pero es absolutamente superficial pensar que sólo los últimos desarrollos cuentan y que la propia teoría de la medida es un auxiliar para nuestras predicciones. Justamente así es como se construyó esta torre de Babel.

*

El interés de la razón áurea iría más allá de nuestra implicación en la complejidad y el cálculo modernos. En este área, siempre son posibles descubrimientos nuevos a nivel elemental tan inesperados que ni siquiera sabemos cómo valorar. Por lo demás, su aparición persistente en la música —esa aritmética inconsciente, al decir de Leibniz-, en ritmos fisiológicos y secuencias anatómicas nos indica su carácter no sólo intuitivo, sino, en última instancia, prenumérico.

Hay aquí una gran pista abierta no sólo para la arqueología del saber, sino para la misma activación de ese conocimiento antiguo que nos parece hoy inconcebible. En el Libro de los Cambios hemos visto un álgebra asimétrico de implicación. Las seis líneas de un hexagrama se corresponden con las seis direcciones del espacio en los extremos de sus tres ejes, que contraponen a un yo y su circunstancia. Pero aquí la simetría de las coordenadas es sólo el marco externo y pasivo, es la asimetría la que constituye el resorte dinámico interno en el que se interpenetran agente y situación.

El Libro de los Cambios es el mejor ejemplo posible de un saber analógico que no depende del cálculo, y hacia el que una cierta lógica natural de la implicación confluye. Lo importante no son los 64 casos o las 384 líneas, sino el plano de síntesis hacia el que apuntan.

Si el análisis tiene su llamado plano complejo para operar con cualquier número de dimensiones o variables, no menos cabe concebir una lógica de implicación que es capaz de reducir cualquier número de variables a un plano igualmente intangible de síntesis, que llamaremos el plano de la síntesis universal o de la inclusión universal.

Por supuesto, en esta época cualquiera que oiga hablar de una “inclusión universal” sólo puede pensar en la confusión universal. Por eso hemos desarrollado el análisis, porque no creemos en el conocimiento que no esté debidamente formalizado. Sin embargo, el desarrollo de la formalización no ha contribuido a una mayor inteligibilidad, sino más bien lo contrario. Para nosotros, cada vez más, el conocimiento formal no es tanto luz como sombra; una sombra que sabemos demasiado bien está proyectada por nosotros mismos. La sombra del poder sobre la naturaleza o los procesos sociales.

Toda la filosofía de Occidente desde Descartes se basa en la idea de una inteligencia separada. Por eso los sucesivos cortes que vienen uno detrás de otro desde Newton no nos parecen tales, puesto que, dentro de esta lógica, más separación de la naturaleza es más autoafirmación. Pero cualquier proceso tiene su límite, y cuando ya no hay nada sobre lo que afirmarse —porque la naturaleza es inhallable-, todo deja de tener sentido, salvo por el mero ejercicio del poder, que carece de estímulo intrínseco para el conocimiento.

Y además, la época dorada en que aumentaba el campo de las predicciones queda ya muy atrás, cada vez más lejos. No volverá, por la sencilla razón de que todo se optimizó para obtener predicciones y toda la fruta baja del árbol ya está cogida. Sólo cabe raspar rendimientos decrecientes en la fea lucha con la complejidad. A pesar de todo a la ciencia moderna le resulta casi imposible revisar sus bases, que es en lo único donde podría haber verdadera novedad. Tenemos la gran ventaja de nuestra perspectiva histórica, pero la misma existencia de las especialidades depende de que no se reflexione sobre sus fundamentos.

La ciencia moderna no es capaz de habérselas ni con la trascendencia ni con la inmanencia; porque ni puede ya separarse más, ni sabe cómo volver a ver las cosas desde el interior de la naturaleza.

Ahora bien, si volvemos la vista atrás como hemos hecho, tan sólo reordenando nuestra percepción de las presentes teorías, ¿qué significa prescindir del principio de inercia? ¿Qué sentido tiene decir que todo se basa en la autointeracción? ¿Qué sentido tiene decir que lo único que percibimos es el Éter?

Se trata de afirmaciones trascendentales, en el sentido en que podría haberle dado el padre de la fenomenología, Edmund Husserl, si se hubiera ocupado de la física. Sin embargo suspender el principio de inercia derriba al falso idealismo de la física de su caballo de madera, esa contradicción tan fecunda que aísla a una bola que rueda del resto del mundo menos de nosotros mismos. Darnos cuenta de que sólo percibimos el Éter, porque sólo percibimos en el modo de la luz es darnos cuenta de que ya estamos siempre en medio y que la propia materia y el espacio son límites trascendentales.

Finalmente, decir que los planetas o los electrones orbitan sus centros por autointeracción sólo puede entenderse como que la relación entre la materia y el medio parece reflexiva simplemente porque ambos no están separados.

Separación y reflexividad son ambas apariencia tanto en el sujeto como en el objeto, y es inútil querer adherirse a una parte queriendo negar la otra, como la ciencia ha pretendido. La inteligencia y el ser coinciden —al menos desde el punto de vista de la inteligencia, puesto que ésta es incapaz de percibirse a sí misma. Esta reflexividad, esta inteligibilidad, es el mismo plano de la síntesis universal. Pero esto también tiene una traducción física. La evolución de un vórtice en seis dimensiones en las coordenadas de Venis podrían ser un buen ejemplo de intersección del naturalismo con el plano trascendental.

Estas ideas las puede aplicar uno mismo tanto al conocimiento mediato como al inmediato de la naturaleza. Desde el punto de vista operativo y formal, todo el conocimiento observable de la física se puede incluir en el principio de equilibrio dinámico. Pero desde el punto de vista de la cognición inmediata, apenas puede uno sostenerse en la contemplación del instante sin la inercia —hasta tal punto esa bola que rueda ha capturado nuestra idea subjetiva de la sucesión. Sin embargo, estos principios, que ahora nos resultan mucho más exigentes desde el punto de vista intuitivo, puesto que están mucho más llenos de contenido, no se basan en la separación de la naturaleza y por lo mismo hacen menos necesaria su forzada “unificación” por el hombre.

Verdaderamente, ese plano trascendental es aquel en que la trascendencia con respecto a la naturaleza y su regreso a ella coinciden —pero en verdad la única naturaleza que aquí se trasciende es la relativa a la inercia de los hábitos, lo que llamamos nuestra “segunda naturaleza”. Aquí podríamos decir con Raymond Abellio: “La percepción de relaciones pertenece al modo de visión de la conciencia “empírica”, mientras que la percepción de proporciones forma parte del modo de visión de la conciencia “trascendental” [64].

Pero, por supuesto, en la ciencia moderna apenas hay proporciones, porque todas las unidades que manejamos son un amasijo heterogéneo e ininteligible de cantidades —por eso se las confiamos cada vez más a los ordenadores y sus programas para que “trituren” los datos.

El término “trascendental” sólo puede tener significado para aquellos que se ocupen de lo inteligible del conocimiento, no para aquellos que simplemente se contentan con su formalización para obtener predicciones. Sin embargo, aquí lo estamos haciendo descender al núcleo mismo de los principios físicos y de esa eterna incógnita que llamamos causalidad; y esto puede hacerse no sólo de forma cualitativa, sino igualmente cuantitativa.

Ningún físico o matemático necesita creer en la existencia del plano complejo o las variedades complejas, por más aconsejable que pueda ser revisar sus fundamentos; menos aún se nos podría pedir que probemos la existencia de un plano de síntesis trascendental, puesto que la palabra “trascendental” significa que es la condición del conocimiento. El movimiento se demuestra andando, y el conocimiento, comprendiendo.

Además, hablar de la “existencia” de semejante plano con relación al mundo de objetos y medidas no sólo está fuera de lugar sino que invierte por completo la situación. Decía Santayana que las esencias son “lo único que la gente ve y lo último que nota”; desde una perspectiva acorde con lo que ya hemos dicho, y que desde luego poco tiene que ver con las habituales narrativas y cosmologías, la entera experiencia es una transición entre una materia incognoscible pero medible y un espacio diáfano al conocimiento pero inmensurable. La existencia misma es ese proceso de despertar, pero con ritmos disímiles para todo tipo de sistemas y entidades.

Esta nuestra condición “entre el Cielo y la Tierra”, entre lo diáfano y lo mensurable, no es una mera acotación filosófica o poética, sino que determina la gama entera de nuestras posibilidades de conocimiento, que empezaron por los actos de contar y medir, de la aritmética y la geometría, y que se han ido complicando sucesivamente con el cálculo, el álgebra y todo lo demás hasta llegar hasta aquí. Y no sólo podemos ver que la determina, sino apreciar que existe siempre una doble corriente, una doble dirección, descendente y ascendente.

Tampoco hay creer que este plano de las esencias se reduzca al aspecto matemático; por el contrario éste es sólo una expresión posible de una infinidad de modalidades. En nuestra época hemos llegado a creer que la complejidad sólo existe en los números, los ordenadores y los modelos, pero la riqueza de los fenómenos siempre ha sido infinita, independientemente de cualquier cuantificación. También nuestras percepciones, como nuestros pensamientos, son una parte fugaz del absoluto.

*

La tecnociencia es un continuo de práctica y teoría que dicta lo que parece admisible para ambas. Por otra parte, no son las ideas las que determinan nuestras acciones, sino que es lo que hacemos y lo que queremos hacer lo que determina nuestras ideas.

Para la tecnociencia actual, que la inteligencia esté totalmente separada de la naturaleza es condición indispensable para recombinar todos los aspectos de la naturaleza a nuestro antojo: átomos, máquinas, moléculas biológicas y genes, la interfaz entre cualquiera de ellos bajo el criterio menos restrictivo posible de la información.

Pero garantizar esta separación de dominios para poder manipularlos con toda libertad exige, como hemos visto, principios innecesariamente restrictivos, como se advierte ya en la física fundamental, que es también el plano fundante de nuestro comercio con la naturaleza en general.

Reintegrar la inteligencia a la unidad del ser es absolutamente contrario al principio liberal de separación arbitraria para poder unir y recombinar a su antojo. La mera posibilidad de una inteligencia en la naturaleza amenaza de cortocircuito a la propia inteligencia separadora que se ha erigido en árbitro supremo.

Y sin embargo, ya lo hemos visto, la idea de que hay realimentación en la órbita de un planeta o un electrón es menos contradictoria que el predicado habitual de que estamos ante una bala de cañón atrapada en un campo. De hecho no es contradictoria en absoluto: sólo es absolutamente desconcertante, además de inconveniente.

Queremos ver por un lado una inteligencia separada, y por otro una materia completamente inerte, y entre ambas ficciones, la evidencia de una conciencia perfectamente impersonal, preindividual y sin cualidades se hace del todo inconcebible.

Tampoco tiene nada de extraordinario que los cuerpos aparentemente heterogéneos busquen el equilibrio con el medio homogéneo del que han salido y que no puedan hacerlo sin su concurso. El aspecto particular de este equilibrio es indiscernible de la inteligencia de esa entidad o sistema, que no puede dejar de participar de la inteligencia universal. De no ser por la conexión con ésta, nuestra misma inteligencia sólo existiría subjetivamente para nosotros mismos.

No es extraño, pero es totalmente inconveniente para las prácticas en las que estamos sumidos, para la mezcla horizontal indiscriminada que aspira a disolver todas las barreras naturales.

*

En la inmediata postguerra, en torno a 1948, y a la sombra del proyecto Manhattan y otros programas militares, surgen tres nuevas “teorías” que consolidan el nuevo estilo “algorítmico” de las ciencias: la electrodinámica cuántica con sus interminables ciclos de cálculo, la teoría de la información, y la cibernética o moderna teoría del control. A esto se sumaba, cinco años después, la identificación de la hélice del ADN, que pronto sería reducida igualmente a la categoría de la información.

Salvo por las proezas de cálculo que son su única justificación, la cuantización del campo electromagnético era una empresa superflua a nivel teórico que nada nuevo añadía a las ecuaciones conocidas. Lo gracioso es que sus promotores tuvieran que estar ahuyentando términos como “autointeracción” y “autoenergía” que continuamente les saltaban a la cara. Además de lo indeseable de estos términos para una teoría que se precie de fundamental, en física se supone que cualquier retroalimentación sólo puede aumentar los efectos no lineales.

Así, mientras la física fundamental luchaba a brazo partido por conjurar la idea de retroalimentación, la cibernética tenía que asumir que ésta es una propiedad emergente de seres con organización compleja, constituidos a su vez por bloques “fundamentales”. Simultáneamente, la teoría de la información pirateaba una versión paralela de la entropía mecánico-estadística de Boltzmann, en lugar de la entropía irreversible de la termodinámica. Cuestionar la herencia del pasado hubiera estado fuera de lugar, así que los teóricos se contentaron con generalizar procedimientos heurísticos, y no podía ser de otro modo puesto que el continuo ciencia-tecnología no demanda otra cosa.

Hemos visto que nuestra misma idea de la mecánica celeste, del cálculo y de la interpretación mecánico-estadística de la Segunda Ley están basadas en flagrantes racionalizaciones —por no hablar de desarrollos más recientes. Incluso la explicación del funcionamiento de nuestro corazón se basa en una racionalización que intenta ignorar la monumental evidencia del papel de la respiración en la dinámica global de la circulación de la sangre.

La única razón por la que mantenemos estos espejismos es porque reafirman nuestra idea de que tenemos una inteligencia separada, a la vez que justifica nuestra intervención indiscriminada en la naturaleza, una naturaleza que muy convenientemente se quiere reducir a leyes ciegas y procesos aleatorios. A los hombres de ciencia les parece chocante como mínimo hablar de lo trascendental en el conocimiento pero todo el conocimiento científico moderno se basa en un yo que se pretendía trascendental, y que finalmente se hizo trivial.


From the Book of Changes to the Algebra of Conscience, through technical analysis

In his splendid book on Harmony Mathematics, Alexey Stakhov devotes a section to Vladimir Lefebvre’s mathematical theory of decision and strategic interaction, which, unlike other developments in this area such as the much-hyped game theory, includes an intrinsic behavioral and moral component [62].

Everything starts from the observation that if someone is asked to divide a pile of string beans into two piles of bad and good ones, oddly enough the average result is not 50%-50% as expected, but 62%-38% in favor of those considered good.

According to Lefebvre, what lies at the bottom of this asymmetric perception is a triple gradation of definable logical implications within a binary logic or Boolean algebra:

A [a0consciousness→a1reflection→a2intention]

consciousness being the primary field, reflection the secondary level and intention a reflection of second order.

Within this structure of human reflexion, the personal evaluation of behavior implies, by logical implication, a self-image:
A= a0a1a2 ; A=(a2→ a1)→ a0.

The subsequent truth table gives us an asymmetric sequence of 8 possible values, 5 being a positive estimate and 3 a negative one. Naturally, 8, 5 and 3 are adjacent numbers in the Fibonacci series.

The extraordinary thing about the logical framework of ethical cognition created by Lefebvre is that, inadvertently, it allows a completely modern interpretation of the Book of Changes without distorting its sapiential and moral nature. It is not something that we are going to prove here, but given the deep influence of Yi Jing in the history of Chinese culture, it would be of utmost interest to look for a rigorous correspondence between both views.

Undoubtedly, Lefebvre’s framework is more formalized, and more focused on the image that the individual agent has of himself, than on the situation or critical juncture, as is the case with the Yi Jing; in fact, we could say that Lefebvre’s formalization is a Boolean and measurable limit for interactions with a low number of individual agents, but even then the correspondence remains intact and can lead to much broader and impersonal degrees of involvement, and therefore, of understanding.

*

Stakhov devotes another section to Elliott’s technical wave analysis, a tool also based on the Fibonacci series. The theoretical scope of Elliott waves is limited at best, even if its fractal-type analysis can be applied discretionally. But here we want to point out a much deeper methodological issue.

Lefebvre’s model shows us that these series have, or at least admit, a reflexive component —in fact his work has been qualified as a reflexive theory of social psychology. And that reflective component is precisely what is most missing in Elliott’s model. There is also a reflexive theory of the economy and the market, with positive and negative feedback cycles; this theory is not without merit, if we compare it, for example, with the hypothesis of the efficient market, which, even if it were not false, would always be incapable of telling us anything. Moreover, the reflexive theory does not only affect prices, but also the fundamentals of the economy.

Economic reflexivity is a model of self-interaction, as it is also of self-image, and this decisive element in human affairs can never be dispensed with, even if it is impossible to quantify it. But what happens when self-interaction runs through the whole behavior of natural systems? Let us think, for example, of the case of the pulse analysis we have mentioned, a transparent model of self-interaction, which, as a bonus, tends towards golden ratios in rhythm and pressure. But it is clear that in social systems reflexivity passes through the knowledge of an external situation, while in an organic system reflexivity is a pure question of action.

How much room does one type of reflexivity leave for the other? How far can the perception of the markets be manipulated? Today we also see that central banks have an undisguised and unabated intervention in prices, injecting money discretionally and becoming guardians of the financial bubbles. Well, the analysis of the pulse, the transformation of its modalities, and the study of the limits of conscious manipulation through biofeedback are giving us a good match or at least some sort of reference for this elusive problem. And if we want more intensive methods, besides the quantitative implications that all this already have, we can also apply to monetary flows CPUs models like that of the triangular flow-efficiency-size feedback that we commented on earlier.

*

In The Algebra of Conscience, Lefebvre made a comparative analysis of the Western and Soviet ethical context within the framework of the Cold War confrontation [63]. The W-system of the United States believed that the compromise between good and evil was bad, and that the confrontation between good and evil was good. The S-system of the Soviet world, on the contrary, believed that the compromise between good and evil was good and the confrontation between good and evil was bad —what Lefebvre does not say, as it goes beyond his formal analysis, is that the desire for confrontation of the W system was not based on any moral idiosyncrasy but on the essential expectation of further expansion; just as the desire of the S system to avoid confrontation was based on the fear of disappearing.

At any rate, from the choices and implications between commitment and confrontation, four basic attitudes emerge, that of the saint, the hero, the philistine and the dissembler: the saint embraces suffering and guilt to the maximum; the philistine wants to diminish suffering but may feel acute guilt; the hero minimizes his guilt but not his suffering; and the dissembler minimizes suffering and guilt.

Maybe we could have created 8 types instead of 4, in consonance or dissonance with 8 other scenarios or natural tropisms, with two more third grade binary implications or a single sixth grade one. Logic and calculus serve to ascend this ladder and understanding begins where calculus ends. Thus, the continuous proportion would show us in a very direct way its role of mediator between the discrete and the continuous, the digital and the analogical.

In reality we have here an unsuspected Centaur, namely, a halfway point between binary formal logic and the dialectical logic as in Hegel. But the proof that this is something genuine, and not a mere theoretical construct, is that it has a built-in asymmetry that is a distinctive feature of Nature. We could call it an asymmetrical logic of implication.

It has been said that Lefebvre’s theory was used at the highest levels of negotiation during the collapse of the Soviet Union; and here we will not go into judging what positive or negative role it might have had, and for whom. In any case, its framework only covers two agents, and not the scenario or juncture that may dispose of them. Yi Jing’s framework can serve not only to see how I perceive myself in the world, but also to evaluate how the world perceives me; in the end, both are parallel illusions. One could say that asymmetric perception is part of the same reality; a double asymmetry better embraces the implications and the unnoticed axis of the dynamics of a situation.

Surely one could make a great parlor game out of these arguments. More interesting, however, is the study of moral or social conscience through the analysis of its implications. And even more interesting is the awareness of how the external situation, for which we are always looking for an image, interpenetrates with the changing image we make of ourselves, forming both a momentary map of our situation and conscience.

One can only guess that Lefebvre knows the text of the Yi Jing; however it is evident that the line of his reasoning is completely independent from the Chinese classic and he has arrived at his “positional system” of moral consciousness starting from the Western logical and mathematical tradition. If he had had just a glimpse of the Taijitu with the golden section embedded, the immediate association would have shine in his mind. In the coming years we may witness many new associations of this kind induced by the evolving environment.