ESPÍRITU DEL CUATERNARIO (SEMIOSIS Y CUATERNIDAD)

La terna Yo-Mundo-Dios de la que habla la no-dualidad permite superar la oposición entre fe y razón. Quien se llama a sí mismo “ateo” no cree en Dios pero cree en la existencia de un Mundo y una Ley independientes del Yo, y por lo mismo supone la existencia de un ego autónomo. Sin embargo la interdependencia de los tres es la misma condición de posibilidad del lenguaje, y, de la lógica dentro de él. Revirtiendo la dirección habitual del pensamiento y el signo se comprende cabalmente su inexistencia como entidades independientes.

Índice

1. El Principio es la meta

2. El cuarto

3. Disposición de la mecánica

4. Máquinas, antimáquinas, no-maquinas y cuerpos

5. Sensible e inteligible

6. La conciencia, punto de fuga y última frontera

7. Dividiendo por cero

8. Metanoia, continuo y cuaternidad

1. El principio es la meta

El cientifismo vulgar que hoy impera, su misma concepción de lo positivo y lo objetivo, no es sino la asunción en grado diversos de la independencia del Yo, el Mundo y la Ley. Y es esta misma asunción la que ha originado y reforzado las diferentes concepciones del monoteísmo. Así, monoteísmo y ateísmo coinciden en lo esencial y difieren sólo en los grados y modos de concebir las relaciones entre estos términos que contra toda lógica quiere suponer independientes.

Monoteísmo y cientifismo tienen en todo caso poco que ver con el monismo filosófico, y aún menos con la no-dualidad. Son, como si dijéramos, la externalización extrema de una relación de intimidad que no se remonta a un mítico origen, sino que opera en todo momento de la forma más patente pero menos manifiesta. También suponen la explotación, tan decidida como poco consciente, del potencial de esta intimidad.

Se ha dicho que los cristianos no creen en Dios sino en la Trinidad, y el mismo hecho de que el cristianismo no sea una religión legislativa, como lo son las otras dos fes abrahámicas, sólo confirmaría esta insalvable diferencia con el monoteísmo estricto. El dogma trinitario fue el precio que el monoteísmo tuvo que pagar para poder ser adoptado por el paganismo helenizado; y el nihilismo sería la deriva lógica del cristianismo cuando desde la Reforma ha querido volver al espíritu del Antiguo Testamento.

Si el monoteísmo es una criatura del desierto, se requería su versión más pluralista o politeísta para que el desierto se extendiera por el mundo —aunque eso sólo lograra su pleno efecto con la mutación protestante. Y si hoy los otros dos monoteísmos prosperan, cada uno a su manera y en versiones progresivamente degradadas, es dentro de este nuevo medio ambiente, este desierto que no para de crecer.

El descubrimiento por Peirce de la semiosis o deriva ilimitada de los signos es sin duda el hito más importante de la lógica desde los tiempos antiguos, en gran medida, porque trasciende la esfera de la lógica. Siempre trascendió esta esfera, pero, como no podía ser menos, no ha hecho sino sumar su cauce a la deriva nihilista general, volcada hacia una Ley que sistemáticamente la vacía. Muy en el estilo del siglo XIX, Peirce quiso concebir la semiosis como un proceso irreversible que puede aproximarse asintóticamente a la verdad, en vez de como un proceso reversible que puede alumbrar nuevas e inesperadas síntesis; y lo oportuno de esta reorientación no ha tenido el debido eco entre sus continuadores.

Es evidente que el lenguaje es más que un proceso lógico; es un fenómeno mucho más primario que envuelve a nuestro mundo interno de impresiones, deseos y emociones y nunca termina de desprenderse de él. En principio la semiótica de Peirce creaba un nuevo lugar para todo esto, pero ese lugar resulta evacuado y sus contenidos succionados para procesar lo primario sólo en la medida en que se relaciona con lo terciario, con el código, con lo predecible y regular de la Ley.

No deja de ser la misma deriva, aparentemente inexorable, que envuelve a los sectores primario, secundario y terciario de la economía y el tejido social; o de la ecología del conocimiento, o de la civilización en general. Somos incapaces de concebir una vuelta atrás, porque incluso si quisiéramos reproducir el pasado saldría algo del todo diferente. Pero a esto sólo hay que darle la vuelta: si queremos obtener algo diferente hay que ir en dirección contraria a la deriva general.

El progreso de la modernidad “liberó” el potencial trinitario. Confrontados ahora con el colapso, término real de ese potencial presuntamente ilimitado, muchos se vuelven casi involuntariamente cuaternarios, y se apresuran a ver qué podrá salvarse de nuestra civilización cuando fallen los delicados mecanismos que la sustentan. En esta perspectiva, afrontar el futuro y recuperar lo perdido tienden a coincidir aun con todas las incontables incertidumbres. Si la terceridad última se proponía como asintótica estación término impulsándonos siempre más allá, ahora se quiere ir más allá del más allá recobrando el más acá siempre postergado; lo que definiría, en pocas palabras, el Espíritu del Cuaternario.

El mismo Peirce vio bien pronto la rigurosa concordancia entre las tres personas de la Trinidad y la terna semiótica signo-objeto-interpretante: “El interpretante es evidentemente el Logos Divino o Palabra; y si nuestra anterior asimilación de una Referencia a un interpretante como Paternidad es correcta, éste sería también el Hijo de Dios. El fundamento, siendo aquello cuya participación es requisito para cualquier comunicación mediante el Símbolo, corresponde en su función al Espíritu Santo”.

Sin duda hubiera sido más fácil hablar de emisor, mensaje y receptor. Cambiando sólo el plano al que se aplica, son conceptualizaciones no más abstractas que las que dirimía rutinariamente la escolástica. Hemos citado este pasaje de 1866 no porque sea muy aclaratorio, sino más bien lo contrario; y es que uno de los rasgos característicos de la neogótica semiótica de Peirce es que cuando más quiere precisar los términos más se complica todo.

La misma idea de Ley y la pluralidad de las leyes es lo que nos separa del Principio, algo mucho más amplio que sólo va desplegándose por la devolución y reintegración del concepto. Este Principio y el acercamiento a él no puede confundirse con la noción de origen en el tiempo y su posible reconstrucción; no está sujeto a devenir sino que es, justamente, el principio de su actividad en todo momento —el soporte de cualquier estado de un proceso.

¿En qué se diferencia entonces de la Ley, por ejemplo de una ley natural de la física? En que la Ley tiende a darnos un concepto del Principio sólo a costa de invertir nuestras relaciones con él. La Ley se empuña y es por eso que no vincula más de lo que separa, mientras que el Principio es siempre elusivo pero nunca excluye nada. Por eso también estamos siempre a tiempo de confrontar la Ley con el Principio hasta lograr su autoabsolución.

A medida que los conocimientos útiles se acumulan mediando todas las relaciones cada vez tenemos menos conocimiento directo de nada. Para Peirce, para la tecnociencia en general, el conocimiento inmediato no tiene lugar, ni siquiera en primera persona, por lo que estamos condenados a depender de expertos, algo que conviene a los cuadros de expertos en primer lugar. Hablar de “conocimiento directo” presupone el objeto, pero existe un conocimiento inmediato que guía tanto al conocimiento directo como al indirecto, y que necesariamente ha de tener muchos grados y capas, aunque no los hayamos explorado. La ciencia también debería mantener algún tipo de contacto consciente con este conocimiento, por sí misma y por lo que está más allá de ella, ya que el contacto inconsciente no lo podría perder ni aunque quisiera.

2. El cuarto

Al final de “Antiprometeo” recordábamos que no habíamos hablado de máquinas, y de cómo ellas aún pueden cambiar nuestra ubicación dentro de lo simbólico, lo imaginario y lo real. En verdad, y dado que estas relaciones se están alterando permanentemente, habría que preguntar antes si hay algo en ellas que se mantenga constante. La respuesta, naturalmente, es que no hay nada aislable que cumpla tal condición.

Por supuesto, estábamos pensando en la reorientación del siempre indefinido principio de instrumentación que parece dirigir nuestras máquinas o nuestro uso de las máquinas. Pero, ¿qué sentido tendría hacer “antimáquinas” antes de tener claro cuál es su propósito? ¿Se puede reconducir en sentido contrario la compulsión que sentimos a apoyarnos en máquinas? ¿Sabemos lo que hay detrás de ella? ¿Pretendemos algún tipo de reeducación? ¿Queremos plantear una cuestión mecánica o simbólica?

Con el giro adecuado, la semiótica de Peirce vale tanto para explicar el proceso de objetivación del conocimiento como la emergencia de la subjetividad tal como la planteaba Lacan. O para elaborar una teoría trascendental de la comunicación. Semejante plasticidad ya es sin duda un valor, pero también es significativo que, por lo que uno sabe, ninguna disciplina se haya beneficiado de forma concreta con el uso de sus categorías. Su presunta validez se degrada rápidamente. La semiótica es la lógica de la vaguedad, aunque esta no es incompatible con la precisión; pero a medida que se precisa todo, nos perdemos en la proverbial maraña de grafos.

La reversión de la semiosis que aquí planteamos es diferente de todos los intentos de aplicación o aprovechamiento de sus categorías. No sólo es diferente, va en el sentido contrario. Parece que ir de nuevo en dirección a lo primario sólo puede aumentar la vaguedad; sin embargo, antes de los conceptos hay otras cosas y estados susceptibles de precisarse, o tal vez concretarse. Se ha dicho con razón que la lógica de Peirce no puede desprenderse de su carácter elíptico e involutivo, y sin embargo, de su reversión consciente puede emerger lo inesperado.

El Principio es inconmensurablemente más común que las leyes. De vez en cuando se pregunta a los físicos teóricos qué aspecto podría tener una auténtica Teoría Unificada de todas las fuerzas fundamentales, una “teoría final”, y naturalmente ningún físico sensato se atreve a hacer la menor conjetura al respecto. Mucho más insensato, aunque no por ello menos lógico, pienso que una “teoría final” sería aquella en la que no quedaría ni el menor rastro del concepto de Ley, que habría sido absorbido por completo en el Principio. Esto no es imposible en absoluto, sólo requiere que la naturaleza de ese Principio capte nuestro interés igual que lo captó la búsqueda de la Ley en otro tiempo.

La búsqueda del Principio puede realizarse en incontables niveles, pero a diferencia de la proliferación de disciplinas con “leyes” de lo más heterogéneo y una dispersión imparable, apuntan a la unidad de un modo mucho más simple —apuntan de hecho a una inconcebible ultrasimplicidad. Sus avatares se encuentran por doquier, incluso en las clásicas leyes de la mecánica, lo que tendría que ser el prerrequisito de una nueva mecanología.

No es obligado pensar en el futuro y especular con inevitables “nuevos desarrollos”. Vamos a dar un ejemplo ya pasado de reversión completa y exitosa de una tecnología; un ejemplo extremo que nunca ha sido reconocido como tal.

Puesto que ahora se asume que la escritura es una tecnología en el sentido más amplio de la palabra, que incluye a la técnica y la teoría de esa técnica. Y no sólo eso, sino que, marcando los comienzos de lo que entendemos como historia propiamente dicha, se asume también que la escritura es la tecnología más internalizada y la que más ha alterado la consciencia humana.

El monograma de la sílaba sagrada del hinduismo y síntesis suprema del Vedanta, OM o AUM, es una forma de encajar toda la cultura alfabética y toda la teología védica en algo que aún es más simple que el más simple de los sonidos. Como es bien sabido, la composición alfabética de esta interjección, tan posterior a su uso oral como queramos pensar, consta de cuatro elementos, las letras A, U, y M más el punto o bindu por encima de ellos.

Más hacia Occidente encontramos concepciones íntimamente relacionadas: el Tetragrámaton hebreo (YHVH) o la Tetraktys o tétrada pitagórica. En la cultura China, la gran tríada Cielo, Tierra y Hombre (Tien-Ti-Jen) también entra en concordancia cuando se incluye el Camino o Tao, como cuarto término que enhebra a los otros tres. Claro que en los casos más occidentales el cuaternario se concibe como una progresión 1-2-3-4, mientras que en los casos más orientales lo que tenemos es una reversión. “Retorno es el camino del Tao”; y en cuanto al Omkara, se trata implícitamente de una expansión del sonido coincidente con la contracción de sus partes, una secuencia 3-2-1-0.

Por descontado, esta “secuencia” del Omkara es ficticia, siendo sólo un ordenamiento de letras con un símbolo adicional para indicar el silencio, como el aspecto envolvente fundamental. De este modo la reversión es completa. Si la semiosis describe el flujo de la mente como interacciones de signos, y la deconstrucción, llevando al extremo lo terciario, considera el discurso entero como transposición de la escritura, aquí encontramos el caso diametralmente opuesto: el recurso a la escritura está al servicio de lo oral, este se debe al sonido inarticulado, y el sonido inobstruido se debe al silencio.

Si la secuencia es aparente, no menos aparente ha de ser la reversión. Para autores clásicos como Shankara, Omkar tiene una cualidad inherente de progreso y aun de prosperidad, y por otra parte, dinámicamente sólo cabe representarla como la más elemental progresión de una onda esférica en el espacio —que por otro lado no deja de ser una omnicomprensiva deformación continua en cada uno de sus puntos, como el principio de propagación de Huygens demuestra.

La deconstrucción y el análisis semiótico ponen en juego el hueco entre los signos para glosar sus permanentes desplazamientos, mientras que la única operación del Omkara es la desobstrucción del sonido, el regreso a lo vacío tan derecho como los obstáculos permiten —el centro de la diana, es el fin del juego de la mente. La actividad intelectual huye de esto como de la bomba atómica, pues la deja sin nada que hacer; creer y pensar sólo son dos aspectos de la misma explotación de las disposiciones.

Si la escritura es la más internalizada de las tecnologías, y la que más ha afectado a la conciencia, llenándola, moviéndola y manteniéndola ocupada, aquí tenemos el uso más simple posible de dicha tecnología para vaciarla y llevarnos hasta “la otra orilla”, según la fórmula del Upanishad. Pero, además, incluso la parte mínima de técnica que pueda tener apunta directamente a lo no técnico, a lo espontáneo o natural. Esto ocurre no sólo con su compendio de lo alfabético, sino hasta en su uso como invocación.

En las escrituras se compara a menudo la Palabra con el palo superior que se frota sobre el inferior para hacer fuego. No es por casualidad que los videntes se complazcan en una imagen tan rudimentaria, que es también una alusión a la primera tecnología privativa del ser humano, la producción controlada del fuego. Se trata de devolver el fuego aparentemente más grosero al fuego original del conocimiento, no manifiesto por naturaleza.

A la invocación ahora se la conoce como mantra pero su esencia no está en la repetición. Sabido es que la palabra mantra no significa otra cosa que aquello que atraviesa la mente. Igual que se intenta meditar sólo para comprender que el intento excluye la meditación, a veces se repite la palabra para comprender que la Palabra ya se profiere por sí sola, que es el rastro del silencio mismo desde el lado de quien lo escucha.

A Om se le llama en ocasiones linga, signo o símbolo, pero está claro que eso no puede entenderse en el sentido funcional o semiótico ordinario. En el contexto de conclusión última de los Vedas, la Palabra como símbolo supremo ya no es invocación o pregunta, sino respuesta, evidencia, prueba. Evidencia concluyente, prueba definitiva. Una demostración puede ser corta o puede ser larga, y aún se pretende que alcanzar toda la verdad sería un proceso infinito; pero reconocer una prueba no es algo que dependa del tiempo. Sólo requiere caer en la cuenta, si uno se encuentra en la disposición.

La semiosis se queda atascada en el conocimiento y el juego entre lo conocido y lo por conocer. Pero los tres primeros estadios del Vedanta comprenden ya lo conocido, lo desconocido y aun lo incognoscible; y el cuarto estado se sitúa más allá de ellos. ¿Cómo se puede estar más allá de lo incognoscible?, podría preguntar alguien consternado. La respuesta es evidente: no pretendiendo conocerlo todo. Asumiendo lo incognoscible que uno mismo es. El conocimiento es sólo la otra cara de la ignorancia pero es uno con ella; la búsqueda del conocimiento es sólo un síntoma de una no reconocida enfermedad, y la compulsión instrumental que sentimos hacia las máquinas es sólo su reverso.

Este modo de plantear las cosas está más allá de los planteamientos del ateísmo y el agnosticismo, siempre que se esté en condiciones de considerarlo. No nos pide más conocimiento en absoluto, sino tan sólo un imperceptible reconocimiento.

La síntesis retroactiva que el Omkara logra con respecto al universo del orden y el desorden alfabéticos, logros indudablemente artificiales, también es operativa con respecto al movimiento de la mente, dividida siempre entre lo artificial y lo natural, o con respecto al sonido, fenómeno que aun con nuestro gran aporte de cacofonías no deja de ser enteramente natural además de objeto de la física. Aquí la íntima semejanza, si no identidad, entre el sonido y la mente se presupone. OM presupone también la ascensión por ósmosis capilar de cualquier ruido de fondo hasta el silencio que lo soporta. Y este ruido de fondo incluye todo género de actividad también nuestra incierta reserva de vida y energía vital.

Desde una perspectiva libre de objetivaciones como la del Vedanta, esto no es sólo posible , sino inevitable. La Palabra envuelve todo el sonido articulado, el inarticulado y el silencio, dentro y fuera de la secuencia, y aun en los dos sentidos de la secuencia; la conciencia contiene toda mentación, desde la más difusa aspiración hasta el más cerrado reflejo del hábito. Hay aquí una secreta relación entre lo reversible y lo irreversible que la ciencia aún no ha acertado a plantearse nunca. OM es la prueba de lo imposible que está desafiando a nuestra demostración.

Pensemos sólo en algún aspecto imponderable dentro de lo más formal. Absolutamente imponderable, por ejemplo, es el efecto que sobre la matemática moderna, ciencia pura de las formas, ha tenido la introducción del cero en nuestro sistema posicional decimal. Este acontecimiento, gestado durante un largo e impreciso número de siglos, coincide en el tiempo con la epigrafía alfabética del Omkar; y sabido es que la representación original del cero en India no fue con un círculo vacío, sino con un punto superior o bindu.

La introducción del cero moderno ha alterado de manera imponderable nuestra concepción de la unidad, y también del cálculo o análisis en el que se basa enteramente nuestra ciencia: pues ya sea en el cálculo infinitesimal original, como en el análisis moderno fundado en límites, aún se cree que se trabaja sobre puntos y velocidades instantáneas, y esto contra toda razón. Hemos hablado repetidamente del tópico, que va ciertamente mucho más allá de las “interpretaciones filosóficas”, aunque también debería tener un impacto profundo en ellas. Lo que tuvo un efecto imponderable en el pasado, del mismo modo puede tenerlo en el futuro, y al revés: lo que enfoquemos en el futuro nos dará la medida de lo que podemos reconocer en el pasado.

Es como el multimilenario concepto de igualdad (=), del que sólo en los tiempos más recientes han reparado algunos raros matemáticos en que esconde una infinidad de equivalencias. Pero no vamos a detenernos en este tipo de cosas ahora. Siguiendo puntualmente a Aristóteles, Peirce, cuya semiótica presupone siempre la continuidad, distingue tres figuras básicas del razonamiento: inducción, deducción y abducción o hipótesis, y hoy se admite generalmente que las ciencias se rigen por el método hipotético-deductivo. Fue todo un acierto de Peirce llamar a las hipótesis “abducciones”, pues no nos conectan más a la realidad de lo que nos separan de ella. Lejos de ser un término técnico, sigue señalando lo más cotidiano y menos advertido de nuestra condición, pues vivimos en un mundo de abducción permanente. Pero, ¿cuál sería aquí el cuarto aspecto, cuál es el principio parasemiótico que aún es más importante en cualquier tipo de conocimiento? Ya lo hemos dicho casi sin querer, se trata de la asunción.

Hay, naturalmente, una continuidad implícita entre suposición y asunción, igual que la hay entre la resonancia de la M final del Omkar y el silencio. La suposición, núcleo y semilla de toda teoría, interpone siempre entre uno y los hechos una nueva combinación de elementos. La asunción es sólo el caso más general de la suposición, en el que uno ni siquiera es consciente de interponer nada. Y este caso general es el fundamento de cualquier realidad particular.

Es evidente que la asunción de unos hechos es anterior a cualquier razonamiento con ellos o cualquier intento de explicación. Lo que no es tan evidente es que esa asunción ya ha reorganizado algo antes de la primera operación lógica: la asunción es la reorganización de uno mismo. Esto se extiende mucho más allá de la lógica de cualquier dominio formal, pues la asunción es justamente el espacio que se abre allí donde lo formal se ha extinguido. Y sin embargo no hay nada más determinante en la vida.

¿Cuál es la palabra destinada por las tres religiones del Libro para expresar la asunción, el “así sea”? Amén. Con las ligeras variantes Amen, Amin, u Omein. La misma palabra “Asunción” se percibe como otra variación de Aum. No puede haber palabra más importante para un creyente, ni más transformadora, porque, sin duda va más allá de la creencia y se hunde en la realidad como no puede hacerlo el conocimiento. Pero está claro que nadie vive ni piensa sin asunción.

Con tiempo suficiente cualquiera puede fabricar teorías, pero nos resulta mucho más difícil vivir sin ellas, pues nuestra vida depende de muchas teorías que ni siquiera hemos elaborado. La diferencia básica entre la filosofía y el Vedanta es que la filosofía se detiene en el cuestionamiento de las suposiciones, mientras que el Vedanta cuestiona la asunción hasta el final. Por otra parte, si la primeridad de Peirce es un Cogito sin Yo que la formalidad del discurso filosófico apenas permite explorar, mucho menos se ha sondeado la relación no operacional entre cuaternidad y primeridad, entre la toma de conciencia global que es la asunción y la multiplicidad de estados interiores que nos es connatural hasta que algo en nosotros dice “Yo” obstruyendo su percepción.

La diferencia entre suposición y asunción sería como la que hay entre pensar en algo y pensar desde algo —si tal diferencia pudiera plantearse dentro de los términos del pensamiento. La asunción es más bien el estado global de la conciencia, y puede haber infinitos estados dentro de una misma asunción, y muchas asunciones o estaciones.

*

Siempre un poco a regañadientes, Peirce no dejaba de admitir que sus tres categorías coinciden en lo esencial con los tres estadios del pensamiento de Hegel; pero no hace falta forzar ningún tipo de argumento para ver que los deslizamientos de la semiótica atraviesan la historia del pensamiento de principio a fin. Tampoco faltan indicaciones tempranas de la cuaternidad, de eso que tanto puede llamarse plano trascendental como absoluta inmanencia. Fue la cuarta hipótesis sobre lo Uno y lo Otro del Parménides de Platón la que le faltó desarrollar a Plotino para “cerrar el círculo” argumentativo de sus tres hipóstasis; aunque la cuaternidad del Vedanta busque menos cerrar un círculo que abrir un claro en la comprensión.

Guenon, en su estudio clásico sobre las tríadas, que tan enorme papel han jugado en la organización del mundo antiguo, protestaba contra la asimilación abusiva de ternarios que poco o nada tienen en común. Ponía como ejemplo de esto la asimilación entre la Trimurti india y la Trinidad cristiana. Que estas tríadas pertenecen a concepciones muy distintas es más que evidente; sin embargo, entre el Padre, el Hijo y el Espíritu Santo aún existe una indudable correspondencia término a término con Brahma, Vishnu y Shiva, y con las tres letras del Omkar. De aquí se podían haber extraído las más verosímiles consecuencias teológicas, como la de que el Espíritu Santo es santo porque supone la dimensión en la que todo se extingue. Todas las ternas que tienen una estricta correspondencia semiótica apuntan a una unidad más simple que la de cualquier juicio o predicado. Esto comprende una infinidad de implicaciones lógicas imposibles de desarrollar.

Era casi inevitable que el último gran escolástico surgiera en los Estados Unidos. También que el neogótico Peirce se enroscara en un gradual aislamiento dentro del ascendente espíritu pragmático y positivista de sus contemporáneos. Si Hegel ya había rendido la versión laica de la teología occidental, Peirce, apoyándose más bien en Kant, quiso darnos una versión anglosajona que fuera verdaderamente compatible con el pensamiento científico moderno. Tanto Hegel como Peirce eran espíritus industriosos, mercuriales, fatalmente dispuestos a enredarse en los laberintos de la lógica. Lo que Hegel consiguió con su “ciencia del saber absoluto” fue la reprobación casi unánime de la comunidad científica, pero Peirce, que trató de evitar con el mayor de los escrúpulos los inciertos saltos especulativos de la dialéctica, no quedó mucho más cerca de su cometido.

En otro lugar comentamos cómo William Lawvere, uno de los grandes impulsores de la teoría matemática de categorías, ha tratado de verter a dicho lenguaje el Hegel de la Ciencia de la Lógica y la unidad de los opuestos. Con Peirce esta tarea parecía en principio mucho más factible, y no han faltado en los años más recientes intentos de diversa fortuna al respecto. Sin embargo, a medida que se avanza por este camino las dificultades se multiplican, como el mismo Peirce ya había advertido entre el asombro y la resignación. Uno no sabe de ningún científico que se sienta cómodo con la diagramación de sus propias formas de razonamiento, y eso que la “gestión de la economía del conocimiento” parece demandarlo cada día más.

La enseñanza de lo fallido de estos intentos tendría que ser evidente; aun si muchos tipos de metaanálisis tienen vigencia y utilidad, y a menudo son inevitables, tratar de eliminar la imprecisión de lo primario mataría la fuente más espontánea e inspiracional de la investigación. Lo que tenemos luego es un cadáver, y no deja de ser curioso ver a los científicos, a los que a menudo acusamos de matar los fenómenos que estudian, sometidos a disección y autopsia. Por otra parte los matemáticos que trabajan en la teoría de categorías rechazan con fuerza la acusación de estar haciendo metamatemática, y en la medida en que siguen haciendo matemática viva tienen toda la razón. Para muchos de ellos, la teoría de categorías es el lenguaje matemático sin más. Y además, su permanente recolección debería favorecer una comprensión sintética de la matemática más necesaria hoy que nunca.

En matemática, como en todo, siempre ha habido una oscilación entre creatividad y reflexión. Por otra parte, se supone que análisis y síntesis van tan de la mano que no tiene sentido dar la primacía a uno sobre el otro. Entonces, ¿por qué todos, científicos y legos por igual, tenemos la abrumadora sensación de un predominio indisputado del análisis? Ya lo hemos dicho repetidas veces: es el enorme sesgo utilitario en favor de la predicción en la matemática aplicada lo que hace imposible el equilibrio. Sólo si se busca por sí mismo el nivelar predicción y descripción se hace manifiesto lo complementario del análisis y la síntesis. Ocurre que la justificación de resultados y aplicaciones, su “fundamentación”, ha exportado idéntico sesgo a lo que antes se consideraba como “matemática pura”.

No sirve de nada echarle la culpa a una deficiencia de comprensión sintética. Esto nos impide ver el hecho de que el mismo análisis no ha hecho honor a su nombre —no ha sido análisis- ni siquiera en los aspectos más elementales del cálculo, tales como el número de dimensiones con que trabaja. Miles Williams Mathis ha demostrado esto concluyentemente, pero por ahora no sabemos de ningún matemático que se lo haya agradecido. Sólo atreviéndose a sondear las deficiencias más básicas del análisis —cuestionando nuestras más fundamentales asunciones- puede revertirse una tendencia actual que parece tan inexorable. Esto es lo evidente que ahora no se quiere quiere admitir: que los grandes avances en la comprensión sintética sólo pueden llegar con avances similares en el análisis, y que los mayores avances en el análisis serán aquellos que más directamente afecten a los fundamentos.

También los griegos hicieron grandes avances para encontrarle un lugar al cero cuando aún era nada, y la ubicación, contrapunto de la asunción, es el secreto en el misterio del nacimiento de una noción. El mismo Aristóteles muestra ya en su Física estar muy cerca del cero aritmético y plantea la imposibilidad de la división por cero dos milenios antes que los fundadores del cálculo, mientras que ni Brahmagupta ni Bhaskaracharya, el primer gran precursor del cálculo moderno, la excluyen. Todavía en 1770 Euler consideraba al cero, igual que Bhaskara, como el recíproco del infinito. El mero lapso de la gestación nos habla de la magnitud del parto; pero eso no significa que haya quedado establecida la cuestión.

Así que el sueño de formalizar las categorías de Aristóteles tuvo que esperar más de dos milenios para hacerse realidad en matemáticas; y ha sido con la teoría de categorías de orden superior, que se han empezado a superar las limitaciones del signo de igualdad, para empezar a hacer explícitas las infinitas equivalencias subyacentes. En el sentido contrario, Mathis ha terminado con el malentendido que comenzó con el uso por Arquímedes del paralelogramo de velocidades, que en el siglo XVII se interpretó como velocidad instantánea. La rectificación de este malentendido trastoca por completo la relación entre la matemática pura y la aplicada, y entre descripción y predicción.

Estamos hablando de tres mutaciones trascendentales de la matemática, tres transmutaciones por así decir, y cualquiera de las tres ha necesitado más de dos milenios para asomar limpiamente la cabeza. Es imposible saber cual será la incidencia de estos tres cambios en la noosfera del futuro, y a esta escala de tiempo no parece que tenga sentido esperar consecuencias rápidas. Los dos grandes logros de la teoría de categorías cuentan aún con una aceptación muy minoritaria de la comunidad matemática, pero después de todo aún discurren en la dirección imperante del aumento permanente del grado de abstracción.

No es el caso del descubrimiento de Mathis, que al cuestionar el criterio mismo de aplicación del cálculo, piedra de fundación del análisis, no puede estar más a contracorriente de lo contemporáneo. Pero es ese criterio de aplicación de la matemática, de la incidencia del plano de “las ideas puras” en la realidad física, lo que cambia nuestra noción de lo trascendental y lo inmanente. En verdad, si los masivos reordenamientos de la matemática más abstracta quieren tener fruto, no importa la escala de tiempo de que hablemos, ha de ser en la arena de la aplicación, y eso en absoluto lo ignoran los expertos en categorías. No es una cuestión de utilidad, sino como en los tres estadios de Hegel, de descenso y realización: abstracto, negativo y concreto.

Y tendría que saltar a la vista, ya desde el primer momento, que el cálculo finito o cálculo diferencial constante cambia por completo las nociones más básicas de la matemática, por ejemplo, la idea de espacio compacto o del continuo del que ha salido la teoría de conjuntos y toda la axiomática. Sabido es también que la teoría de categorías tiene otra idea más práctica de los fundamentos que prescinde de muchos de los criterios de la axiomática y el conjuntismo. Pero el cálculo finito, si puede extenderse consistentemente al análisis real y el complejo, afecta igual de profundamente a prácticamente todas las ramas imaginables, desde la teoría de la medida y el análisis dimensional a la definición del gradiente, la mecánica lagrangiana y hamiltoniana, el espacio de Hilbert, la teoría analítica de los números, la topología simpléctica y la topología en general. Si los expertos en categorías buscan un punto arquimediano para remover el Cielo y la Tierra matemáticos, las aplicaciones y los fundamentos, no van a encontrar nada como el cálculo finito, en verdad el único cálculo diferencial que no traiciona su nombre.

El equilibrio entre descripción y predicción se rompe definitivamente con el cálculo de Leibniz y Newton; pero en el cálculo, esto es menos una cuestión formal que en cualquier otra parte. Al buscarse las respuestas físicas en la ecuaciones diferenciales, en vez de derivar la ecuación diferencial de las consideraciones físicas, ya se ha operado la Gran Inversión, ya se ha puesto cabeza abajo el Cielo y la Tierra matemáticos. Que no quepa ninguna duda de que esta Gran Inversión es una sola con la “Gran Transformación” que experimenta la sociedad entera desde esa misma época. Reparar este “deslizamiento semiótico” de primera magnitud es la condición indispensable para despejar el camino real de la síntesis en matemática, para que los incesantes esfuerzos de los matemáticos en pos de la unidad se adentren en la profundidad del camino de retorno.

Lo que parece imposible de aceptar se transforma desde el momento mismo en que lo asumimos. Aun si el cálculo diferencial constante está enteramente por desarrollar, los ejemplos elementales que propone Mathis plantean ya de entrada una transformación fundamental de nuestra idea de lo analítico y lo sintético, y aun de su finalidad. También muestra el camino para eliminar las manipulaciones algebraicas ilegales de todo tipo justificadas por motivos heurísticos y que plagan todos los campos del análisis cuantitativo. Esto más parece una pesadilla que una promesa; sencillamente, hay demasiado construido sobre el cálculo para que éste pueda reformarse, al menos, en una escala de tiempo razonable.

Lo que bien podemos llamar el demonio del cálculo, que hasta tal punto se ha adueñado de la mentalidad que busca reducirlo todo a cantidad, consiste en creer que una función está construida desde abajo hacia arriba con elementos indivisibles —infinitesimales primero, pasos al límite después-, y no desde arriba hacia abajo, como hace Mathis con su cálculo constante —hay una tasa de cambio indivisible o unitaria en cada caso, pero en ella el numerador ha de encontrar su denominador, que no ha quedado establecido de antemano. Todo el espíritu de la ciencia moderna ha dependido de este espejismo, hasta tal punto, que el mismo Mathis parece seguir creyendo que es posible llegar a la determinación de leyes naturales unívocas mediante el cálculo.

El materialismo y reduccionismo modernos, tan diferentes por ejemplo del atomismo de la antigüedad, más que en cualquier confianza en la idea de materia o del objeto, se apoyan en su fe en que el cálculo determina correctamente y de manera irreductible las tasas de cambio en el movimiento, y con ello en los procesos y fenómenos. Ahora ya es posible desmentir esto, y no sólo desmentirlo sino plantear otra estrategia general para el análisis.

El método científico oscila entre idealizaciones y racionalizaciones y en el cálculo se pasó de los infinitesimales a la teoría del límite, que es sólo una justificación para la enorme masa de resultados obtenidos. La teoría de categorías surgió de la generalización de operaciones de paso al límite —operaciones sintéticas- en problemas complicados del análisis superior, pero aún les queda un largo retorno hasta llegar al quid de la cuestión. Pero no es un secreto, sino más bien un permanente olvido, que el origen de la teoría del límite es que no hay límite para un punto, sino tan sólo para intervalos definidos.

El matemático no debería quitarse de encima los argumentos de Mathis diciendo que tan sólo se trata de cálculo elemental y que su rigidez de criterio impide abordar la mayor parte de los problemas. Todo lo contrario: precisamente porque es tan elemental, y porque el asunto va mucho más allá de cuestiones semánticas, es inexcusable ignorarlo. Y precisamente porque tiene un criterio rígido, marca también un camino recto. Y si hay un camino recto, ¿qué habrá que pensar de los atajos?

La más que lógica oposición a la reforma del cálculo no se superará frontalmente, sino más bien por desbordamientos laterales. Por ejemplo, el método de Mathis parece reproducir numéricamente la misma estimación espontánea y en tiempo real que hace un corredor cuando trata de mantener un ángulo constante de movimiento relativo con una pelota en trayectoria parabólica para atraparla. Si esta coincidencia se confirma como exacta, sería algo verdaderamente extraordinario, no ya porque plantee una conexión directa e íntima entre cálculo, “inteligencia artificial” y “habilidades intuitivas”, sino porque más acá de estos empeños utilitarios nos lleva directamente a la cuestión mucho más profunda de la relación entre la inteligencia formal y la informal. En el mismo orden de cosas, permite plantear de modo nítido si, más allá del carácter tentativo y falible de todo lo que se atribuye a la “intuición”, existe un conocimiento no intuitivo inmediato como el que postuló en su día Jakob Fries.

A comienzos del siglo XX, Leonard Nelson adoptó el postulado de Fries como fundamento de la axiomática en el espíritu de Hilbert; hoy habría que ir más bien en el sentido contrario: nos acercamos a la unidad cuando la forma matemática persigue al conocimiento informal, algo que sólo puede plantearse correctamente en la medida en que tal conocimiento no se confunda con “la intuición”. Y el esfuerzo de la matemática más abstracta por descender al mundo empírico es uno solo con esto, aunque aún esté lejos de ser evidente.

Nelson y Fries apelaron al espíritu de Sócrates más que al de Platón. Este último se encargó de interponer toda una ontología y un exuberante despliegue de formas que obstruyen la vía del conocimiento más que la facilitan; sin duda Sócrates estaba mucho más próximo a la indagación en lo informe que caracteriza al Vedanta. Pero como no sólo nuestro extraordinario despliegue formal parte de Platón, sino que también su metafísica se ha transformado en nuestra matefísica, en que la matemática prescribe de antemano el marco de la experiencia en el mundo físico, no queda más remedio que adoptar el camino inverso: de lo terciario a lo secundario, y de esto a lo primario.

Para el lógico y el matemático el único conocimiento digno de tal nombre es el conocimiento mediado por las formas. Pero si podemos superponer consistentemente el conocimiento terciario —que ya envuelve al secundario- con el que obra en primera persona, también hemos ido más allá de la primeridad y la terceridad. Ese es el camino que intentamos señalar; ese es el sentido de la cuaternidad.

*

Pero la misma concepción de la semiosis como un proceso horizontal de interacción ya es totalmente deudora de la escritura y la alfabetización. De lo que habla el Mandukyopanishad es de un denominador común a los tres estados más elementales de la conciencia —la vigilia, el sueño y el sueño sin sueños—, estados de una inmediatez incuestionable en comparación con los cuales las tríadas derivadas en enésima instancia por el pensamiento y sus formalismos han de parecer remotas. Y aun así existe una continuidad.

Las tres fases o estados de la conciencia pueden asimilarse con lo consciente, lo subconsciente y lo inconsciente; siempre que aquí “inconsciente” se entienda literalmente como la inconsciencia total que todas las noches alcanzamos en el sueño profundo. Esta inconsciencia total coincide con lo incognoscible, y sin embargo nada nos es más íntimo. Así que tenemos el mundo externo de la vigilia, el mundo interno de los sueños y la imaginación, y la intimidad que nada sabe de la existencia de los otros dos.

Más allá de ellos está el cuarto estado, Turya, denominador común de los tres. Incluso en el lenguaje ordinario la palabra “inconsciencia” está referida a la conciencia y a nada más. Lo único que cambia en la perspectiva no-dual es que esa inconsciencia no se considera como un límite externo, sino que se pone en el centro mismo. De hecho al tercer estado, al sueño profundo, se lo llama Prajña, inteligencia, comprensión; algo que, no hay ni que decirlo, para la inteligencia que se apoya en la forma resulta de lo más incomprensible.

Sin embargo el razonamiento formal está haciendo algo enteramente similar dentro de su reducida esfera de terceridad, creando su propia base a través de suposiciones o hipótesis para luego situarlas en lo más alto y descender por deducción, con un amplio espacio intermedio e informal para la imaginación y la inducción.

Aún hoy es común entender el Advaita como una negación categórica de la realidad del mundo o como un idealismo extremo, cuando sólo afirma que el mundo es inseparable del sujeto y es irreal sólo si pretendemos concebirlo sin él. El materialismo busca fundarse en la materia como base estable porque se supone que es inconsciente y porque es mensurable y controlable; pero en el proceso de control y medida se pierde toda la inmediatez de su inconsciencia, de la que nosotros participamos ya directamente y sin necesidad de mediación alguna. El materialismo es un experto en crear distancias que luego pretende colmar.

Lo que reconoce que lo que concebimos como inconsciencia externa está ya en lo íntimo de la conciencia no es ningún desplazamiento semántico en particular sino aquello que está entre ellos y los comprende; lo que no excluye que los ajustes internos puedan concurrir en el reconocimiento. La distinción de este aspecto “más sutil que lo más sutil” queda representada por el bindu del Omkar. Cuando este sí mismo se concibe como más allá de los tres se lo denomina “cuarto estado” o Turya, cuando se lo concibe como estando más allá de la separación se lo llama Turyatita, que no es un quinto estado en absoluto, sino la desaparición del sentido de lo separado, su retorno fluido a la totalidad.

Aunque no deje de ser una representación como cualquier otra, puede ser útil imaginar el presente, pasado y futuro no ya como una proceso lineal horizontal, ni tampoco como un círculo sin más, sino como un despliegue vertical continuo y siempre presente en el que la base se desplaza permanentemente. Lejos de ser una concepción “más sofisticada” de lo temporal, está mucho más en sintonía con los procesos naturales, que tienen ya lo esencial para entenderse a uno mismo.

Nuestras representaciones conscientes son como el tronco y las ramas de un árbol, nuestro deseo e imaginación como las raíces, nuestra inconsciencia es la tierra de la que se nutren las raíces. La sustancia es convocada por el Sol desde la respuesta de la tierra y las raíces hasta las yemas, las hojas y los frutos, y al límite de su potencia para llegar al Sol, vuelve de nuevo desprendido a la tierra como semilla, como un nuevo y cumplido microcosmos. No se pasa del tiempo lineal y horizontal al tiempo circular sin advertir el despliegue vertical del presente, pasado y futuro, el constante desplazamiento de su base, lo intensivo de su permanente actividad.

La misma lógica superior opera en la autonomía de la vigilia en el mundo animal, y ya Platón habló de las tres almas del hombre, vegetativa, sensitiva y racional; que no pueden verse sino como coexistentes en el tiempo a la vez que saliendo la una de la otra. Las modalidades del samkya indio también tienen una íntima relación con esto, e incluso veremos su relación con los principios de la mecánica con sólo incluir el fondo del que emergen y hacia el que van.

3. Disposición de la mecánica

Para uno mismo, la comprensión no-dual no depende de ningún tipo de conocimiento o saber, como tampoco puede depender de ningún tipo de técnica o tecnología. ¿Por qué ocuparse entonces de las máquinas? Por lo mismo que podemos ocuparnos de la lógica, la ciencia o la filosofía. Porque, dentro de lo que es el conjunto de nuestra cultura, se interponen en el camino del retorno, y por lo tanto son parte de él. Y son parte también de lo que puede ser restituido en el espíritu del Cuaternario.

Lo único que mantiene en Occidente la ilusión de un tiempo irreversible es el progreso de la Tecnociencia, pero este progreso está llamado a colapsar porque los mismos supuestos tecnocientíficos tienen tantas contradicciones que tienden a frenarse y cancelarse mutuamente, no a acelerarse como se pretende. Por otra parte es lógico que haya resistencia a renovar los fundamentos para conservar el impulso hacia adelante, pero esto también conduce inexorablemente al estancamiento —las únicas “ideas nuevas” que se aceptan son las más sofisticadas porque las verdaderas ideas nuevas, que sólo pueden tener relevancia si son básicas, destrozarían los más imprescindibles estándares.

En definitiva, querer el progreso irreversible tiene efectos irreversibles. ¿O será más bien que la deriva general nos fuerza a creer que queremos? Como se puede creer en lo irreversible, pero de una manera muy diferente, vamos a mirar primero hacia atrás; porque no se puede pretender encontrar otra clave en las máquinas sin revisar los fundamentos de la mecánica. Para casi todos, buscar algo nuevo en los principios de la mecánica sería como esperar sacar agua de una roca golpeándola; pues eso mismo es lo que vamos a hacer. Los principios de la mecánica guardan el secreto más recóndito de la modernidad: su propio cierre formal y material.

Disposición de la mecánica y cuarto principio

Los principios de la mecánica —para muchos leyes- de Newton son el marco que dispone cómo y en qué sentido se deben entender las complejas relaciones que pueden mediar entre las partes de un sistema físico o una máquina. Ya discutimos el tema con más detenimiento en el ensayo La Tecnociencia y el laboratorio del Yo; aquí haremos un resumen con algunas reflexiones ulteriores.

Los tres principios de Newton, surgidos como enmienda de los propuestos por Descartes, no sólo pertenecen a la física sino que tienen una indudable base común con los niveles más inmediatos de la experiencia humana en general. Lo que no significa que deban confundirse sin más con esa experiencia: cualquiera admitirá que están extraídos y abstraídos de ella, constituyendo la parte que nos parece cuantitativamente más relevante. Suponen por lo tanto un recorte de la realidad.

Así los tres principios, ya sea tomados cada uno por separado, ya sea en conjunto, han de ser considerados como condicionales, lo cual significa que su aplicación o extensión indiscriminada nunca está garantizada. La historia de la física está llena de momentos señalados y encrucijadas en que la aplicación y arbitraje de los tres principios no ha podido ser más problemático, dejando aún mucho espacio libre para interpretaciones erróneas. Sintetizando al máximo:

1-El principio de inercia resultó tan difícil de asumir que llevó generaciones interiorizarlo, y siempre de modo superficial. ¿Qué sabemos de la inercia? Lo mismo que del vacío físico, la masa o la gravedad: prácticamente nada. Para que no sea un puro espectro, tenemos que imaginarnos la inercia como una bola que rueda, tal como hizo Galileo. Pero el movimiento de una bola que rueda ha de estar referido a ejes de coordenadas inerciales externos al objeto o sistema, con lo que tenemos un objeto aislado con la propiedad de no estar aislado.

El principio de inercia implica el gran problema del sistema de referencia, y la física moderna lo sigue reduciendo a una cuestión meramente geométrica. Si realmente se tratara de física y no sólo matemática, el origen de coordenadas de un marco de referencia, como reclama Patrick Cornille, debería localizarse siempre en el centro de masa de una partícula puntual, cuyo valor ha de incorporar. Esta conexión es la indispensable precondición para que la descripción formal en términos de espacio y tiempo tome contacto con lo material a través del movimiento. Sin embargo la física moderna elude sistemáticamente esta vinculación.

2- El segundo principio, que define la fuerza, no hace explícito que sólo se tienen en cuenta las fuerzas controlables. En física todo lo controlable es medible, pero no todo lo medible es controlable. En mecánica no puede haber cantidades incontrolables, pero en la realidad las hay por todas partes. Piénsese en la ley constitutiva de los materiales, donde es imposible hacer experimentos que midan simultáneamente los tres valores principales de la tensión o de la deformación. Las fuerzas derivadas de rotaciones, sus combinaciones y grupos también pueden presentar este problema. Las cantidades incontrolables en absoluto son privativas de la mecánica cuántica.

Por otra parte, Newton usó la analogía de la honda para las órbitas planetarias, pero fue muy cauteloso en su primera definición de las fuerzas centrales, que no exige que las fuerzas que ligan a los cuerpos dependan sólo de las distancias radiales. Sin embargo todos los físicos desde entonces, incluso el escrupuloso Poincaré, han entendido la cuestión como si estas fuerzas pendieran literalmente de cuerdas. Con todo, cabe igualmente considerar fuerzas que dependan también del tamaño de los cuerpos, de la velocidad y la aceleración como la de Weber, o de fuerzas no centrales, de empuje o periféricas.

3-El tercer principio de acción y reacción, tan subestimado y tan esencial, marca precisamente la línea de demarcación entre los sistemas abiertos y cerrados. Curiosamente, Newton parece introducirlo para blindar los muchos aspectos inciertos de la mecánica celeste, aunque sea allí donde menos se puede verificar, como no dejaba de lamentar Hertz, que incluso llegó a proponer otros principios. Como se sabe, en el problema de Kepler no hay materia en el centro de la órbita y el vector apunta a un espacio vacío. En la electrodinámica de Maxwell y Lorentz el tercer principio tampoco se cumple de partícula a partícula, sino que es necesario incluir el siempre nebuloso concepto de campo. Pero es que las teorías de campos en general parecen concebidas para eludir el cumplimiento directo de este principio.

En las fuerzas sin contacto o fundamentales de la física moderna la cantidad conservada es el momento, no la acción y reacción. En estas fuerzas sin contacto se supone entonces un agente o campo que controla o entrega la acción entre un cuerpo y otro. La mecánica newtoniana parte de un tiempo absoluto con simultaneidad de acción y reacción o sincronización global, de tal modo que la mediación local de la información, la forma de comunicación, resulta imposible de especificar por principio; la teoría de la relatividad sigue conservando el principio de sincronización global por más que cambie el procedimiento. Por otro lado también en la mecánica con contactos y la lógica inercial con que evaluamos nuestras máquinas e ingenios empezamos por ignorar el contacto aislando un sistema ideal.

Diversos físicos con espíritu crítico han estudiado estos aspectos con detenimiento en el pasado, aunque, no hay ni que decirlo, sus más que legítimas objeciones no han afectado lo más mínimo a la marcha obligada de su ciencia, que siempre tiene tiene tantas cosas por delante. Pero, además de sus valiosas indagaciones, aquí mi punto de partida es la experiencia directa de la biomecánica del propio cuerpo. Si los principios son realmente primarios tendrían que estar en armonía con la experiencia en primera persona, aun cuando esta por sí sola nunca nos habría permitido llegar a estas conclusiones.

Con un poco de paciencia, y con los más sencillos ejercicios isométricos de equilibrio basados en los tres ejes del espacio, cualquiera puede cerciorarse de que el centro de gravedad de su cuerpo, su marco de referencia físico, admite un juego tan complejo que de hecho comporta todo ese fondo más amplio del que los principios de la mecánica clásica emergen. Cualquier experto en biomecánica admitirá sin reparos que muchos problemas básicos de juegos de fuerzas o tensores en el cuerpo son intratables, a pesar de que nuestro organismo en movimiento los resuelve sin pensar a cada momento.

En un sentido aún por aclarar, esta cotidiana biomecánica que habla elocuentemente en nuestro cuerpo ya es más amplia y profunda que la que intentamos aplicar a todo el universo, aunque ciertamente no se nos antoje la más directa ni la más práctica para tratar problemas externos que son los que constituyen el objeto de la física.

Como ya observó Mach, el concepto de masa y el tercer principio están tan unidos que parecen redundantes; lo que sucede sin embargo es que de los tres principios es en el segundo que recae el peso central —no interrogamos a los cuerpos sino con fuerzas y a través de fuerzas. Entonces, en la mecánica clásica de la que ha partido todo, la fuerza ha sido siempre la interfaz.

¿Que la concreción física del primer principio está en desacuerdo con la idea de covariancia galileana y de la relatividad especial? ¿Que esto se refleja de forma inevitable en el tercero? Pues peor para la covariancia galileana y la relatividad especial. No estamos discutiendo ahora sobre qué es lo más conveniente para la caracterización externa de los problemas, que es el asunto de los físicos. Estamos tratando de ver qué pudiera haber antes de las conveniencias y arbitrajes de la física, en términos de la física misma. Esta contradicción aparente se hace verdaderamente necesaria si queremos terciar de forma significativa en el continuo ciencia-tecnología.

Y aquí es donde llegamos a una circunstancia tan evidente como poco notada. Los tres principios de la mecánica tratan de poner en un mismo nivel tres modos que, por lo demás, siempre pueden estar en niveles lógicos diferentes. El principio de inercia es una posibilidad, el de fuerza un hecho bruto, la acción-reacción —un mismo acto visto desde dos caras- es una relación de mediación o continuidad. Suponen la primeridad, secundidad y terceridad de la lógica y la semiótica de Peirce, las tres personas de la gramática de todas las lenguas.

La física ya es de suyo una semiótica sin la menor necesidad de añadirle nada. Claro que toda la lógica de la ciencia descansa en la separación del sujeto con respecto al objeto, mientras que la actividad de la técnica consiste en la reapropiación de ese objeto transformado por el sujeto. La ciencia siempre ha buscado la nivelación universal, pero nunca ha dejado de aumentar el número de sus niveles; la técnica parte del aprovechamiento oportunista de las conexiones entre niveles diferentes conducentes a esa nivelación universal del uso que ahora llamamos conectividad.

Damos por supuesto que todo lo que sucede en la física sucede en un mismo plano, que sería justamente “el plano de la realidad física”, del que se derivaría el “aplanamiento universal” que reduce los diferentes tipos de causas a las causas eficientes. Se ha dicho que, al rechazar en privado el dogma de la Trinidad, Newton fue “el último arriano”, pero en realidad toda la física se convirtió a esta fe sin saberlo, y no sólo la física.

Se podría pensar que los deslizamientos semánticos afectan sólo a los «asuntos internos» de la ciencia, a sus razonamientos, pero no a su frente externo, que es el que realmente le importa. Sin embargo, la historia misma es el mejor aval de que tales desplazamientos o corrimientos de tierra son a menudo los hechos más determinantes, dando fe de un doble movimiento de creciente exteriorización e interiorización, de reorientación desde los principios a los fines, y viceversa.

No es casual que haya llevado más de dos mil años perfilar algo tan insondable como el principio de inercia, y que aun Galileo necesitara la ayuda de Descartes para llegar a una formulación medianamente aceptable. Que un cuerpo en movimiento uniforme tenga la misma caracterización física que un cuerpo en reposo no es algo fácil de aceptar, entre otras cosas, porque acaba para siempre con la idea del reposo. De hecho es tan difícil de aceptar como que cuerpos de peso distinto caigan a la misma velocidad.

Desde entonces tenemos dos estados distintos de reposo. Pero la cosa no quedó ahí. Volviendo a la idéntica caída de objetos de peso diferente, el principio de equivalencia de la relatividad general —recordemos el famoso experimento mental del ascensor en caída libre- propone o estipula que la fuerza de la gravedad equivale a las fuerzas ficticias de inercia, es decir, no es una fuerza en absoluto. La forma más inmediata de acusar esto es decir que la gravedad no produce deformación en los cuerpos cuando ocasiona movimiento (dejando a un lado las fuerzas de marea de índole geométrica), mientras que sí los deforma cuando algo se opone a su potencial (achatamiento de los cuerpos estáticos). Otra observación no menos digna de estupefacción, aunque ya en 1609 Kepler diera claras muestras de conocer esta equivalencia.

Podemos hablar así de tres estados de reposo, cubriendo la entera gama de reposo relativo, movimiento uniforme y movimiento uniformemente acelerado. Desde este punto de vista, todo movimiento sería una transformación interna dentro del reposo.

A menudo, los teóricos contemporáneos en pos de un campo unificado echan de menos un simple principio rector, algo en el estilo del principio de equivalencia relativista. Pero ya Simone Weil se preguntaba, sin ocuparse en absoluto de cuestiones técnicas, por qué hemos dado en pensar en la gravedad como una fuerza que lo mueve todo en lugar de verla como una tendencia al reposo. Si diéramos un paso más tal vez tendríamos que decir que es el reposo mismo visto desde el lado del movimiento y la distribución heterogénea de los cuerpos. En las mismas ecuaciones de campo la energía de la gravedad es negativa y cancela la energía asociada a la materia; como se cancelan las fluctuaciones cuánticas en un espacio plano.

Hemos señalado en otros lugares algunas de los más chocantes deslizamientos, agujeros e incompetencias de nuestras más sonadas teorías y no vamos a volver sobre ello; después de todo, cualquier teoría va a tener siempre sus virtudes y defectos. Volviendo a la mecánica más elemental, aquella primera clasificación que hizo Jacques Lafitte de máquinas pasivas, activas y reflexivas está directamente relacionada con los tres principios, y bastaría devolver estos a su trasfondo original para que pudiéramos ver muchas más cosas en ella.

En cuanto a su espíritu, los tres principios de Newton pueden resumirse en la frase «nada se mueve si no lo mueve otra cosa», o bien que nada se mueve sin una fuerza externa. Sin embargo ya hemos señalado que hay otras formas de disponer la mecánica que hacen las mismas predicciones con principios e interpretaciones diferentes: la mecánica relacional de Assis, que es una continuación de la de Wilhelm Weber, o la que muestra Torassa en varios breves escritos. Estas formulaciones de la mecánica prescinden por entero del principio de inercia y lo sustituyen por el principio de equilibrio dinámico, que en el caso de Torassa supone automoción sin contradicción.

Y así, con una simple modificación de principios, podemos librarnos para siempre de esa cosmovisión que divide al mundo en objetos pasivos y fuerzas que han de venir necesariamente del pasado, con la infinidad de consecuencias que de esto se deriva. Pero, a pesar de que la mecánica relacional tiene obvias ventajas sobre la mecánica newtoniana y su heredera la mecánica relativista, como hacer innecesarios los complicados arbitrajes de los sistemas de referencia, ni siquiera se ha planteado su adopción. Podríamos llamarlo el peso de la Ley; pero no es un peso muerto o una mera herencia del pasado, pues sin duda los inveterados hábitos instrumentales están mucho más en sintonía con los principios de Newton.

Insistamos en lo extraordinario que es el que cambiando de principios tengamos una concepción completamente diferente de la dinámica incluso abarcando los mismos resultados y predicciones; realmente no nos detenemos ni un sólo instante a pensarlo, y nunca hace daño, pues supone una suspensión de la máquina de administrar y asignar que tenemos implantada en el cerebro.

Hoy, para acomodar las variadas circunstancias y fenómenos que se presentan, la relatividad tiene que distinguir entre un principio de equivalencia muy débil, uno débil, uno medio-fuerte y finalmente otro fuerte, que recuerdan inevitablemente a las categorías por pesos del boxeo. Si con el principio de equivalencia la relatividad se deshace de la idea de fuerza como si se tratara de una jugada suprema, para conservar la inercia y golpearse con ella la cabeza, el principio de equilibrio dinámico se libra de la idea de inercia como si nunca hubiera sido más que un estorbo. Pero la mecánica relacional ya contenía esto implícito desde la ley de Weber para la electrodinámica de 1846.

Recordemos el principio de equilibrio dinámico, tal como lo enuncia Assis: “la suma de todas las fuerzas de cualquier naturaleza actuando sobre cualquier cuerpo sea siempre cero en todos los sistemas de referencia”. Si se considera en cambio un medio homogéneo del que todo hubiera emergido por cambios de densidad, el equilibrio dinámico estaría representado por la reciprocidad en las densidades y su producto sería siempre la unidad. Ambas representaciones son compatibles pero de entrada implican cosas muy diferentes.

Los tres principios de la mecánica relacional de Assis son la definición de fuerza, el principio de acción y reacción, y el principio de equilibrio dinámico. Nótese que en los principios de Newton la acción-reacción ya define el equilibrio, pero en un sistema cerrado. Entonces, lo que hace el principio de equilibrio dinámico en la mecánica relacional es sustituir el principio de inercia que nos habla de “sistemas aislados que no están aislados” y conectarlo con el tercero de Newton pero de forma tal que el sistema permanezca abierto e incluya todo tipo de fuerzas: “gravitatorias, eléctricas, magnéticas, elásticas, químicas, de fricción, nucleares…”. Tenemos pues un bucle y la termodinámica, en vez de ser un subproducto, también es parte implícita de los fundamentos.

Ya en 1897, Poincaré, en su penetrante y concienzuda discusión del nuevo sistema de mecánica de Hertz, había dejado claro que los principios de la mecánica clásica no pueden confundirse con leyes experimentales, sino que se trata de definiciones convencionales en las que masas, fuerzas y reacciones remiten las unas a las otras. Que sean convencionales no significa que sean arbitrarias, sino simplemente que son indemostrables dentro del mismo sistema. Por el mismo motivo, sólo pueden expresar cualquier evento en sus propios términos.

Tal vez sea esto, más que cualquier otra cosa, lo que ha empujado desde siempre a los físicos a creer que Newton había explicado satisfactoriamente el problema de Kepler, a pesar de que es evidente que no es el caso. Hertz insistió correctamente en que en este problema tan general el tercer principio es inverificable, y, un siglo después, aplicándole la ley de Weber, Noskov se dio cuenta de que implicaba una retroalimentación entre los dos cuerpos con un potencial retardado y una velocidad de fase. ¿Qué significa que en el lagrangiano de una órbita la energía cinética y la potencial no sean iguales, cuando tendrían que serlo por definición? Si el lagrangiano tiene una utilidad es porque la diferencia entre estas dos energías no es nulo, ello equivale a admitir que la acción-reacción nunca se cumple de manera inmediata, sino diferida.

Mucho más simple, la versión newtoniana del problema basada en vectores de fuerza no evacúa la ambigüedad sino que la pone más de manifiesto. Desde siempre se ha intentado racionalizar la cuestión apelando al baricentro del sistema, a la variación de la velocidad orbital, o a las condiciones iniciales de los planetas; pero ninguno de estos argumentos por separado, ni la combinación de los tres, permite explicar satisfactoriamente la órbita en términos de fuerzas contemporáneas, tal como el tercer principio demanda.

Puesto que nadie quiere pensar que los vectores están sometidos a un quantitative easing, y se alargan y acortan a conveniencia, o que el planeta acelera y se frena oportunamente por su propia cuenta como una nave autopropulsada, con el fin de mantener cerrada la órbita, se ha terminado finalmente por aceptar la combinación en una sola de la velocidad orbital variable y el movimiento innato. Pero ocurre que si la fuerza centrípeta contrarresta la velocidad orbital, y esta velocidad orbital es variable a pesar de que el movimiento innato es invariable, la velocidad orbital es ya de hecho un resultado de la interacción entre la fuerza centrípeta y la innata, con lo que entonces la fuerza centrípeta también está actuando sobre sí misma. Por lo tanto, y descontadas las otras opciones, se trata de un caso de feedback o autointeracción del sistema entero en su conjunto.

Así pues, habrá que decir que la afirmación de que la teoría de Newton explica la forma de las elipses, es, como mucho, un recurso pedagógico. Sin embargo esta pedagogía nos ha hecho olvidar que no son nuestra leyes las que determinan o «predicen» los fenómenos que observamos, sino que a lo sumo intentan encajar en ellos. Comprender la diferencia nos ayudaría a encontrar nuestro lugar en el panorama general.

Los físicos no suelen preguntarse cuál es la relación precisa entre el potencial retardado de Weber y Noskov y la fase geométrica descubierta por Pancharatnam, si coinciden parcial o totalmente. Pero a los físicos también les gusta decir que la fase geométrica, más conocida ahora como fase de Berry, es un fenómeno privativo de la mecánica cuántica, cuando de hecho es universal y se observa a todas las escalas y aun sobre la superficie del agua.

Por otra parte también se afirma que la fase geométrica no cambia en absoluto la exactitud de la mecánica cuántica, cuando es un hecho que no cabe en el acostumbrado espacio de Hilbert y sólo se incorpora a las descripciones tras añadir un haz suplementario. Pero lo que esto significa, simplemente, es que no pertenece a la dinámica hamiltoniana que define a los sistemas conservativos, y esto es lo fundamental.

La fase geométrica, “cambio global sin cambio local”, es seguramente más conocida por el efecto Aharonov-Bohm, que nos muestra cómo una partícula cargada refleja el potencial incluso allí donde los campos eléctrico y magnético son cero. Sabido es que esto produjo un gran desconcierto en los años sesenta del pasado siglo pero con el tiempo se ha hecho patente, tanto por las ecuaciones como por los experimentos, que el fenómeno tiene un origen puramente clásico, estando ya presente en el efecto de inducción de Faraday; sin embargo es muy raro que esto se admita, lo que ya da en qué pensar.

Las múltiples manifestaciones de la fase geométrica siguen siendo una cuestión abierta pero los físicos evitan su interpretación. Que es algo más que geometría es evidente, pues en mecánica cuántica la geometría es lo de menos, y aquí de lo que hablamos es de un efecto perfectamente mensurable y robusto, aunque inexplicado.

No es necesario recordar que todo potencial es puramente geométrico, no siendo otra cosa que la posición. Sin embargo su parte mayor ya está incluida dentro de la teoría y se considera subordinada a la dinámica, mientras que a la parte menor que no estaba contemplada y que refleja la interferencia y la precesión del giro se la llama “fase geométrica”. El potencial retardado original de Weber queda referido a la parte dinámica mayor, pero la velocidad de fase y la oscilación interna correlativas que postuló Noskov serían el equivalente de la fase geométrica propiamente dicha además de las ondas de materia de de Broglie.

Hace más de diez años Pinheiro propuso “una cuarta ley del movimiento” que rectificaría “la segunda ley” para fenómenos transitorios. Trataba de generalizar la inducción de Faraday más allá del campo electromagnético, para la retroacción del vacío en efectos de precesión en los sistemas mecánicos en general. El efecto lo puede verificar rápidamente cualquiera incluso con un simple giroscopio de anillo. Según el propio autor, esta cuarta ley coincidiría con la fase geométrica.

Más recientemente el mismo Pinheiro ha propuesto una reformulación de la mecánica y la electrodinámica mediante un nuevo principio variacional y un balance entre el cambio mínimo de energía y la producción máxima de entropía. Los sistemas así descritos permiten la existencia de energía termodinámica libre y la conversión de momento angular en momento lineal con un componente de torsión que siempre cabe interpretar como un cambio de densidad.

Esta reformulación tiene gran interés, porque además de reemplazar el lagrangiano integra la mecánica y la termodinámica; y aún sería más interesante si pudiéramos saber cómo se conecta esta mecánica con la fase geométrica y la citada “cuarta ley”. Un indicio de ello está en la explicación que da Pinheiro del célebre experimento del cubo de agua de Newton, que es diferente de todas las posturas tradicionales. «Lo que importa es el transporte de momento angular (que impone un equilibrio entre la fuerza centrífuga empujando el fluido hacia fuera) contrapesado por la presión del fluido”. Está claro que hay una causalidad mecánica, y no puede tratarse ni del espacio absoluto de Newton ni de las estrellas lejanas de Mach, puesto que al agua le lleva tiempo adquirir su concavidad y la fricción ha de estar por medio.

Sin embargo este hecho tan evidente nunca ha sido apreciado por los físicos, para los que la termodinámica sería sólo un subproducto de una mecánica fundamental. Tratar de ver cómo emerge la mecánica reversible de lo irreversible, en vez de pretender contra toda evidencia lo contrario, altera profundamente nuestra relación con la física y la Naturaleza.

La interpretación de Boltzmann de la entropía como desorden, que todavía tiene tanto peso aun con su patente subjetividad, sólo consigue distorsionar nuestra percepción de la termodinámica. El principio original de máxima entropía de Clausius ya supone una tendencia hacia el orden, pues como dijo Swenson, «el mundo está en el asunto de la producción de orden, incluida la producción de seres vivos y su capacidad de percepción y acción, pues el orden produce entropía más rápido que el desorden”.

A muchos físicos puede parecerles gratuita la fusión de la mecánica y la termodinámica en una termomecánica, incluso cuando ahora se hacen intentos muy publicitados por derivar la gravedad de la entropía; sin embargo ni siquiera en estos casos se advierte que el problema de Kepler descubre un cabo de esta cuestión del modo más directo y natural: si ya sabemos de antemano que la órbita se conserva, cuando en términos puramente vectoriales debería abrirse, existe una tasa latente de disipación. El lagrangiano, que traduce esta circunstancia a términos de energía, también puede esconder tasas virtuales de disipación, y de hecho lo que Lagrange hizo fue diluir el principio de trabajo virtual de D’Alembert introduciendo coordenadas generalizadas. Pero estamos tan acostumbrados a separar los formalismos de la termodinámica de los de los sistemas reversibles, supuestamente más fundamentales, que cuesta ver lo que esto significa. Sin embargo, el instinto más cierto nos dice que todo lo reversible no es sino pura ilusión, y que los comportamientos reversibles son meras islas rodeadas por un océano sin formas. No hay movimiento sin irreversibilidad; pretender lo contrario es una quimera.

Comprender que “el desorden” de fondo ya está incluido en el orden apreciable, en las órbitas de los átomos y sus fuerzas que responden a “leyes”, en lugar de ser un subproducto de su interacción, invierte limpiamente nuestra concepción sesgada tanto de las leyes como del fondo del que emergen, así como los nuevos prejuicios, tan antropocéntricos o más que los que los precedieron, que la física ha introducido con respecto a la idea de finalidad.

Por otro lado, lo que podría ocultarnos el desplazamiento de fase en el fenómeno de la fase geométrica es el mismo deslizamiento interno de los términos en los principios de movimiento. Se admite que la inclusión de esta fase dentro de la electrodinámica implica al conjunto de la teoría electromagnética, es decir, a lo que ahora llamamos las cuatro ecuaciones de Maxwell. En este sentido puramente global, la fase geométrica sería “la quinta ecuación”.

Pues bien, en buena lógica lo mismo ha de aplicarse a los principios del movimiento. Más que una “cuarta ley”, como la llama tentativamente Pinheiro, puede hablarse de un cuarto principio que no es tal. Que es puramente interno, pero que, si arroja resultados que no eran previsibles, es sólo porque aquí no estamos hablando de un sistema clausurado, tal como el tercer principio estipula. No hay sistemas cerrados en la Naturaleza, ni en mecánica ni en termodinámica; sólo hay sistemas cerrados por la convención misma que faculta a las leyes.

Así pues, lo más probable es que buena parte de las numerosas anomalías de la mecánica, que por necesidad legal hay que atribuir a la fricción o los errores de observación, respondan a este principio cero de la dinámica que nos dice que no existen sistemas cerrados y que eso tiene consecuencias. La fase geométrica, que no deja de ser un suplemento añadido a la mecánica, nos garantiza que algunos de estos efectos pueden reproducirse sistemáticamente una y otra vez. Se dice de este aspecto que es «no dinámico» o“independiente del tiempo” pero también el principio de acción y reacción lo es, además de una sección indefinida del principio de inercia.

Por lo demás este “principio cero” comporta algo absolutamente evidente y sin embargo muy difícil de asumir: que los otros tres principios no son independientes, sino interdependientes. Es decir, si las fuerzas no están bajo control no se puede precisar por medio de qué principio falla el balance de cuentas, si en una inercia o masa variables, en las propias fuerzas, o en la reacción; y aun si se trata de fuerzas controlables sigue habiendo espacio para la ambigüedad entre el primer y el tercer principio. Si se supone que las masas permanecen constantes, es sobre todo para intentar conjurar esta ambigüedad; pero apelando a las definiciones antes que a lo experimental.

En una dinámica como la de Weber o Noskov es imposible que existan singularidades y cantidades infinitas, puesto que el principio de autorregulación que comporta disminuye la fuerza cuando aumenta la velocidad. Uno no debería tener que afirmar que lo infinito no existe en la Naturaleza, y sólo una identificación a ultranza con la teoría empuja a la física a especular con matemáticas que burlan cualquier comprobación.

Esta autorregulación del principio cero que el Sincronizador Global esconde lo asemeja a un bucle o nudo corredizo, y puesto que su deslizamiento impide precisamente la posibilidad de cantidades infinitas, no habría símbolo más adecuado para representarlo que el mismo que Wallis dio al infinito (∞), con un punto encima tal vez. Puesto que el símbolo de Wallis data de 1655 y precede de forma inmediata al cálculo infinitesimal y los principios de la mecánica, su uso nos recordaría precisamente los límites que las propias condiciones de contorno imponen sobre la dinámica. Y, además, es el fondo ilimitado el que asiste para crear un bucle temporalmente cerrado.

La fase geométrica está íntimamente asociada con la interferencia y el giro o torsión del propio patrón de interferencia. Y ya que hemos hablado de la biomecánica en primera persona, también es oportuno apuntar que este fenómeno puede experimentarse directa y regularmente en muchos ejercicios físicos con un componente apreciable de autoinducción, incluso si se hacen muy lentamente. Se trata de una inducción puramente mecánica, no electromagnética, aunque la analogía es bastante apropiada. Es evidente que nuestro cuerpo opera según las leyes biomecánicas, como también es evidente que es un sistema abierto en intercambio con su ambiente.

Por supuesto, expresiones de la fase geométrica están perfectamente documentadas en diversos casos de locomoción animal, como en gatos, serpientes o la propulsión en fluidos de las amebas; y la robótica y la teoría del control también conocen bien el tema. No deja de ser curioso que creamos en los infinitos de las más extremas teorías y seamos incapaces de reconocer algo que podemos generar tranquilamente en nuestro propio cuerpo.

Hay muchos tipos de fase geométrica que afectan a otros tantos tipos de procesos diferentes, por lo que las causas pueden variar tanto como las circunstancias. Está claro que la única opinión consensuada es que no se trata de una “fuerza dinámica”, una de las fuerzas de interacción conocidas, pero eso no es decir mucho porque desde el comienzo la diferencia en la acción se asigna al potencial, se sigue suponiendo la pasividad del vacío y el valor constante de las cantidades asociadas a los principios correspondientes. Si la física interroga a la Naturaleza a través de las fuerzas, tendríamos que poder interrogar a los tres principios a través de la fase geométrica. Esto nos daría una concepción diferente sobre qué es lo fundamental.

Como ya notaba Poincaré, en las ecuaciones de Weber, que introducen el cuadrado de la velocidad, no es posible distinguir entre la energía cinética, la potencial y la interna de los propios cuerpos. Hay algo que permanece constante, pero nunca puede llegar a saberse exactamente qué. Y como muestra el mismo Poincaré, esta indefinición de fondo no sólo atañe a la mecánica de Weber sino que es inherente a la propia amplitud del concepto de energía, que a fin de cuentas nunca ha sido más que un balance contable. Después de todo, la electrodinámica de Weber permite prácticamente los mismos cálculos y predicciones que las ecuaciones de Maxwell, y de hecho, también hace posibles otros muchos cálculos fundamentales vedados a las dos teorías de la relatividad.

La posición de Poincaré sobre el carácter irremediablemente convencional de nuestras teorías no puede ser superada, sino, como mucho, ignorada. Y es que Ley y Convención son lo mismo, algo en lo que Peirce no deja de insistir a propósito de la terceridad. La diferencia entre un signo ordinario en primer grado y un símbolo en tercer grado es que la correspondencia con su objeto es mera ficción en el primer caso y en cambio en el símbolo con estatus legal se funda o se justifica en su propia naturaleza. Para verlo claramente hay que estar a la vez dentro y fuera de la convención, que es lo que presupone nuestro “cuarto principio”, o si se prefiere, nuestros tres principios y medio.

4. Máquinas, antimáquinas, no-máquinas y cuerpos

Por qué nos interesan las máquinas

¿Por qué hoy existe mucho más interés en las máquinas que en la ciencia? De hecho, salvo si se logra una perspectiva realmente desacostumbrada del proceso científico, las cuestiones de ciencia y epistemología han dejado de interesar, por no decir que aburren mortalmente. Incluso a los especialistas aburren, no digamos al resto. Probablemente tenga mucho que ver que las ciencias se mueven ya a tal nivel de especialización que dejan de tener interés general, y el lego no deja de percibir que las rendiciones de la divulgación sólo permiten simplificaciones ilusorias.

Se percibe, incluso sin quererlo, que en la ciencia de hoy todo es absolutamente instrumental, y para eso es mejor ir directamente a las máquinas, que ya son la prueba más concreta de esa instrumentalidad. Y no sólo prueba, sino demostración en movimiento; una demostración que habla y responde con tan solo usarlas. Si al menos en ciencia estuviera permitido plantearse cosas nuevas al nivel más básico; pero es que lo que hoy se ve como más fundamental resulta lo más esotérico de todo, así como el más elaborado.

Por eso es oportuno plantear otro concepto radicalmente diferente y aun opuesto de qué es la ciencia fundamental, que ha de pasar necesariamente por los principios. Esto vale tanto para la matemática como la física, y al estar en juego una “transición de fase” para la inferencia en general, cabe suponer que para el conjunto de las ciencias. Y, seguramente, para nuestra concepción de las máquinas o aparatos y su problemática relación con la Naturaleza.

Si las máquinas desplazan el hueco de diferencia, que las teorías circulan siempre en dirección a una abstracción creciente, en el sentido contrario de la concreción, se supone que el hombre ha de ubicarse en ese hueco por la interacción —con la máquina y con el medio. El “medio” es el entorno, pero este entorno, ya sea natural o social en un número incontable y siempre creciente de grados, aquí se convierte en objeto.

Tanto la religión como la ciencia aspiran a la totalidad mientras que a la vez se mueven dentro de ella, o más bien, de una totalidad peculiar; la primera lo hace en el plano de la subjetividad y la segunda en el de la objetividad, pero esta totalidad objetiva se retira constantemente y aun los expertos tienen gran dificultad en ubicarse en su seno. Por el contrario, a través de lo técnico, todo lo que es asimilable de la ciencia se vuelca en lo particular, de modo tal que lo subjetivo se inserta en lo objetivo. Esta sería la “participación mística” del usuario dentro de un proceso tecnocientífico inabarcable.

Sin embargo el tipo de máquinas y aparatos de los que vamos a hablar aquí ponen en juego una totalidad por derecho propio, porque ya desde el principio apelan a otra disposición de la mecánica y la dinámica. Implican a menudo fases geométricas, que preferimos llamar holonomías en vez de anholonomías porque la segunda expresión se deriva de su no integrabilidad en el cálculo mientras que su carácter global puede apreciarse a simple vista. Por lo demás, es la propia terminología de la mecánica cuántica la que ha abusado de la vaguedad del término “no-local”, cuando lo que muestran los experimentos, tanto a nivel clásico como cuántico, es que estas holonomías se inscriben siempre dentro de una configuración global definida, sin perjuicio de que ello implique interacciones no especificadas con el medio.

Cada vez se hará más claro que el término “fase geométrica” se aplica sólo a la envolvente de un proceso dinámico, sea o no problemático. En tal sentido lo apropiado sería hablar más bien de la fase global, que incluye a la “fase geométrica” y la “fase dinámica”, aunque no necesariamente como suma. Puesto que en los casos más importantes se deriva la fuerza del potencial, pero se pretende que es al contrario, no queda sino decir que no tiene nada que ver con las “fuerzas dinámicas”; incluso si hoy se admite que la fuerza tampoco es lo fundamental. En cualquier caso, la “geometría” de la que habla la fase geométrica es la geometría del ambiente que atraviesa el transporte paralelo, excluida de antemano por el marco conservativo de la mecánica. De no ser por las contingencias de la historia de la física, podríamos haberla llamado fase armónica, o incluso simplemente movimiento armónico, en cuanto implica el principio de equilibrio dinámico dentro sistemas abiertos; pero hoy esas denominaciones sólo crearían confusión.

El hombre ha creado todo tipo de máquinas no sólo para delegar actividades o facilitarse la vida, sino también para poner a prueba los límites, tanto de lo humano como de la Naturaleza. Por tanto hay aquí mucho más espacio para la especulación y aun para el puro placer de especular, algo que no puede existir cuando es la misma teoría la que obliga a ello, y cuando no hay luego forma de someterlo a concretización.

Sin embargo sabemos positivamente, por una larga experiencia histórica que se reproduce todos los días, que los propios científicos experimentales y los técnicos delegan en los teóricos a la hora de dar la descripción e interpretación definitiva de los hechos. Los teóricos no llegan a predecir ni la mitad de efectos reproducibles y a menudo los declaran imposibles de antemano, pero al final son ellos y no los ingenieros los que nos dicen por qué ha funcionado todo. Los experimentadores están superando continuamente los límites de las teorías pero los teóricos se encargan de redirigirlo todo a la deseada normalidad, así sea con las mayores distorsiones, creación de sospechosas palabras, entidades o pseudo-partículas; y es que la Ley es la Ley, y el estándar, el estándar.

En ciencia se habla de artefactos experimentales para atribuir resultados no asimilables a errores en la técnica o el manejo de los aparatos; pero ante la tergiversación y reorganización masiva y sistemática de los datos en la interpretación de los experimentos sólo cabe hablar de auténticos artefactos teóricos.

Ya lo hemos dicho en otra parte: “Los ingenieros no saben por qué el cálculo funciona, pero esperan que los físicos lo sepan. Los físicos no saben por qué el cálculo funciona, pero esperan que los matemáticos lo sepan. Los matemáticos no saben por qué el cálculo funciona, pero esperan que nadie lo sepa”. Si esto ocurre ya con el cálculo elemental, puede imaginarse lo que sucede con la interpretación de fenómenos tan complicados como los del laboratorio moderno.

La fenomenología de la física experimental de hoy es tan variada que no pretendemos ofrecer una perspectiva de conjunto; pero el tipo de reducción teórica, a nivel lógico, ya está perfectamente sintetizada en el arbitraje e interpretación de los tres principios, y su extensión a otras leyes de conservación, con respecto a lo que puede estar fuera de ellos.

Las instancias a las que aludimos se prestan inevitablemente a controversias, pero al menos lo peor de las polémicas puede evitarse siempre que se comprenda que estamos hablando de distintos fines. Sabemos muy bien cuál es la orientación de la ciencia contemporánea; si los científicos que la sustentan saben cuál es la de este trabajo nos ahorraremos disputas La predicción de la energía del vacío, por poner un ejemplo, es la mayor catástrofe teórica en los anales de la ciencia, una catástrofe de 120 órdenes de magnitud; por lo mismo, no tendría que resultar enojoso para nadie que se aduzca la interacción entre el vacío y la materia en condiciones ordinarias y a bajas energías; aparte de que el vacío por sí solo no existe ni puede existir salvo como mera palabra.

Una línea de avance general sin mover la base resulta imposible por definición. Sin duda los principios se vuelven más interesantes cuando se aborda su aplicación, que es lo mismo que explorar en detalle sus implicaciones.

La otra cara del tiempo

Existen muchas diferentes y más o menos vagas nociones del tiempo, pero en la física sólo hay básicamente una, que es la que instituye el Tercer Principio: la simultaneidad de acción y reacción. Del Tercer Principio se derivan también nuestras nociones de los sistemas cerrados y las sucesivas, más generales leyes de conservación. Esta simultaneidad de acción y reacción supone un Sincronizador Global y ni la relatividad especial y general, ni la mecánica cuántica dejan de encajar, con las debidas adaptaciones, en este esquema.

Por tanto el Sincronizador Global es el supuesto tácito más poderoso de la física moderna, el arcano organizador que termina por convertir cualquier acontecimiento natural en un ajuste de relojería. La cuestión, que ya hemos planteado antes, es qué se revela en la naturaleza cuando prescindimos de él. Y lo que la ley de Weber muestra, en el caso prototípico de las órbitas elípticas, es una realimentación que responde a un tiempo propio. El modelo newtoniano también lo contenía, sólo que sepultado en el fondo lógico de su inferencia.

Entonces, un sistema orbital tiene su tiempo interno propio, el de su configuración global; pero esta configuración global es ya un caso particular que emerge de un fondo o potencial, en contraposición al Sincronizador Global que impondría externamente las condiciones. Si esta interpretación ahora nos resulta un tanto forzada, igual se puede decir que es la física la que lo ha forzado todo para encajarlo en su preconcepción barroca del Gran Relojero y su relojería, la máxima perfección que cabía imaginar en esa época.

En esto vemos cómo el desarrollo técnico del reloj, en marcha decidida desde el siglo XIV, ha determinado finalmente el método y la cosmovisión entera. El problema es que una vez que hemos metido el tiempo dentro del reloj, ya no acertamos a ver a qué otra cosa podría estar referido.

En realidad el vórtice en el cubo del famoso experimento de Newton es la más elocuente refutación tanto del espacio y tiempo absolutos de su propia física, como del tiempo puramente relacional de Leibniz, y aun así no deja de ser un «reloj» del tiempo interno del sistema. O un simple giroscopio de anillo con “autoinducción mecánica”. Estos y otros muchos sistemas, si no todos, tienen sus propias “agujas” que indican analógicamente un cierto tiempo propio. La cuestión es que para interpretar correctamente estos relojes naturales y su tiempo propio, que es uno con su principio formador, hay que hacer una interpretación más sutil de los tres principios —al mismo Weber le llevó un cuarto de siglo demostrar que su potencial retardado no violaba el principio de conservación de la energía para sistemas cíclicos.

Pero la cosa no termina ahí. Por el contrario, este bucle o nudo corredizo tendría que ser la puerta de entrada hacia el principio formativo general, del que emergen como un comentario las leyes predictivas. Puesto que el reloj ha sido la máquina que ha reducido a su condición al resto de la Naturaleza, parece que ahora nos toca diseñar nuevos relojes que no estén exclusivamente arbitrados desde fuera, hasta que un día lo inconcebible deje de serlo. Verum index sui et falsi: los tres principios clásicos como terna independiente no pueden decirnos qué es lo que queda fuera, la interdependencia de los tres principios sí.

Para decirlo en pocas palabras, el potencial retardado no está retardado en absoluto, salvo para el sincronizador global —en realidad no es sino un índice del tiempo propio, el tiempo local del sistema.

Movimiento perpetuo

Es difícil juzgar hasta qué punto los innumerables intentos de fabricar móviles perpetuos a lo largo de la historia han contribuido al efectivo desarrollo y perfeccionamiento de la mecánica; y la propia evolución del reloj mantuvo durante siglos la conexión más estrecha con toda esta constelación de tentativas. De forma nada paradójica, ha sido el mismo triunfo del sincronizador global y la clausura de los sistemas por el Tercer Principio lo que ha venido a convertirlo en un empeño proscrito. Pero en realidad las mismas órbitas de los cuerpos celestes según Newton son un tipo de móvil perpetuo,y por motivos elementales que su análisis no puede considerar, ni mucho menos revelar.

En realidad toda nuestra tecnociencia moderna es hija y herederar de esta empresa, y si acaso fue una locura, no deja de ser la misma locura que hoy nos inclina compulsivamente hacia las máquinas; mientras que, por otro lado, tiene un contacto íntimo con la otra cara del tiempo anterior a nuestros relojes y que evidentemente hemos olvidado. Y si estas no son razones suficientes para merecer nuestra atención, podemos estudiar algunos de estos ingenios simplemente porque existen, y no son objetos complicados, pero los expertos prefieren no tener que ocuparse de ellos. Y aun se podrán encontrar muchos motivos adicionales de interés.

Puesto que, cuando no se trata de simple manía u obsesión, a lo que apuntan estas invenciones es a una “máquina” que no esté aislada de su ambiente; pero una máquina que no está separada de su entorno ya ni siquiera nos parece del todo una máquina, compartiendo un atributo fundamental de los seres vivientes.

Buen ejemplo de ello es el anillo osmótico de Lazarev, analizado en profundidad por Zhvirblis, que también tiene un puntual equivalente electrofísico; sin duda pueden crearse otros dispositivos parecidos con propósitos particulares. En su versión más simple, se trata de nada más que un tubo cerrado en forma de anillo rigurosamente aislado del entorno. El anillo sólo contiene un líquido que ocupa una parte de la capacidad del tubo y una membrana porosa o semipermeable. Si se espera el tiempo suficiente, el líquido da la vuelta completa por sí solo en estrictas condiciones isotérmicas. Las variantes eléctricas permiten ciclos mucho más rápidos y un aporte proporcionalmente mayor de información.

Si el anillo de Lazarev no tiene más literatura disponible que la que aporta Zhvirblis es porque nadie ha sido capaz de desmentir el fenómeno. No vamos a discutirlo ahora, pues es evidente que la única explicación es la imposibilidad de conseguir en la práctica sistemas cerrados, precisamente el supuesto básico de la termodinámica. La misma mecánica cuántica parte de postulados ilegales, que equivalen a la existencia de fuerzas estacionarias en sistemas finitos aislados.

El sistema biestable del anillo osmótico es mucho más que una curiosidad puesto que nos muestra un comportamiento aparentemente reversible emergiendo de un fondo termodinámico irreversible: y tenemos todos los motivos para pensar que ese es el caso general de la Naturaleza en todo lugar donde se aprecia la apariencia de reversibilidad. Lo reversible es un subproducto de una dinámica irreversible, en vez de lo contrario; lo que habría que averiguar es qué condiciones hacen eso posible.

Este tipo de dispositivos, así como los de naturaleza electromagnética, también revelan signaturas de “no-localidad”, en realidad configuraciones globales por definir que sólo cabe considerar como una fase geométrica —si es que queremos llamar “desplazamiento de fase” a la completa y cíclica circulación del líquido dentro del anillo.

La física newtoniana y la termodinámica parecían haber metido al mundo en una cámara de descompresión; pero cuando queremos llevarlo a la práctica, con objetos reales y con estructura, resulta que sus principios no se mantienen. En los “relojes inerciales” previos al sincronizador global, tenemos una reacción definida ante fuerzas aplicadas, pero aquí no hay fuerzas controlables de ningún tipo y aún seguimos teniendo movimiento: lo que afecta simultánea y sucesivamente a los tres principios de inercia, fuerza y acción/reacción. Se trata de la aproximación opuesta y complementaria para estudiar lo mismo, desde fuera y desde dentro; por si hubiera alguna duda.

El experimento es inapelable porque es absolutamente no perturbativo y sería absurdo atribuir el movimiento efectivo a la fricción, como se hace tan a menudo ante la presencia de «anomalías». Aquí es obvio que la circulación se puede transformar en trabajo útil, lo que sólo es concebible por el aprovechamiento de energía libre termodinámica, que hay que atribuir al vacío. Por tanto la termodinámica nunca ha proscrito esta posibilidad, sino que sólo se ha clausurado a sí misma, especialmente desde su reformulación como mecánica estadística.

La visión ordinaria de la física desde Demócrito es la de átomos o cuerpos atravesando el vacío; el anillo de Lazarev es la prueba y la demostración del vacío atravesando los cuerpos, de principio a fin, en lo irreversible y en lo reversible. También podría suministrar un ejemplo de triple tiempo, lineal horizontal, cíclico, y vertical con desplazamiento de su base.

Sistemas abiertos por definición como el anillo de Lazarev remiten inevitablemente a las influencias exteriores, incluidas las influencias cosmofísicas. La escuela de Simon Shnoll ha demostrado consistentemente durante muchas décadas «la ocurrencia de estados discretos durante fluctuaciones en procesos macroscópicos» del tipo más variado, desde reacciones enzimáticas y biológicas hasta la desintegración radiactiva, con periodos de 24 horas, 27 y 365 días, que obviamente responden a un familiar “patrón astronómico y cosmofísico”.

De modo que tampoco la desintegración radiactiva es tan aleatoria como parece, aunque tales regularidades son cribadas y descontadas rutinariamente como «no significativas”. Esto nos hace pensar en la función zeta de Riemann, asociada tanto a las fluctuaciones en los niveles de energía del vacío como a órbitas periódicas, así como al llamado “caos cuántico”, cuya relación con el caos determinista clásico sigue siendo nebulosa.

Como aspecto crítico de la interacción electromagnética, la fase geométrica se estudia también exhaustivamente en el promocionado campo de la “computación cuántica”. Matemáticos y físicos por igual llevan mucho tiempo a la caza de algún sistema especial basado en los electrones que reproduzca el comportamiento de la función zeta. Como ya hemos comentado en otras ocasiones, hay motivos para pensar que habría que partir de la condición natural, y menos restringida, de sistemas abiertos e irreversibles como los que ahora nos ocupan.

B. Binder ya mostró en su día que la función zeta da un punto fijo al atractor fractal de una fase geométrica recurrente en el espacio-tiempo curvo relativista, pero ello ha de ser posible también en el espacio ordinario. Lo importante es la retroacción y retroacoplamiento de la señal del sensor, que puede ser un giroscopio o una partícula como un electrón, el giroscopio natural perfecto. Se trata sólo de la aplicación de un método de regularización pero puede hacernos pensar en otras circunstancias más interesantes.

La cuestión es que mientras la computación cuántica procura explotar los parámetros de la fase geométrica para meterlos dentro del Gran Reloj -no siendo la propia computación sino la última materialización del sincronizador global-, aquí se trata de devolverlas a su ámbito original. Una vez más, parece que lo que no es controlable no interesa, pero no es imposible que nuestros “tres principios y medio” apunten directamente a la línea crítica de la función zeta.

Vuelo e interfaz

El vuelo aéreo se ha convertido hasta tal punto en algo rutinario que pocos se atreverían a sospechar que ni siquiera tenemos una teoría de la aerosustentación sostenible. El ala de un avión es sólo un elemento de una máquina, pero su interacción con el aire lo convierte en una interfaz, el límite de una dinámica sumamente compleja. El estudio de interfaces es cada vez más importante, y por eso se debería conceder la máxima atención a las interfaces mecánicas de apariencia más simple, pues contienen ya la esencia de cualquier interfaz más compleja. Este tercer aspecto nos acerca más a las funciones de lo viviente.

Según un dicho conocido, atribuido generalmente a Sikorsky, «“el abejorro, según los cálculos de nuestros ingenieros, no puede volar en absoluto, pero el abejorro no lo sabe y vuela.” Ni que decir tiene que la aerodinámica se ha tomado en serio esta provocación, pero no ha salido mejor parada que la termodinámica con el koltsar de Lazarev. En principio, sí, se han urdido, después de tantos años, tentativas de desmentir “el mito del abejorro” que se querían definitivas, tan sólo para que unos años después aparezcan otras explicaciones no menos definitivas sólo que con los mecanismos contrarios. Lo único claro es que no hay nada claro.

La aerodinámica no es una ciencia exacta y todos esperamos que haya menos dudas respecto al vuelo de un avión, aunque tampoco eso está garantizado. Afortunadamente, los ingenieros trabajan con grandes márgenes de seguridad y apoyándose en la experiencia más que en las teorías. Hablábamos antes de la cámara de descompresión que supone nuestra mecánica. Lo que seguramente ignoran los esforzados especialistas en aerodinámica de estos intentos de explicación más recientes es que Juan Rius Camps había realizado estudios sobre el vuelo del abejorro desde 1976 hasta 2008 en los que el insecto vuela normalmente durante uno o dos minutos… en una cámara de descompresión a 13 milibares, es decir, con sólo 1,3% de la densidad atmosférica habitual. Si se mantuvo ese resto fue porque sin un mínimo de vapor de agua el abejorro «hierve» rápidamente por descompresión.

Si para la justificación del vuelo ordinario del abejorro no han alcanzado penosos e innumerables cálculos y descomunales simulaciones por ordenador, en este caso habría que dar cuenta de un efecto de sustentación 80 veces mayor. Esto se halla totalmente fuera del alcance de cualquier teoría, lo que invita a ignorarlo igual que el anillo de Lazarev.

De hecho, esto es propulsión sin reacción a todos los efectos. Rius propone una nueva dinámica irreversible, que es igual que la clásica siempre que “el sistema se comporte como si estuviera inercialmente aislado”. Muestra varias máquinas muy simples que evidencian creación y destrucción de momento angular. Pero, dejando aparte las cuestiones de giro e impulso sobre las que vuelven recurrentemente los investigadores de nuevas formas de propulsión —y esta es también una de las motivaciones de Pinheiro-, Rius está identificando fuerzas que no sólo dependen de la aceleración, como las newtonianas, sino también de la velocidad como las de Gauss y Weber. Muestra además el isomorfismo de su dinámica para excepciones como la inducción unipolar de Faraday o la precesión anómala del giróscopo.

Sin duda este del abejorro es uno de los más concretos desafíos para los actuales constructores de máquinas y micromáquinas, y tendría que ser bastante más interesante que viajar a Marte; pero hasta ahora nadie ha querido aceptar el reto, ni de explicarlo, ni de replicarlo. Y está claro que el desafío aún es mayor en el plano teórico que el técnico, pues no es sino la llamativa magnificación de un fenómeno básico de autoinducción omnipresente en los seres vivos y que aún no hemos acertado a plantear.

Es una pena que no se haya querido explicar el vuelo del abejorro por medio de nuestra fase famosa. Y de este modo, si algún día vemos bandadas de cerdos volando con las orejas en una campana al vacío del tamaño de una ciudad, sólo habrá que decir: “¡Tranquilos, es sólo la fase geométrica!”

Resulta evidente que en un caso como el del abejorro tratamos con un sistema no conservativo, incluso con descompresión; pero todos los seres vivientes lo son, y sería absurdo describirlos como sistemas cerrados. A pesar de todo, se los aborda con la perspectiva de la mecánica clásica más una serie de balances de intercambio añadidos —de forma apenas diferente a cómo la física asimila procesos anómalos añadiendo a la parte conservativa una “fase geométrica”.

Se trata de una asimilación muy tosca que ignora los aspectos más esenciales de lo vivo y pasa por encima de sus transformaciones internas, transformaciones que también tienen su expresión física inherente y no son ajenas ni a la lógica, ni a la medida, ni al cálculo. Y estas transformaciones apuntan a una dimensión oculta en la transmisión mecánica entre distintos cuerpos o interfaces.

La física desde el cuerpo

Antes de dedicarse a la física y la electrodinámica, Wilhelm Weber realizó con su hermano Ernst los primeros estudios detallados de la hidrodinámica de la circulación en los vasos sanguíneos y la evolución de las ondas en experimentos con tubos elásticos. Al otro lado del Canal, la teoría de Faraday y Maxwell y sus nociones del campo partían de modelos de flujo dentro de tubos como superficies limitantes; se trataba básicamente de una teoría de circulación y corrientes, y una teoría global, puesto que procedía canónicamente del todo a las partes. Las formulaciones posteriores de las ecuaciones de Maxwell han dejado de reflejar este carácter global tan notorio.

Incluso la primera formulación de la primera ley de la termodinámica, la conservación de la energía, surgió directamente de los estudios de la fisiología de la sangre de Mayer. Después de esta gran proximidad entre la física y la fisiología, la medicina, la biofísica o la biomecánica no han acertado a ahondar en estos aspectos globales o “holísticos” que la física y sus medidas brindaban; pero esto no puede sorprender cuando es la física la primera en no valorarlos como debía.

Partir de los aspectos globales de la física hace mucho más viable una conexión genuina y con sentido entre lo cualitativo y lo cuantitativo. Antiguamente los médicos eran capaces de sondear profundamente el estado del organismo sin más que tomarle el pulso a una persona. La semiología del pulso era un saber de gran sutileza, y de hecho, es de la semiología médica que tomó su nombre la semiótica. Hoy se considera que estas antiguas semiologías tienen una base demasiado subjetiva para ser compatibles con la biomedicina moderna; sin embargo, por encima de las convenciones, la Naturaleza permanece igual a sí misma y todavía hay en algo tan “simple” como el pulso claves por descubrir para la física, la endofísica, la semiótica y la medicina.

Después de todo las ecuaciones de Maxwell son un caso particular de las ecuaciones de Euler para fluidos, y el estudio mecánico del pulso se sigue derivando de la llamada ley de Ohm (V = R · I) que nos dice que la diferencia de potencial es igual a la intensidad por la resistencia. Los detalles más complejos de la onda del pulso también se derivan de ecuaciones muy bien conocidas pero de eso ya hemos hablado en otro lugar. Lo interesante es que tampoco aquí estamos ante un sistema conservativo, sino abierto, y la influencia de la respiración en el tono global del pulso es esencial.

Consideremos, por ejemplo, la pulsología ayurvédica, que es ternaria y una mera adaptación a la fisiología de las tres grandes modalidades del samkya indio. Las tres cualidades básicas, Tamas, Rajas y Satwa, y sus formas reactivas en el organismo, Kapha, Pitta y Vata se corresponden muy bien con la masa o cantidad de inercia, la fuerza o energía, y el equilibrio dinámico a través del movimiento (o pasividad, actividad y equilibrio). Pero es evidente que en este caso hablamos de cualidades y el sistema al que se aplica ha de considerarse abierto.

Aquí la tercera ley de la mecánica ha de dejar paso a la conservación del momento y admite implícitamente un grado variable de interacción con el medio. En armonía con esto, el Ayurveda considera que Vata es el principio-guía de los tres ya que tiene relativa autonomía para moverse por sí solo además de mover a los otros dos. Vata define la sensibilidad del sistema en relación con el ambiente, su grado de permeabilidad o por el contrario embotamiento con respecto a él. Es decir, el estado de Vata es por sí mismo un índice del grado en que el sistema es efectivamente abierto o cerrado.

En el cuerpo humano la forma más explícita y continua de interacción con el medio es la respiración, y por lo tanto está en el orden de las cosas que Vata gobierne esta función de forma más directa. Aunque los doshas son modos o cualidades, encuentran en el pulso una fiel traducción en términos de valores dinámicos y de la mecánica del continuo —siempre que nos conformemos con grados de precisión modestos, pero seguramente suficientes para darnos una idea general de la dinámica y sus patrones más elementales.

Los otros dos modos son lo que mueve y lo que es movido, pero la articulación y coexistencia de los tres puede entenderse de formas muy diferentes: desde una manera puramente mecánica a otra más específicamente semiótica. Sin duda también aquí ha de tener cierto grado de vigencia la condición de indistinción o ambigüedad entre la energía cinética, la potencial y la interna que ya hemos notado en la electrodinámica de Weber.

La ley de Weber es conservativa simplemente porque se aplica a procesos cíclicos que se conservan, igual que se conservan las órbitas; lo que en absoluto excluye que esas órbitas sean el proceso mismo de cierre de una interacción en un medio abierto, del mismo modo que la respiración cierra ciclos en lo abierto. Podemos intentar hacer analogías exactas, recordando siempre que tampoco los lagrangianos que dominan la física son más que analogías exactas. Y podemos intentar aplicar aquí la idea del potencial retardado y las ondas longitudinales de Noskov, teniendo en cuenta que él fue el primero en proponer su lugar en el feedback más elemental y su universalidad; de hecho, tal vez no haya mejor forma de ilustrar estas ondas, y su correlación con ciertas proporciones en un sistema mecánico completo, que el propio sistema circulatorio.

Dado que, en buena medida, se puede considerar la elasticidad de la onda refleja como un potencial retardado de Weber-Noskov dependiente de la distancia, fuerza y velocidad de fase, y comprobar si esto procura un acoplamiento o unas condiciones de resonancia que, incidentalmente, tendieran a cierta proporción continua y discreta de la que ya hemos tratado. El miocardio es un músculo autoexcitable pero a ello también concurre el retorno de la onda refleja, así que tenemos un hermoso ejemplo de circuito de transformaciones tensión-presión-deformación que se realimentan y que no difieren en lo esencial de las transformaciones gauge de la física moderna, en los que también hay un implícito mecanismo de realimentación.

Esta sería una instancia perfecta para explorar estas correlaciones como un proceso «en circuito cerrado», aunque el sistema mantenga una apertura a través de la respiración, lo que no es contrario a nuestro planteamiento porque para nosotros todos los sistemas naturales son abiertos por definición. Permite tanto la simulación numérica como la aproximación por modelos físicos reales creados con tubos elásticos y «bombas» acopladas, de modo que puede abordarse de la forma más tangible y directa.

Conviene sin embargo revisar a fondo la idea de que el corazón es realmente una bomba, siendo como es una cinta muscular espiral, o que el movimiento de la sangre, que genera vórtices en los vasos y el corazón, se debe a su contracción, cuando es la contracción la que es un efecto del primero dentro de un circuito más amplio que incluye a la respiración. En realidad este es un ejemplo magnífico de cómo puede darse una descripción estrictamente mecánica a la vez que se cuestiona radicalmente no sólo la forma sino el mismo contenido de la causalidad. El factor esencial de la presión creada no es el corazón, sino el componente abierto, en este caso, la respiración y la atmósfera. Es la función la que crea al órgano, no al contrario. Y aunque es claro que se trata de casos muy diferentes, esto se haya en consonancia con nuestra idea de los campos gauge y de los procesos naturales en general.

Como no podía ser menos, también habría una memoria de fase en el ciclo respiratorio global que ha de tener relación con el inexplicado ciclo nasal bilateral, que recuerda de suyo a un sistema biestable. Aquí puede verse la fase geométrica como una torsión del ciclo respiratorio del mismo modo que puede verse la torsión como un cambio en la densidad del volumen de aire respirado. La forma más básica de describir esta fase es como la evolución de los parámetros de la onda en el entorno de un agujero o singularidad en la topología; lo que recuerda inevitablemente la concepción de la fisiología sutil del yoga con los dos conductos entrelazados en torno al canal central o sushumna. En cualquier caso, en sistemas biológicos la fase geométrica es o tendría que ser una medida del grado de contorsión (forzada) del sistema con respecto a un estado fundamental no forzado.

Volviendo a la semiótica del pulso como ejemplar de la semiótica general, el principio de inercia es una posibilidad, el de fuerza un hecho bruto, la acción-reacción —un mismo acto visto desde dos caras- es una relación de mediación o continuidad. Podemos ponerlos en un mismo plano o ponerlos en planos diferentes, que constituyen una gradación ascendente o descendente, tal como en efecto son las modalidades del samkya, Tam, Raj y Sat.

Siguiendo por este camino pronto se plantearían los típicos enigmas de la filosofía de la mente sobre la ubicación del significado, el fundamento del símbolo, o la propia conciencia. Sin querer entrar ahora en tales aporías, sólo queremos señalar, como no podía ser menos, su conexión elemental con los problemas eternos del movimiento, y, más específicamente, con las limitaciones de las leyes clásicas de la mecánica; lo que en absoluto simplifica estas cuestiones.

*

Habiendo planteado suficientemente que toda “ley natural” fundamental esconde un principio de autorregulación siempre más simple pero también más elusivo, podemos ver con otros ojos las distintas máquinas de biofeedback que se han desarrollado. No tanto por su alcance, ciertamente limitado, como por el principio mismo y la inflexión que supone en la historia y finalidad de las máquinas.

El desarrollo del biofeedback y el de la cibernética han coincidido en el tiempo y su marco conceptual es el mismo, divergiendo tan sólo en el propósito. La cibernética es la teoría del control y la estabilidad, pero en el biofeedback pretender ejercer el control sobre una señal biológica propia más bien tiende a perturbar y a desestabilizar la función. Por lo tanto, en la retroalimentación habría que hablar de sintonización con la señal en vez de su control, lo que nos sitúa en el otro lado de la cuestión.

La cibernética, en tanto teoría del control, tiene que ocuparse primariamente y por definición de fuerzas controlables; de ahí que en ella el uso de potenciales y lagrangianos sea mínimo. Esta sería una de las razones por las que Wiener y tantos otros grandes especialistas nunca repararon que los campos gauge contienen un mecanismo básico de feedback. Por otra parte, si nos preguntamos qué señales son más pertinentes para estabilizar una función biológica inestable, de inmediato reparamos en que no pueden ser las que representan fuerzas bajo control directo, sino las que reproducen potenciales. No parece una cuestión de mero grado o matiz, sino de una disposición biológica esencial, y hay buenas razones para ello.

Reflejando un principio sumamente general, todo el organismo, con el sistema nervioso y el cerebro, se divide en un aparato receptor y otro efector, igual que tiene nervios nervios aferentes y eferentes. Se ve de inmediato dónde encajan la capacidad de sintonía neurovegetativa y los impulsos de control dentro de este hecho biológico. Y también se ve de inmediato dónde y cómo encajan las modalidades del samkya y los humores o principios reactivos de la fisiología ayurvédica dentro de este esquema de cosas; puesto que hay un momento pasivo, uno receptivo, y otro mediador.

El momento mediador, que siempre supone un grado de equilibrio, puede jugar un rol tanto descendente como ascendente en función de cómo se disponga con respecto a los otros dos. Tiene un rol descendente, tiende a cerrar el sistema, cuando se inclina del lado activo del control; tiene un rol ascendente, tiende a abrir el sistema y a crear espacio dentro de él, cuando deja de ejercer este control activo —puesto que lo activo fuerza a lo reactivo a su vez. Hay por tanto una escala ascendente y descendente, “una vía del Cielo” y “una vía de la Tierra”, por más que en todo momento se presuponga la interacción coordinada de los tres principios. No puede haber pasividad ni actividad pura, pero el mediador es por su propia naturaleza el modulador o gobernador del balance general.

Parece indudable que la cultura, el despliegue entero de nuestro universo virtual y simbólico, ha nacido de la respuesta diferida ante los estímulos, de ese hueco creciente entre lo activo y lo reactivo que crea el espacio para la reflexión. Pero haberlo llenado de símbolos y pensamientos nos impide percibir qué podría ser ese espacio por sí mismo, y es ahí donde la conciencia mediada puede encontrar su camino de retorno a la conciencia inmediata, que es la ubicación fundamental. Esto siempre estará más allá del “camino de la civilización”, pero es a lo que la civilización apuntaría si no tuviera esa inexorable tendencia a cerrarse sobre sí misma, por buscar en sí misma todas las respuestas.

A pesar de todo, y precisamente porque la hipótesis cibernética tiene un gran punto ciego mientras las prácticas de control se internalizan y ejercen abusivamente a todos los niveles, nuestra propia naturaleza demanda un movimiento compensatorio. La vía de apertura y cierre de las que hablamos no son procesos abstractos en absoluto: los encarna de la forma más visible la evolución individual de un organismo en sus fases de crecimiento, madurez y envejecimiento. Pero estos aspectos, tan aparentes y exhaustivos, son sólo un índice ejemplar de procesos más amplios e inaprensibles.

Los dos aspecto de percepción y acción que coexisten simultáneamente se separan alternativamente en los estados de conciencia hacia adentro y hacia fuera del sueño y la vigilia. Ambos siguen estando unidos en todo momento en ese espacio vacío que sigue siendo el suelo que nos da la sensación de realidad, más que la interacción con los objetos: el sueño profundo es lo único que nunca duerme. La interacción misma sustituye a la intimidad y tiende a eclipsarla, en nuestra imaginación más bien, puesto que es imposible ocultarla.

La antigua triple división del mundo y el hombre en espíritu, alma y cuerpo sigue estando perfectamente vigente, entendida ahora como inteligencia, deseo-voluntad y cuerpo. Pero no vemos el bucle que hay entre los tres, como no apreciamos la simultaneidad y unidad de los tres estados de conciencia; y así queremos siempre más inteligencia, más deseo, más voluntad, más cuerpo, más futuro, más presente, más pasado, y más más.

5. Sensible e inteligible

Cerca del año mil, los Amigos de la Sinceridad añadieron a las tres hipóstasis de Plotino (Uno, Intelecto, Alma) una cuarta, la Materia Primera, de la que aún saldrían por descenso cinco grados más de esa Creación que sólo fuera del Uno podría parecer existir. Casi sin darse cuenta, la ciencia europea que empieza ya a insinuarse en el siglo XIV adopta, por gradual “desplazamiento de fase”, la terna Intelecto-Alma-Materia, alejándose cada vez más del Uno para acercarse a un Creador origen y garante de la Ley.

Al irse volcando sobre la materia, la ciencia intentaba eludir la cuarta hipótesis del Parménides sobre la alteridad negativa —qué es lo Otro respecto de sí mismo- mientras olvidaba de buena gana la primera, la unidad negativa que lo Uno es para sí. Descolgamiento del que se seguiría nuestra vuelta a las otras cuatro hipótesis pluralistas que suponen que lo Uno no es, para que no quedara (casi) nada sin explorar. De estas cuatro restantes, dos son negativas y otras dos plantean una participación en el ser, ya del Uno, ya de las cosas a través de las apariencias.

Si dar cuenta de las apariencias acompaña siempre los primeros pasos de cualquier ciencia experimental, desde el momento en que esta se consolida en teoría, la huida de estas mismas apariencias toma el mando, convertidas ya en entes de razón. Para la física moderna, por ejemplo, no hay nada sensible, nada directamente observable que no sea de orden secundario y derivado. El positivista dice que no pretende conocer las causas de nada, pero sin embargo está convencido de que todo lo que ve es sólo un efecto producido por entidades teóricas mucho más elaboradas y estandarizadas, como fotones, fuerzas y átomos.

Antes de que la ciencia moderna eclosionase hubo un periodo de gestación no menos decisivo en que arte y técnica fueron de la mano para crear el marco en el que luego las ciencias formales de desplegarían. En el mismo siglo XIV se construyen los primeros relojes astronómicos al mismo tiempo que la perspectiva pictórica, aún muy tímidamente, intenta abrirse paso. Fue también en esta época que tuvieron lugar los primeros avances europeos en el cálculo y Oresme concibió las primeras coordenadas o dio la prueba de que la serie armónica diverge.

Las apariencias están en el arranque del proceso de idealización científica, y con su rechazo empieza la racionalización que gravita ya hacia la tumba. Si aún hay alguna esperanza de que el saber renazca en una nueva perspectiva y mentalidad, sólo podrá ser volviendo a tomar contacto directo con esas apariencias de las que ya nada quiere saber, sumergiéndose en esas aguas sobre las que suele soplar el Espíritu. Los fenómenos no son menos infinitos que las matemáticas; buscar la participación de lo sensible en lo inteligible también es favorecer su descenso sobre nosotros.

El plano estético permite que nuestro complejo mundo de representaciones retorne a lo inmediato de la primeridad, a la Naturaleza dentro y fuera de nosotros, reorientando también el flujo de la imaginación, el deseo y la voluntad. Y si tanto la religión como la Ley científica apuntan a lo universal abstracto, mientras que la técnica se aboca a lo concreto, el arte realiza su unión en lo estético como síntesis sobre síntesis: síntesis de la producción humana en intimidad con la síntesis que recrean los sentidos y la sensibilidad.

La no-dualidad no puede coincidir con la ciencia en la medida en que ésta necesita objetos para existir; pero al final cualquier saber, o muere por muerte natural, o vuelve voluntariamente a las aguas primordiales para renovarse. En realidad, y en contra de lo que se cree, toda la física fundamental es global por naturaleza, no sólo la electrodinámica y las teorías de campos, sino la mecánica clásica entera desde Kepler y Newton; sólo que recircula las cosas a su manera y las subordina a unos fines particulares más reducidos, sus codiciadas predicciones.

El plano estético es como la superficie de las aguas primordiales. No es casualidad que la ciencia moderna lo evite escrupulosamente para luego darnos gato por liebre; porque la astrofísica, por ejemplo, compone imágenes multicolores de galaxias invisibles y hasta de agujeros negros, pero no busca inspiración en los muy elocuentes enigmas que tenemos continuamente ante los ojos. Todas las ciencias hacen hoy lo mismo. Ya no se pretende dar razón de los fenómenos, pero se los manipula tanto como se puede para dar verosimilitud a elaboraciones cada vez más alejadas de la realidad.

*

La física misma, como modelo de las ciencias experimentales, existe simultáneamente en tres planos diferentes, como Nomos, como Physis, y como Aísthesis; como Ley abstracta, como devenir formativo y como apariencia sensible, aunque originalmente se plantearon en el orden contrario. Uno podría creer que se ha concentrado gradualmente en la Ley pero ni siquiera eso ha sido cierto; porque la trasparencia nomológica y las ecuaciones perfectas suponen puras relaciones entre cantidades homogéneas. La electrodinámica de Weber es de ese tipo, la de Maxwell-Lorentz no. Tampoco lo es la mecánica celeste de Newton o la relatividad general, que a la luz de las fórmulas de Gauss y Weber se evidencian como dos versiones diferentes de la gravitoestática, no de la gravitodinámica.

Sucede además que una formulación homogénea equivale a una pura fenomenología matemática, que pone en cierto contacto directo lo terciario y lo primario sin pasar por la noción de causas y procesos. Parece indudable que si tenemos que expresar las leyes con principios variacionales nunca podremos deducir causas unívocas para los fenómenos, pero incluso si renunciáramos a conocer los porqués, aún tenemos formas de calibrar el cuánto, el cómo y el qué.

Otro buen ejemplo de estas cuestiones nos lo brinda el campo no-unificado de Miles Mathis, que acertadamente parte de la idea de que no hay que “unificar” las fuerzas porque el lagrangiano de un sistema orbital de dos cuerpos ya lo contiene todo. Algo verdaderamente notable de esta teoría es que parece coincidir muy bien con la equivalencia óptica de los planetas, el hecho por todos conocido de que el tamaño aparente del Sol y de la Luna desde nuestro planeta sea prácticamente el mismo, como los eclipses totales nos muestran.

Una golondrina no hace primavera, pero esta muy aproximada equivalencia óptica no es un hecho aislado en nuestro sistema solar, pues también tiene lugar en otros planetas y sus satélites; desde la perspectiva del Sol un buen número de planetas tienen el mismo tamaño aparente, lo que guarda estrecha relación con la secuencia de distribución de Titus-Bode.

Esta múltiple y más que sorprendente coincidencia no requiere ningún tipo de ajuste teórico. Mathis también quiere ver una equivalencia óptica entre el tamaño relativo del “electrón” y el “protón” según la misma lógica de interacción en un campo de carga, pero eso ya supone otras asunciones, que por lo menos permiten explicar físicamente por qué los electrones no se precipitan en el núcleo.

Uno puede pensar lo que quiera de esta teoría, pero el hecho de que sea “no-unificada”, y de que dé en la diana de una coincidencia tan extraordinaria sin quererlo, son argumentos a su favor que la ponen en un tapete completamente distinto que los intentos de unificación ordinarios; hay infinitas teorías, pero aquí las apariencias, que también resultan infinitas, se juntan para darnos un solo calibre. Si además una teoría como la de Mathis es tan proporcional como Arquímedes y logra semejantes coincidencias con medidas tan simples como distancia, volumen y densidad, aún hay más motivos para prestarle atención.

El “momento Mathis” del conocimiento y su blanco en la diana de las apariencias es más memorable que el de Newton y su apócrifa manzana, no importa cuánto tiempo lleve reconocerlo. Newton tuvo que recurrir a todo tipo de estratagemas para justificar el problema la órbita de la Luna, pero ahora se cree sin pensarlo siquiera que la cosa cae por su peso. Por el contrario Mathis se acerca a una simplificación extrema de grandes rompecabezas de la mecánica celeste pero ya ni se espera que esos asuntos puedan ser menos complicados. Está claro que vivimos en tiempos diferentes.

Curiosamente, el campo “no unificado” de Mathis también actúa como un lazo corredizo entre el electromagnetismo y la gravedad; un lazo corredizo que es un factor de escala. Además de aportar numerosos argumentos cuantitativos, también arriesga otro punto de cruce para el valor de electromagnetismo y gravedad. Según la física establecida, estas dos fuerzas se igualarían en torno a los 10 nanómetros; dentro de los elementales cálculos de Mathis, el equilibrio ha de ocurrir bien dentro de lo visible, en torno a un milímetro o más —como un grano de arena-, lo que le sirve para explicar diversos fenómenos y ocurrencias naturales, como el ascenso de la savia en los árboles o muchas peculiaridades del extraordinario, etéreo mundo de los insectos. Esto tendría que ser hoy verificable en una variedad innumerable de experimentos, si fuera posible plantear un criterio neutral y sin ambigüedad para los potenciales.

*

Pero abandonemos el ámbito siempre enconado de las disputas teóricas. Después de todo, el plano estético siempre nos invita a poner en suspensión la pregunta por lo verdadero con toda su cohorte de exigencias. La apariencia siempre está más acá de las leyes, es por eso que queremos que las leyes miren hacia ellas.

Espacio y tiempo, esos son los límites de cualquier cosmovisión, y dentro de ellos fingimos las múltiples ilusiones de la causalidad. En nuestra cultura fáustica ambos fueron enmarcados dentro de la perspectiva y el reloj. Las máquinas aún pueden expresar frentes radicalmente nuevos del tiempo, sus índices y medidas siempre que nosotros lo busquemos, pero aun así nos faltaría una aprensión estética de estas otras dimensiones de lo temporal. Tal vez en el futuro las formas musicales nos aproximen a ello.

El otro gran principio organizador, la perspectiva, se ha ido a la vez llenando y cerrando a través del espacio del cálculo o análisis, que nos ha creado la ilusión de describir el movimiento en su seno. Puesto que esto es evidentemente falso, tanto del punto de vista del análisis más elemental como del de la conflación estética de planos, la reconstrucción sintética del movimiento según el cálculo diferencial constante también es relevante en este ámbito.

Si hay un movimiento natural digno de estudio, ese es el que describe una onda, una onda esférica cualquiera. Existe el notorio malentendido entre los físicos de que las ondas de luz o electromagnéticas son completamente distintas de las ondas de sonido, pero eso es confundir la estadística con la geometría. En cualquier caso, la luz según el conocido principio de propagación de Huygens ya nos muestra simultáneamente el movimiento más simple, en línea recta, y el más complejo, como una deformación continua en cada punto ocupado; de este modo una onda es ya un vórtice esférico que lo llena todo. La representación de una “simple onda” sigue convocando los problemas más importantes de tiempo y espacio, tanto para el análisis como para la síntesis.

Además, la dualidad onda/partícula no deja de tener algo de esa distinción kantiana entre nóumeno y fenómeno, incluso si tratamos de devolverlo todo a la inmanencia; pero en realidad se trata de una relación más rica e interesante. Los físicos piensan preferentemente en partículas porque, para hablar en los términos de Hertz y Nicolae Mazilu, se busca una partícula indestructible como punto de apoyo para las fuerzas —aunque no se demande lo mismo en la mecánica celeste, por ejemplo. Esto sería la “partícula material” de Hertz, en contraste con el “punto material” que puede tener cualquier escala, como por ejemplo, una onda, y sólo pide que sus partes o partículas materiales estén conectadas entre sí. ¡Un punto material es un conjunto de partículas materiales!

De este modo la partícula, en la teoría actual, existe sobre todo por motivos instrumentales, mientras que la onda, por cuestiones de conocimiento; por otra parte los fenómenos típicos de las ondas, derivados de la interferencia, pueden apreciarse a simple vista, mientras que las fuerzas las inferimos de nuestra acción. Una partícula material puntual es obviamente una idealización que sólo tiene sentido para la aplicación de fuerzas; por otra parte ondas y potenciales se implican mutuamente. De este modo las ondas remiten a un plano mucho más “desinteresado” que el decididamente operativo de las partículas y fuerzas.

Toda la física está construida en torno al concepto general del marco de referencia, y hay todavía incontables aspectos que deben encontrar su ubicación dentro de dicho concepto. Un marco de referencia combina en uno solo los dos elementos primordiales: el reloj y el sistema de coordenadas. El reloj que regulariza nuestra percepción de un cuerpo físico en movimiento, y el sistema de coordenadas, que lo hace con muchos cuerpos. En este sentido, la problemática del marco de referencia se sitúa en el lugar del Yo (primeridad), la interacción experimental con el mundo, con el cálculo y la teoría y práctica de la medida, es la dimensión secundaria, y su regulación por leyes, con su origen en los tres principios de la mecánica, supone la dimensión terciaria de la Ley; conectándose necesariamente lo terciario y lo primario.

Se puede estudiar la Onda Primordial bajo dos perspectivas complementarias: como vórtice esférico universal en expansión, y como cambios de densidad correlativos dentro de un medio inicialmente homogéneo. Guenon ya tocó un caso y otro en obras diferentes, consagradas precisamente, una a la generalización metafísica de la idea de coordinadas, y la otra al fundamento del cálculo infinitesimal. Este autor no observa que lo que ambos casos tienen en común es la idea de torsión inherente a un vórtice, pues si en un medio originalmente homogéneo imaginamos la aparición de una porción más llena y otra más vacía, ambas no podrían surgir sin más sin una torsión o helicidad que las conecte, siendo así torsión y cambio de densidad equivalentes.

El principio de propagación de la luz de Huygens, que subyace a la mecánica cuántica, parte de la condición de la homogeneidad del espacio, mientras que la gravedad presupone un espacio heterogéneo con cuerpos de diferente densidad. En un sentido muy fundamental, concebir la unidad —que no la “unificación”— de ambas teorías pasaría por precisar la conexión entre los dos casos ideales que plantea Guenon.

Por supuesto, la física es mucho más compleja que la geometría y comporta aspectos esenciales que no son reducibles ni a extensión ni a movimiento; aunque estos no pueden dejar de reflejarlo de uno u otro modo, por ejemplo en la densidad o el transporte paralelo de un vector —que nos da el ángulo de la fase geométrica. La torsión de un vector también nos permite generar partículas extensas a partir de un punto. Se ha usado la geometría del absoluto paralelismo o teleparalelismo de Cartan para reformular la relatividad general, pero sin duda tiene otros muchos motivos de interés.

Hoy se sabe que la misma relatividad general puede expresarse en el espacio plano según el criterio de Poincaré de describir la deformación aparente de la luz en vez de postular una deformación del espacio-tiempo; por no hablar de las fuerzas tipo Weber que muestran una continuidad natural entre la dinámica macro y microscópica y evitan la desconexión existente entre relatividad especial y general, sus criterios excluyentes de conservación local y global, y su uso igualmente excluyente de puntos materiales y campos no-puntuales.

Por otro lado, las ondas de la mecánica cuántica, concebidas hoy como ondas de probabilidad, aún admiten una interpretación más obvia y directa, tal como ya notó C.G. Darwin en 1927: ciertamente no se trata de ondas en el espacio ordinario, sino de ondas en el espacio de coordenadas que deberíamos saber transcribir al espacio ordinario. El teleparalelismo de Cartan apunta directamente a esa transformación de las coordenadas, pero el vector de torsión también puede hacerse equivalente con la onda interna al cuerpo extenso que describe la hipótesis de desplazamiento de fase de Weber-Noskov.

Desde nuestro punto de vista, el solo intento de representación y descripción de estos procesos ya tiene un alto valor, prototeórico, prototecnológico y protoestético, previo a su uso discrecional por la ciencia o cualquier otra finalidad; son grandes originadores que reorganizan las relaciones entre el razonamiento, la imaginación y la impresión. La prevalencia abrumadora de la predicción sobre la descripción desequilibra el entero proyecto científico y lo desfigura, desconectándolo del resto de las actividades humanas.

*

Incluso el mero hecho de tratar de representar el movimiento de una onda según el criterio del cálculo diferencial constante, en lugar del análisis estándar, que nunca deja de ser infinitesimal, permite ver un proceso que creemos conocer con ojos nuevos. No olvidemos que el cálculo de Mathis demanda como mínimo una dimensión más, porque el espacio matemático en el que se resuelven los problemas no representan el espacio físico. Puesto que esto es evidente e irrefutable, bien merece la pena tratar de representar ese espacio físico así como los movimientos naturales más elementales que pueden darse en él, como la onda o el vórtice.

Y esto aún tiene más pertinencia si se considera que lo infinito y lo infinitesimal bien pueden tener su lugar en el cálculo, aunque no precisamente donde ahora lo ubicamos. Desalojándolo del lugar que no le pertenece nos ayudará a encontrarle su lugar natural. De forma nada paradójica, cuando pasamos de una partícula puntual a una partícula extensa, ya estamos redescubriendo el infinito. En la definición de Guenon del equilibrio partiendo de un medio homogéneo, las densidades son recíprocas y su producto es siempre la unidad, aunque las fuerzas asociadas a ellos puedan ser de signo contrario, atractivas o repulsivas. Se trata de evitar los puntos físicos con una fuerza nula puesto que el que no se midan fuerzas no significa que no existan —como nos muestra gráficamente el efecto Aharonov-Bohm y en realidad toda la teoría clásica del potencial.

Así que esta redefinición del equilibrio, aunque podría parecer inocua, también es físicamente relevante. La teoría de categorías superior podría recircular eternamente el álgebra del cero, el infinito y la unidad con sus nuevas distinciones de la igualdad y la equivalencia; pero es sólo cuando aplica esta circulación a los problemas más básicos del cálculo de diferencias finitas, que podría empezar a advertirse su relevancia, su carácter trascendental para la física, la matemática, y la disposición global de nuestro conocimiento.

Otro acercamiento, esta vez puramente morfológico, a la Onda-Vórtice primordial y su conexión interna en el espacio y el tiempo, nos lo da Peter Alexander Venis, al englobar dentro de la noción de vórtice ciertos procesos sin rotación y dar paso a unas coordenadas de dimensiones continuas ,que pueden adoptar cualquier valor real entre la dimensión 0 del punto y la distancia o dimensión 1, y así sucesivamente. El proceso completo de aparición y desaparición de esta onda prototípica tiene lugar entre 0 y 6 dimensiones. Venis infiere estas dimensiones y su secuencia desde la pura lógica de la apariencia —lo que a nuestro juicio no le quita valor, sino más bien lo contrario-, y sería necesario estudiar dónde encajan desde el punto de vista del análisis físico y matemático.

En el Hipercontinuo de Venis las nociones proyectivas son esenciales, pero también está por especificar su relación con la geometría proyectiva propiamente dicha y sus aspectos más restringidos. Decir geometría proyectiva es decir geometría en general, y desde su ausencia de constricciones surgen, por restricciones graduales, la geometría afín o las geometrías con una métrica específica. Venis quiere incluir aquí desde el comienzo la luz y el electromagnetismo pero introduce otro tipo de consideraciones sobre las ondas electromagnéticas, como la presión, que resultan pertinentes.

Si la dualidad electromagnética puede desglosarse como materia separada por espacio para la electricidad, y espacio separado por materia para el magnetismo —algo que al nivel de las partículas sólo se haría literal dentro de una teoría que contemplara partículas extensas-, también puede tratarse como la relación entre un espacio ordinario y un contraespacio que sería el opuesto polar del espacio euclideo y que extendería su perspectiva hacia adentro. Sería necesario precisar estas relaciones aun si hasta ahora las ondas electromagnéticas han resistido todos los intentos de geometrización —no son perpendiculares en un sentido geométrico sino meramente estadístico, que promedia su propagación en el espacio vacío y la materia.

También en la secuencia de Venis sería muy revelador aplicar el doble criterio del análisis para apreciar contrastes: el análisis estándar, que preferimos llamar infinitesimal porque sigue siéndolo, y el análisis diferencial finito o constante que supone la suma de al menos una dimensión más.

El infinito de Venis es en realidad el espacio primitivo homogéneo que no permite marcos de referencia, y del que, a semejanza de un punto, tanto puede decirse que tiene infinitas dimensiones como que no tiene ninguna, y un vector de torsión permite generar el volumen de un vórtice desde un punto y definir la transición entre dimensiones.

Tanto un vórtice como la holonomía de la fase geométrica suponen una superficie de contacto o continuidad entre el exterior y el interior de un cuerpo, una ineludible problemática de interfaz que nunca puede hacerse explícita en las teorías actuales que se ven obligadas a trabajar con partículas puntuales, que, sin el menor género de dudas, suman a una idealización distintas racionalizaciones sin espacio alguno para la mediación. Pero la cuestión de la continuidad se extiende seguramente al problema de las dimensiones en general y a las restricciones matemáticas y físicas que se van agregando a una posición dentro de un espacio sin ninguna cualificación.

El cálculo finito de Mathis permite explicar claramente por qué funciona el cálculo umbral, que durante más de un siglo se ha considerado misterioso, y que ni siquiera trabajos de matemáticos famosos como Rota han desentrañado satisfactoriamente. Puesto que este cálculo constante devuelve las dimensiones perdidas en la representación del movimiento físico, y es aplicado a problemas relativistas y de mecánica cuántica sin necesidad de espacio-tiempos curvos ni números complejos, parece que tendría que ser esencial para iluminar el rol de los propios números complejos en física, lo que en sí mismo tendría que ser un tema de gran calado pero sólo es objeto de dimisión tanto por parte de físicos como de matemáticos.

El mismo Mathis no pretende explicar este rol dado que rechaza abiertamente su empleo en la física, como rechaza el uso de la mecánica ondulatoria en la mecánica cuántica y el uso de dimensiones espurias.Pero si hemos seguido los apuntes anteriores sobre la verdadera naturaleza de la complementariedad onda-partícula, o el uso de vectores de torsión para generar partículas extensas, aún hay espacio para apreciar simultáneamente los dos lados del problema sin faltar al espíritu de la geometría. Mathis propone un nada abstracto álgebra de rotaciones para partículas extensas.

El álgebra de cuaternios de Hamilton era básicamente un álgebra de rotaciones/orientaciones que su descubridor siempre quiso asociar con la naturaleza del tiempo. El uso de los números complejos en mecánica cuántica está directamente relacionado con la rotación y los grupos que genera, que en la simplificación de Mathis se convierten en varios giros simultáneos aplicados a una misma partícula, que parecen en principio imposibles. El cuaternio unidad es prácticamente lo mismo que el moderno q-bit de la llamada computación cuántica; con los cuaternios y con el álgebra geométrica pude darse una interpretación geometrodinámica de la fase global que comprende a las denominadas fase dinámica y fase geométrica, así como de la onda-vórtice de Venis.

Sabido es que los llamados “números complejos” en realidad simplifican innumerables problemas, y uno de sus primeros usos fue para la representación de ondas y sinusoides; sin embargo incluso en algo tan elemental como la derivada de la función seno Mathis demuestra que no se comprende el alcance de la interdependencia del seno y el coseno en un simple triángulo y la imposibilidad del seguimiento del uno sin el otro. Cosas tales deberían considerarse como las mejores noticias, pues si revelan que físicos y matemáticos se han acostumbrado a aprovecharse de que “hay mucho espacio al fondo”, también nos muestran que todo ese espacio y ese tiempo imaginarios los podemos traer de nuevo al frente de una comprensión más directa.

Totalmente a contracorriente de la física y matemática modernas, creemos que lo más importante de considerar coordinadamente esta secuencia de temas —partículas puntuales, partículas extensas, ondas como puntos materiales, rotaciones, grupos de rotaciones, números complejos, dinámica ondulatoria y temporalidad- estriba en el esfuerzo de lograr una representación sensible que sea compatible con el cálculo. Devolver las abstracciones de orden superior a lo primario es la única forma de lograr una síntesis que acceda a estratos más profundos de la subjetividad, y ciertamente el análisis no estaría ocioso en este intento.

*

Está aún por definir todo un nuevo campo que explore las relaciones inadvertidas entre lo más básico del sonido y las formas musicales. La música, además, permite elaborar formas cuyo componente esencial está más acá de la representación, en las inmediaciones de la impresión y la emoción.

Si el ritmo es el elemento más básico en la organización del sonido, ya en él tenemos aspectos que no se incluyen en el curriculum ni de la física ni de la acústica que son de importancia primordial. Por ejemplo, las ondas vivas, también conocidas como ondas animadas u ondas de Ivanov, que implican transferencia efectiva de energía. Yuri Ivanov, el descubridor de este fenómeno en los años ochenta del siglo pasado, propuso el término ritmodinámica para el estudio de estos desplazamientos de fase de las ondas, que seguramente es la forma no estándar más directa de acercarse al problema de la fase geométrica desde el punto de vista de los principios de la mecánica.

Las ondas vivas son otro de esos temas relevantes y bien fáciles de verificar experimentalmente sobre los que no existe prácticamente ninguna literatura científica, y si la hay, es convenientemente camuflada y sin dar crédito a su descubridor. Sin duda el tratamiento de Ivanov resulta escandalosamente indiscreto incluso desde el punto de vista teórico, por no mencionar otros motivos. En cualquier caso, las ondas vivas de Ivanov plantean muy simplemente la conexión entre la electrodinámica clásica o física macroscópica —ya sea en la versión de Maxwell-Lorentz o en la relacional de Weber-Noskov- y las ondas de materia predichas por de Broglie y verificadas experimentalmente a todos los niveles de agregación de materia que se han podido someter al debido control, desde partículas y átomos a grandes moléculas biológicas.

O entre la mecánica clásica sin más y la mecánica inherente a la materia, incluyendo su resonancia. Puesto que las resonancias en física constituyen un dominio de gran calado y sin embargo su tratamiento en los vigentes marcos teóricos no puede ser más contingente, las ideas de la ritmodinámica merecen un desarrollo mucho mayor; aunque las ondas de de Broglie tampoco son muy populares entre los físicos teóricos, hasta tal punto que a menudo parece como si no existieran. Sin embargo, a nivel sonoro y musical hoy es muy fácil experimentar con las ondas de Ivanov e intentar reproducir sus relaciones y efectos con todo tipo de mezclas y muestreos.

Una cosa es la experimentación sonora y otra bien distinta la concepción de las formas musicales, que comporta otros niveles de elaboración como la melodía y la armonía, con su integración “horizontal” y “vertical”. Sin embargo el ritmo sigue siendo fundamental en la estructura de la melodía y determina sus células mínimas, existiendo una innegable continuidad.

La secuencia de la onda-vórtice de Venis con su despliegue es una prodigiosa matriz de formas equidistante de la física y la biología. El propio Venis, cuyo punto de partida es la morfología y por lo tanto la estética, relaciona directamente estas formas y la altura del sonido con las dimensiones de manifestación de la onda y encuentra diversos fenómenos ignorados por los expertos en acústica.

Está aproximación, aun siendo morfológica, invita a un gran número de experimentos acústicos, no menos que a una elaboración detallada de sus modelos. Por otra parte, puesto que la ritmodinámica de fase conecta directamente con la vorticidad aunque hasta ahora no haya sido directamente asociada con ella, también existen diversos niveles de continuidad con las formas de orden superior que plantea la secuencia de Venis. Hay todo un mundo por explorar aquí.

Por supuesto, melodía, armonía y ritmo, los tres grandes componentes de la música, se conectan naturalmente con las tres percepciones simultáneas del tiempo, horizontal, vertical y cíclico —el de la vigilia animal, el del árbol, y el de la renovación- y su disposición del presente, el pasado y el futuro; también permiten un acceso a la intrasubjetividad mucho más fácil de percibir que bajo los velos del razonamiento científico. La inteligencia estética, con la ayuda del arte, tiende a completar los huecos que no pueden faltar en cualquier descripción. Y hablando de intrasubjetividad, del mismo modo que los tres principios del movimiento presuponen que las fuerzas son externas a cuerpos por definición impenetrables, la ritmodinámica supone un espacio interno de desplazamiento que reubica los tres principios dentro de los ya comentados “tres estados de reposo”.

En otros escritos ya hemos tratado de otros aspectos estéticos que pueden ponerse en contacto directo con la vorticidad y con la dinámica en general, como la presencia de la proporción continua en muy diversas instancias. En un plano diferente tendríamos la teoría de la percepción del color, que de ser un esbozo de teoría estética en Goethe, ha evolucionado con autores como Schrödinger y Mazilu hacia un dominio propiamente físico e íntimamente relacionado con el “principio holográfico” original, el de Gabor —que, casualmente, también anticipaba sin saberlo la fase geométrica.

6. La conciencia, punto de fuga y última frontera

Si hay un campo que se nos ofrece como última Thule de los interrogantes científicos, ese es el de la conciencia. Parece involucrarlo todo, de la física a la biología, pasando por la filosofía, la psicología experimental y todos los modelos matemáticos habidos y por haber de la complejidad. Y de hecho las teorías de la conciencia suponen, potencialmente al menos, una reorientación masiva de la tendencia general de las ciencias hacia la complejificación, puesto que aquí los modelos complejos tendrían que “explicar” o “producir” el dato inmediato más simple, indivisible y subjetivo.

Es también un campo donde el paso de lo abstracto a lo concreto revierte el sentido habitual de estas palabras, puesto que aquí el dato concreto es el más intangible, mientras que todas nuestras grandes teorías y grandes agregados de datos experimentales tendrían que ponerse a su servicio. Visto de forma ingenua, ninguna investigación tendría que ser más “pura” y desinteresada que la de la conciencia; en la práctica no podrá evitarse la distorsión y colusión con los intereses de otras disciplinas más pragmáticas y ya de sobra integradas.

En ningún otro área se dan pues tales condiciones para darle la vuelta al guante y asumir aquello de que “el principio es la meta”; por más que en general se parta de la idea de que la conciencia es el producto último de la evolución, no algo que esté en la base de la realidad.

Al menos, los que abordan este tipo de estudios —afortunadamente todavía no hay expertos en conciencia-, suelen ponerse de acuerdo en que ésta no es una cosa, sino en todo caso un proceso. Qué clase de proceso, es la cuestión que se trata de concretar. Algunos neurofisiólogos, como S. Pockett, aún insisten retóricamente en hablar de la conciencia como cosa, en el sentido de que podría reducirse a patrones del campo electromagnético, pero estos patrones ya son procesos en sí mismos, y además suponen un feedback con la actividad que sólo como proceso cabe considerar.

Uno puede preguntarse sobre el sentido que tiene tratar de explicar la conciencia cuando hay tantísimas cosas incomparablemente más objetivas que pueden explicarse y no se atienden, algunas de las cuales ya hemos señalado. Sin embargo siempre hay razones dentro de la locura, que seguramente tienen que ver, aun de una forma velada, con la lógica más secreta del retorno. Tenemos todo tipo de reparos para volver a la simplicidad, que siempre cuestiona nuestra sofisticación, y el sofisticado multiespecialista actual sólo podría hacerlo poniendo muchas capas de complejidad por delante.

En toda la filosofía india clásica, Advaita incluido, se acostumbra a hacer una distinción tajante entre la mente o pensamiento y la conciencia propiamente dicha, que sería su continente. En Occidente esta distinción se transfigura en el moderno teatro de la mente de Descartes, disociado entre una parte extensa y otra inextensa. Ambos planteamientos parecen ser muy distantes pero algo de atención revela que no lo son tanto.

Finalmente dentro del propio teatro cartesiano se operó otra inversión, que empezó con Newton y terminó con las teorías de campos, ya sean electromagnéticos o gravitatorios como en la relatividad general. También el pensamiento debería ocurrir dentro de la materia, y esta dentro del espacio —pero las teorías de campos suponen que no hay materia sin espacio, ni espacio sin materia. Ha habido una más que razonable analogía entre el concepto de campo físico y el de campo perceptivo en la conciencia al menos desde los tiempos de Husserl.

Pero ni en Husserl ni en las teorías de campos modernas se aprecia debidamente cómo espacio y campo se interpenetran; pues una partícula puntual indestructible no es penetrada por nada. Sin embargo las ondas electromagnéticas en Maxwell ya eran un promedio estadístico de propagación en la materia y el espacio, y lo mismo se puede decir de la vibración dentro de los cuerpos que Noskov identificó en la electrodinámica de Weber, y que sería patente en la ecuación del electrón si se quiere describir una partícula extensa.

La fase global que incluye a la fase geométrica está íntimamente asociada con la problemática del campo, como no podía ser menos si ya está presente en el espacio interno de los principios de la mecánica. Es más, lo que hoy llamamos fase geométrica, y que se asocia rutinariamente con la propia “conexión del espacio”, está tanto fuera del espacio dinámico con sus variables físicas como dentro de ellas. Este es el “más allá que está más acá” de las presentes teorías, y que admite diversas representaciones parciales fuera de la corriente principal, en Weber-Noskov, Mazilu, Ivanov o Mathis, por citar algunos ejemplos.

Y algo similar puede decirse respecto al “grado cero de la conciencia”, que en el Advaita está representado por el sueño profundo, y que envuelve por completo al campo fenoménico de la vigilia o el sueño, y los lapsos o intervalos que existen entre los sucesivos pensamientos o cogniciones. La psicología experimental va reconociendo poco a poco que las representaciones mentales requieren estados discretos para que efectivamente haya cognición, bien que aún sigue siendo objeto de intensos debates; pero textos clásicos indios como el Tripura Rahasya ya enfatizaban la importancia del hecho para comprender directamente la naturaleza de la mente. Hecho que se resume en que lo más importante de las cogniciones es el silencio o fase entre ellos. Pues está claro que para tener una cognición clara y distinta lo primero es no tenerla, no es posible pasar de una cognición a otra sin interrupción; los momentos de cognición presuponen su carácter discreto.

Se trata ante todo de una evidencia directamente accesible para la atención, que la psicología experimental trata de asimilar a pesar de las resistencias, incluso cuando tal evidencia parezca, a juicio de muchos, favorecer el computacionalismo, algo por lo demás infundado.

Lo ha entendido mejor un físico experimental como Anirban Bandyopadhyay, que trata de desarrollar modelos operativos de consciencia más allá de la máquina de Turing. Pretender que el cerebro y la conciencia se fundan en este tipo de máquinas es lo mismo que decir que todo lo que ocurre dentro de ella se puede transcribir como una serie de pasos lógicamente definidos. En realidad, la fe en el “paradigma computacional” no es sino la confianza en la potencia del cómputo cuyo aumento está sostenido por una enorme industria.

Bandyopadhyay lo entiende todo en términos de ritmo y resonancia, no de bits. Los modelos pioneros de sincronización mutua en la actividad biológica fueron los de Arthur Winfree. En la estela de Winfree, el papel fundamental que ha de jugar la resonancia o coherencia en las funciones del cerebro se ha ido convirtiendo en un motivo recurrente para explicar la conciencia, incluso en las primeras tentativas reduccionistas como la de Koch y Crick. Pero el rol de las resonancias y su orquestación demanda otra idea de la sincronización —los resonadores, en principio moléculas biológicas, no pueden estar simplemente sincronizados desde fuera sino que han de tener su propio ciclo interno.

En los ordenadores habituales todo gira en torno al número de bits procesados, en los resonadores orgánicos que según Bandyopadhyay pueden tener hasta 12 niveles distintos y 350 tipos de cavidades, como en nuestro cerebro, sólo habría un bit, y luego bits dentro de él en una cascada fractal —claro que esto es sólo una traducción al lenguaje de la computación. En realidad no hay bits, sino ciclos temporales o ritmos unos dentro de otros que concurren en un ritmo global y un solo ciclo de tiempo.

No es improbable que este tipo de estrategia consiga mucho antes máquinas inteligentes que la computación clásica. Se trata por lo demás de negocios distintos: los resonadores acoplados tratan de destilar la inteligencia de los campos de la materia organizada sin ningún tipo de puertas lógicas, mientras que la computación tradicional procura enlatar la inteligencia ya destilada simbólicamente en los procesadores. Pero no todos los niveles que propone Bandyopadhyay son editables ni transferibles a otros soportes físicos.

Para no ser ciegos, estos niveles de resonancia, que son interfaces mutuos, deben contar con un feedback natural con las actividades externas que dan sentido a sus funciones. En cualquier caso, la verdadera “información” no se encuentra en los momentos conscientes que asociamos con la cognición, sino en los intervalos de silencio que contienen la fase y con ella la forma geométrica de un ciclo determinado.

Una rueda de resonancias con 12 bandas de frecuencias como la de Bandyopadhyay requiere tanto una artesanía en detalle con la materia como variados cálculos sobre sus relojes internos hechos de tripletes, su acoplamiento, y las dimensiones pertinentes a su geometría, topología y evolución temporal. Además de las teorías clásica y cuántica de la información, deudoras de sus respectivas mecánicas, aquí se propone una mecánica y una información fractal asociadas a los niveles de fases y frecuencias, con una métrica de fase basada en los números primos. En las nuevas no-computadoras, esta métrica nos libraría incluso del código y la programación. Se trata sin duda de una gran aventura especulativa, pero es el tipo de especulación que puede someterse permanentemente a prueba y ser objeto de continuas mejoras.

Las llamadas teorías emergentes suponen que la conciencia emerge como un fenómeno irreductible de la complejidad en la organización de materia inconsciente. Las teorías de la resonancia no necesitan establecer una diferencia radical entre planos pues la consciencia está distribuida en todos los niveles. Por un lado, los campos ya incorporan un feedback aun en sus relaciones más simples, las órbitas entre dos cuerpos. Por otro lado, la inconsciencia ya está siempre referida a la consciencia. En tercer lugar, esa inconsciencia sigue siendo la base en todo momento para los momentos “emergentes” de cognición, donde la emergencia tiene un sentido completamente distinto al del aumento de la complejidad.

Bandyopadhyay y su equipo de Tsukuba están trayendo al frente todo un nuevo mundo para la biología, hasta ahora reducida a la genética y la biología molecular. Las posibilidades de la no-computación son como mínimo tan grandes como las de la computación y la digitalización, el gran embudo y horizonte de sucesos de nuestra compulsiva deriva. Aunque aún se encuentre en sus rudimentos, este enfoque tiene mucho que decir en todo tipo de modelos dinámicos donde no encontramos ninguna lógica, lo que incluye gran parte de los fenómenos naturales y no naturales, desde los terremotos al tiempo, los eventos sociales o económicos.

Cabe preguntar si sería ético crear máquinas inteligentes en el caso de que fuera posible. Y creo que la única respuesta posible es que si esas máquinas demuestran ser seres sintientes, seres con sensibilidad, no se debería seguir por ese camino —puesto que no tenemos ningún derecho a exponer a otros seres al sufrimiento sin necesidad. Ahora bien, que sea posible la inteligencia sin sensibilidad es algo que parece bastante dudoso; pero en la vía más convencional de la inteligencia artificial casi se presupone una inteligencia insensible, mientras que dentro de un modelo de materia en resonancia es difícil pensar que la sensibilidad no esté presente. Si en algún momento de estas investigaciones se empieza a manifestar claramente sensibilidad como capacidad de sufrimiento, tendrían que abandonarse este tipo de proyectos; sin embargo estas ideas siguen teniendo un gran interés por derecho propio incluso si no se abordan por la vía experimental.

*

Hoy toda la investigación avanzada combina necesariamente altos grados de sofisticación formal, complejidad y especulación —e incluimos en la especulación conocimientos que se consideran bien fundados pero que teóricamente están en el aire, al justificarse sólo por sus resultados. Lo peor que hoy puede pasar es que se trabaje rutinariamente con cosas como la fase geométrica, en computación cuántica por ejemplo, sin llegar a preguntarse nada sobre su auténtica naturaleza. Pero es la tónica general: desde el cálculo a la manipulación genética, bastante hay con ocuparse de los resultados, ya de por sí sorprendentes. El mismo Bandyopadhyay, que hace de la fase geométrica un aspecto importante, si no central, ya tiene demasiado trabajo en intentar organizar tan vasto material y modular sus efectos como para ocuparse de su estatus teórico. Hay siempre tanto por hacer.

Para Winfree, una “singularidad de fase” es el tiempo de estímulo durante el cual no es posible asignar una fase a un proceso. Las singularidades de fase de las que se habla Bandyopadhyay son los lugares en los que se rompe la simetría y aparece un nuevo reloj, aunque el cálculo estándar podría estar omitiendo una o más dimensiones. Esto puede implicar una transición de escala, algo que los sistemas de coordenadas al uso no detectan. Un sistema de coordenadas completo debería incluir la escala con su posibilidad de transición, es decir, una suerte de “enfoque de escala”. Habría que estudiar cuidadosamente la relación de esto con la fase geométrica —si es cierto que equivale localmente a una función exponencial fraccional- y las teorías no estándar aquí mencionadas.

Cada vez es más necesario distinguir entre Ciencia en general, con sus posibilidades siempre intactas, y la Gran Ciencia de las instituciones con todos sus compromisos e inercias. Ni que decir tiene que la Gran Ciencia es una parte muy pequeña de la Ciencia como posibilidad, y sin embargo es la que capitaliza toda o casi toda la atención, invirtiendo con su solo peso la percepción general. Pongamos sólo dos ejemplos de la física teórica, que podrían extenderse, con mucha más razón, a cualquier campo de la ciencia aplicada.

Sabido es que el último gran colisionador se construyó sobre todo para detectar, al menos a un determinado nivel de energía, la “partícula”, o por mejor decir la excitación del campo escalar que sería responsable de la masa de las partículas. No deja de ser irónico que a una ciencia que se precia de reduccionista no le quede otro recurso que apelar a un campo que estaría en todas partes, como el antiguo éter, para explicar aquello que hace a la materia ponderable. Finalmente y tras muchos años de descomunal proyecto se afirmó haber detectado la “partícula” famosa, pero más de ocho años después, no hay ni un solo experto que pueda decirnos ni una sola cosa más sobre la naturaleza de la masa.

Sin embargo Mathis había mostrado incluso antes una serie de cosas mucho más instructivas usando tan solo sus métodos finitos de cálculo simplificado. Por ejemplo, que basta tomar las propias ecuaciones de Newton para ver que la masa de una partícula esférica puede escribirse como la aceleración de su radio. De este simple hecho se derivan gran cantidad de consecuencias, se resuelve el famoso “enigma del radio del protón” que seguía igual de vigente después del supuesto descubrimiento del bosón escalar, y se aprecian muchas otras claras relaciones: por ejemplo, que igual que tiempo y distancia, masa y gravedad son funcionalmente lo mismo.

Es de sentido común que cuanto más homogéneas sean las cantidades que se utilizan, más transparentes y múltiples sean las relaciones entre ellas; mientras que por el contrario las cantidades altamente heterogéneas que caracterizan las ecuaciones modernas suponen nudos sobre nudos que sólo desatando pueden hacerse inteligibles. El análisis dimensional parece estar hecho para el cálculo de diferencias finitas, y viceversa.

Otro ejemplo de las modernas teorías de campos serían los intentos desesperados de cuantizar la gravedad, como si ese fuera el único problema pendiente. Pero ninguna cuantización va a explicarnos el rasgo más elemental de la órbita planetaria, que salta a simple vista, y que es que ninguna fuerza central, en el sentido asumido por todos después de Newton, puede generar las elipses que observamos. Y así, la necesidad de fuerzas no centrales que no dependan sólo de la distancia, que tendría que ser el gran tema de la gravedad, ni siquiera se plantea, ni ahora ni en tiempos de la relatividad general. Simplemente se presupone que el teorema de Bertrand dejó zanjado este problema cuando ni siquiera respeta la definición de una fuerza central en los Principia.

En definitiva, los expertos tienden irremediablemente a buscar las soluciones allí donde éstas demandan conocimientos siempre más elaborados que confirman la necesidad de hacerse aún más expertos, del mismo modo que tienden a ignorar lo que simplifica innecesariamente sus problemas.

La perspectiva del nuevo multiespecialista es sin embargo diferente. Enfrentado a una complejidad sobreabundante, no le hace ascos a las simplificaciones siempre que funcionen. Toda simplificación es bienvenida, cualquier simplificación es poca si es capaz de aportar algo más de orden. El multiespecialista sí está dispuesto a remontar el río.

No puede dejar de haber una estrecha relación entre la noción de un campo físico y la noción de la conciencia, puesto que después de todo ambas tratan de subsumir la evolución de eventos particulares dentro de la totalidad más amplia concebible. Como no pueden dejar de tener una influencia decisiva el papel que en esta concepción se atribuya a lo continuo y a lo discreto, al punto y al infinito, a lo finito y lo infinitesimal.

Bandyopadhyay propone una serie de ruedas o esferas concéntricas para reproducir las resonancias y acoplamientos entre las distintas capas del cerebro, de cuya transición de fase global, de naturaleza fractal, saldría lo que entendemos como conciencia individual. Seguramente no hace falta mucha más imaginación para intentar concebir los estratos que determinan una conciencia colectiva, y aquí la cuestión es si no están ya todos en un solo cerebro, pues el cerebro ya es una gran sociedad. En cuanto a los estratos que determinan una teoría física o matemática, eso es mucho más fácil de determinar y para eso tenemos la historia, pero por lo que parece, también es lo más difícil de modificar.

Desde el punto de vista del principio, el único campo relevante es el medio homogéneo primitivo con una densidad unidad, y cualquier modificación transitoria, que no deja de ocurrir en su seno, es sólo un detalle técnico. En el fondo, y no sólo en el fondo, esta también es la posición de Bandyopadhyay, que asume que cualquier campo, por más heterogéneos que puedan resultar sus materiales, tiene que rendir la unidad en la conciencia, lo indivisible por definición.

Bandyopadhyay es bien consciente de las relaciones y trata de concretar técnicamente la concepción recurrente del tiempo en el hinduismo con sus mundos dentro de mundos. El tiempo interno de cada reloj no es sino Rita, la expresión local del orden cósmico; pero lo peculiar de este tiempo no se puede apreciar dentro del sincronizador global, el tiempo externo que aplana toda diferencia. Pranava, la vibración de un sí-mismo que no vibra, es lo inobstruido en todo proceso de experiencia que va siempre más allá de los sentidos; las experiencias en sí mismas son intransferibles e irrepetibles, aunque admiten múltiples réplicas parciales que sólo se podrán recuperar en nuevas condiciones locales.

El mundo digital es justamente la esfera de lo absolutamente repetible e intercambiable, usado por sujetos irrepetibles. A largo plazo podríamos evolucionar hacia una simbiosis entre las máquinas que computan y las resonantes y vivas no-computadoras. La nueva no-computación analógica trata de extraer las posibilidades de resonancia de las organizaciones biológicas más específicamente relacionadas con la información, dejando a un lado las relativas a la nutrición y otras funciones; pero la vibración primordial abarca indistintamente cualquier nivel de organización o desorganización.

La no-computación según Bandyopadhyay es una geometría musical de la vibración y del silencio; también una geometría de la confusión. Hacer un cerebro artificial con biomoléculas no es inteligencia artificial, porque el trabajo más específico del cerebro consiste en componer su propia música. Ahora que se presuponen programas y algoritmos para cualquier tarea o decisión, no puede haber empresa científica más apasionante que salir de la caja tonta de Turing para tratar de averiguar cómo un cerebro, natural o artificial, funciona sin ninguna necesidad de rutinas participando en la cadena de resonancias del universo.

Si hay métricas de fase basadas en primos para modular las resonancias de campos tan heterogéneos, también ha de existir en última instancia una conexión con la función zeta de Riemann. Se ha visto que la función zeta aún podría tener un imprevisible impacto en la moderna teoría de la información, toda vez que se incluyan ciertos criterios en el cálculo, el análisis y la medida de la entropía. Si estos criterios tienen validez para los niveles de energía del vacío y la termodinámica irreversible en los resonadores, además de para la “singularidad” topológica y la transición de fase global del sistema, tal vez algún día se tienda un gran puente entre la computación y la no-computación.

Otro fenómeno estrechamente asociado y presente en muchos sistemas físicos y biológicos es lo que se conoce como resonancia estocástica. Una señal por debajo del umbral de detección de un sensor puede potenciarse aumentando el ruido blanco con todo tipo de frecuencias. El ruido es por tanto señal por derecho propio, así como una fuente de energía libre. El ruido óptimo no es un ruido cero, lo que plantea varias cuestiones. La resonancia estocástica puede ser adaptativa, y a este respecto podrían hacerse interesantes experimentos de biofeedback.

Los físicos como Bandyopadhyay seguramente tienden a sobrestimar la capacidad de las matemáticas para captar los estados de consciencia incluso cuando hablan de “una geometría de la confusión”, pero esto es algo vocacional y casi inevitable. Hacemos con gran facilidad y placer cosas que desde el punto de la vista del análisis matemático son casi inabordables, e incluso suele haber un grado de dificultad inverso: calcular el equilibrio de una bicicleta es factible si está casi parada pero demasiado complicado con cierta velocidad; pero estando sobre dos ruedas es al contrario.

Si el biofeedback desplaza la atención de la acción a la autointeracción, incluso el control, con toda su vasta teoría, queda subsumido en la idea de autocontrol, que lejos de ser un caso particular, parece el caso más indefinido y general. Efectivamente, además de ciclos de acción y percepción, aquí hay una autoobservación, incluso si es mediada por señales. ¿Pero no ocurre esto también en cualquier tipo de actividad? Lo único nuevo del biofeedback a este respecto es que nos ofrece un reflejo monitorizado, un espejo con una señal que puede cuantificarse —una interfaz entre las funciones vivas y las funciones del cálculo.

En todo caso, el grado de autopercepción hace la diferencia entre la frescura de la inteligencia natural y el enrutamiento del hábito o la inteligencia procesada. Supone el lugar de la apertura, y deberíamos seguir siempre su estela. Si el control aplicado a seres humanos busca cerrar el ciclo entre acción y percepción, obstruyendo la autoobservación, habrá que abrirlo de alguna manera. Crear espacio dentro y fuera tal vez no sea tan diferente como a menudo se cree.

La rueda de frecuencias concéntricas, anidadas, de la actividad cerebral y otros ritmos orgánicos, capa por capa y en conjunto, supone una configuración de señales óptima para el biofeedback, la sintonización y la sincronización. No todas las señales han de depender de electrodos o medidas directas, y algún día no muy lejano tal vez tengamos las claves de tiempo, ritmo, acoplamiento y geometría que pueden sintonizarse a través de señales indirectas. ¿Es posible que algo tan simple como la conciencia pueda abarcar tal complejidad de ritmos? Si sólo podemos concebir mediaciones, parece algo imposible. Pero si el único denominador común de todos esos ritmos es la propia conciencia, la respuesta tendría que ser afirmativa.

No hay resonancia sin cooperación. Si la resonancia está en la base de las moléculas biológicas, y aun de cualquier organización, como la de un átomo o partícula, eso también pone a la cooperación en la base de la vida y de cualquier orden; tal vez sea esa la razón por la que trabajos pioneros como el de Winfree no han logrado todavía el reconocimiento que merecen. Pero esto puede y debe aplicarse al mismo principio de individuación, a la persona y a la propia conciencia, como está mostrando Bandyopadhyay. Incluso la autoconciencia demanda cooperar con uno mismo.

La articulación ritmodinámica de los tres estados de reposo permite la articulación interna de los tres principios del movimiento junto a otro principio también interno de sincronización que no deja de estar totalmente conectado con lo que entendemos como “causalidad” física o externa. Esta es la gran diferencia. El acoplamiento por resonancia debería incluir la faceta “termomecánica”, esto es, la emergencia de la regularidad mecánica de un fondo termodinámico. Esto, contando siempre con la acción ubicua del medio, puede dar cuenta de forma más consecuente la evolución molecular prebiótica.

Cualquier tipo de percepción supone la sensación, y la sensación supone un sensorio común completamente indiferenciado, indistinguible del primitivo medio homogéneo. Olvidarnos de él no es más lógico que olvidarnos de que las cogniciones surgen intermitentemente de un fondo sin cognición. Si, además de su propio ciclo respiratorio, el ciclo nasal bilateral se hace eco en su propia escala de tiempo de los ciclos del cerebro, y evoluciona en torno a un agujero, entonces, igual que se puede hablar de doce capas concéntricas de frecuencias, podría hablarse igualmente de doce grados del silencio, tal como han hecho algunas tradiciones.

*

El conocimiento busca dentro de sí la existencia extramental de la que emerge recurrentemente y siempre cambiado. Saber retornar a ella sin descomponerse es saber, lo demás son sólo saberes. Saber retornar a ella es saber entrar en la corriente.

El triple tiempo es autoconciencia diferida: creamos el futuro como un escape para el presente, y en menor medida, para el pasado. El futuro se convierte así en la dimensión virtual de nuestra huida, que libera en esa dirección energías que sospechamos podrían resultar en una presión insoportable confinadas al presente. El único presente sin futuro es para nosotros la muerte, de ahí todas las ultramundanas elaboraciones de la religión; aunque igual nos resistimos a que el pasado termine realmente.

La misma subjetividad es ya un producto de la temporalidad, y esa presión insoportable de un “presente confinado” no es menos imaginaria que un futuro o un pasado cuyo sentido pueden cambiar hasta el mismo momento de la muerte. Somos nosotros los que nos metemos presión, los que no nos perdonamos muchas cosas o los que nos absolvemos de ellas; sin embargo ese “uno mismo” que hace todo esto por fuerza tiene que ser algo más que la mente que salta de rama en rama. Al Yo le convendría reconciliarse con él antes que con cualquier término último que prometa un paso al límite en el futuro, por más que los infinitos y los límites también tengan su lugar legítimo en las matemáticas, y en nosotros, aunque no sea el que damos por supuesto.

¿Qué es lo inobstruido a lo que se refiere la Palabra? La conciencia es lo inobstruido, por definición y sin definición. ¿Dónde y para quién existe la obstrucción? ¿Qué es lo que impide el paso, y de qué? En la India, en una cultura superpoblada de dioses, después de nombrarlos a todos se buscó el Nombre autorreferente de la propia conciencia, y se encontró que su sonido se escucha incluso sin oídos, sin esfuerzo, y aun sin cognición.

De un medio homogéneo y sin límites igual puede decirse que está completamente lleno o completamente vacío; lo mismo podría decirse de él que es conciencia pura o pura inconsciencia, o las dos, o ninguna de las dos. O que es existencia plena, o plena inexistencia. O que es vida pura, que no conoce la muerte, o preexistencia que nunca ha conocido la vida. Pero si todo lo que apreciamos aquí, ha podido salir de ahí, nada de lo de aquí puede serle ajeno. La conciencia sería la homogeneidad que atraviesa lo heterogéneo, el fugaz aroma de armonía que escapa de cualquier desorden.

Parece ser que se necesita la gravedad para que se muevan por sí solas las masas; pero un análisis elemental muestra que masa y gravedad son sólo nombres diferentes de lo mismo. Para eso no hacían falta espacio-tiempos curvos. ¿Habría algo que no fuera correlativo en un campo puramente relacional, descrito con cantidades homogéneas? ¿Y no sería lo mismo para la conciencia y la materia, si no fuera porque nosotros hemos invertido nuestra consciencia en su inconsciencia, justamente a través de la medida?

Queda sin embargo un residuo sin asimilar con manifestaciones múltiples, un desfasamiento, ángulo o curvatura atribuido a “la propia conexión del espacio”; pero desde Galileo, en física no hay espacio sin movimiento. En la mecánica de Galileo y en la relatividad en general no hay tercer principio y este se sustituye por el principio de covariancia, pero como ya observó en su día Brillouin esto es contradictorio y sólo se resuelve si el marco de referencia está anclado a una partícula de masa infinita.

Desde el “cuarto principio”, las proposiciones científicas tienen otro sentido; el de la totalidad más amplia del que han sido separados. Recuperar esa totalidad no tiene por qué ser contrario a la razón, cuando las proposiciones vigentes ya la pretenden, sólo que extendiendo sin la menor garantía la validez de sus postulados. Que se hagan tantos cálculos correctos con unas bases tan dudosas sólo podría sorprendernos si olvidáramos que ello sólo se consigue con todo tipo de infracciones para llegar a los resultados conocidos.

La voluntad de creer sigue siendo más fuerte que cualquier otra cosa, en ciencia como en todo lo demás; no es algo privativo de la religión, pues la ubicua propaganda lo explota tanto como puede a cada momento. El camino de la civilización permite la duda privada pero exige creencias compartidas.

En física el concepto de acción parece más fundamental que la fuerza pero como notaba Planck siempre tiene una connotación de finalidad que se prefiere eludir. En las teorías de campos modernas surge inevitablemente el concepto de “autoenergía” y “autointeracción” que aún parecen más extravagantes, pero sólo porque no se ha hecho frente a lo que implica la acción en los casos más elementales. Y porque, en definitiva, tampoco se puede separar la partícula del campo. Una transición explícita de la partícula puntual a la partícula extensa y la onda, estos dos últimos entendidos como configuración, haría esto más evidente.

El cuarto corolario de la relatividad general para aproximarse al “principio de Mach” dice que un cuerpo en un universo que por lo demás estuviera vacío no tendría inercia. Ahora bien, ese ya es el caso siempre en la mecánica relacional, donde sólo rige el principio de equilibrio dinámico, y cualquier movimiento, sea el que sea, es natural. Evidentemente, también en partículas cargadas, como un electrón. Pero este principio de equilibrio permanente puede verse no sólo como sustituyendo al de inercia, sino también como moderando la acción de las fuerzas y el tiempo de reacción, tal como en la electrodinámica de Weber.

Y es también interesante porque brinda un paralelismo bastante pertinente entre el par conciencia/acción del campo y el par autoconciencia/autointeracción.

*

Objeto y sujeto, pensamiento y pensador son efectos de la actividad del pensar que los abarca pero no es atrapada en el juego; esa actividad es el Logos creador, y si absolutamente todo tiene su parte de sujeto igual que tiene de objeto, ha de obrar a todos los niveles.

Puesto que ni el pensamiento ni el pensador lo alcanzan, lo mejor que pueden hacer es hacerle un hueco. La conciencia, joya suprema, es ya la síntesis viviente de sujeto, objeto y percepción, y como síntesis viviente que es, no admite fondo ni límites. Es realmente el espacio de la libertad, y tal vez pronunciemos tanto esa palabra porque no estamos dispuestos a explorarlo.

La continuidad que suponía Peirce en la transformación de los signos es una continuidad lógica, que presupone que algo que no es el Cogito impulsa los desplazamientos y determina sus momentos, creando una temporalidad de la que el Yo es parte. Naturalmente, la lógica, como cualquier otra ciencia, es sólo un caso particular.

Todas las ternas lógicas con la que podamos analizar y sintetizar el mundo y nuestro lugar en él, del primer al enésimo grado, no son sino contracciones de la conciencia, que las envuelve tanto como las atraviesa. Hasta el principio de no contradicción presupone que hay un ser, y ese ser no puede ser distinto de la conciencia.

La única forma apropiada de explorar la conciencia en su altura, amplitud y profundidad forzosamente ha de ser la conciencia misma; si ella no es adecuada para ello, ningún otro modo lo será. Sin embargo la ciencia, o al menos una parte de ella, aún puede beneficiarse grandemente de su estudio, si está dispuesta a reorientar sus fines, medios y principios.

Ciertamente los estudios de la conciencia tienden a quedarse en la parte más accesible, como sus correlatos cerebrales y los aspectos funcionales más acotables por la medida, el experimento y el concepto: aspectos tales como la reacción a estímulos, el control del comportamiento, el enfoque de la atención, o las diferencias entre estar despierto y dormido.

Todo esto es más bien relativo a la consciencia de algo o conciencia intencional, pero no se debería subestimar la incidencia que estas investigaciones pueden tener en la psicología aplicada y ciencias del comportamiento. La conciencia intencional es inseparable de la autoconciencia, y estos dos modos de la inteligencia son suficientes para operar cualquier contracción y tejer las nociones de un mundo y todos los mundos.

Así que puede preverse que el estudio de la conciencia también termine proyectando una alargada sombra sobre la sociedad y su control, si no lo está haciendo ya. Forma parte del camino descendente con el que las ciencias ya llevan largo tiempo comprometidas. De todas formas, es inconcebible que aumente el conocimiento de la conciencia intencional a un nivel institucional y no haya un aumento correlativo de la autoconsciencia a nivel individual, pero ambos procesos pueden transcurrir por caminos muy diversos además de divergentes.

La conciencia individual es un caso muy particular de la conciencia, pero ambas no pueden estar separadas. El individuo no es el fondo de nada, sino que a él le da fondo un proceso de individuación con diversas instancias, de las cuales las biológicas y las sociales son las más evidentes.

El individualismo cree sentirse por encima de criterios personales pero no trasciende su esfera, sino que simplemente la reduce a su mínima expresión. El hecho de que no pueda concebir la conciencia fuera del individuo, y que una conciencia inorgánica le parezca algo absurdo, sólo demuestra hasta qué punto su conciencia está confinada. Por lo demás el nominalismo no deja de ser burdamente anticientífico, como Peirce gustaba de recordar con elementales argumentos.

Frente a los “individualistas” están los personalistas, que dicen que la persona es más que el individuo. Pero si no pueden concebir la conciencia impersonal, que es el centro mismo de la conciencia, están jugando con las palabras, e ignoran no sólo qué hay más allá y más acá del individuo, sino también en qué sentido una persona puede estar más allá de las contingencias. Si algo de singular se presume en el individuo, tendrá que ser la conciencia, pero para saber si ésta es singular habrá que acudir directamente a ella, antes de emitir juicios sobre su naturaleza.

Ya sea para el individuo o la persona, la conciencia es el último criterio. Y si la conciencia es algo sin fondo, también lo son todos los grandes problemas filosóficos que vuelven recurrentemente. En cuanto a la física y las matemáticas, hay que distinguir entre hechos y pruebas, y hoy todos los hechos están atrapados en una malla de axiomas y postulados que no sólo pueden cambiar como ya lo han hecho otras veces en el pasado, sino que deberían cambiar para no ser sepultados por su peso estático. Este peso aumenta en nombre de la Ley, y ésta dicta que la regularidad observada tiene que ser analítica en última instancia, aun si los hechos de la Naturaleza no son verdades de razón. Como trabajo permanente sobre hipótesis cambiantes, también los problemas matemáticos y físicos carecen de fondo y son potencialmente infinitos.

*

No hay interpretante final, pero tampoco hay interpretante como la búsqueda permanente del mejor principio y el intento de conectar tan estrechamente como sea posible el conocimiento mediado con el metaprincipio. Sólo esta retroprogresión podría dar vida y sentido a una ciencia a la que irremediablemente se le escapan.

Nuestra idea de la Ley es determinante para los individuos, sus relaciones mutuas y sus relaciones con la Naturaleza. La misma idea de ley natural, surgida primero del derecho y aplicada a lo no humano en general, contiene ya una doble idea de dominación. Pero no hay ley natural que no sobredetermine los hechos, forzándonos a suponerles causas, a la vez que crea barreras artificiales entre lo necesario y lo contingente.

La ley de la gravedad, antigua o moderna, asume la existencia de una constante con dimensiones. Según el principio de homogeneidad de una teoría relacional en la línea de la de Weber, este tipo de constantes, que parecen inherentes a nuestras leyes, no deberían existir, sino ser sólo una función de condiciones macro o microscópicas. Ahora bien, estas teorías más relacionales no son menos restrictivas ni capaces de brindar conocimiento, sino que a menudo nos permiten explicar directamente cosas que son consideradas “históricas” o “contingentes” por las leyes —por ejemplo, una ley de Weber aplicada a la gravedad no permite cualquier órbita, y la “teoría no-unificada” de Mathis, tampoco, acercándose bastante más a una explicación de los casos particulares.

Así pues, retirarse de las leyes en dirección a los principios no supone necesariamente una pérdida de conocimiento y una vuelta a la mera generalidad, e incluso puede resultar en lo contrario. Esto es algo que también la matemática debería atender con la mayor atención y cuidado, porque, junto al cálculo, insinúan una inversión a gran escala de la relación entre teoría y aplicación, y entre principios y fines.

Así, el principio de equilibrio dinámico, que se antoja demasiado poco restrictivo como para definir nada, en realidad nos permite ser más específicos y afrontar los casos particulares con mucho menos peso muerto que perder. Nos lleva al menos en la buena dirección, opuesta siempre a la sobredeterminación de la Ley. Para empezar, un principio que permite prescindir de inmediato de la inercia, la masa inercial, el espacio absoluto, y el marco de referencia ya afecta directamente al estrato más profundo de cualquier ley o teoría y no se debería subestimar. Por otra parte hay mucho por estudiar con respecto a su criterio de aplicación, pues no es lo mismo aplicarlo a partículas puntuales que a volúmenes, además de consideraciones de escala, termodinámicas, termomecánicas, etcétera.

Pero el sólo hecho de poner en suspensión la idea de inercia es algo sobre lo que la conciencia apenas puede mantenerse un instante, de modo que tiene que recurrir a mediaciones teóricas para recolectar y “atraer hacia sí las consecuencias”. En este sentido, este principio de equilibrio, aun aplicándose a conocimientos particulares, se encuentra en armonía y aun en intimidad con la tácita unidad del ser y la conciencia. Pero si el principio de equilibrio dinámico permite precisar el contorno en que se cierra un sistema abierto, como la órbita de un planeta en torno al Sol, es también un principio de individuación.

7. Dividiendo por cero

Algunos se sorprenden de que usando la división por cero se puedan conseguir todo tipo de resultados importantes en análisis real y complejo de un modo consistente, pero esto no debería extrañar a nadie, puesto que era la intención original del cálculo de Bhaskara a Euler. Ya se ha rehabilitado la noción de infinitesimal en el análisis no estándar, y ahora empiezan a surgir abogados para la cuarta operación con el cero en la aritmética y el álgebra, puesto que genera nuevas e interesantes estructuras algebraicas, como la rueda, una extensión del anillo conmutativo y el semianillo, además de sus módulos y derivados. Naturalmente, muchos se preguntarán que interés puede tener “inventar de nuevo la rueda”.

Igual que hay varias alternativas con los nuevos infinitesimales, hay diversas álgebras con función inversa completa. Algunas de ellas, como plantean Tucker y Bergstra, pueden tener relevancia para el tratamiento de los números racionales, que después de todo son el dominio general de la medida finita y los resultados observables en física, y afectan directamente a la integración de la computación continua y discreta. Pero no vamos a tratar ahora de intereses prácticos.

A estas alturas debería estar más que claro que no hay un sólo método para el cálculo sino muchos, y en este sentido al menos, reivindicaciones tan categóricas como las de Mathis son sólo contraproducentes. Sin embargo su polémica va mucho más allá de las cuestiones de procedimiento e impugnan también los resultados, la asignación de variables, y la relación general entre la matemática aplicada y el mundo físico.

No terminamos de ponderar adecuadamente lo paradójico de la situación de las ciencias contemporáneas, históricamente comandadas por la física. Y la paradoja consiste en que incluso con el grado de positivismo, nominalismo, y operacionalismo imperante, el peso de la actitud platónica, reflejado en nuestro exceso de confianza en la aplicación del conocimiento matemático, no es menos extremo. Puesto que lo segundo ha sido lo primero históricamente, obliga a pensar que también ha sido el factor originador.

Los teoremas matemáticos importantes suelen encontrar con las generaciones y los siglos sucesivas formulaciones más simples, pero eso no significa necesariamente que se alcance una comprensión más clara de su contenido, sino más bien que con el paso del tiempo se van contemplando desde nuevos ángulos y nuevos supuestos. Nunca llegan a hacerse “triviales”, como algunos matemáticos pretenden.

Avanzamos entonces una lectura diametralmente opuesta a la del platonismo tácito de físicos y matemáticos: un teorema matemático va comprendiéndose mejor en la medida en que va tomando contacto con nuestra interpretación del mundo físico, lo que es algo totalmente distinto de su mera aplicación a la solución de problemas en física.

Lo curioso de esta afirmación es que es indemostrable precisamente porque los físicos han utilizado la matemática para encontrar soluciones a sus problemas, no interpretaciones. De lo que hablamos entonces es que la matemática misma, empleada de otra forma, podría ser un soporte para la interpretación y por lo tanto para la subjetividad, lo que sin duda era la intención original de Platón. Está claro, pues, que el “platonismo” que adjudicamos a la matefísica moderna consiste en la sustitución de lo sensible por intelecciones cada vez menos inteligibles. Un platonismo invertido pero ciertamente desencadenado.

Esta inversión del platonismo se adecua perfectamente al poder, no hay más que ver cómo se promociona la matemática para los usos que ahora alcanzan su apogeo, y que es mejor no calificar. En tales condiciones, revertir esa inversión parece una tarea imposible, pero esto también es olvidar que Platón fue el primero en hacerse reo de la mistificación y era ya víctima predestinada.

Volvamos al presente y al futuro. ¿Por qué tiene semejante interés la función zeta de Riemann? Porque, aparte de todas sus implicaciones matemáticas, aquí el platonismo invertido encuentra a su vez un punto de inversión. La ciencia busca estructuras matemáticas en la realidad física, pero aquí por el contrario tendríamos una estructura física reflejada en una realidad matemática. Los números primos son ya lo de menos, la cuestión es saber qué rayos significan los ceros no triviales de la función. Saber si la hipótesis es cierta o falsa, tendría que ser secundario en comparación.

Pero para entender esto haría falta comprender primero el rol de los números complejos en física, cuestión no menos misteriosa pero totalmente a nuestro alcance y que como ya hemos señalado requiere un acercamiento totalmente diferente a los problemas del análisis. El estudio de la función zeta con métodos de diferencias finitas probablemente todavía tiene recorrido por delante, pero las correspondencias mucho más generales del plano complejo con las “dimensiones perdidas” del análisis es algo que puede plantearse de inmediato.

El mismo análisis complejo, como es bien sabido, supone divisiones por cero en la esfera de Riemann justificadas mediante un argumento proyectivo. Es algo que no tiene incidencia directa en el cálculo de la función zeta, pero cuya lógica se extiende en el álgebra de ruedas. Una de las formas más poéticas de captar la hipótesis de Riemann, según Lapidus, es decir que el campo de los números racionales Q yace tan armónicamente como es posible dentro del campo de los números reales R; pero no existe otro criterio para definir esa armonía que la propia línea crítica de la función.

Grandes cuestiones aparte, lo que se aprecia históricamente es que la división por cero es el impulso original del cálculo, y el primer impulso es el que cuenta, incluso si luego la operación ha sido proscrita por motivos de conveniencia y consistencia. Desde el momento en que se cree trabajar con puntos, lo más que puede hacerse es ocultar o reprimir la cuestión; sólo un cálculo finito como el de Mathis no tiene ese problema.

La proscripción explícita de la división por cero empieza a ser un lugar común entre autores como Martin Ohm, hacia 1828, por los mismos años en que Abel y Galois crean las bases del álgebra moderna. Se trata ante todo de una cuestión de consistencia y conveniencia para la manipulación algebraica, más que de un asunto íntimo del cálculo, aunque tampoco es casual que por esos años Bolzano y Cauchy perfilaran la teoría del límite y el francés creara la teoría de funciones complejas. Es justo la época en que la ciencia pasa definitivamente de la idealización a la racionalización, aunque ni mucho menos de forma homogénea ni en todos sus frentes a la vez.

La proscripción de la división por cero se presentaba como una convención absolutamente necesaria para la higiene matemática, y sin embargo las infracciones algebraicas en el nuevo cálculo refundado no son simplemente numerosas, sino sistemáticas. Uno está tentado de pensar que aun dividiendo por cero no habría aumentado su número, porque se sigue pretendiendo exactamente lo mismo.

Las heurísticas reglas del cálculo pueden verse como un gran rodeo para evitar la división por cero, pero eso no significa que adoptar esta operación simplifique las cosas. Hay después de todo buenas razones para eludir esta división, empezando por el hecho de que no hay un solo criterio, sino varios. En la primera etapa del cero en la India se presentaron básicamente tres criterios diferentes.

Para Brahmagupta, el valor de cualquier número n/0 = 0. Para Mahavira, n/0 = n, es decir, el número permanece constante. Para Bhaskar, como ya hemos dicho, n/0 = ∞ . Este último criterio, sostenido por el mismísimo Euler, parece ser connatural al desarrollo histórico del cálculo, aun si muchos de los matemáticos que contribuyeron en la primera etapa eludieron la cuestión. Y visto en retrospectiva, también parecía apuntar al futuro desarrollo del análisis complejo.

Tiwari ha intentado unir los tres criterios diciendo que el valor de X/Y para cualquier valor positivo o negativo tiende a infinito cuando Y tiende a cero, pero que cualquier número dividido en última instancia por cero da cero como el cociente y al mismo número como resto. En la ya citada teoría de ruedas, que incorpora la esfera de Riemann en la aritmética, uno partido por cero es infinito sin signo, pero 0/0 es nulo. En cualquier caso, la única forma de dirimir estas cuestiones es a través de la física y sus resultados mejor contrastados.

En el cálculo estándar las tasas de cambio, como la velocidad por ejemplo, son relaciones ya establecidas dentro de la recta real, mientras que en el cálculo diferencial constante de Mathis la recta numérica tiene por definición un intervalo unidad y el numerador está “esperando a su denominador”. Visto así, el problema del cálculo estándar no es el cero en el denominador, sino en el numerador, puesto que representa a un punto. La identidad de Bhaskar es (a0/0 = a) o bien (0/0 = 1).

Digamos entonces que el cálculo infinitesimal tiene su “verdad ideal”, no surgida propiamente de la física, sino de su aplicación original a gráficos de curvas geométricas, que con el tiempo quedó aparentemente “superada” por la generalización algebraica del análisis. Pero en realidad no quedó superada en absoluto. Esta fase de interpenetración de lo ideal y lo convencional supone también la inversión definitiva del platonismo en la que aún nos encontramos.

En los últimos tiempos se ha hablado de “teorías transalgebraicas”, inspiradas en los argumentos, infundados para el nivel actual, de Euler, Galois, Cauchy o el propio Riemann; pero si se quiere llegar rectamente al núcleo y talidad de lo transalgebraico habría que ir más atrás para luego volver de un salto al presente y ver qué se acepta y se evita en él.

Algunos matemáticos actuales como Ufuoma, calculan las famosas series de Euler o incluso valores de la función zeta de Riemann siguiendo el “infalible principio de Bhaskara”; pero esto, siguiendo un poco la historia del cálculo, tendría que resultarnos natural. Ufuoma distingue claramente entre un cero intuitivo y un cero numérico; pero el principio de Bhaskar por sí solo no ayuda en absoluto a identificar la geometría pertinente al problema físico.

El cálculo de Bhaskar a Euler bien puede calificarse de “premoderno”; el cálculo de Mathis, que rechaza el uso de los números complejos en física, como “antimoderno” e incluso “antimodernista”. Al cálculo premoderno podemos calificarlo como “trascendente”, al de Mathis, para el que el cálculo es siempre y ante todo aplicación al mundo físico, “inmanente”. Y al cálculo moderno, que en su furia analítica no conoce más barrera en sus principios que la exclusión de la división por cero, dentro de este contexto bien podemos calificarlo de “intrascendente”, aun cuando no ha podido tener mayor incidencia en todos los órdenes de la vida. Intrascendente porque a pesar de haber afectado a todo no se ha comprometido con nada, permaneciendo en una tierra de nadie que no es sino la de los matemáticos; intrascendente porque no quiere ni puede llegar al fondo de nada, y menos a su propio fondo, aunque sí quiere resolver todos tipo de problemas, estén o no dentro de su alcance.

Para Platón el mundo sensible es falso pero hay un mundo verdadero donde lo que aquí son sombras matemáticas adquiere cuerpo. Para la física desde Kepler y Galileo la forma de descubrir la verdad del mundo de las apariencias, que es falso, es gracias a las matemáticas, con lo que asistimos a la creación de un nuevo “mundo físico” donde existen leyes pero se renuncia a dar cuenta de los procesos más directamente observables. De este modo, la física se hace mundana por su vocación de manipulación, y ultramundana al refugiarse en la matefísica. Para antimodernos como Mathis, llegados tras la ciencia postmoderna, la predicción matemática se simplifica justamente cuando se atiende a la descripción de la realidad física de la que surge, en vez de cuando se abstrae irremediablemente de sus condiciones como hace el cálculo.

Se plantea entonces un experimento y ejercicio mental más que interesante para desenredar lo que ya parece enredado sin remedio. Se puede probar a trabajar con algunos problemas básicos de cálculo según el principio de Bhaskar, que en retrospectiva no deja de ser un “principio de desobstrucción”, para luego abordar esos mismos problemas con el antagónico cálculo de diferencias finitas o cálculo diferencial constante de Mathis. Se pueden contrastar ambos enfoques en problemas físicos elementales con números complejos, mecánica ondulatoria o rotaciones/orientaciones expresadas con cuaternios, por ejemplo. La misma esfera de Riemann tiene múltiples aplicaciones en física y sus puntos dan, por ejemplo, los valores de los estados de polarización de los fotones y rotaciones de partículas en general.

Puesto que el cálculo finito y el cálculo “premoderno” parecen abiertamente incompatibles, uno puede preguntarse qué es lo que podría haber en medio. ¿El cálculo estándar actual, quizás? Esto es más que dudoso. Queda entonces la tarea de averiguar, del gran número de infracciones del cálculo estándar, justificadas siempre por los fines, cuáles se deben a un análisis físico incorrecto y cuáles a la elusión del principio de Bhaskar. Los estudiosos del análisis tienen aquí una cuestión apasionante que va mucho más allá de las reconstrucciones históricas.

¿Qué criterio es mejor para la división del cero, si hubiera que elegir alguno? Tendría que ser aquel que da respuestas con sentido en una descripción física completa. En este caso, el que mejor encajara en el análisis dimensional de Mathis, que procura no eliminar dimensiones físicas relevantes. Por otra parte, como ya hemos dicho, este tipo de análisis brinda la posibilidad, si es que existe alguna, de explicar por qué correspondencia los números complejos son pertinentes en tantos problemas físicos. Esto aportaría un hilo común dentro de una muy vasta estructura de casos.

Se ha dicho que las álgebras de división del cero podrían suponer una transformación para la matemática igual que la que supuso en su día la introducción de los números imaginarios, pero esto es más que improbable sin una revisión a fondo del cálculo, que más tendría que parecerse a una restricción que a la enésima expansión de su campo. El cálculo moderno se considera válido sobre todo por su ingeniería inversa a partir de los resultados conocidos, mientras que su fundamentación sigue llenando las grandes lagunas de sus manipulaciones mediante isomorfismos y argumentos de teoría de conjuntos análogos a los argumentos proyectivos.

El estudio de las correspondencias más básicas entre estas formas de cálculo no puede ser trivial desde el momento en que también hay hondas divergencias; lo que está por ver es si puede alcanzar la suficiente distancia con respecto al cálculo moderno y hasta qué punto permite reubicar su lógica global -vale decir, su racionalidad.

8. Metanoia, continuo y cuaternidad

Dejemos por un momento la ciencia y volvamos a una perspectiva más general.

Fue probablemente en una reacción contra el idealismo intrínseco al símbolo trinitario que una serie de pensadores de estilo muy variado se volvió en el siglo XX, y especialmente tras la posguerra, hacia los esquemas cuaternarios como símbolos de la totalidad. Quizás fue Jung el primero en percibir la necesidad de este giro, seguido luego por autores tan conocidos como Heidegger con su cuaternidad tierra-cielo-celestes-mortales, o el Schumacher de la excelente «Guía para perplejos» con su cuádruple campo de conocimiento: yo interno, mundo interno, yo externo, mundo externo, opuestos dos a dos como determinantes de la experiencia, la apariencia, la comunicación y la ciencia.

Raymond Abellio presentó otro modelo cuaternario de la percepción y por ende del conocimiento, en el que la mera relación entre el objeto y el órgano de los sentidos es siempre sólo una parte de una proporción mayor —una relación de relaciones- , puesto que el objeto presupone al mundo y la sensación del órgano a un cuerpo completo que lo organiza y le da un sentido definido:

Lo más importante de esta exactante proporción es la ignorada pero siempre presente continuidad entre los extremos “mundo” y “cuerpo”, donde el mundo no es meramente una suma de objetos, ni el cuerpo de órganos, partes o entidades. El fondo sobre el que aparecen es el primitivo medio homogéneo de referencia para cualquier fenómeno, movimiento o fuerza, puesto que ya sabemos de antemano que cualquier movimiento o cambio de densidad, ya sea expresado como suma o como producto, es sólo una manifestación del principio de equilibrio dinámico.

El cuerpo desde dentro es el sensorio común indiferenciado del que han salido los diferentes órganos, y sin el cual no habría sujeto ni “sentido común”. En armonía con esto, puede hablarse de dos modos de la inteligencia, uno que parece moverse y seguir a su objeto, y otro inmóvil que nos permite escuchar nuestras propias mentaciones, y sin el cual no podrían existir. Hágase la prueba de pensar sin escucharse a uno mismo y se verá que esto es imposible: la misma compulsión a pensar no es sino el deseo de escucharse.

Abellio propuso una “estructura absoluta” del espacio a la que estarían igualmente referidos los “movimientos de la conciencia”, y que no serían sino los ejes del espacio plano ordinario con las seis direcciones tradicionales. Otros autores habían propuesto ya ideas muy similares, cada cual dentro de su foco de interés propio.

La relación de los movimientos del cuerpo con respecto a su centro de gravedad como origen de coordenadas es similar a los movimientos de la inteligencia orientada a objetos con respecto a la inteligencia inmutable. Ciertamente el “espacio de la mente” no parece extenso en absoluto, pero para comprobar su íntima conexión con lo físico basta con poner en práctica cualquiera de esos ejercicios isométricos en los que uno permanece de pie y se ahueca simplemente para percibir el balance en los micromovimientos necesarios para mantener la postura. Si lo íntimo es la interpenetración de lo interno y lo externo, tenemos aquí tanto un ejercicio físico como para la inteligencia, que permite comprobar la íntima, trascendental relación entre movimiento e inmovilidad a través de la propiocepción.

Según Abellio, «la percepción de relaciones pertenece al modo de visión de la conciencia «empírica», mientras que la percepción de proporciones forma parte del modo de visión de la conciencia “trascendental”: esto se aplicaría a los cuatro aspectos de la cuaternidad. Como buen heredero de Husserl, Abellio hace un gran esfuerzo por ir más allá de los esquemas conceptualistas pero aún sigue dentro de la servidumbre del conocimiento. La toma de conciencia global o “conciencia de la conciencia” no es objeto de una regresión infinita sólo en virtud de una suerte de “paso al límite” en última instancia que sigue recordándonos cosas como el “interpretante último” de Peirce.

El dilema último de la comprensión, tal como lo puso Siddharameshwar, es que sin desapego no hay conocimiento, y sin conocimiento no hay desapego. Ahora bien, este desapego no es la mera separación que tomamos con respecto al objeto, sino algo que toca más hondamente a la voluntad. Se supone que queremos saber, ¿pero saber qué? Ni siquiera sabemos eso, ni tal vez queremos saberlo tampoco. Los científicos se afanan en buscar la solución de problemas heredados, pero vale más saber dejar a un lado las preguntas que no se ha hecho uno mismo.

El yo empírico no puede ser el operador de la conciencia global o conciencia sin objeto, y el “yo trascendental” es sólo un nombre para aquello que nunca dice “yo” ni lo necesita: para ese continuo mundo-cuerpo dentro del cual aparecen objetos de los sentidos. Ese continuo a veces nos concede algo de conocimiento, si aspiramos a merecerlo, tal vez con el sólo objeto de que se produzca el desprendimiento de la inteligencia y el yo que normalmente son conscientes de la adhesión y la separación y viven de su alternancia, pero pierden el suelo en el punto intermedio.

Así que podría decirse que todo conocimiento global es simplemente una gracia de la que el yo empírico es objeto para facilitar su desprendimiento y darle alguna aptitud; y está perfectamente dentro de la lógica que sólo pueda surgir más allá del deseo de conocimiento particular —la gracia es idéntica al ser, lo no particular por excelencia. Pero también hay en torno a esta palabra neutra, “ser”, una transubstanciación de intelecto y voluntad, y del sentido mismo que a tales términos concedemos.

La cuádruple proporción de Abellio apunta a una sucesión de umbrales, de perspectivas cada vez más amplias, pero que no deberíamos ver sólo como ángulos del conocimiento, sino como grados de participación en el ser, surgidos de un doble movimiento de asunción y encarnación. Por supuesto, ese doble movimiento también se da en el conocimiento científico, pero mientras la Naturaleza sea tan sólo objeto hablamos de dos tipos de conocimiento que ni siquiera son comparables.

En este contexto la metanoia o metacognición no puede dar de ningún modo lugar a un regreso infinito, porque lo que en realidad supone es una repetida transformación de lo mudable o aparente con respecto a lo inmutable que nunca se deja ver.

Por otra parte el “giro hacia el cuerpo” de la filosofía más reciente es demasiado parcial como para no ser fácil presa de la instrumentalización —mucho se ha hablado del sexo y de “máquinas deseantes” pero lo cierto es que el deseo, que es una agencia femenina, está más en el alma o incluso en el espíritu que en el cuerpo; mientras que la voluntad, que desde un punto de vista relativo sí está mucho más literalmente encerrada en los cuerpos y es un agente masculino, se ignora sistemáticamente. En el fondo se sigue viendo al cuerpo como objeto, aunque por otro lado la ciencia nos prevenga de considerar a una Naturaleza externa deseante, que es Naturaleza naturante.

Considerando “la parte del cuerpo” es obligado mencionar la ambigüedad fundamental de la mecánica relacional inaugurada por Weber con respecto a las tres energías —cinética, potencial, interna-, que aunque es una mera consecuencia de sus ecuaciones no deja de resultar natural, y que habría que tener en cuenta al respecto de ciertos balances y proporciones.

Las vibraciones longitudinales internas a los cuerpos en movimiento de Noskov, postuladas precisamente para justificar la conservación de la energía que en Weber era meramente formal —ni más ni menos que en las otras mecánicas- son una parte esencial del mismo tema, y es fácil ver cómo deberían “encajar” dentro de los datos de la mecánica clásica, cuántica y la relatividad —y en el transporte paralelo de la llamada fase geométrica. En general, en cualquier campo, al distinguir entre partícula y el campo tenemos un problema de auto-interacción bajo aceleraciones que coincide cuantitativamente con la oscilación de Noskov. Esta interpretación en términos de resonancia está mucho más en armonía con las concepciones más antiguas, y mucho más intemporales, de la Naturaleza.

Tal como ya hemos visto en diferentes lugares, el potencial retardado y las oscilaciones correspondientes no sólo estarían presentes a nivel micro, sino también en sistemas orgánicos complejos como la respiración y la circulación sanguínea.

El Verbo Solar, el suscitador, Savitr, es totalmente incomprensible en nuestra representación objetiva de la Naturaleza sin las nociones gemelas de vibración interna y resonancia externa; y estas nociones se conectan naturalmente cuando ponemos fuerza y potencial sobre una misma base. Para obtener otra visión del Continuo físico, habría que tratar otras cuestiones de gran importancia, como las transiciones de escala en espacio y tiempo, pero eso nos devolvería de lleno al dominio de la complejidad, y en cualquier caso ya hemos sugerido algunas relaciones.

“Ayúdame y te ayudaré”, nos dice hoy como siempre la Naturaleza. La ciencia moderna, tan imponente como resulta, no sabe nada de esta continuidad que pasa de inmediato por el propio cuerpo pero que se extiende hasta los límites del Mundo.

*

La ciencia griega fue una ciencia de la observación, mientras que para llegar a la ciencia experimental, en la que el hombre une la manipulación física y la matemática para adueñarse de la Naturaleza, hay que esperar a la ciencia árabe con autores como Alhazen, de cuya magna obra se cumplen ahora mil años y que prefigura nítidamente a Galileo con seis siglos de antelación —si bien es evidente que ha sido en Occidente donde este estadio experimental ha alcanzado su apogeo.

Aunque hoy la inmensa mayoría de los científicos permanecen confinados dentro de este estadio, el único con interés para el aparato social y los poderes que lo gobiernan, para algunos el dominio sobre la Naturaleza expresado en Leyes que permiten la predicción representa sólo el límite más externo posible del conocimiento.

Hoy estamos en condiciones de arribar a un tercer estadio de la razón científica fundado en la auto-observación, que reintegre la matemática y la observación variable de los fenómenos en la universalidad del Sí-mismo, el campo indiviso, homogéneo e indiferenciado que es la base de toda intelección. La auto-interacción presente en ese campo apunta claramente al aspecto reflexivo en el principio de equilibrio del que puede derivarse toda la mecánica.

Este tercer estadio de la razón podrá manifestarse en la medida en que comprendamos que no hay ley natural que no dependa de la auto-interacción, del mismo modo que no hay consistencia ni tautología ni circularidad en las teorías físicas actuales que no sea expresamente elaborada. El concepto de auto-interacción tendría que ayudarnos a ver en cambio cómo y en qué medida un sistema físico es efectivamente abierto o cerrado.

En el camino reflexivo de esta auto-observación, la matemática, como “forma pura”, aún puede encontrar otro modo de dotarse de contenido cuando la propia matemática y la física buscan el equilibrio entre descripción y predicción. Y cabe esperar que esto tienda a suceder espontáneamente, en la medida en que se van eliminando las obstrucciones creadas por la justificación unilateral de un propósito determinado.

El cálculo es el mejor ejemplo de esto, y dado que es el análisis mismo el que ha llevado hasta el actual extremo el dominio de la cantidad, que no es sino la aplicación desde arriba de la idea de infinita división combinada con una construcción desde abajo basada en elementos indivisibles, hemos contrapuesto dos vías alternativas para el cálculo basadas en las otras dos formas extremas de lo indivisible: el intervalo unidad y la división por cero. Ambas nos devolverían a un continuo en algún lugar entre las actuales concepciones del continuo físico y matemático.

Por otra parte, no puede ser más significativo el hecho de que, ahora que el modelo cibernético o de control se generaliza hasta adueñarse por completo de la racionalidad científica y social, encontremos el principio de realimentación en la base misma de los “sistemas” naturales regidos por “fuerzas fundamentales”. Esto nos sitúa frente a otro aspecto esencial de las ecuaciones diferenciales, las condiciones de contorno, que también son condiciones de interfaz del sistema.

Todo el cálculo moderno desde el problema de Kepler es una ingeniería inversa sobre el contorno global de un sistema, lo que también supone una inversión de la relación entre lo que se concibe como el “centro” y la “periferia” del mismo—el dominio interno de la función y sus condiciones de contorno. Pero, desde un punto de vista estrictamente descriptivo, es el llamado contorno el que ha dado forma a la dinámica, y la integral, a lo que bien puede llamarse un pseudo-diferencial; y sólo el poder de predicción y la magia de la manipulación de las variables nos han llevado a olvidar este hecho.

La misma lógica de la usurpación opera en la ahora indiscriminada aplicación de la “razón cibernética” de la que todos somos objeto. Sin embargo, aplicando la lógica relacional a un sistema como la circulación sanguínea y el corazón según el potencial retardado de Weber-Noskov, la diferencia entre margen y centro se desvanece, y en un caso donde tal distinción no podría ser más relevante.

Tiene entonces un especial valor tratar de devolver los problemas de la dinámica al dominio reflexivo de una evolución desprendida de un medio homogéneo pero todavía dependiente de él, puesto que toda retroalimentación sólo puede obrar por el contraste de algo heterogéneo con su fondo. Aunque la cuestión crucial sería comprobar cómo la función matemática está conectada al aspecto directamente funcional del principio regulador, por ejemplo, a través del biofeedback.

El caso ya indicado de la onda del pulso podría servir como una ilustración perfecta de algo mucho más general. Lo esencial del biofeedback aquí no es su capacidad de modificación, siempre tan limitada; de hecho, idealmente esta capacidad tendría que ser nula, pues de lo que se trata es de la interpolación del propio sujeto en una realidad funcional objetiva. Aun cuando pueda inducirse la modificación de funciones orgánicas, incluso entonces eso sirve sobre todo para ver que su principio de acción o regulación no puede ser calificado ni como consciente ni como inconsciente, ni como voluntario ni como involuntario, ya que cualquiera de esas caracterizaciones se revela contradictoria.

Hablamos además de un sistema atravesado por un potencial retardado que es abierto pero tiende tanto como puede a estabilizarse como un sistema cerrado, y que por lo tanto debería exhibir rasgos asintóticos.

Normalmente se asume que el comportamiento asintótico es la simplificación de un caso particular más complicado; pero podemos verlo también desde el extremo opuesto. Pues todo aspecto asintótico, como exponente de una discontinuidad, define unas condiciones de contorno más limitadas con respecto a un caso más general, del que se desprende. En tal sentido, el análisis asintótico sigue aun sin saberlo el rastro de la universalidad del Sí-mismo.

Matemáticos aplicados y físicos tan competentes como Kurt Friedrichs o Martin Kruskal han sostenido que la descripción asintótica no sólo es una herramienta apropiada para el análisis de la Naturaleza, sino que apunta a algo más fundamental, y aquí no podemos estar más de acuerdo. Sin duda el interés de este campo crece sostenidamente en la era de la computación, dado que la asintótica es el mediador natural entre los métodos numéricos y los del análisis clásico; siendo el análisis numérico más cuantitativo y el asintótico más cualitativo. Pero incluso si hablamos aparentemente de un método de matemática aplicada, no podemos dejar de advertir en él un componente simbólico más evocador y profundo que en la matemática pura.

El objeto de la asintótica, en tanto heurística, son los casos límite; pero todo el análisis está permeado por la heurística en cuanto que es aplicación. Sería entonces de gran interés ver qué nuevos desarrollos puede adquirir al análisis asintótico entre los dos polos de lo indivisible que hemos indicado. El cálculo diferencial constante, como método de diferencias finitas basado en una tasa de cambio unitario, parece mucho más cercano al análisis numérico, pero permite, junto al criterio relacional de homogeneidad, profundizar mucho más en el análisis dimensional y el contorno de un problema. También presenta una consistencia mucho más básica que la del cálculo estándar.

De modo que la “asintotología”, como la llamó Kruskal, aún tiene mucho por ganar en consistencia, profundidad y unidad, y no sólo en virtud de las nuevas perspectivas que puedan abrir las formas alternativas del cálculo. Hay buenas razones para creer en ello, más allá del hecho de que la consistencia del análisis clásico es de resultados más que de proceder: porque apunta tan directamente como se puede a la simplicidad desde el punto de vista del límite, y lo más simple suele ser lo que más pliegues y dimensiones inadvertidas esconde; porque se encuentra en la base de la teoría de campos, del potencial y la termodinámica, porque tiende a conectar diferentes teorías y a definir la transición entre las diversas escalas, porque conecta con los argumento proyectivos más generales de la geometría y está en el centro mismo de la aritmética pura además del cálculo más elemental, y porque es una signatura propia de la auto-interacción, el equilibrio y la estabilidad.

“Análisis asintótico” es prácticamente todo lo que hace el matemático aplicado cuando no está haciendo análisis numérico. Por razones históricas se asocia a la asintótica con la teoría de perturbaciones —primero en la mecánica celeste y luego también en mecánica cuántica-, así como el estudio de las singularidades. Sin embargo el cálculo diferencial constante permite tratar la mecánica celeste prescindiendo del enfoque perturbativo, y las fuerzas dependientes de la velocidad en la gravitodinámica relacional hacen inviables los agujeros negros. Al igual que muchas otras ramas, el surgimiento del análisis asintótico en teoría de perturbaciones tiene mucho de contingencia, reflejando el hecho puntual de haber sido la primera cuestión importante en mecánica fuera del alcance directo de los métodos convencionales de cálculo.

A lo largo del siglo XVIII, en la estela de Newton, se quiso ver el espacio absoluto como el elemento de contacto entre lo condicionado y lo incondicionado, entre las cosas del Mundo y su Creador. En contraste Leibniz, el otro fundador del cálculo, exponía la idea del espacio como un conjunto de relaciones, y ambas nociones influyeron de forma decisiva en la doctrina trascendental kantiana del carácter ideal del espacio y el tiempo, que intentaba proponer una síntesis. Sin embargo Pinheiro ha mostrado concluyentemente que ninguna de estas dos posiciones sirve para explicar algo tan básico como el torbellino de agua en el cubo del experimento de Newton.

Los rasgos asintóticos serían esenciales, y no meramente incidentales, en la medida en que todo sistema observable es una separación del continuo o medio homogéneo en el que dejan de ser discernibles espacio, tiempo, materia y movimiento. A falta siempre de una caracterización completa, nos muestran algunos de los aspectos más notorios de su relativa diferenciación, algunas de sus “capas límite”, para emplear la expresión consagrada en mecánica de fluidos.

Así, ciertos aspectos de la evolución asintótica serían tanto un índice de individuación de los sistemas como el más hiperbólico símbolo del absoluto que se encuentra en medio de todo y no tiene contacto con nada. Gaudapada hablaba en su Mandukya Karika de la unión “sin contacto”, asparsha, si bien parece claro que lo que no admite el contacto tampoco requiere la unión. Y sin embargo la Naturaleza busca a su manera y de todas las maneras lo inalcanzable que no se resiste a nada —seguramente para compensar el hecho de haberse separado de ello. Una secuencia morfológica como la de Venis también se hace eco de esta evolución como proceso de individuación, y no es una cuestión menor el que lo asintótico se adentre en el hipercontinuo proyectivo de las apariencias.

Volvamos al circuito del pulso sanguíneo visto como un potencial retardado con una onda interna en el estilo de Noskov. Recordemos que para Noskov estas oscilaciones lo penetran todo, muy en el estilo del pneuma estoico que vehicula el logos: “es la base de la estructura y estabilidad de núcleos, átomos, sistemas planetarios y estelares. Es la razón principal de la ocurrencia del sonido (de las voces de las personas, los animales y los pájaros, del sonido de los instrumentos musicales, etcétera), de las oscilaciones electromagnéticas y la luz, de los torbellinos, pulsaciones en el agua y ráfagas de viento. Explica, por fin, el movimiento orbital elíptico…

Ciertamente estas son grandes reivindicaciones para algo a lo que ni siquiera se le ha reconocido entidad propia —salvo por, ay, esas ondas de materia de de Broglie tan fielmente verificadas en todas las escalas de masa experimentadas. El mucho más masivo predicamento de la relatividad, y la irreductible ambigüedad de las tres formas de energía en estas ecuaciones, bastan y sobran para explicar la inadmisión. Sin embargo parecen encajar perfectamente en el proceso conocido de la onda de presión arterial, que además es susceptible de interpolación subjetiva vía biofeedback.

La fase geométrica, ya lo dijimos, es un índice de la “geometría ambiental”, de cómo el sistema no es reducible a la idealización conservativa de la teoría; no es casualidad que Berry sea un especialista en métodos asintóticos y aproximaciones semiclásicas, que también ha intentado aplicar al problema central de la teoría de los números. La idea que se presenta es que la geometría ambiental del potencial retardado atraviesa como oscilación justamente la apertura efectiva que el sistema tiene con respecto a un sistema conservativo cerrado, y que es por esta apertura que el sistema tiende a parecer conservativo o cerrado. Al menos en un sistema manifiestamente abierto como nuestro organismo, con la dependencia del latido cardíaco del efecto que sobre la circulación tiene la respiración, la idea de autoinducción adquiere pleno sentido.

Puesto que va de suyo que en un sistema cerrado la autoinducción es nula y está de más: ese es el elemento tautológico que se presupone en un concepto como el de “mecánica”. Y sin embargo las ecuaciones de Maxwell, proverbial exponente de una simetría tautológica, dan pie a la autoinducción. Es sólo con Noskov que el sistema se cierra en el interior de los propios cuerpos, que lo que ha sido ignorado fuera, y relegado a la conveniente nebulosidad del campo, queda literalmente incorporado.

Pero ya hemos dicho que la inducción electromagnética puede considerarse legítimamente como un mero caso particular de inducción mecánica —aunque no se haya sabido ubicar debidamente la harto reproducible evidencia experimental. El corazón entonces es una “bomba”, pero no una bomba mecánica: no es una “bomba de vacío”, sino una bomba en el vacío ordinario, que no es sino el entorno ambiente. Hablamos del vacío físico fundamental —no hay otro-, que evidentemente nada tiene que ver con los desaforados cálculos de niveles de energía de la física teórica.

Y dado que este vacío nunca lo vamos a medir sino en los cuerpos, toda la mecánica tiene que ser, por definición, promedio de lo que ocurre entre los cuerpos y el vacío. No hay escapatoria posible para esto, y sin embargo somos incapaces de asumirlo. La palabra “mecánica” ha adquirido tonos indeseables debido al dominio restringido que le hemos impuesto, igual que a la palabra “automático”, que Aristóteles aún usaba como sinónimo de espontáneo, de aquello que se mueve “por sí mismo”. Es al nivelar fuerza y potencial que mecánica y dinámica se hacen términos equivalentes, como estudio de la relación entre los cuerpos y el vacío que nunca puede reducirse al mero movimiento. Esta es la principal salvedad que hay que hacerle a una“mecánica relacional” pobremente entendida.

Las pulsaciones del Sol y las demás estrellas, área de estudio siempre en expansión, también plantean la misma cuestión que el corazón: que su cuerpo entero es atravesado por las resonancias u oscilaciones no uniformes del potencial de Noskov. Sólo que aquí podemos identificar muy claramente las principales fuentes de variación del potencial en los planetas —aunque la evaluación de la densidad interplanetaria suscite otro tipo de interrogantes. En cualquier caso, e incluyendo una serie de factores como la relación de la esfera solar con el baricentro del sistema, estas resonancias se asociarían al retroacoplamiento del cuerpo central con el campo global; a algunos les sorprenderá que ni siquiera se considere una interpretación que no puede ser más directa.

La moderna idea de la mecánica, en sintonía con la tendencia general, consiste en reducir “lo otro” a “lo mismo”; aquí queremos indicar al menos cómo “lo mismo” que no se contempla es el principio genuino de diferenciación, de las formas y perfiles directamente apreciables y medibles. Una mismidad, una aseidad que, lejos de de reducir nada, ni a condiciones analíticas ni de ningún otro tipo, sería la condición de apertura por la que respira cualquier entidad.

Entonces, la “interpolación” del sujeto en un sistema mecánico autoinducido es tan sólo un rodeo para abarcar algo ya plenamente presente y operante, pues la mecánica entera, y no sólo la de los organismos biológicos, es un balance reflexivo que incluye el entorno en cualquier momento. Las simetrías de conservación se remiten en penúltima instancia al Tercer Principio, pero, en última instancia al Primero de inercia, el mismo que nos propone “un objeto aislado pero que no está aislado”. Con sólo prescindir de la idea de inercia, y sustituirla por la de equilibrio dinámico, todo esto dejaría de parecer extraño.

Que la realidad organizada que observamos, de la luz a los átomos, a las complejas moléculas biológicas, las células, organismos, sistemas planetarios y galaxias, pueda subsistir ni por un sólo instante sin este principio reflexivo de equilibrio que está presente en todo, me sigue pareciendo una quimera. La idea de inercia, o la de acumulación a lo largo del tiempo de eventos biológicos sintetizados en la herencia, son puros fantasmas sin un principio inmediato de actualización, que evidentemente no puede consistir en “fuerzas ciegas”. En este balance espontáneo estaría ya incluida de entrada la mecánica estadística y la entropía, tal como lo implica la reformulación termomecánica de Pinheiro.

Estudiado como sujeto biomecánico, la dinámica del sistema circulatorio nos permite provocar un cortocircuito entre nuestras nociones mecánicas adiestradas por el hábito y la conciencia anterior al pensamiento. Esto ya sería todo un logro. Por añadidura, el pensamiento tiene en este ejemplo muchas cuestiones para mantenerse ocupado.

Por ejemplo, el hecho aparentemente anecdótico de que tanto la razón entre los intervalos de tiempo de la diástole y la sístole en humanos y otros mamíferos se aproxime mucho a la razón entre la presión máxima sistólica y la mínima diastólica, la proporción continua 0.618/0.382, permite conectar directamente el análisis asintótico y el numérico, la física de eventos discretos y valores continuos, un bucle de feedback para los propios métodos numéricos y continuos, o una optimización con una particular ratio recursiva para la algoritmia y la teoría de la medida. Nos invita además a conectar todos estos aspectos con una descripción termomecánica que incluya la entropía como la de Pinheiro.

Puesto que el corazón aquí funciona antes como regulador que como una bomba, y su acción es efecto del movimiento global antes que causa del mismo, puede apreciarse de forma diáfana en qué sentido es el “reloj interno” que más que marcar indica el tiempo propio del sistema: tal es el sentido del tiempo propio de los sistemas dinámicos que tendría que reemplazar al “sincronizador global” de la vieja mecánica. Esta devolución de la medida local a su configuración efectiva es algo generalizable y de gran alcance, pues para percibir el poder creativo que se expresa en la Naturaleza hay que retroceder más acá del sincronizador global.

Una descripción de este tipo pone de manifiesto que las dos propuestas habituales para explicar el orden observable, metafóricamente el artífice o “relojero” de los complejos sistemas biológicos, sea el mecanicismo aleatorio recortado a lo largo del tiempo por la selección natural, o sea el “diseño inteligente” atribuido a un creador ultramundano, parecen hechas tal para cual a la hora de alejarnos de lo esencial, el principio espontáneo de organización que también es el principio de actualización inmediato. Es siempre desde la inmediata apertura con respecto al medio que se alcanzan islas de organización y estabilidad.

Este mismo sujeto biomecánico nos permite definir hasta donde sea posible la relación entre la onda arterial del pulso, ilustración biológica palpable y concreta de la hipótesis de Noskov, la apertura efectiva del sistema con respecto al caso conservativo y la aproximación asintótica correspondiente. También debería permitir definir el tono interno del sistema, el elemento esencial de la inexistente definición de la salud, e investigar las cantidades que permiten su caracterización.

Hemos visto también que las tres gunas del samkya, ese peculiar sistema de coordenadas, parecen corresponderse también con los tres principios de la mecánica extrapolados a sistemas abiertos con conservación del momento. Su aspecto más tangible, aunque sea reactivo o derivado, los doshas de la pulsología, pueden servir para investigar la relación con la triple manifestación de la energía y lo que llamamos su “ambigüedad relacional”. ¿Cuál es la lógica que preside la escala recursiva de las tres cualidades de la naturaleza material dentro de un dominio cuantitativo preciso pero abierto? ¿Qué condiciones de interfaz están definiendo?

No hace falta decir que el samkya, en la medida en que es un sistema “dualista”, tiene un carácter genuinamente asintótico: las gunas o modalidades de la Naturaleza marcan una tendencia, una vía de ascenso y descenso sin que de ningún modo puedan entrar en contacto con Purusha, “el espíritu puro” o conciencia, el mismo que el Rig Veda describe como un gigante de cuyo desmembramiento salieron las partes del cosmos. Sólo el equilibrio total, no dinámico, de las tres modalidades produciría su fusión con lo absoluto. Bajo una lógica enteramente similar, también la relación conjunta de los tres pies o letras de la sílaba sagrada apunta asintóticamente al cuarto pie.

La asintótica, como tantas otras formas de análisis, ha ofrecido su propio “principio de incertidumbre” entre la simplicidad y la exactitud vía localización, que como no podía ser menos es él mismo pura aproximación. Por otra parte, la mecánica clásica es la primera aproximación asintótica de la mecánica cuántica pero esta no se puede definir sin referencia a la primera: ejemplo inmejorable de que hay en lo asintótico algo fundamental. Sería oportuno investigar a fondo la conexión entre lo indistinguible de las tres energías en la mecánica relacional y las diversas relaciones de indeterminación —pues no hay una, sino muchas- de la mecánica cuántica, desarrollando el razonamiento de Noskov.

*

El continuo relativista, en cualquiera de sus dos versiones, es notorio por sus perfiles asintóticos, a los que debe gran parte de su fascinación e impulso especulativo. No habría entonces más que contrastar cómo se desvía de tales aspectos la mecánica de Weber y Noskov, (por no hablar ahora de la de Pinheiro), para empezar a ver el otro lado de la cuestión: lo asintótico no como aproximación al infinito sino como relativo, parcial desprendimiento de la unidad.

Lo mismo puede decirse del llamado “principio holográfico”originado en las consideraciones sobre la entropía en las condiciones de frontera de una singularidad o agujero negro, que reduciría el universo entero a su proyección en una mera superficie bidimensional. Este principio no puede dejar de ser verdadero en la medida en que nada conocemos que no sea a través de la luz, el mediador universal. Pero, obviando el hecho de que tal principio se debe a la misma pertinencia y universalidad de la fase geométrica, está claro que la cuestión no requiere de singularidad alguna: Mazilu ya advirtió que incluso la superficie de cualquier partícula extensa como el electrón, el día que se intente describir su efímera configuración, tendrá que reflejar estos límites, tan intrínsecos como el mismo giro de la partícula.

En tal sentido es ocioso pensar en lo que pueda ocurrir en el interior de los cuerpos, de cualquier cuerpo. Y sin embargo la luz refleja fielmente la interacción de cada cuerpo con el vacío en el que se alojan los demás cuerpos —su pulsación más íntima, si así queremos llamarla, si el vacío y los cuerpos no pueden existir por separado.

Disfrutemos por un momento de esta suprema ironía de la historia de la física. Los físicos que han insistido en que la fase geométrica es sólo un pequeño apéndice de la mecánica cuántica sin la menor entidad fundamental, ahora apelan a este mismo “fenómeno” en su última frontera para envolver en una fina película la totalidad y erigirlo en principio magno con el que por lo demás no se sabe ni qué hacer. Tanto se ha discutido sobre los límites de la densidad de información, sobre fluctuaciones cuánticas de posición, sobre gravedad cuántica y ruido holográfico; y tantas formas de verificarlo han sido propuestas, experimentos de sobremesa incluidos.

Y uno puede preguntar divertido, ¿por qué buscar “agujeros negros a escala cuántica” para verificar un fenómeno que por definición ha de abarcar absolutamente todo, desde el latido del corazón a mi percepción de los colores? “Porque de poco sirve un argumento global si no permite predecir cosas nuevas”, nos diría de inmediato cualquier experto teórico o experimental tan bien adiestrado desde joven para hacer predicciones. Claro que todas las teorías de campos, y no sólo la del campo electromagnético y la luz, se han construido desde fuera hacia adentro —desde las condiciones de contorno hacia el “cuerpo de la teoría”, las ecuaciones que permiten calcular. Separar luego el cuerpo de la teoría de sus condiciones, para convertirlo en Ley natural, nos lleva a olvidar su mutua dependencia.

Las predicciones ciegan si se obvia esta circunstancia. ¿Por qué se discute tanto sobre el rango de energías para verificar experimentalmente este principio holográfico? Porque no hay ninguna certeza sobre el fondo que determina su escala, y la misma escala de Planck es una gigantesca extrapolación. Ni siquiera la indeterminación de la energía de un fotón tiene nada que ver con ella, como muestra el análisis más elemental, puesto que no cambia en absoluto si cambiamos el valor de la constante; lo que no impide que se la use para hacer análisis dimensional del universo entero. Si la estimación de la energía del vacío ha resultado tamaño desatino, nadie se atreverá a decir que ofrece muchas garantías. Esto trae a la memoria otro principio global famoso, diana merecida de tantas chanzas: el llamado “principio antrópico” propuesto para responder al enigma del ajuste fino en la magnitud de las grandes constantes. Ni estimaciones ni predicciones sirven para arrojar luz sobre el contexto. El principio de homogeneidad nos dice que las constantes con dimensiones no son universales, sino el subproducto de un recorte arbitrario sobre el fondo, una “emancipación” de las condiciones ambiente —que es justamente lo que refleja la fase geométrica, madre del principio holográfico. No hay otro otro “vacío fundamental” que el entorno ambiente.

La fase geométrica y la misma estructura de los campos gauge sugieren un nudo corredizo en las constantes y escalas de energía, y diversas teorías que se ignoran mutuamente parecen apuntar en tal dirección. Sin hablar de que la hipótesis del agujero negro pretende darnos a la vez “contornos últimos”, singularidades, y procesos que van más allá de la singularidad, lo que es como querer regalar un pastel, tenerlo y comérselo: no ya dos, sino tres cosas incompatibles al mismo tiempo.

“Hay mucho espacio al fondo”, pero seguramente no donde se espera, apurando hasta el límite la escala de Planck. Por otra parte, si hoy sabemos por la teoría gauge de la gravedad que podemos prescindir del espacio-tiempo curvo para describir su campo, con mucha más razón se puede prescindir del elemental continuo de Minkowski. Lo cual tendría que hacer pensar más en las teorías surgidas de Weber, que se convierten en descripciones de campo con sólo integrar sobre el volumen y no requieren ni un continuo con dos sabores ni dimensiones adicionales.

Tendría que estar claro que las teorías centradas en la predicción arrojan al mar la llave para describir las transiciones de escala, que son el mismo “fondo” del que se querría apropiar la palabra “fundamental”. Nottale, y luego Mazilu y Agop, han propuesto una meritoria teoría de la “relatividad de escala”, pero también se puede prescindir de la propia relatividad con argumentos mucho más directos. El desarrollo de Mazilu y Agop es expresamente neoclásico, y sin embargo se adentra en la selva de la geometría fractal y el continuo no diferenciable: un buen ejemplo de que se pueden tener ideas simples que den sin embargo cabida a la superabundante complejidad de la Naturaleza.

“A la Naturaleza no le importan las dificultades analíticas”: pocas palabras más ciertas que las de la inmortal frase de Fresnel. Si el continuo no diferenciable es posible, puede estarse seguro de que la Naturaleza lo usa con verdadera profusión; y las mismas integrales de camino de la luz serían el mejor exponente de ello. Mazilu lo emplea directamente para tratar de crear un modelo operativo del cerebro basado en la inagotable geometría de la luz y la mecánica ondulatoria de de Broglie, que recuerda vivamente la “mecánica fractal” de Bandyopadhyay pergeñada con el mismo propósito. En cualquier caso, el uso que hacen Nottale o Mazilu de la escala de Planck merece cierto examen, pues debería ser claro que el empleo que acostumbra a hacerse de ella como si fuera una regla no es sino la extensión del sincronizador global a todos los dominios más amorfos de la física. La Naturaleza simplemente se evapora allí donde rige este cronómetro, lo que nos confía la tarea de tratar de imaginarla fuera de restricciones no menos imaginarias. Un lazo que ciña su talle le sienta mucho mejor que una regla rígida.

Lo triste es que el principio holográfico se haya visto incluso como una “confirmación” de la idea de que el universo es un gigantesco ordenador, para llevar el imperio del sincronizador global a su apoteosis. Y si embargo, uno puede estar bien seguro de que si el mundo fuera un ordenador no hubiera durado ni siquiera para estallar en pedazos, no digamos ya para recalentarse. Si esto en lo que estamos metidos y participamos “funciona” en alguna medida, tendrá que ser en la medida en que no es un ordenador ni se basa en nuestra idea del cómputo. Y sin embargo la misma “computación cuántica”, entendida como la modulación más exquisitamente minimalista de eso que ahora llaman “estados cuánticos individuales”, aun si no hay nada individual en ese dominio y precisamente por ello, está en el quicio mismo del asunto que estamos tratando, haciendo un trabajo extraordinario para ignorarlo. Basta con seguir cuidadosamente el hilo que lleva de la predicción local a la descripción global para que la fase geométrica pase de ser un parámetro de control a que empiece a tener impacto y resonar en la esfera completa del conocimiento.

Si hay algo “automático” en el universo, ha de ser justamente en el sentido de la espontaneidad, de aquello que se mueve por sí mismo en lo abierto: el principio de equilibrio dinámico ya lo garantiza con sólo prescindir de la inercia. Y sin embargo esta nadería, aparentemente un mero juego de definiciones, nos lleva tan lejos como podamos caminar, pues aun si se puede prescindir de la inercia en términos absolutos, nada nos impide contar aún con ella en términos relativos. Los “tres principios y medio” parecen algo más que una broma.

La relatividad de escala se mueve entre dos escalas asintóticas invariantes bajo dilatación —la longitud de Planck y una longitud cosmológica máxima asociadas a la transformación de Lorentz— de modo que la resolución requiere variables explícitas. Reelaborada por Mazilu y Agop, se convierte además en una teoría de lo infrafinito, lo finito y lo transfinito sin salir del dominio de la luz. Se trata como mínimo de una idea de gran interés con fuertes reminiscencias de la mónada de Leibniz, si bien está claro que no ha tenido el suficiente desarrollo. Y aunque sin duda sea especulativa, aún lo es mucho menos que las sagas de los agujeros negros, que gozan del mayor predicamento incluso si violan escandalosamente la convención fundamental del género, pretendiendo entre otras imposibilidades que lo físico vaya más allá del último límite matemático. La función zeta de Riemann se ha usado frecuentemente para regularizar los niveles de energía del vacío y series divergentes en el horizonte de sucesos de estos agujeros, incluidas las integrales de camino de la luz, por una expansión asintótica de la evolución de la temperatura bajo transformaciones de escala de la métrica de fondo. Esto puede sonar a pura relatividad de escala pero en realidad es su opuesto desde la perspectiva de la sincronización global.

Las sobrecogedoras diferencias de escala entre las partículas y el tamaño del universo, o incluso entre este y la longitud de Planck, son insignificantes en comparación con la diferencia entre cualquier número que pueda calcular nunca un ordenador y el infinito numérico que constituye la integridad de la función zeta de Riemann. Uno podría decir incluso que son absolutamente insignificantes, pero eso sería desdeñar la evidencia acumulada con tanto trabajo por los matemáticos. En todo caso, si la minúscula evidencia de los ceros de la función computados tiene algún sentido, sería precisamente porque la función entera y su “dinámica” subyacente comportan algún tipo de relatividad de escala en su interior, aunque para enfocarla y dar con su resolución habría que tener en cuenta una serie de factores que aquí no podemos ni siquiera enumerar.

Es un teorema que, si la hipótesis de Riemann es cierta, la función zeta permite aproximar cualquier función analítica de las infinitas posibles con cualquier grado de resolución. De hecho, la función sería una representación concreta de cualquier texto y acumulación de conocimiento que pueda lograr el ser humano o cualquier ser inteligente, que además estaría repetido en ella un número infinito de veces. Puesto que el continuo no diferenciable también contiene “todo eso”, pero la propia función zeta es infinitamente diferenciable y e incomparablemente más estructurada, cabe suponer que esta función y su gran familia de funciones asociadas constituirían el puente más ancho y más estrecho entre lo diferenciable y lo no diferenciable —aunque qué es diferenciable y qué no, también depende crucialmente del criterio del cálculo que usemos. Dado que el mayor problema de esta función es relacionar la información local con la condición global, si hay alguna forma de acotar gradualmente su dinámica, aun si se trata de un proceso indefinido, tendría que ser revirtiendo la relación que desde siempre la física y el cálculo han planteado entre la derivada y las condiciones de contorno. Al menos el giro en la orientación no debería plantear tantos problemas, siempre y cuando se admita que el cálculo moderno tal como se emplea es ya el producto de una exhaustiva inversión.

La llamada relatividad de escala es un principio muy general que de momento usa la física en boga simplemente como guía, pero es incomparablemente más sencillo empezar por el contraste entre la relatividad y las ecuaciones de Noskov cuando los llevamos a los supuestos límites, partiendo siempre de la diferencia del lagrangiano en el problema de Kepler, auténtica clave de arco de la física moderna; no es muy recomendable tratar de engullir la Totalidad cuando no entendemos de modo cabal ninguna de las totalidades infinitamente más modestas que existen por doquier.

Ya hay algo lo bastante singular en la evolución de cualquier entidad en relación con el fondo del que emerge, en el que se mantiene, y al que vuelve: si somos capaces de ver esto, aun cuando sólo sea con la imaginación, ya habremos logrado mucho. De hecho, es por no comprender lo inobstruido de esta “singularidad” efímera y autosostenida que nos lanzamos de cabeza buscando atravesar singularidades que son no-agujeros por definición. Se habla tranquilamente de “la función de onda del universo”, y el mismo principio holográfico hace pensar en un frente de onda de complejidad inconcebible; pero la más simple onda en tres dimensiones ya es un desafío para la imaginación.

Piénsese otra vez en la genial ingenuidad de la onda-vórtice de Venis, quien no ha hecho el menor uso de la física o las matemáticas para desvelar la más “simpléctica” de las morfologías. Aunque su proceso también parece mostrar un frente de onda como característico fenómeno de superficie, sus trémulos límites fluctúan entre lo lleno y lo vacío con más delicadeza que el trazo del mejor pincel. Pero, ¿cómo es que una onda que se supone ha de existir en un número infinito de dimensiones, incluyendo las fraccionarias, aún exhibe un perfil tan reconocible en seis dimensiones, y en tres, y hasta en dos? La única respuesta concebible es que la totalidad que escapa a nuestra percepción sigue reflejándose en un punto de equilibrio dinámico, que es una línea o un plano de equilibrio, etcétera.

La secuencia de Venis muestra sin profanar en qué sentido la Naturaleza es igual a sí misma: fugaz como el torbellino e inmutable como la esfinge. Entre un aspecto y otro hay infinitas capas. ¿Qué es ese abombamiento a modo de gota que se insinúa en todas partes, se muestra en el contorno y se esconde en su centro? Esas superficies y perfiles están más allá de la medida —son de naturaleza puramente proyectiva—, y sin embargo se reflejan en todo tipo fenómenos que también se dejan medir. Siguiendo las curvas de la secuencia uno puede adivinar cuando este flujo imaginario se acelera o se hace lento, más lento, y más lento todavía, hasta que el frente de onda brama y rompe y estalla en medio del silencio.

La luz entre lo lleno y lo vacío; entre el espacio y la materia, lo luz. Ya hemos indicado por qué la separación tajante entre la vibración del sonido y la luz se debe antes que nada a un malentendido. Ahora bien, ¿puede escucharse la luz? Es una buena pregunta, aunque según el principio holográfico sería fácil juzgar más bien al contrario: lo luz no sería sólo principio de expresión o actualización, ahora también se nos presenta como órgano global de percepción y omniabarcante tímpano en el que resuena la materia. Pero, en cuanto vibración, ¿quién o qué podría escucharla? Nada que pueda exponerse, nada que esté manifiesto; lo que tal vez concierna a los cuerpos, al vacío, a ambos, o a ninguno. Hay un punto desde el que todo eso retrocede hasta no significar nada, y sin embargo aún hay un largo nudo corredizo no sólo relacionado con la escala de energía sino también con la ambigüedad inherente a su triple manifestación.

Ese “relativo desprendimiento de la unidad” es una cuestión omnipresente y en absoluto se reduce a la física o la matemática, que pueden sin embargo reflejarla. Para la lógica formal que busca la autoconsistencia, la unidad sólo nos reafirma en lo tautológico; pero desde el punto de vista de la matemática aplicada, a la que pertenece todo el cálculo, la unidad no es nunca una cuestión formal dada, y en pos de ella mucho conocimiento viejo puede transformarse en algo nuevo. Desde el momento mismo en que se asuma que el cálculo o análisis procede necesariamente del todo a la parte y desde arriba hacia abajo en vez de lo contrario habrá cambiado la disposición general de las ciencias.

*

Heredero en gran medida de de Broglie, David Bohm hizo una interpretación de la física abiertamente a contrapelo del reduccionismo imperante y habló, entre marcados extremos de elocuencia y vaguedad, de “la totalidad y el orden implicado”. No se le puede reprochar a Bohm el ser teóricamente conservador, pues ya fue lo bastante heterodoxo entre sus contemporáneos; y sin embargo un discurso como el suyo encuentra hoy mucho menos eco incluso si en todo este tiempo pasado se ha ganado una perspectiva inapreciable.

Bohm no fue realmente muy consciente de la universalidad de la fase geométrica y su relevancia para la mecánica clásica —aunque ya hemos visto que los teóricos actuales no están en mejor situación. Tampoco concibió el efecto de los potenciales como una vibración o resonancia que atraviesa por entero la materia, sino, siguiendo en esto el espíritu del tiempo, como un campo no dinámico de información. El segundo aspecto es importante para la interpretación; el primero tiene aún innumerables consecuencias por explorar. Por otra parte, Bohm vio la importancia del problema de la medida pero nunca pudo plantear sus relaciones generales con el cálculo o análisis tal como hoy puede hacerse con meridiana claridad. Finalmente, en su trabajo se echa de menos una verdadera discusión de los principios fundamentales de la física.

En términos proporcionales, el universo está casi enteramente vacío; no sólo en las inmensidades intergalácticas sino incluso en nuestro propio cuerpo. Claro que este vacío físico aún dista mucho de ser mero espacio vacío, revelándose ante la inspección más atenta como un tenue mar de radiaciones. Para la relatividad general, el espacio le dice a la materia dónde tiene que ir y la materia le dice al espacio cómo tiene que curvarse; pero el continuo del espacio-tiempo no es espacio vacío e incondicionado, sino un animal dinámico completamente diferente sometido a una disciplina métrica.

Ya comentamos que Poincaré, primer proponente claro del principio de relatividad, prefería pensar que es la luz la que se curva en vez del espacio, y por lo menos ahora se admite que las teorías de campos, gravedad incluida, pueden formularse en el espacio plano. Después de todo, a la luz siempre se la vio doblarse en el agua, pero al espacio nunca, y no había necesidad de condicionar artificiosamente lo que siempre se había percibido como incondicionado.

La densidad del vacío físico con radiación es casi nula con respecto a la materia, pero la densidad del espacio realmente plano, sin la menor traza de energía en su seno, es estrictamente nula con respecto al vacío físico radiante. Las ondas se atenúan indefinidamente, y por otra parte, incluso una partícula de materia como un electrón tiende a dilatarse sin límite cuando no hay otras partículas y átomos en su vecindad, como se ha comprobado una y otra vez. Tendríamos así tres escalones asintóticos, de la materia a la radiación y de esta al espacio sin la menor restricción métrica.

Para el Vedanta el espacio puro no tiene cualidades y ni siquiera dimensiones; en la moderna geometría lo más cercano que tenemos sería el espacio proyectivo primario. El espacio puro es el símbolo perfecto del espíritu en muchas tradiciones, pero está claro que el espacio no es un ser sintiente que se perciba a sí mismo. Así que el sentido de aseidad que me es inherente ha de proceder de algo diferente de ese espacio anterior a los conceptos del que sin embargo aún tengo noción.

Hoy se acostumbra a llamar “partículas” a las excitaciones del campo —en los aceleradores, por ejemplo-, pero no se suele llamar “onda” a la relajación de un electrón que puede extenderse metros o kilómetros, o hasta el infinito si el entorno y los cuerpos vecinos no lo impiden. Hay de este modo un muy humano prejuicio en favor de las altas energías que nos lleva a obviar una poderosa tendencia fundamental. Por lo demás, esta tendencia de la materia a la relajación en función del entorno late al unísono con la interpretación más elemental de la entropía, pues también las moléculas tienden a extenderse tanto como pueden, yendo de las regiones más calientes a las más frías y ocupando regularmente el espacio vacío disponible.

En este sentido, tan diferente al de la relatividad, el espacio sí le está diciendo a la materia dónde tiene que ir, pero la materia no le dice nada al espacio, porque el espacio, tanto en el límite como en términos absolutos no tiene curvatura. Del mismo modo que yo conozco a mi cuerpo pero mi cuerpo no me conoce a mí, aquí no hay reciprocidad posible. Hay sin embargo una indudable reciprocidad entre materia y radiación, lo que es algo completamente diferente. En realidad el espacio-tiempo relativista engloba las relaciones dinámicas del vacío físico basadas en interacciones, y su teoría del potencial queda en una tierra de nadie sin definir: por eso mismo hay alternativas en el espacio plano como las derivadas de Weber o la moderna teoría gauge de la gravedad.

Dicho de otro modo, la relatividad prescinde del espacio absoluto pero mantiene el tiempo absoluto del sincronizador global —cuando con la teoría del “potencial retardado” puede hacerse lo contrario: mantener el espacio absoluto sin mayores cualificaciones y permitiendo que todo se rija por su tiempo interno propio, que implica la variación ambiental de las fuerzas y constantes que ahora se postulan como fijas.

El espacio absoluto aún puede “hablarle a la materia” con dos lenguajes diferentes: el de la tendencia asintótica de la materia y radiación a expandirse en función del entorno, lo que supone un modo mediado y dinámico que incluye también a la termodinámica, y el lenguaje inmediato del potencial, que se deriva simplemente de la posición. Y este último lenguaje supone la vibración íntima de la materia.

Recordemos que casi toda la producción de radiación se despacha como “emisión espontánea”, lo cual viene a ser lo más opuesto que pueda proponerse a una explicación mecánica. Y sin embargo esta emisión espontánea no sería sino la forma manifiesta de la vibración interna del cuerpo de la partícula. En este sentido, igual podría hablarse de “absorción espontánea”, aunque digamos simplemente absorción.

Tenemos entonces una circularidad entre lo inmediato o instantáneo, completamente independiente del movimiento, puesto de manifiesto por la posición o potencial, y los aspectos dinámicos o mediados de la interacción entre materia y la radiación. Esto resuelve la aporía que presentan tanto el Vedanta como el samkya: cómo lo absoluto y lo condicionado pueden coexistir sin el menor problema. También el dualismo de la época moderna puede verse con otros ojos.

El espacio absoluto sin cualidades ni dimensiones corresponde a Prajña, el estado de sueño profundo en el que desaparece toda determinación. Sin embargo uno sabe que su aseidad aún está más acá de eso, que hay algo aún más general que lo más indiferenciado, lo que en buena lógica comporta que tampoco eso esté separado del resto, de aquello que se manifiesta. Por eso nos hemos permitido hablar de un medio homogéneo primitivo como algo un tanto diferente del espacio indiviso. En la respuesta espontánea de materia y radiación a algo que por definición no se mueve tenemos una forma muy simple de captar en qué sentido el cosmos no es creación sino manifiestación, siendo sin embargo la manifestación algo verdaderamente espontáneo y creativo.

Si la física es inagotable es porque nunca puede reducirse a cuestiones de movimiento o extensión. Querer explicarlo todo por el movimiento o la extensión es, además de la más acabada expresión de nihilismo, completamente trivial. La res extensa cartesiana nació ya como puro teatro para el movimiento, en la misma época en que para Galileo el reposo dejaba de tener entidad. Hablamos, justamente, de los dos padres del principio de inercia. Y sin embargo, cuando retomamos la percepción original del espacio como lo inmóvil por definición, lo independiente de cualquier dinámica, lo interno y lo externo vuelven a compenetrarse e interpenetrarse.

Se trata tan sólo de ver el reposo en el movimiento, para luego ver el movimiento en el reposo. Para conseguir tales proezas, que muchos creerán milagros, basta con sondear debidamente la teoría del potencial, que nos llevará a aguas tan profundas como queramos. La mayoría puede protestar y aducir que un potencial nunca es independiente de la dinámica, pero los físicos llamaron a la fase geométrica con tal nombre precisamente para separarla del ámbito de las fuerzas o interacciones, y en esto hubo un consenso cerrado. Tal como ya apuntamos, incluso si quisiéramos insertarla dentro de los principios de la dinámica tendría que ser mediante la articulación interna de “los tres estados de reposo” con el principio de equilibrio dinámico en su centro, lo que según los casos puede ser lo mismo o algo muy diferente del múltiple y complicado criterio del principio de equivalencia relativista.

Verdaderamente, del mismo problema de Kepler para abajo, hay todo tipo de casos importantes en física macroscópica que no están bien cubiertos por las actuales teorías de campos, pero incluso obviando ahora eso, tenemos el hecho de que el entrelazamiento cuántico exhibe correlaciones instantáneas, y la fase geométrica, que aparece a todas las escalas, es sólo una expresión con menor resolución del mismo orden de correlaciones. La propia gravedad, si realmente no es una fuerza, podría encontrarse perfectamente en este caso. Entonces, incluso la relatividad general, que tampoco considera a la gravedad como una fuerza, estaría describiendo sólo interacciones desde el punto de vista del principio holográfico —que ya sabemos de dónde procede. Parece ser que los físicos tampoco saben qué hacer con este razonamiento.

La relatividad sería una pura teoría de las superficies, pero el cuadro de las interacciones en la mecánica cuántica también. La correlación instantánea ha de ser el verdadero y genuino sincronizador global —un sincronizador independiente de la interacción, pero del que cualquier interacción se hace eco. Esto revela hasta qué punto son inoperantes las comparaciones del universo con un gran ordenador. El auténtico sincronizador global es tan inaprensible como el espacio predinámico; su traducción local en mecánica ondulatoria es la hipótesis del “reloj interno” de la partícula de de Broglie, una oscilación sin duda, que sí admite confirmación experimental indirecta pero apenas atrae interés. Bien puede decirse que el único sincronizador global es aquel que no necesita sincronizar ni tomar medidas de nada, pero en el que todo resuena.

He mostrado, del modo más general, en qué sentido “lo de arriba” puede guiar a “lo de abajo” sin necesidad de contacto; porque, por lo demás, eso que nos figuramos arriba también está siempre por debajo y al fondo de lo que aparece. He indicado también qué tipo de cambios facilitan que la mentalidad científica pueda sentirse cómoda con esta idea que hunde sus raíces en algo anterior al pensamiento. El problema de la finalidad, que la física eludió siempre tanto como pudo, y que malinterpretó proyectando desde arriba sus propias sombras, tiene una solución muy simple que sin embargo presenta dos caras.

*

Según lo dicho, el tiempo es un fenómeno más superficial que el espacio sin cualidades, y si llega a parecernos subjetivo, e incluso si a Kant pudo parecerle forma pura, es precisamente por que fluye continuamente a través de ese dominio independiente del movimiento que está en la base de la subjetividad. Sólo que casi toda nuestra atención está pendiente de las innumerables variaciones de los contenidos de la experiencia en el tiempo, mientras que lo otro, aun siendo invariable, determina la vibración inmediata de la novedad.

Para el sueño pertinaz que es la vigilia, la subjetividad ha de residir en la variación y novedad de sus elementos; pero el sueño profundo no sólo no sueña, sino que ni siquiera duerme. Está ya plenamente presente en medio de esta vigilia atareada —salvo, por supuesto, por mi falta de atención. Basta entonces la atención para que ese tercer estadio que está siempre al fondo se convierta en el cuarto que no está en ningún lugar de la secuencia.

En física el deslinde de estos planos superpuestos de la experiencia y el tiempo tendría una pauta similar; aunque la incompatibilidad entre las dos grandes teorías dominantes, además de sus propias contradicciones y paradojas internas, hace todo mucho más difícil de arbitrar. La universalidad de la fase geométrica la convierte en un puente natural entre lo micro y macroscópico, pero el sincronizador global, que con el principio de inercia da forma a todo el relato de la física, impide la traducción local de lo que implican las conversiones de escala.

Para hacerse la más mínima idea sobre esto es obligado salir de las teorías imperantes. Ya hemos señalado varias a modo de contraste y ahora traeremos a colación otra, que ni siquiera parte de consideraciones físicas o matemáticas, sino puramente morfológicas. La secuencia de ondas-vórtices en el hipercontinuo de Venis se basa en argumentos puramente proyectivos pero no puede evitar verse reflejada en planos tan variados como los seres vivos o las grandes formaciones cósmicas.

Siguiendo la apremiante lógica de sus vórtices, Venis llega a la conclusión de que el desplazamiento al rojo cosmológico no indica una expansión general del universo sino tan sólo una contracción local por un gradual desplazamiento en la dimensión de la agrupación: si nosotros encogiéramos no lo notaríamos en nosotros mismos, sino que veríamos tan sólo aumentar el tamaño del entorno. Este desplazamiento tendría una velocidad que puede estimarse, pero comportaría un tiempo interno que sólo podría verificarse saliendo de la formación en cuestión, sea el sistema solar o la galaxia, y pasando a otra rama temporal para volver de nuevo al lugar de origen.

Esto es simplemente una especulación —como casi todo en cosmología-, pero sirve perfectamente para ilustrar el abismo que media entre las exigencias del sincronizador global y una física que se tome en serio las circunstancias del ambiente. Seguramente las inmensidades estelares no existen para que todo sea como se ha medido en el rincón de un laboratorio; pero, así y todo, para una ciencia tan matemática como la física, superar sus propias varas de medir representa un desafío extraordinario.

Pero no es necesario salir de la galaxia para comprobar cómo el entorno modifica a la regla en vez de lo contrario: los “potenciales retardados” ya nos lo dicen a cualquier escala. La espiral que trazan los planetas del sistema solar sólo se desvía de un perfil exacto por el mismo orden de diferencias que el valor del lagrangiano de cada órbita, lo que ya es elocuente, y esta espiral aproxima el plano de un vórtice. Y así podemos seguir hacia abajo, hasta los átomos y las órbitas de los electrones, ellos mismos ondas-vórtices. A todas las escalas encontramos entrelazamiento del potencial, al que de ningún modo hace falta secundar con el parcial calificativo de “cuántico”.

El antropocentrismo o inmodestia que supone hablar de constantes universales bien podría calificarse de cómico si no fuera por lo difícil que resulta salir, tanto de la lógica de la sincronización global, como de la legitimación de la apariencia en nombre de lo irreductible de la posición del observador; y en este caso ambas cosas se justifican mutuamente. Incluso los que son más conscientes de lo infundado de esta pretensión tienen las mayores dificultades para imaginar qué implicaciones tendría el que no haya sincronización en un sentido tan obviamente antropocéntrico y qué pueda haber al otro lado.

Hoy el famoso desplazamiento al rojo de la luz de las galaxias se asocia directamente con la radiación de fondo de microondas para reforzar el relato de la gran explosión. Lo que no suele contar la historia es que la predicción del explosionista Gamow de 1952 no fue ni la primera ni la más precisa, y que un buen número de físicos ya habían estimado su temperatura con mayor exactitud, con muchos años de antelación y muchos menos datos, desde Guillaume en 1896, a Regener, a Nernst, a Herzberg o a Max Born, entre otros. Todos ellos contaban con un universo en equilibrio dinámico.

También Venis presupone un equilibrio dinámico entre la expansión y contracción locales, pero invoca el tercer principio de acción-reacción a la hora de justificar el balance. Sin embargo, el tercer principio por sí sólo no enmienda al de inercia, que es el fondo que domina toda esta narrativa. Efectivamente, si lo que se observa por doquier es movimiento, y con las tres leyes de Newton nada se mueve sin haber sido movido por otra cosa, estamos obligados a creer que todo procede de un impulso original, sin importar que sea la más grandiosa violación del principio de conservación de la energía.

Para tomar conciencia de hasta qué punto los principios determinan el plano de contacto entre la física y la metafísica, basta recordar el contraste que Roger Boscovich, el gran precursor de las teorías de campos, propuso para el postulado de magnitudes absolutas: “Un movimiento que es común a nosotros y al mundo no puede ser reconocido por nosotros —incluso si el mundo en su totalidad aumentara o disminuyera de tamaño en cualquier factor arbitrario”. Aun si el mundo entero se encogiera o se expandiera en cuestión de días, prosigue Boscovich, con una variación idéntica en las fuerzas, no habría ningún cambio en nuestras impresiones ni en la percepción de nuestra mente. El cambio conjunto no tiene rango de experiencia, para ella sólo las diferencias cuentan.

Por supuesto, esto no tendría nada que ver con la gran explosión si en ella no hay una evolución conjunta de las constantes. Pero si las constantes modificaron su relación mutua en el pasado, ¿por qué no lo hacen ahora mismo? De hecho, desde hace muchos años se nos asegura que la “expansión del universo” se está acelerando.

Venis distingue obviamente velocidad de movimiento y velocidad de flujo en el tiempo, pero tampoco sabe cómo pueda establecerse la correlación, ni qué otros factores estarían implicados. Incluso tras más de un siglo de relatividad, el que pueda haber distintas velocidades temporales determinadas desde fuera —lo que no tiene nada que ver con los “viajes en el tiempo”- parecerá algo imposible para muchos. Ahora bien, lo que aquí se ha dicho es que el fondo de toda experiencia, incluida la experiencia del tiempo, no tiene nada que ver con el movimiento y sus infinitas posibles relaciones. Una velocidad en el tiempo sí, ya se trate de un tiempo físico mensurable o se trate del tiempo subjetivo que en sueños puede contraerse o dilatarse sin la menor tasa aparente.

En definitiva, el fondo de la experiencia es completamente informe y común a todos los seres, ya sean dioses, humanos, galaxias, planetas o átomos; no tiene nada de individual, pero es lo que hace sujeto al sujeto. Esa es la gran diferencia entre la no-dualidad y las variantes del idealismo moderno. En cambio el tiempo propio sí es parte de la individuación de los seres, es más, está incorporado en su forma y la de su cuerpo, eso que Venis llama “materia residente”.

Puede verse entonces que Venis, casi sin quererlo, está proponiendo una estrategia de largo alcance para ver el tiempo más allá, o más acá, de la ficción del sincronizador global y su universal aplanamiento. Y no importa que la conexión de su morfología con la física y la matemática esté enteramente por explorar, puesto que su fundamento está en el propio espacio proyectivo anterior a métricas y determinaciones. Incluso como fenomenología pura, brinda una conexión entre el entendimiento, la imaginación y la visión que ya quisieran para sí las ciencias actuales.

Por añadidura, la secuencia de transformaciones de Venis plantea bellos y profundos problemas al cálculo y el análisis matemático, puesto que exhibe una evolución suave y diferenciable en el hipercontinuo, que puede adoptar cualquier número real entre los números enteros de las dimensiones. Hoy se trabaja con dimensiones “fraccionales” en incontables áreas del análisis aplicado, y se los conoce comúnmente como fractales; sin embargo estos fractales no son diferenciables. Por otra parte, sólo muy recientemente se está empezando a encontrar un puente entre la geometría fractal tan común en la Naturaleza y el llamado “cálculo fraccional” que no está restringido a los operadores con números enteros. Los fractales pertenecen al espacio, pero los operadores fraccionales inciden en el dominio temporal.

En definitiva, el cálculo fraccional cubre dominios temporales intermedios en procesos de todo tipo, incluidos los ondulatorios. Los fractales son no lineales, mientras que la dinámica fraccional gobierna procesos lineales, —y sin embargo supone una inquietante anomalía para el cálculo: exhibe una dependencia no local de la historia e interacciones espaciales de largo alcance. Y así, el propio cálculo fraccional suscita un enorme problema de interpretación que ni físicos ni matemáticos han podido zanjar. Igor Podlubny propuso distinguir entre un tiempo cósmico inhomogéneo y un tiempo individual homogéneo. Podlubny admite que la geometrización del tiempo y su homogeneización se deben ante todo al cálculo, y advierte que los intervalos de espacio pueden compararse simultáneamente, pero los de tiempo no, pues sólo podemos medirlos en secuencia. Lo que puede sorprender es que este autor atribuya la no homogeneidad al tiempo cósmico, en lugar de al tiempo individual, puesto que en realidad la mecánica y el cálculo se desarrollan al unísono bajo el principio de la sincronización global. En su lectura, el tiempo individual sería una idealización del tiempo creado por la mecánica, lo que es ponerlo todo del revés: en todo caso sería el tiempo de la mecánica el que es una idealización.

Está claro que los matemáticos tampoco aciertan a elevarse sobre estas aporías puesto que el cálculo no es meramente cómplice de la sincronización sino su principal agente. Los fractales son una expresión geométrica de leyes de potencia invariantes a escala igualmente ubicuas, pero los operadores de la dinámica fraccional gobernarían su evolución y lo que se llama su “memoria” temporal. Ahora bien, los vórtices de Venis evolucionan suave y linealmente a través de las dimensiones fraccionarias mientras que describen una evolución temporal que lleva tras de sí a la lógica, a la intuición y a la imaginación, mostrando un hilo conductor en medio de una impenetrable selva de cifras. Las envolventes capas límite de sus perfiles invitan además a una competición entre las diversas modalidades de cálculo por ver cuál ciñe mejor sus contornos.

Dado que el concepto de vórtice de Venis engloba no sólo a los torbellinos, sino a cosas tan amorfas como un bulbo esférico o gota, lo informe se está perfilando como lógica y proceso dentro de algo mucho más informe todavía. Es por esto que cabe pensar en un alcance morfológico universal, aun asumiendo que las formas no dejan de ser huidizos fantasmas, apariciones en el dominio de lo impermanente. Y aunque Venis ha recibido una indudable inspiración de la filosofía extremo oriental, su fenomenología no deja de ser, como él mismo la llama, una “teoría del infinito”, heredera de ese inconfundible impulso occidental por ver más allá de cualquier límite. Aquí sin embargo se tiende a percibir el infinito en los propios límites de las formas concretas.

La mayoría de los procesos reales, por ejemplo las tensiones y deformaciones de un material o su fractura, son altamente no polares, es decir, no pueden caracterizarse como los campos en términos de vectores, desplazamientos y fuerzas, ni muestran eje detectable alguno en su evolución; los fractales, en cambio, son aptos para describirlos. Por otra parte, la dinámica fraccional sí permite retener la polaridad matemática de los campos, de modo que la conexión de ambos es una forma, todavía hoy muy abstracta, de explorar la transición del caos al orden. Los vórtices, por otro lado se presentan en todas las fases de la materia y la luz, y definen la transición más visible entre el caos y el orden, entre la turbulencia y la forma.

La función zeta, con su polo en la unidad y su abismal recta crítica, se asocia al llamado “caos cuántico” que resultaría más suave, pero como en cualquier otra circunstancia, nunca se ha podido precisar la frontera de su transición. No deja de ser extraordinario que un “objeto matemático” tan universal como esta función mantenga tal aislamiento con respecto a cualquier geometría visible, por no hablar de la lógica; las múltiples analogías con la física avanzada o los innumerables gráficos analíticos de la función no pueden hacer olvidar su riguroso ensimismamiento en la aritmética, dominio puro del tiempo. Este “tiempo puro” no es sino el tiempo absorto y sin relación externa alguna, lo más opuesto que podamos concebir al tiempo que experimentamos. Puesto que las ondas-vórtices de Venis también son de una universalidad extraordinaria, y tienen un vínculo profundo y de incontables capas con el tiempo y la entropía, es imposible que no tengan una conexión con esta función, y una conexión estrecha, además, aun cuando nadie haya explorado el tema todavía.

El intelecto que percibe objetos nunca se percibe a sí mismo; por eso no es el sí-mismo, justamente, pues de otro modo ambos tienden inevitablemente a confundirse. Este hecho tan irreductible también se reproduce, cómo no, en el simple acto de contar, fundamento de toda la aritmética. La verdadera geometría siempre es sintética y elemental; la aritmética, cuando no es meramente trivial, siempre tiene profundidad analítica. En este sentido bien puede hablarse de un orden explicado y un orden implicado, aunque en un sentido bien diferente al que le diera Bohm; Poincaré prefirió simplemente decir que la geometría es a posteriori y la aritmética a priori. Los geómetras lucían buen pelo y los analistas de raza eran calvos, tal era la regla infalible en otra época. Pero los que se vuelcan en la teoría de los números vuelven a tener pelo, y hoy hasta a los algebristas y lógicos les sale; a tal punto ha llegado la interconexión entre todas las ramas de la matemática que uno ya no sabe qué ocurrirá en el cuero cabelludo de sus practicantes.

Los vórtices de Venis están inevitablemente anidados unos dentro de otros a muy diversas escalas, lo que no hace una tarea sencilla identificar la “sustancia” del flujo temporal. En este sentido, serían tan evanescentes como las propias formas, aun cuando no se confundan con ellas en ningún sentido trivial. Si pensamos un poco en esta circunstancia, nos damos cuenta de que de aquí está emergiendo un tiempo que es a la vez material y formal, en un sentido distinto a los que ha manejado hasta ahora la física y la filosofía. Incluso si entendemos que la subjetividad de su flujo no depende en última instancia de ningún movimiento.

Es muy posible que la hipótesis de Riemann nunca llegue a probarse, como es muy posible que no se prueben nunca otras muchas conjeturas de la aritmética incomparablemente más simples, como la conjetura de Collatz. Sin embargo la función zeta ya ha intrigado bastante a los matemáticos, y lo hará aún mucho más, y en ese sentido habrá cumplido su misión; pero de momento sólo ha convocado al álgebra y el análisis, que apenas le han ofrecido contraste. En vez de seguir tanteando la oscuridad de la boca de la cueva, debería avanzarse confiadamente de espaldas aprovechando la luz de la entrada, la geometría en cualquier caso. Incluso la geometría elemental es infinita, cuando sabe encontrar sus problemas. El cálculo moderno, por el contrario, es una máquina trituradora que da predicciones, pero apenas sabe nada de la geometría física de los problemas.

Puede preverse entonces algo harto más probable pero mucho más perturbador que la demostración de esta hipótesis: su toma de contacto con la geometría y su ingreso en la imaginación humana, y no sólo en la imaginación matemática. Algunos analistas ya han detectado ondas espirales en el dominio de la función y se ejercitan en tratar de imaginar su morfogénesis, pero pautas tan abstractas requieren todavía muchos grados de descompresión para tomar contacto con lo genuinamente geométrico. Para eso se requiere un cambio radical en la orientación del cálculo, siguiendo algunas de las líneas apuntadas.

Lo razonable es pensar que la hipótesis de Riemann es sólo la consecuencia del comportamiento asintótico de los números primos tendiendo al infinito, lo que bien poco tiene que ver con su demostración; pero este no es el principal interés de su función. Sí hay, en cualquier caso, una geometría absolutamente elemental de los primos dentro de la recta, descrita por las curvas periódicas desde el origen que intersecan a cada número y sus múltiplos, y siendo los primos cortados sólo por su propia curva y la de la unidad. Incluso de esta representación tan simple emergen gradualmente patrones sorprendentes, a medida que aumenta la complejidad en la superposición de las curvas al hundirnos en las profundidades de la recta numérica. Los patrones más básicos sólo pueden verse extrayéndolos de la recta y desplegándolos como mínimo en dos o tres dimensiones. No tardan en emerger los primeros motivos espirales. Habría que seguir en 4, 5, o 6 a la manera de Venis, y en los dominios intermedios, modulando los posibles componentes dinámicos. Después de todo, también son infinitas las dimensiones que se pliegan y comprimen en la recta numérica o en la función zeta.

El tiempo-forma que acompaña al tiempo-materia no sólo está en los vórtices que describen las partículas o las galaxias, sino un poco en todas partes y en ninguna. Cuando una onda es rota aparece una onda espiral que persiste y excluye todos los anillos concéntricos; esta fue precisamente la sencilla observación de Arthur Winfree al empezar a modelar la geometría y las resonancias del tiempo biológico. Se pueden encontrar ondas espirales hasta en el movimiento del corazón.

La secuencia de transformación de los vórtices de Venis es un juego de equilibrio entre la contracción y la expansión; estos son los “tres pies” de su visión. El cuarto pie ha de estar necesariamente más allá de las formas aunque en medio de ellas. En cualquier caso, el equilibrio visto sólo en función de la acción-reacción no nos saca de las limitaciones del principio de inercia: nos da el orden explicado de un sistema cerrado, no el orden que un sistema abierto implica. Pues, efectivamente, el equilibrio dinámico es orden implicado por definición, “holomovimiento” en la lengua de Bohm, aun si nunca pueden extraerse sus implicaciones. La fase geométrica, por otro lado, puede describirse como una torsión o desplazamiento en la dimensión, que de este modo adquiere una connotación no sólo geométrica sino también morfológica; aunque se sobreentiende que es lo dinámico lo que se deforma, no el espacio o el potencial.

El astrofísico Eric Chaisson ha observado que la densidad de la tasa de energía es una medida mucho más decisiva e inequívoca para la métrica de la complejidad y su evolución a todas las escalas que los distintos usos del concepto de entropía, y sus argumentos son muy simples y convincentes. Contra lo que uno pudiera pensar, esta tasa, medida en ergios por gramo y segundo, tiene un promedio de 0,5 en en la Vía Láctea, 2 en el Sol, 900 en las plantas, 40.000 en los animales y 500.000 en la sociedad humana; se echa de menos aquí el valor relativo en un átomo o molécula. Esta densidad de flujo de energía, como decimos, no sólo indica la complejidad, sino también la evolución individual de una entidad, su transformación a lo largo del proceso de nacimiento, madurez, envejecimiento y muerte. Ha de estar ligada por tanto a lo que comúnmente se entiende por “flujo subjetivo del tiempo” aunque no deje de ser un trasiego, un intercambio con el ambiente dentro de algo ajeno al movimiento. Sin duda esta tasa de flujo puede aplicarse a los vórtices de Venis si se les asignan valores físicos, puesto que ellos también reflejan la evolución de entidades individuales, o su apariencia, si se prefiere. Como en el torbellino de la vida, la restricción creciente en las entidades, esencia del envejecimiento, es en sí misma una cuestión de gran sutileza y múltiples capas concéntricas que sólo gradualmente se desvelan. El estudio en profundidad del tema permitiría ver hasta qué punto estamos hablando de un tiempo encarnado, un tiempo en la materia y en la forma. Volviendo al mundo físico, otra cuestión sería tratar de ver cómo se relaciona esta tasa con el principio de máxima entropía o con el equilibrio termomecánico que puede dar cuenta de los diversos lagrangianos de átomos, órbitas planetarias y galaxias.

La restricción creciente es la piedra de toque de la evolución individual de una entidad y su envejecimiento, que tan poca atención ha merecido todavía a pesar de que sus perfiles estén siempre ante nuestros ojos. Incluso en la casi insuperable abstracción de la teoría de los números pueden encontrarse múltiples dominios y órdenes de restricción creciente, contrapunto de las diversas medidas de entropía numérica, mucho más irreductibles y singulares que lo que en cálculo se entiende por “aproximación” y “acotación”; pues el cálculo sólo usa la aritmética como instrumento, mientras que la teoría de números busca en ella su propia fisionomía. La entropía es una propiedad extensiva proporcional al logaritmo de estados; la cantidad de números primos es inversa al logaritmo de los números enteros, y los mismos ceros no triviales de la función zeta en la recta crítica con valor real exacto de 1/2, reflejarían el dominio principal de una restricción creciente que envuelve como un producto a la suma total de los números primos hasta el infinito. La ley de Fechner nos dice que la intensidad de la sensación es proporcional al logaritmo del estímulo, y el tiempo de la vida y la memoria se desenrosca con ritmo de espiral logarítmica. Como Tolstoi dejó escrito, no hay más que un paso del niño de cinco años hasta el que soy ahora, pero del niño de cinco años al recién nacido hay una distancia inmensa, un abismo del recién nacido al embrión, y lo inconcebible entre el embrión y el no ser.

Parece contrario a nuestra intuición el que la densidad del flujo de energía sea muy superior en una brizna de hierba que en la atmósfera incandescente del Sol; pero esto se relaciona estrechamente con el hecho ya mencionado de que la entropía tiende al máximo y el orden produce más entropía. Ambos hechos delatan que hay cosas muy fundamentales que estamos viendo desde el lado equivocado, por no hablar de la más que posible contribución de la entropía al orden mismo de la dinámica. También en todo esto habría que situarse de espaldas a la mina para apreciar la luz que inunda la cueva. En cualquier caso estas consideraciones nos permiten ver que incluso aspectos del tiempo que creemos altamente subjetivos pueden tener expresiones físicas y matemáticas con entidad propia; y ni que decir tiene que en la morfología de Venis hay muchos más motivos que las espirales.

Considerando la relatividad especial, se ha venido diciendo desde Pearson que un observador que viajara a la velocidad de la luz no percibiría movimiento alguno y viviría en un «eterno presente»; pero está claro que la luz se transmite y se mueve, e incluso pulsa con más precisión que el mejor reloj, luego esto es sencillamente falso. Sabemos además por el principio de Huygens que su propagación implica una deformación continua en cada punto, lo más opuesto a lo intemporal expresado del modo más gráfico. Precisamente para la relatividad, no hay otra forma de concebir el tiempo que el movimiento, luego esta pretensión contradice sus propios supuestos, aunque expresa inmejorablemente cómo el principio de sincronización global quisiera estar por encima de toda contingencia y aun del propio tiempo que se complace en imponer. Es de suponer que los físicos han renunciado a este tipo de ilustraciones, que sólo consiguen dejar a la teoría en evidencia. Si algo físico ha de estar fuera del movimiento y del tiempo, ciertamente no puede ser esto.

Los múltiples marcos de referencia inerciales de la relatividad general no consiguen sino crear una confusión permanente, incluso sobre el mismo significado de la palabra inercia, lo que ya habla por sí solo. Ver y considerar, con los ojos muy abiertos, que no existe la inercia en este mundo: no puede haber mejor suspensión de lo mecánico aprendido, ni más profunda meditación. La más intensa, también, que la permanente agitación del pensamiento ni por un momento soporta. Cuesta tanto asumir que no existe la inercia en este mundo, entender que el danzante principio de equilibrio dinámico nos está diciendo que todo está interpretando su posición a cada instante espontáneamente y con todo su ser, más allá de la libertad y la necesidad.

Venis admite de buen grado que aún no sabemos casi nada sobre cómo, si sólo existe un espacio hipercontinuo de infinitas dimensiones, nuestra percepción está tan severamente limitada al espacio tridimensional. También el espacio de Hilbert de la mecánica cuántica es inicialmente infinito-dimensional, pero, ¿hablamos en este caso de abstracciones? Las inferencias de Venis pueden ser muy arriesgadas, y sin embargo tienen la peculiaridad, hoy más que nunca excepcional, de estar guiadas casi en exclusiva por el espíritu de la forma. Las infinitas dimensiones de un espacio abstracto nos dejan indiferentes, pero lo que aquí se insinúa es que las dimensiones de las formas concretas en el espacio físico son sólo una mínima sección de dominios enteramente sin forma, mucho más cercanos a nosotros de lo que creemos; claro que tampoco la realidad física se ha dejado nunca reducir a lo visible. En cualquier caso, cualquier dominio supraformal o infraformal ha de estar conectado con el mundo de la forma por un mismo hilo y principio.

¿Hay un proceso físico en la reducción de dimensiones, o nunca dejará de ser para nosotros algo puramente imaginario? Ambas cosas no son incompatibles, pero dependen del punto de partida; los físicos necesitan medir, la imaginación es un ejercicio individual que no requiere instrumentos. Finalmente, siempre podemos contar con aquello que ni siquiera necesita de imaginación.

Nuestra cultura hipercinética no puede concebir nada fuera del movimiento; así, a la fase geométrica se le otorga un estatus sumamente abstracto y derivado cuando refleja de la forma más inmediata el lugar desde el que miramos, que por cierto no es ningún marco inercial. Sin embargo, es la descripción de la dinámica la que se ha enrarecido hasta no representar prácticamente nada. Dado que para el físico lo inmediato tampoco vale nada, no queda más remedio que aportar otro tipo de argumentos.

Se supone que la dinámica de un sistema controla a la fase geométrica, que juega un rol enteramente pasivo; y este es el papel que ahora se le asigna rutinariamente en el laboratorio. La pregunta inevitable es, ¿cómo puede ser independiente del movimiento algo que se limita a seguirlo? Pero, por otro lado, una correlación instantánea no puede asociarse con movimiento alguno. ¿Cómo decidir la cuestión? Hay múltiples formas de asomarse a este nuevo abismo, lo único que se requiere es cambiar la idea de lo que hay que medir.

Tampoco hace falta machacar partículas en gigantescos aceleradores, sino tan sólo entrar en sintonía con la exquisita sensibilidad de los potenciales en las teorías de campos y más allá de ellas. En principio, la diferencia entre un potencial ordinario y un potencial “anómalo” como el de la fase geométrica parece muy clara; en la práctica, como siempre que hablamos de energía, la cuestión es mucho más delicada y sutil. El mal llamado “principio de incertidumbre” de Heisenberg ha sido desmentido innumerables veces y sus diversas relaciones son objeto de sucesivas correcciones en función del marco experimental. No sólo experimentos de alta precisión, incluso frecuencímetros sensitivos a la fase de televisores muestran una precisión decenas de veces superior. Pero, siguiendo la sugerencia de Binder, y más allá de este maltrecho principio tan necesitado del más simple análisis dimensional, pueden diseñarse todo tipo de dispositivos con bucle de enganche de fase para crear una realimentación o retroacoplamiento entre la fase dinámica y la geométrica, y estudiar dónde reside su equilibrio y cuál es la condición de contorno de la fase total. Binder interpreta que es la fase geométrica la que controla la intensidad y signo de las constantes de acoplamiento de las fuerzas fundamentales, e incluso concibe escenarios en que la escala de Planck se desplaza hasta el rango nuclear. Según Binder, lo que variaría y se “curvaría” sería el espacio-tiempo dinámico; pero la velocidad instantánea de la fase geométrica no puede curvarse. La velocidad es la magnitud fundamental de la física, el espacio y tiempo físicos son nociones derivadas de su medida.

Sabemos muy bien el poco caso que se hace de propuestas como la de Binder, y también sabemos por qué. Pero, sencillamente, lo que es instantáneo no puede ser secundario con respecto a lo que le lleva tiempo operar; lo que es acto puro no puede ser pasivo con relación a aquello a lo que le lleva tiempo actualizarse. Esta simple reflexión hace pensar que la física ha estado invirtiendo todo este tiempo las nociones de acto y potencia, pero llevará largo tiempo calibrar de nuevo su relación, y tal vez más tiempo asimilar sus consecuencias. Toda la materia está interpretando, recreando espontáneamente ese puro acto. La luz es vibración emancipada de la materia, pero trascender el sincronizador global es tanto como salir fuera de cualquier orden temporal ligado al movimiento, ya sea el del sistema solar, nuestra galaxia o el entero cosmos observable y por observar. Los físicos, los científicos en general, aún puede elegir entre el control y la sabiduría; entre cerrarse sobre el hombre y la Naturaleza, o abrir para ellos el más vasto de los horizontes.

Todo lo que se mueve no es más que un reflejo de lo que no se mueve, una ondulación sobre sus aguas. No son los potenciales los que se está retardando, son las fuerzas no fundamentales las que están variando. No sabemos si la gravedad tiene un límite de velocidad o no lo tiene, ni sabemos cómo se comportarían otras fuerzas completamente diferentes que pueden existir a otras escalas, en las galaxias o más allá; pero sí sabemos que lo que es instantáneo no se retrasa y es la referencia para lo que exhibe limitaciones de velocidad. Como algunos gustan de decir, “no puedes superar eso”, aunque sí puedes ignorarlo. Y, después de dejar que se hunda la cuestión hasta posarse, uno podría añadir: “tú eres eso”.

Referencias

Henri Poincaré, Nicolae Mazilu, Hertz’s Ideas on Mechanics (1897)

Nikolay Noskov, The phenomenon of retarded potentials

Nikolay Noskov, The theory of retarded potentials against the theory of relativity

K. T. Assis, Relational Mechanics and Implementation of Mach’s Principle with Weber’s Gravitational Force ( 2014)

A. K. T. Assis, History of the 2.7 K Temperature Prior to Penzias and Wilson (1995)

Alejandro Torassa, On classical mechanics (1996)

Koichiro Matsuno, Information: Resurrection of the Cartesian physics (1996)

Nicolae Mazilu and Maricel Agop, The Mathematical Principles of the Scale Relativity Physics I. History and Physics (2019)

V. E. Zhvirblis, Stars and Koltsars (1995)

Mario J. Pinheiro, A reformulation of mechanics and electrodynamics (2017)

Miles Williams Mathis, A Re-definition of the Derivative (why the calculus works—and why it doesn’t) (2004)

Igor Podlubny, Geometric and Physical Interpretation of Fractional Integration and Fractional Differentiation (2001)

Salvatore Butera, Mario di Paola, A physically based connection between fractional calculus and fractal geometry (2014)

Juan Rius Camps, La nueva dinámica irreversible y la metafísica de Aristóteles (2010)

Patrick Cornille, Why Galilean mechanics is not equivalent to Newtonian mechanics (2018)

Yuri N. Ivanov, Rythmodynamics (2007)

Anirban Bandyopadhyay et al., A Brain-like Computer Made of Time Crystal: Could a Metric of Prime AloneReplace a User and Alleviate Programming Forever? (2018)

Bandyopadhyay, Tam Hunt, Resonance chains and new models of the neuron (2019)

Jan Bergstra, Division by Zero: A Survey of Options (2019)

Okoh Ufuoma, Exact Arithmetic of Zero and Infinity Based on the Conventional Division by Zero 0/0= 1  (2019)

Raymond Abellio, La structure absolue, Essai de phénoménologie génétique, París, 1965

K. O. Friedrichs, Asymptotic phenomena in mathematical physics (1955)

Peter Alexander Venis, Infinity-theory —The great Puzzle

E. J. Chaisson, Energy Rate Density as a Complexity Metric and Evolutionary Driver (2010)

Bernd Binder, Berry’s Phase and Fine Structure (2002)

Miguel Iradier, hurqualya.net

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *