ESPÍRITU DEL CUATERNARIO (SEMIOSIS Y CUATERNIDAD)

La terna Yo-Mundo-Dios de la que habla la no-dualidad permite superar la oposición entre fe y razón. Quien se llama a sí mismo “ateo” no cree en Dios pero cree en la existencia de un Mundo y una Ley independientes del Yo, y por lo mismo supone la existencia de un ego autónomo. Sin embargo la interdependencia de los tres es la misma condición de posibilidad del lenguaje, y, de la lógica dentro de él. Revirtiendo la dirección habitual del pensamiento y el signo se comprende cabalmente su inexistencia como entidades independientes.

Índice

1. El Principio es la meta

2. El cuarto

3. Disposición de la mecánica

4. Máquinas, antimáquinas, no-maquinas y cuerpos

5. Sensible e inteligible

6. La conciencia, punto de fuga y última frontera

7. A propósito del continuo: dividiendo por cero

8. Metanoia, continuo y cuaternidad

1. El principio es la meta

El cientifismo vulgar que hoy impera, su misma concepción de lo positivo y lo objetivo, no es sino la asunción en grado diversos de la independencia del Yo, el Mundo y la Ley. Y es esta misma asunción la que ha originado y reforzado las diferentes concepciones del monoteísmo. Así, monoteísmo y ateísmo coinciden en lo esencial y difieren sólo en los grados y modos de concebir las relaciones entre estos términos que contra toda lógica quiere suponer independientes.

Monoteísmo y cientifismo tienen en todo caso poco que ver con el monismo filosófico, y aún menos con la no-dualidad. Son, como si dijéramos, la externalización extrema de una relación de intimidad que no se remonta a un mítico origen, sino que opera en todo momento de la forma más patente pero menos manifiesta. También suponen la explotación, tan decidida como poco consciente, del potencial de esta intimidad.

Se ha dicho que los cristianos no creen en Dios sino en la Trinidad, y el mismo hecho de que el cristianismo no sea una religión legislativa, como lo son las otras dos fes abrahámicas, sólo confirmaría esta insalvable diferencia con el monoteísmo estricto. El dogma trinitario fue el precio que el monoteísmo tuvo que pagar para poder ser adoptado por el paganismo helenizado; y el nihilismo sería la deriva lógica del cristianismo cuando desde la Reforma ha querido volver al espíritu del Antiguo Testamento.

Si el monoteísmo es una criatura del desierto, se requería su versión más pluralista o politeísta para que el desierto se extendiera por el mundo —especialmente mediante sus versiones más reformadas. Y si hoy los otros dos monoteísmos prosperan, cada uno a su manera y en versiones progresivamente degradadas, es dentro de este nuevo medio ambiente, este desierto que no para de crecer.

El descubrimiento por Peirce de la semiosis o deriva ilimitada de los signos es sin duda el hito más importante de la lógica desde los tiempos antiguos, en gran medida, porque trasciende la esfera de la lógica. Siempre trascendió esta esfera, pero, como no podía ser menos, no ha hecho sino sumar su cauce a la deriva nihilista general, volcada hacia una Ley que sistemáticamente la vacía. Muy en el estilo del siglo XIX, Peirce quiso concebir la semiosis como un proceso irreversible que puede aproximarse asintóticamente a la verdad, en vez de como un proceso reversible que puede alumbrar nuevas e inesperadas síntesis; y lo oportuno de esta reorientación no ha tenido el debido eco entre sus continuadores.

Es evidente que el lenguaje es más que un proceso lógico; es un fenómeno mucho más primario que envuelve a nuestro mundo interno de impresiones, deseos y emociones y nunca termina de desprenderse de él. En principio la semiótica de Peirce creaba un nuevo lugar para todo esto, pero ese lugar resulta evacuado y sus contenidos succionados para procesar lo primario sólo en la medida en que se relaciona con lo terciario, con el código, con lo predecible y regular de la Ley.

No deja de ser la misma deriva, aparentemente inexorable, que envuelve a los sectores primario, secundario y terciario de la economía y el tejido social; o de la ecología del conocimiento, o de la civilización en general. Somos incapaces de concebir una vuelta atrás, porque incluso si quisiéramos reproducir el pasado saldría algo del todo diferente. Pero a esto sólo hay que darle la vuelta: si queremos obtener algo diferente hay que ir en dirección contraria a la deriva general.

El progreso de la modernidad “liberó” el potencial trinitario. Confrontados ahora con el colapso, término real de ese potencial presuntamente ilimitado, muchos se vuelven casi involuntariamente cuaternarios, y se apresuran a ver qué podrá salvarse de nuestra civilización cuando fallen los delicados mecanismos que la sustentan. En esta perspectiva, afrontar el futuro y recuperar lo perdido tienden a coincidir aun con todas las incontables incertidumbres. Si la terceridad última se proponía como asintótica estación término impulsándonos siempre más allá, ahora se quiere ir más allá del más allá recobrando el más acá siempre postergado; lo que definiría, en pocas palabras, el espíritu del Cuaternario.

El mismo Peirce vio bien pronto la rigurosa concordancia entre las tres personas de la Trinidad y la terna semiótica signo-objeto-interpretante: “El interpretante es evidentemente el Logos Divino o Palabra; y si nuestra anterior asimilación de una Referencia a un interpretante como Paternidad es correcta, éste sería también el Hijo de Dios. El fundamento, siendo aquello cuya participación es requisito para cualquier comunicación mediante el Símbolo, corresponde en su función al Espíritu Santo”.

Sin duda hubiera sido más fácil hablar de emisor, mensaje y receptor. Cambiando sólo el plano al que se aplica, son conceptualizaciones no más abstractas que las que dirimía rutinariamente la escolástica. Hemos citado este pasaje de 1866 no porque sea muy aclaratorio, sino más bien lo contrario; y es que uno de los rasgos característicos de la neogótica semiótica de Peirce es que cuando más quiere precisar los términos más se complica todo.

La misma idea de Ley y la pluralidad de las leyes es lo que nos separa del Principio, algo mucho más amplio que sólo va desplegándose por la devolución y reintegración del concepto. Este Principio y el acercamiento a él no puede confundirse con la noción de origen en el tiempo y su posible reconstrucción; no está sujeto a devenir sino que es, justamente, el principio de su actividad en todo momento —el soporte de cualquier estado de un proceso.

¿En qué se diferencia entonces de la Ley, por ejemplo de una ley natural de la física? En que la Ley tiende a darnos un concepto del Principio sólo a costa de invertir nuestras relaciones con él. La Ley se empuña y es por eso que no vincula más de lo que separa, mientras que el Principio es siempre elusivo pero nunca excluye nada. Por eso también estamos siempre a tiempo de confrontar la Ley con el Principio hasta lograr su autoabsolución.

A medida que los conocimientos útiles se acumulan mediando todas las relaciones cada vez tenemos menos conocimiento directo de nada. Para Peirce, para la tecnociencia en general, el conocimiento inmediato no tiene lugar, ni siquiera en primera persona, por lo que estamos condenados a depender de expertos, algo que conviene a los cuadros de expertos en primer lugar. Hablar de “conocimiento directo” presupone el objeto, pero existe un conocimiento inmediato que guía tanto al conocimiento directo como al indirecto, y que necesariamente ha de tener muchos grados y capas, aunque no los hayamos explorado. La ciencia también debería mantener algún tipo de contacto consciente con este conocimiento, por sí misma y por lo que está más allá de ella, ya que el contacto inconsciente no lo podría perder ni aunque quisiera.

2. El cuarto

Al final de “Antiprometeo” recordábamos que no habíamos hablado de máquinas, y de cómo ellas aún pueden cambiar nuestra ubicación dentro de lo simbólico, lo imaginario y lo real. En verdad, y dado que estas relaciones se están alterando permanentemente, habría que preguntar antes si hay algo en ellas que se mantenga constante. La respuesta, naturalmente, es que no hay nada aislable que cumpla tal condición.

Por supuesto, estábamos pensando en la reorientación del siempre indefinido principio de instrumentación que parece dirigir nuestras máquinas o nuestro uso de las máquinas. Pero, ¿qué sentido tendría hacer “antimáquinas” antes de tener claro cuál es su propósito? ¿Se puede reconducir en sentido contrario la compulsión que sentimos a apoyarnos en máquinas? ¿Sabemos lo que hay detrás de ella? ¿Pretendemos algún tipo de reeducación? ¿Queremos plantear una cuestión mecánica o simbólica?

Con el giro adecuado, la semiótica de Peirce vale tanto para explicar el proceso de objetivación del conocimiento como la emergencia de la subjetividad tal como la planteaba Lacan. O para elaborar una teoría trascendental de la comunicación. Semejante plasticidad ya es sin duda un valor, pero también es significativo que, por lo que uno sabe, ninguna disciplina se haya beneficiado de forma concreta con el uso de sus categorías. Su presunta validez se degrada rápidamente. La semiótica es la lógica de la vaguedad, aunque esta no es incompatible con la precisión; pero a medida que se precisa todo, nos perdemos en la proverbial maraña de grafos.

La reversión de la semiosis que aquí planteamos es diferente de todos los intentos de aplicación o aprovechamiento de sus categorías. No sólo es diferente, va en el sentido contrario. Parece que ir de nuevo en dirección a lo primario sólo puede aumentar la vaguedad; sin embargo, antes de los conceptos hay otras cosas y estados susceptibles de precisarse, o tal vez concretarse. Se ha dicho con razón que la lógica de Peirce no puede desprenderse de su carácter elíptico e involutivo, y sin embargo, de su reversión consciente puede emerger lo inesperado.

El Principio es inconmensurablemente más común que las leyes. De vez en cuando se pregunta a los físicos teóricos qué aspecto podría tener una auténtica Teoría Unificada de todas las fuerzas fundamentales, una “teoría final”, y naturalmente ningún físico sensato se atreve a hacer la menor conjetura al respecto. Mucho más insensato, aunque no por ello menos lógico, pienso que una “teoría final” sería aquella en la que no quedaría ni el menor rastro del concepto de Ley, que habría sido absorbido por completo en el Principio. Esto no es imposible en absoluto, sólo requiere que la naturaleza de ese Principio capte nuestro interés igual que lo captó la búsqueda de la Ley en otro tiempo.

La búsqueda del Principio puede realizarse en incontables niveles, pero a diferencia de la proliferación de disciplinas con “leyes” de lo más heterogéneo y una dispersión imparable, apuntan a la unidad de un modo mucho más simple —apuntan de hecho a una inconcebible ultrasimplicidad. Sus avatares se encuentran por doquier, incluso en las clásicas leyes de la mecánica, lo que tendría que ser el prerrequisito de una nueva mecanología.

No es obligado pensar en el futuro y especular con inevitables “nuevos desarrollos”. Vamos a dar un ejemplo ya pasado de reversión completa y exitosa de una tecnología; un ejemplo extremo que nunca ha sido reconocido como tal.

Puesto que ahora se asume que la escritura es una tecnología en el sentido más amplio de la palabra, que incluye a la técnica y la teoría de esa técnica. Y no sólo eso, sino que, marcando los comienzos de lo que entendemos como historia propiamente dicha, se asume también que la escritura es la tecnología más internalizada y la que más ha alterado la consciencia humana.

El monograma de la sílaba sagrada del hinduismo y síntesis suprema del Vedanta, OM o AUM, es una forma de encajar toda la cultura alfabética y toda la teología védica en algo que aún es más simple que el más simple de los sonidos. Como es bien sabido, la composición alfabética de esta interjección, tan posterior a su uso oral como queramos pensar, consta de cuatro elementos, las letras A, U, y M más el punto o bindu por encima de ellos.

Más hacia Occidente encontramos concepciones íntimamente relacionadas: el Tetragrámaton hebreo (YHVH) o la Tetraktys o tétrada pitagórica. En la cultura China, la gran tríada Cielo, Tierra y Hombre (Tien-Ti-Jen) también entra en concordancia cuando se incluye el Camino o Tao, como cuarto término que enhebra a los otros tres. Claro que en los casos más occidentales el cuaternario se concibe como una progresión 1-2-3-4, mientras que en los casos más orientales lo que tenemos es una reversión. “Retorno es el camino del Tao”; y en cuanto al Omkar, se trata implícitamente de una expansión del sonido coincidente con la contracción de sus partes, una secuencia 3-2-1-0.

Por descontado, esta “secuencia” del Omkara es ficticia, siendo sólo un ordenamiento de letras con un símbolo adicional para indicar el silencio, como el aspecto envolvente fundamental. De este modo la reversión es completa. Si la semiosis describe el flujo de la mente como interacciones de signos, y la deconstrucción, llevando al extremo lo terciario, considera el discurso entero como transposición de la escritura, aquí encontramos el caso diametralmente opuesto: el recurso a la escritura está al servicio de lo oral, este se debe al sonido inarticulado, y el sonido inobstruido se debe al silencio.

Si la secuencia es aparente, no menos aparente ha de ser la reversión. Para autores clásicos como Shankara, Omkar tiene una cualidad inherente de progreso y aun de prosperidad, y por otra parte, dinámicamente sólo cabe representarla como la más elemental progresión de una onda esférica en el espacio —que por otro lado no deja de ser una omnicomprensiva deformación continua en cada uno de sus puntos, como el principio de propagación de Huygens demuestra.

La deconstrucción y el análisis semiótico ponen en juego el hueco entre los signos para glosar sus permanentes desplazamientos, mientras que la única operación del Omkara es la desobstrucción del sonido, el regreso a lo vacío tan derecho como los obstáculos permiten —el centro de la diana, es el fin del juego de la mente. La actividad intelectual huye de esto como de la bomba atómica, pues la deja sin nada que hacer; creer y pensar sólo son dos aspectos de la misma explotación de las disposiciones.

Si la escritura es la más internalizada de las tecnologías, y la que más ha afectado a la conciencia, llenándola, moviéndola y manteniéndola ocupada, aquí tenemos el uso más simple posible de dicha tecnología para vaciarla y llevarnos hasta “la otra orilla”, según la fórmula del Upanishad. Pero, además, incluso la parte mínima de técnica que pueda tener apunta directamente a lo no técnico, a lo espontáneo o natural. Esto ocurre no sólo con su compendio de lo alfabético, sino hasta en su uso como invocación.

En las escrituras se compara a menudo la Palabra con el palo superior que se frota sobre el inferior para hacer fuego. No es por casualidad que los videntes se complazcan en una imagen tan rudimentaria, que es también una alusión a la primera tecnología privativa del ser humano, la producción controlada del fuego. Se trata de devolver el fuego aparentemente más grosero al fuego original del conocimiento, no manifiesto por naturaleza.

A la invocación ahora se la conoce como mantra pero su esencia no está en la repetición. Sabido es que la palabra mantra no significa otra cosa que aquello que atraviesa la mente. Igual que se intenta meditar sólo para comprender que el intento excluye la meditación, a veces se repite la palabra para comprender que la Palabra ya se profiere por sí sola, que es el rastro del silencio mismo desde el lado de quien lo escucha.

A Om se le llama en ocasiones linga, signo o símbolo, pero está claro que eso no puede entenderse en el sentido funcional o semiótico ordinario. En el contexto de conclusión última de los Vedas, la Palabra como símbolo supremo ya no es invocación o pregunta, sino respuesta, evidencia, prueba. Evidencia concluyente, prueba definitiva. Una demostración puede ser corta o puede ser larga, y aún se pretende que alcanzar toda la verdad sería un proceso infinito; pero reconocer una prueba no es algo que dependa del tiempo. Sólo requiere caer en la cuenta, si se está dispuesto a ello.

La semiosis se queda atascada en el conocimiento y el juego entre lo conocido y lo por conocer. Pero los tres primeros estadios del Vedanta comprenden ya lo conocido, lo desconocido y aun lo incognoscible; y el cuarto estado se sitúa más allá de ellos. ¿Cómo se puede estar más allá de lo incognoscible?, podría preguntar alguien consternado. La respuesta es evidente: no pretendiendo conocerlo todo. Asumiendo lo incognoscible que uno mismo es. El conocimiento es sólo la otra cara de la ignorancia pero es uno con ella; la búsqueda del conocimiento es sólo un síntoma de una no reconocida enfermedad, y la compulsión instrumental que sentimos hacia las máquinas es sólo su reverso.

Este modo de plantear las cosas está más allá de los planteamientos del ateísmo y el agnosticismo, siempre que se esté en condiciones de considerarlo. No nos pide más conocimiento en absoluto, sino tan sólo un imperceptible reconocimiento.

La síntesis retroactiva que el Omkara logra con respecto al universo del orden y el desorden alfabéticos, logros indudablemente artificiales, también es operativa con respecto al movimiento de la mente, dividida siempre entre lo artificial y lo natural, o con respecto al sonido, fenómeno que aun con nuestro gran aporte de cacofonías no deja de ser enteramente natural además de objeto de la física. Aquí la íntima semejanza, si no identidad, entre el sonido y la mente se presupone. OM presupone también la ascensión por ósmosis capilar de cualquier ruido de fondo hasta el silencio que lo soporta. Y este ruido de fondo incluye todo género de actividad también nuestra incierta reserva de vida y energía vital.

Desde una perspectiva libre de objetivaciones como la del Vedanta, esto no es sólo posible , sino inevitable. La Palabra envuelve todo el sonido articulado, el inarticulado y el silencio, dentro y fuera de la secuencia, y aun en los dos sentidos de la secuencia; la conciencia contiene toda mentación, desde la más difusa aspiración hasta el más cerrado reflejo del hábito. Hay aquí una secreta relación entre lo reversible y lo irreversible que la ciencia aún no ha acertado a plantearse nunca. OM es la prueba de lo imposible que está desafiando a nuestra demostración.

Pensemos sólo en algún aspecto imponderable dentro de lo más formal. Absolutamente imponderable, por ejemplo, es el efecto que sobre la matemática moderna, ciencia pura de las formas, ha tenido la introducción del cero en nuestro sistema posicional decimal. Este acontecimiento, gestado durante un largo e impreciso número de siglos, coincide en el tiempo con la epigrafía alfabética del Omkar; y sabido es que la representación original del cero en India no fue con un círculo vacío, sino con un punto superior o bindu.

La introducción del cero moderno ha alterado de manera imponderable nuestra concepción de la unidad, y también del cálculo o análisis en el que se basa enteramente nuestra ciencia: pues ya sea en el cálculo infinitesimal original, como en el análisis moderno fundado en límites, aún se cree que se trabaja sobre puntos y velocidades instantáneas, y esto contra toda razón. Hemos hablado repetidamente del tópico, que va ciertamente mucho más allá de las “interpretaciones filosóficas”, aunque también debería tener un impacto profundo en ellas. Lo que tuvo un efecto imponderable en el pasado, del mismo modo puede tenerlo en el futuro, y al revés: lo que enfoquemos en el futuro nos dará la medida de lo que podemos reconocer en el pasado.

Es como el multimilenario concepto de igualdad (=), del que sólo en los tiempos más recientes han reparado algunos raros matemáticos en que esconde una infinidad de equivalencias. Pero no vamos a detenernos en este tipo de cosas ahora. Siguiendo puntualmente a Aristóteles, Peirce, cuya semiótica presupone siempre la continuidad, distingue tres figuras básicas del razonamiento: inducción, deducción y abducción o hipótesis, y hoy se admite generalmente que las ciencias se rigen por el método hipotético-deductivo. Fue todo un acierto de Peirce llamar a las hipótesis “abducciones”, pues no nos conectan más a la realidad de lo que nos separan de ella. Lejos de ser un término técnico, sigue señalando lo más cotidiano y menos advertido de nuestra condición, pues vivimos en un mundo de abducción permanente. Pero, ¿cuál sería aquí el cuarto aspecto, cuál es el principio parasemiótico que aún es más importante en cualquier tipo de conocimiento? Ya lo hemos dicho casi sin querer, se trata de la asunción.

Hay, naturalmente, una continuidad implícita entre suposición y asunción, igual que la hay entre la resonancia de la M final del Omkar y el silencio. La suposición, núcleo y semilla de toda teoría, interpone siempre entre uno y los hechos una nueva combinación de elementos. La asunción es sólo el caso más general de la suposición, en el que uno ni siquiera es consciente de interponer nada. Y este caso general es el fundamento de cualquier realidad particular.

Es evidente que la asunción de unos hechos es anterior a cualquier razonamiento con ellos o cualquier intento de explicación. Lo que no es tan evidente es que esa asunción ya ha reorganizado algo antes de la primera operación lógica: la asunción es la reorganización de uno mismo. Esto se extiende mucho más allá de la lógica de cualquier dominio formal, pues la asunción es justamente el espacio que se abre allí donde lo formal se ha extinguido. Y sin embargo no hay nada más determinante en la vida.

¿Cuál es la palabra destinada por las tres religiones del Libro para expresar la asunción, el “así sea”? Amén. Con las ligeras variantes Amen, Amin, u Omein. La misma palabra “Asunción” se percibe como otra variación de Aum. No puede haber palabra más importante para un creyente, ni más transformadora, porque, sin duda va más allá de la creencia y se hunde en la realidad como no puede hacerlo el conocimiento. Pero está claro que nadie vive ni piensa sin asunción.

Con tiempo suficiente cualquiera puede fabricar teorías, pero nos resulta mucho más difícil vivir sin ellas, pues nuestra vida depende de muchas teorías que ni siquiera hemos elaborado. La diferencia básica entre la filosofía y el Vedanta es que la filosofía se detiene en el cuestionamiento de las suposiciones, mientras que el Vedanta cuestiona la asunción hasta el final. Por otra parte, si la primeridad de Peirce es un Cogito sin Yo que la formalidad del discurso filosófico apenas permite explorar, mucho menos se ha sondeado la relación no operacional entre cuaternidad y primeridad, entre la toma de conciencia global que es la asunción y la multiplicidad de estados interiores que nos es connatural hasta que algo en nosotros dice “Yo” obstruyendo su percepción.

La diferencia entre suposición y asunción sería como la que hay entre pensar en algo y pensar desde algo —si tal diferencia pudiera plantearse dentro de los términos del pensamiento. La asunción es más bien el estado global de la conciencia, y puede haber infinitos estados dentro de una misma asunción, y muchas asunciones o estaciones.

*

Siempre un poco a regañadientes, Peirce no dejaba de admitir que sus tres categorías coinciden en lo esencial con los tres estadios del pensamiento de Hegel; pero no hace falta forzar ningún tipo de argumento para ver que los deslizamientos de la semiótica atraviesan la historia del pensamiento de principio a fin. Tampoco faltan indicaciones tempranas de la cuaternidad, de eso que tanto puede llamarse plano trascendental como absoluta inmanencia. Fue la cuarta hipótesis sobre lo Uno y lo Otro del Parménides de Platón la que le faltó desarrollar a Plotino para “cerrar el círculo” argumentativo de sus tres hipóstasis; aunque la cuaternidad del Vedanta busque menos cerrar un círculo que abrir un claro en la comprensión.

Guenon, en su estudio clásico sobre las tríadas, que tan enorme papel han jugado en la organización del mundo antiguo, protestaba contra la asimilación abusiva de ternarios que poco o nada tienen en común. Ponía como ejemplo de esto la asimilación entre la Trimurti india y la Trinidad cristiana. Que estas tríadas pertenecen a concepciones muy distintas es más que evidente; sin embargo, entre el Padre, el Hijo y el Espíritu Santo aún existe una indudable correspondencia término a término con Brahma, Vishnu y Shiva, y con las tres letras del Omkar. De aquí se podían haber extraído las más verosímiles consecuencias teológicas, como la de que el Espíritu Santo es santo porque supone la dimensión en la que todo se extingue. Todas las ternas que tienen una estricta correspondencia semiótica apuntan a una unidad más simple que la de cualquier juicio o predicado. Esto comprende una infinidad de implicaciones lógicas imposibles de desarrollar.

Era casi inevitable que el último gran escolástico surgiera en los Estados Unidos. También que el neogótico Peirce se enroscara en un gradual aislamiento dentro del ascendente espíritu pragmático y positivista de sus contemporáneos. Si Hegel ya había rendido la versión laica de la teología occidental, Peirce, apoyándose más bien en Kant, quiso darnos una versión anglosajona que fuera verdaderamente compatible con el pensamiento científico moderno. Tanto Hegel como Peirce eran espíritus industriosos, mercuriales, fatalmente dispuestos a enredarse en los laberintos de la lógica. Lo que Hegel consiguió con su “ciencia del saber absoluto” fue la reprobación casi unánime de la comunidad científica, pero Peirce, que trató de evitar con el mayor de los escrúpulos los inciertos saltos especulativos de la dialéctica, no quedó mucho más cerca de su cometido.

En otro lugar comentamos cómo William Lawvere, uno de los grandes impulsores de la teoría matemática de categorías, ha tratado de verter a dicho lenguaje el Hegel de la Ciencia de la Lógica y la unidad de los opuestos. Con Peirce esta tarea parecía en principio mucho más factible, y no han faltado en los años más recientes intentos de diversa fortuna al respecto. Sin embargo, a medida que se avanza por este camino las dificultades se multiplican, como el mismo Peirce ya había advertido entre el asombro y la resignación. Uno no sabe de ningún científico que se sienta cómodo con la diagramación de sus propias formas de razonamiento, y eso que la “gestión de la economía del conocimiento” parece demandarlo cada día más.

La enseñanza de lo fallido de estos intentos tendría que ser evidente; aun si muchos tipos de metaanálisis tienen vigencia y utilidad, y a menudo son inevitables, tratar de eliminar la imprecisión de lo primario mataría la fuente más espontánea e inspiracional de la investigación. Lo que tenemos luego es un cadáver, y no deja de ser curioso ver a los científicos, a los que a menudo acusamos de matar los fenómenos que estudian, sometidos a disección y autopsia. Por otra parte los matemáticos que trabajan en la teoría de categorías rechazan con fuerza la acusación de estar haciendo metamatemática, y en la medida en que siguen haciendo matemática viva tienen toda la razón. Para muchos de ellos, la teoría de categorías es el lenguaje matemático sin más. Y además, su permanente recolección debería favorecer una comprensión sintética de la matemática más necesaria hoy que nunca.

En matemática, como en todo, siempre ha habido una oscilación entre creatividad y reflexión. Por otra parte, se supone que análisis y síntesis van tan de la mano que no tiene sentido dar la primacía a uno sobre el otro. Entonces, ¿por qué todos, científicos y legos por igual, tenemos la abrumadora sensación de un predominio indisputado del análisis? Ya lo hemos dicho repetidas veces: es el enorme sesgo utilitario en favor de la predicción en la matemática aplicada lo que hace imposible el equilibrio. Sólo si se busca por sí mismo el nivelar predicción y descripción se hace manifiesto lo complementario del análisis y la síntesis. Ocurre que la justificación de resultados y aplicaciones, su “fundamentación”, ha exportado idéntico sesgo a lo que antes se consideraba como “matemática pura”.

No sirve de nada echarle la culpa a una deficiencia de comprensión sintética. Esto nos impide ver el hecho de que el mismo análisis no ha hecho honor a su nombre —no ha sido análisis- ni siquiera en los aspectos más elementales del cálculo, tales como el número de dimensiones con que trabaja. Miles Mathis ha demostrado esto concluyentemente, pero por ahora no sabemos de ningún matemático que se lo haya agradecido. Sólo atreviéndose a sondear las deficiencias más básicas del análisis —cuestionando nuestras más fundamentales asunciones- puede revertirse una tendencia actual que parece tan inexorable. Esto es lo evidente que ahora no se quiere quiere admitir: que los grandes avances en la comprensión sintética sólo pueden llegar con avances similares en el análisis, y que los mayores avances en el análisis serán aquellos que más directamente afecten a los fundamentos.

También los griegos hicieron grandes avances para encontrarle un lugar al cero cuando aún era nada, y la ubicación, contrapunto de la asunción, es el secreto en el misterio del nacimiento de una noción. El mismo Aristóteles muestra ya en su Física estar muy cerca del cero aritmético y plantea la imposibilidad de la división por cero dos milenios antes que los fundadores del cálculo, mientras que ni Brahmagupta ni Bhāskarācārya, el primer gran precursor del cálculo moderno, la excluyen. Todavía en 1770 Euler consideraba al cero, igual que Bhāskara, como el recíproco del infinito. El mero lapso de la gestación nos habla de la magnitud del parto; pero eso no significa que haya quedado establecida la cuestión.

Así que el sueño de formalizar las categorías de Aristóteles tuvo que esperar más de dos milenios para hacerse realidad en matemáticas; y ha sido con la teoría de categorías de orden superior, que se han empezado a superar las limitaciones del signo de igualdad, para empezar a hacer explícitas las infinitas equivalencias subyacentes. En el sentido contrario, Mathis ha terminado con el malentendido que comenzó con el uso por Arquímedes del paralelogramo de velocidades, que en el siglo XVII se interpretó como velocidad instantánea. La rectificación de este malentendido trastoca por completo la relación entre la matemática pura y la aplicada, y entre descripción y predicción.

Estamos hablando de tres mutaciones trascendentales de la matemática, tres transmutaciones por así decir, y cualquiera de las tres ha necesitado más de dos milenios para asomar limpiamente la cabeza. Es imposible saber cual será la incidencia de estos tres cambios en la noosfera del futuro, y a esta escala de tiempo no parece que tenga sentido esperar consecuencias rápidas. Los dos grandes logros de la teoría de categorías cuentan aún con una aceptación muy minoritaria de la comunidad matemática, pero después de todo aún discurren en la dirección imperante del aumento permanente del grado de abstracción.

No es el caso del descubrimiento de Mathis, que al cuestionar el criterio mismo de aplicación del cálculo, piedra de fundación del análisis, no puede estar más a contracorriente de lo contemporáneo. Pero es ese criterio de aplicación de la matemática, de la incidencia del plano de “las ideas puras” en la realidad física, lo que cambia nuestra noción de lo trascendental y lo inmanente. En verdad, si los masivos reordenamientos de la matemática más abstracta quieren tener fruto, no importa la escala de tiempo de que hablemos, ha de ser en la arena de la aplicación, y eso en absoluto lo ignoran los expertos en categorías. No es una cuestión de utilidad, sino como en los tres estadios de Hegel, de descenso y realización: abstracto, negativo y concreto.

Y tendría que saltar a la vista, ya desde el primer momento, que el cálculo finito o cálculo diferencial constante cambia por completo las nociones más básicas de la matemática, por ejemplo, la idea de espacio compacto o del continuo del que ha salido la teoría de conjuntos y toda la axiomática. Sabido es también que la teoría de categorías tiene otra idea más práctica de los fundamentos que prescinde de muchos de los criterios de la axiomática y el conjuntismo. Pero el cálculo finito, si puede extenderse consistentemente al análisis real y el complejo, afecta igual de profundamente a prácticamente todas las ramas imaginables, desde la teoría de la medida y el análisis dimensional a la definición del gradiente, la mecánica lagrangiana y hamiltoniana, el espacio de Hilbert, la teoría analítica de los números, la topología simpléctica y la topología en general. Si los expertos en categorías buscan un punto arquimediano para remover el Cielo y la Tierra matemáticos, las aplicaciones y los fundamentos, no van a encontrar nada como el cálculo finito, en verdad el único cálculo diferencial que no traiciona su nombre.

El equilibrio entre descripción y predicción se rompe definitivamente con el cálculo de Leibniz y Newton; pero en el cálculo, esto es menos una cuestión formal que en cualquier otra parte. Al buscarse las respuestas físicas en la ecuaciones diferenciales, en vez de derivar la ecuación diferencial de las consideraciones físicas, ya se ha operado la Gran Inversión, ya se ha puesto cabeza abajo el Cielo y la Tierra matemáticos. Que no quepa ninguna duda de que esta Gran Inversión es una sola con la “Gran Transformación” que experimenta la sociedad entera desde esa misma época. Reparar este “deslizamiento semiótico” de primera magnitud es la condición indispensable para despejar el camino real de la síntesis en matemática, para que los incesantes esfuerzos de los matemáticos en pos de la unidad se adentren en la profundidad del camino de retorno.

Lo que parece imposible de aceptar se transforma desde el momento mismo en que lo asumimos. Aun si el cálculo diferencial constante está enteramente por desarrollar, los ejemplos elementales que propone Mathis plantean ya de entrada una transformación fundamental de nuestra idea de lo analítico y lo sintético, y aun de su finalidad. También muestra el camino para eliminar las manipulaciones algebraicas ilegales de todo tipo justificadas por motivos heurísticos y que plagan todos los campos del análisis cuantitativo. Esto más parece una pesadilla que una promesa; sencillamente, hay demasiado construido sobre el cálculo para que éste pueda reformarse, al menos, en una escala de tiempo razonable.

El método científico oscila entre idealizaciones y racionalizaciones y en el cálculo se pasó de los infinitesimales a la teoría del límite, que es sólo una justificación para la enorme masa de resultados obtenidos. La teoría de categorías surgió de la generalización de operaciones de paso al límite —operaciones sintéticas- en problemas complicados del análisis superior, pero aún les queda un largo retorno hasta llegar al quid de la cuestión. Pero no es un secreto, sino más bien un permanente olvido, que el origen de la teoría del límite es que no hay límite para un punto, sino tan sólo para intervalos definidos.

El matemático no debería quitarse de encima los argumentos de Mathis diciendo que tan sólo se trata de cálculo elemental y que su rigidez de criterio impide abordar la mayor parte de los problemas. Todo lo contrario: precisamente porque es tan elemental, y porque el asunto va mucho más allá de cuestiones semánticas, es inexcusable ignorarlo. Y precisamente porque tiene un criterio rígido, marca también un camino recto. Y si hay un camino recto, ¿qué habrá que pensar de los atajos?

La más que lógica oposición a la reforma del cálculo no se superará frontalmente, sino más bien por desbordamientos laterales. Por ejemplo, el método de Mathis parece reproducir numéricamente la misma estimación espontánea y en tiempo real que hace un corredor cuando trata de mantener un ángulo constante de movimiento relativo con una pelota en trayectoria parabólica para atraparla. Si esta coincidencia se confirma como exacta, sería algo verdaderamente extraordinario, no ya porque plantee una conexión directa e íntima entre cálculo, “inteligencia artificial” y “habilidades intuitivas”, sino porque más acá de estos empeños utilitarios nos lleva directamente a la cuestión mucho más profunda de la relación entre la inteligencia formal y la informal. En el mismo orden de cosas, permite plantear de modo nítido si, más allá del carácter tentativo y falible de todo lo que se atribuye a la “intuición”, existe un conocimiento no intuitivo inmediato como el que postuló en su día Jakob Fries.

A comienzos del siglo XX, Leonard Nelson adoptó el postulado de Fries como fundamento de la axiomática en el espíritu de Hilbert; hoy habría que ir más bien en el sentido contrario: nos acercamos a la unidad cuando la forma matemática persigue al conocimiento informal, algo que sólo puede plantearse correctamente en la medida en que tal conocimiento no se confunda con “la intuición”. Y el esfuerzo de la matemática más abstracta por descender al mundo empírico es uno solo con esto, aunque aún esté lejos de ser evidente.

Nelson y Fries apelaron al espíritu de Sócrates más que al de Platón. Este último se encargó de interponer toda una ontología y un exuberante despliegue de formas que obstruyen la vía del conocimiento más que la facilitan; sin duda Sócrates estaba mucho más próximo a la indagación en lo informe que caracteriza al Vedanta. Pero como no sólo nuestro extraordinario despliegue formal parte de Platón, sino que también su metafísica se ha transformado en nuestra matefísica, en que la matemática prescribe de antemano el marco de la experiencia en el mundo físico, no queda más remedio que adoptar el camino inverso: de lo terciario a lo secundario, y de esto a lo primario.

Para el lógico y el matemático el único conocimiento digno de tal nombre es el conocimiento mediado por las formas. Pero si podemos superponer consistentemente el conocimiento terciario —que ya envuelve al secundario- con el que obra en primera persona, también hemos ido más allá de la primeridad y la terceridad. Ese es el camino que intentamos señalar; ese es el sentido de la cuaternidad.

*

Pero la misma concepción de la semiosis como un proceso horizontal de interacción ya es totalmente deudora de la escritura y la alfabetización. De lo que habla el Mandukyopanishad es de un denominador común a los tres estados más elementales de la conciencia —la vigilia, el sueño y el sueño sin sueños—, estados de una inmediatez incuestionable y para las que las tríadas derivadas en enésima instancia por el pensamiento y sus formalismos han de parecer remotas. Y aun así existe una continuidad.

Las tres fases o estados de la conciencia pueden asimilarse con lo consciente, lo subconsciente y lo inconsciente; siempre que aquí “inconsciente” se entienda literalmente como la inconsciencia total que todas las noches alcanzamos en el sueño profundo. Esta inconsciencia total coincide con lo incognoscible, y sin embargo nada nos es más íntimo. Así que tenemos el mundo externo de la vigilia, el mundo interno de los sueños y la imaginación, y la intimidad que nada sabe de la existencia de los otros dos.

Más allá de ellos está el cuarto estado, Turya, que es el denominador común de los tres. Incluso en el lenguaje ordinario la palabra “inconsciencia” está referida a la conciencia y a nada más. Lo único que cambia en la perspectiva no-dual es que esa inconsciencia no se considera como un límite externo, sino que se pone en el centro mismo. De hecho al tercer estado, al sueño profundo, se lo llama Prājña, inteligencia, comprensión; algo que, no hay ni que decirlo, para la inteligencia que se apoya en la forma resulta de lo más incomprensible.

Sin embargo el razonamiento formal está haciendo algo enteramente similar dentro de su reducida esfera de terceridad, creando su propia base a través de suposiciones o hipótesis para luego situarlas en lo más alto y descender por deducción, con un amplio espacio intermedio e informal para la imaginación y la inducción.

Aún hoy es común entender el Advaita como una negación categórica de la realidad del mundo o como un idealismo extremo, cuando sólo afirma que el mundo es inseparable del sujeto y es irreal sólo si pretendemos concebirlo sin él. El materialismo busca fundarse en la materia como base estable porque se supone que es inconsciente y porque es mensurable y controlable; pero en el proceso de control y medida se pierde toda la inmediatez de su inconsciencia, de la que nosotros participamos ya directamente y sin necesidad de mediación alguna. El materialismo es un experto en crear distancias que luego pretende colmar.

Lo que reconoce que lo que concebimos como inconsciencia externa está ya en lo íntimo de la conciencia no es ningún desplazamiento semántico en particular sino aquello que está entre ellos y los comprende; lo que no excluye que los ajustes internos puedan concurrir en el reconocimiento. La distinción de este aspecto “más sutil que lo más sutil” queda representada por el bindu del Omkar. Cuando este sí mismo se concibe como más allá de los tres se lo denomina “cuarto estado” o Turya, cuando se lo concibe como estando más allá de la separación se lo llama Turyatita, que no es un quinto estado en absoluto, sino la desaparición del sentido de lo separado, su retorno fluido a la totalidad.

Aunque no deje de ser una representación como cualquier otra, puede ser útil imaginar el presente, pasado y futuro no ya como una proceso lineal horizontal, ni tampoco como un círculo sin más, sino como un despliegue vertical continuo y siempre presente en el que la base se desplaza permanentemente. Lejos de ser una concepción “más sofisticada” de lo temporal, está mucho más en sintonía con los procesos naturales, que tienen ya lo esencial para entenderse a uno mismo.

Nuestras representaciones conscientes son como el tronco y las ramas de un árbol, nuestro deseo e imaginación como las raíces, nuestra inconsciencia es la tierra de la que se nutren las raíces. La sustancia es convocada por el Sol desde las raíces hasta las yemas, las hojas y los frutos, y en el límite de no poder llegar al Sol, vuelve de nuevo desprendido a la tierra como semilla, como un nuevo y cumplido microcosmos. No se pasa del tiempo lineal y horizontal al tiempo circular sin advertir el despliegue vertical del presente, pasado y futuro, el constante desplazamiento de su base, lo intensivo de su permanente actividad.

La misma lógica superior opera en la autonomía de la vigilia en el mundo animal, y ya Platón habló de las tres almas del hombre, vegetativa, sensitiva y racional; que no pueden verse sino como coexistentes en el tiempo a la vez que saliendo la una de la otra. Las modalidades del Samkya indio también tienen una íntima relación con esto, e incluso veremos su relación con los principios de la mecánica con sólo incluir el fondo del que emergen y hacia el que van.

3. Disposición de la mecánica

Para uno mismo, la comprensión no-dual no depende de ningún tipo de conocimiento o saber, como tampoco puede depender de ningún tipo de técnica o tecnología. ¿Por qué ocuparse entonces de las máquinas? Por lo mismo que podemos ocuparnos de la lógica, la ciencia o la filosofía. Porque, dentro de lo que es el conjunto de nuestra cultura, se interponen en el camino del retorno, y por lo tanto son parte de él. Y son parte también de lo que puede ser restituido en el espíritu del Cuaternario.

Lo único que mantiene en Occidente la ilusión de un tiempo irreversible es el progreso de la Tecnociencia, pero este progreso está llamado a colapsar porque los mismos supuestos tecnocientíficos tienen tantas contradicciones que tienden a frenarse y cancelarse mutuamente, no a acelerarse como se pretende. Por otra parte es lógico que haya resistencia a renovar los fundamentos para conservar el impulso hacia adelante, pero esto también conduce inexorablemente al estancamiento —las únicas “ideas nuevas” que se aceptan son las más sofisticadas porque las verdaderas ideas nuevas, que sólo pueden tener relevancia si son básicas, destrozarían los más imprescindibles estándares.

En definitiva, querer el progreso irreversible tiene efectos irreversibles. ¿O será más bien que la deriva general nos fuerza a creer que queremos? Como se puede creer en lo irreversible, pero de una manera muy diferente, vamos a ir primero hacia atrás; porque no se puede pretender encontrar otra clave en las máquinas sin revisar los fundamentos de la mecánica. Para casi todos, buscar algo nuevo en los principios de la mecánica sería como esperar sacar agua de una roca golpeándola; pues eso mismo es lo que vamos a hacer. Los principios de la mecánica guardan el secreto más recóndito de la modernidad: su propio cierre.

Disposición de la mecánica y cuarto principio

Los principios de la mecánica —para muchos leyes- de Newton son el marco que dispone cómo y en qué sentido se deben entender las complejas relaciones que pueden mediar entre las partes de un sistema físico o una máquina. Discutimos el tema con más detenimiento en el ensayo La Tecnociencia y el laboratorio del Yo; aquí haremos un resumen con algunas reflexiones ulteriores.

Los tres principios de Newton, surgidos como enmienda de los propuestos por Descartes, no sólo pertenecen a la física sino que tienen una indudable base común con los niveles más inmediatos de la experiencia humana en general. Lo que no significa que deban confundirse sin más con esa experiencia: cualquiera admitirá que están extraídos o abstraídos de ella, constituyendo la parte que nos parece cuantitativamente más relevante. Suponen por lo tanto un recorte de la realidad.

Así los tres principios, ya sea tomados cada uno por separado, ya sea en conjunto, han de ser considerados como condicionales, lo cual significa que su aplicación o extensión indiscriminada nunca está garantizada. La historia de la física está llena de momentos señalados y encrucijadas en que la aplicación y arbitraje de los tres principios no ha podido ser más problemático, dejando aún mucho espacio libre para interpretaciones erróneas. Sintetizando al máximo:

1-El principio de inercia resultó tan difícil de asumir que llevó generaciones interiorizarlo, y siempre de modo superficial. ¿Qué sabemos de la inercia? Lo mismo que del vacío físico, la masa o la gravedad: prácticamente nada. Para que no sea un puro espectro, tenemos que imaginarnos la inercia como una bola que rueda, tal como hizo Galileo. Pero el movimiento de una bola que rueda ha de estar referido a ejes de coordenadas inerciales externos al objeto o sistema, con lo que tenemos un objeto aislado con la propiedad de no estar aislado.

El principio de inercia implica el gran problema del sistema de referencia, y la física moderna lo sigue reduciendo a una cuestión meramente geométrica. Si realmente se tratara de física y no sólo matemática, el origen de coordenadas de un marco de referencia, como reclama Patrick Cornille, debería localizarse siempre en el centro de masa de una partícula puntual, cuyo valor ha de incorporar. Esta conexión es la indispensable precondición para que la descripción formal en términos de espacio y tiempo tome contacto con lo material a través del movimiento. Sin embargo la física moderna elude sistemáticamente esta vinculación.

2- El segundo principio, que define la fuerza, no hace explícito que sólo se tienen en cuenta las fuerzas controlables. En física todo lo controlable es medible, pero no todo lo medible es controlable. En mecánica no puede haber cantidades incontrolables, pero en la realidad las hay por todas partes. Piénsese en la ley constitutiva de los materiales, donde es imposible hacer experimentos que midan simultáneamente los tres valores principales de la tensión o de la deformación. Las fuerzas derivadas de rotaciones, sus combinaciones y grupos también pueden presentar este problema. Las cantidades incontrolables en absoluto son privativas de la mecánica cuántica.

Por otra parte, Newton usó la analogía de la onda para las órbitas planetarias, pero fue muy cauteloso en su primera definición de las fuerzas centrales, que no exige que las fuerzas que ligan a los cuerpos dependan sólo de las distancias radiales. Sin embargo todos los físicos desde entonces, incluso el escrupuloso Poincaré, han entendido la cuestión como si estas fuerzas pendieran literalmente de cuerdas. Con todo, cabe igualmente considerar fuerzas que dependan también del tamaño de los cuerpos, de la velocidad y la aceleración como la de Weber, o de fuerzas no centrales, de empuje o periféricas.

3-El tercer principio de acción y reacción, tan subestimado y tan esencial, marca precisamente la línea de demarcación entre los sistemas abiertos y cerrados. Curiosamente, Newton parece introducirlo para blindar los muchos aspectos inciertos de la mecánica celeste, aunque sea allí donde menos se puede verificar, como no dejaba de lamentar Hertz, que incluso llegó a proponer otros principios. Como se sabe, en el problema de Kepler no hay materia en el centro de la órbita. En la electrodinámica de Maxwell y Lorentz el tercer principio tampoco se cumple de partícula a partícula, sino que es necesario incluir el siempre nebuloso concepto de campo. Pero es que las teorías de campos en general parecen hechas para eludir el cumplimiento directo de este principio.

En las fuerzas sin contacto o fundamentales de la física moderna la cantidad conservada es el momento, no la acción y reacción. En estas fuerzas sin contacto se supone entonces un agente o campo que controla o entrega la acción entre un cuerpo y otro. La mecánica newtoniana y sus herederas parten de un tiempo absoluto con simultaneidad o sincronización global, de tal modo que la mediación local de la información, la forma de comunicación, resulta imposible de especificar por principio. Por otro lado también en la mecánica con contactos y la lógica inercial con que evaluamos nuestras máquinas e ingenios empezamos por ignorar el contacto aislando un sistema ideal.

Diversos físicos con espíritu crítico han estudiado estos aspectos con detenimiento en el pasado, aunque, no hay ni que decirlo, sus más que legítimas objeciones no han afectado lo más mínimo a la marcha obligada de su ciencia, que siempre tiene tiene tantas cosas por delante. Pero, además de sus valiosas indagaciones, aquí mi punto de partida es la experiencia directa de la biomecánica del propio cuerpo. Si los principios son realmente primarios tendrían que estar en armonía con la experiencia en primera persona, aun cuando por sí sola difícilmente nos hubiera permitido llegar a estas conclusiones.

Con un poco de paciencia, y con los más sencillos ejercicios isométricos de equilibrio basados en los tres ejes del espacio, cualquiera puede cerciorarse de que el centro de gravedad de su cuerpo, su marco de referencia físico, admite un juego tan complejo que de hecho comporta todo ese fondo más amplio del que los principios de la mecánica clásica emergen. Cualquier experto en biomecánica admitirá sin reparos que muchos problemas básicos de juegos de fuerzas o tensores en el cuerpo son intratables, a pesar de que nuestro organismo en movimiento los resuelve sin pensar a cada momento.

En un sentido aún por aclarar, esta cotidiana biomecánica que habla elocuentemente en nuestro cuerpo ya es más amplia y profunda que la que intentamos aplicar a todo el universo, aunque ciertamente no se nos antoje la más directa ni la más práctica para tratar problemas externos que son los que constituyen el objeto de la física.

Como ya observó Mach, el concepto de masa y el tercer principio están tan unidos que parecen redundantes; lo que sucede sin embargo es que de los tres principios es en el segundo que recae el peso central —no interrogamos a los cuerpos sino con fuerzas y a través de fuerzas. Entonces, en la mecánica clásica de la que ha partido todo, la fuerza ha sido siempre la interfaz.

¿Que la concreción física del primer principio está en desacuerdo con la idea de covariancia galileana y de la relatividad especial? ¿Que esto se refleja de forma inevitable en el tercero? Pues peor para la covariancia galileana y la relatividad especial. No estamos discutiendo ahora sobre qué es lo más conveniente para la caracterización externa de los problemas, que es el asunto de los físicos. Estamos tratando de ver qué pudiera haber antes de las conveniencias y arbitrajes de la física, en términos de la física misma. Esta contradicción aparente se hace verdaderamente necesaria si queremos terciar de forma significativa en el continuo ciencia-tecnología.

Y aquí es donde llegamos a una circunstancia tan evidente como poco notada. Los tres principios de la mecánica tratan de poner en un mismo nivel tres modos que, por lo demás, siempre pueden estar en niveles lógicos diferentes. El principio de inercia es una posibilidad, el de fuerza un hecho bruto, la acción-reacción —un mismo acto visto desde dos caras- es una relación de mediación o continuidad. Suponen la primeridad, secundidad y terceridad de la lógica y la semiótica de Peirce, las tres personas de la gramática de todas las lenguas.

La física ya es de suyo una semiótica sin la menor necesidad de añadirle nada. Claro que toda la lógica de la ciencia descansa en la separación del sujeto con respecto al objeto, mientras que la actividad de la técnica consiste en la reapropiación de ese objeto transformado por el sujeto. La ciencia siempre ha buscado la nivelación universal, pero nunca ha dejado de aumentar el número de sus niveles; la técnica parte del aprovechamiento oportunista de las conexiones entre niveles diferentes conducentes a esa nivelación universal del uso que ahora llamamos conectividad.

Damos por supuesto que todo lo que sucede en la física sucede en un mismo plano, que sería justamente “el plano de la realidad física”, del que se derivaría el “aplanamiento universal” que reduce los diferentes tipos de causas a las causas eficientes. Se ha dicho que, al rechazar en privado el dogma de la Trinidad, Newton fue “el último arriano”, pero en realidad toda la física se convirtió a esta fe sin saberlo, y no sólo la física.

Se podría pensar que los deslizamientos semánticos afectan sólo a los “asuntos internos” de la ciencia, a sus razonamientos, pero no a su frente externo, que es el que realmente le importa. Sin embargo, la historia misma es el mejor aval de que tales desplazamientos o corrimientos de tierra son a menudo los hechos más determinantes, dando fe de un doble movimiento de creciente exteriorización e interiorización, de reorientación desde los principios a los fines, y viceversa.

No es casual que haya llevado más de dos mil años perfilar algo tan insondable como el principio de inercia, y que aun Galileo necesitara la ayuda de Descartes para llegar a una formulación medianamente aceptable. Que un cuerpo en movimiento uniforme tenga la misma caracterización física que un cuerpo en reposo no es algo fácil de aceptar, entre otras cosas, porque acaba para siempre con la idea del reposo. De hecho es tan difícil de aceptar como que cuerpos de peso distinto caigan a la misma velocidad.

Desde entonces tenemos dos estados distintos de reposo. Pero la cosa no quedó ahí. Volviendo a la idéntica caída de objetos de peso diferente, el principio de equivalencia de la relatividad general —recordemos el famoso experimento mental del ascensor en caída libre- propone o estipula que la fuerza de la gravedad equivale a las fuerzas ficticias de inercia, es decir, no es una fuerza en absoluto. La forma más inmediata de acusar esto es decir que la gravedad no produce deformación en los cuerpos cuando ocasiona movimiento (dejando a un lado las fuerzas de marea de índole geométrica), mientras que sí los deforma cuando algo se opone a su potencial (achatamiento de los cuerpos estáticos). Otra observación no menos digna de estupefacción, aunque ya en 1609 Kepler diera claras muestras de conocer esta equivalencia.

Podemos hablar así de tres estados de reposo, cubriendo la entera gama de reposo relativo, movimiento uniforme y movimiento uniformemente acelerado. Desde este punto de vista, todo movimiento sería una transformación interna dentro del reposo.

A menudo, los teóricos contemporáneos en pos de un campo unificado echan de menos un simple principio rector, algo en el estilo del principio de equivalencia relativista. Pero ya Simone Weil se preguntaba, sin ocuparse en absoluto de cuestiones técnicas, por qué hemos dado en pensar en la gravedad como una fuerza que lo mueve todo en lugar de verla como una tendencia al reposo. Si diéramos un paso más tal vez tendríamos que decir que es el reposo mismo visto desde el lado del movimiento y la distribución heterogénea de los cuerpos. En las mismas ecuaciones de campo la energía de la gravedad es negativa y cancela la energía asociada a la materia; como se cancelan las fluctuaciones cuánticas en un espacio plano.

Hemos señalado en otros lugares algunas de los más chocantes deslizamientos, agujeros e incompetencias de nuestras más sonadas teorías y no vamos a volver sobre ello; después de todo, cualquier teoría va a tener siempre sus virtudes y defectos. Volviendo a la mecánica más elemental, aquella primera clasificación que hizo Jacques Lafitte de máquinas pasivas, activas y reflexivas está directamente relacionada con los tres principios, y bastaría devolver estos a su trasfondo original para que pudiéramos ver muchas más cosas en ella.

En cuanto a su espíritu, los tres principios de Newton pueden resumirse en la frase “nada se mueve si no lo mueve otra cosa”, o bien que nada se mueve sin una fuerza externa. Sin embargo ya hemos señalado que hay otras formas de disponer la mecánica que hacen las mismas predicciones con principios e interpretaciones diferentes: la mecánica relacional de Assis, que es una continuación de la de Wilhelm Weber, o la que muestra Torassa en varios breves escritos. Estas formulaciones de la mecánica prescinden por entero del principio de inercia y lo sustituyen por el principio de equilibrio dinámico, que, en el caso de Torassa, incluso adquiere el aspecto paradójico de autoimpulso.

Y así, con una simple modificación de principios, podemos librarnos para siempre de esa cosmovisión que divide al mundo en objetos pasivos y fuerzas que han de venir necesariamente del pasado, con la infinidad de consecuencias que de esto se deriva. Pero, a pesar de que la mecánica relacional tiene obvias ventajas sobre la mecánica newtoniana y su heredera la mecánica relativista, como hacer innecesarios los complicados arbitrajes de los sistemas de referencia, ni siquiera se ha planteado su adopción. Podríamos llamarlo el peso de la Ley; pero no es un peso muerto o una mera herencia del pasado, pues sin duda la mentalidad instrumental está mucho más en sintonía con los principios de Newton.

Insistamos en lo extraordinario que es el que cambiando de principios tengamos una concepción completamente diferente de la dinámica incluso abarcando los mismos resultados y predicciones; realmente no nos detenemos ni un sólo instante a pensarlo, y nunca hace daño, pues supone una suspensión de la máquina de administrar y asignar que tenemos implantada en el cerebro.

Hoy, para acomodar a las variadas circunstancias y fenómenos que se presentan, la relatividad tiene que distinguir entre un principio de equivalencia muy débil, uno débil, uno medio-fuerte y finalmente otro fuerte, que recuerdan inevitablemente a las categorías por pesos del boxeo. Si la la relatividad se deshace de la idea de fuerza como si se tratara de una jugada suprema, para luego golpearse ella sola, el principio de equilibrio dinámico se quita de en medio la idea de inercia sin tan siquiera discutirla, como si nunca hubiera sido otra cosa que un estorbo. Pero la mecánica relacional ya contenía esto implícito desde la fórmula de electrodinámica de Weber de 1846.

Ya en 1897, Poincaré, en su penetrante y concienzuda discusión del nuevo sistema de mecánica de Hertz, había dejado claro que los principios de la mecánica clásica no pueden confundirse con leyes experimentales, sino que se trata de definiciones convencionales en las que masas, fuerzas y reacciones remiten las unas a las otras. Que sean convencionales no significa que sean arbitrarias, sino simplemente que son indemostrables dentro del mismo sistema. Por el mismo motivo, sólo pueden expresar cualquier evento en sus propios términos.

Tal vez sea esto, más que cualquier otra cosa, lo que ha empujado desde siempre a los físicos a creer que Newton había explicado satisfactoriamente el problema de Kepler, a pesar de que es evidente que no es el caso. Hertz insistió correctamente en que en este problema tan general el tercer principio es inverificable, y, un siglo después, aplicándole la ley de Weber, Noskov se dio cuenta de que implicaba una retroalimentación entre los dos cuerpos con un potencial retardado y una velocidad de fase. Visto ya en retrospectiva, se hace evidente que la retroalimentación es inevitable en cualquier caso, incluso en los propios términos que propuso Newton.

Los físicos no se han preguntado cuál es la relación precisa entre el potencial retardado de Weber y Noskov y la fase geométrica descubierta por Pancharatnam, si coinciden parcial o totalmente. Pero a los físicos también les gusta decir que la fase geométrica, más conocida ahora como fase de Berry, es un fenómeno privativo de la mecánica cuántica, cuando de hecho es universal y se observa a todas las escalas y aun sobre la superficie del agua.

Por otra parte también se nos dice que este controvertido fenómeno de la fase geométrica no cambia en absoluto la infalibilidad de la mecánica cuántica, cuando es un hecho que no cabe en el acostumbrado espacio de Hilbert y sólo se incorpora a las descripciones tras añadir un haz suplementario. Pero lo que esto significa, simplemente, es que no pertenece a la dinámica hamiltoniana que define a los sistemas conservativos, y esto es lo fundamental.

La fase geométrica, “cambio global sin cambio local”, es seguramente más conocida por el efecto Aharonov-Bohm, que nos muestra cómo una partícula cargada refleja el potencial incluso allí donde los campos eléctrico y magnético son cero. Sabido es que esto produjo un gran desconcierto en los años sesenta del pasado siglo pero con el tiempo se ha hecho patente, tanto por las ecuaciones como por los experimentos, que el fenómeno tiene un origen puramente clásico, presentándose en el efecto de inducción de Faraday; es muy raro que esto se admita, lo que ya da en qué pensar.

Las múltiples manifestaciones de la fase geométrica siguen siendo una cuestión abierta pero los físicos evitan su interpretación. Que es algo más que geometría es evidente, pues en mecánica cuántica la geometría es lo de menos, y aquí de lo que hablamos es de un efecto perfectamente mensurable y robusto, aunque inexplicado. Normalmente, la parte que a la fase geométrica le corresponde de la fase global es menor que la que se asigna a la “fase dinámica”.

Hace más de diez años Pinheiro propuso “una cuarta ley del movimiento” que rectificaría “la segunda ley” para fenómenos transitorios. Trataba de generalizar la inducción de Faraday más allá del campo electromagnético, para la retroacción del vacío con respecto a los sistemas mecánicos en general. El efecto lo puede verificar rápidamente cualquiera incluso con un simple giroscopio de anillo. Según el propio autor, esta cuarta ley coincidiría con la fase geométrica.

Más recientemente el mismo Pinheiro ha propuesto una reformulación de la mecánica y la electrodinámica mediante un nuevo principio variacional y un balance entre el cambio mínimo de energía y la producción máxima de entropía. Los sistemas así descritos permiten la existencia de energía termodinámica libre y la conversión de momento angular en momento lineal con un componente de torsión que siempre cabe interpretar como un cambio de densidad.

Esta reformulación tiene gran interés, porque además de reemplazar el lagrangiano integra la mecánica y la termodinámica; y aún sería más interesante si pudiéramos saber cómo se conecta esta mecánica con la fase geométrica y la citada “cuarta ley”. Un indicio de ello está en la explicación que da Pinheiro del célebre experimento del cubo de agua de Newton, que es diferente de todas las posturas tradicionales. “Lo que importa es el transporte de momento angular (que impone un equilibrio entre la fuerza centrífuga empujando el fluido hacia fuera) contrapesado por la presión del fluido”. Está claro que hay una causalidad mecánica, y no puede tratarse ni del espacio absoluto de Newton ni de las estrellas lejanas de Mach, puesto que al agua le lleva tiempo adquirir su concavidad y la fricción ha de estar por medio.

Sin embargo algo tan evidente no ha sido considerado nunca por los físicos, por la simple razón de que la termodinámica queda subordinada de antemano a la mecánica llamada fundamental. En realidad, y como ya hemos dicho repetidas veces, es mucho más interesante ver cómo emerge la mecánica reversible de lo irreversible que pretender contra toda evidencia lo contrario.

Por otra parte la interpretación de Boltzmann de la entropía como desorden, que todavía tiene tanto peso aun con su patente subjetividad, sólo consigue distorsionar nuestra percepción de la termodinámica. El principio original de máxima entropía de Clausius ya supone una tendencia hacia el orden, pues como dijo Swenson, “el mundo está en el asunto de la producción de orden, incluida la producción de seres vivos y su capacidad de percepción y acción, pues el orden produce entropía más rápido que el desorden”.

Comprender que “el desorden” de fondo ya está incluido en el orden apreciable, en las órbitas de los átomos y sus fuerzas que responden a “leyes”, en lugar de ser un subproducto de su interacción, invierte limpiamente nuestra concepción sesgada tanto de las leyes como del fondo del que emergen, así como los nuevos prejuicios, tan antropocéntricos o más que los que los precedieron, que la física ha introducido con respecto a la idea de finalidad.

Por otro lado, lo que podría ocultarnos el desplazamiento de fase en el fenómeno de la fase geométrica es el mismo desplazamiento interno de los términos en los principios de movimiento. Se admite que la inclusión de esta fase dentro de la electrodinámica implica al conjunto de la teoría electromagnética, es decir, a lo que ahora llamamos las cuatro ecuaciones de Maxwell. En este sentido puramente global, la fase geométrica sería “la quinta ecuación”.

Pues bien, en buena lógica lo mismo ha de aplicarse a los principios del movimiento. Más que una “cuarta ley”, como la llama tentativamente Pinheiro, puede hablarse de un cuarto principio que no es tal. Que es puramente interno, pero que, si arroja resultados que no eran previsibles, es sólo porque aquí no estamos hablando de un sistema clausurado, tal como el tercer principio estipula. No hay sistemas cerrados en la Naturaleza, ni en mecánica ni en termodinámica; sólo hay sistemas cerrados por la convención misma que faculta a las leyes.

Así pues, lo más probable es que buena parte de las numerosas anomalías de la mecánica, que por necesidad legal hay que atribuir a la fricción o los errores de observación, respondan a este principio cero de la dinámica que nos dice que no existen sistemas cerrados y que eso tiene consecuencias. La fase geométrica, que no deja de ser un suplemento añadido a la mecánica, nos garantiza que algunos de estos efectos pueden reproducirse sistemáticamente una y otra vez. Se dice de este aspecto que es “independiente del tiempo” pero también el principio de acción y reacción lo es, además de una sección indefinida del principio de inercia.

Por lo demás este “principio cero” comporta algo absolutamente evidente y sin embargo muy difícil de asumir: que los otros tres principios no son independientes, sino interdependientes. Es decir, si las fuerzas no están bajo control no se puede precisar por medio de qué principio falla el balance de cuentas, si en una inercia o masa variables, en las propias fuerzas, o en la reacción; y aun si se trata de fuerzas controlables sigue habiendo espacio para la ambigüedad entre el primer y el tercer principio. Si se supone que las masas permanecen constantes, es sobre todo para intentar conjurar esta ambigüedad; pero apelando a las definiciones antes que a lo experimental.

En una dinámica como la de Weber o Noskov es imposible que existan singularidades y cantidades infinitas, puesto que el principio de autorregulación que comporta disminuye la fuerza cuando aumenta la velocidad. Uno no debería tener que afirmar que lo infinito no existe en la Naturaleza, y sólo una identificación a ultranza con la teoría empuja a la física a especular con matemáticas que burlan cualquier comprobación.

Esta autorregulación del principio cero que el Sincronizador Global esconde lo asemeja a un bucle o nudo corredizo, y puesto que su deslizamiento impide precisamente la posibilidad de cantidades infinitas, no habría símbolo más adecuado para representarlo que el mismo que Wallis dio al infinito (∞), con un punto encima tal vez. Puesto que el símbolo de Wallis data de 1655 y precede de forma inmediata al cálculo infinitesimal y los principios de la mecánica, su adopción sería oportuna, especialmente si queremos prescindir del infinito en el cálculo. Y es el fondo ilimitado el que asiste para crear un bucle temporalmente cerrado.

La fase geométrica está íntimamente asociada con la interferencia y el giro o torsión del propio patrón de interferencia. Y ya que hemos hablado de la biomecánica en primera persona, también es oportuno apuntar que este fenómeno de inducción puede experimentarse regularmente en ejercicios elementales de giro alterno del cuerpo con tan solo soltarlo, incluso si se hacen muy lentamente. Se trata de una inducción puramente mecánica, no electromagnética, aunque la analogía es bastante apropiada. Es evidente que nuestro cuerpo opera según las leyes biomecánicas, como también es evidente que es un sistema abierto en intercambio con su ambiente.

Por supuesto, expresiones de la fase geométrica están perfectamente documentadas en diversos casos de locomoción animal, como en gatos, serpientes o la propulsión en fluidos de las amebas; y la robótica y la teoría del control también conocen bien el tema. No deja de ser curioso que creamos en los infinitos de las más extremas teorías y seamos incapaces de reconocer algo que podemos generar tranquilamente en nuestro propio cuerpo.

Hay muchos tipos de fase geométrica que afectan a otros tantos tipos de procesos diferentes, por lo que también las causas, en caso de que se buscaran, podrían diferir. Está claro que la única opinión consensuada es que no se trata de una “fuerza dinámica”, una de las fuerzas de interacción conocidas, pero eso no es decir mucho porque desde el comienzo la diferencia en la acción se asigna al potencial, se sigue suponiendo la pasividad del vacío y el valor constante de las cantidades asociadas a los principios correspondientes. Si la física interroga a la Naturaleza a través de las fuerzas, tendríamos que poder interrogar a los tres principios a través de la fase geométrica. Esto nos daría una concepción diferente sobre qué es lo fundamental.

Como ya notaba Poincaré, en las ecuaciones de Weber no es posible distinguir entre la energía cinética, la potencial y la interna de los propios cuerpos. Pero por otra parte la energía nunca ha sido más que un balance contable, y esto no les impide hacer prácticamente los mismos cálculos y predicciones que las ecuaciones de Maxwell. De hecho, como ya hemos visto, permite otros muchos cálculos que por definición le están vedados a las dos teorías de la relatividad con su incompatibilidad esencial.

La posición de Poincaré sobre el carácter irremediablemente convencional de nuestras teorías no puede ser superada, sino, como mucho, ignorada. Y es que Ley y Convención son lo mismo, algo en lo que Peirce no deja de insistir a propósito de la terceridad. La diferencia entre un signo ordinario en primer grado y un símbolo en tercer grado es que la correspondencia con su objeto es mera ficción en el primer caso y en cambio en el símbolo con estatus legal se funda o se justifica en su propia naturaleza. Para verlo claramente hay que estar a la vez dentro y fuera de la convención, que es lo que presupone nuestro “cuarto principio”, o si se prefiere, nuestros tres principios y medio.

4. Máquinas, antimáquinas, no-máquinas y cuerpos

Por qué nos interesan las máquinas

¿Por qué hoy existe mucho más interés en las máquinas que en la ciencia? De hecho, salvo si se logra una perspectiva realmente desacostumbrada del proceso científico, las cuestiones de ciencia y epistemología han dejado de interesar, por no decir que aburren mortalmente. Incluso a los especialistas aburren, no digamos al resto. Probablemente tenga mucho que ver que las ciencias se mueven ya a tal nivel de especialización que dejan de tener interés general, y el lego no deja de percibir que las rendiciones de la divulgación sólo permiten simplificaciones ilusorias.

Se percibe, incluso sin quererlo, que en la ciencia de hoy todo es absolutamente instrumental, y para eso es mejor ir directamente a las máquinas, que ya son la prueba más concreta de esa instrumentalidad. Y no sólo prueba, sino demostración en movimiento; una demostración que habla y responde con tan solo usarlas. Si al menos en ciencia estuviera permitido plantearse cosas nuevas al nivel más básico; pero es que lo que hoy se ve como más fundamental resulta lo más esotérico de todo, así como el más elaborado.

Por eso es oportuno plantear otro concepto radicalmente diferente y aun opuesto de qué es la ciencia fundamental, que tiene que pasar necesariamente por los principios. Esto vale tanto para la matemática como la física, y al estar en juego una “transición de fase” para la inferencia en general, cabe suponer que para el conjunto de las ciencias. Y, seguramente, para nuestra concepción de las máquinas o aparatos y su problemática relación con la Naturaleza.

Si las máquinas desplazan el hueco de diferencia, que las teorías circulan siempre en dirección a una abstracción creciente, en el sentido contrario de la concreción, se supone que el hombre ha de ubicarse en ese hueco por la interacción —con la máquina y con el medio. El “medio” es el entorno, pero este entorno, ya sea natural o social en un número incontable y siempre creciente de grados, aquí se convierte en objeto.

Tanto la religión como la ciencia aspiran a la totalidad mientras que a la vez se mueven dentro de ella, o más bien, de una totalidad peculiar; la primera lo hace en el plano de la subjetividad y la segunda en el de la objetividad, pero esta totalidad objetiva se retira constantemente y aun los expertos tienen gran dificultad en ubicarse en su seno. Por el contrario, a través de lo técnico todo lo que es asimilable de la ciencia se vuelca en lo particular, de modo tal que lo subjetivo se inserta en lo objetivo. Esta sería la “participación mística” del usuario dentro de un proceso tecnocientífico inabarcable.

Sin embargo el tipo de máquinas y aparatos de los que vamos a hablar aquí ponen en juego una totalidad por derecho propio, porque ya desde el principio apelan a otra disposición de la mecánica y la dinámica. Implican a menudo fases geométricas, que preferimos llamar holonomías en vez de anholonomía porque la segunda expresión se deriva de su no integrabilidad en el cálculo mientras que su carácter global puede apreciarse a simple vista. Por lo demás, es la propia terminología de la mecánica cuántica la que ha abusado de la vaguedad del término “no-local”, cuando lo que muestran los experimentos, tanto a nivel clásico como cuántico, es que estas holonomías se inscriben siempre dentro de una definida configuración global, sin perjuicio de que ello implique interacciones no especificadas con el medio.

Cada vez se hará más claro que el término “fase geométrica” se aplica sólo a la envolvente de un proceso dinámico, sea o no problemático. En tal sentido lo apropiado sería hablar más bien de la fase global, que incluye a la “fase geométrica” y la “fase dinámica”, aunque no necesariamente como suma. Puesto que en los casos más importantes se deriva la fuerza del potencial, pero se pretende que es al contrario, no queda sino decir que no tiene nada que ver con las “fuerzas dinámicas”; incluso si hoy se admite que la fuerza tampoco es lo fundamental. En cualquier caso, la “geometría” de la que habla la fase geométrica es la geometría del ambiente que atraviesa el transporte paralelo, excluida de antemano por el marco conservativo de la mecánica.

El hombre ha creado todo tipo de máquinas no sólo para delegar actividades o facilitarse la vida, sino también para poner a prueba los límites, tanto de lo humano como de la Naturaleza. Por tanto hay aquí mucho más espacio para la especulación y aun para el puro placer de especular, algo que no puede existir cuando es la misma teoría la que obliga a ello, y cuando no hay luego forma de someterlo a concretización.

Sin embargo sabemos positivamente, por una larga experiencia histórica que se reproduce todos los días, que los propios científicos experimentales y los técnicos delegan en los teóricos a la hora de dar la descripción e interpretación definitiva de los hechos. Los teóricos no llegan a predecir ni la mitad de efectos reproducibles y a menudo los declaran imposibles de antemano, pero al final son ellos y no los ingenieros los que nos dicen por qué ha funcionado todo. Los experimentadores están superando continuamente los límites de las teorías pero los teóricos se encargan de redirigirlo todo a la deseada normalidad, así sea con las mayores distorsiones, creación de sospechosas palabras, entidades o pseudo-partículas; y es que la Ley es la Ley, y el estándar, el estándar.

En ciencia se habla de artefactos experimentales para atribuir resultados no asimilables a errores en la técnica o el manejo de los aparatos; pero ante la tergiversación y reorganización masiva y sistemática de los datos en la interpretación de los experimentos sólo cabe hablar de auténticos artefactos teóricos.

Ya lo hemos dicho en otra parte: “Los ingenieros no saben por qué el cálculo funciona, pero esperan que los físicos lo sepan. Los físicos no saben por qué el cálculo funciona, pero esperan que los matemáticos lo sepan. Los matemáticos no saben por qué el cálculo funciona, pero esperan que nadie lo sepa”. Si esto ocurre ya con el cálculo elemental, puede imaginarse lo que sucede con la interpretación de fenómenos tan complicados como los del laboratorio moderno.

La fenomenología de la física experimental de hoy es tan variada que no pretendemos ofrecer una perspectiva de conjunto; pero el tipo de reducción teórica, a nivel lógico, ya está perfectamente sintetizada en el arbitraje e interpretación de los tres principios, y su extensión a otras leyes de conservación, con respecto a lo que puede estar fuera de ellos.

Las instancias a las que aludimos se prestan inevitablemente a controversias, pero al menos lo peor de las polémicas puede evitarse siempre que se comprenda que estamos hablando de distintos fines. Sabemos muy bien cuál es la orientación de la ciencia contemporánea; si los científicos que la sustentan saben cuál es la de este trabajo pueden ahorrarse muchas disputas. La predicción de la energía del vacío, por poner un ejemplo, es la mayor catástrofe teórica en los anales de la ciencia, una catástrofe de 120 órdenes de magnitud; por lo mismo, no tendría que resultar enojoso para nadie que se aduzca la interacción entre el vacío y la materia en condiciones ordinarias y a bajas energías; aparte de que el vacío por sí solo no existe ni puede existir salvo como mera palabra.

Una línea de avance general sin mover la base resulta imposible por definición. Sin duda los principios se vuelven más interesantes cuando se aborda su aplicación, que es lo mismo que explorar en detalle sus implicaciones.

La otra cara del tiempo

Existen muchas diferentes y más o menos vagas nociones del tiempo, pero en la física sólo hay básicamente una, que es la que instituye el Tercer Principio: la simultaneidad de acción y reacción. Del Tercer Principio se derivan también nuestras nociones de los sistemas cerrados y las sucesivas, más generales leyes de conservación. Esta simultaneidad de acción y reacción supone un Sincronizador Global y ni la relatividad especial y general, ni la mecánica cuántica dejan de encajar, con las debidas adaptaciones, en este esquema.

Por tanto el Sincronizador Global es el supuesto tácito más poderoso de la física moderna, el arcano organizador que termina por convertir cualquier acontecimiento natural en un ajuste de relojería. La cuestión, que ya hemos planteado antes, es qué se revela en la naturaleza cuando prescindimos de él. Y lo que la ley de Weber muestra, en el caso prototípico de las órbitas elípticas, es una realimentación que responde a un tiempo propio. El modelo newtoniano también lo contenía, sólo que sepultado en el fondo lógico de su inferencia.

Entonces, un sistema orbital tiene su tiempo interno propio, el de su configuración global; pero esta configuración global es ya un caso particular que emerge de un fondo o potencial, en contraposición al Sincronizador Global que impondría externamente las condiciones. Si esta interpretación ahora nos resulta un tanto forzada, igual se puede decir que es la física la que lo ha forzado todo para encajarlo en su preconcepción barroca del Gran Relojero y su relojería, la máxima perfección que cabía imaginar en esa época.

En esto vemos cómo el desarrollo técnico del reloj, en marcha firme desde el siglo XIV, ha determinado finalmente el método y la cosmovisión entera. El problema es que una vez que hemos metido el tiempo dentro del reloj, ya no acertamos a ver a qué otra cosa podría estar referido.

En realidad el vórtice en el cubo del famoso experimento de Newton es la más elocuente refutación del espacio y tiempo absolutos, y no deja de ser un reloj del tiempo interno del sistema. O un simple giroscopio de anillo con “autoinducción mecánica”. Estos y otros muchos sistemas, si no todos, tienen sus propias “agujas” que indican analógicamente un cierto tiempo propio. La cuestión es que para interpretar correctamente estos relojes naturales y su tiempo propio, que es uno con su principio formador, hay que hacer una interpretación más sutil de los tres principios —al mismo Weber le llevó un cuarto de siglo demostrar que su potencial retardado no violaba el principio de conservación de la energía para sistemas cíclicos.

Pero la cosa no termina ahí. Por el contrario, este bucle o nudo corredizo tendría que ser la puerta de entrada hacia el principio formativo general, del que emergen como un comentario las leyes predictivas. Puesto que el reloj ha sido la máquina que ha reducido a su condición al resto de la Naturaleza, parece que ahora nos toca diseñar nuevos relojes que no estén exclusivamente arbitrados desde fuera, hasta que un día lo inconcebible deje de serlo. Verum index sui et falsi: los tres principios clásicos como terna independiente no pueden decirnos qué es lo que queda fuera, la interdependencia de los tres principios sí.

Movimiento perpetuo

Es difícil juzgar hasta qué punto los innumerables intentos de fabricar móviles perpetuos a lo largo de la historia han contribuido al desarrollo y perfeccionamiento de la mecánica; y la propia evolución del reloj mantuvo durante siglos una conexión estrecha con toda esta constelación de tentativas. De forma nada paradójica, ha sido el mismo triunfo del sincronizador global y la clausura de los sistemas por el Tercer Principio lo que ha venido a convertirlo en un empeño proscrito. Pero en realidad las mismas órbitas de los cuerpos celestes según Newton son un tipo de móvil perpetuo, y por motivos elementales que su análisis no está en condiciones de considerar.

Debería rehabilitarse íntegramente el valor de esta empresa, pues aun si fuera una locura, no deja de ser la misma locura que nos inclina compulsivamente hacia las máquinas; mientras que, por otro lado, tiene un contacto íntimo con la otra cara del tiempo anterior a nuestros relojes y que evidentemente hemos olvidado. Y finalmente, porque existen, y no son objetos complicados, pero los expertos prefieren no tener que ocuparse de ellos. Aún encontraremos razones adicionales para que reciban el interés que merecen.

Puesto que, cuando no se trata de simple manía u obsesión, a lo que apuntan estas invenciones es a una “máquina” que no esté aislada de su ambiente; pero una máquina que no está separada de su entorno ya ni siquiera nos parece del todo una máquina, compartiendo un atributo fundamental de los seres vivientes.

Buen ejemplo de ello es el anillo osmótico de Lazarev, analizado en profundidad por Zhvirblis, que también tiene un puntual equivalente electrofísico; sin duda pueden crearse otros dispositivos parecidos con propósitos particulares. En su versión más simple, se trata de nada más que un tubo cerrado en forma de anillo rigurosamente aislado del entorno. El anillo sólo contiene un líquido que ocupa una parte de la capacidad del tubo y una membrana porosa o semipermeable. Si se espera el tiempo suficiente, el líquido da la vuelta completa por sí solo en estrictas condiciones isotérmicas. Las variantes eléctricas permiten ciclos mucho más rápidos y un aporte proporcionalmente mayor de información.

Si el anillo de Lazarev no tiene más literatura disponible que la que aporta Zhvirblis es porque nadie ha sido capaz de desmentir el fenómeno. No vamos a discutirlo ahora, pues es evidente que la única explicación es la imposibilidad de conseguir en la práctica sistemas cerrados, precisamente el supuesto básico de la termodinámica. La misma mecánica cuántica parte de postulados ilegales, que equivalen a la existencia de fuerzas estacionarias en sistemas finitos aislados.

El sistema biestable del anillo osmótico es mucho más que una curiosidad puesto que nos muestra un comportamiento reversible partiendo de un fondo termodinámico irreversible: y tenemos todos los motivos para pensar que ese es el caso general de la Naturaleza en todo lugar donde se aprecia la apariencia de reversibilidad. Lo reversible es un subproducto de una dinámica irreversible, en vez de lo contrario; lo que habría que averiguar es qué condiciones hacen eso posible.

Este tipo de dispositivos, así como los de naturaleza electromagnética, también revelan signaturas de “no-localidad”, en realidad configuraciones globales por definir que sólo cabe considerar como una fase geométrica —si es que queremos llamar “desplazamiento de fase” al completo y cíclico desplazamiento del líquido.

La física newtoniana y la termodinámica parecían haber metido al mundo en una cámara de descompresión; pero cuando queremos llevarlo a la práctica, con objetos reales y con estructura, resulta que sus principios no se mantienen. En los “relojes inerciales” previos al sincronizador global, tenemos una reacción definida ante fuerzas aplicadas, pero aquí no hay fuerzas controlables de ningún tipo y aún seguimos teniendo movimiento: lo que afecta simultánea y sucesivamente a los tres principios de inercia, fuerza y acción/reacción. Se trata de la aproximación opuesta y complementaria para estudiar lo mismo, desde fuera y desde dentro; por si hubiera alguna duda.

El experimento es inapelable porque es absolutamente no perturbativo y sería absurdo atribuir el movimiento efectivo a la fricción, como se hace tan a menudo ante la presencia de anomalías. Es obvio que la circulación se puede transformar en trabajo útil, lo que sólo es concebible por el aprovechamiento de energía libre termodinámica, que hay que atribuir al vacío. Por tanto la termodinámica nunca ha proscrito esta posibilidad, sino que sólo se ha clausurado a sí misma, especialmente desde su reformulación como mecánica estadística.

La visión ordinaria de la física desde Demócrito es la de átomos o cuerpos atravesando el vacío; el anillo de Lazarev es la prueba y la demostración del vacío atravesando los cuerpos, de principio a fin, en lo irreversible y en lo reversible. También podría suministrar un ejemplo de triple tiempo, lineal horizontal, cíclico, y vertical con desplazamiento de su base.

Sistemas abiertos por definición como el anillo de Lazarev remiten inevitablemente a las influencias exteriores, incluidas las influencias cosmofísicas. La escuela de Shnoll ha demostrado durante muchas décadas “la ocurrencia de estados discretos durante fluctuaciones en procesos macroscópicos” del tipo más variado, desde reacciones enzimáticas y biológicas hasta la desintegración radiactiva, con periodos de 24 horas, 27 y 365 días, que obviamente responden a un familiar “patrón astronómico y cosmofísico”.

De modo que tampoco la desintegración radiactiva es tan aleatoria como parece, aunque tales regularidades son cribadas y descontadas rutinariamente como “no significativas”. Esto nos hace pensar en la función zeta de Riemann, asociada tanto a las fluctuaciones en los niveles de energía del vacío como a órbitas periódicas, así como al llamado “caos cuántico”, cuya relación con el caos determinista clásico sigue siendo nebulosa.

Como aspecto crítico de la interacción electromagnética, la fase geométrica se estudia también exhaustivamente en el promocionado campo de la “computación cuántica”. Matemáticos y físicos por igual llevan mucho tiempo a la caza de algún sistema especial basado en los electrones que reproduzca el comportamiento de la función zeta. Como ya hemos comentado en otras ocasiones, hay motivos para pensar que habría que partir de la condición natural, y menos restringida, de sistemas abiertos e irreversibles como los que ahora nos ocupan.

B. Binder ya mostró en su día que la función zeta da un punto fijo al atractor fractal de una fase geométrica recurrente en el espacio-tiempo curvo relativista, pero ello ha de ser posible también en el espacio ordinario. Lo importante es la retroacción y retroacoplamiento de la señal del sensor, que puede ser un giroscopio o una partícula como un electrón, el giroscopio natural perfecto. Estos sensores pueden asociarse y servir para contrastar otros muy simples sensores propuestos para registrar la deriva del éter en el clima espacial extraatmosférico —y extrarelativista- con el que conjetura Patrick Cornille.

Lo más notable es que mientras la computación cuántica busca explotar estas propiedades para meterlas dentro del Gran Reloj, no siendo la propia computación sino la última consecuencia del sincronizador global, aquí se trata de devolverlas a su ámbito original. Una vez más, parece que lo que no es controlable no interesa, pero no es imposible que nuestros “tres principios y medio” apunten directamente a la línea crítica de la función zeta.

Vuelo e interfaz

El vuelo aéreo se ha convertido hasta tal punto en algo rutinario que pocos se atreverían a sospechar que ni siquiera tenemos una teoría de la aerosustentación sostenible. El ala de un avión es sólo un elemento de una máquina, pero su interacción con el aire lo convierte en una interfaz, el límite de una dinámica sumamente compleja. El estudio de interfaces es cada vez más importante, y por eso se debería conceder la máxima atención a las interfaces mecánicas de apariencia más simple, pues contienen ya la esencia de cualquier interfaz más compleja. Este tercer aspecto nos acerca más a las funciones de lo viviente.

Según un dicho conocido, atribuido generalmente a Sikorsky, ““el abejorro, según los cálculos de nuestros ingenieros, no puede volar en absoluto, pero el abejorro no lo sabe y vuela.” Ni que decir tiene que la aerodinámica se ha tomado en serio esta provocación, pero no ha salido mejor parada que la termodinámica con el koltsar de Lazarev. En principio, sí, se han urdido, después de tantos años, tentativas de desmentir “el mito del abejorro” que se querían definitivas, tan sólo para que unos años después aparezcan otras explicaciones no menos definitivas sólo que con los mecanismos contrarios. Lo único claro es que no hay nada claro.

La aerodinámica no es una ciencia exacta y todos esperamos que haya menos dudas respecto al vuelo de un avión, aunque tampoco eso está garantizado. Afortunadamente, los ingenieros trabajan con grandes márgenes de seguridad y apoyándose en la experiencia más que en las teorías. Hablábamos antes de la cámara de descompresión que supone nuestra mecánica. Lo que seguramente ignoran los esforzados especialistas en aerodinámica de estos intentos de explicación más recientes es que Juan Rius Camps había realizado estudios sobre el vuelo del abejorro desde 1976 hasta 2008 en los que el insecto vuela normalmente durante uno o dos minutos… en una cámara de descompresión a 13 milibares, es decir, con sólo 1,3% de la densidad atmosférica habitual. Si se mantuvo ese resto fue porque sin un mínimo de vapor de agua el abejorro “hierve” rápidamente por descompresión.

Si para la justificación del vuelo ordinario del abejorro no han alcanzado penosos e innumerables cálculos y descomunales simulaciones por ordenador, en este caso habría que dar cuenta de un efecto de sustentación 80 veces mayor. Esto se halla totalmente fuera del alcance de cualquier teoría, lo que invita a ignorarlo igual que el anillo de Lazarev.

De hecho, esto es propulsión sin reacción a todos los efectos. Rius propone una nueva dinámica irreversible, que es igual que la clásica siempre que “el sistema se comporte como si estuviera inercialmente aislado”. Muestra varias máquinas muy simples que evidencian creación y destrucción de momento angular. Pero, dejando aparte las cuestiones de giro e impulso sobre las que vuelven los investigadores de nuevas formas de propulsión —y esta es también la motivación original de Pinheiro-, Rius está identificando fuerzas que no sólo dependen de la aceleración, como las newtonianas, sino también de la velocidad como las de Gauss y Weber. Muestra además el isomorfismo de su dinámica para excepciones como la inducción unipolar de Faraday o la precesión anómala del giróscopo.

Sin duda este del abejorro es uno de los más concretos desafíos para los actuales constructores de máquinas y micromáquinas, y tendría que ser bastante más interesante que viajar a Marte; pero hasta ahora nadie ha querido aceptar el reto, ni de explicarlo, ni de replicarlo.

Es una pena que no se haya querido explicar el vuelo del abejorro por medio de nuestra fase famosa. Y de este modo, si algún día vemos bandadas de cerdos volando con las orejas en una campana al vacío del tamaño de una ciudad, sólo habrá que decir: “¡Tranquilos, es sólo la fase geométrica!”

Es evidente que en un caso como el del abejorro tratamos con un sistema no conservativo, incluso con descompresión; pero todos los seres vivientes lo son, y sería absurdo describirlos como sistemas cerrados. A pesar de todo, se los aborda con la perspectiva de la mecánica clásica más una serie de balances de intercambio añadidos —de forma apenas diferente a cómo la física asimila procesos anómalos añadiendo a la parte conservativa una “fase geométrica”.

Se trata de una asimilación muy tosca que ignora los aspectos más esenciales de lo vivo y pasa por encima de sus transformaciones internas, transformaciones que también tienen su expresión física inherente y no son ajenas ni a la lógica, ni a la medida, ni al cálculo. Y estas transformaciones apuntan a una dimensión oculta en la transmisión mecánica entre distintos cuerpos o interfaces.

La física desde el cuerpo

Antes de dedicarse a la física y la electrodinámica, W. Weber realizó con su hermano Ernst los primeros estudios detallados de la física e hidrodinámica de la circulación en los vasos sanguíneos y la evolución de las ondas en experimentos con tubos elásticos. Por otra parte, la teoría de Faraday y Maxwell y sus nociones del campo partían de modelos de flujo dentro de tubos como superficies limitantes; se trataba básicamente de una teoría de circulación y corrientes, y una teoría global, puesto que procedía canónicamente del todo a las partes. Las formulaciones posteriores de las ecuaciones de Maxwell han dejado de reflejar este notorio carácter global.

Incluso la primera formulación de la primera ley de la termodinámica, la conservación de la energía, surgió directamente de los estudios de la fisiología de la sangre de Mayer. Después de esta gran proximidad entre la física y la fisiología, la medicina, la biofísica o la biomecánica no han acertado a ahondar en estos aspectos globales o “holísticos” que la física y sus medidas brindaban; pero esto no puede sorprender cuando es la física la primera en no valorar debidamente tales aspectos.

Partir de los aspectos globales de la física hace mucho más viable una conexión genuina y con sentido entre lo cualitativo y lo cuantitativo. Antiguamente los médicos eran capaces de sondear profundamente el estado del organismo sin más que tomarle el pulso a una persona. La semiología del pulso era un saber de gran sutileza, y de hecho, es de la semiología médica que tomó su nombre la semiótica. Hoy se considera que estas antiguas semiologías tienen una base demasiado subjetiva para ser compatibles con la biomedicina moderna, sin embargo, por encima de las convenciones, la Naturaleza permanece igual a sí misma y todavía hay en algo tan “simple” como el pulso claves por descubrir para la física, la endofísica, la semiótica y la medicina.

Después de todo las ecuaciones de Maxwell son un caso particular de las ecuaciones de Euler para fluidos, y el estudio mecánico del pulso se sigue derivando de la llamada ley de Ohm (V = R · I) que nos dice que la diferencia de potencial es igual a la intensidad por la resistencia. Los detalles más complejos de la onda del pulso también se derivan de ecuaciones muy bien conocidas pero de eso ya hemos hablado en otro lugar. Lo interesante es que tampoco aquí estamos ante un sistema conservativo, sino abierto, y la influencia de la respiración en el tono global del pulso es esencial.

Consideremos, por ejemplo, la pulsología ayurvédica, que es ternaria y una mera adaptación a la fisiología de las tres grandes modalidades del samkya indio. Las tres cualidades básicas, Tamas, Rajas y Satwa, y sus formas reactivas en el organismo, Kapha, Pitta y Vata se corresponden muy bien con la masa o cantidad de inercia, la fuerza o energía, y el equilibrio dinámico a través del movimiento (o pasividad, actividad y equilibrio). Pero es evidente que en este caso hablamos de cualidades y el sistema al que se aplica ha de considerarse abierto.

Aquí la tercera ley de la mecánica ha de dejar paso a la conservación del momento y admite implícitamente un grado variable de interacción con el medio. En armonía con esto, el Ayurveda considera que Vata es el principio-guía de los tres ya que tiene relativa autonomía para moverse por sí solo además de mover a los otros dos. Vata define la sensibilidad del sistema en relación con el ambiente, su grado de permeabilidad o por el contrario embotamiento con respecto a él. Es decir, el estado de Vata es por sí mismo un índice del grado en que el sistema es efectivamente abierto o cerrado.

En el cuerpo humano la forma más explícita y continua de interacción con el medio es la respiración, y por lo tanto está en el orden de las cosas que Vata gobierne esta función de forma más directa. Aunque los doshas son modos o cualidades, en el pulso encuentran su fiel traducción en términos de valores dinámicos y de la mecánica del continuo —siempre que nos conformemos con grados de precisión modestos, pero seguramente suficientes para darnos una idea cualitativa de la dinámica y sus patrones básicos.

Los otros dos modos son lo que mueve y lo que es movido, pero la articulación y coexistencia de los tres puede entenderse de formas muy diferentes: desde una manera puramente mecánica a otra más específicamente semiótica. Posiblemente también aquí tiene algún grado de vigencia la condición de indistinción o ambigüedad entre la energía cinética, la potencial y la interna que ya hemos notado en la electrodinámica de Weber.

La ley de Weber es conservativa simplemente porque se aplica a procesos cíclicos que se conservan, igual que se conservan las órbitas; lo que en absoluto excluye que esas órbitas sean el proceso mismo de cierre de una interacción en un medio abierto, del mismo modo que la respiración cierra ciclos en lo abierto. Podemos intentar hacer analogías exactas, recordando siempre que tampoco los lagrangianos que dominan la física son más que analogías exactas. Y podemos intentar aplicar aquí la idea del potencial retardado y las ondas longitudinales de Noskov, teniendo en cuenta que él fue el primero en proponer su lugar en el feedback más elemental y su universalidad; de hecho, tal vez no haya mejor forma de ilustrar estas ondas, y su correlación con ciertas proporciones en un sistema mecánico completo, que el propio sistema circulatorio.

Dado que, en buena medida, se puede considerar la elasticidad de la onda refleja como un potencial retardado de Weber-Noskov dependiente de la distancia, fuerza y velocidad de fase, y comprobar si esto procura un acoplamiento o unas condiciones de resonancia que, incidentalmente, tendieran a cierta proporción continua y discreta de la que ya hemos tratado. El miocardio es un músculo autoexcitable pero a ello también concurre el retorno de la onda refleja, así que tenemos un hermoso ejemplo de circuito de transformaciones tensión-presión-deformación que se realimentan y que no difieren en lo esencial de las transformaciones gauge de la física moderna, en los que también hay un implícito mecanismo de realimentación.

Esta sería una instancia perfecta para explorar estas correlaciones como un proceso “en circuito cerrado”, aunque el sistema mantenga una apertura a través de la respiración, lo que no es contrario a nuestro planteamiento porque para nosotros todos los sistemas naturales son abiertos por definición. Permite tanto la simulación numérica como la aproximación por modelos físicos reales creados con tubos elásticos y “bombas” acopladas, de modo que puede abordarse de la forma más tangible y directa.

Conviene sin embargo revisar a fondo la idea de que el corazón es realmente una bomba, siendo como es una cinta muscular espiral, o que el movimiento de la sangre, que genera vórtices en los vasos y el corazón, se debe a la presión, cuando es la presión la que es un efecto del primero. En realidad este es un ejemplo magnífico de cómo puede darse una descripción estrictamente mecánica a la vez que se cuestiona radicalmente no sólo la forma sino el mismo contenido de la causalidad. El factor esencial de la presión creada no es el corazón, sino el componente abierto, en este caso, la respiración y la atmósfera. Y aunque es claro que se trata de casos muy diferentes, esto se haya en consonancia con nuestra idea de los campos gauge y de los procesos naturales en general.

Como no podía ser menos, también habría una memoria de fase en el ciclo respiratorio global que ha de tener relación con el inexplicado ciclo nasal bilateral, y que ya por sí solo nos recuerda a un sistema biestable. Aquí puede verse la fase geométrica como una torsión del ciclo respiratorio del mismo modo que puede verse la torsión como un cambio en la densidad del volumen de aire respirado. La forma más básica de describir esta fase es como la evolución de los parámetros de la onda en el entorno de un agujero o singularidad en la topología; lo que recuerda inevitablemente la concepción de la fisiología sutil del yoga con los dos conductos entrelazados en torno al canal central o Sushumna. En cualquier caso, en sistemas biológicos la fase geométrica es o tendría que ser una medida del grado de contorsión (forzada) del sistema con respecto a un estado fundamental no forzado.

Volviendo a la semiótica del pulso como ejemplar de la semiótica general, el principio de inercia es una posibilidad, el de fuerza un hecho bruto, la acción-reacción —un mismo acto visto desde dos caras- es una relación de mediación o continuidad. Podemos ponerlos en un mismo plano o ponerlos en planos diferentes, que constituyen una gradación ascendente o descendente, tal como en efecto son las modalidades del Samkya, Tam, Raj y Sat.

Siguiendo por este camino pronto se plantearían los típicos enigmas de la filosofía de la mente sobre la ubicación del significado, el fundamento del símbolo, o la propia conciencia. Sin querer entrar ahora en tales aporías, sólo queremos señalar, como no podía ser menos, su conexión elemental con los problemas eternos del movimiento, y, más específicamente, con las limitaciones de las leyes clásicas de la mecánica; lo que en absoluto simplifica estas cuestiones.

*

Habiendo planteado suficientemente que toda “ley natural” fundamental esconde un principio de autorregulación siempre más simple pero también más elusivo, podemos ver con otros ojos las distintas máquinas de biofeedback que se han desarrollado. No tanto por su alcance, ciertamente limitado, como por el principio mismo y la inflexión que supone en la historia y finalidad de las máquinas.

El desarrollo del biofeedback y el de la cibernética han coincidido en el tiempo y su marco conceptual es el mismo, divergiendo tan sólo en el propósito. La cibernética es la teoría del control y la estabilidad, pero en el biofeedback pretender ejercer el control sobre una señal biológica propia más bien tiende a perturbar y a desestabilizar la función. Por lo tanto, en la retroalimentación habría que hablar de sintonización con la señal en vez de su control, lo que nos sitúa en el otro lado de la cuestión.

La cibernética, en tanto teoría del control, tiene que ocuparse primariamente y por definición de fuerzas controlables; de ahí que en ella el uso de potenciales y lagrangianos sea mínimo. Esta sería una de las razones por las que Wiener y tantos otros especialistas nunca repararon que los campos gauge contienen un mecanismo básico de feedback. Por otra parte, si nos preguntamos qué señales son más pertinentes para estabilizar una función biológica inestable, de inmediato reparamos en que no pueden ser las que representan fuerzas bajo control directo, sino las que reproducen potenciales. No parece una cuestión de mero grado o matiz, sino de una disposición biológica esencial, y hay buenas razones para ello.

Puesto que todo el organismo, y el sistema nervioso y el cerebro sólo se hacen eco del principio general, se divide en un aparato receptor y otro efector, así como de nervios aferentes y eferentes. Se ve de inmediato dónde encajan la capacidad de sintonía neurovegetativa y los impulsos de control dentro de este hecho biológico. Y también se ve de inmediato dónde y cómo encajan las modalidades del samkya y los humores o principios reactivos de la fisiología ayurvédica dentro de este esquema de cosas; puesto que hay un momento pasivo, uno receptivo, y otro mediador.

El momento mediador, que siempre supone un grado de equilibrio, puede jugar un rol tanto descendente como ascendente en función de cómo se disponga con respecto a los otros dos. Tiene un rol descendente, tiende a cerrar el sistema, cuando se inclina del lado activo del control; tiene un rol ascendente, tiende a abrir el sistema y a crear espacio dentro de él, cuando deja de ejercer este control activo —puesto que lo activo fuerza a lo reactivo a su vez. Hay por tanto una escala ascendente y descendente, “una vía del Cielo” y “una vía de la Tierra”, por más que en todo momento se presuponga la interacción coordinada de los tres principios. No puede haber pasividad ni actividad pura, pero el mediador es por su propia naturaleza el modulador o gobernador del balance general.

Parece indudable que la cultura, el despliegue entero de nuestro universo virtual y simbólico, ha nacido de la respuesta diferida ante los estímulos, de ese hueco creciente entre lo activo y lo reactivo que crea el espacio para la reflexión. Pero haberlo llenado de símbolos y pensamientos nos impide percibir qué podría ser ese espacio por sí mismo, y es ahí donde la conciencia mediada puede encontrar su camino de retorno a la conciencia inmediata, que es la ubicación fundamental. Esto siempre estará más allá del “camino de la civilización”, pero es a lo que la civilización apuntaría si no tuviera esa poderosa tendencia a colapsar sobre sí misma, por buscar en sí misma todas las respuestas.

A pesar de todo, y precisamente porque la hipótesis cibernética tiene un gran punto ciego mientras las prácticas de control se internalizan y ejercen abusivamente a todos los niveles, nuestra propia naturaleza demanda un movimiento compensatorio. La vía de apertura y cierre de las que hablamos no son procesos abstractos en absoluto: los encarna de la forma más visible la evolución individual de un organismo en sus fases de crecimiento, madurez y envejecimiento. Pero estos aspectos, tan aparentes y exhaustivos, son sólo un índice ejemplar de procesos más amplios e inaprensibles.

Los dos aspecto de percepción y acción que coexisten simultáneamente se separan alternativamente en los estados de conciencia hacia adentro y hacia fuera del sueño y la vigilia. Ambos siguen estando unidos en todo momento en ese espacio vacío que sigue siendo el suelo que nos da la sensación de realidad, más que la interacción con los objetos: el sueño profundo es lo único que nunca duerme. La interacción misma sustituye a la intimidad y tiende a eclipsarla, en nuestra imaginación más bien, puesto que es imposible ocultarla.

La antigua triple división del mundo y el hombre en espíritu, alma y cuerpo sigue estando perfectamente vigente, entendida ahora como inteligencia, deseo-voluntad y cuerpo. Pero no vemos el bucle que hay entre los tres, como no apreciamos la simultaneidad y unidad de los tres estados de conciencia; y así queremos siempre más inteligencia, más deseo, más voluntad, más cuerpo, más futuro, más presente, más pasado, y más más.

5. Sensible e inteligible

Cerca del año mil, los Amigos de la Sinceridad añadieron a las tres hipóstasis de Plotino (Uno, Intelecto, Alma) una cuarta, la Materia Primera, de la que aún saldrían por descenso cinco grados más de esa Creación que sólo fuera del Uno podría parecer existir. Casi sin darse cuenta, la ciencia europea que empieza ya a insinuarse en el siglo XIV adopta, por gradual “desplazamiento de fase”, la terna Intelecto-Alma-Materia, alejándose cada vez más del Uno para acercarse a un Creador origen y garante de la Ley.

Al irse volcando sobre la materia, la ciencia intentaba eludir la cuarta hipótesis del Parménides sobre la alteridad negativa —qué es lo Otro respecto de sí mismo- mientras olvidaba de buena gana la primera, la unidad negativa que lo Uno es respecto de sí. Descolgamiento del que se seguiría nuestra vuelta a las otras cuatro hipótesis pluralistas que suponen que lo Uno no es, para que no quedara (casi) nada sin explorar. De estas cuatro restantes, dos son negativas y otras dos plantean una participación en el ser, ya del Uno, ya de las cosas a través de las apariencias.

Si dar cuenta de las apariencias acompaña siempre los primeros pasos de cualquier ciencia experimental, desde el momento en que esta se consolida en teoría la huida de estas mismas apariencias, convertidas ya en entes de razón, toma el mando. Para la física moderna, por ejemplo, no hay nada sensible, nada directamente observable que no sea de orden inferior. El positivista dice que no pretende conocer las causas de nada, pero sin embargo está convencido de que todo lo que ve es sólo un efecto producido por entidades teóricas mucho más elaboradas y estandarizadas, como fotones, fuerzas y átomos.

Antes de que eclosionase la ciencia moderna hubo un periodo de gestación no menos decisivo en que arte y técnica fueron de la mano para crear el marco del que luego las ciencias formales dispondrían. En el mismo siglo XIV se construyen los primeros relojes astronómicos al mismo tiempo que la perspectiva pictórica, aún muy tímidamente, intenta abrirse paso. Fue también en esta época que surgieron los primeros grandes avances europeos en cálculo y Oresme concibió las primeras coordenadas o dio la prueba de que la serie armónica diverge.

Las apariencias están en el arranque del proceso de idealización científica, y con su rechazo empieza la racionalización que gravita ya hacia la tumba. Si aún hay alguna esperanza de que el saber renazca en una nueva perspectiva y mentalidad, sólo podrá ser volviendo a tomar contacto directo con esas apariencias de las que ya nada quiere saber, sumergiéndose en esas aguas sobre las que suele soplar el Espíritu. Los fenómenos no son menos infinitos que las matemáticas; buscar la participación de lo sensible en lo inteligible también es favorecer su descenso sobre nosotros.

El plano estético permite que nuestro complejo mundo de representaciones retorne a lo inmediato de la primeridad, a la Naturaleza dentro y fuera de nosotros, reorientando también el flujo de la imaginación, el deseo y la voluntad. Y si tanto la religión como la Ley científica apuntan a lo universal abstracto, mientras que la técnica se aboca a lo concreto, el arte realiza su unión en lo estético como síntesis sobre síntesis, síntesis de la producción humana en intimidad con la síntesis que nos es dada por los sentidos.

La no-dualidad no puede coincidir con la ciencia en la medida en que ésta necesita objetos para existir; pero al final cualquier saber, o muere por muerte natural, o vuelve voluntariamente a las aguas primordiales para renovarse. En realidad, y en contra de lo que se cree, toda la física fundamental es global por naturaleza, no sólo la electrodinámica y las teorías de campos, sino la mecánica clásica entera desde Kepler y Newton; sólo que recircula las cosas a su manera y las subordina a unos fines particulares más reducidos, como sus codiciadas predicciones.

El plano estético es como la superficie de las aguas primordiales. No es casualidad que la ciencia moderna lo evite escrupulosamente para luego darnos gato por liebre; porque la astrofísica, por ejemplo, compone imágenes multicolores de galaxias invisibles y hasta de agujeros negros, pero no busca inspiración en los muy elocuentes enigmas que tenemos todos los días ante los ojos. Todas las ciencias hacen hoy lo mismo. Ya no pretenden dar razón de los fenómenos, pero los manipulan tanto como pueden para dar verosimilitud a elaboraciones cada vez más alejadas de la realidad.

*

La física misma, como modelo de las ciencias experimentales, existe simultáneamente en tres planos diferentes, como Nomos, como Physis, y como Aísthesis; como Ley abstracta, como devenir formativo y como apariencia sensible, aunque originalmente se plantearon en el orden contrario. Uno podría creer que se ha concentrado gradualmente en la Ley pero ni siquiera eso ha sido cierto; porque la trasparencia nomológica y las ecuaciones perfectas suponen puras relaciones entre cantidades homogéneas. La electrodinámica de Weber es de ese tipo, la de Maxwell-Lorentz no. Tampoco lo es la mecánica celeste de Newton o la relatividad general, que a la luz de las fórmulas de Gauss y Weber se evidencian como dos versiones diferentes de la gravitoestática, no de la gravitodinámica.

Sucede además que una formulación homogénea equivale a una pura fenomenología matemática, que pone en cierto contacto directo lo terciario y lo primario sin pasar por la noción de causas y procesos. Parece indudable que si tenemos que expresar las leyes con principios variacionales nunca podremos deducir causas unívocas para los fenómenos, pero incluso si renunciáramos a conocer los porqués, aún tenemos formas de calibrar el cuánto, el cómo y el qué.

Otro buen ejemplo de estas cuestiones nos lo brinda el campo no-unificado de Miles Mathis, que acertadamente parte de la idea de que no hay que “unificar” las fuerzas porque el lagrangiano de un sistema orbital de dos cuerpos ya lo contiene todo. Algo verdaderamente notable de esta teoría es que parece coincidir muy bien con la equivalencia óptica de los planetas, el hecho por todos conocido de que el tamaño aparente del Sol y de la Luna sea prácticamente el mismo, lo que se pone bien de manifiesto en los eclipses totales.

Una golondrina no hace primavera, pero esta muy aproximada equivalencia óptica no es un hecho aislado en nuestro sistema solar, pues también tiene lugar en otros planetas y sus satélites; desde la perspectiva del Sol un buen número de planetas tienen el mismo tamaño aparente, lo que guarda estrecha relación con la secuencia de distribución de Titus-Bode.

Esta múltiple y más que sorprendente coincidencia no requiere ningún tipo de ajuste teórico. Mathis también quiere ver una equivalencia óptica entre el tamaño relativo del “electrón” y el “protón” según la misma lógica de interacción en un campo de carga, pero eso ya supone otras asunciones, que por lo menos permiten explicar físicamente por qué los electrones no se precipitan en el núcleo.

Uno puede pensar lo que quiera de esta teoría, pero el hecho de que es “no-unificada”, y de que da en la diana de una coincidencia tan extraordinaria sin quererlo, son argumentos a su favor que la ponen en un tapete completamente distinto que los intentos de unificación ordinarios. Para el físico moderno la apariencia es desdeñable, pero, si no fuera porque es su trabajo, tendría que ser más importante que la teoría; hay infinitas teorías, pero aquí las apariencias, que también resultan infinitas, se juntan para darnos un solo calibre.

Si además una teoría como la de Mathis es tan proporcional como Arquímedes y logra semejantes coincidencias con medidas tan simples como distancia, volumen y densidad, aún hay muchos más motivos para prestarle atención. Y es tan comprensible que los especialistas deseen ignorarlo.

El “momento Mathis” del conocimiento y su disparo directo hacia la diana de las apariencias es más memorable que el de Newton y su apócrifa manzana, no importa cuánto tiempo lleve reconocerlo. Newton tuvo que recurrir a todo tipo de argucias y asunciones para justificar el problema la órbita de la Luna, pero ahora se cree de la forma más irreflexiva que se trata de cosa hecha y fácil además. Por el contrario Mathis ha traído una simplificación extrema pero es el aparato el que reclama que todo debe ser incomparablemente más complicado. Está claro que vivimos en tiempos diferentes.

Curiosamente, el campo “no unificado” de Mathis también actúa como un lazo corredizo entre el electromagnetismo y la gravedad; un lazo corredizo que es un factor de escala. Entre el gran número de argumentos cuantitativos que brinda, también arriesga otro punto de cruce para el valor de electromagnetismo y gravedad. Según la física establecida, estas dos fuerzas se igualarían entorno a los 10 nanómetros; dentro de los elementales cálculos de Mathis, el equilibrio ha de ocurrir bien dentro de lo visible, en torno a un milímetro o más —como un grano de arena-, lo que le sirve para explicar diversos fenómenos y ocurrencias naturales, como el ascenso de la savia en los árboles. Esto tendría que ser hoy verificable en una variedad innumerable de experimentos, si fuera posible plantear un criterio neutral y sin espacio libre para los potenciales.

*

Pero abandonemos el ámbito siempre enconado de las disputas teóricas. Después de todo, si planteamos la importancia del plano estético, es porque nos permite poner en suspensión la pregunta por lo verdadero con toda su cohorte de exigencias. La apariencia siempre está más acá de las leyes, es por eso que queremos que las leyes miren hacia ellas.

Espacio y tiempo, esos son los límites de cualquier cosmovisión, y dentro de ellos fingimos las múltiples ilusiones de la causalidad. En nuestra cultura fáustica ambos fueron enmarcados dentro de la perspectiva y el reloj. Las máquinas aún pueden decir cosas radicalmente nuevas sobre el tiempo, sus índices y medidas, pero aun así nos faltaría una aprensión estética de estas otras dimensiones de lo temporal. Tal vez en el futuro las formas musicales nos aproximen a ello.

El otro gran principio organizador, la perspectiva, se ha ido a la vez llenando y cerrando a través del espacio del cálculo o análisis, que nos ha creado la ilusión de describir el movimiento en su seno. Puesto que esto es evidentemente falso, tanto del punto de vista del análisis más elemental como del de la conflación estética de planos, la reconstrucción sintética del movimiento según el cálculo diferencial finito supondría un gran avance.

Si hay un movimiento natural digno de estudio, ese es el que describe una onda; una onda esférica cualquiera. Existe el notorio malentendido entre los físicos de que las ondas de luz o electromagnéticas son completamente distintas de las ondas de sonido, pero eso es confundir la estadística con la geometría. En cualquier caso, la luz según el conocido principio de propagación de Huygens ya nos muestra simultáneamente el movimiento más simple, en línea recta, y el más complejo, como una deformación continua en cada punto ocupado; de este modo una onda es ya un vórtice esférico que lo llena todo.

Y así, la representación de una “simple onda” ya convoca los problemas más importantes de tiempo y espacio, tanto para el análisis como para la síntesis. Y lo que no saben los legos, pero tampoco muchos especialistas, es que hay aún muchas cuestiones por plantear aun con la más simples de las ondas en tres dimensiones.

Además, la dualidad onda/partícula no deja de tener algo de esa distinción kantiana entre nóumeno y fenómeno, incluso si tratamos de devolverlo todo a la inmanencia; pero en realidad se trata de una relación más rica e interesante. Los físicos piensan preferentemente en partículas porque, para hablar en los términos de Hertz y Nicolae Mazilu, se busca una partícula indestructible como punto de apoyo para las fuerzas —aunque no se demande lo mismo en la mecánica celeste, por ejemplo. Esto sería la “partícula material” de Hertz, en contraste con el “punto material” que puede tener cualquier escala, como por ejemplo, una onda, y sólo pide que sus partes o partículas materiales estén conectadas entre sí. ¡Un punto material es un conjunto de partículas materiales!

De este modo la partícula, en la teoría actual, existe sobre todo por motivos instrumentales, mientras que la onda, por cuestiones de conocimiento; por otra parte los fenómenos típicos de las ondas, derivados de la interferencia, pueden apreciarse a simple vista, mientras que las fuerzas las inferimos de nuestra acción. Una partícula material puntual es obviamente una idealización que sólo tiene sentido para la aplicación de fuerzas; por otra parte ondas y potenciales se implican mutuamente. De este modo las ondas remiten a un plano mucho más “desinteresado” que el decididamente operativo de las partículas y fuerzas.

Toda la física está construida en torno al concepto general del marco de referencia, y hay todavía incontables aspectos que deben encontrar su ubicación dentro de dicho concepto. Un marco de referencia combina en uno solo los dos elementos primordiales: el reloj y el sistema de coordenadas. El reloj que regulariza nuestra percepción de un cuerpo físico en movimiento, y el sistema de coordenadas, que lo hace con muchos cuerpos. En este sentido, la problemática del marco de referencia se sitúa en el lugar del Yo (primeridad), la interacción experimental con el mundo, con el cálculo y la teoría y práctica de la medida, es la dimensión secundaria, y su regulación por leyes, con su origen en los tres principios de la mecánica, supone la dimensión terciaria de la Ley; conectándose necesariamente lo terciario y lo primario.

Se puede estudiar la Onda Primordial bajo dos perspectivas complementarias: como vórtice esférico universal en expansión, y como cambios de densidad correlativos dentro de un medio inicialmente homogéneo. Guenon ya tocó un caso y otro en obras diferentes, consagradas precisamente, una a la generalización metafísica de la idea de coordinadas, y la otra al fundamento del cálculo infinitesimal. Este autor no observa que lo que ambos casos tienen en común es la idea de torsión inherente a un vórtice, pues si en un medio originalmente homogéneo imaginamos la aparición de una porción más llena y otra más vacía, ambas no podrían surgir sin más sin una torsión o helicidad que las conecte —y esa torsión equivaldría a un cambio de densidad.

El principio de propagación de la luz de Huygens, que subyace a la mecánica cuántica, parte de la condición de la homogeneidad del espacio, mientras que la gravedad presupone un espacio heterogéneo con cuerpos de diferente densidad. En un sentido muy fundamental, concebir la unidad —que no la “unificación”— de ambas teorías pasaría por precisar la conexión entre los dos casos ideales que plantea Guenon.

Por supuesto, la física es mucho más compleja que la geometría y comporta aspectos esenciales que no son reducibles a extensión; pero también aquí están en cierto modo implicados, a través de la densidad, y el transporte paralelo de un vector —que nos da el ángulo de la fase geométrica. La torsión de un vector también nos permite generar partículas extensas a partir de un punto. Se ha usado la geometría del absoluto paralelismo o teleparalelismo de Cartan para reformular la relatividad general, pero sin duda tiene otros muchos motivos de interés.

Hoy se sabe que la misma relatividad general puede expresarse en el espacio plano según el criterio de Poincaré de describir la deformación aparente de la luz en vez de postular una deformación del espacio-tiempo; por no hablar de las fuerzas tipo Weber que muestran una continuidad natural entre la dinámica macro y microscópica y evitan la desconexión existente entre relatividad especial y general, sus excluyentes conservaciones local y global, y su uso igualmente excluyente de puntos materiales y campos no-puntuales.

Por otro lado, las ondas de la mecánica cuántica, hoy interpretadas estadísticamente, aún piden una interpretación más obvia y directa, tal como ya notó C.G. Darwin en 1927: ciertamente no se trata de ondas en el espacio ordinario, sino de ondas en el espacio de coordenadas que deberíamos saber transcribir al espacio ordinario. El teleparalelismo de Cartan apunta directamente a esa transformación de las coordenadas, pero el vector de torsión también puede hacerse equivalente con la onda interna al cuerpo extenso que describe la teoría de desplazamiento de fase de Weber-Noskov.

Desde nuestro punto de vista, el solo intento de representación y descripción de estos procesos ya tiene un alto valor, prototeórico, prototecnológico y protoestético, previo a su uso discrecional por la ciencia o cualquier otra finalidad; son grandes originadores para el razonamiento, la imaginación y la impresión. Ya hemos hablado de hasta qué punto la prevalencia de la predicción sobre la descripción desequilibra y desnaturaliza el entero proyecto científico, desconectándolo del resto de las actividades humanas; otra cosa es que, en contra de lo que se diga, el científico crea beneficiarse de ese aislamiento.

*

Incluso el mero hecho de tratar de representar el movimiento de una onda según el criterio del cálculo diferencial constante, en lugar del análisis estándar, que nunca deja de ser infinitesimal, tiene un interés especial. No olvidemos que el cálculo de Mathis demanda como mínimo una dimensión más, porque el espacio matemático en el que se resuelven los problemas no representan el espacio físico. Puesto que esto es evidente e irrefutable, deberíamos esforzarnos por representar ese espacio físico así como los movimientos naturales más elementales que pueden darse en él, como la onda o el vórtice. De otro modo, ¿qué clase de interés tenemos en la física o en la Naturaleza?

Y esto aún tiene más pertinencia si se considera que lo infinito y lo infinitesimal pueden tener su lugar, pero no precisamente donde ahora lo ubicamos. Desalojándolo del lugar que no le pertenece nos ayudará a encontrarle su lugar natural. De forma nada paradójica, cuando pasamos de una partícula puntual a una partícula extensa, ya estamos redescubriendo el infinito. En la definición de Guenon del equilibrio partiendo de un espacio homogéneo, las densidades son recíprocas y su producto es siempre la unidad, aunque las fuerzas asociadas a ellos puedan ser de signo contrario, atractivas o repulsivas. Se trata de evitar los puntos físicos con una fuerza cero puesto que el que no se midan fuerzas no significa que no existan —como nos muestra gráficamente el efecto Aharonov-Bohm y en realidad toda la teoría clásica del potencial.

Así que esta redefinición del equilibrio, aunque podría parecer inocua, también es físicamente relevante. La teoría de categorías superior podría recircular eternamente el álgebra del cero, el infinito y la unidad con sus nuevas distinciones de la igualdad y la equivalencia; pero es sólo cuando aplica esta circulación a los problemas más básicos del cálculo de diferencias finitas, que podría empezar a advertirse su relevancia, su carácter trascendental para la física, la matemática, y la disposición global de nuestro conocimiento.

Otro acercamiento a la Onda-Vórtice primordial y su conexión interna en el espacio y el tiempo nos lo da P. A. Venis, por el englobamiento dentro de la noción de vórtice de ciertos procesos sin rotación y el paso a unas coordenadas de dimensiones continuas, esto es, que pueden adoptar cualquier valor real entre la dimensión 0 del punto y la distancia o dimensión 1, y así sucesivamente. El proceso completo de aparición y desaparición de esta onda prototípica tiene lugar entre 0 y 6 dimensiones. Venis infiere estas dimensiones y su secuencia desde la pura lógica de la apariencia —lo que a nuestro juicio no le quita valor, sino más bien lo contrario-, y sería necesario estudiar dónde encajan desde el punto de vista de la construcción y el análisis matemático, además de físico.

En el Hipercontinuo de Venis las nociones proyectivas son esenciales, pero también está por especificar su relación con la geometría proyectiva propiamente dicha y sus aspectos más restringidos. Decir geometría proyectiva es decir geometría en general, y desde su ausencia de constricciones surgen, por restricciones graduales, la geometría afín o las geometrías con una métrica específica. Venis quiere incluir aquí desde el comienzo la luz y el electromagnetismo pero introduce otro tipo de consideraciones sobre las ondas electromagnéticas, como la presión, que resultan pertinentes.

Si la dualidad electromagnética puede desglosarse como materia separada por espacio para la electricidad, y espacio separado por materia para el magnetismo —algo que al nivel de las partículas sólo se haría literal dentro de una teoría que contemplara partículas extensas-, también puede tratarse como la relación entre un espacio ordinario y un contraespacio que sería el opuesto polar del espacio euclideo y que extendería su perspectiva hacia adentro. Sería necesario precisar estas relaciones aun si hasta ahora las ondas electromagnéticas han resistido todos los intentos de geometrización —no son perpendiculares en un sentido geométrico sino meramente estadístico, que promedia su propagación en el espacio vacío y la materia.

También en la secuencia de Venis se hace particularmente pertinente aplicar el doble criterio del análisis para apreciar las diferencias: el análisis estándar, que preferimos llamar infinitesimal porque sigue siéndolo, y el análisis diferencial finito o constante que supone la suma de al menos una dimensión más.

El infinito de Venis es en realidad el espacio primitivo homogéneo que no permite marcos de referencia, y del que tanto puede decirse que tiene infinitas dimensiones como que no tiene ninguna a semejanza de un punto. Puesto que ya vemos que un vector de torsión puede generar volúmenes, existen muchas formas de pasar desde un punto al espacio ordinario o dimensiones más altas.

Tanto un vórtice como la holonomía de la fase geométrica suponen una superficie de contacto o continuidad entre el exterior y el interior de un cuerpo, una ineludible problemática de interfaz que nunca puede hacerse explícita en las teorías actuales que se ven obligadas a trabajar con partículas puntuales, que, sin el menor género de dudas, suman a una idealización distintas racionalizaciones sin espacio alguno para la mediación. Pero la cuestión de la continuidad se extiende seguramente al problema de las dimensiones en general y a las restricciones matemáticas y físicas que se van agregando a una porción definida de espacio partiendo de un espacio sin ninguna cualificación.

El cálculo finito de Mathis permite explicar claramente por qué funciona el cálculo umbral, que durante más de un siglo se ha considerado misterioso, y que ni siquiera trabajos de matemáticos famosos como Rota han desentrañado completamente. Puesto que el cálculo de Mathis devuelve dimensiones perdidas en la representación del movimiento físico, y él mismo lo aplica a problemas relativistas y de mecánica cuántica sin necesidad de números complejos ni espacio-tiempos curvos, parece que tendría que ser esencial para explicar el rol de los propios números complejos en física, lo que en sí mismo tendría que ser un tema de gran calado pero sólo es objeto de dimisión tanto por parte de físicos como de matemáticos.

El mismo Mathis no pretende explicar este rol dado que rechaza abiertamente su empleo en la física, como rechaza el uso de la mecánica ondulatoria en la mecánica cuántica y el uso de dimensiones espurias.Pero si hemos seguido los apuntes anteriores sobre la verdadera naturaleza de la complementariedad onda-partícula, o el uso de vectores de torsión para generar partículas extensas, aún hay espacio para apreciar simultáneamente los dos lados del problema sin faltar al espíritu de la geometría. Mathis propone un nada abstracto álgebra de rotaciones para partículas extensas.

El álgebra de cuaternios de Hamilton era básicamente un álgebra de rotaciones/orientaciones que él siempre quiso asociar con la naturaleza del tiempo. El uso de los números complejos en mecánica cuántica está directamente relacionado con la rotación y los grupos que genera, que en la simplificación de Mathis se convierten en varios giros simultáneos aplicados a una misma partícula, que parecen en principio imposibles. El cuaternio unidad es prácticamente lo mismo que el moderno q-bit de la llamada computación cuántica; con los cuaternios y con el álgebra geométrica pude darse una interpretación geometrodinámica de la fase global que comprende a las denominadas fase dinámica y fase geométrica, así como de la onda-vórtice de Venis.

Sabido es que los llamados “números complejos” en realidad simplifican innumerables problemas, y uno de sus primeros usos fue para la representación de ondas y sinusoides; sin embargo incluso en algo tan elemental como la derivada de la función seno Mathis demuestra que no se comprende el alcance de la interdependencia del seno y el coseno en un simple triángulo y la imposibilidad del seguimiento del uno sin el otro. Cosas tales deberían considerarse como las mejores noticias, pues si revelan que físicos y matemáticos se han acostumbrado a aprovecharse de que “hay mucho espacio al fondo”, también nos muestran que todo ese espacio y ese tiempo imaginarios los podemos devolver al frente de la verdadera comprensión.

Totalmente a contracorriente de la física y matemática modernas, creemos que lo más importante de considerar coordinadamente esta secuencia de temas —partículas puntuales, partículas extensas, ondas como puntos materiales, rotaciones, grupos de rotaciones, números complejos, dinámica ondulatoria y temporalidad- estriba en el esfuerzo de lograr una representación sensible que sea compatible con el cálculo. Devolver las abstracciones de orden superior a lo primario es la única forma de lograr una síntesis que acceda a estratos más profundos de la subjetividad, y ciertamente el análisis no estaría ocioso en este intento.

*

Está aún por definir todo un nuevo campo que explore las relaciones inadvertidas entre lo más básico del sonido y las formas musicales. La música, además, permite elaborar formas cuyo componente esencial está más acá de la representación, en las inmediaciones de la impresión y la emoción.

Si el ritmo es el elemento más básico en la organización del sonido, ya en él tenemos aspectos que no se incluyen en el curriculum ni de la física ni de la acústica que son de importancia primordial. Por ejemplo, las ondas vivas, también conocidas como ondas animadas u ondas de Ivanov, que implican transferencia efectiva de energía. Yuri Ivanov, el descubridor de este fenómeno en los años ochenta del siglo pasado, propuso el término Ritmodinámica para el estudio de estos desplazamientos de fase de las ondas, que seguramente es la forma no estándar más directa de acercarse al problema de la fase geométrica desde el punto de vista de los principios de la mecánica.

Las ondas vivas son otro de esos temas de gran relevancia y bien fáciles de verificar experimentalmente sobre los que no existe prácticamente ninguna literatura científica, y si la hay, es convenientemente camuflada y sin dar crédito a su descubridor. Sin duda el tratamiento de Ivanov resulta escandalosamente indiscreto incluso desde el punto de vista teórico, por no enumerar otros motivos, como su potencial uso en armas sónicas. En cualquier caso, las ondas vivas de Ivanov plantean muy simplemente la conexión entre la electrodinámica clásica o física macroscópica —ya sea en la versión de Maxwell-Lorentz o en la relacional de Weber-Noskov- y las ondas de materia predichas por de Broglie y verificadas experimentalmente a todos los niveles de agregación de materia que se han podido someter al debido control, desde partículas y átomos a grandes moléculas biológicas.

O entre la mecánica clásica sin más y la mecánica inherente a la materia, incluyendo su resonancia. Puesto que las resonancias en física constituyen un dominio de gran calado y sin embargo su tratamiento en los vigentes marcos teóricos no puede ser más contingente, las ideas de la ritmodinámica merecen un desarrollo mucho mayor; aunque las ondas de de Broglie tampoco son muy populares entre los físicos teóricos, que hasta preferirían que no existieran. Sin embargo, a nivel sonoro y musical hoy es muy fácil experimentar con las ondas de Ivanov e intentar reproducir sus relaciones y efectos con todo tipo de mezclas y muestreos.

Una cosa es la experimentación sonora y otra bien distinta la concepción de las formas musicales, que comporta otros niveles de elaboración como la melodía y la armonía, con su integración “horizontal” y “vertical”. Sin embargo el ritmo sigue siendo fundamental en la estructura de la melodía y determina sus células mínimas, existiendo una innegable continuidad.

La secuencia de la onda-vórtice de Venis con su despliegue es una prodigiosa matriz de formas equidistante de la física y la biología. El propio Venis, cuyo punto de partida es la morfología y por lo tanto la estética, relaciona directamente estas formas y la altura del sonido con las dimensiones de manifestación de la onda y encuentra diversos fenómenos ignorados por los expertos en acústica.

Está aproximación, aun siendo morfológica, invita a un gran número de experimentos acústicos, no menos que a una elaboración detallada de sus modelos. Por otra parte, puesto que la ritmodinámica de fase también implica la vorticidad aunque hasta ahora no haya sido directamente asociada con ella, también existen diversos niveles de continuidad con las formas de orden superior que plantea la secuencia de Venis. Hay todo un mundo por explorar aquí.

Por supuesto, los tres grandes componentes de la música se conectan naturalmente con las tres percepciones simultáneas del tiempo, horizontal, vertical y cíclico —el de la vigilia animal, el del árbol, y el de la renovación- y su disposición del presente, el pasado y el futuro; también permiten un acceso a la intrasubjetividad mucho más fácil de percibir que bajo los velos del razonamiento científico. La inteligencia estética, con la ayuda del arte, tiende a completar los huecos que no pueden faltar en cualquier descripción. Y hablando de intrasubjetividad, del mismo modo que los tres principios del movimiento presuponen que las fuerzas son externas a cuerpos por definición impenetrables, la ritmodinámica supone un espacio interno de desplazamiento que reubica los tres principios dentro de los ya comentados “tres estados de reposo”.

En otros escritos ya hemos tratado de otros aspectos estéticos que pueden ponerse en contacto directo con la vorticidad y con la dinámica en general, como la presencia de la proporción continua en muy diversas instancias. Otro aspecto de un orden diferente sería la teoría de la percepción del color, que de ser un esbozo de teoría estética en Goethe, ha evolucionado con autores como Schrödinger y Mazilu hacia un dominio propiamente físico e íntimamente relacionado con el “principio holográfico” original, el de Gabor —que, casualmente, también anticipaba sin saberlo la fase geométrica.

6. La conciencia, punto de fuga y última frontera

Si hay un campo que se nos ofrece como última Thule de los interrogantes científicos, ese es el de la conciencia. Parece involucrarlo todo, de la física a la biología, pasando por la filosofía, la psicología experimental y todos los modelos matemáticos habidos y por haber de la complejidad. Y de hecho las teorías de la conciencia suponen, potencialmente al menos, una reorientación de la tendencia general de las ciencias hacia la complejificación, puesto que aquí los modelos complejos tendrían que “explicar” o “producir” el dato inmediato más simple, indivisible y subjetivo.

Es también un campo donde el paso de lo abstracto a lo concreto revierte el sentido habitual de estas palabras, puesto que aquí el dato concreto es el más intangible, mientras que todas nuestras grandes teorías y grandes agregados de datos experimentales tendrían que ponerse a su servicio. Visto de forma ingenua, ninguna investigación tendría que ser más “pura” y desinteresada que la de la conciencia; en la práctica no podrá evitarse la distorsión y colusión con los intereses de otras disciplinas más pragmáticas y ya de sobra integradas.

En ningún otro área se dan pues tales condiciones para darle la vuelta al guante y asumir aquello de que “el principio es la meta”; por más que en general se parta de la idea de que la conciencia es el producto último de la evolución, no algo que esté en la base de la realidad.

Al menos, los que abordan este tipo de estudios —afortunadamente todavía no hay expertos en conciencia-, suelen ponerse de acuerdo en que esta no es una cosa, sino en todo caso un proceso. Qué clase de proceso, es la cuestión que se trata de concretar. Algunos neurofisiólogos, como S. Pockett, aún insisten retóricamente en hablar de la conciencia como cosa, en el sentido de que podría reducirse a patrones del campo electromagnético, pero estos patrones ya son procesos en sí mismos, y además suponen un feedback con la actividad que sólo como proceso cabe considerar.

Uno puede preguntarse sobre el sentido que tiene tratar de explicar la conciencia cuando hay tantísimas cosas incomparablemente más objetivas que se pueden explicar y no se atienden, algunas de las cuales ya hemos señalado. Sin embargo siempre hay razones dentro de la locura, que seguramente tienen que ver, aun de una forma velada, con la lógica más secreta del retorno. Tenemos todo tipo de reparos para volver a la simplicidad, que siempre cuestiona nuestra sofisticación, y el sofisticado multiespecialista actual sólo podría hacerlo poniendo muchas capas de complejidad por delante.

En la literatura india clásica, Advaita incluido, se acostumbra a hacer una distinción tajante entre la mente o pensamiento y la conciencia propiamente dicha, que sería su continente. En Occidente esta distinción se transfigura en el moderno teatro de la mente de Descartes, disociado entre una parte extensa y otra inextensa. Ambos planteamientos parecen ser muy distantes pero algo de atención revela que no lo son tanto.

Finalmente dentro del propio teatro cartesiano se operó otra inversión, que empezó con Newton y terminó con las teorías de campos, ya sean electromagnéticos o gravitatorios como en la relatividad general. También el pensamiento debería ocurrir dentro de la materia, y esta dentro del espacio —pero las teorías de campos suponen que no hay materia sin espacio, ni espacio sin materia. Ha habido una más que razonable analogía entre el concepto de campo físico y el de campo perceptivo en la conciencia al menos desde los tiempos de Husserl.

Pero ni en Husserl ni en las teorías de campos modernas se aprecia debidamente cómo espacio y campo se interpenetran; pues una partícula puntual indestructible no es penetrada por nada. Sin embargo las ondas electromagnéticas en Maxwell ya eran un promedio estadístico de propagación en la materia y el espacio, y lo mismo se puede decir de la vibración dentro de los cuerpos que Noskov identificó en la electrodinámica de Weber, y que sería patente en la ecuación del electrón si se quiere describir una partícula extensa.

La fase global que incluye a la fase geométrica está íntimamente asociada con la problemática del campo, como no podía ser menos si ya está presente en el espacio interno de los principios de la mecánica. Es más, lo que hoy llamamos fase geométrica, y que se asocia rutinariamente con la propia “conexión del espacio”, está tanto fuera del espacio dinámico con sus variables físicas como dentro de ellas. Este es el “más allá que está más acá” de las presentes teorías, y que admite diversas representaciones parciales fuera de la corriente principal, en Weber-Noskov, Mazilu, Ivanov o Mathis, por citar algunos ejemplos.

Y algo similar puede decirse respecto al “grado cero de la conciencia”, que en el Advaita está representado por el sueño profundo, y que envuelve por completo al campo fenoménico de la vigilia o el sueño, y los lapsos o intervalos que existen entre los sucesivos pensamientos o cogniciones. La psicología experimental va reconociendo poco a poco el hecho de que las representaciones mentales requieren estados discretos para que efectivamente haya cognición, bien que aún sigue siendo objeto de intensos debates; pero textos clásicos indios como el Tripura Rahasya ya enfatizaban la importancia del hecho para comprender la naturaleza de la mente. Hecho que se resume en que lo más importante de las cogniciones es el silencio o fase entre ellos. Pues está claro que para tener una cognición clara y distinta lo primero es no tenerla, no es posible pasar de una cognición a otra sin interrupción; los momentos de cognición presuponen su carácter discreto.

Se trata ante todo de una evidencia directamente accesible para la atención, que la psicología experimental trata de asimilar a pesar de las resistencias, incluso cuando tales evidencias parecieran, a juicio de muchos, favorecer el computacionalismo, algo por lo demás infundado.

Lo ha entendido mejor un físico experimental como Anirban Bandyopadhyay, que trata de desarrollar modelos operativos de consciencia más allá de la máquina de Turing. Pretender que el cerebro y la conciencia se fundan en este tipo de máquinas es lo mismo que decir que todo lo que ocurre dentro de ella se puede transcribir como una serie de pasos lógicamente definidos. En realidad, la fe en el “paradigma computacional” no es sino la confianza en la potencia del cómputo cuyo aumento está sostenido por una enorme industria.

Bandyopadhyay lo entiende todo en términos de ritmo y resonancia, no de bits. Los modelos pioneros de sincronización mutua en la actividad biológica fueron los de Arthur Winfree. En la estela de Winfree, el papel fundamental que ha de jugar la resonancia o coherencia en las funciones del cerebro se ha ido convirtiendo en un motivo recurrente para explicar la conciencia, incluso en las primeras tentativas reduccionistas como la de Koch y Crick. Pero el rol de las resonancias y su orquestación demanda otra idea de la sincronización —los resonadores, en principio moléculas biológicas, no pueden estar simplemente sincronizados desde fuera sino que han de tener su propio ciclo interno.

En los ordenadores habituales todo gira en torno al número de bits procesados, en los resonadores orgánicos que según Bandyopadhyay pueden tener hasta 12 niveles distintos y 350 tipos de cavidades, como en nuestro cerebro, sólo habría un bit, y luego bits dentro de él en una cascada fractal —claro que esto es sólo una traducción al lenguaje de la computación. En realidad no hay bits, sino ciclos temporales o ritmos unos dentro de otros que concurren en un ritmo y un solo ciclo de tiempo.

No es improbable que este tipo de estrategia consiga mucho antes máquinas inteligentes que la computación clásica. Se trata por lo demás de negocios distintos: los resonadores acoplados tratan de destilar la inteligencia de los campos de la materia organizada sin ningún tipo de puertas lógicas, mientras que la computación tradicional procura enlatar la inteligencia ya destilada simbólicamente en los procesadores. Pero no todos los niveles que propone Bandyopadhyay son editables ni transferibles a otros soportes físicos.

Para no ser ciegos, estos niveles de resonancia, que son interfaces mutuos, deben contar con un feedback natural con las actividades externas que dan sentido a sus funciones. En cualquier caso, la verdadera “información” no se encuentra en los momentos conscientes que asociamos con la cognición, sino en los intervalos de silencio que contienen la fase y con ella la forma geométrica de un ciclo determinado.

Una rueda de resonancias con 12 bandas de frecuencias como la de Bandyopadhyay requiere tanto una artesanía en detalle con la materia como variados cálculos sobre sus relojes internos hechos de tripletes, su acoplamiento, y las dimensiones pertinentes a su geometría, topología y evolución temporal. Además de las teorías clásica y cuántica de la información, deudoras de sus respectivas mecánicas, aquí se propone una mecánica y una información fractal asociadas a los niveles de fases y frecuencias, con una métrica de fase basada en los números primos. En las nuevas no-computadoras, esta métrica nos libraría incluso del código y la programación. Se trata sin duda de una gran aventura especulativa, pero es el tipo de especulación que puede someterse permanentemente a prueba y ser objeto de toda clase de mejoras.

Las llamadas teorías emergentes suponen que la conciencia emerge como un fenómeno irreductible de la complejidad en la organización de materia inconsciente. Las teorías de la resonancia no necesitan establecer una diferencia radical entre planos pues la consciencia está distribuida en todos los niveles. Por un lado, los campos ya incorporan un feedback aun en sus relaciones más simples, las órbitas entre dos cuerpos. Por otro lado, la inconsciencia ya está siempre referida a la consciencia. En tercer lugar, esa inconsciencia sigue siendo la base en todo momento para los momentos “emergentes” de cognición, donde la emergencia tiene un sentido completamente distinto al del aumento de la complejidad.

Bandyopadhyay y su equipo de Tsukuba están trayendo al frente todo un nuevo mundo para la biología, hasta ahora reducida a la genética y la biología molecular. Las posibilidades de la no-computación son como mínimo tan grandes como las de la computación y la digitalización, el gran embudo y horizonte de sucesos de nuestra compulsiva deriva. Aunque aún se encuentre en sus rudimentos, su pertinencia se hará valer en todo tipo de modelos dinámicos donde no encontramos ninguna lógica, lo que incluye gran parte de los fenómenos naturales y no naturales, desde los terremotos al tiempo, pasando por la propagación de virus y eventos sociales o económicos.

*

Hoy toda la investigación avanzada combina necesariamente altos grados de sofisticación formal, complejidad y especulación —e incluimos en la especulación conocimientos que se consideran bien fundados pero que teóricamente están en el aire, al justificarse sólo por sus resultados. Lo peor que hoy puede pasar es que se trabaje rutinariamente con cosas como la fase geométrica, en computación cuántica por ejemplo, sin llegar a preguntarse nada sobre su auténtica naturaleza. Pero es la tónica general: desde el cálculo a la manipulación genética, bastante hay con ocuparse de los resultados, ya de por sí sorprendentes. El mismo Bandyopadhyay, que hace de la fase geométrica un aspecto importante, si no central, ya tiene demasiado trabajo en intentar organizar tan vasto material y modular sus efectos como para ocuparse de su estatus teórico. Hay siempre tanto por hacer.

En Winfree una “singularidad de fase” es el tiempo de estímulo durante el cual no es posible asignar una fase a un proceso. Las singularidades de fase de las que se habla Bandyopadhyay son los lugares en los que se rompe la simetría y aparece un nuevo reloj, aunque el cálculo estándar podría estar omitiendo una o más dimensiones. Esto puede implicar una transición de escala, algo que los sistemas de coordenadas al uso no detectan. Un sistema de coordenadas completo debería incluir la escala con su posibilidad de transición, es decir, una suerte de “enfoque de escala”. Habría que estudiar cuidadosamente la relación de esto con la fase geométrica —si es cierto que equivale localmente a una función exponencial fraccional- y las teorías no estándar aquí mencionadas.

Cada vez es más necesario distinguir entre Ciencia en general, con sus posibilidades siempre intactas, y la Gran Ciencia de las instituciones con todos sus compromisos e inercias. Ni que decir tiene que la Gran Ciencia es una parte muy pequeña de la Ciencia, y sin embargo es la que capitaliza toda o casi toda la atención, invirtiendo con su solo peso la percepción general. Pongamos sólo dos ejemplos de la física teórica, que podrían extenderse, con mucha más razón, a cualquier campo de la ciencia aplicada.

Sabido es que el último gran colisionador se construyó sobre todo para detectar, al menos a un determinado nivel de energía, la “partícula”, o por mejor decir la excitación del campo escalar que sería responsable de la masa de las partículas. No deja de ser irónico que a una ciencia que se precia de reduccionista no le quede otro recurso que apelar a un campo que estaría en todas partes, como el antiguo éter, para explicar aquello que hace a la materia ponderable. Finalmente y tras muchos años de descomunal proyecto se afirmó haber detectado la “partícula” famosa, pero más de ocho años después, no hay ni un solo experto que pueda decirnos ni una sola cosa más sobre la naturaleza de la masa.

Sin embargo Mathis había mostrado incluso antes una serie de cosas mucho más instructivas usando tan solo sus métodos finitos de cálculo simplificado. Por ejemplo, que basta tomar las propias ecuaciones de Newton para ver que la masa de una partícula esférica puede escribirse como la aceleración de su radio. De este simple hecho se derivan gran cantidad de consecuencias, se resuelve el famoso “enigma del radio del protón” que seguía igual de vigente después del supuesto descubrimiento del bosón escalar, y se aprecian muchas otras claras relaciones: por ejemplo, que igual que tiempo y distancia, masa y gravedad son funcionalmente lo mismo.

Es de sentido común que cuanto más homogéneas sean las cantidades que se utilizan, más transparentes y múltiples sean las relaciones entre ellas; mientras que por el contrario las cantidades altamente heterogéneas que caracterizan las ecuaciones modernas suponen nudos sobre nudos que sólo desatando pueden hacerse inteligibles. Entonces, el análisis dimensional de toda la física entera sólo puede llegar al fondo de las cosas, si es que hay alguno, usando el cálculo de diferencias finitas —lo que es de una lógica elemental.

Otro ejemplo de las modernas teorías de campos serían los intentos desesperados de cuantizar la gravedad, como si ese fuera el único problema pendiente. Pero ninguna cuantización va a explicarnos el rasgo más elemental de la órbita planetaria, que salta a simple vista, y que es que ninguna fuerza central, en el sentido asumido por todos después de Newton, puede generar las elipses que observamos. Y así, la necesidad de fuerzas no centrales, que tendría que ser el gran tema de la gravedad, ni siquiera se plantea, ni ahora ni en tiempos de la relatividad general.

En definitiva, los expertos tienden irremediablemente a buscar las soluciones allí donde éstas demandan conocimientos siempre más elaborados que confirman la necesidad de hacerse aún más expertos, del mismo modo que tienden a ignorar lo que simplifica innecesariamente sus problemas. Y se sienten seguros empujando en esa dirección porque saben muy bien que ése es el camino de la dependencia mutua y la civilización.

La perspectiva del nuevo multiespecialista es sin embargo diferente. Enfrentado a una complejidad sobreabundante, no le hace ascos a las simplificaciones siempre que funcionen. Toda simplificación es bienvenida, cualquier simplificación es poca si es capaz de aportar algo más de orden. El multiespecialista sí está dispuesto a remontar el río.

No puede dejar de haber una estrecha relación entre la noción de un campo físico y la noción de la conciencia, puesto que después de todo ambas tratan de subsumir la evolución de eventos particulares dentro de la totalidad más amplia concebible. Como no pueden dejar de tener una influencia decisiva el papel que en esta concepción se atribuya a lo continuo y a lo discreto, al punto y al infinito, a lo finito y lo infinitesimal.

Bandyopadhyay propone una serie de ruedas o esferas concéntricas para reproducir las resonancias y acoplamientos entre las distintas capas del cerebro, de cuya transición de fase global, de naturaleza fractal, saldría lo que entendemos como conciencia individual. Seguramente no hace falta mucha más imaginación para intentar concebir los estratos que determinan una conciencia colectiva, y aquí la cuestión es si no están ya todos en un solo cerebro, pues el cerebro ya es una gran sociedad. En cuanto a los estratos que determinan una teoría física o matemática, eso es mucho más fácil de determinar y para eso tenemos la historia, pero por lo que parece, también es más difícil de modificar.

Desde el punto de vista del Principio, el único campo relevante es el medio homogéneo primitivo con una densidad unidad, y cualquier modificación transitoria, que no deja de ocurrir en su seno, es sólo un detalle técnico. En el fondo, y no sólo en el fondo, esta también es la posición de Bandyopadhyay, que asume que cualquier campo, por más heterogéneos que puedan resultar sus materiales, tiene que rendir la unidad en la conciencia, lo indivisible por definición.

Bandyopadhyay es bien consciente de las relaciones y trata de concretar técnicamente la concepción recurrente del tiempo en el hinduismo con sus mundos dentro de mundos. El tiempo interno de cada reloj no es sino Ṛta, la expresión local del orden cósmico; pero lo peculiar de este tiempo no se puede apreciar dentro del sincronizador global, el tiempo externo que aplana toda diferencia. Pranava, la vibración de un sí mismo que no vibra, es lo inobstruido en todo proceso de experiencia que va siempre más allá de los sentidos; las experiencias en sí mismas son intransferibles e irrepetibles, aunque admiten múltiples réplicas parciales que sólo se podrán recuperar en nuevas condiciones locales.

El mundo digital es justamente la esfera de lo absolutamente repetible e intercambiable, usado por sujetos irrepetibles. A largo plazo podríamos evolucionar hacia una simbiosis entre las máquinas que computan y las resonantes y vivas no-computadoras. La nueva no-computación analógica trata de extraer las posibilidades de resonancia de las organizaciones biológicas más específicamente relacionadas con la información, dejando a un lado las relativas a la nutrición y otras funciones; pero la vibración primordial abarca indistintamente cualquier nivel de organización o desorganización.

La no-computación según Bandyopadhyay es una geometría musical de la vibración y del silencio; también una geometría de la confusión. Hacer un cerebro artificial con biomoléculas no es inteligencia artificial, porque el trabajo más específico del cerebro consiste en componer su propia música. Ahora que se presuponen programas y algoritmos para cualquier tarea o decisión, no puede haber empresa científica más apasionante que salir de la caja tonta de Turing para tratar de averiguar cómo un cerebro, natural o artificial, funciona sin ninguna necesidad de rutinas participando en la cadena de resonancias del universo.

Si hay métricas de fase basadas en primos para modular las resonancias de campos tan heterogéneos, también ha de existir en última instancia una conexión con la función zeta de Riemann. Hemos visto que la función zeta aún podría tener un imprevisible impacto en la moderna teoría de la información, toda vez que se incluyan ciertos criterios en el cálculo, el análisis y la medida de la entropía. Si estos criterios tienen validez para los niveles de energía del vacío y la termodinámica irreversible en los resonadores, además de para la “singularidad” topológica y la transición de fase global del sistema, tal vez algún día se tienda un gran puente entre la computación y la no-computación.

Otro fenómeno estrechamente asociado y presente en muchos sistemas físicos y biológicos es lo que se conoce como resonancia estocástica. Una señal por debajo del umbral de detección de un sensor puede potenciarse aumentando el ruido blanco con todo tipo de frecuencias. El ruido es por tanto señal por derecho propio, así como una fuente de energía libre. El ruido óptimo no es un ruido cero, lo que plantea varias cuestiones. La resonancia estocástica puede ser adaptativa, y a este respecto podrían hacerse interesantes experimentos de biofeedback.

Los físicos como Bandyopadhyay seguramente tiende a sobrestimar la capacidad de las matemáticas para captar los estados de consciencia incluso cuando hablan de “una geometría de la confusión”, pero esto es algo vocacional y casi inevitable. Hacemos con gran facilidad y placer cosas que desde el punto de la vista del análisis matemático son casi inabordables, e incluso suele haber un grado de dificultad inverso: calcular el equilibrio de una bicicleta es factible si está casi parada pero demasiado complicado con cierta velocidad; pero estando sobre dos ruedas es al contrario.

Si el biofeedback desplaza la atención de la acción a la autointeracción, incluso el control, con toda su vasta teoría, queda subsumido en la idea de autocontrol, que lejos de ser un caso particular, parece el caso más indefinido y general. Efectivamente, además de ciclos de acción y percepción, aquí hay una autoobservación, incluso si es mediada por señales. ¿Pero no ocurre esto también en cualquier tipo de actividad? Lo único nuevo del biofeedback a este respecto es que nos ofrece un reflejo monitorizado, un espejo con una señal que puede cuantificarse —una interfaz entre las funciones vivas y las funciones del cálculo.

En todo caso, el grado de autopercepción hace la diferencia entre la frescura de la inteligencia natural y el enrutamiento del hábito o la inteligencia procesada. Supone el lugar de la apertura, y deberíamos seguir siempre su estela. Si el control aplicado a seres humanos busca cerrar el ciclo entre acción y percepción, obstruyendo la autoobservación, habrá que abrirlo de alguna manera. Crear espacio dentro y fuera tal vez no sea tan diferente como a menudo se cree.

La rueda de frecuencias concéntricas, anidadas, de la actividad cerebral y otros ritmos orgánicos, capa por capa y en conjunto, supone una configuración de señales óptima para el biofeedback, la sintonización y la sincronización. No todas las señales han de depender de electrodos o medidas directas, y algún día no muy lejano tal vez tengamos las claves de tiempo, ritmo, acoplamiento y geometría que pueden sintonizarse a través de señales indirectas. ¿Es posible que algo tan simple como la conciencia pueda abarcar tal complejidad de ritmos? Parece algo claramente imposible. Pero si el único denominador común de todos esos ritmos es la propia conciencia, la respuesta tendría que ser afirmativa.

No hay resonancia sin cooperación. Si la resonancia está en la base de las moléculas biológicas, y aun de cualquier organización, como la de un átomo o partícula, eso también pone a la cooperación en la base de la vida y de cualquier orden; tal vez sea esa la razón por la que trabajos pioneros como el de Winfree no han logrado todavía el reconocimiento que merecen. Pero esto puede y debe aplicarse al mismo principio de individuación, a la persona y a la propia conciencia, como está mostrando Bandyopadhyay. Incluso la autoconciencia demanda cooperar con uno mismo.

La articulación ritmodinámica de los tres estados de reposo permite la articulación interna de los tres principios del movimiento junto a otro principio también interno de sincronización que no deja de estar totalmente conectado con lo que entendemos como “causalidad” física o externa. Esta es la gran diferencia. El acoplamiento por resonancia debería incluir la faceta “termomecánica”, esto es, la emergencia de la regularidad mecánica de un fondo termodinámico. Esto, contando siempre con la acción ubicua del medio, puede dar cuenta de forma mucho más consecuente de la evolución molecular prebiótica.

Cualquier tipo de percepción supone la sensación, y la sensación supone un sensorio común completamente indiferenciado, indistinguible del medio homogéneo primitivo. Olvidarnos de él no es más lógico que olvidarnos de que las cogniciones surgen intermitentemente de un fondo sin cognición. Si, además de su propio ciclo respiratorio, el ciclo nasal bilateral se hace eco en su propia escala de tiempo de los ciclos del cerebro, y evoluciona en torno a un agujero, entonces, igual que se puede hablar de doce capas concéntricas de frecuencias, podría hablarse igualmente de doce grados del silencio, tal como lo han hecho algunas tradiciones.

*

El conocimiento busca dentro de sí la existencia extramental de la que emerge recurrentemente y siempre cambiado. Saber retornar a ella sin descomponerse es saber, lo demás son sólo saberes. Saber retornar a ella es saber entrar en la corriente.

El triple tiempo es autoconciencia diferida: creamos el futuro como un escape para el presente, y en menor medida, para el pasado. El futuro se convierte así en la dimensión virtual de nuestra huida, que libera en esa dirección energías que sospechamos podrían resultar en una presión insoportable confinadas al presente. El único presente sin futuro es para nosotros la muerte, de ahí todas las ultramundanas elaboraciones de la religión; aunque igual nos resistimos a que el pasado termine realmente.

La misma subjetividad es ya un producto de la temporalidad, y esa presión insoportable de un “presente confinado” no es menos imaginaria que un futuro o un pasado cuyo sentido pueden cambiar hasta el mismo momento de la muerte. Somos nosotros los que nos metemos presión, los que no nos perdonamos muchas cosas o los que nos absolvemos de ellas; sin embargo ese “uno mismo” que hace todo esto por fuerza tiene que ser algo más que la mente que salta de rama en rama. Al Yo le convendría reconciliarse con él antes que con cualquier término último que prometa un paso al límite en el futuro, por más que los infinitos y los límites también tengan su lugar legítimo en las matemáticas, y en nosotros, aunque no sea el que damos por supuesto.

¿Qué es lo inobstruido a lo que se refiere la Palabra? La conciencia es lo inobstruido, por definición y sin definición. ¿Dónde y para quién existe la obstrucción? ¿Qué es lo que impide el paso, y de qué? En la India, en una cultura superpoblada de dioses, después de nombrarlos a todos se buscó el Nombre autorreferente de la conciencia, y se encontró que su sonido se escucha incluso sin oídos, sin esfuerzo, y aun sin cognición.

De un medio homogéneo y sin límites igual puede decirse que está completamente lleno o completamente vacío; lo mismo podría decirse de él que es conciencia pura o pura inconsciencia, o las dos, o ninguna de las dos. O que es existencia plena, o plena inexistencia. O que es vida pura, que no conoce la muerte, o inexistencia que nunca ha conocido la vida. Pero si todo lo que apreciamos aquí, ha podido salir de ahí, nada de lo de aquí puede serle ajeno. La conciencia sería la homogeneidad que atraviesa lo heterogéneo, el fugaz aroma de armonía que escapa de cualquier desorden.

Parece ser que se necesita la gravedad para que se muevan por sí solas las masas; pero un análisis elemental muestra que masa y gravedad son sólo nombres diferentes de lo mismo. Para eso no hacían falta los curvos rodeos de la relatividad. ¿Habría algo que no fuera correlativo en un campo puramente relacional, descrito con cantidades homogéneas? ¿Y no sería lo mismo para la conciencia y la materia, si no fuera porque nosotros hemos invertido nuestra consciencia en su inconsciencia, justamente a través de la medida?

Queda sin embargo un residuo sin asimilar con manifestaciones múltiples, un desfasamiento, ángulo o curvatura atribuido a “la propia conexión del espacio”; pero desde Galileo, en física no hay espacio sin movimiento. En la mecánica de Galileo y en la relatividad en general no hay tercer principio y este se sustituye por el principio de covariancia, pero como ya observó en su día Brillouin esto es contradictorio y sólo se resuelve si el marco de referencia está anclado a una partícula de masa infinita.

Desde el “cuarto principio”, las proposiciones científicas tienen otro sentido; el de la totalidad más amplia del que han sido separados. Recuperar esa totalidad no tiene por qué ser contrario a la razón, cuando las proposiciones vigentes ya la pretenden, sólo que extendiendo sin la menor garantía la validez de sus postulados. Que se hagan tantos cálculos correctos con unas bases tan dudosas sólo podría sorprendernos si olvidáramos que ello sólo se consigue con todo tipo de infracciones algebraicas para llegar a los resultados conocidos.

La voluntad de creer sigue siendo más fuerte que cualquier otra cosa, en ciencia como en todo lo demás; no es algo privativo de la religión, pues la ubicua propaganda lo explota tanto como puede a cada momento. El camino de la civilización permite la duda privada pero exige creencias compartidas.

En física el concepto de acción parece más fundamental que la fuerza pero como notaba Planck siempre tiene una connotación de finalidad que se prefiere eludir. En las teorías de campos modernas surge inevitablemente el concepto de “autoenergía” y “autointeracción” que aún parecen más extravagantes, pero sólo porque no se ha hecho frente a lo que implica la acción en los casos más elementales. Y porque, en definitiva, tampoco se puede separar la partícula del campo. Una transición explícita de la partícula puntual a la partícula extensa y la onda, estos dos últimos entendidos como configuración, haría esto más evidente.

El cuarto corolario de la relatividad general para aproximarse al “principio de Mach” dice que un cuerpo en un universo que estuviera vacío por lo demás no tendría inercia. Ahora bien, ese ya es el caso siempre en la mecánica relacional, donde sólo rige el principio de equilibrio dinámico, y cualquier movimiento, sea el que sea, es natural. Evidentemente, también en partículas cargadas, como un electrón. Pero este principio de equilibrio permanente puede verse no sólo como sustituyendo al de inercia, sino también como moderando la acción de las fuerzas y el tiempo de reacción, tal como en la electrodinámica de Weber. Este equilibrio general es el más importante.

Y es también interesante porque brinda un paralelismo bastante pertinente entre el par conciencia/acción del campo y el par autoconciencia/autointeracción.

*

Objeto y sujeto, pensamiento y pensador son efectos de la actividad del pensar que los abarca pero no es atrapada en el juego; esa actividad es el Logos creador, y si absolutamente todo tiene su parte de sujeto igual que de objeto, ha de obrar a todos los niveles.

Puesto que ni el pensamiento ni el pensador lo alcanzan, lo mejor que pueden hacer es hacerle un hueco. La conciencia, joya suprema, es ya la síntesis viviente de sujeto, objeto y percepción, y como síntesis viviente que es, no admite fondo ni límites. Es realmente el espacio de la libertad, y tal vez pronunciemos tanto esa palabra porque no estamos dispuestos a explorarlo.

La continuidad que suponía Peirce en la transformación de los signos es una continuidad lógica, que presupone que algo que no es el Cogito impulsa los desplazamientos y determina sus momentos, creando una temporalidad de la que el Yo es parte. Naturalmente, la lógica, como cualquier otra ciencia, es sólo un caso particular.

Todas las ternas lógicas con la que podamos analizar y sintetizar el mundo y nuestro lugar en él, del primer al enésimo grado, no son sino contracciones de la conciencia, que las envuelve tanto como las atraviesa. Hasta el principio de no contradicción presupone que hay un ser, y ese ser no puede ser distinto de la conciencia.

La única forma apropiada de explorar la conciencia en su altura, amplitud y profundidad forzosamente ha de ser la conciencia misma; si ella no es adecuada para ello, ningún otro modo lo será. Sin embargo la ciencia, o al menos una parte de ella, aún puede beneficiarse grandemente de su estudio, si está dispuesta a reorientar sus fines, medios y principios.

Ciertamente los estudios de la conciencia tienden a quedarse en la parte más accesible, como sus correlatos cerebrales y los aspectos funcionales más acotables por la medida, el experimento y el concepto: aspectos tales como la reacción a estímulos, el control del comportamiento, el enfoque de la atención, o las diferencias entre estar despierto y dormido.

Todo esto es más bien relativo a la consciencia de algo o conciencia intencional, pero no se debería subestimar la incidencia que estas investigaciones pueden tener en la psicología aplicada y ciencias del comportamiento. La conciencia intencional es inseparable de la autoconciencia, y estos dos modos de la inteligencia son suficientes para operar cualquier contracción y tejer las nociones de un mundo y todos los mundos.

Así que puede preverse que el estudio de la conciencia también termine proyectando una alargada sombra sobre la sociedad y su control, si no lo está haciendo ya. Forma parte del camino descendente con el que las ciencias ya llevan largo tiempo comprometidas. De todas formas, es inconcebible que aumente el conocimiento de la conciencia intencional a un nivel institucional y no haya un aumento correlativo de la autoconsciencia a nivel individual, pero ambos procesos pueden transcurrir por caminos muy diversos además de divergentes.

La conciencia individual es un caso muy particular de la conciencia, pero ambas no pueden estar separadas. El individuo no es el fondo de nada, sino que a él le da fondo un proceso de individuación con diversas instancias, de las cuales las biológicas y las sociales son las más evidentes.

El individualismo cree sentirse por encima de criterios personales pero no trasciende su esfera, sino que simplemente la reduce a su mínima expresión. El hecho de que no pueda concebir la conciencia fuera del individuo, y que una conciencia inorgánica le parezca algo absurdo, sólo demuestra hasta qué punto su conciencia está confinada. Por lo demás el nominalismo no deja de ser burdamente anticientífico, como Peirce gustaba de recordar con elementales argumentos. Sin embargo, si es la Ley la que subsume a los casos individuales, y luego pretende estar al servicio de los individuos, nunca dejaremos de ser un caso perdido.

Frente a los “individualistas” están los personalistas, que dicen que la persona es más que el individuo. Pero si no pueden concebir la conciencia impersonal, que es el centro mismo de la conciencia, están jugando con las palabras, e ignoran no sólo qué hay más allá y más acá del individuo, sino también en qué sentido una persona puede estar más allá de las contingencias. Si algo de singular se presume en el individuo, tendrá que ser la conciencia, pero para saber si ésta es singular habrá que acudir directamente a ella, antes de emitir juicios sobre su naturaleza.

Ya sea para el individuo o la persona, la conciencia es el último criterio. Y si la conciencia es algo sin fondo, también lo son todos los grandes problemas filosóficos que vuelven recurrentemente. En cuanto a la física y las matemáticas, hay que distinguir entre hechos y pruebas, y hoy todos los hechos están atrapados en una malla de axiomas y postulados que no sólo pueden cambiar como ya lo han hecho otras veces en el pasado, sino que deberían cambiar para no ser sepultados por su peso estático. Este peso aumenta en nombre de la Ley, y ésta dicta que la regularidad observada tiene que ser analítica en última instancia, aun si los hechos de la Naturaleza no son verdades de razón. Como trabajo permanente sobre hipótesis cambiantes, también los problemas matemáticos y físicos carecen de fondo y son potencialmente infinitos.

*

No hay interpretante final, pero tampoco hay interpretante como la búsqueda permanente del mejor principio y el intento de conectar tan estrechamente como sea posible el conocimiento mediado con el metaprincipio. Sólo esta retroprogresión podría dar vida y sentido a una ciencia a la que irremediablemente se le escapan.

Nuestra idea de la Ley es determinante para los individuos, sus relaciones mutuas y sus relaciones con la Naturaleza. La misma idea de ley natural, surgida primero del derecho y aplicada a lo no humano en general, contiene ya una doble idea de dominación. Pero no hay ley natural que no sobredetermine los hechos, forzándonos a suponerles causas, a la vez que crea barreras artificiales entre lo necesario y lo contingente.

La ley de la gravedad, antigua o moderna, asume la existencia de una constante con dimensiones. Según el principio de homogeneidad de una teoría relacional en la línea de la de Weber, este tipo de constantes, que parecen inherentes a nuestras leyes, no deberían existir, sino ser sólo una función de condiciones macro o microscópicas. Ahora bien, estas teorías más relacionales no son menos restrictivas ni capaces de brindar conocimiento, sino que a menudo nos permiten explicar directamente cosas que son consideradas “históricas” o “contingentes” por las leyes —por ejemplo, una ley de Weber aplicada a la gravedad no permite cualquier órbita, y la “teoría no-unificada” de Mathis, tampoco, acercándose bastante más a una explicación de los casos particulares.

Así pues, retirarse de las leyes en dirección a los principios no supone necesariamente una pérdida de conocimiento y una vuelta a la mera generalidad, e incluso puede resultar en lo contrario. Esto es algo que también la matemática debería atender con la mayor atención y cuidado, porque, junto al cálculo, insinúan una inversión a gran escala de la relación entre teoría y aplicación, y entre principios y fines.

Así, el principio de equilibrio dinámico, que se antoja demasiado poco restrictivo e incisivo como para dar cuenta de la extraordinaria amplitud de órdenes que pueden encontrarse en la naturaleza, en realidad nos permite ser más específicos y afrontar los casos particulares con mucho menos peso muerto que perder. Nos lleva siempre por el buen camino, que es el opuesto al de la sobredeterminación de la Ley. Para empezar, un principio que permite prescindir de inmediato de la inercia, la masa inercial, el espacio absoluto, y el marco de referencia ya afecta directamente al estrato más profundo de cualquier ley o teoría y no se debería subestimar. Por otra parte hay mucho por estudiar con respecto a su criterio de aplicación, pues no es lo mismo aplicarlo a partículas puntuales que a volúmenes, además de consideraciones de escala, termodinámicas, termomecánicas, etcétera.

Pero el sólo hecho de poner en suspensión la idea de inercia es algo sobre lo que la conciencia apenas puede mantenerse un instante, de modo que tiene que recurrir a mediaciones teóricas para recolectar y “atraer hacia sí las consecuencias”. En este sentido, este principio de equilibrio, aun aplicándose a conocimientos particulares, se encuentra en armonía y aun en intimidad con la tácita unidad del ser y la conciencia. Pero si el principio de equilibrio dinámico permite precisar el contorno en que se cierra un sistema abierto, como la órbita de un planeta en torno al Sol, es también un principio de individuación, a nivel tanto individual como colectivo.

La presunción de leyes naturales está al servicio de la máxima extensión del dominio del orbe predictivo, no es sino su optimización. Una vez que ese dominio ya sólo puede ampliarse por medios cada vez más indirectos y estadísticos, habría que cambiar de estrategia. El camino de la síntesis tiene que ser a la fuerza diferente, aun volviendo sobre sus pasos con mucho más cuidado. El principio de equilibrio dinámico opera en lo externo y en lo interno, en lo inteligible no menos que en la metodología, es reflexivo por naturaleza y con respecto al pasado y el futuro, y enteramente afín al movimiento de la autoconciencia.

Si la mitad del conocimiento ya es perspectiva, y las especialidades estratificadas son incapaces de aprovechar la perspectiva que el tiempo y la reflexión nos brindan porque no pueden permitirse revisar sus fundamentos, esperemos que otros al menos puedan beneficiarse de ello.

7. A propósito del continuo: dividiendo por cero

Algunos se sorprenden de que usando la división por cero se puedan conseguir todo tipo de resultados importantes en análisis real y complejo de un modo consistente, pero esto no debería extrañar a nadie, puesto que era la intención original del cálculo de Bhaskara a Euler. Ya se ha rehabilitado la noción de infinitesimal en el análisis no estándar, y ahora empiezan a surgir abogados para la cuarta operación con el cero en la aritmética y el álgebra, puesto que genera nuevas e interesantes estructuras algebraicas, como la rueda, una extensión del anillo conmutativo y el semianillo, además de sus módulos y derivados. Naturalmente, muchos se preguntarán que interés puede tener “inventar de nuevo la rueda”.

Igual que hay varias alternativas con los nuevos infinitesimales, hay diversas álgebras con función inversa completa. Algunas de ellas, como plantean Tucker y Bergstra, pueden tener relevancia para el tratamiento de los números racionales, que después de todo son el dominio general de la medida finita y los resultados observables en física, y afectan directamente a la integración de la computación continua y discreta. Pero no vamos a tratar ahora de intereses prácticos.

A estas alturas debería estar más que claro que son posibles muchas modalidades de cálculo, y en este sentido al menos, reivindicaciones tan categóricas como las de Mathis son sólo contraproducentes. Sin embargo, tales reivindicaciones no afectan sólo a la cuestión de qué procedimiento técnico es más conveniente, sino que también impugnan los resultados, la asignación de variables, y la relación general entre la matemática aplicada y el mundo físico.

No terminamos de ponderar adecuadamente lo paradójico de la situación de las ciencias contemporáneas, históricamente comandadas por la física. Y la paradoja consiste en que incluso con el grado de positivismo, nominalismo, y operacionalismo imperante, el peso de la actitud platónica, reflejado en nuestro exceso de confianza en la aplicación del conocimiento matemático, no es menos extremo. Puesto que lo segundo ha sido lo primero históricamente, también hace pensar que ha sido su causante.

Los teoremas matemáticos importantes suelen encontrar con las generaciones y los siglos sucesivas formulaciones más simples, pero eso no significa necesariamente que se alcance una comprensión más clara de su contenido, sino más bien que con el paso tiempo se va contemplando desde nuevos ángulos y nuevos supuestos. Nunca llegan a hacerse “triviales”, como algunos matemáticos pretenden.

Avanzamos entonces una lectura diametralmente opuesta a la del platonismo tácito de físicos y matemáticos: un teorema matemático va comprendiéndose mejor en la medida en que va tomando contacto con nuestra interpretación del mundo físico, lo que es algo muy distinto que su mera aplicación para solucionar problemas en física.

Lo curioso de esta afirmación es que es indemostrable precisamente porque los físicos han utilizado la matemática para encontrar soluciones a sus problemas, no interpretaciones. De lo que hablamos entonces es que la matemática misma, empleada de otra forma, podría ser un soporte para la interpretación y por lo tanto para la subjetividad, lo que sin duda era la intención original de Platón. Está claro, pues, que el “platonismo” que adjudicamos a la matefísica moderna consiste en la sustitución de lo sensible por intelecciones cada vez menos inteligibles. Un platonismo invertido pero ciertamente desencadenado.

Esta inversión del platonismo se adecua perfectamente al poder, no hay más que ver cómo se promociona la matemática para los usos que ahora alcanzan su apogeo, y que es mejor no calificar. En tales condiciones, revertir esa inversión parece una tarea imposible, pero esto también es olvidar que Platón fue el primero en hacerse reo de la mistificación y era ya víctima predestinada.

Volvamos al presente y al futuro. ¿Por qué tiene semejante interés la función zeta de Riemann? Porque, aquí, por una vez, la tendencia ya habitual del platonismo invertido encuentra a su vez un punto de inversión. La ciencia busca estructuras matemáticas en la realidad física, pero aquí por el contrario tendríamos una estructura física reflejada en una realidad matemática. Los números primos son ya lo de menos, la cuestión es saber qué rayos significan los ceros no triviales de la función. Saber si la hipótesis es cierta o falsa, tendría que ser secundario en comparación.

Pero para entender esto haría falta comprender primero el rol de los números complejos en física, cuestión no menos misteriosa pero totalmente a nuestro alcance y que como ya hemos señalado requiere un acercamiento totalmente diferente a los problemas del análisis. El estudio de la función zeta con métodos de diferencias finitas probablemente todavía tiene recorrido por delante, pero las correspondencias mucho más generales del plano complejo con las “dimensiones perdidas” del análisis es algo que puede plantearse de inmediato.

El mismo análisis complejo, como es bien sabido, supone divisiones por cero en la esfera de Riemann justificadas mediante un argumento proyectivo. Es algo que no tiene incidencia directa en el cálculo de la función zeta, pero cuya lógica se extiende en el álgebra de ruedas. Una de las formas más poéticas de captar la hipótesis de Riemann, según Lapidus, es decir que el campo de los números racionales Q yace tan armónicamente como es posible dentro del campo de los números reales R; pero no existe otro criterio para definir esa armonía que la propia línea crítica de la función.

Grandes cuestiones aparte, lo que se aprecia históricamente es que la división por cero es el impulso original del cálculo, y el primer impulso es el que cuenta, incluso si luego la operación ha sido proscrita por motivos de conveniencia y consistencia. Desde el momento en que se cree trabajar con puntos, lo más que puede hacerse es ocultar o reprimir la cuestión; sólo un cálculo finito como el de Mathis no tiene ese problema.

La proscripción explícita de la división por cero empieza a ser un lugar común entre autores como Martin Ohm, hacia 1828, por los mismos años en que Abel y Galois crean las bases del álgebra moderna. Se trata ante todo de una cuestión de consistencia y conveniencia para la manipulación algebraica, más que de un asunto íntimo del cálculo, aunque tampoco es casual que por esos años Bolzano y Cauchy perfilaran la teoría del límite y el francés creara la teoría de funciones complejas. Es justo la época en que la ciencia pasa definitivamente de la idealización a la racionalización, aunque ni mucho menos de forma homogénea ni en todos sus frentes a la vez.

La proscripción de la división por cero se presentaba como una convención absolutamente necesaria para la higiene matemática, y sin embargo las infracciones algebraicas en el nuevo cálculo refundado no son simplemente numerosas, sino sistemáticas. Uno está tentado de pensar que aun dividiendo por cero no habría aumentado su número, porque se sigue pretendiendo exactamente lo mismo; incluso podría haberse reducido.

Las heurísticas reglas del cálculo pueden verse como un gran rodeo para evitar la división por cero, pero eso no significa que adoptar esta operación simplifique las cosas. Hay después de todo buenas razones para eludir esta división, empezando por el hecho de que no hay un solo criterio, sino varios. En la primera etapa del cero en la India se presentaron básicamente tres criterios diferentes.

Para Brahmagupta, el valor de cualquier número n/0 = 0. Para Mahavira, n/0 = n, es decir, el número permanece constante. Para Bhaskar, como ya hemos dicho, n/0 = ∞ . Este criterio, también sostenido por Euler, parece ser connatural al desarrollo histórico del cálculo, aun si muchos de los matemáticos que contribuyeron en la primera etapa eludieron la cuestión. Y visto en retrospectiva, también parecía apuntar al futuro desarrollo del análisis complejo.

Tiwari ha intentado unir los tres criterios diciendo que el valor de X/Y para cualquier valor positivo o negativo tiende a infinito cuando Y tiende a cero, pero que cualquier número dividido en última instancia por cero da cero como el cociente y al mismo número como resto. En la ya citada teoría de ruedas, que incorpora la esfera de Riemann en la aritmética, uno partido por cero es infinito sin signo, pero 0/0 es nulo. En cualquier caso, la única forma de dirimir estas cuestiones es a través de la física y sus resultados mejor conocidos.

Digamos que el cálculo infinitesimal tiene su “verdad ideal”, no surgida propiamente de la física, sino de su aplicación original a gráficos de curvas geométricas, que con el tiempo quedó aparentemente “superada” por la generalización algebraica del análisis. Pero en realidad no quedó superada en absoluto. Esta fase de interpenetración de lo ideal y lo convencional supone también la inversión definitiva del platonismo en la que aún nos encontramos.

En los últimos tiempos se ha hablado de “teorías transalgebraicas”, inspiradas en los argumentos, infundados para el nivel actual, de Euler, Galois, Cauchy o el propio Riemann; pero si se quiere llegar rectamente al núcleo y talidad de lo transalgebraico habría que ir más atrás para luego volver de un salto al presente y ver qué se acepta y se evita en él.

Algunos matemáticos como Ufuoma, siguiendo el “infalible principio de Bhaskara”, calculan las famosas series de Euler o incluso la función zeta de Riemann. Lejos de ser una vuelta de tuerca, tendría que resultarnos lo más natural. Ufuoma distingue claramente entre un cero intuitivo y un cero numérico; pero el principio de Bhaskar no es infalible en física, sino en la interpretación geométrica de la que nacieron como gemelos la física y el cálculo modernos. Mathis aporta multitud de ejemplos básicos de cómo falla la referencia geométrica original de la que sigue dependiendo todo.

El cálculo de Bhaskar a Euler bien puede calificarse de “premoderno”; el cálculo de Mathis, que rechaza el uso de los números complejos en física, como “antimoderno” y “antimodernista”. Al cálculo premoderno podemos calificarlo como “trascendente”, al de Mathis, para el que el cálculo es siempre y ante todo aplicación al mundo físico, “inmanente”. Y al cálculo moderno, que en su furia analítica no conoce más barrera en sus principios que la exclusión de la división por cero, dentro de este contexto bien podemos calificarlo de “intrascendente”, aun cuando no ha podido tener mayor incidencia en todos los órdenes de la vida. Intrascendente porque a pesar de haber afectado a todo no se ha comprometido con nada, permaneciendo en una tierra de nadie que no es sino la de los matemáticos; intrascendente porque no quiere ni puede llegar al fondo de nada, y menos a su propio fondo, aunque sí quiere resolver todos tipo de problemas, ya estén dentro o fuera de su propia tradición.

Su posición “indefinida”, para emplear el adjetivo con que se califica a la división por cero, es enteramente análoga a la de la física, que ni se ha comprometido con la fidelidad en la descripción de los fenómenos, ni con la pureza y homogeneidad de sus ecuaciones, sino que se ha quedado a mitad de camino sin por otro lado pretender dar una explicación causal de los procesos —otra tierra de nadie, salvo los propios físicos.

Para Platón el mundo sensible es falso pero hay un mundo verdadero donde lo que aquí son sombras matemáticas adquiere cuerpo. Para la física desde Kepler y Galileo la forma de descubrir la verdad del mundo de las apariencias, que es falso, es gracias a las matemáticas, con lo que asistimos a la creación de un nuevo “mundo físico” donde existen leyes pero se renuncia a dar cuenta de los procesos más directamente observables. De este modo, la física se hace mundana por su vocación de manipulación, y ultramundana al refugiarse en la matefísica. Para antimodernos como Mathis, llegados tras la ciencia postmoderna, la predicción matemática se simplifica justamente cuando se atiende a la descripción de la realidad física de la que surge, en vez de cuando se abstrae irremediablemente de sus condiciones como hace el cálculo.

Se plantea entonces un experimento y ejercicio mental más que interesante para desenredar lo que ya parece enredado sin remedio. Se puede probar a trabajar con algunos problemas básicos de cálculo según el principio de Bhaskar, que en retrospectiva no deja de ser un “principio de desobstrucción”, para luego abordar esos mismos problemas con el antagónico cálculo de diferencias finitas o cálculo diferencial constante de Mathis. Se pueden contrastar ambos enfoques en problemas físicos elementales con números complejos, mecánica ondulatoria o rotaciones/orientaciones expresadas con cuaternios, por ejemplo. La misma esfera de Riemann tiene múltiples aplicaciones en física y sus puntos dan, por ejemplo, los valores de los estados de polarización de los fotones y rotaciones de partículas en general.

Puesto que el cálculo finito y el cálculo “premoderno” parecen abiertamente incompatibles, uno puede preguntarse qué es lo que podría haber en medio. ¿El cálculo estándar actual, quizás? Esto es más que dudoso. Queda entonces la tarea de averiguar, del gran número de infracciones del cálculo estándar, justificadas siempre por los fines, cuáles se deben a un análisis físico incorrecto y cuáles a la elusión del principio de Bhaskar. Los estudiosos del análisis tienen aquí una cuestión apasionante que va mucho más allá de las reconstrucciones históricas.

¿Qué criterio es mejor para la división del cero, si hubiera que elegir alguno? Tendría que ser aquel que da respuestas con sentido en una descripción física completa. En este caso, el que mejor encajara en el análisis dimensional de Mathis, que procura no eliminar dimensiones físicas relevantes. Por otra parte, como ya hemos dicho, este tipo de análisis brinda la posibilidad, si es que existe alguna, de explicar por qué correspondencia los números complejos son pertinentes en tantos problemas físicos. Esto aportaría un hilo común dentro de una muy vasta estructura de casos.

Se ha dicho que las álgebras de división del cero podrían suponer una transformación para la matemática igual que la que supuso en su día la introducción de los números imaginarios, pero esto es más que improbable sin una revisión a fondo del cálculo, que más tendría que parecerse a una restricción que a la enésima expansión de su campo. El cálculo moderno se considera válido sobre todo por su ingeniería inversa a partir de los resultados conocidos, mientras que su fundamentación sigue llenando las grandes lagunas de sus manipulaciones mediante isomorfismos y argumentos de teoría de conjuntos análogos a los argumentos proyectivos. Si se ha explotado el hecho de que en matemáticas siempre “hay mucho espacio al fondo”, ya va siendo hora de traer ese espacio al frente.

El estudio de estas correspondencias supone en sí mismo un programa de investigación y apunta a una nueva concepción teórica y práctica del continuo.

8. Metanoia, continuo y cuaternidad

Cualquier consideración científica, del orden que sea, es ya demasiado particular, y en un ensayo como éste es obligado retornar a la perspectiva más general.

Fue probablemente en una reacción contra el idealismo intrínseco al símbolo trinitario que una serie de pensadores de estilo muy variado se volvió en el siglo XX, y especialmente tras la posguerra, hacia los esquemas cuaternarios como símbolos de la totalidad. Quizás fue Jung el primero en percibir la necesidad de este giro, seguido luego por autores tan conocidos como Heidegger con su cuaternidad tierra-cielo-celestes-mortales, o el Schumacher de la magnífica “Guía para perplejos” con su cuádruple campo de conocimiento: yo interno, mundo interno, yo externo, mundo externo, opuestos dos a dos como determinantes de la experiencia, la apariencia, la comunicación y la ciencia.

Raymond Abellio también abogó por un modelo cuaternario de la percepción y por ende del conocimiento, en el que la mera relación entre el objeto y el órgano de los sentidos es siempre sólo una parte de una proporción mayor —una relación de relaciones- , puesto que el objeto presupone al mundo y la sensación del órgano a un cuerpo completo que lo organiza y le da un sentido definido:

Lo más importante de esta exactante proporción es la ignorada pero siempre presente continuidad entre los extremos “mundo” y “cuerpo”, donde el mundo no es una suma de objetos, ni el cuerpo de órganos, partes o entidades. En definitiva, el primitivo medio homogéneo de referencia al que por fuerza han de conectarse las llamadas “fuerzas fundamentales”, puesto que ya sabemos de antemano que cualquier movimiento o cambio de densidad es sólo una manifestación del principio de equilibrio dinámico, ya sea como suma o como producto.

El cuerpo desde dentro es el sensorio común indiferenciado del que han salido los diferentes órganos, y sin el cual no habría sujeto ni “sentido común”. En armonía con esto, puede hablarse de dos modos de la inteligencia, uno que parece moverse y seguir a su objeto, y otro absolutamente inmóvil que nos permite escuchar nuestras propias mentaciones, y sin el cual no podrían existir. Hágase la prueba de pensar sin escucharse a sí mismo y se verá que esto es imposible: la misma compulsión a pensar no es sino el deseo de escucharse.

Abellio propuso una “estructura absoluta” del espacio a la que estarían igualmente referidos los “movimientos de la conciencia”, y que no serían sino los ejes del espacio plano ordinario con las seis direcciones tradicionales.

La relación de los movimientos del cuerpo con respecto a su centro de gravedad como origen de coordenadas es similar a los movimientos de la inteligencia orientada a objetos con respecto a la inteligencia inmutable. Ciertamente el “espacio de la mente” no parece extenso en absoluto, pero para comprobar su íntima conexión con lo físico basta con poner en práctica cualquiera de esos ejercicios isométricos en los que uno permanece de pie y se ahueca simplemente para percibir el balance en los micromovimientos necesarios para mantener la postura. Si lo íntimo es la interpenetración de lo interno y lo externo, tenemos aquí tanto un ejercicio físico como para la inteligencia, que permite comprobar la íntima, trascendental relación entre movimiento e inmovilidad.

Según Abellio, “la percepción de relaciones pertenece al modo de visión de la conciencia “empírica”, mientras que la percepción de proporciones forma parte del modo de visión de la conciencia “trascendental”: esto se aplicaría a las cuatro partes o momentos de la cuaternidad ya expresada. Como buen heredero de Husserl, Abellio hace un gran esfuerzo por ir más allá de los esquemas conceptualistas pero aún sigue dentro de la servidumbre del conocimiento. La toma de conciencia global o “conciencia de la conciencia” no es objeto de una regresión infinita sólo en virtud de una suerte de “paso al límite” en última instancia que sigue recordándonos cosas como el “interpretante último” de Peirce.

El dilema último de la comprensión, tal como lo puso Siddharameshwar, es que sin desapego no hay conocimiento, y sin conocimiento no hay desapego. Ahora bien, este desapego no es la mera separación que tomamos con respecto al objeto, sino algo que toca más hondamente a la voluntad. Se supone que queremos saber, ¿pero saber qué? Ni siquiera sabemos eso, y tal vez ni siquiera queramos saberlo. Los científicos se afanan en buscar la solución de problemas heredados, pero es mucho más importante saber dejar a un lado las preguntas que no se ha hecho uno mismo.

El yo empírico no puede ser el operador de la conciencia global o conciencia sin objeto, y el “yo trascendental” es sólo un nombre para aquello que nunca dice “yo” ni lo necesita: para ese continuo mundo-cuerpo dentro del cual aparecen objetos de los sentidos. Ese continuo a veces nos concede algo de conocimiento, si aspiramos a merecerlo, tal vez con el sólo objeto de que se produzca el desprendimiento de la inteligencia y el yo que normalmente son conscientes de la adhesión y la separación y viven de su alternancia, pero pierden el suelo en el punto intermedio.

Así que podría decirse que todo conocimiento global es simplemente una gracia de la que el yo empírico es objeto para facilitar su desprendimiento y darle alguna aptitud; y está perfectamente dentro de la lógica que sólo pueda surgir más allá del deseo de conocimiento particular —la gracia es idéntica al ser, lo no particular por excelencia. Pero también hay en torno a esta palabra neutra, “ser”, una transubstanciación de intelecto y voluntad.

La cuádruple proporción de Abellio apunta a una sucesión de umbrales, de perspectivas cada vez más amplias, pero que no deberíamos ver sólo como ángulos de conocimiento, sino como grados de participación en el ser, surgidos de un doble movimiento de incorporación y asunción. Por supuesto, ese doble movimiento también se da en el conocimiento científico, pero mientras la Naturaleza sea tan sólo objeto hablamos de dos tipos de conocimiento que ni siquiera son comparables.

En este contexto la metanoia o metacognición no puede dar de ningún modo lugar a un regreso infinito, porque lo que en realidad supone es una repetida transformación de lo mudable o aparente con respecto a lo inmutable que nunca se deja ver.

Por otra parte el “giro hacia el cuerpo” de la filosofía más reciente es demasiado parcial como para no ser fácil presa de la instrumentalización —mucho se ha hablado del sexo y de “máquinas deseantes” pero lo cierto es que el deseo, que es una agencia femenina, está más en el alma o incluso en el espíritu que en el cuerpo; mientras que la voluntad, que sí está mucho más literalmente encerrada en los cuerpos y es un agente masculino, se ignora sistemáticamente. En el fondo se sigue viendo al cuerpo como objeto, aunque por otro lado la ciencia nos prevenga de considerar a una Naturaleza externa deseante, que es Naturaleza naturante.

Considerando “la parte del cuerpo” es obligado mencionar la ambigüedad fundamental de la mecánica relacional inaugurada por Weber con respecto a las tres energías —cinética, potencial, interna-, que aunque es una mera consecuencia de sus ecuaciones no deja de resultar natural, y que habría que tener en cuenta al respecto de ciertos balances y proporciones.

Las vibraciones longitudinales internas a los cuerpos en movimiento de Noskov, postuladas precisamente para justificar la conservación de la energía que en Weber era meramente formal —ni más ni menos que en las otras mecánicas- son una parte esencial del mismo tema, y es fácil ver cómo deberían “encajar” dentro de los datos de la mecánica clásica, cuántica y la relatividad —y en el transporte paralelo de la llamada fase geométrica. En general, en cualquier campo al distinguir entre partícula y el campo tenemos un problema de auto-interacción bajo aceleraciones que coincide cuantitativamente con la oscilación de Noskov. Esta interpretación en términos de resonancia está mucho más en armonía con las concepciones más antiguas, y mucho más intemporales, de la Naturaleza.

Tal como ya hemos visto en diferentes lugares, el potencial retardado y las oscilaciones correspondientes no sólo estarían presentes a un nivel físico fundamental, sino también en sistemas orgánicos complejos como la respiración y la circulación sanguínea.

El Verbo Solar, el suscitador, Savitr, es totalmente incomprensible en nuestra representación objetiva de la Naturaleza sin las nociones gemelas de vibración interna y resonancia externa; y estas nociones se conectan naturalmente cuando ponemos fuerza y potencial sobre una misma base. Para obtener otra visión del Continuo físico, habría que tratar otras cuestiones de gran importancia, como las transiciones de escala en espacio y tiempo, las dimensiones fraccionales y los operadores fraccionales, pero eso nos devolvería de lleno al dominio de la complejidad; en cualquier caso ya hemos indicado algunas relaciones.

“Ayúdame y te ayudaré”, nos dice hoy como siempre la Naturaleza. La ciencia moderna, tan imponente como resulta, no sabe nada de esta continuidad, que pasa de inmediato por el propio cuerpo pero que se extiende hasta los límites del Mundo.

Referencias

Henri Poincaré, Nicolae Mazilu, Hertz’s Ideas on Mechanics (1897)

Nikolay Noskov, The phenomenon of retarded potentials

V. E. Zhvirblis, Stars and Koltsars (1995)

B. Binder, Recurrent Anholonomy in Curved Space Navigation Solved by the Riemann Zeta Function (2011)

Miles Mathis, milesmathis.com

Juan Rius Camps, La nueva dinámica irreversible y la metafísica de Aristóteles (2010)

Patrick Cornille, Why Galilean mechanics is not equivalent to Newtonian mechanics (2018); Simple electrostatic aether drift sensors (SEADS): New dimensions in space weather and their possible consequences on passive field propulsion systems (2000)

Yuri N. Ivanov, Rythmodynamics (2007)

Anirban Bandyopadhyay et al., A Brain-like Computer Made of Time Crystal: Could a Metric of Prime AloneReplace a User and Alleviate Programming Forever? (2018)

Bandyopadhyay, Tam Hunt, Resonance chains and new models of the neuron (2019)

Jan Bergstra, Division by Zero: A Survey of Options (2019)

Okoh Ufuoma, Exact Arithmetic of Zero and Infinity Based on the Conventional Division by Zero 0/0= 1  (2019)

Raymond Abellio, La structure absolue, Essai de phénoménologie génétique, París, 1965

Miguel Iradier, hurqualya.net

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *