En física y matemáticas, como en todas las áreas de la vida, tenemos principios, medios y fines. Los principios son nuestros puntos de partida, los medios, desde el punto de vista práctico-teórico, son los procedimientos de cálculo, y los fines son las interpretaciones. Estas últimas, lejos de ser un lujo filosófico, son las que determinan el contorno entero de representaciones y aplicabilidad de una teoría.
En cuanto a los principios, como ya comentamos, si queremos ver más de cerca de dónde emerge la razón continua, deberíamos observar todo lo posible las ideas de continuidad, homogeneidad y reciprocidad. Y esto incluye la consideración de que todos los sistemas son abiertos, puesto que si no son abiertos no pueden cumplir con el tercer principio de una forma digna de considerarse «mecánica».
Estos tres, o si se quiere cuatro principios, están incluidos de forma inespecífica en el principio de equilibrio dinámico, que es la forma de prescindir del principio de inercia, y de paso, del de relatividad. Si por lo demás hablamos de continuidad, ello no quiere decir que afirmemos que el mundo físico deba de ser necesariamente continuo, sino que no se debería romper lo que parece una continuidad natural sin necesidad.
En realidad los principios también determinan el alcance de nuestras interpretaciones aunque no las precisan.
En cuanto al cálculo, que en forma de predicciones se ha convertido para la física moderna en la casi exclusiva finalidad, es precisamente el hecho de que siempre se trata de justificar la forma en que se han llegado a resultados que ya se conocían de antemano —en el comienzo de las teorías, antes de que se empiecen a emitir predicciones potencialmente contenidas en ella- lo que lo ha convertido en un útil heurístico por encima de consideraciones de lógica y consistencia. Por supuesto que existe una trabajosa fundamentación del cálculo por Bolzano, Cauchy y Weierstrass, pero ésta se preocupa más de salvar los resultados ya conocidos que de hacerlos más inteligibles.
En este punto no podemos estar más de acuerdo con Mathis, que ha emprendido una batalla en solitario por intentar depurar y simplificar estos fundamentos. A lo que Mathis propone se le puede buscar el precedente del cálculo de diferencias finitas y el cálculo de umbrales, pero éstos se consideran subdominios del cálculo estándar y en última instancia no han contribuido a aportar claridad.
Una velocidad instantánea sigue siendo un imposible que la razón rechaza, y además no existe tal cosa sobre un gráfico. Si hay teorías físicas, como la relatividad especial, que rompen innecesariamente con la continuidad de las ecuaciones clásicas, aquí tenemos el caso contrario, pero con otro efecto igualmente disruptivo: se crea una falsa noción de continuidad, o pseudocontinuidad, que no está justificada por nada. El cálculo moderno nos ha creado para nosotros una ilusión de dominio sobre el infinito y el movimiento sustrayendo al menos una dimensión del espacio físico, no haciendo en este caso honor a ese término «análisis» del que tanto se precia. Y esto, naturalmente, debería tener consecuencias en todas las ramas de la física matemática [45].
Los argumentos de Mathis son absolutamente elementales e irreductibles; se trata también de cuestiones de principio, pero no sólo de principio puesto que los problemas del cálculo son eminentemente técnicos. El cálculo original se concibió para calcular áreas bajo curvas y tangentes a esas curvas. Es evidente que las curvas de un gráfico no pueden confundirse con las trayectorias reales de objetos y que en ellas no hay puntos ni instantes, luego las generalizaciones de sus métodos contienen esa conflación dimensional.
El cálculo de diferencias finitas está además íntimamente relacionado con el problema de las partículas con extensión, sin las cuales es casi imposible pasar de la abstracción ideal de las leyes físicas a las formas aparentes de la naturaleza.
El mismo Mathis admite repetidamente, por ejemplo en su análisis de la función exponencial, que hay muchísimas cosas todavía por definir en su redefinición del cálculo, pero esto deberían ser buenas noticias, no malas. Al menos el procedimiento es claro: la derivada no se encuentra en un diferencial que se aproxima a cero, sino en un subdiferencial que es constante y que sólo puede ser la unidad, un intervalo unidad; un diferencial sólo puede ser un intervalo, nunca un punto, y es a esto a lo que la misma definición del límite debe su rango de validez. En los problemas físicos ese intervalo unidad debe corresponder a un tiempo transcurrido y una distancia recorrida.
Tratando de ver más allá de los esfuerzos de Mathis, podría decirse que, si las curvas vienen definidas por exponentes, cualquier variación en una función tendría que poder expresarse en forma de equilibrio dinámico cuyo producto es la unidad; y en todo caso por un equilibrio dinámico basado en un valor constante unitario, que es el intervalo. Si el cálculo y la mecánica clásicos crecieron uno junto al otro como gemelos casi indistinguibles, con aún más razón debería hacerlo una mecánica relacional en la que la inercia se disuelve siempre en movimiento.
La parte heurística del cálculo moderno se sigue basando en el promedio y la compensación de errores; mientras que la fundación es racionalizada en términos de límite, pero funciona por el intervalo unidad subyacente. La semejanza entre la barra de una balanza y una tangente es obvia; lo que no se ve es qué es precisamente lo que se compensa. El cálculo de Mathis no opera por promedios, el que opera por promedios es el cálculo estándar. Mathis ha encontrado el fiel de la balanza, ahora lo que falta es poner a punto los platos y los pesos. Luego volveremos sobre esto.
Las disputas que de cuando en cuando todavía existen, incluso entre grandes matemáticos, respecto al cálculo estándar y no estándar, o incluso las diversas formas de tratar infinitesimales, revelan al menos que distintos caminos son posibles; sólo que para la mayoría de nosotros resultan remotas y muy alejadas de las cuestiones básicas que habría que analizar en primer lugar.
Antes hablábamos de una fórmula de Tanackov para calcular la constante e mucho más rápida que «el método directo» clásico; pero es que matemáticos aficionados como el ya citado Harlan Brothers han encontrado, hace apenas veinte años, muchas formas cerradas diferentes de calcularla más rápidas y a la par que más compactas. La comunidad matemática lo puede tratar como una curiosidad, pero si esto pasa con los rudimentos más básicos del cálculo elemental, qué no podrá ocurrir en la tupida selva de las funciones de orden superior.
Un caso hasta cierto punto comparable sería el del cálculo simbólico o álgebra computacional, que ya hace 50 años comprobó que muchos algoritmos clásicos, incluida gran parte del álgebra lineal, eran terriblemente ineficientes. Sin embargo, y por lo que se ve, nada de esto ha afectado al cálculo propiamente dicho.
«Trucos» como los de Brothers permanecen en el dominio de la heurística, aunque hay que reconocer que ni Newton, ni Euler, ni ningún otro gigante del cálculo los conocía; pero aunque sean heurística no pueden dejar de apuntar en la dirección correcta, puesto que la simplicidad suele ser indicativa de la verdad. Sin embargo en el caso de Mathis hablamos no sólo de los fundamentos mismos, que ninguno de las revisiones del cálculo simbólico ha osado tocar, sino incluso de la validez de los resultados, lo que ya rebasa lo que los matemáticos están dispuestos a considerar. Al final del capítulo veremos si se puede justificar esto.
En realidad, pretender que un diferencial tienda a cero equivale a permitirlo todo con tal de llegar al resultado deseado; es la condición ideal de versatilidad para la heurística y la adhocracia. La exigencia fundamental del cálculo constante o unitario —del cálculo diferencial sin más- puede parecer al principio como poner un palo en una rueda que ya funciona a pleno rendimiento, pero es ante todo veraz. Ninguna cantidad de ingenio puede sustituir a la rectitud en la búsqueda de la verdad.
Lo de Mathis no es algo quijotesco; hay aquí mucho más de lo que puede verse a simple vista. Existen estándares reversibles y estándares prácticamente irreversibles, como la ineficaz distribución actual de las letras del alfabeto en el teclado, que parece imposible de cambiar aunque ya nadie usa las viejas máquinas. No sabemos si el cálculo infinitesimal será otro ejemplo de estándar imposible de revertir pero lo que aquí está en juego está mucho más allá de cuestiones de conveniencia, y bloquea una mejor comprensión de una infinidad de asuntos; su superación es condición indispensable para la transformación cualitativa del conocimiento.
*
Los físicos teóricos de hoy, obligados a una manipulación altamente creativa de las ecuaciones, tienden a desestimar el análisis dimensional como algo irrelevante y estéril; seguramente esa actitud se debe a que consideran que cualquier revisión de los fundamentos está fuera de lugar, y sólo cabe mirar hacia adelante.
En realidad, el análisis dimensional es más inconveniente que otra cosa, puesto que de ningún modo es algo inocuo: puede demostrar con sólo unas líneas que la carga es equivalente a la masa, que las relaciones de indeterminación de Heisenberg son condicionales e infundadas, o que la constante de Planck sólo debería aplicarse al electromagnetismo, en lugar de generalizarse a todo el universo. Y puesto que a la física teórica moderna está en el negocio de generalizar sus conquistas a todo lo imaginable, cualquier contradicción o restricción a su expansión por el único lugar por el que se le permite expandirse tiene que verse con notoria hostilidad.
En realidad es fácil ver que el análisis dimensional tendría que ser una fuente importante de verdades con sólo que se le permitiera ejercer su papel, puesto que la física moderna es una torre de Babel de unidades sumamente heterogéneas que son el reflejo de las contorsiones realizadas en nombre de la simplicidad o elegancia algebraica. Las ecuaciones de Maxwell, en comparación con la fuerza de Weber que le precedió, son el ejemplo más elocuente de esto.
El análisis dimensional cobra además un interés añadido cuando ahondamos en la relación entre cantidades intensivas y extensivas. La desconexión entre las constantes matemáticas e y φ también está asociada con esta amplia cuestión. En materia de entropía, por ejemplo, usamos los logaritmos para convertir propiedades intensivas como la presión y la temperatura en propiedades extensivas, convirtiendo por conveniencia relaciones multiplicativas en relaciones aditivas más manejables. Esa conveniencia se convierte en necesidad sólo para los aspectos que ya son extensivos, como la expansión.
Ilya Prigogine mostró que cualquier tipo de energía puede descomponerse en una variable intensiva y otra extensiva cuyo producto nos da una cantidad; una expansión, por ejemplo viene dada por el producto PxV de la presión (intensiva) por el volumen (extensiva). Lo mismo puede hacerse para relaciones como cambios de masa/densidad con la relación entre velocidad y volumen, etcétera.
La imparable proliferación de medidas en todas las especialidades ya hace cada vez más necesaria la simplificación. Pero, aparte de eso, existe la urgencia de reducir la heterogeneidad de magnitudes físicas si es que queremos que la intuición le gane la batalla a la complejidad de la que somos cómplices.
Todo esto además se relaciona estrechamente con el cálculo finito y la teoría algorítmica de la medida, igualmente finitista, desarrollada por A. Stakhov. La teoría matemática clásica de la medida se basa en la teoría de conjuntos de Cantor y como es sabido no es constructiva ni está conectada con los problemas prácticos, por no hablar ya de los arduos problemas de la teoría de medida en física. Sin embargo la teoría desarrollada por Stakhov es constructiva e incorpora naturalmente un criterio de optimización.
Para apreciar el alcance de la teoría algorítmica de la medida en nuestra presente babel numérica hay que comprender que nos lleva de vuelta a los orígenes en Babilonia del sistema de numeración posicional, llenando una laguna de gran importancia en la actual teoría de los números y los campos numéricos. Esta teoría es isomorfa con un nuevo sistema numérico y una nueva teoría de las poblaciones biológicas. El sistema numérico, creado por George Bergman en 1957 y generalizado por Stakhov, se basa en las potencias de φ. Si para Pitágoras «todo es número», para este sistema «todo número es proporción continua».
La teoría algorítmica de la medida también plantea la cuestión del equilibrio, puesto que su punto de partida es el llamado problema de Bachet-Mendeleyev, que curiosamente aparece también por primera vez en la literatura occidental en 1202 con el Liber Abacci de Fibonacci. La versión moderna del problema consiste en encontrar el sistema óptimo de pesos estándar para una balanza que tiene un tiempo de respuesta o sensibilidad. En el caso límite, en que no hay lapso de respuesta, el tiempo no interviene como factor operativo en el acto de encontrar los pesos.

Según Stakhov, el punto clave del problema de los pesos es la profunda conexión entre los algoritmos de medida y los métodos posicionales de numeración. Sin embargo, mi impresión es que aún admite una conexión más profunda con el cálculo mismo y los problemas de ajustar una función. En fin, los pesos de los platillos que necesitaba el fiel de la balanza identificado por Mathis. Naturalmente, no decimos que sea necesario utilizar potencias de φ ni cambiar de sistema de numeración, pero se pueden desarrollar ideas muy útiles sobre los algoritmos más simples.
Por supuesto, la teoría algorítmica de la complejidad nos dice que no se puede demostrar que un algoritmo es el más simple, pero eso no significa que no los busquemos continuamente, con independencia de la demostración. La eficiencia y la demostración no tienen por qué coincidir, eso no tiene nada de sorprendente.
El ser humano tiende inevitablemente a optimizar aquello que más mide; sin embargo no tenemos una teoría que armonice las necesidades de la metrología y la teoría de la medida con las de la matemática, la física y las ciencias descriptivas, ya sean sociales o naturales. Hoy de hecho existen muchas teorías de la medida diferentes, y cada disciplina tiende a buscar aquello que más le conviene. Sin embargo todas las métricas vienen definidas por una función, y las funciones vienen definidas por el cálculo o análisis, que no quiere tener nada que ver con los problemas prácticos de la medida y pretende ser tan pura como la aritmética aunque esté muy lejos de ello.
Esto puede parecer una situación un tanto absurda y de hecho lo es, pero también sitúa a una hipotética teoría de la medida que esté en contacto directo con los aspectos prácticos, los fundamentos del cálculo y la aritmética en una situación estratégica privilegiada por encima de la deriva e inercia de las especialidades.
El cálculo o análisis no es una ciencia exacta, y es demasiado pretender que lo sea. Por un lado, y en lo que respecta a la física, comporta al menos una conexión directa con las cuestiones de medida que debería ser explícita del lado mismo de la matemática; por el otro lado, el carácter altamente heurístico de sus procedimientos más básicos habla por sí solo. Si la propia aritmética y la geometría tienen grandes lagunas, siendo incomparablemente más nítidas, sería absurdo pretender que el cálculo no puede tenerlas.
*
Por otra parte, la física nunca va a dejar de tener tanto componentes discretos y estadísticos —cuerpos, partículas, ondas, colisiones, actos de medición, etc- como continuos, lo que hace aconsejable un análisis estadístico relacional cronométrico.
Un ejemplo de análisis estadístico relacional es el que propone V. V. Aristov. Aristov introduce un modelo constructivo y discreto del tiempo como movimiento usando la idea de sincronización y de reloj físico que ya introdujo Poincaré justamente con la problemática del electrón. Aquí cada momento del tiempo es un cuadro puramente espacial. Pero no sólo se trata de la conversión del tiempo en espacio, también de entender el origen de la forma matemática de las leyes físicas: «Las ecuaciones físicas ordinarias son consecuencias de los axiomas matemáticos, ‘proyectados’ en la realidad física por medio de los instrumentos fundamentales. Uno puede asumir que es posible construir relojes diferentes con una estructura diferente, y en este caso tendríamos diferentes ecuaciones para la descripción del movimiento.»
El mismo Aristov ha provisto modelos de reloj partiendo de procesos no periódicos, esto es, supuestamente aleatorios, que también tienen un gran interés. Un reloj que parte de un proceso no periódico podría ser, por ejemplo, un motor de pistón en un cilindro; y esto puede dar pie a incluir igualmente los procesos termodinámicos.
Hay que notar, además, que los procesos cíclicos, aun a pesar de su periodicidad, enmascaran influencias adicionales o ambientales, como bien hemos visto con la fase geométrica. A esto se suma el filtro deductivo de principios innecesariamente restrictivos, como ya hemos visto en el caso de la relatividad. Y por si todos ello fuera poco, tenemos el hecho, apenas reconocido, de que muchos procesos considerados puramente aleatorios o «espontáneos», como la desintegración radiactiva, muestran estados discretos durante fluctuaciones en procesos macroscópicos, como ha mostrado extensivamente S. Shnoll y su escuela durante más de medio siglo.
Efectivamente, desde la desintegración radiactiva a las reacciones enzimáticas y biológicas, pasando por los generadores automáticos de números aleatorios, muestran periodos recurrentes de 24 horas, 24 horas, 27 y 365 días, que obviamente responden a un patrón astronómico y cosmofísico.
Sabemos que esta regularidad es «cribada» y descontada rutinariamente como «no significativa», en un ejemplo de hasta qué punto los investigadores están bien enseñados a seleccionar los datos, pero, más allá de esto, la pregunta sobre si tales reacciones son espontáneas o forzadas permanece. Pero se puede avanzar una respuesta: uno las llamaría espontáneas incluso en el caso en que pudiera demostrarse un vínculo causal, desde el momento en que los cuerpos contribuyen con su propio impulso.
El rendimiento estadístico de las redes neuronales multinivel —la estrategia de la fuerza bruta del cálculo- se ve frenado incrementalmente por el carácter altamente heterogéneo de los datos y unidades con los que se los alimenta, aun a pesar de que obviamente las dinámicas tratadas sean independientes de las unidades. A la larga no se puede prescindir de la limpieza de principios y criterios, y los atajos que han buscado las teorías para calcular suponen un peso muerto que se acumula. Y por encima de todo, de poco sirve a qué conclusiones puedan llegar las máquinas cuando nosotros ya somos incapaces de interpretar las cuestiones más simples.
El rendimiento de una red relacional es también acumulativo, pero justo el sentido contrario; tal vez habría que decir, más bien, que crece de manera constructiva y modular. Sus ventajas, como los de la física que lleva tal nombre —y las redes de información en general- no se advierten a primera vista pero aumentan con el número de conexiones. La mejor forma de probar esto es extendiendo la red de conexiones relacionales. Y efectivamente, se trata de trabajo e inteligencia colectivas.
Con los cortes arbitrarios a la homogeneidad relacional aumenta la interferencia destructiva y la redundancia irrelevante; por el contrario, a mayor densidad relacional, mayor es la interferencia constructiva. No creo que esto requiera demostración: Las relaciones totalmente homogéneas permiten grados de inclusión de orden superior sin obstrucción, del mismo modo que las ecuaciones hechas de elementos heterogéneos comportan ecuaciones dentro de ecuaciones en calidad de elementos opacos o nudos por desenredar [46].
*
Volvamos de nuevo al cálculo, aunque bajo otro ángulo. El cálculo diferencial de Mathis no siempre obtiene los mismos resultados del cálculo estándar, lo que parecería suficiente para descartarlo. Puesto que su principio es indudable, los errores podrían estar en el uso del principio, en su aplicación, quedando todavía los criterios por clarificar. Esto por un lado. Por el otro, que hay una «reducción dimensional» de las curvas en el cálculo estándar es un hecho, que sin embargo no es muy reconocido porque después de todo ahora se supone que los gráficos son secundarios y aun prescindibles.
¿Lo son realmente? Sin los gráficos el cálculo nunca hubiera nacido, y eso ya es suficiente. David Hestenes, el gran valedor del álgebra y cálculo geométricos, suele decir que la geometría sin álgebra es torpe, y el álgebra sin geometría ciega. Habría que añadir que no sólo el álgebra, sino igualmente el cálculo, y en una medida mayor de la que nos imaginamos; siempre que comprendamos que en la «geometría» hay más de lo que suelen decirnos los gráficos. Vamos ahora a observar otro tipo de gráficos, esta vez de vórtices, debidos a P. A. Venis [47].

En la secuencia de transformación de vórtices Venis hace una estimación de su dimensionalidad que al principio puede parecer arbitraria, aunque se basa en algo tan «evidente» como el paso del punto a la recta, de la recta al plano y del plano al volumen. También sorprenden las dimensiones fraccionarias, hasta que comprendemos que se trata de una simple estimación sobre la continuidad dentro del orden de la secuencia, que no puede ser más natural.

Aunque Venis no busque una demostración, su secuencia de transformaciones es más convincente que un teorema. Basta mirar un minuto con atención para que su evolución resulte evidente. Se trata de una clave general para la morfología, con independencia de la interpretación física que queramos darle.
Para Venis la aparición de un vórtice en el plano físico es un fenómeno de proyección de una onda de un campo único donde las dimensiones existen como un todo compacto y sin partes: otra forma de hablar del medio homogéneo como unidad de referencia para el equilibrio dinámico. Está claro que en un medio completamente homogéneo no podemos caracterizarlo ni como lleno ni como vacío, y lo mismo da decir que tiene un número infinito de dimensiones que decir que no tiene ninguna.
Así, tanto las dimensiones ordinarias, como las fraccionarias, e incluso las dimensiones negativas son un fenómeno de proyección, de geometría proyectiva. La naturaleza física es real puesto que participa de este campo único o medio homogéneo, y es una ilusión proyectada en la medida en que lo concebimos como una parte independiente o una infinidad de partes separadas.
Las dimensiones negativas se deben a un ángulo de proyección menor de 0 grados, y conducen a la evolución toroidal que va más allá del bulbo en equilibrio en tres dimensiones —es decir, las dimensiones superiores a las tres ordinarias. Forman por tanto un contraespacio proyectivo complementario del espacio ordinario de la materia, que no es menos proyección que el primero con respecto a la unidad. La luz y la electricidad están en extremos opuestos de la manifestación, de evolución e involución en la materia: la luz es el fiat, y la electricidad la extinción. Se podría elaborar mucho sobre esto pero dejaremos algo para luego.
Cortes arbitrarios en la secuencia dejan expuestas dimensiones fraccionales que coinciden con las formas que apreciamos. Puesto que el propio Mathis atribuye las diferencias de resultados entre su cálculo y el cálculo estándar a que este último elimina al menos una dimensión, y en la secuencia de transformaciones tenemos toda una serie de dimensiones intermedias para funciones básicas, éste sería un excelente banco de pruebas para comparar ambos.
Michael Howell afirma que con el análisis fractal se evita la reducción de dimensiones, y traduce la curva exponencial en «una forma fractal de aceleración variable» [48]. Hay que recordar que según Mathis el cálculo estándar tiene errores incluso en la función exponencial; el análisis de la evolución dimensional de los vórtices nos brinda un amplio espectro de casos para sacarnos de dudas. Pienso en derivadas fraccionales y curvas diferenciables, antes que en fractales entendidos como curvas no diferenciables. Sería interesante ver cómo se aplica el diferencial constante a derivadas fraccionales.
La historia del cálculo fraccional, que ha adquirido tanto auge en el siglo XXI, se remonta a Leibniz y a Euler y es uno de los raros casos en que matemáticos y físicos echan en falta una interpretación. A pesar de que su uso se ha extendido a dominios intermedios en procesos exponenciales, ondulatorios, difusivos y de muchos otros tipos, la dinámica fraccional presenta una dependencia no local de la historia que no concuerda con el tipo de evolución temporal acostumbrado; aunque también existe un cálculo fraccional local. Para tratar de conciliar esta divergencia Igor Podlubny propuso distinguir entre un tiempo cósmico inhomogéneo y un tiempo individual homogéneo [49].
Podlubny admite que la geometrización del tiempo y su homogeneización se deben ante todo al cálculo, y nota que los intervalos de espacio pueden compararse simultáneamente, pero los de tiempo no, y sólo podemos medirlos como secuencia. Lo que puede sorprender es que este autor atribuya la no homogeneidad al tiempo cósmico, en lugar de al tiempo individual, puesto que en realidad la mecánica y el cálculo se desarrollan al unísono bajo el principio de la sincronización global, de la simultaneidad de acción y reacción. En esto la relatividad no es diferente de la mecánica de Newton. El tiempo individual sería una idealización del tiempo creado por la mecánica, lo que es ponerlo todo del revés: en todo caso sería el tiempo de la mecánica el que es una idealización.
Por un lado el cálculo fraccional es contemplado como un auxiliar directo para el estudio de todo tipo de «procesos anómalos»; pero por otro lado el mismo cálculo fraccional es una generalización del cálculo estándar que incluye al cálculo ordinario y por lo tanto también permite tratar toda la física sin excepción. Esto hace pensar que, más que ocuparse de procesos anómalos, es el cálculo ordinario el que produce una normalización, que afecta a todas las cantidades que computa y entre ellas el tiempo.
Venis también habla de ramas temporales y tiempo no homogéneo, aunque sus razonamientos se quedan más bien a mitad de camino entre la lógica de su secuencia, que representa un flujo del tiempo individualizado, y la lógica de la relatividad. Sin embargo es la lógica secuencial la que debería definir el tiempo en general y el tiempo individual o tiempo local en particular —no la lógica de la simultaneidad del sincronizador global. Volveremos pronto sobre esto.