La razón continua, la estadística y la probabilidad

Se dice desde hace algún tiempo que en la ciencia de hoy “la correlación reemplaza a la causación”, y por correlación se entiende evidentemente una correlación estadística. Pero ya desde Newton la física no se ha preocupado demasiado por la causación, ni podía hacerlo, así que no se trata tanto de un cambio radical como de un incremento progresivo en la complejidad de las variables.

En el manejo de distribuciones y frecuencias estadísticas apenas tiene sentido hablar de teorías falsas o correctas, sino más bien de modelos que se ajustan peor o mejor a los datos, lo que dota a esta área de mucha mayor libertad y flexibilidad con respecto a los supuestos. Las teorías físicas pueden ser innecesariamente restrictivas, y por el contrario una interpretación estadística es siempre demasiado poco vinculante; pero por otro lado, la física moderna está cada vez más saturada de aspectos probabilísticos, así que la interacción entre ambas disciplinas es cada vez estrecha en ambas direcciones.

Las cosas aún se ponen más interesante si introducimos la posibilidad de que el principio de máxima producción entropía esté presente en las ecuaciones fundamentales, tanto de la mecánica clásica como de la mecánica cuántica —y ya no digamos si se descubriesen relaciones básicas entre este principio y la proporción continua φ.

Tal vez el modelo de onda refleja/potencial retardado que hemos visto para el sistema circulatorio nos da una buena idea de un círculo virtuoso correlación/causación que cumple sobradamente con las exigencias de la mecánica pero deja en suspenso el sentido de la secuencia causa-efecto. A falta de construir esos vínculos más sólidos e internos, ahora nos contentaremos con mencionar algunas asociaciones más circunstanciales entre nuestra constante y las distribuciones de probabilidad.

La primera asociación de la media áurea con la probabilidad, la combinatoria, la distribución binomial y la hipergeométrica viene ya sugerida por la presencia de las series de Fibonacci en el triángulo polar ya comentado.

Cuando hablamos de probabilidad en la naturaleza o en las ciencias sociales dos distribuciones nos vienen ante todo a la cabeza: la casi ubicua distribución normal o gaussiana, en forma de campana, y las distribuciones de leyes de potencias, también conocidas como distribuciones de Zipf, de Pareto, o zeta para los casos discretos.

El ya citado Richard Merrick ha hablado de una “función de interferencia armónica” resultado de la amortiguación de armónicos, o dicho de otro modo, del cuadrado de las primeras doce frecuencias de la serie armónica partido por las frecuencias de los primeros doce números de Fibonacci. Se trataría, según su autor, de un equilibrio entre la resonancia espacial y la amortiguación temporal.

De este modo llega a lo que llama un “modelo simétrico de interferencia reflexiva”, formado de la media armónica entre un círculo y una espiral. Merrick insiste en la trascendental importancia que tiene para toda la vida su organización en torno a un eje, lo que ya Vladimir Vernadsky había considerado como el problema clave de la biología.

Richard Merrick, Harmonically guided evolution

Las ideas de Merrick sobre umbrales de máxima resonancia y máxima amortiguación pueden ponerse en concordancia con las ecuaciones de termomecánica de Pinheiro, y como ya hemos notado tendrían más alcance si contemplaran el principio de máxima entropía como conducente a la organización en lugar de lo contrario. Merrick elabora también una cierta teoría musical sobre una proporción privilegiada 5/6-10/12 a diferentes niveles, desde la organización del torso humano a la disposición de la doble hélice de DNA vista como la rotación de un dodecaedro en torno a un eje bipolar.

*

Las leyes de potencias y distribuciones zeta son igualmente importantes en la naturaleza y los acontecimientos humanos, y se presentan tanto en leyes de física fundamentales hasta la distribución de la riqueza entre la población, el tamaño de las ciudades o la frecuencia de los terremotos. Ferrer i Cancho y Fernández notan que φ es el valor en el que coinciden los exponentes de la distribución de probabilidad de una magnitud discreta y el del valor de la magnitud frente a su rango. De momento no se sabe si esto es una curiosidad o permitirá profundizar en el conocimiento de estas distribuciones [37].

Las distribuciones zeta o de Zipf están ligadas a las estructuras jerárquicas y a los acontecimientos catastróficos, y también se solapan con los fractales en el dominio espacial y con el llamado ruido 1/f en el dominio de los procesos temporales. A. Z. Mekjian hace un estudio mucho más generalizado de la aplicación de los números de Fibonacci-Lucas a la estadística que incluyen leyes de potencias hiperbólicas [38] .

I. Tanackov et al. muestran la estrecha relación de la distribución exponencial elemental con el valor 2ln φ, que les hace pensar que la aparición de de la proporción continua en la Naturaleza podría estar ligada a un caso especial de procesos de Markov —un caso no reversible, diríamos nosotros. Sabido es que las distribuciones exponenciales tienen máxima entropía. Con los números de Lucas, generalización de los de Fibonacci, se puede obtener una convergencia al valor de e mucho más rápida que con la misma expresión original de Bernouilli, lo que ya da en qué pensar; también con paseos no reversibles se puede obtener una convergencia más rápida que con el paseo aleatorio habitual [38bis].

Edward Soroko propuso una ley de armonía estructural para la estabilidad de los sistemas autoorganizados, basado en la razón continua y sus series considerando la entropía desde el punto de vista del equilibrio termodinámico [39]. Sin duda una parte de su trabajo es aprovechable o puede ser fuente de nuevas ideas, aunque aquí hemos hablado más de entropía en sistemas alejados del equilibrio.

Sería de gran interés precisar más las relaciones de las leyes de potencias con la entropía. El uso del principio de máxima entropía parece especialmente indicado para sistemas abiertos fuera de equilibrio y con alta autointeracción. Investigadores como Matt Visser piensan que el principio de máxima entropía entendido en el sentido de Jaynes permiten una interpretación muy directa y natural de las leyes de potencias [40].

Normalmente se buscan leyes de potencias discretas o leyes de potencias continuas, pero en la naturaleza se aprecia a menudo un término medio entre ambas como observa Mitchell Newberry a propósito del sistema circulatorio. Como casi siempre, en tales casos se impone la ingeniería inversa sobre el modelo natural. La proporción continua y sus series nos ofrecen un procedimiento recursivo óptimo para pasar de escalas continuas a discretas, y su aparición en este contexto podría ser natural [41].

El promedio logarítmico parece ser el componente más importante de estas leyes de potencias, y la base de los logaritmos naturales, el número e, lo asociamos de inmediato con el crecimiento exponencial en el que una determinada variable aumenta sin restricciones, algo que en la naturaleza sólo puede aparecer en breves lapsos de corta duración. En cambio la proporción continua parece surgir en un contexto de equilibrio crítico entre al menos dos variables. Pero esto nos llevaría más bien a las curvas logísticas o en S, que son una forma modificada de la distribución normal y también una compensación a escala de una función tangente hiperbólica. Por otro lado las distribuciones exponenciales y las de leyes de potencias parecen muy diferentes pero a veces pueden estar directamente conectadas, lo que merecería un estudio por sí solo.

Como ya se apuntó, también podemos conectar las constantes e y Φ a través del plano complejo, como en la igualdad (Φi = e ± πi/3). Aunque la entropía siempre se ha medido con álgebras de números reales, G. Rotundo y M. Ausloos han mostrado que también aquí el uso de valores complejos puede estar justificado, permitiendo tratar no sólo una energía libre “básica” sino también “correcciones debidas a alguna estructura de escala subyacente”[42]. El uso de matrices de correlación asimétricas tal vez pueda conectarse con las matrices áureas generalizadas por Stakhov y que Sergey Pethoukov ha aplicado a la información del código genético [43].

En el contexto mecánico-estadístico la máxima entropía es sólo un extremo referido al límite termodinámico y a escalas de recurrencia de Poincaré inmensurables; pero en muchos casos relevantes en la naturaleza, y evidentemente en el contexto termomecánico, hay que considerar una entropía de equilibrio no máxima, que puede estar definida por el grano grueso del sistema. Pérez-Cárdenas et al. demuestran una entropía de grano grueso no máxima unida a una ley de potencias, siendo la entropía tanto menor cuando más fina es la granulosidad del sistema [44]. Esta granulosidad se puede vincular con las constantes de proporcionalidad en las ecuaciones de la mecánica, como la propia constante de Planck.

*

La probabilidad es un concepto predictivo, y la estadística uno descriptivo e interpretativo, y ambos deberían estar equilibrados si no queremos que el ser humano esté cada vez más gobernado por conceptos que no entiende en absoluto.

Por poner un ejemplo, el grupo de renormalización de la física estadística tiene cada vez más importancia en el manejo de datos de los filtros multinivel del aprendizaje automático, hasta el punto en que hoy hay quien afirma que ambas son la misma cosa. Pero no hay ni que decir que este grupo surgió históricamente para compensar los efectos de la autointeracción del lagrangiano en el campo electromagnético, un tema central de este artículo.

Para la predicción, los efectos de la autointeracción son más que nada “patológicos”, puesto que complican los cálculos y conducen a menudo a infinitos —aunque la culpa de esto está en la incapacidad de tratar con partículas extensa de la relatividad especial, más que en la propia autointeracción. Pero para la descripción e interpretación el problema es el inverso, se trata de recuperar la continuidad de una realimentación natural rota por capas y más capas de reglas de cálculo, con sus convenciones y arbitrariedades. La conclusión no puede ser más clara: la búsqueda de predicciones, y la “inteligencia artificial” así concebida, ha crecido exponencialmente a costa de ignorar la inteligencia natural —la capacidad intrínseca de autocorrección en la naturaleza.

Si queremos revertir de alguna manera que el hombre sea gobernado por números que no entiende —y hasta los especialistas los entienden cada vez menos-, se impone ocuparse del camino regresivo o retrodictivo con al menos igual intensidad. Si los dioses destruyen a los hombres volviéndolos ciegos, los hacen ciegos por medio de las predicciones.

*

Como apunta Merrick, para la actual teoría de la evolución, si la vida desapareciera de este planeta o tuviera que empezar otra vez de cero, los resultados a largo plazo serían completamente diferentes, y si surgiera una especie racional sería biológicamente inconmensurable con el hombre. Eso es lo que comporta una evolución aleatoria. En una evolución armónicamente guiada por resonancia e interferencia como la que él contempla, los resultados volverían a ser más o menos los mismos, salvo por la incierta incidencia que puedan tener los grandes ciclos cósmicos más allá de nuestro alcance.

No existe azar puro, no hay nada puramente aleatorio; a poco organizada que sea una entidad, así sea una partícula o átomo, no puede dejar de filtrar el azar circundante según su propia estructura interna. Y el primer signo de organización es la aparición de un eje de simetría, que en las partículas viene definido por ejes de rotación.

La teoría de la evolución dominante, como la cosmología, ha surgido para llenar el gran vacío entre unas leyes físicas abstractas y reversibles, y por lo tanto ajenas al tiempo, y el mundo ordinario de la flecha del tiempo, las formas perceptibles y las secuencias de acontecimientos. La entera cosmología actual parte de un supuesto innecesario y contradictorio, el principio de inercia. La teoría biológica de la evolución, de uno falso, que la vida sólo está gobernada por el azar.

La presente “teoría sintética” de la evolución sólo ha llegado a existir por la separación de disciplinas, y en particular, por la segregación de la termodinámica de la física fundamental a pesar de que nada hay más fundamental que la Segunda Ley. No es casual que la termodinámica surgiera simultáneamente a la teoría de la evolución: la primera empieza con Mayer, de consideraciones sobre el trabajo y la fisiología, y la segunda con Wallace y Darwin partiendo, según la cándida admisión de éste último en las primeras páginas de su obra principal, de los supuestos de competencia de Malthus, que a su vez se retrotraen a Hobbes —una es una teoría del trabajo y la otra del ecosistema global entendido como un mercado de capital. En este ecosistema el capital acumulado es, por supuesto, la herencia biológica.

La evolución armónica de Merrick, por la interferencia colectiva de las partículas-ondas, es una puesta al día de una idea tan vieja como la música; y es además una visión sin finalidad y atemporal del acontecer del mundo. Pero para alcanzar la deseada profundidad en el tiempo, debe estar unida a los otros dos dominios claramente teleológicos, pero espontáneos, presentes en la mecánica y la termodinámica, y que aquí llamamos termomecánicos para abreviar.

Bastaría unir estos tres elementos para que la presente teoría de la evolución empezara a resultar irrelevante; y eso sin hablar de que la evolución humana y tecnológica es decididamente lamarckiana más allá de cualquier especulación. Hasta las moléculas de DNA están organizadas de la forma más manifiesta por un eje. Y en cuanto a la teoría de la información, sólo hay que recordar que ha salido de una interpretación peculiar de la termodinámica, y que es imposible hacer cómputos automáticos sin componentes con un eje de giro. Sea cual sea el grado de azar, el polo define su sentido.

Sin embargo, para entender mejor la acción del polo y la reacción espontánea que comporta la mecánica tendríamos que redescubrir la polaridad.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *