ODISEA IA-Física e inteligencia artificial

English version

La IA y el aprendizaje automático están de moda, pero se habla poco de sus paralelismos y contactos con la física fundamental, tan llenos de significado. En nuestro entorno cada vez más artificial, nos preocupa ya más desentrañar las caja negra de las máquinas inteligentes que la gran caja negra y estrellada del universo. Pero no hay que desanimarse, pues ambas cosas, finalmente, podrían no estar tan separadas. De lo que se trata siempre es de salir del agujero, esto es, de encontrar universalidad; y ésta suele estar en las antípodas de la inteligencia aplicada. Aquí se podría decir lo contrario de lo que escribió Juan en su libro de la Revelación: «Quien tenga entendimiento, que no calcule…»

Palabras clave: Inteligencia Artificial, Renormalización, Relatividad de escala, aprendizaje jerárquico, dos modos de la inteligencia, Continuo

LOS DOS MODOS DE LA INTELIGENCIA

Posiblemente el mayor «éxito» hasta ahora de la Inteligencia Artificial (IA) no hayan sido sus logros concretos, aún bastante modestos, sino el convencer a muchos de que nuestros propios cerebros son un tipo particular de ordenadores. Convicción que difícilmente puede corresponder a la realidad, dado que, como Robert Epstein dice, no sólo no nacemos con «información, datos, reglas, software, conocimiento, vocabularios, representaciones, algoritmos, programas, modelos, memorias, imágenes, procesadores, subrutinas, codificadores, decodificadores, símbolos o búferes», sino que no los desarrollamos nunca.

Pocos podrían estar en desacuerdo con Epstein en este punto. Cualquiera puede ver que humanos y ordenadores se hayan en extremos opuestos en cuanto a sus capacidades y que lo que es trivial para los humanos suele ser inaccesible para los ordenadores, mientras que el ordenador hace en un segundo más cálculos de los que podríamos hacer en toda una vida; pero muchos sólo se quedan con lo segundo, y por eso el tirón del paradigma computacional sigue siendo irresistible.

La computación es, hoy por hoy, el único expediente disponible para replicar una serie de desempeños humanos, y el poder de cómputo se centuplica más o menos cada década. Existe además un reto permanente por traducir ese aumento cuantitativo en una diferencia cualitativa, lo que añade el indispensable interés intelectual para las mentes y desarrolladores brillantes.

No vamos a discutir aquí que las máquinas puedan ejecutar tareas antes sólo al alcance del hombre, y que el espectro de esas tareas crece ineluctablemente con el tiempo y el trabajo de los ingenieros, puesto que eso es evidente. El ser humano también tiene, por lo demás, una parte importante de su inteligencia que se desarrolla de manera específica para realizar tareas, aunque lo haga con una plasticidad que poco tiene que ver con el de las máquinas. Pero incluso esta plasticidad fundamental se debe a no estar separada de un fondo indeterminado o continuo perceptivo que es lo más opuesto que pueda haber a las estrategias de cognición y representación basadas en los modelos simbólicos, de alto nivel, del procesamiento de información.

Epstein menciona como ejemplo el memorable artículo de McBeath y colegas de 1995, en el que se determina cómo los jugadores de béisbol se las arreglan para coger las bolas altas de los batazos —un logro que en su día supuso todo un reto para las máquinas. McBeath demostró sin lugar a dudas que la reacción de los jugadores ignora por completo los diversos factores pertinentes en un análisis numérico de trayectorias en tiempo real, puesto que lo que hacen es moverse de tal modo que la bola se mantenga en una relación visual constante, una cancelación óptica continua que de hecho resulta mucho más simple que explicarla y está «completamente libre de cálculos, representaciones y algoritmos».

Tan citado ha sido este ejemplo que los propios defensores de las teorías «ecológicas» o «radicalmente encarnadas» suelen pedir que no se exagere su alcance. Sin duda tienen razones para hacerlo, puesto que las demostraciones de inteligencia humanas muestran aspectos tan variados como cabe imaginar. Sin embargo, el caso en cuestión es justamente uno de trayectorias, las mismas con las que se inicia la geometría analítica, el cálculo, la física-matemática y en definitiva la revolución científica moderna. Si todo eso ha salido del análisis en el tiempo de las famosas secciones cónicas, aún debería ser más revelador para el paradigma computacional, puesto que lo cuestiona no ya en sus posibles logros sino en su misma línea de base.

El enfoque encarnado o «ecológico» que insiste en la dependencia física del cerebro del resto del cuerpo y el entorno no es precisamente una novedad. Algunos lo han llamado «postcognitivismo», aunque exposiciones claras de esta visión, en Merleau-Ponty o en James Gibson, son de hecho anteriores a los hitos fundacionales de la psicología cognitiva y los primeros balbuceos de la IA. Lo que viene a decir este enfoque es que no se puede disociar la respuesta inteligente del continuo perceptivo y de la experiencia, por más que éste sea elusivo y prácticamente imposible de acotar.

Evidentemente el modelo computacional, fiado al procesamiento de información, no puede resignarse a esto. Cuál sea la naturaleza de la inteligencia es para él algo secundario, su prioridad es poder reproducir conductas inteligentes o altamente selectivas en tareas bien definidas. Y puesto que lo consigue en grados crecientes, no hay motivos para la resignación.

El problema es no sólo el impacto social, con el que la iniciativa siempre cree poder lidiar, sino que además se pretenda que la inteligencia en la que participamos, más que poseemos, es eso que de forma tan fragmentada y superespecializada están reproduciendo los ordenadores. Que se quiera imponer como modelo de lo que somos y podemos ser. Una pretensión que sería risible si no fuera por el carácter omnicomprensivo de lo social y los mimetismos que se adhieren a su funcionalidad; y nadie duda de que la IA se quiere sobre todo funcional.

El procesador sería el trabajador último, y la inteligencia, subordinada como nunca, sería el acto de excavar en la mina de lo real con un determinado rendimiento. Se comprende entonces porqué hoy se sobrevalora hasta tal punto la inteligencia operativa: se nos vende por activa y por pasiva porque es el filo del pico de este nuevo trabajador-minero.

La sociedad, o más bien, la inteligencia social, tiene que concebir la inteligencia en general como aquello que nos permite ascender por la escala del propio cuerpo social. Y esto tendría una doble finalidad: por un lado, la búsqueda de un escape o fuga de un monstruo sin contornos que todo lo refiere a sí mismo y sin embargo ya es la encarnación de una fuga; por otro, en la medida que se asciende por el escalafón, la de ejercer un control sobre las funciones subordinadas con el propósito de consolidar y encarnar esa fuga incontrolable en un cuerpo que lo refiera todo a sí mismo.

Este «doble vínculo» se haya en consonancia con la orquestación del tópico de las máquinas inteligentes en los medios, como amenaza/promesa: van a acabar con los trabajadores/van a acabar con el trabajo. Pero el progreso siempre nos ha tenido entre el palo y la zanahoria.

Como puede apreciarse, esta lectura de la inteligencia social es ya «profundamente ecológica» y «radicalmente encarnada» —más que intentar representar algo seguramente irrepresentable, se haya en medio de su dinámica, y lo que sí procura es retroceder más acá de la identificación y permitir que esta se desprenda por sí sola.

Vemos así dos grandes modos de la inteligencia: el que consiste simplemente en darse cuenta, en estar despierto a lo que pasa, y el que considera, discrimina, compara y manipula en un proceso sin fin. El que se separa de las tareas, y el que se vuelca en ellas. El que contempla y el que actúa. Los modos característicos, respectivamente, del Homo sapiens, el hombre que sabe, y el Homo faber, el hombre que hace. La conciencia desnuda y la selva del pensamiento. La conciencia sin más y la consciencia de. El intelecto agente y el intelecto paciente de Aristóteles —teniendo bien presente que para el griego el intelecto agente es el que no se mueve, y el que se mueve es el paciente.

El primero conoce indiscerniblemente por identidad; el segundo, por identificación, en la que pierde su discernimiento. Del primero se pierde todo rastro en un continuo sin cualidades; al segundo el rastro se le sigue pero a saltos, por lo discreto de sus operaciones.

No es necesario seguir para comprender que ambos modos no se excluyen más de lo que mutuamente se implican; no podemos librarnos del primer modo, como algunos pretenden, sin deshacernos igualmente del segundo. Y como también parece que no podemos librarnos del segundo sin hacerlo del primero, nunca faltarán expertos en inteligencia artificial que aseguren que cosas como las redes neuronales apiladas, que en realidad sólo son operaciones matemáticas en muchas capas, logran desmitificar no sólo la inteligencia operativa, sino incluso la conciencia, por más que de ésta bien poco se pueda decir.

Otros pensamos que la única desmitificación o desidentificación posible es reconocer que el cerebro no es una entidad autónoma y que nunca vamos a encontrar en él una materialización de la memoria, los recuerdos, o las representaciones simbólicas que definen a los ordenadores. Sin embargo esto tendría que abrir las puertas a la contemplación de otras maravillas.

El llamado enfoque ecológico es el realmente físico, si entendemos lo físico como soporte o sustancia, y no como operación. Circunstancialmente, ocurre que también la física moderna y sus teorías de campos están basadas en criterios decididamente discretos y operacionalistas, a pesar de que se supone que el campo tendría que describir la mecánica de un continuo, aun si es un continuo particulado. Las partículas puntuales de las modernas teorías de campos son justamente el atajo operacional, aun cuando podemos estar seguros de que las partículas materiales, consideradas a la debida escala, deben exhibir superficie y extensión puesto que la extensión es inherente a la materia.

El método de la física más reciente es en sí mismo algorítmico, en el sentido preciso de que toda la descripción e interpretación está al servicio del cálculo. De este modo lo físico como soporte se evapora, sólo hay operaciones. No es casualidad que Feynman trabajara en el grupo de computación del proyecto Manhattan al mismo tiempo que en los formalismos de la electrodinámica cuántica. Y así llegamos a los tiempos presentes, en los que muchos físicos de buena gana se librarían del estorbo de la realidad física para reducir el universo a un ordenador gigante en permanente titilación digital de unos y ceros. La materia no importa, sólo la información.

Pero la materia perceptible se inscribe en la mecánica del continuo, la misma que nos dice que hay objetos blandos y duros, y continuo sólo puede haber uno por definición. No puede haber un continuo material por un lado, y un continuo de movimiento, de operaciones, o de inteligencia por otro. El continuo nos remite siempre a las evoluciones posibles de un medio primitivamente homogéneo en el que las distinciones son imposibles y si son posibles siempre se compensan. Sin homogeneidad tampoco existe la conservación del momento, siendo ésta, y no la fuerza, la auténtica base de la física moderna. La conservación es la esencia de lo que entendemos por realidad física —la continuidad- mientras que las acciones u operaciones siempre serán secundarias.

La física fundamental y la inteligencia artificial tienen un contacto mucho más que accidental, y no sólo del lado de las operaciones discretas. La matemática que subyace al aprendizaje profundo o deep learning, aun con más dimensiones, es algo tan familiar para la física como el álgebra lineal y sus vectores, matrices y tensores—el corazón de la mecánica del continuo que rige la ley constitutiva de la teoría de materiales, la electrodinámica clásica o la Relatividad.

Sería por lo demás erróneo decir que la mecánica cuántica haga discretos el espacio o el tiempo; no hay nada de tal. Lo único discreto en la MC es la acción, algo para lo que no tenemos debida justificación todavía hoy. Para comprobar que tiempo y espacio mantienen su continuidad a nivel microscópico no hay más que ver que también los electrones describen órbitas elípticas como los planetas, simplemente una clase de las secciones cónicas antes aludidas.

Por si quedan dudas de la conexión entre física e IA, bastará recordar que los físicos Mehta y Schwab demostraron en 2014 que un algoritmo de redes neuronales profundas para el reconocimiento de imágenes funciona exactamente igual que el grupo de renormalización de las teorías cuánticas de campos como la QED que luego se ha extendido a otras áreas, desde la cosmología a la mecánica de fluidos.

Una red neuronal confrontada con el punto crítico de transición de fase en el modelo de un imán, donde el sistema se hace fractal, automáticamente aplicó los algoritmos de la renormalización para identificar el proceso. Ilya Nemenman, otro físico teórico pasado a la biología adaptativa y la biofísica, no se ha resistido a decir: «Extraer rasgos relevantes en el contexto de la física estadística y extraer rasgos relevantes en el contexto del deep learning no son sólo palabras similares, son la misma cosa».

LA ADMINISTRACIÓN DE UNA POTENCIA

Delegar problemas en la IA tiene no ya un riesgo sino un precio para la ingeniería social, y es que sus soluciones, como en todos los ámbitos, son nuevos problemas, pero problemas aún más alejados de la intuición humana y su entorno inmediato. Ésta va quedándose más y más rezagada con respecto a las indescifrables inferencias de sistemas cada vez más complejos y por lo mismo más opacos. Un médico ya no puede saber cómo un sistema inteligente ha llegado a sus conclusiones sobre los pacientes, incluso si ha contribuido en su diseño o su base de datos. Con el aumento del índice de opacidad crece también la dependencia.

No es necesario imaginar el caos de un «infierno digital» para darse cuenta de que esto es indeseable. Las soluciones mismas se hacen cada vez más complejas, no tanto por el incremento de matices, que tendría que ser bienvenido, como por la pérdida de inteligibilidad. Sólo esta inteligibilidad hace de los detalles matices en vez de impredecibles recetas.

Ya hemos tenido tiempo de comprobar hasta qué punto la aplicación indiscriminada de la inteligencia instrumental nos lleva de lleno a lo ininteligible y a lo innombrable.

Incluso desde el punto de vista de la ingeniería social tendría que ser una cuestión de seguridad prioritaria tener despejado siempre el camino inverso al de la inteligencia aplicada y la «resolución de problemas» si éstas generan una espiral de dependencia. Pues si los problemas son la presión a la que se busca un escape, contemplarlos antes de que fueran problemas evita buscar el escape y permite ver lo más simple, con solución o sin ella.

De hecho es muy probable que muchas enfermedades y dolencias que padecemos en nuestro cuerpo y mente no sean tanto problemas como la solución más creativa y conjunta que de momento ha podido encontrar el organismo a modo de compromiso. Y si observáramos esa solución provisional en cuanto tal, también cambiaría la índole del «problema».

Es decir, en un proceso natural complejo ya hay una presencia implícita de la inteligencia; podríamos decir que es sólo equilibrio, pero, dado que en un organismo también tiene que equilibrar y englobar la inveterada parcialidad de nuestra mente, la mitad invisible de su ecuación, aún podríamos considerarla inteligente en un sentido más fundamental que el de nuestro pensamiento.

En cualquier caso no se necesitan grandes conocimientos para comprender que no somos ordenadores ni nace la inteligencia del procesamiento de información; más bien es allí donde se invierte, y a menudo se entierra. La materialidad, el carácter físico de la inteligencia reside en el extremo opuesto al de lo operacional, pero este extremo nunca está realmente separado del continuo y se resiste a la cuantificación.

INTELIGENCIA Y FINALIDAD

Inteligencia es justamente captar y estimar los matices sin necesidad de cálculos; por el contrario, nuestros cálculos pueden estimar umbrales pero no tienen sentido intrínseco del grado, del matiz, puesto que lo simbólico en cuanto tal no forma parte del proceso físico. Y sin embargo es evidente que se pueden construir infinidad de sistemas mixtos digital/analógicos, y que innumerables formas de integración son posibles, lo que conecta con la evolución de interfaces hombre/máquina.

Ni hay cálculos en la inteligencia, ni los hay en la naturaleza. A ésta, como decía Fresnel, no le importan las dificultades analíticas. Cuál no sería nuestro mudo asombro ante el mundo si por un sólo momento nos diéramos cuenta de que nada de lo que vemos depende del cálculo, por más que éste luego pueda coincidir con él. El cálculo es la rutina en la que está metida nuestra mente.

Con la revolución científica creímos pasar definitivamente de un mundo ordenado por una inteligencia teleológica o con finalidad a un mundo meramente inteligible en función del cálculo; pero es aquí donde florece en todo su esplendor el espejismo. El cálculo no nos libera de la teología, por el contrario el cálculo es la herramienta orientada a una finalidad por antonomasia. Y por añadidura, es la misma heurística del cálculo la que nos ha llevado a las cumbres más altas de lo incomprensible.

Esto se pone de manifiesto en el problema de Kepler. A pesar de lo que dicen todos los libros la ley de gravedad de Newton no explica la forma de la elipse estando el cuerpo central en uno de los focos. Se parte de la integral de la curva —de la forma global- para derivar las velocidades instantáneas, pero si no se mezclaran de forma enteramente gratuita velocidad orbital y movimiento innato, los vectores nunca se cancelan. No hay por tanto conservación local de las fuerzas contemporáneas, sino global, y es por eso que se acostumbra a trabajar con el principio de acción integral, el lagrangiano.

En «Autoenergía y autointeracción» nos hemos detenido algo más en el tema. Toda la mecánica cuántica se basa en el principio de acción, y las teorías cuánticas de campos, como la QED, de forma concreta y específica. El principio de acción, ya sea lagrangiano o sus formas más sofisticadas, es integral por definición y por tanto las derivadas que se le aplican están implícitamente subordinadas a una finalidad, como el mismo Planck y muchos otros no han dejado de admitir.

Es evidente que procesos tan artificiosos y descaradamente ad hoc como la renormalización de la QED no pueden darse realmente en la naturaleza, o de otro modo tendríamos que pensar que cada fotón, cada electrón, y cada partícula realiza a cada instante interminables series de cálculos. ¿Y a esto lo llamamos «fuerzas ciegas»?

La respuesta más fácil es decir que la física es cada vez más estadística, y la estadística en sí misma ha de englobar todas las funciones concebibles de la inteligencia artificial. Aunque esto pueda ser cierto en el más laxo de todos los sentidos, ningún tipo de estadística por sí sola nos va a llevar al orden que apreciamos en la naturaleza o en el comportamiento inteligente —ni en la aplicación ni en la interpretación, ni en lo universal ni en lo particular. El sesgo estadístico de los comportamientos observados resulta demasiado improbable.

«Por cada grumo, una burbuja»: En un medio en principio totalmente homogéneo cualquier incremento de densidad en un punto le correspondería una disminución en otro, y lo mismo vale para el movimiento, la energía y otras cantidades. Las diferenciaciones y movimientos tendrían lugar en el tiempo, mientras que la continuidad subyacente antes de ser alterada quedaría fuera de él, envolviéndolo. En este sentido el continuo no está al principio ni al final, sino en medio de todos los cambios, ya que los compensa permanentemente. La inteligencia primera, el primer modo del que hemos hablado y que no está diferenciado, coincidiría con la inmediatez de este continuo.

Sin embargo el continuo de los llamados «números reales» que parece imperar en la física no puede dejar de ser una idealización, puesto que en el mundo sólo podemos contar cosas y eventos discretos, en números enteros y a lo sumo en números racionales o fracciones.

El cálculo no puede dejar de dibujar complejidades crecientes en su visión de la naturaleza, pero todos estos arabescos no le pertenecen en propiedad, sino que son más bien la imagen que muestra en la superficie del espejo que nosotros sostenemos.

DE LA RENORMALIZACIÓN A LA RELATIVIDAD DE ESCALA

A pesar de haber sido creadas por el hombre, salta a la vista que estas redes neuronales de muchas capas y su respuesta son cajas negras tan enigmáticas como muchos de los comportamientos de la naturaleza.

En el acercamiento por integrales de camino de Feynman, en continuidad con el principio universal de propagación de Huygens, las trayectorias se vuelven más irregulares a pequeña escala y entre dos puntos las partículas tienen potencialmente una infinidad de trayectorias no diferenciables. Esto y el considerar partículas puntuales son las principales fuentes de infinitos a cancelar por los procedimientos de cálculo de la renormalización.

Se ha preguntado por qué la renormalización es capaz de producir reconocimiento de objetos si estos objetos, caras por ejemplo en un paisaje, no son fractales ni están sometidos a recurrencias a distintas escalas. Pero eso es pensar desde el punto de vista del objeto considerado más que desde el sujeto y el proceso o transformación que pueda tener lugar para llegar al reconocimiento. La renormalización ya implica en buena medida las nociones de relevancia, selección y eliminación que para explicar estas cajas negras utilizan otras teorías como las adaptativas de corte biológico o la del cuello de botella de Naftali Tishby.

Algo similar a la renormalización puede aplicarse al mismo espacio-tiempo obteniendo una dimensión anómala. Es lo que hizo ya en 1992 el astrofísico Laurent Nottale proponiendo la Relatividad de Escala. Ésta fue reconocida en su momento como una idea brillante pero la inclusión en el continuo físico de variedades no diferenciables como los fractales supone un importante salto en el vacío que ha bloqueado en gran medida su viabilidad.

Las relaciones de Heisenberg comportan una transición de las coordenadas espaciales de la partícula a una dimensión fractal 2 entorno a la longitud de de Broglie, que Nottale extiende a las coordenadas temporales para el tiempo de de Broglie. Las propias teorías cuánticas de campos renormalizables muestran una dependencia de la escala de energía que entra por primera vez de forma explícita en las ecuaciones del vigente y limitado modelo estándar. Nottale lo que hace es extender esta evolución asintótica y llevarla al rango de un principio general.

Sabemos que la física no puede reducirse al movimiento y la extensión, pero, qué otra cosa pueda ser, es algo que no queda ni remotamente claro. Si la teoría de la relatividad demanda que ningún sistema de coordenadas sea privilegiado para el movimiento, la relatividad de escala pide lo mismo para la escala y su resolución, y con ello para otras cantidades asociadas como la densidad. Si alguna forma hay de pasar de la extensivo a lo intensivo sin soltar el hilo del movimiento que ha conformado a la física entera, seguramente no hay otra más natural e inevitable que ésta. Lo que «llenaría» los puntos materiales sería el tensor de resolución.

Como es sabido la invariancia de la velocidad de la luz con independencia de la velocidad del observador sólo puede hacerse compatible con las ecuaciones clásicas del movimiento a través del expediente de la dimensión adicional del continuo espacio-tiempo de Minkowski; de otro modo la Relatividad Especial, una teoría con conservación local, sólo podría presentar eventos puntuales recortados y escindidos del continuo de la electrodinámica clásica.

Intentaré figurarme este principio de la forma más elemental. Desde Pearson se ha dicho que un observador que viajara a la velocidad de la luz no percibiría movimiento alguno y viviría en un «eterno presente». Dentro del marco específicamente cinemático de la relatividad, sólo así se abre una ventana para algo más allá del movimiento. Pero, ¿que vería este ojo en su interminable acercamiento al límite absoluto? A medida que el movimiento se detiene, su mirada barrería logarítmicamente en un zoom todas las escalas de espacio y tiempo imaginables. La aproximación asintótica debería admitir su propia transformación: el cambio de resolución por covariancia que Nottale demanda, siendo reemplazandas a altas energías las leyes de movimiento por las leyes de escala.

En palabras de Nottale, las teorías de campo cuánticas, con los procedimientos estándar de renormalización, «se corresponden más bien con una versión galileana de la teoría de la relatividad de escala», y sólo funcionan dentro de unos límites. Para Nottale la renormalización es propiamente un semigrupo, puesto que permite integrar escalas mayores a partir de las menores, mientras que la aplicación exitosa de la relatividad de escala permitiría la operación inversa, obtener las menores de las mayores.

La recursividad en la escala le hicieron pensar además en la aplicación del principio a los sistemas complejos en general, a organizaciones biológicas o sociales, cuyo funcionamiento depende simultáneamente de distintos niveles jerárquicos o escalas.

Nicolae Mazilu y Maricel Agop han emprendido recientemente una concienzuda evaluación del principio de Nottale a la luz de la historia del último siglo tanto en la física y la matemática. En la introducción de este trabajo monumental se afirma nada menos que «una vez que el principio de invariancia de escala es adoptado, sólo puede seguirse el camino correcto.» Y efectivamente, si la velocidad de la luz en el continuo y la longitud de Planck son invariantes, inalcanzables y absolutas, la escala tiene que ser relativa casi por definición, y por lo mismo ha de ser no diferenciable. No vemos cómo puede escaparse a esta conclusión.

Aparte de esto, la relatividad de escala es una necesidad consustancial a la estadística y a la teoría de la medida que debe acompañarla.

Cabe ver entonces la geometría fractal como una forma de mediar entre lo continuo y lo discreto dentro de los límites mencionados. Y esto nos lleva de lleno a la recursividad y la confrontación de algoritmos con las leyes de la naturaleza y la descripción de sus contornos.

Desde luego la relatividad de escala tiene sus propios grandes problemas con el cálculo y los infinitos, pero antes incluso de eso exige además, como Mazilu y Agop enfatizan, una interpretación física de las variables en un sentido técnico bien definido, el mismo que ya formuló C. G. Darwin en 1927 —una traducción de la solución matemática de la onda en términos de partículas.

El hilo dorado para salir de este laberinto se pierde con la interpretación estadística de Born, y es por eso que los dos físicos rumanos acometen una auténtica refundación de la teoría que pasa por los hitos históricos del problema de Kepler, la mecánica de Hertz, la dualidad onda-corpúsculo de de Broglie, la teoría del color y la función de onda de Schrödinger, la equivalente ecuación hidrodinámica de Madelung, Cartan o Berry, entre otros.

La distinción entre partícula material y punto material, o partícula extensa e inextensa, su aplicación inevitable a la mecánica ondulatoria, la interpretación de la fase geométrica en el potencial cuántico y la devolución del principio holográfico a su contexto originario en la luz jalonan esta minuciosa y lógica reconstrucción en el espíritu de la física clásica.

De hecho la lectura de Agop y Mazilu de la relatividad de escala ofrece no sólo una explicación plausible para los dilemas de la mecánica cuántica, sino también para la ocurrencia de estructuras fractales en la naturaleza, que de ningún modo pueden sustentarse en la sola matemática.

La fractalidad en las escalas no se reduce a la mera recurrencia espacial de muñecas rusas con la que estamos más familiarizados, sino que afecta a la propia geometría del espacio-tiempo. A mi juicio, igual que se habla de varias modalidades de renormalización, de posiciones en el espacio real y del espacio de momentos, con la relatividad de escala, donde las coordenadas son funciones en lugar de números, podríamos hablar en última instancia de tres modalidades fundamentales: escala para la masa y su densidad, escala para el movimiento (momento, fuerza o energía), y escala de longitud que se corresponden bien con nuestras nociones de tiempo, espacio y causalidad, o materia, espacio y tiempo; además de unas coordenadas generalizadas para definir las transformaciones de estos tres aspectos.

En cualquier caso, lainterpretación física tal como Mazilu y Agop la entienden, con sus transformaciones de coordenadas, conecta perfectamente con la idea de representación en deep learning —las coordenadas en que se configuran los datos. La noción de representación, basada además en una matemática de tensores multidimensionales —siendo igualmente tensorial la resolución en la relatividad de escala- hace la diferencia en este grupo emergente de métodos también conocidos como aprendizaje jerárquico, con distintos niveles de representación en correspondencia con la jerarquía de niveles conceptuales o de abstracción. Y un fractal es esencialmente una jerarquía en cascada de escalas.

Cuanto más usamos la estadística, más necesitamos la interpretación. Esta es la inapelable conclusión a la que se llega tanto en la física como en los métodos de aprendizaje automático. Más todavía, en este aprendizaje con máquinas, cuanto más se usa la estadística, más profundamente física ésta se tiene que volver para llegar a definir su objeto.

Este inopinado giro ocurre precisamente ahora en que tantos físicos querrían desertar en masa de la interpretación y aun de los principios, para quedarse sólo con el cálculo. Y este sería, dejando a un lado otras consideraciones, un motivo básico del desdén mostrado hacia esta y otras teorías que demandan mayor espacio para la interpretación en la física moderna. Una interpretación que es la finalidad misma y es imprescindible en cualquier aplicación.

Simplemente, en toda empresa humana hay principios, medios y fines. En física también el cálculo es el medio y la interpretación el fin, pero esto parecía haberse olvidado desde el advenimiento del estilo algorítmico inaugurado por la electrodinámica cuántica. Ahora la Inteligencia Artificial, expresamente teleológica y volcada en los objetivos, nos devuelve su relevancia. Sólo que sabemos perfectamente que ni el cerebro humano funciona mediante representaciones simbólicas, ni lo hace la naturaleza, ni las partículas, ni las ondas.

La inteligencia humana aplicada y sus réplicas mecánicas tienen que ser finalistas por definición. Pero pretender que la naturaleza se orienta a fines mediante operaciones discretas es el colmo del absurdo, y el mismo Aristóteles hubiera sido el último en afirmar esto. Así pues, esta «inteligencia primera» no puede estar orientada hacia la finalidad, sino que ha de ser la referencia para la inteligencia aplicada a tareas.

Esta inteligencia primera o conciencia no puede ser otra cosa que la invariancia del Continuo, la homogeneidad de referencia sobre la que se dibujan sucesos y cosas, y tendría que ser idéntica en la naturaleza y en el hombre, por más que cada entidad pueda extraer un rendimiento diferente en función de su circunstancia y estructura interna.

Puesto que esta inteligencia primaria es indiscernible por simple, cualquiera diría que su utilidad es nula. ¿Es inútil la toma de conciencia global? Lo que ocurre es que no es cuantificable ni medible. Pero decir que hay realmente dos inteligencias, una útil y otra inútil, en lugar de dos modos, sería un despropósito total, como lo sería decir que no hay continuo, cuando el análisis numérico discreto está condenado a seguir su pauta «ideal», o que este continuo es sólo físico, cuando al continuo propiamente dicho no pueden aplicársele atributos.

No es necesario detenerse en análisis filosóficos para ver que la inteligencia va a ser siempre más que la habilidad para hacer tareas, y que ese algo más es siempre imprescindible para la inteligencia utilitaria y aplicada —del mismo modo que no puede prescindirse del continuo tampoco en la relatividad especial, general, o en la de escala.

¿Cuánto de verdad puede haber en la idea de la relatividad de escala? No hay todavía suficientes resultados concretos para juzgarlo. Pero de una cosa podemos estar seguros: el requisito de continuidad es absolutamente necesario en la naturaleza y aun en nuestro sentido genérico de la realidad; el requisito de diferenciabilidad no. Este es un asunto exclusivo del hombre. De modo que este principio siempre tendrá algo nuevo que aportar.

No olvidemos que Nottale es un astrofísico en busca de una idea fundamental; su punto de partida no son los principios simples, sino la complejidad de facto en las constelaciones de datos y las observables. Su propuesta hay que entenderla como retorno desde la interpretación a los principios, giro que Mazilu y Agop justifican con argumentos mucho más específicos.

Por otro lado ésta es sólo otra entre un número mayor de teorías que manejan factores de escala —como la teoría gauge de la gravedad elaborada con cálculo geométrico en un espacio plano- que pueden ser diferenciables y que sería necesario comparar. Esta teoría gauge demuestra que la intención de Poincaré de elaborar una teoría relativista en el espacio euclídeo ordinario modificando las leyes de la óptica estaba perfectamente justificada. En cualquier caso se mantiene que a falta de un criterio absoluto la escala sólo puede ser relativa y basada en la comparación.

Se pueden también buscar modelos más elementales; seguir, por ejemplo, la línea de la mecánica relacional de Weber, abuela de la relatividad, y tratar las cuestiones de escala como se hace con las fuerzas, el potencial y la velocidad de la luz en dicha teoría, volviendo a un espacio plano y diferenciable y acotando funciones recursivas vía autointeracción, esa idea «tonta» al decir de Feynman. Pero, ¿qué es una autointeracción? Es esa cosa tonta que parece hacer una partícula aislada cuando resulta que no está aislada en absoluto. Y lo mismo vale para nuestro cerebro, aunque, en este caso, por el contrario, el problema es que nos parece demasiado inteligente.

Los detractores dicen que la relatividad de escala no es una teoría, y nada podría ser más cierto si se tienen en mente las teorías cuánticas de campos. No, la relatividad de escala es un principio y un proyecto, y tanto mejor si no es una teoría. Además, ¿no se buscaba en la física fundamental un principio-guía tan desesperadamente? Algo meramente inteligible. Las teorías mencionadas están blindadas para apuntalar la consistencia de los cálculos, y son como pequeños islotes en el mar; han tenido su momento histórico y contienen enseñanzas perdurables pero básicamente pertenecen a un pasado que no volverá. A menudo sólo sirven como lecho de Procusto para forzar la explicación de fenómenos que en absoluto se comprenden pero que se «predicen» a partir de sus datos.

No se abre una caja negra con otra caja cerrada.

Es toda una suerte y una gran ventaja el no ser hoy una de estas teorías que subordinan los principios y la interpretación al cálculo en vez de hacer de éste un instrumento. En el nuevo entorno el cálculo se deja crecientemente a las máquinas y en la misma medida uno se separa de él. La conciencia, si es algo, es distancia; así que no es imposible que la IA nos ayude a recobrar las funciones más menospreciadas de nuestra inteligencia natural.

Tanto Nottale como Mazilu y Agop han insistido que la relatividad de escala es no sólo un principio general de la física sino también del conocimiento. Esto, que puede parecer excesivo, ahora puede someterse a prueba. En la arena de la IA la cuestión es si puede ser «descubierta» por las máquinas confrontadas a los modelos oportunos igual que ha ocurrido con la renormalización. No le van a faltar problemas dado que el entorno tecnológico emergente trabaja a escalas cada vez más reducidas donde todo esto tiene muchas formas de ser relevante. Y, a la inversa, si ayuda a desarrollar algoritmos más eficientes o más inteligentes.

No se requieren aceleradores de partículas, y hay un enorme frente experimental accesible y disponible. Es totalmente falso que sólo pueda encontrarse nueva física a altas energías, la misma controvertida frontera entre el comportamiento clásico y el cuántico tiene una infinidad de escalas distintas según los casos.

No existe punta de lanza como la IA para el multiespecialista actual en nuestra torre de Babel, ni cabe imaginar otra mejor en un futuro previsible. Físicos, matemáticos, programadores, desarrolladores, biólogos, lingüistas, psicólogos,… Aquí hay espacio para explorar ágilmente posibilidades que las distintas especialidades, con sus grandes inercias y barreras defensivas, no están dispuestas a considerar. Ideas, si hablamos de la física matemática, como la relatividad de escala, el determinismo retrodictivo, y otras muchas que por diversos motivos van a contracorriente del curso adoptado por la especialidad. No es casual que buena parte de los expertos de IA hayan cursado primero estudios de física y se pasen ahora a un área entusiásticamente dispuesta a probarlo todo.

Demasiado entusiásticamente, si se piensa que hoy las matemáticas que caracterizan un sistema físico pueden terminar definiendo los vectores de control del comportamiento de individuos, grupos sociales y poblaciones humanas. Estas cosas se aplican ya de forma rutinaria para la modulación del consumo o la opinión. Igual que la resolución, también la atención se puede describir con tensores. Como si fuera algo accidental, se habla de los «efectos perversos» de las tecnologías, cuando se trata de las intenciones y propósitos más deliberados.

Si quieren meternos a todos en una caja, hagamos ésta tan grande como todo el universo.

EL CÍRCULO DE LA COMPRENSIÓN Y EL HILO EN EL LABERINTO DIGITAL

Y así, muy a nuestro pesar, parece que el círculo se cierra. En la lucha entre sociedad y naturaleza, hemos hecho de la naturaleza un objeto y terminamos sometidos al mismo tratamiento, y aquello con lo que damos forma a una termina esculpiendo a la otra. Esto es de siempre y ahora tan sólo se vuelve más formalizado, pero siendo ejecutado a conciencia no tenemos excusas.

Sin embargo, y simultáneamente, otro círculo se está cerrando al vincularse cada más estrechamente categorías hasta ahora tan separadas como la física del espacio y la física de la materia, los extremos que por arriba y por abajo definen nuestro escenario. De su compenetración depende que la física, y no sólo ella, acceda a una inteligibilidad real y a una universalidad que compensaría de algún modo la falta de escrúpulos del conocimiento aplicado. Esto último sólo podemos rechazarlo, pero no anularlo.

Al devolver su inevitable extensión a las partículas materiales, hacemos posible que «el espacio externo entre en el espacio interno». Aquí vuelve a la memoria el viejo dicho de que no sólo la gota se funde en el océano, sino que también el océano se funde en la gota. Y esto ocurre al mismo tiempo en que, dentro de otro orden, lo social inunda lo individual y los datos anegan a las teorías.

Si puede decirse que nosotros somos la escala fundamental, lo mismo podría decirse de que cualquier otro ser en cualquier otra escala; pero en todo caso el mundo no puede dejar de verse desde dentro. Esto no depende del número de dimensiones sino de la naturaleza del continuo.

Pero no sólo el sujeto no deja de ser imprescindible en todo este proceso, sino que la misma sustancia que lo soporta todo tiene que revelarse como sujeto —por lo mismo que se revela que la inteligencia no puede estar simplemente «dentro» del cerebro. El universo no es un ordenador gigante —idea insuperablemente grotesca-, pero los ordenadores nos permitirán navegar mucho más libremente por su infinito espacio de funciones. Y lo harán porque habrá cambiado el incentivo y habremos devuelto al cálculo a su debido lugar entre los principios y la interpretación; pues es con éstos que el círculo de la comprensión se cierra.

La física empezó con conceptos claros como inercia, fuerza, masa, espacio o tiempo para darse cuenta finalmente de que todos ellos son cada vez más misteriosos; y a la inversa, en las redes neuronales todo empieza como un enigma y la esperanza está en que alguna vez se hagan los procesos claros. Naturalmente, el objetivo básico del aprendizaje automático es encontrar las funciones de entrada f(X) para los datos de salida Y. Este tipo de ingeniería inversa ha existido siempre en física y es la parte esencial que la hace predictiva. Y puesto que en ambos casos se comparte cierto tipo de lenguaje matemático, los dos enfoques son altamente complementarios.

En física pasamos de los principios a la interpretación de fenómenos y datos pasando por el cálculo. En un enfoque más global, esto sería sólo la mitad del círculo, el semicírculo del ordenamiento cuantitativo tan típico de la física. La segunda mitad del círculo sería el retorno al principio en términos cualitativos y de continuidad, ignorando en el límite el cálculo tanto como sea posible —si hemos sido capaces de asumir que la naturaleza y la inteligencia existen con entera independencia de él. A mi entender, es aquí donde se haya ahora el desafío.

Una descripción continua y cualitativa, con permiso del álgebra del espacio-tiempo, tendría que ser necesariamente más ambigua que una especificada por el cálculo. Pero es aquí justamente donde reside la inteligencia, en encontrar matices significativos sin necesidad de o con menos especificaciones. Esta paradoja es insoluble, pero nos muestra el camino de vuelta para interiorizar, que no humanizar, el conocimiento —son el conocimiento formalizado de alto nivel o las mismas máquinas los que resultan un extremo humano.

CONSIDERACIONES FINALES

Nuestras «dos Inteligencias» se asemejan mucho a los dos árboles del Paraíso en la fábula; no hemos dejado de agarrarnos y manosear al árbol del conocimiento bien y del mal que nos ha llevado hasta aquí; pero el árbol de la vida ahí sigue, intacto como siempre.

Está claro que la inteligencia primaria es más que la inteligencia secundaria o aplicada, como también que ésta última es más que el reconocimiento de patrones o la lista de tareas tratadas por el aprendizaje jerárquico.

Coincidimos con Epstein que la comprensión cabal del cerebro humano puede estar aún a siglos de distancia, si es que es factible en absoluto. Hay además en su desarrollo demasiadas cosas «inservibles» desde el punto de vista utilitario, pero que son necesarias para mantener la continuidad de la que se deriva nuestra identidad, mucho más allá de los caprichos de la memoria.

Y aun si llegáramos a conocer algún día nuestro cerebro, con su compleja relación con el resto del cuerpo y el ambiente, aun no sabríamos nada de la conciencia en cuanto tal, tan sólo sabríamos de la emergencia discontinua de los pensamientos sobre ese trasfondo sin cualidades que se da cuenta de ellos.

El continuo de la experiencia humana ordinaria y su cuerpo biológico poco tiene que ver con el de la física fundamental, el primero nos parece muy concreto y demasiado abstracto el segundo. Sin embargo, la física fundamental nos parece tan abstracta justamente porque perdió el hilo de continuidad con la física clásica que Mazilu y Agop intentan restablecer. Aun a niveles muy diferentes, las dos clases de continuo quedan en la misma dirección.

Los sistemas de IA están expresamente orientados a una finalidad; y lo mismo ocurre con las teorías físicas, tan descaradamente orientadas a la predicción. Puesto que ambas usan masivamente la estadística, desde este punto de vista no hay nada que deba sorprender. Lo sorprendente, y nunca suficientemente ponderado, es que la naturaleza logre sin finalidad lo que nosotros no podríamos hacer sin ella, y esto, por la vía de la continuidad, nos lleva a la suposición de una inteligencia primera que es su referencia igual que la velocidad de la luz es la referencia para el movimiento y su radiación lo es para el cuanto de acción.

Uno podría olvidarse tranquilamente de toda la física y los problemas de escala, que una idea se mantiene intacta: la fuente de la inteligencia y de la naturaleza es ajena al cálculo-finalidad. Con precisión lo dejó dicho un agrimensor notorio, «el espíritu se libera sólo cuando deja de ser un apoyo».

McBeath lanzó la pelota más lejos que nadie, aun si hubiera salido fuera del estadio.

Referencias
R. Epstein,(2016) The empty brain, Aeon
L. Nottale, (1992) The Theory of Scale Relativity
N. Mazilu, M. Agop, (2018) The Mathematical Principles of the Scale Relativity Physics — I. History and Physics
N. Mazilu, M. Agop, Role of surface gauging in extended particle interactions: The case for spin
P. Mehta, D.J. Schwab, An exact mapping between the Variational Renormalization Group and Deep Learning
N. Wolchover, New Theory Cracks Open the Black Box of Deep Learning, Quanta magazine
McBeath, M. K., Shaffer, D. M., & Kaiser, M. K. (1995) How baseball outfielders determine where to run to catch fly balls, Science, 268(5210), 569-573.
Fink P.W, Foo P.S, Warren WH, (2009) Catching fly balls in virtual reality: a critical test of the outfielder problem
D. Hestenes, Gauge Theory Gravity with Geometric Calculus
M. A. M. Iradier, Autoenergía y autointeracción
M. A. M. Iradier, El multiespecialista y la torre de Babel
F. Kafka, Aforismos de Zürau

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *