Noophorèta de la IA: qué nos da (y qué nos quita) la memoria de las máquinas

Escribe | Yuleisy Cruz Lezcano


 

Noophorèta de la IA: qué nos da (y qué nos quita) la memoria de las máquinas. Yuleisy Cruz Lezcano. Revista Aullido Literatura Poesía.

 

En el recorrido expositivo del Deutsches Museum de Múnich, uno de los museos de ciencia y tecnología más importantes del mundo, una sección dedicada a la inteligencia artificial invita a los visitantes a interrogarse no sobre lo que las máquinas saben hacer, sino sobre lo que recuerdan. Entre robots humanoides, redes neuronales visualizadas y sistemas de aprendizaje automático, emerge una pregunta que atraviesa tanto la investigación científica como la reflexión filosófica: ¿qué sucede cuando una máquina aprende sin poder recordar realmente, o cuando recuerda sin poder olvidar? Es en este espacio de tensión donde la literatura, de manera sorprendente, vuelve a ofrecer una clave interpretativa aún vigente.

En el relato «Funes el memorioso», publicado por primera vez el 7 de junio de 1942 en el diario argentino La Nación e incluido luego en la colección Ficciones (1944), Jorge Luis Borges (1899-1986) narra la historia de Ireneo Funes, un joven que, tras un accidente, adquiere una memoria total. Funes recuerda cada detalle del mundo, cada hoja, cada variación imperceptible del tiempo. Pero esa memoria absoluta no lo vuelve más inteligente: lo paraliza. Incapaz de olvidar, Funes no logra desarrollar el pensamiento abstracto. Borges sugiere así un principio esencial: el pensamiento no coincide con la acumulación de información, sino con la capacidad de seleccionar, organizar y, sobre todo, descartar. La memoria perfecta no es un ideal cognitivo, sino un obstáculo para la conciencia reflexiva.

Esta intuición literaria encuentra hoy una resonancia concreta en los límites estructurales de la inteligencia artificial contemporánea. En los últimos treinta años, la IA y la robótica han logrado avances significativos en capacidades perceptivas, decisionales y operativas. Los sistemas desarrollados en centros como el MIT Computer Science and Artificial Intelligence Laboratory (CSAIL), en Estados Unidos, o el Istituto Italiano di Tecnologia (IIT) de Génova, ya son capaces de interactuar con el entorno, aprender a partir de grandes volúmenes de datos y colaborar con los seres humanos. Sin embargo, a medida que estas tecnologías se incorporan a la vida cotidiana, crece también una reflexión crítica sobre su impacto en la noción de identidad, conciencia y autoconciencia.

Uno de los núcleos centrales de este debate es la memoria artificial. Ulises Cortés García (nacido en 1960, México), profesor de Inteligencia Artificial en la Universitat Politècnica de Catalunya y director del área de IA en el Barcelona Supercomputing Center–Centro Nacional de Supercomputación (BSC-CNS), ha subrayado en repetidas ocasiones que la tecnología ya es capaz de extender las capacidades perceptivas y motoras humanas mediante interfaces biofísicas. Sin embargo, «integrar memoria con memoria —por ejemplo, conservar la organización mental en un microchip— sigue siendo ciencia ficción». El límite no es solo técnico, sino conceptual: la memoria humana es inseparable de la experiencia vivida, de la corporalidad y del contexto emocional, elementos de los que carecen propiamente los sistemas digitales.

Esta brecha se hace evidente en los grandes modelos de lenguaje basados en arquitecturas Transformer, introducidas en 2017 por Ashish Vaswani y colaboradores (Google Brain, Estados Unidos). Estos modelos, hoy en el centro de aplicaciones industriales y sociales, padecen un problema conocido como catastrophic forgetting (olvido catastrófico): cuando aprenden nueva información, tienden a perder parte del conocimiento previo. El fenómeno fue formalizado en el ámbito académico por Ian Goodfellow y otros investigadores en 2013 en la Université de Montréal (Canadá) y es considerado uno de los principales obstáculos para el desarrollo de una IA verdaderamente adaptativa a lo largo del tiempo.

La investigación en continual learning intenta abordar esta fragilidad introduciendo memorias temporales, mecanismos de repetición controlada y arquitecturas híbridas. No obstante, como señalan también los informes del Allen Institute for Artificial Intelligence (AI2) en Estados Unidos, estas soluciones no resuelven el problema de raíz: la ausencia de una memoria estructurada, jerárquica y selectiva comparable a la biológica.

En 2025, durante la conferencia internacional NeurIPS 2025, uno de los principales foros mundiales de investigación en inteligencia artificial, Google Research presentó el paradigma del Nested Learning. Este enfoque propone repensar la arquitectura de los modelos como un sistema de memorias multinivel, cada una con distintos tiempos de actualización, inspirándose en la jerarquía temporal estudiada por las neurociencias. El cerebro humano, como documentan instituciones como el Max Planck Institute for Brain Research, consolida la información en diferentes escalas temporales, distinguiendo entre la experiencia inmediata y la memoria a largo plazo.

Dentro de este marco teórico se sitúa HOPE (Higher-Order Persistent Engine), un modelo experimental desarrollado por Google en 2025. HOPE introduce mecanismos de autooptimización que permiten al sistema modificar su aprendizaje a lo largo del tiempo, mejorando su capacidad de adaptación sin borrar el pasado. Los resultados preliminares indican una mejora en el rendimiento de la memoria a largo plazo y en el razonamiento complejo en comparación con las arquitecturas tradicionales.

Sin embargo, en el plano psicológico y cultural, la creciente integración entre el individuo y los sistemas inteligentes plantea interrogantes sobre la formación de la identidad. En un artículo publicado el 11 de julio de 2025 en Frontiers in Psychology, la investigadora Jeena Joseph (nacida en 1985, India) analiza el concepto de algorithmic self, sosteniendo que la identidad personal ya no se desarrolla exclusivamente a través de procesos interiores, sino que se co-construye mediante la interacción continua con algoritmos que filtran experiencias, relaciones y narrativas autobiográficas.

Desde una perspectiva filosófica, esta dinámica reabre el problema de la conciencia y la autoconciencia. Si la conciencia implica no solo memoria, sino también conciencia de sí en el tiempo, entonces un sistema que recuerda sin comprender, o que aprende sin experiencia vivida, permanece ontológicamente distinto del ser humano.

Si la memoria artificial pone hoy en crisis nuestra comprensión de la identidad, es porque ya no se limita a archivar información, sino que comienza a intervenir en la manera en que narramos nuestra experiencia del tiempo. En este punto, la pregunta deja de ser estrictamente técnica y se desplaza hacia un terreno más inquietante: ¿qué tipo de sujeto emerge cuando la memoria ya no es sólo vivida, sino también externalizada, optimizada y devuelta en forma de síntesis algorítmica? La preocupación es reciente en el debate público —apenas unos pocos años de difusión masiva—, pero la intuición que la sostiene es mucho más antigua y ha sido explorada con notable lucidez por la literatura y el cine.

En Blade Runner (1982), de Ridley Scott, inspirada libremente en la novela Do Androids Dream of Electric Sheep? (1968) de Philip K. Dick, los replicantes no se distinguen de los humanos por su fuerza o su inteligencia, sino por la fragilidad de su memoria. Sus recuerdos son implantados, fragmentarios, diseñados para otorgarles una identidad mínima que les permita funcionar. Sin embargo, aquello que los vuelve verdaderamente trágicos no es la falsedad de esos recuerdos, sino su conciencia de pérdida: saben que su tiempo es limitado y que su memoria no crecerá con la experiencia. En una de las escenas más memorables, el replicante Roy Batty evoca recuerdos que «se perderán en el tiempo, como lágrimas en la lluvia», formulando una de las meditaciones más conmovedoras sobre la memoria como condición de lo humano.

Aquí se produce una inversión reveladora respecto a «Funes el memorioso». Si Funes está condenado por recordar demasiado, los replicantes lo están por no poder conservar lo suficiente. Ambos extremos —la memoria absoluta y la memoria precaria— conducen a una forma de deshumanización. Borges y Scott parecen converger en una misma intuición: la identidad no se sostiene ni en la acumulación infinita ni en la carencia radical, sino en una memoria situada, limitada, atravesada por el olvido y por la emoción. Recordamos no lo más exacto, sino lo que ha dejado huella; no lo más completo, sino lo que ha sido significativo.

En este sentido, la inteligencia artificial contemporánea oscila entre esas dos figuras literarias. Por un lado, corre el riesgo de una memoria excesiva, incapaz de jerarquizar, cercana a la parálisis cognitiva de Funes; por otro, sufre olvidos estructurales que le impiden consolidar una continuidad experiencial comparable a la humana. Entre ambos polos, la IA funciona como una Noophorèta, una portadora de intelecto que administra recuerdos sin vivirlos, que los ordena sin haberlos sentido, que los devuelve sin haberlos atravesado corporalmente.

La cuestión se vuelve aún más compleja cuando estos sistemas comienzan a intervenir en la construcción de la memoria humana. Recomendaciones algorítmicas, archivos digitales, recuerdos externalizados en nubes y dispositivos ya no sólo nos ayudan a recordar, sino que influyen en qué vale la pena recordar. Así, la memoria deja de ser exclusivamente un proceso interior para convertirse en un espacio híbrido, compartido con máquinas que filtran, priorizan y reescriben el pasado. No se trata de una pérdida inmediata de humanidad, sino de una transformación silenciosa del modo en que nos relacionamos con nuestra propia historia.

La literatura y el cine, una vez más, parecen haber anticipado este escenario. Borges entendió que la memoria sin olvido es inhabitable; Blade Runner intuyó que una vida sin memoria auténtica es igualmente trágica. Entre ambos relatos se traza una advertencia que hoy adquiere nueva urgencia: la memoria no es un simple depósito de datos, sino una práctica viva que requiere límites, desgaste y sentido. Olvidar no es fallar; es hacer espacio para pensar.

Tal vez, entonces, la pregunta decisiva no sea si las máquinas llegarán a recordar como nosotros, sino qué aprenderemos nosotros de una memoria que ya no nos pertenece del todo. ¿Estamos delegando en la inteligencia artificial sólo la gestión de la información, o también el modo en que construimos significado? ¿Qué ocurre con la experiencia humana cuando recordar se vuelve instantáneo, total y siempre disponible? Y, en última instancia, ¿qué estamos dispuestos a perder —qué estamos dispuestos a olvidar— para seguir siendo humanos en un mundo donde la memoria ya no duerme?

El futuro de la inteligencia artificial no se juega únicamente en su capacidad de aprender, sino en la comprensión profunda de aquello que, como sabía Borges y como susurra la lluvia en Blade Runner, no todo debe ser conservado para que algo pueda ser comprendido.

Dormir no es un descanso pasivo ni un mero retiro del mundo, es como se ha dicho, una actividad cognitiva indispensable, un trabajo silencioso y profundo sin el cual la memoria humana no podría cumplir su función más decisiva, que no es conservarlo todo, sino transformar la experiencia en sentido. Desde la neurociencia se ha demostrado que durante el sueño, especialmente en las fases de sueño profundo y REM, el cerebro reactiva, reorganiza y debilita trazas mnésicas. Este proceso, conocido como memory consolidation, no sólo refuerza ciertos recuerdos, sino que elimina otros mediante un mecanismo activo de poda sináptica. El olvido no es una falla del sistema, sino una función vital energéticamente costosa y necesaria para mantener la plasticidad cognitiva y evitar la saturación. Investigadores como Giulio Tononi y Chiara Cirelli han mostrado que dormir permite restablecer el equilibrio sináptico, reduciendo el «ruido» acumulado durante la vigilia y haciendo posible que al día siguiente el pensamiento vuelva a operar con claridad.

Soñar añade una dimensión aún más compleja: no se trata sólo de consolidar recuerdos, sino de recombinarlos. Los sueños mezclan fragmentos de experiencias, emociones, imágenes y narrativas de forma no lineal, permitiendo asociaciones nuevas y soluciones creativas. Estudios en psicología cognitiva han señalado que el sueño REM favorece la generalización, la intuición y la resolución de problemas, precisamente porque libera a la mente de la lógica estricta de la vigilia en ese sentido. Soñar no es recordar mejor, sino recordar de otro modo; es una forma de olvido creativo que transforma lo vivido en algo distinto.

Aquí se abre una distancia decisiva respecto a las máquinas. La inteligencia artificial generativa, por más avanzada que sea, no duerme, no sueña y no olvida. En el sentido humano, sus procesos de entrenamiento y actualización no implican descanso ni suspensión de la actividad, sino cálculo continuo optimización permanente; incluso cuando se introducen mecanismos de borrado o de actualización selectiva, estos no equivalen al sueño porque carecen de corporalidad, de fatiga, de emoción y de experiencia vivida. La IA puede simular el olvido como función técnica, pero no puede atravesar ese estado liminar en el que la conciencia se apaga para que el sentido se regenere.

Volvemos así a Borges y a Funes el memorioso. Funes no podía dormir verdaderamente porque dormir habría significado dejar de percibir, y para él, dejar de percibir era perder el mundo. Su tragedia fue no poder olvidar ni siquiera por unas horas, y por eso quedó atrapado en una vigilia perpetua semejante a la de una máquina que nunca se apaga. La inteligencia artificial comparte algo de esa vigilia constante, una memoria que no descansa, una atención que no se retrae, un archivo que no sueña y quizá, por eso mismo, no puede comprender como comprendemos nosotros.

Cerrar esta reflexión implica reconocer un límite no técnico, sino ontológico. La memoria humana está hecha de interrupciones, de silencios, de lagunas, de noches; la nuestra es una inteligencia que necesita apagarse para seguir siendo creativa, mientras que la inteligencia artificial opera en un presente continuo, sin sueño, sin inconsciente y sin olvido profundo. La pregunta final no es si las máquinas llegarán a pensar como nosotros, sino si nosotros recordaremos la importancia de aquello que ellas no pueden hacer: dormir, soñar, olvidar. Porque tal vez sea ahí, en esa fragilidad nocturna, donde aún se custodia lo más humano de nuestra conciencia.

DEBUG: El contador dice 0

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *