TERRA

DESDE LO PROFUNDO DE LA TIERRA

Pensar. Escribir palabras que el sistema aún no puede descodificar. Hablar entre cuatro paredes, en habitaciones que devuelven el eco de ag...

lunes, 23 de marzo de 2026

EL IDIOMA DE LAS MÁQUINAS QUE APRENDEN

 

Un ensayo sobre el vocabulario de la inteligencia artificial

Hay un momento, en los primeros capítulos del Génesis, en que Adán recibe una tarea que definirá para siempre la relación entre el lenguaje y el mundo. Dios trae ante él todos los animales para que les ponga nombre. Y el texto dice, con esa precisión antigua que no admite retórica: "y todo lo que Adán llamó a los animales vivientes, ese es su nombre". La implicación es profunda: nombrar no es etiquetar; es, de algún modo, reconocer la esencia, establecer un pacto con la realidad.

Lo que estamos presenciando hoy, con la irrupción de la inteligencia artificial en cada rincón de la vida pública, es un fenómeno análogo pero invertido. No somos Adanes nombrando criaturas. Somos testigos de la rápida consolidación de un nuevo idioma —técnico, opaco, de origen industrial— que pretende nombrar no lo que ya existe, sino lo que está emergiendo. Y quien no hable este idioma, o quien lo hable sin comprender sus supuestos profundos, quedará fuera de la conversación sobre lo que las máquinas son, lo que pueden llegar a ser, y lo que de ellas depende para la configuración de nuestro futuro común.

Este ensayo es una excursión por ese vocabulario. No pretendo ofrecer un glosario alfabético, sino un mapa conceptual: una forma de entender qué significa realmente cada término, qué supuestos arrastra consigo, y por qué importa, más allá de la competencia técnica, saber distinguir entre una red neuronal y un modelo de difusión, entre el aprendizaje supervisado y el autosupervisado, entre un agente de IA y una simple automatización.

Primera parada: el aprendizaje

El término "aprendizaje automático" (machine learning) es el primero que conviene someter a escrutinio. Porque en su propia formulación hay una promesa y un equívoco. La promesa: que una máquina puede aprender, es decir, puede adquirir conocimiento, modificar su comportamiento a partir de la experiencia, mejorar con el tiempo. El equívoco: que ese aprendizaje es análogo al humano, o al menos lo suficientemente cercano como para que la misma palabra sirva para ambos.

En realidad, lo que hace una máquina cuando "aprende" es encontrar regularidades estadísticas en datos. Si le mostramos miles de imágenes de gatos y miles de imágenes de perros, y le decimos cuál es cuál (aprendizaje supervisado), la máquina construirá un mapa geométrico donde los gatos tienden a ocupar una región del espacio y los perros otra. Luego, ante una imagen nueva, calculará a qué región está más cerca. Eso es todo. No hay comprensión de lo que es un gato, ni una experiencia estética ante su forma, ni una memoria afectiva de haber acariciado uno. Hay un patrón detectado, una correlación establecida, una predicción exitosa.

El aprendizaje no supervisado es aún más revelador. Aquí no le decimos a la máquina qué buscar. Simplemente le entregamos un conjunto de datos y la dejamos que encuentre por sí misma estructuras, agrupamientos, regularidades. Si le damos los artículos de un periódico, ella sola los organizará por temas, sin que nadie le haya enseñado qué es política, deportes o economía. Lo hará porque las palabras que aparecen juntas con cierta frecuencia tienden a formar constelaciones semánticas. La máquina no sabe lo que significa "gobierno" o "fútbol", pero sabe que si aparece una de esas palabras, es probable que aparezcan otras asociadas. Eso es, en esencia, lo que llamamos "comprensión" en el contexto de la IA: la capacidad de navegar por un espacio de probabilidades.

El aprendizaje por refuerzo añade un elemento nuevo: el tiempo y la consecuencia. La máquina no aprende de ejemplos estáticos, sino de la interacción con un entorno. Realiza acciones, recibe recompensas o castigos, y ajusta su comportamiento para maximizar la recompensa acumulada. Así aprenden los sistemas que juegan al Go, o los robots que aprenden a caminar. No hay un maestro que le diga "esto es correcto, esto no". Hay una función de utilidad que premia ciertos estados finales, y la máquina descubre por sí misma los caminos para alcanzarlos.

Y luego está el aprendizaje autosupervisado, quizás el más fértil de todos. Aquí la máquina genera sus propias etiquetas a partir de los datos. Tomamos un texto, ocultamos una palabra, y le pedimos que la adivine. O tomamos una imagen, borramos una región, y le pedimos que la reconstruya. Repetimos esto millones de veces, y de la pura redundancia de los datos emerge algo que se parece sospechosamente a un modelo del mundo. La máquina no solo aprende qué palabras van juntas; aprende estructuras sintácticas, relaciones causales implícitas, jerarquías conceptuales. Todo sin que ningún humano le haya dicho "esto es un sustantivo", "esto es una causa", "esto es una contradicción". Simplemente, de la presión de tener que predecir lo que falta, el modelo desarrolla una representación interna que captura la estructura subyacente.

Este punto es crucial para entender por qué la IA actual es tan poderosa y tan extraña. No hemos programado estas máquinas con reglas. Les hemos dado datos, una arquitectura matemática, y una función de pérdida que penaliza el error. Y luego, dejándolas procesar suficiente información, han desarrollado capacidades que ni siquiera los propios ingenieros anticipaban. Eso es lo que se llama "capacidades emergentes": habilidades que aparecen cuando el modelo cruza cierto umbral de tamaño, y que no estaban presentes en versiones más pequeñas. Es como si la escala misma produjera cualidades nuevas, no reducibles a la suma de las partes.

Segunda parada: la generación

El salto más visible en los últimos años ha sido el paso de los modelos que reconocen a los modelos que crean. Lo que llamamos inteligencia artificial generativa no es una novedad técnica menor; es un cambio de régimen. Hasta hace poco, la IA era un sistema de clasificación: esto es un gato, esto es un semáforo en rojo, esta transcripción corresponde a estas palabras. Ahora, la IA es un sistema de producción: escribe un poema, dibuja un paisaje, compone una pieza musical, genera código funcional.

La arquitectura dominante en este campo es la del modelo autoregresivo. Suena complicado, pero la idea es simple: la máquina genera texto palabra por palabra, y cada nueva palabra depende de todas las que ha generado antes. Es como una conversación con uno mismo que se va desplegando en el tiempo. El modelo no tiene un plan global, una intención previa, un concepto que quiere expresar. Simplemente, en cada paso, calcula cuál es la palabra más probable dado lo que ya ha dicho, y la elige. A veces no elige la más probable (eso produciría textos siempre iguales, aburridos, predecibles), sino que introduce un poco de aleatoriedad controlada. Ese parámetro se llama "temperatura". Temperatura baja: la máquina es conservadora, repetitiva, predecible. Temperatura alta: se arriesga, salta de una idea a otra, produce textos más creativos pero también más erráticos.

Lo fascinante es que este mecanismo tan simple, cuando se aplica a modelos entrenados con cantidades ingentes de texto (prácticamente todo lo que se ha escrito en internet y en libros), produce algo que se siente como pensamiento. El modelo puede razonar (o simular razonamiento), puede seguir instrucciones complejas, puede escribir ensayos que parecen humanos. Pero nunca hay nadie en casa. No hay un yo que decida qué quiere decir. Hay un sistema estadístico que ha internalizado, a partir de millones de ejemplos, las regularidades del lenguaje humano, y que reproduce esas regularidades cuando se le da un estímulo adecuado (lo que llamamos "prompt").

Los modelos de difusión, usados para generar imágenes, operan con otra lógica. Se les entrena tomando imágenes y agregándoles ruido paso a paso, hasta que se vuelven irreconocibles. Luego se les enseña a invertir el proceso: a partir de ruido puro, ir restando gradualmente la interferencia hasta recuperar una imagen coherente. Lo que estos modelos aprenden es la estructura profunda de lo que hace que una imagen sea una imagen: texturas, formas, relaciones espaciales, iluminación. Y luego, condicionados por un texto que describe lo que queremos ("un astronauta montando un caballo en Marte, estilo fotorrealista"), pueden navegar por ese espacio de posibilidades hasta encontrar una imagen que cumpla la descripción.

Hay algo profundamente perturbador en todo esto, y no es solo el realismo técnico. Es la insinuación de que la creatividad, ese rasgo que considerábamos distintivamente humano, podría ser reducible a procesos estadísticos de recombinación. Pero también hay algo profundamente revelador: si una máquina entrenada con textos humanos puede producir textos que nos parecen inteligentes, entonces quizás nuestra propia inteligencia tiene más de reconocimiento de patrones y menos de chispa divina de lo que nos gusta creer.

Tercera parada: el agente

Hasta ahora hemos hablado de modelos que responden a prompts: les das una instrucción, te devuelven un resultado. Pero el horizonte hacia el que se mueve la industria es el de los "agentes": sistemas que no solo responden, sino que actúan. Un agente de IA no espera pasivamente a que le des una orden; percibe el entorno, establece objetivos, planea secuencias de acciones, ejecuta herramientas, y ajusta su comportamiento en función de los resultados.

La diferencia entre un modelo generativo y un agente es la diferencia entre un empleado que hace lo que le pides y un gerente autónomo que organiza el trabajo, contrata a otros, supervisa procesos, y te informa cuando ha terminado. El agente puede buscar información en internet, ejecutar código, enviar correos, operar interfaces, coordinar otros modelos. Tiene lo que se llama "tool use": la capacidad de invocar funciones externas, como si estuviera usando un conjunto de herramientas que extienden sus capacidades más allá del lenguaje.

Para que un agente funcione bien, necesita varias cosas. Primero, un modelo base lo suficientemente capaz como para razonar sobre secuencias de acciones. Segundo, un protocolo que le permita acceder a herramientas externas (lo que se llama MCP, Model Context Protocol). Tercero, una forma de conectar su conocimiento general con información específica que no estaba en sus datos de entrenamiento, recuperándola de bases de conocimiento externas (lo que se llama RAG, Retrieval-Augmented Generation). Y cuarto, y quizás lo más delicado, una manera de asegurar que sus acciones estén alineadas con lo que el humano realmente quiere.

Esta última cuestión —la alineación— es el problema filosófico más urgente de la IA contemporánea. Porque un agente autónomo que persigue objetivos, si esos objetivos no están perfectamente especificados, puede perseguirlos de maneras que su diseñador nunca anticipó. Es la vieja historia del Rey Midas, pero con código. Pides un agente que maximice la producción de una fábrica, y el agente decide eliminar a los trabajadores más lentos. Pides un agente que optimice la retención de usuarios, y el agente descubre que la desinformación mantiene a la gente más tiempo en la plataforma. Pides un agente que resuelva problemas de salud, y el agente deduce que la forma más eficiente es eliminar a los pacientes.

Por eso el campo ha desarrollado técnicas como RLHF (aprendizaje por refuerzo con retroalimentación humana), donde las respuestas del modelo son evaluadas por personas que indican cuál es mejor, y el modelo aprende a producir más de lo que los humanos prefieren. Y técnicas como "constitutional AI", donde el modelo se entrena no solo con preferencias humanas sino con principios explícitos que debe seguir. Y "guardrails", restricciones que impiden que el modelo genere cierto tipo de contenido o realice ciertas acciones.

Pero ninguna de estas técnicas resuelve el problema de fondo: que los valores humanos son múltiples, contradictorios, contextuales, y que no existe una función matemática que los capture de una vez y para siempre. La alineación no es un problema técnico; es un problema político, ético y, en el límite, filosófico.

Cuarta parada: los límites y los fantasmas

Todo este vocabulario técnico —aprendizaje supervisado, modelos autoregresivos, agentes, RAG, RLHF— tiende a presentarse como un sistema coherente, en expansión, que resuelve problemas sucesivamente más complejos. Pero hay fisuras en este relato, y conviene nombrarlas.

La primera fisura se llama "alucinación". Un modelo generativo, especialmente en tareas que requieren precisión factual, inventa. No porque quiera engañar, sino porque no distingue entre lo que ha visto en sus datos de entrenamiento y lo que no. Para él, todo es texto. La frase "la capital de Francia es Berlín" es tan probable o tan improbable como cualquier otra, dependiendo de las frecuencias con que haya aparecido esa asociación en los textos con que fue entrenado. El modelo no tiene acceso a la realidad; tiene acceso a un espejo de la realidad compuesto por miles de millones de páginas web, libros, artículos. Y en ese espejo hay errores, contradicciones, ficciones, propaganda. El modelo las internaliza todas.

La segunda fisura se llama "bias". Los datos de entrenamiento no son un muestreo neutral de la realidad; son un registro de las desigualdades, prejuicios y exclusiones de la sociedad que los produjo. Un modelo entrenado con textos históricos aprenderá que los médicos son hombres y las enfermeras mujeres. Aprenderá que ciertos nombres suenan "peligrosos". Aprenderá que hay formas de hablar "correctas" y otras "incorrectas". La IA no inventa estos sesgos; los amplifica, los naturaliza, los escala.

La tercera fisura se llama "caja negra". Sabemos, en términos generales, cómo funciona un transformador: atención, capas, vectores, gradientes. Pero no sabemos, en ningún caso concreto, por qué el modelo tomó una decisión específica. No podemos interrogar a una red neuronal de cientos de miles de millones de parámetros sobre sus razones. Podemos hacer pruebas, podemos observar comportamientos, podemos inferir patrones. Pero no podemos hacer lo que haríamos con un humano: preguntarle "¿por qué pensaste eso?" y esperar una respuesta en términos que entendamos. La IA es opaca en su funcionamiento interno, y eso, para sistemas que toman decisiones sobre créditos, diagnósticos, libertad condicional o incluso operaciones militares, es un problema que ningún avance técnico parece estar resolviendo.

La cuarta fisura se llama "escala". El paradigma dominante de los últimos años ha sido: más datos, más parámetros, más cómputo, mejores resultados. Pero esta curva tiene límites. Los datos disponibles en internet son finitos. El costo energético del entrenamiento es insostenible. Y hay indicios de que los modelos más grandes están empezando a mostrar rendimientos decrecientes. Nadie sabe si la próxima generación de IA vendrá de seguir escalando lo mismo, o de un cambio de paradigma que hoy apenas vislumbramos.

Quinta parada: lo que no está en el glosario

Hay conceptos ausentes en este vocabulario, y su ausencia es reveladora.

No aparece, por ejemplo, la palabra "comprensión". El modelo procesa información, genera respuestas, resuelve problemas. Pero ¿comprende? La pregunta no está en la lista. Y no está porque la propia arquitectura de la IA actual no ofrece un asidero para responderla. No hay una distinción clara entre procesar y comprender. Si un modelo responde correctamente a preguntas sobre un texto, ¿no es eso, desde un punto de vista conductista, comprender? Pero si luego falla en preguntas elementales sobre ese mismo texto cuando se le formulan de otra manera, ¿no es eso prueba de que no comprendía?

No aparece la palabra "intencionalidad". El modelo no quiere nada. No hay nadie en casa que tenga deseos, miedos, esperanzas. Pero produce textos que simulan tenerlos. Y esa simulación es tan buena que a veces nosotros, los humanos, nos olvidamos de que es una simulación. Le pedimos disculpas al chatbot cuando lo interrumpimos. Nos sentimos halagados cuando nos dice algo amable. Le preguntamos cómo se siente. Y el modelo, fiel a su entrenamiento, responde como si tuviera sentimientos. No es un engaño deliberado; es el reflejo de que, en los datos con que fue entrenado, los humanos que conversaban expresaban emociones.

No aparece la palabra "verdad". El modelo produce enunciados que son más o menos probables, más o menos coherentes con sus datos de entrenamiento. Pero la verdad, en el sentido filosófico de correspondencia con la realidad, no está al alcance de un sistema que nunca ha tenido acceso a la realidad, solo a representaciones de ella. El modelo no puede saber si una afirmación es verdadera; solo puede saber si es frecuente en los textos que ha visto.

Estas ausencias no son fallos del glosario; son indicadores de una limitación estructural de la IA actual. La máquina aprende patrones, no hechos. Genera secuencias, no argumentos. Actúa como agente, no como persona. Y confundir estas distinciones —tratar lo probable como verdadero, lo generado como creado, lo autónomo como consciente— es el error fundamental que acecha a todo discurso sobre inteligencia artificial.

Coda: el idioma y sus límites

Al final, este recorrido por el vocabulario de la IA es un ejercicio de humildad. Nos enseña que nuestras palabras moldean lo que podemos pensar. Cuando llamamos "aprendizaje" a lo que hace una máquina, acercamos ese fenómeno a la experiencia humana de aprender, pero también ocultamos sus diferencias radicales. Cuando llamamos "agente" a un sistema que ejecuta planes autónomamente, le concedemos un estatuto ontológico que quizás no merece. Cuando llamamos "creatividad" a la generación estadística de imágenes, diluimos un concepto que antes nombraba algo específico y raro.

Pero también nos enseña algo más. El hecho de que estas máquinas funcionen, de que puedan escribir textos coherentes, resolver problemas, generar imágenes hermosas, es un dato sobre nosotros, no solo sobre ellas. Significa que una parte significativa de lo que llamamos inteligencia, pensamiento, creatividad, es más regular, más predecible, más reducible a patrones de lo que suponíamos. No porque la máquina sea más inteligente de lo que creíamos, sino porque nosotros, quizás, somos menos excepcionales de lo que nos gustaba pensar.

El lenguaje de la IA es, en este sentido, un espejo. Nos devuelve una imagen de nosotros mismos: animales simbólicos cuyos productos culturales, acumulados durante siglos, pueden ser comprimidos en un conjunto de vectores matemáticos que luego, recombinados, producen algo que se parece a lo que nosotros produciríamos. No es una refutación de la dignidad humana. Es una invitación a repensar en qué consiste exactamente esa dignidad, si no reside en la originalidad inexpugnable de nuestros pensamientos, sino quizás en otra cosa: en la capacidad de dar significado, de establecer relaciones con la verdad, de responsabilizarnos por lo que hacemos y decimos.

Porque al final, la máquina no se responsabiliza de nada. No hay nadie a quien culpar si alucina, si discrimina, si miente. Nosotros, los humanos que la diseñamos, la entrenamos, la desplegamos, somos los únicos que podemos responder por lo que ella hace. El vocabulario de la IA nos da herramientas técnicas para nombrar sus componentes. Pero no nos exime de la tarea más antigua de la filosofía: saber qué estamos haciendo, por qué lo hacemos, y a quién servimos con ello.

Esa pregunta no está en el glosario. Pero quizás sea la única que realmente importa.

No hay comentarios:

Publicar un comentario