Desde que Chat GPT apareció en el escenario público, las posibilidades y amenazas de la Inteligencia Artificial capturaron la imaginación de muchos.
La discusión ha oscilado de lo apocalíptico –la destrucción misma de la humanidad– a lo banal, como la ley de promoción que nuestro Congreso aprobó demuestra. La intensidad de la conversación ha bajado, porque no hay mucho más que decir. La IA Generativa, específicamente aquella basada en modelos transformadores como Chat GPT, impresiona cuando uno la ve por primera vez, cuando se la usa por primera vez; pero eso no quiere decir que tenga un impacto inmediato. Es válido preguntarse si la IA es realmente tan importante.
Descartando las predicciones sobre destrucción de la humanidad, y su contracara, la idea de un beneficio social e individual completa y sin límites, la IA actualmente existente, basada en la construcción de textos e imágenes a través de cálculos probabilísticos, permite pensar en un mundo en donde mucho del trabajo repetitivo con textos puede desaparecer. Desde escribir cartas hasta programar computadoras, hay mucho que se puede hacer con estos frames desarrollados por varias corporaciones transnacionales.
La potencia de estos sistemas es tal que podríamos pensar que una computadora pueda crear una sinfonía en el estilo de Beethoven relativamente pronto; la clave es en el estilo: es una versión, una extrapolación de lo existente. Eso no es creatividad, sino una imitación sofisticada.
Un término que se usa para describir este tipo de IA es cotorras estocásticas. Sin entrar en detalles, disponibles en la web, un proceso estocástico es aquel en el que variables que cambian a lo largo del tiempo mostrando una distribución de probabilidad. En otras palabras, la IAG parece ser creativa, pero en realidad es el resultado de probabilidades que solo son evidentes cuando se analiza el resultado. Son cotorras porque simplemente repiten lo que ya recibieron, en la forma de ingentes cantidades de datos tomados de la internet; sus aparentes propiedades emergentes son apenas el resultado de su capacidad de procesar esos datos mediante herramientas de aprendizaje profundo: una simulación, precaria y limitada, de como funcionan nuestros cerebros.
No hay un camino directo entre la IAG y la IA general, algo como Skynet, con conciencia de sí misma. Puede que ocurra, pero no será a partir de lo que ahora se está haciendo. Pero no olvidemos que lo que se está haciendo es terriblemente caro, en recursos materiales e impactos ambientales, y se hace para el beneficio de las empresas que financian estos desarrollos. No se busca mejorar la vida de la gente: de ocurrir, sería resultado colateral de la búsqueda de ganancias.