¿Cuándo se podrá retirar la CTS?

¿Qué es la inteligencia artificial soberana?, por Ragi Burhum

"La entidad que haga el entrenamiento - sea una compañía o país - tiene mucho poder sobre el resultado final de ese modelo de IA".

Es común que la información generada por humanos tenga sesgos. En el caso de IA, un modelo genera resultados directamente relacionados a los datos de entrenamiento que se han utilizado para “educarlo”. Pero, ¿qué sucede cuando los datos relevantes a un país tienen diferente interpretación - o están en conflicto - con los de otro? ¿Y si los valores culturales son totalmente distintos?

Por ejemplo, si sólo utilizo datos (libros, ensayos, videos, audios) con una interpretación comunista del mundo, pues sólo voy a tener resultados con sesgos comunistas. Lo mismo sucede si hago el mismo ejercicio con una visión opuesta. Por lo tanto, la entidad que haga el entrenamiento - sea una compañía o país - tiene mucho poder sobre el resultado final de ese modelo de IA. Este detalle ya está teniendo repercusiones e influye en cómo algunos países están pensando sobre IA en su territorio

En IA, tenemos el concepto de “Foundational Models” (FM). Estos son modelos que han sido entrenados con mucha información, en gran parte genérica, para ser utilizados como punto de partida. Las organizaciones que quieren usar IA en sus flujos internos, negocio, país, etc., pueden obtener acceso a uno de estos modelos, y utilizarlo tal cual. El proceso de personalización es muy simple en este caso; sólo se le dan mínimas instrucciones al modelo para especificarle como tiene que responder.

Crear estos FMs es otra historia distinta. Entrenarlos requiere varios millones de dólares, principalmente en gastos de energía y hardware. No cualquier organización puede hacerlo. Sin embargo, si una organización quiere tener un modelo customizado que utilice su propia información, tienen la opción de hacer un “fine tuning”(calibración) a un FM pre-existente. Este es un proceso de entrenamiento reducido, que agrega o reemplaza simplemente algunas capas de información, y por lo tanto es excesivamente más barato (hay procesos que fácilmente cuestan menos de USD$100). En otras palabras, muy accesible.

Algunos de estos FMs vienen pre-entrenados con “safeguards”(salvaguardias), como “zero-shot capabilities”. Esto se refiere a las instrucciones que han sido codificadas en el FM para que no genere “algo malo”. Esto puede incluir:

  • Filtrado de input (entrada): detectar y bloquear input dañino o tóxico, como discurso de odio o contenido violento.
  • Filtrado de output (salida): lo mismo que el anterior, pero en salida.
  • Clasificadores de toxicidad: identificar y marcar salida potencialmente dañina, permitiendo la revisión e intervención humana.
  • Entrenamiento adversarial: entrenar al modelo para resistir intentos de manipulación o engaño por parte del usuario
  • Comprensión contextual: mejorar la capacidad del modelo para entender el contexto y matices del lenguaje, reduciendo la probabilidad de salida dañina.
  • Alineación de valores: alinear los objetivos del modelo con valores humanos y consideraciones éticas, para prevenir output dañino.

y más.

Teniendo estos filtros en cuenta, vale la pena hacerse la pregunta: ¿quién decide que la respuesta de un modelo de IA es “malo” o “dañino”, y a qué valores se tiene que alinear? 

Obviamente podemos tener mil discusiones al respecto, pero la respuesta es más simple: ¡el creador del Foundational Model lo decide! ¿Pero acaso no mencionabas que existía una alternativa de fine tuning para calibrarlos? Pues sí, pero por más que un proceso de fine tuning pueda ayudar a remover algunos safeguards o modificar algunos sesgos, es una lucha que se pierde en este aspecto sin hacer un proceso más agresivo (y caro) de entrenar.

Esta semana Lockheed Martin publicó un video donde demuestran un avión X-62A (un F-16 modificado), piloteado enteramente por IA, haciendo pŕaticas de lucha aérea contra otro F-16. La IA ganó. Imagínate una situación donde el X-62A decía, “lo siento, no puedo hacerle daño a otro humano” y se negaba a hacer la práctica o disparar. Para ese caso de uso no es aceptable. ¡Obviamente los Lockheed y la FFAA de EEUU decidieron entrenar modelos con safeguards muy distintos a los de GPT-4 (ChatGPT)!

Cuando hablamos de Inteligencia Artificial (IA) Soberana, nos referimos al desarrollo y despliegue estratégico de tecnologías de IA por parte de una nación para proteger su soberanía, seguridad, competitividad económica y, hasta cierto punto, cultura. Si un país va a utilizar IA en sus procesos legales, militares, ciberseguridad, etc., mínimamente tiene que preguntarse si lo que quiere es usar un FM de otro país. ¿Es un tema de seguridad nacional?

Y sí, si quieres hacer uno propio, va a costar mucho dinero.

India, Japón, Francia, Canadá, EEUU, China y otros países están creando y/o expandiendo su infraestructura para crear modelos de Inteligencia Artificial soberanos. Están creando data centers y centrales de energía para poder abastecerlas. En Sudamérica, Chile y Brasil tienen proyectos internos para hacer lo mismo. Aunque estos son temas que se discuten en círculos cerrados.

Sin duda alguna, estamos entrando en una etapa nueva donde simplemente tener regulación de IA no va a ser ni remotamente suficiente. Veremos como los otros países de la región avanzan en este tema.

Ragi Burhum

Científico en Computación (California State University) y emprendedor en serie de dos startups en Silicon Valley. 20+ años creando sistemas de información geográfica en compañías como ESRI (ArcGIS), Microsoft(MS Flight Simulator), NVIDIA y AmigoCloud. Creyente (casi fanático) del poder de Open Data (datos abiertos) y Open Source (código libre).