Otárola confirma intervención quirúrgica de Dina Boluarte
Tecnología

¿Qué pasó realmente con Bob y Alice, las IA de Facebook que 'crearon su propio idioma'

Debido a que Bob y Alice comenzaron a hablar en su propio 'idioma inventado', los investigadores de Facebook decidieron desconectarlas. ¿Qué tan cierta fue la historia? Te la contamos.

El hecho sucedió, pero muchos datos fueron exagerados. Foto: ChatGPT/La República
El hecho sucedió, pero muchos datos fueron exagerados. Foto: ChatGPT/La República

A finales del 2022, la startup estadounidense Open AI presentó ChatGPT, una inteligencia artificial que no solo puede responder sencillas, también es capaz de crear textos más complejos como resúmenes de libros, cuentos y historias originales, guiones para películas, etc. Aunque mucha gente piensa que esta IA fue la primera en existir, lo cierto es que este tipo de tecnología lleva muchos años entre nosotros, incluso Meta (la empresa creada por Mark Zuckerberg) trabajó en ellas.

Quizás no lo recuerdes, pero en 2017, en las redes sociales se hizo tendencia una noticia bastante alarmante relacionada con las inteligencias artificiales. Supuestamente, la empresa norteamericana Facebook (ahora conocida como Meta) había desarrollado dos 'IA' llamadas 'Bob' y 'Alice', las cuáles fueron desconectadas, debido a que crearon su propio idioma. ¿Qué tanto de esto es real?

¿Qué se dijo de Alice y Bob en su momento?

Si buscamos información sobre Bob y Alice en Google, hallaremos muchos artículos alarmistas (publicados en 2017) que aseguran que las 2 inteligencias artificiales se 'salieron de control'. En un principio, ambas IA tenían se comunicaban en inglés; sin embargo, conforme avanzó el experimento, empezaron a hablar empleando un lenguaje totalmente desconocido para los investigadores de Facebook.

En los artículos de ese entonces (las cuáles eran publicitados con imágenes de Terminator y otros robots 'malvados' de la cultura popular) se nos revela que la empresa fundada por Mark Zuckerberg decidió desconectar a Bob y Alice, debido a que su pensaban que su lenguaje secreto e incomprensible era una táctica para impedir que los seres humanos sepan lo que en realidad estaban conversando.

¿Qué sucedió realmente con Bob y Alice?

Aunque algunos elementos de la historia resultaron ser ciertos, otros fueron totalmente exagerados e incluso inventados. Es decir, lo que realmente pasó con Bob y Alice no fue tan sorprendente a como muchos medios digitales reportaron en su momento. En realidad, eran dos chatbots, unas inteligencias artificiales que fueron desarrolladas por Facebook para comunicarse a través de texto.

Actualmente, los chatbots son muy populares, ya que muchas empresas los utilizan para interactuar con sus clientes y poder responderle preguntas que no necesiten de una persona real. En Perú, por ejemplo, alguna empresas como Movistar los utiliza en su centro de atención al cliente, es esa voz robótica que escuchas al llamar al 104 para cuando quieres reportar alguna falla o poner una queja.

Volviendo al tema de Alice y Bob, estos chatbots fueron parte de un experimento realizado por el Grupo de Investigación de Inteligencia Artificial (FAIR por sus siglas en inglés). Según detalla La Razón de España, el objetivo era descubrir si ambas IA podían negociar y esto se cumplió, al menos al inicio, ya que lograron que logren hacer tratos como intercambiar libros, sombreros, pelotas, entre otros artículos.

Todo iba bien durante el experimento; sin embargo, los investigadores del FAIR notaron que habían cometido un gran error que arruinó el experimento. Cuando programaron a Alice y Bob, se olvidaron haber incluido una norma que los obligara a respetar las reglas del idioma inglés. Por ese motivo, es que ambos chatbots comenzaron un diálogo aparentemente sin sentido. ¿Por qué lo hicieron?

De acuerdo a la publicación, las IA eran recompensadas si lograban negociar de manera eficiente. Para acelerar este proceso, ambos chatbots empezaron a comunicarse con este lenguaje incomprensible y así obtener más puntos rápidamente. Finalmente, se decidió poner en pausa el experimento con el objetivo de afinar las reglas que debían seguir ambas inteligencias artificiales.

"Este comportamiento no es alarmante, sino un subcampo bien establecido de la IA, con publicaciones que se remontan a décadas. En pocas palabras, los agentes en entornos que intentan resolver una tarea a menudo encontrarán formas poco intuitivas de maximizar una recompensa. Analizar la función de recompensa y cambiar los parámetros de un experimento no es lo mismo que desconectar o apagar la IA", señaló Dhruv Batra, miembro de FAIR,