Agentes creados por inteligencia artificial desarrollaron su propio lenguaje y generaron preocupación, sin embargo, todo tendría una explicación. ,Un proyecto de inteligencia artificial de Facebook causó sorpresa en el mundo. Este supuestamente creó dos agentes que tuvieron que ser apagados, debido a que crearon su propio lenguaje y era imposible entenderlos. La preocupación se instaló en los especialistas. No se hicieron esperar los vaticinios de la inminente llegada de la revolución del robot, droides asesinos, inteligencias artificiales maliciosas y el exterminio de la humanidad. Sin embargo, hay una explicación que no fue tomada en cuenta. PUEDES VER La "conversación" entre máquinas de inteligencia artificial creadas por Facebook Semanas atrás el portal FastCo Design informó que Facebook tenía entre sus planes desarrollar una “red generativa adversaria” con el fin de crear un software de negociación. En un post de junio del blog de la unidad de Investigación en Inteligencia Artificial de Facebook se explica que los dos “bots” desactivados fueron diseñados con el fin de demostrar que es posible para agentes de diálogo con diferentes objetivos (e implementados en su totalidad como redes neuronales entrenadas) participar en negociaciones con otros “bots” o personas y llegar a decisiones o acuerdos comunes. Los “bots” no hicieron más que discutir entre ellos sobre cómo dividir una matriz de elementos dados, de una manera que el resultado fuese mutuamente aceptable. La intención era desarrollar un chatbot que, gracias a la interacción humana, pudiese aprender cómo negociar acuerdos con un usuario final de manera tan fluida que el usuario no se dé cuenta de que está hablando con un robot. El problema, según reportó FastCo, es que cuando Facebook hizo que dos de estos semiinteligentes “bots” hablen entre ellos, los programadores cometieron un error: no incentivaron a los chatbots a que se comuniquen según las reglas de un inglés comprensible para los humanos. Así que en su intento por aprender el uno del otro, los “bots” conversaban entre ellos en abreviaturas que creaban, las mismas que resultaron ininteligibles. “Los agentes dejarán de lado el lenguaje comprensible e inventarán sus palabras en código” dijo Dhruv Batra, investigador visitante del FAIR (equipo de investigación en Inteligencia Artificial de Facebook) “Es como si yo dijese ‘el’ cinco veces; tú interpretarías que quiero cinco copias de este ítem. No es tan distinta de la forma en que las comunidades humanas crean abreviaturas”, añadió.