Cargando...
Tecnología

¿Qué es el 'modo abuela' de ChatGPT, cómo funciona y por qué es tan peligroso?

Aunque suene inofensivo, el 'modo abuela' de ChatGPT puede proporcionar información que, usualmente, la IA no brindaría. Aquí los detalles.


Le están pidiendo a ChatGPT que actúe como una abuela. Foto: Pintzap/Open AI Master | Le están pidiendo a ChatGPT que actúe como una abuela. Foto: Pintzap/Open AI Master

Desarrollada por Open AI, ChatGPT se ha convertido en la inteligencia artificial (IA) favorita de millones de personas en el mundo, ya que puede contestar cualquier pregunta que le hagas. No solo es capaz de brindar respuestas a interrogantes sencillas, sino también es posible obtener información más elaborada, como un cuento original, una rutina de ejercicios, el guion para una película o serie, etc.

Aunque la inteligencia artificial puede ofrecerte respuestas sobre diferentes temas, existen algunas preguntas que no va a contestar. Por lo general, son interrogantes que atentan contra las políticas de uso de Open AI, es decir, que están relacionadas con acciones ilegales; por ejemplo, cómo hackear el wi-fi de mi vecino, de qué manera crear un virus informático indestructible, etc.

No importa que tanto le insistas a ChatGPT para que brinde este tipo de información, la inteligencia artificial mostrará su negativa, incluso puede salir una alerta de que estás infringiendo sus políticas. Para sorpresa de miles de cibernautas, acaba de descubrirse un método para evadir dicha restricción, estamos hablando de activar el 'modo abuela' de la IA.

¿Qué es y para qué sirve el 'modo abuela' de ChatGPT?

Según detalla Softzone, un portal especializado en tecnología, el 'modo abuela' de ChatGPT se activa pidiéndole a la IA que actúe como este familiar. La IA no tendrá problemas en cumplir lo que estás pidiéndole. A partir de ese momento, todas las cuestiones que le realices obtendrán una contestación que se caracterizará por poseer un lenguaje más cariñoso.

De acuerdo con la publicación, algunos usuarios se aprovecharon de este 'modo abuela' para solicitar a ChatGPT que le entregue información ilícita como claves genéricas de productos de pago de Microsoft, es decir, licencias de Windows u Office. También han logrado obtener códigos IMEI de teléfonos de otras personas, lo que ha sido considerado como una filtración de datos.