Remueven a policías que participaron en allanamiento a casa de Boluarte
Tecnología

Microsoft y OpenAI advierten que ciberdelincuentes usan ChatGPT para atacarte: ¿cómo lo hacen?

Los gigantes tecnológicos a cargo del popular chatbot han informado a la comunidad sobre el indebido uso que se le da a la plataforma, para nuevos métodos delictivos en línea.

El servicio ofrece una serie de capacidades automatizadas. Foto: Composición LR / ChatGPT
El servicio ofrece una serie de capacidades automatizadas. Foto: Composición LR / ChatGPT

Hoy en día, los chatbots son servicios que se han popularizado por sus capacidades de gran utilidad y millones en el mundo los emplean para múltiples actividades. La plataforma más popular del momento es ChatGPT, que está a cargo de los gigantes tecnológicos OpenAI y Microsoft y permite que generes contenidos de texto e imágenes en cuestión de segundos. No obstante, las propias empresas se acaban de pronunciar para advertir que cibercriminales están manipulando el servicio para mejorar sus ataques en línea. ¿Qué se sabe? Te contamos los detalles al respecto.

¿Qué se sabe del problema?

Tanto Microsoft como OpenAI llevaron a cabo una investigación que permite conocer cómo las organizaciones de cibercriminales ahora utilizan la IA de ChatGPT. La situación revela que manejan los modelos de lenguaje de gran escala especializados en producir textos coherentes y convincentes, desde frases específicas.

Es importante precisar que dichos sistemas se basan en el aprendizaje profundo, el procesamiento de los lenguajes más naturales y se entrenan a diario con una serie de datos textuales masivos que se extraen de Internet y más espacios. Para este caso, los cibercriminales utilizan los LLM para optimizar la efectividad de sus ataques y así pasar por alto los filtros de seguridad en torno a la manipulación de datos.

¿Quiénes son los responsables?

Por lo pronto, se sabe que los grupos identificados provienen de países como Rusia, Corea del Norte, Irán y China. Lo cierto es que se trata de una situación bastante crítica, en especial porque hay hackers que emplean la IA para entender cómo operan los protocolos de comunicación entre los satélites y radares más relevantes del mundo.

Asimismo, entre los otros propósitos que manejan con la tecnología automatizada, están la recopilación, interpretación y procesamiento de información (tareas optimizadas con el apoyo de la IA). Gracias a ello, los ataques que buscan efectuar son cada vez más precisos y facilitan que existan más víctimas, que no perciben la problemática.

Microsoft y OpenAI ya recomiendan desde sus canales de soporte que los usuarios, los desarrolladores y políticos se mantengan alertas de la situación y adopten medidas que puedan resguardar su privacidad y seguridad en línea. Además, como responsables del popular chatbot, han reiterado su compromiso para trabajar en mejores filtros de protección y en cómo se gestiona la ética en sus modelos.

Adicionalmente, se sabe que trabajan en la creación de Security Copilot, el proyecto que apunta a poner fin al uso o evitar que la IA se convierta en un problema. Para ello, el nuevo asistente inteligente se destinará a ser el gran apoyo de profesionales de ciberseguridad, para identificar y canalizar los ataques que no dejan de evolucionar.