Hace unas semanas, Alejandro Mayorkas, hijo de inmigrantes cubanos y el director de Homeland Security de EE.UU, nos explicaba la urgente necesidad que tenía EE.UU de interactuar con la sociedad civil experta en ciberseguridad e inteligencia artificial. El rol de la IA está cambiando todo en el sistema de seguridad mundial, y ellos entienden perfectamente que, si no reclutan agresivamente y reestructuran sus instituciones, van a quedarse atrás.
Horas después, el Dr. Craig Martell (Chief Digital & AI Officer del Departamento de Defensa de EE.UU) decía en una charla: “Solo porque un LLM puede hablar como humano no significa que puede razonar como uno”. Contó anécdotas de cómo su trabajo había cambiado desde que salió el LLM más conocido del mundo: ChatGPT. Irónicamente, su esfuerzo ahora consistía en desalentar el uso de los LLM, que son modelos de inteligencia artificial que están diseñados para predecir y generar los tokens (pedazos de oraciones) más apropiados. Para ciertos problemas (traducción, resumir, generar código) son muy útiles. Para otros (tomar decisiones) son terribles. Los LLM sufren de un problema grave, “hallucinations”, donde pueden generar texto que suena muy bien (al fin, están diseñados para esto), pero que son factualmente incorrectos. ¡Te florean tan bien, que no te das cuenta que te están mintiendo!
PUEDES VER: ¿Dónde estudiar Ciberseguridad en el Perú, carrera con la que podrías ganar S/6.000 al mes?
El Dr. Martel tiene reservas sobre el uso de los LLM en el campo de batalla hasta hoy. Obviamente, no pude contenerme, y le pregunté sobre AIP, el LLM creado por Palantir para asistir en guerras. Él se puso serio, y explicó que gran parte del esfuerzo dentro del DoD es para crear pautas de aceptación, lo que calificó como un problema difícil en este espacio. “Mientras no tengas pautas aceptables, no pueden poner en riesgo las vidas de tropas”. Sería una irresponsabilidad absoluta.
En tanto, en el Perú, la congresista Jhakeline Ugarte Mamani mediante el PL 763/2023-CR, quiere modificar el artículo 139 de la Constitución para agregar “el uso de la Inteligencia Artificial para la resolución de casos judiciales y para las acciones de mero trámite”. ¿Entienden mi terror al saber esta iniciativa y pensar sobre todas las maneras de las que esto puede salir muy mal?
Científico en Computación (California State University) y emprendedor en serie de dos startups en Silicon Valley. 20+ años creando sistemas de información geográfica en compañías como ESRI (ArcGIS), Microsoft(MS Flight Simulator), NVIDIA y AmigoCloud. Creyente (casi fanático) del poder de Open Data (datos abiertos) y Open Source (código libre).