Los nuevos sistemas tecnológicos, como ChatGPT, se han popularizado justo cuando en Bruselas se está negociando la ley de inteligencia artificial y la Unión Europea (UE) quiere aprovechar el momento para encontrar la fórmula de regular las dudas sociales, políticas y éticas que plantean. Cuando en abril de 2021 la Comisión Europea planteó la normativa, no estaba pensada para ello, pero en el largo y tortuoso camino del proceso legislativo europeo han estallado estos modelos de inteligencia artificial y todas las instituciones de la UE creen ahora que hay que abordarlos.
Mientras en Bruselas continúan las discusiones, Italia ha prohibido de momento el uso de ChatGPT por considerar que Open AI —la empresa que ha creado y continúa perfeccionando esta herramienta— no cumple con el Reglamento Europeo de Protección de Datos (GDPR).
PUEDES VER: 3,1 millones de afiliados que pasaron de la ONP a las AFP recibirán bono de reconocimiento
Las autoridades italianas acusan a la compañía de falta de transparencia sobre la recogida de los datos personales y bancarios de los usuarios, y de carecer de un sistema para verificar la edad de quienes usan ChatGPT, a pesar de que está dirigido a mayores de 13 años, y le han dado hasta el 30 de abril para adaptarse a la ley.
La Agencia Española de Protección de Datos también abrió este jueves 13 de abril una investigación a la compañía por un "posible incumplimiento" del GDPR y el Comité Europeo de Protección de Datos creó un grupo de trabajo para intercambiar información con todas las autoridades de la UE, Islandia, Liechtenstein y Noruega, que tienen dudas al respecto.
El eurodiputado de los Verdes, Marcel Kolaja, está convencido de que Open AI "tiene interés" en resolver estas cuestiones, pero considera que hay que seguir regulando a estos modelos, según contó a la Agencia EFE.
Además, "algunas de las preocupaciones que estos sistemas pueden generar no están relacionados con la privacidad", explica a EFE el eurodiputado liberal Dragos Tudorache, uno de los ponentes de la ley de inteligencia artificial en la Eurocámara.
Entre ellas, menciona la posibilidad de que estos modelos capaces de simular conversaciones humanas —que también desarrollan otras empresas como Google— den respuestas con base en una información protegida por derechos de autor, el riesgo de que se usen para difundir noticias falsas o la influencia que pueden tener en personas vulnerables.
Recuerda el reciente suicidio de un joven belga de unos 30 años después de haber conversado de manera intensiva durante seis semanas con el chatbot Eliza, de la empresa estadounidense Chai, sobre su preocupación por el cambio climático.
Tal como está redactada actualmente, la ley de inteligencia artificial prohíbe los sistemas de vigilancia masiva en tiempo real en espacios públicos —salvo para prevenir delitos y localizar a posibles víctimas— y veta los modelos que se sirvan de técnicas subliminales para alterar de manera "sustancial" el comportamiento de una persona, sin que sea consciente de ello.
Además, califica de alto riesgo a toda una serie de sistemas de inteligencia artificial con usos muy específicos que solo se podrán introducir en el mercado si respetan los derechos fundamentales y valores de la UE.
Las negociaciones entre grupos políticos para fijar los criterios empezarán este lunes y ni Benifei ni Tudorache se atreven por ahora a decir cómo concluirán, ya que admiten divisiones entre partidos.
El eurodiputado del PPE Axel Voss apuesta primero por "entender" cómo funciona ChatGPT y pedir a Open AI explicaciones sobre su fiabilidad, según cuenta a EFE. Y en cualquier caso, es partidario de la autorregulación del sector más que de redactar nuevas leyes que pueden tardar años en aprobarse.
"En tres años, quizás, tendremos problemas totalmente diferentes. Nunca sabes si ChatGPT aún existirá", señala.