Lauran Nolan, extrabajadora de Google, advirtió sobre ‘robots asesinos’ que tienen el potencial de provocar una guerra o atrocidades masivas. Por ello, ha pedido que se prohíban y se limiten las máquinas destinadas a matar que no son operadas por humanos.
Según explicó, se pretende crear una nueva generación de armas autónomas, lo cual podría desatar una calamidad de manera accidental. Esto, declaró a The Guardian, precisamente porque no tienen control humano.
PUEDES VER: Guerra entre EE.UU. y Rusia ocasionaría 34 millones de muertos en cuestión de horas [VIDEO]
“Podría haber accidentes a gran escala porque estas cosas comenzarían a comportarse de manera inesperada”, señala Nolan.
De hecho, la razón por la cual renunció a seguir trabajando para Google, detalla, fue porque la trasladaron a un proyecto llamado Maven, que tenía por objetivo mejorar la tecnología de aviones militares autónomos para Estados Unidos.
Dicho proyecto consistía en construir máquinas inteligentes que permitieran diferenciar personas y objetos a una velocidad sumamente rápida. El temor de Nolan eran las repercusiones de este plan.
“Aunque no participé directamente en acelerar el reconocimiento del metraje, me di cuenta de la cadena de asesinatos que esto conduciría. En última instancia, a que más personas sean atacadas y asesinadas por el ejército de los Estados Unidos en lugares como Afganistán”, declaró.
PUEDES VER: Reportan explosión en laboratorio ruso que guarda algunos de los virus más mortales del planeta
Nolan y más de 3 000 empleados de Google firmaron una petición en protesta por la participación de la compañía en Maven. Es así que la empresa dejó que el contrato del proyecto caducara en marzo de este año.
No obstante, la ingeniera advierte que las armas autónomas que están creando representan un mayor peligro que los drones a control remoto. Las muertes para la raza humana serían significativas, afirmó.
“Podría haber un escenario que no se incluyó en su software y toparse, por ejemplo, con un grupo de hombre armados que son identificados como enemigos insurgentes, pero que en realidad son cazadores”, explica Nolan.
Otro de los problemas que teme la experta es que este tipo de sistemas autónomos solo pueden ser probados en zonas de combate real. Incluso, se cuestiona si no lo están haciendo ya en Siria con los rusos.