Ante las protestas, renuncias y una petición firmada por al menos 4,000 empleados de Google, la compañía prometió este jueves que no utilizará la Inteligencia Artificial (IA) para crear armas o dispositivos de vigilancia que violen los derechos humanos.
El anuncio forma parte de un conjunto de siete principios que Google plantea respetar en cuanto al desarrollo de la IA, lo que incluye “ser beneficioso para la sociedad”, “evitar la creación y reforzamiento de sesgos injustos”, “ser construido y probado para seguridad” e “Incorporar los principios de diseño de privacidad”.
Google también detalló las aplicaciones en donde la empresa no implementará este tipo de tecnología, como la fabricación de armas u otras tecnologías cuyo principal propósito sea lesionar a un ser humano, así como la utilización de la IA para recopilar información como sistema de vigilancia más allá de las normas internacionalmente aceptadas.
Eso sí, la empresa aclaró también que continuaría trabajando con gobiernos y militares usando la IA en áreas que incluyen ciberseguridad, entrenamiento y reclutamiento militar.
Project Maven
La protestas sobre el uso de la Inteligencia Artificial en asuntos militares surgieron cuando la compañía consiguió un contrato para trabajar en el programa Project Maven del Departamento de Defensa de los Estados Unidos.
Este proyecto buscaba la utilización de un sistema de Inteligencia Artificial para interpretar imágenes de video que mejoraría la orientación en los ataques de drones, pero la compañía anunció recientemente que abandonará el acuerdo cuando expire el próximo año.