Google se aleja de su política pacifista: considera la IA para uso armamentístico

Google ha dado un salto lejos de su política pacifista, y es que la compañía ya no descarta por completo el uso de inteligencia artificial en armas y sistemas de seguridad, lo que ha provocado un debate ético en la comunidad tecnológica.
La compañía cambió sus principios de IA responsable y esto marca un posible giro en la postura de la empresa frente a aplicaciones controvertidas de la Inteligencia Artificial. Si bien su política de principios en materia de IA tenía algunas excepciones con su uso, especialmente en lo referido a las armas o sistemas de defensa, ya no es así.
Google se había comprometido a no buscar “tecnologías que causen o puedan causar daño general”, “armas u otras tecnologías cuyo propósito principal o implementación sea causar o facilitar directamente daños a las personas”, “tecnologías que recopilen o utilicen información para la vigilancia que viole normas aceptadas internacionalmente” y “tecnologías cuyo propósito contravenga principios ampliamente aceptados del derecho internacional y los derechos humanos”. Así lo compartió en una publicación de blog este martes el vicepresidente senior de investigación, laboratorios, tecnología y sociedad, James Manyika.
Se abre con ello una nueva forma de entender a la empresa y los proyectos que desarrollaría a futuro. La nueva partida de principios que ha propuesto Google elimina por completo el apartado destinado a indicar todas las aplicaciones de la IA que no se van a abordar. Los que significa que el desarrollo armamentístico junto a cualquier tipo de tecnología que recopile información o contravenga los principios generalmente aceptados del derecho internacional y los derechos humanos es posible.
Recomendamos: Todo sobre DeepSeek, la alternativa china que compite con OpenAI
Google ha abogado por la colaboración entre “empresas, los gobiernos y las organizaciones que comparten estos valores" para "trabajar juntos para crear una IA que proteja a las personas, promueva el crecimiento global y apoye la seguridad nacional”.
En 2018, Google publicaba por primera vez sus Principios de IA, y ahora esta actualización de Google es un cambio drástico en los valores de esos principios publicados originalmente. Google se une de esta forma, a otras empresas que han cambiado su postura frente al uso de la IA en el sector armamentístico o de defensa. Ya OpenAI colabora estrechamente con el Gobierno de Estados Unidos gracias a haberles ofrecido un chatbot desarrollado especialmente para su uso en organismos federales.
Recomendamos: Deep Research: la nueva herramienta de OpenAI