Google amplía colaboración con el Pentágono pese a críticas internas por uso de IA

El gigante tecnológico Google concretó un acuerdo con el Departamento de Defensa de Estados Unidos para permitir el uso de sus herramientas de inteligencia artificial en operaciones clasificadas, una decisión que ha generado reacciones encontradas tanto dentro como fuera de la empresa.

De acuerdo con reportes recientes, el convenio permite que el Pentagon utilice los modelos de IA de la compañía para “cualquier propósito gubernamental legal”, lo que incluye tareas sensibles como planeación operativa o análisis en entornos de seguridad nacional.

Aunque el contrato establece que la tecnología no está destinada a vigilancia masiva interna ni al uso en armas autónomas sin supervisión humana, también señala que la empresa no tiene facultad para vetar decisiones operativas del gobierno estadounidense.

Reacciones internas y debate ético

La firma del acuerdo ocurre en un contexto de inconformidad entre trabajadores de la compañía. Más de 600 empleados habían solicitado previamente al director ejecutivo, Sundar Pichai, evitar este tipo de colaboraciones, al considerar que podrían derivar en usos contrarios a principios éticos.

Algunos especialistas y empleados han advertido que el uso de inteligencia artificial en entornos militares plantea riesgos relacionados con vigilancia, toma de decisiones automatizadas y posibles aplicaciones en conflictos armados.

Un contexto de competencia tecnológica

El acuerdo coloca a Google dentro de un grupo de empresas tecnológicas que ya colaboran con el gobierno estadounidense en materia de IA, como OpenAI y xAI. Estas alianzas forman parte de una estrategia más amplia para integrar herramientas avanzadas en sistemas de defensa y seguridad.

La decisión también refleja la creciente importancia de la inteligencia artificial en el ámbito geopolítico y de seguridad, donde gobiernos buscan fortalecer sus capacidades tecnológicas frente a desafíos globales.

Postura de la empresa

Google ha señalado que su participación responde a un enfoque de colaboración con el sector público, manteniendo —según su postura— compromisos sobre el uso responsable de la inteligencia artificial, especialmente en temas como supervisión humana y limitaciones en ciertos usos sensibles.

No obstante, el debate sobre los límites éticos de estas tecnologías continúa abierto, tanto dentro de la industria como en el ámbito público, en medio de un avance acelerado de la IA en distintos sectores.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *