Anthropic, la empresa creadora del chatbot Claude, ha llevado al Pentágono a los tribunales después de que el Departamento de Defensa de Estados Unidos la designara como un “riesgo para la cadena de suministro”, una etiqueta que suele reservarse para empresas extranjeras. El conflicto estalló cuando Anthropic se negó a eliminar dos “líneas rojas” en el uso militar de su tecnología: la vigilancia masiva de ciudadanos estadounidenses y el desarrollo de armas autónomas letales que pudieran matar sin intervención humana. El gobierno de Donald Trump respondió ordenando a todas las agencias federales cesar el uso de Claude, una decisión que Anthropic califica de “represalia ilegal” .
En un giro inesperado que demuestra la preocupación transversal en la industria, más de 30 empleados de OpenAI y Google, incluyendo a Jeff Dean, jefe científico de Google DeepMind, han presentado un escrito de amicus curiae en apoyo a su competidor directo. El grupo, que actúa a título personal y no en representación de sus empresas, argumenta que la acción del gobierno es “un uso arbitrario e impropio del poder” que “castiga a una empresa por su postura ética” y podría enfriar el debate público sobre los riesgos de la IA. El escrito señala que, en ausencia de leyes claras, las restricciones que las empresas imponen a sus sistemas son “la única salvaguarda” contra un uso catastrófico .

La ironía del caso es que, apenas horas después de anunciar la exclusión de Anthropic, el Pentágono firmó un nuevo contrato con OpenAI, su principal rival, que aceptó la cláusula de “cualquier uso legal”. Esta decisión generó malestar entre los propios empleados de OpenAI, muchos de los cuales también se han unido al escrito de apoyo a Anthropic . Mientras tanto, según ha podido saber la prensa, el ejército estadounidense habría seguido utilizando Claude durante este conflicto, incluso en la operación que acabó con la vida del líder de Irán, el ayatolá Ali Khamenei .
Este pulso judicial se ha convertido en un test para la industria. Los expertos de OpenAI y Google que apoyan a Anthropic advierten en su escrito de que vincular la IA a la vigilancia masiva o a armas autónomas sin supervisión humana plantea “profundos riesgos para la gobernabilidad democrática” y que, en condiciones reales de combate, estos sistemas “no son fiables”. La pregunta que queda en el aire es si las empresas tecnológicas pueden mantener el control sobre el uso que los gobiernos hacen de sus creaciones, o si la seguridad nacional acabará imponiéndose sobre cualquier consideración ética .
