Tecnología

Anthropic abandona su promesa de pausar la IA peligrosa: “Es inútil si los competidores avanzan a toda máquina”

La carrera por la inteligencia artificial acaba de perder uno de sus principales frenos éticos. Anthropic, la startup fundada por exmiembros de OpenAI y considerada hasta ahora la voz más responsable en materia de seguridad, ha eliminado de su política oficial el compromiso de pausar el desarrollo de modelos de IA que superen ciertos umbrales de peligro. La decisión, anunciada en la actualización de su Responsible Scaling Policy (RSP) a la versión 3.0, reemplaza las promesas de “pausa” por un lenguaje más difuso centrado en “gestión de riesgos” e “implementación iterativa”.

Anteriormente, Anthropic se comprometía explícitamente a detener el entrenamiento de modelos más potentes si sus capacidades superaban las medidas de seguridad disponibles. Ahora, ese compromiso ha desaparecido. La compañía afirma que, en lugar de pausas, implementará salvaguardas, publicará evaluaciones de seguridad y lanzará actualizaciones de su Marco de Seguridad Fronteriza para explicar cómo se gestionan los riesgos. Un cambio de lenguaje que, en la práctica, supone un giro de 180 grados en su filosofía.

Claude AI ships to Windows and macOS | Windows Central

¿La razón? La propia Anthropic lo explica en su documento: “Si un desarrollador de IA se detuviera para implementar medidas de seguridad mientras otros avanzan sin fuertes mitigaciones, el mundo sería menos seguro”. En declaraciones a Time, el director científico Jared Kaplan fue aún más directo: “No tiene sentido hacer compromisos unilaterales si los competidores avanzan a toda máquina”. Una admisión de que, en la carrera actual, la responsabilidad es un lastre.

El movimiento deja a Anthropic en una posición incómoda: era la única gran compañía de IA que aún mantenía públicamente este tipo de compromisos. Con su eliminación, la presión competitiva se impone definitivamente sobre los frenos éticos. El mensaje es claro: si no puedes con ellos, únete a ellos. La pregunta que queda en el aire es quién, si alguien, pondrá los límites ahora.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *