Trump ordena a las agencias federales que detengan el uso de la tecnología de inteligencia artificial de Anthropic en medio de disputa

El presidente Donald Trump ha ordenado a todas las agencias federales que cesen el uso de la tecnología de inteligencia artificial de Anthropic, tras la negativa de la empresa a cumplir con las demandas del Pentágono de aplicaciones militares sin restricciones. En una declaración, Trump destacó las preocupaciones de su administración con respecto al posible uso indebido de las tecnologías de inteligencia artificial durante un mitin de campaña, lo que significa una tensión creciente entre las empresas de tecnología y las demandas del gobierno.

Dario Amodei, director ejecutivo de Anthropic, rechazó públicamente los llamados del Pentágono para eliminar las pautas de seguridad de su IA, Claude, que los funcionarios buscaban para “cualquier uso legal”. Amodei expresó su compromiso con el despliegue ético de la IA, citando los riesgos potenciales de la vigilancia masiva y las armas totalmente autónomas como factores clave en su decisión. “Las amenazas no cambian nuestra posición: en conciencia no podemos acceder a su petición”, afirmó, enfatizando las obligaciones morales de las empresas tecnológicas.

La dinámica entre Anthropic y el Pentágono no sólo ha provocado debates sobre el futuro de las aplicaciones de la IA en la seguridad nacional, sino que también ha puesto de relieve una división dentro de las comunidades tecnológicas de Silicon Valley. Los comentaristas han notado la división ideológica entre los “racionalistas”, que abogan por el avance de las capacidades de la IA, y los “aceleracionistas”, que presionan por la supervisión regulatoria y las consideraciones éticas; ambas facciones han mostrado un gran interés en la trayectoria de Anthropic.

A medida que se desarrolla la controversia, el sentimiento público parece inclinarse a favor de Amodei, etiquetándolo como un defensor de las prácticas éticas de IA. Los observadores destacan que Anthropic, fundado en 2021 como un laboratorio de investigación de IA orientado a la seguridad, se estableció en respuesta a las preocupaciones planteadas sobre la priorización del rendimiento sobre la seguridad en su predecesor OpenAI.

Si bien la empresa puede enfrentar repercusiones financieras debido a la pérdida de contratos gubernamentales, Amodei se mantiene firme en sus principios, lo que sugiere que Anthropic puede explorar asociaciones con organizaciones que se alineen mejor con su filosofía de gobernanza. La medida para destituir las exigencias del Pentágono posiciona a Anthropic como un líder potencial en el desarrollo responsable de la IA, captando tanto la aprobación del público como el interés de los inversores.