Anthropic modifica diretrizes de segurança em IA diante da pressão do Pentágono

A Anthropic anunciou a flexibilização de suas políticas de segurança em IA, citando a necessidade de se adaptar à concorrência e as pressões do Pentágono. [...]

A Anthropic, empresa criada por ex-funcionários da OpenAI, está revisando suas diretrizes de segurança em inteligência artificial (IA) em resposta à crescente concorrência. A nova abordagem, que não é vinculativa, foi divulgada em um blog da companhia e visa garantir a competitividade em um mercado de IA em rápida evolução.

Com a mudança, a Anthropic reconhece que a Política de Escalabilidade Responsável, implementada há dois anos, apresentava deficiências que poderiam prejudicar sua posição no setor. O anúncio ocorre em meio a uma disputa com o Pentágono dos Estados Unidos sobre diretrizes de IA, onde a empresa enfrenta a possibilidade de perder um contrato significativo.

A política anterior exigia que a Anthropic suspendesse o treinamento de modelos mais avançados se suas capacidades superassem os limites de controle e segurança da empresa. Com a nova política, essa exigência foi removida, refletindo a realidade de que desenvolvedores responsáveis podem ficar em desvantagem quando comparados a concorrentes menos cuidadosos.

Além disso, a Anthropic planeja dissociar suas diretrizes de segurança das recomendações da indústria. A empresa expressou a expectativa de que suas políticas originais incentivassem outros a adotar práticas de segurança robustas, embora afirme que essa expectativa não se concretizou até o momento.

Leia mais

Rolar para cima