Anthropic e OpenAI se unem ao US AI Safety Institute para garantir o futuro da IA

O Instituto de Segurança de Inteligência Artificial dos EUA, parte do Instituto Nacional de Padrões e Tecnologia (NIST) sob o Departamento de Comércio dos EUA, anunciou novos acordos visando reforçar a pesquisa e avaliação de segurança de IA. Esses acordos, formalizados por meio de Memorandos de Entendimento (MOUs), estabelecem uma estrutura colaborativa com duas empresas

O Instituto de Segurança de Inteligência Artificial dos EUA, parte do Instituto Nacional de Padrões e Tecnologia (NIST) sob o Departamento de Comércio dos EUA, anunciou novos acordos visando reforçar a pesquisa e avaliação de segurança de IA. Esses acordos, formalizados por meio de Memorandos de Entendimento (MOUs), estabelecem uma estrutura colaborativa com duas empresas líderes em IA, Anthropic e OpenAI. As parcerias são projetadas para facilitar o acesso a novos modelos de IA de ambas as empresas, permitindo que o instituto conduza avaliações completas antes e depois que esses modelos sejam lançados publicamente.

Os MOUs permitem que o US AI Safety Institute se envolva em pesquisa colaborativa com a Anthropic e a OpenAI, com foco na avaliação de capacidades de IA e na identificação de riscos de segurança. Espera-se que essa colaboração avance metodologias para mitigar riscos potenciais associados a sistemas avançados de IA. Elizabeth Kelly, diretora do US AI Safety Institute, enfatizou que a segurança é um componente crítico da inovação tecnológica e expressou expectativa pelas próximas colaborações técnicas com essas empresas de IA. Ela observou que esses acordos representam um marco importante nos esforços contínuos do instituto para orientar o desenvolvimento responsável da IA.

Além dessas colaborações, o US AI Safety Institute fornecerá feedback tanto para a Anthropic quanto para a OpenAI sobre possíveis melhorias de segurança em seus modelos. Este trabalho será conduzido em estreita parceria com o UK AI Safety Institute, refletindo um esforço internacional mais amplo para garantir o desenvolvimento seguro e confiável de tecnologias de IA.

Os esforços do US AI Safety Institute estão enraizados na longa história do NIST de avanço da ciência, tecnologia e padrões de medição. As avaliações conduzidas sob esses acordos contribuirão para as iniciativas de IA mais amplas do NIST, que estão alinhadas com a Ordem Executiva sobre IA da administração Biden-Harris. O objetivo é dar suporte ao desenvolvimento seguro, protegido e confiável de sistemas de IA, com base em compromissos voluntários feitos pelos principais desenvolvedores de IA para a administração.

De acordo com uma reportagem da Reuters, na quarta-feira, os legisladores da Califórnia aprovaram um controverso projeto de lei de segurança de IA, que agora aguarda a decisão do governador Gavin Newsom. Newsom, um democrata, tem até 30 de setembro para vetar o projeto ou sancioná-lo. A legislação exige testes de segurança e outras salvaguardas para modelos de IA que excedam certos custos ou poder de computação, uma medida que algumas empresas de tecnologia argumentam que pode dificultar a inovação.

Imagem em destaque via Pixabay

Atualizado em by Samatha Paris
O Instituto de Segurança de Inteligência Artificial dos EUA, parte do Instituto Nacional de Padrões e Tecnologia (NIST) sob o Departamento de Comércio dos EUA, anunciou novos acordos visando reforçar a pesquisa e avaliação de segurança de IA. Esses acordos, formalizados por meio de Memorandos de Entendimento (MOUs), estabelecem uma estrutura colaborativa com duas empresas
O Instituto de Segurança de Inteligência Artificial dos EUA, parte do Instituto Nacional de Padrões e Tecnologia (NIST) sob o Departamento de Comércio dos EUA, anunciou novos acordos visando reforçar a pesquisa e avaliação de segurança de IA. Esses acordos, formalizados por meio de Memorandos de Entendimento (MOUs), estabelecem uma estrutura colaborativa com duas empresas
O Instituto de Segurança de Inteligência Artificial dos EUA, parte do Instituto Nacional de Padrões e Tecnologia (NIST) sob o Departamento de Comércio dos EUA, anunciou novos acordos visando reforçar a pesquisa e avaliação de segurança de IA. Esses acordos, formalizados por meio de Memorandos de Entendimento (MOUs), estabelecem uma estrutura colaborativa com duas empresas
Registro Rápido

Plataforma única para seus traders. A estrutura é clara e transparente.

89%
Pontuação de Confiança

Teste Gratuitamente! Depósito inicial não é necessário.

Ir ao Topo