As grandes empresas de inteligência artificial anunciaram o comprometimento de seguir as diretrizes do governo americano sobre o desenvolvimento seguro de IAs. Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI aprovaram as medidas da Casa Branca nesta sexta-feira (21). Com esse acordo, as companhias seguirão diretrizes de segurança para evitar riscos na evolução das IAs.

Inteligência artificial
Principais empresas de IA na atualidade aprovaram diretrizes sugeridas pelo governo americano (Imagem: Vitor Pádua / Tecnoblog)

O anúncio do acordo entre as partes (governo e empresas) foi publicado no site oficial da Casa Branca. Segundo o texto, o comprometimento das empresas foi voluntário. O governo americano informa ainda que está em contato com outras nações, incluindo o Brasil, para ampliar o número de empresas e governos que apoiam as diretrizes de segurança para o desenvolvimento de IAs.

Medidas para o desenvolvimento seguro de IAs

No total, foram apresentadas oito diretrizes (ou medidas) para o desenvolvimento seguro de inteligências artificiais. Essas medidas são apenas o primeiro passo da Casa Branca antes de criar uma proposta de regulamentação. Iremos resumi-las de acordo com as suas similaridades.

  • Garantir uma IA segura antes do lançamento: Neste ponto, as empresas se comprometem a permitir que terceiros realizem testes com suas inteligências artificiais. Esses testes verificarão os riscos da IA expor dados sobre biossegurança e cibersegurança.
    As empresas também compartilharão informações com governos, indústria, sociedade e academia, além de promover práticas positivas sobre segurança, compartilhar técnicas e tentativas de “driblar” as medidas de segurança das IAs — como aquelas que impedem om ChatGPT de escrever vírus.
ChatGPT e Sam Altman, CEO da OpenAI
OpenAI, criadora do ChatGPT, é uma das empresas que aceitou as diretrizes da Casa Branca (Imagem: Vitor Pádua / Tecnoblog)
  • “Segurança em primeiro lugar”: Basicamente um complemento do ponto anterior, essa diretriz exige que as empresas só lance seus modelos após a garantia de que a IA é segura. As companhias também facilitarão que terceiros descubram e reportem vulnerabilidades. A IA necessitará ainda de um “mecanismo robusto” de comunicação de falha.
  • “Conquistar a confiança do público”: Aqui, a proposta do governo americano é que as empresas criem ferramentas que permitam identificar se um conteúdo é gerado por IA; divulguem as capacidades das suas IAs (que pode evitar os casos de acusações falsas de plágio pelo ChatGPT); priorizem pesquisas no riscos da tecnologia sobre a sociedade; evitem conteúdos prejudiciais e discriminatórios e protejam a privacidade.
    Há também uma exigência para que as empresas desenvolvam sistemas avançados de IA para resolver os principais desafios da sociedade, como cura de cânceres e mitigação dos efeitos das mudanças climáticas.

Com informações: New York Times e Google

Gigantes da inteligência artificial se comprometem com regras do governo dos EUA