Inteligência artificial
Pesquisadores propõem a criação de kill switches para inteligências artificiais (Imagem: Vitor Pádua / Tecnoblog)

Um grupo de pesquisadores publicou nesta semana um artigo no qual defendem um interruptor físico para desligar inteligências artificiais. O paper, publicado pela célebre Universidade de Cambridge, tem entre seus autores alguns membros da OpenAI, criadora do ChatGPT e principal empresa do ramo de IA generativa. A ideia dos cientistas é que o hardware dessa tecnologia conte com elementos físicos para interromper seu funcionamento — se necessário.

A proposta dos pesquisadores pode ser comparada como um kill switch para IA. Kill switch é o nome dado para botões ou outros mecanismos de segurança que desligam uma máquina em caso de emergências. Por exemplo, aquele grampo de esteiras das academias que devem ser presas a camiseta. Caso o corredor caia, o grampo puxa o cordão e desliga a máquina.

Kill switch para IAs é defendida até por membros da OpenAI

Entre os 19 autores do artigo, cinco são integrantes da OpenAI. A empresa é, na atualidade, a principal referência em inteligência artificial. A popularidade do ChatGPT e seus recursos, ainda que suscetível à falha e “preguicite”, cresceu rapidamente após o seu lançamento no fim de 2022 — seguido de uma queda em junho de 2023.

OpenAI
Cinco integrantes da OpenAI estão entre os 19 autores do artigo (Imagem: Vitor Pádua / Tecnoblog)

Essa ascensão do ChatGPT gerou uma corrida de IAs generativas e levantou o debate sobre possíveis riscos dessa tecnologia. Google lançou o Gemini (que antes se chamava Bard), a Meta lançou IA generativa para figurinhas, ferramentas de criação de fotos e vídeos estão ganhando mais espaço, Elon Musk saiu às compras para lançar sua própria IA, Samsung estreou a Galaxy AI na linha Galaxy S24, Tim Cook falou de IA no iPhone — você já deve ter entendido.

A proposta dos pesquisadores para solucionar possíveis problemas de segurança é incluir kill switches diretamente no hardware da IA. No artigo, os cientistas destacam que como há poucas fornecedoras de GPU (para não dizer que é basicamente a Nvidia nesse segmento), ficaria fácil controlar quem tem acesso a essa tecnologia, o que facilita também identificar o mal uso de IAs.

Pelo artigo, temos a impressão de que os pesquisadores defendem que é fácil aplicar o mecanismo de kill switch nas GPUs. Os cientistas sugerem que o botão de segurança no hardware permitirá que órgãos reguladores o ativem se identificarem alguma violação. Além do mais, o próprio kill switch poderia se ativar em caso de mal uso.

Os autores propõem também uma licença de operação para as empresas, que deveria ser renovada periodicamente para autorizar a pesquisa e desenvolvimento de IA — nada diferente do que ocorre com alvarás. Sem renovação, o sistema seria interrompido. Obviamente, essas propostas de controle remoto trazem outro risco: elas viram alvos de ciberataques.

Com informações: The Register

Especialistas querem interruptor físico para desligar as IAs