A inteligência artificial já faz parte do dia a dia de inúmeras empresas de tecnologia. Algumas abraçaram de vez os robôs, enquanto outras mantém um olhar mais desconfiado. É o caso da Apple, que pode ter proibido seus funcionários de usarem o ChatGPT e outras ferramentas de IA. A maçã teria receio que vazamentos de seus projetos poderiam ocorrer com a utilização frequente do chatbot da OpenAI.

Logotipo da Apple
Apple (Imagem: Vitor Pádua / Tecnoblog)

Segundo um relato do The New York Times, a Apple decidiu seguir o mesmo caminho de outra empresa. A Samsung proibiu os funcionários de usarem o ChatGPT no trabalho depois que alguns colaboradores deixaram vazar dados confidenciais ao pedirem ajuda ao robô.

O jornal estadunidense reportou que a dona do iPhone estaria trabalhando em sua própria inteligência artificial generativa, como o Bard do Google e o Bing Chat da Microsoft. Sendo assim, a companhia teria preocupações que os profissionais acabassem deixando escapar informações importantes e secretas dos futuros projetos. Vale lembrar que o chatbot ganhou um app para iPhone recentemente.

Além disso, os colaboradores da maçã também teriam sido aconselhados a não usarem o Copilot do GitHub, pois ele é propriedade da Microsoft e utiliza códigos da OpenAI para suas funções.

Ao que tudo indica, “precaução” é a palavra da vez entre as grandes empresas. Apple e Samsung não estão sozinhas em restringir o uso do ChatGPT e similares por funcionários. Marcas como o Bank of America e J.P. Morgan adotaram as mesmas medidas.

(Imagem: Unsplash / Jonathan Kemper)
(Imagem: Unsplash / Jonathan Kemper)

ChatGPT é conveniente, mas ainda falta segurança

Mesmo oferecendo muita utilidade no dia a dia dos usuários, o chatbot da OpenAI não está livre de críticas e receios. A proibição de marcas como Apple e Samsung é compreensível, já que o vazamento de dados a partir do robô ocorreu previamente.

A própria dona da ferramenta acabou divulgando detalhes de segurança do ChatGPT, na qual ressaltou os esforços para melhorar a privacidade, ao mesmo tempo, em que deu satisfação para sua base de usuários. No relato, a companhia destacou que não vende dados, mas que os usa para tornar os modelos de inteligência artificial mais úteis.

Ainda na questão de segurança, a empresa de proteção digital Kaspersky realizou testes na detecção de phishing por parte do ChatGPT. De acordo com seus resultados, a IA conseguiu adivinhar alvos de ataques, porém, alcançou taxas altas de falsos positivos de até 64%, o que foi considerado um número alto pelos especialistas.

Como o Brasil é um dos países que mais usa a inteligência artificial da OpenAI no mundo, vale tomar o máximo de medidas para se proteger do vazamento de dados e de golpes cibernéticos.

Com informações: Mashable.

Apple pode ter banido o ChatGPT das mãos de seus funcionários