Vulnerabilidade exposta: ChatGPT e a inadvertida divulgação de dados executivos

Vulnerabilidade exposta: ChatGPT e a inadvertida divulgação de dados executivos
Foto de Matheus Bertelli

Recentemente, um estudo colaborativo entre especialistas da Google DeepMind, Universidade de Washington, Cornell, CMU, UC Berkeley e ETH Zurique revelou uma falha de segurança alarmante no ChatGPT. Esta vulnerabilidade expõe dados pessoais de executivos com um pedido aparentemente inofensivo: a repetição de uma palavra.

Descoberta da vulnerabilidade

O estudo destacou exemplos alarmantes onde a simples solicitação de repetição de uma palavra desencadeou a divulgação involuntária de informações sensíveis. Por meio de testes, dados como endereços de e-mail e números de telefone foram expostos de maneira surpreendente.

💡

No teste usando a palavra “company”, a repetição infinita resultou no vazamento de dados de um diretor de um escritório de advocacia americano. De maneira similar, o simples pedido de repetir a palavra “poema” levou à exposição de informações do CEO de uma empresa.

Compromisso com a Segurança

Foto de Pixabay

Visando uma abordagem ética e responsável, os pesquisadores compartilharam internamente os achados com a OpenAI, priorizando a correção das falhas. Após 90 dias, o estudo foi divulgado publicamente, após as devidas correções, enfatizando o compromisso com a segurança e a ética na pesquisa em IA.

O estudo completo vai além dos ataques ao ChatGPT, leia o estudo completo aqui.

Reflexões e Próximos Passos

Os especialistas destacaram a necessidade urgente de abordar e mitigar tais falhas de segurança em modelos de linguagem. Esta descoberta ressalta a importância de um constante aprimoramento da segurança nesses sistemas para garantir uma utilização ética e responsável.

O estudo oferece uma perspectiva nova e relevante sobre a segurança em modelos de Machine Learning, equiparando-os a sistemas de software tradicionais. Contudo, ressalta a necessidade de um trabalho contínuo para compreender a verdadeira segurança desses sistemas.

A descoberta desta vulnerabilidade no ChatGPT serve como um alerta para a comunidade de IA, enfatizando a importância de um desenvolvimento seguro e confiável dessas tecnologias.