17.5 C
São Paulo
sexta-feira, maio 2, 2025
InícioDiversos"Investigação revela: Ataques bem-sucedidos interceptam textos enviados através do GPT-4 por terceiros,...

“Investigação revela: Ataques bem-sucedidos interceptam textos enviados através do GPT-4 por terceiros, afirmam pesquisadores de Israel”

Data:

Posts Relacionados

Aprender Brincando: O Instinto que Nos Constrói

Brincar é uma linguagem ancestral. Antes mesmo de o...

Liderança na Era da Inteligência Artificial: Como Conduzir Equipes com Clareza, Ética e Inovação

A ascensão da inteligência artificial (IA) está transformando profundamente...

A Raposa Teumessiana: Um Paradoxo da Mitologia Grega

A Raposa Teumessiana é uma criatura intrigante da mitologia...

Descobrindo a Mensagem: Uma Investigação Profunda

Recentemente, pesquisadores da Universidade Ben Gurion do Negev, em Israel, divulgaram um estudo revelador intitulado “Descobrindo a Mensagem: Uma Investigação Sobre Ataques Remotos de Keylogging em Assistentes de IA“. Este estudo aborda um método sofisticado de ataque que visa interceptar e roubar textos trocados com assistentes de IA, como o GPT-4.

O processo de ataque descrito neste estudo é complexo e envolve várias etapas. Inicialmente, os pesquisadores interceptam comunicações de pacotes criptografados entre o usuário e o assistente de IA. Em seguida, eles localizam a mensagem de resposta gerada pelo assistente de IA a partir do tráfego interceptado.

Uma vez identificada a mensagem de resposta, os pesquisadores estimam o comprimento dos tokens contidos na resposta analisando as mudanças no tamanho de cada mensagem. Em seguida, eles segmentam a sequência de comprimento do token em pedaços significativos, como sentenças, e a passam por um modelo composto por dois LLMs (Modelos de Linguagem em Larga Escala) dedicados para inferir o texto da resposta.

Resultados Perturbadores

Os resultados dos experimentos realizados pelos pesquisadores são preocupantes. Eles testaram o método de ataque em serviços fornecidos por grandes empresas, como OpenAI, Microsoft e Google, e alcançaram uma taxa de sucesso de ataque de 54,5% para o primeiro segmento da resposta e uma média de 37,96% de sucesso de ataque entre todas as respostas testadas.

Além disso, os pesquisadores realizaram experimentos no ChatGPT (GPT-4) da OpenAI e no Copilot da Microsoft, dois dos assistentes de IA mais populares atualmente. Eles descobriram que o método de ataque também funcionou nessas plataformas, com taxas de sucesso variando de 30% a 53% para aplicativos de navegador e mercados, e 17,7% para APIs.

Veja também:  #Fábula - O Cavalo e o Burro de Monteiro Lobato

Esses resultados destacam a importância de garantir a segurança e a privacidade dos dados transmitidos para assistentes de IA e ressaltam a necessidade de desenvolver medidas de proteção mais robustas contra ataques desse tipo.

Fonte: Roy Weiss, Daniel Ayzenshteyn, Guy Amit, Yisroel Mirsky. Qual foi o seu prompt? Um ataque remoto de keylogging em assistentes de IA

Veja também

spot_img
Usamos cookies para aprimorar sua experiência de navegação, veicular anúncios ou conteúdo personalizado e analisar nosso tráfego. Ao clicar em "Ok, Ciente!", você concorda com o uso de cookies. We are committed to protecting your privacy and ensuring your data is handled in compliance with the General Data Protection Regulation (GDPR).