Criminosos usam nome ChatGPT para dar golpes, diz estudo

Extensões de navegador prometem ampliar funções do chatbot, mas roubam dados

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

São Paulo

O sucesso do ChatGPT se traduz nos seus mais de 100 milhões de usuários em menos de quatro meses no ar. Cibercriminosos, no entanto aproveitaram essa tendência para aplicar fraudes com o nome do chatbot baseado em inteligência artificial (IA), mostra estudo da empresa de segurança Eset.

Os estelionatários oferecem extensões de navegador que prometem facilitar acesso ou ampliar as funcionalidades do ChatGPT. Embora parte desses recursos funcione, esses programas roubam dados, como informações de acesso a contas em redes sociais.

Smartphone com logo do ChatGPT é visto ao lado de placa mãe com circuitos acesos em luz vermelha.
Aplicações de inteligência artificial vão de marketing a desenvolvimento de códigos de programação. Banco Goldman Sachs estima que tecnologias similares ao ChatGPT vão impactar 300 milhões de empregos em dez anos - Dado Ruvic/Reuters

Um exemplo dessa prática apontado pela Eset é o programa "Acesso rápido ao ChatGPT". O desenvolvedor dessa ferramenta usou os frequentes congestionamentos no site do chatbot, que impedem o acesso de usuários, para promover essa promessa de solução.

Essa extensão entrega o que promete, mas rouba contas em Facebook e outras redes sociais. A extensão ficou disponível por seis dias na loja oficial do Google Chrome durante fevereiro e registrou uma média de 2.000 instalações diárias, até ser removido pelo navegador.

Ainda de acordo com a Eset, páginas no Facebook promoveram conteúdos sobre essa ferramenta e distribuíram links e anúncios que levam a sites que se passam pelo ChatGPT. Os criminosos também procuram enganar as vítimas para que baixem arquivos maliciosos em seus computadores.

"Não seria estranho se encontrássemos mais extensões maliciosas em atividade ou que uma nova apareça em breve. Tenha muito cuidado com o que instala em seu navegador", diz, em nota, Camilo Gutiérrez Amaya, chefe do laboratório de pesquisa da Eset.

As informações roubadas também podem garantir aos criminosos acesso a contas bancárias e plataformas de pagamentos.

Cibercriminosos também oferecem aplicativos de smartphone falsos, com o nome ChatGPT, para tentar roubar dados. A OpenAI, entretanto, não disponibiliza esse serviço aos usuários até o momento.

A agência policial europeia Europol alertou esta semana que os rápidos avanços na IA generativa poderão ajudar fraudadores online e criminosos cibernéticos, de modo que "grandes modelos de linguagem sombrios podem se tornar um importante modelo de negócio criminoso no futuro".

A empresa de cibersegurança Sophos, por outro lado, tem estudado formas de usar a tecnologia por trás do ChatGPT, o GPT-3, para detectar fraudes. O modelo de linguagem foi usado nos testes para catalogar atividades maliciosas em bancos de spam e facilitar futuras identificações de risco.

Os atuais programas de segurança ainda geram ruído com alertas falsos, segundo o investigador de ameaças da Sophos Sean Gallagher. "Há muitas notificações e detecções para analisar e as empresas lidam com recursos limitados."

O modelo mais avançado do GPT-3 oferecido ao público, chamado Davinci, alcançou 88% de precisão ao identificar quais mensagens de spams são maliciosas. No último dia 14, a OpenAI lançou a versão mais nova de sua inteligência artificial, o GPT-4, que entrega respostas mais precisas.

Qualquer mensagem indesejada pode ser caracterizada como spam. São maliciosas aquelas usadas para roubar dados, em golpe conhecido como phishing —uma referência ao verbo pescar em inglês, já que existe uma isca.

Os pesquisadores da Sophos usam uma técnica de treinamento a partir de pequenas amostras de dados chamada few-shot learning (aprendizagem com poucos disparos, em português). Isso reduz a necessidade de coletar um grande volume de dados.

Os modelos depois são aprimorados em um processo de tentativa e erro, à medida que têm mais acesso a dados, chamado aprendizado por repetição.

Nesta terça-feira (28), a Microsoft também lançou uma ferramenta chamada Security Copilot para ajudar os profissionais de segurança digital a identificar violações, sinais de ameaças e analisar dados, usando o mais recente modelo de inteligência artificial generativa GPT-4.

O assistente usará um modelo da própria Microsoft, que a empresa descreveu como "um conjunto crescente de habilidades específicas de segurança", alimentado com mais de 65 trilhões de ordens todos os dias.

Com Reuters

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.