Golpes Digitais com Inteligência Artificial Atingem Altos Níveis no Brasil
A crescente utilização de IA em fraudes digitais exige novos cuidados de segurança.

Os métodos de fraudes digitais têm evoluído de maneira alarmante no Brasil, com a inteligência artificial sendo uma aliada dos golpistas. Longe de se apresentarem com erros de linguagem ou solicitações estranhas, estes golpes agora imitam vozes de familiares e rostos de personalidades conhecidas, dificultando a detecção.
Crescimento do uso de IA em fraudes
Conforme levantamento da Agência Lupa, o uso de conteúdos falsos gerados por inteligência artificial cresceu 308% entre 2024 e 2025, apontando uma transformação significativa nas táticas utilizadas pelos fraudadores. Dados da Fundação Seade, divulgados em 2026, revelam que em São Paulo, 82% dos idosos já foram alvo de tentativas de fraudes digitais, com 12% tendo efetivamente sido enganados.
"A inteligência artificial não replica apenas voz e imagem, mas combina esses elementos com contexto, linguagem e padrões de comportamento previamente mapeados.
✨ 68% dos idosos que sofreram fraudes afirmam não saber como se proteger.
Impacto na segurança digital
Os golpes digitais modernos são construídos para parecer pouco suspeitos, reduzindo a margem de erro por parte dos golpistas e transferindo para os usuários a responsabilidade de verificar as informações.
Entre as técnicas mais comuns utilizadas pelos golpistas estão a clonagem de vozes, manipulação de vídeos e a criação de identidades digitais falsas. Essa combinação permite que as fraudes sejam mais convincentes, atraindo a confiança do usuário antes que ele tenha tempo de questionar.
O caso de Gisele Bündchen
Um exemplo notório é o uso indevido da imagem da modelo Gisele Bündchen em 2025, onde vídeos e áudios gerados artificialmente promoviam produtos sem qualquer afiliação. Isso resultou em consumidores pagando por itens que nunca foram entregues.
"Usuários tendem a aceitar mensagens associadas a figuras públicas com alta credibilidade sem uma verificação adequada.
Identificação de conteúdos manipulados
Reconhecer vídeos e áudios manipulados requer atenção aos detalhes. É importante observar desalinhamentos entre áudio e imagem labial, expressões faciais artificiais, e outras inconsistências que podem não ser evidentes à primeira vista.
- 1Verifique informações por meio de múltiplos canais.
- 2Cuidado com abordagens que envolvem urgência.
- 3Desconfie de solicitações emocionais.
- 4Observe inconsistências visuais em conteúdos.
- 5Evite compartilhar dados pessoais sem verificações.
Para enfrentar o aumento das fraudes, o especialista recomenda a adoção de novos hábitos de verificação nas interações digitais. A falta de precauções pode facilitar a ação dos golpistas.
Leia Também
Não perca nenhuma notícia!
Receba as principais notícias e análises diretamente no seu email. Grátis e sem spam.
Gostou desta notícia? Compartilhe!
Gabriel Rodrigues
Jornalista especializado em Segurança
Mais de Segurança

Drone ucraniano atinge área próxima à administração em Belgorod
Aeronave não tripulada quase colide com pedestre na cidade russa

Operação no Rio foca em grupo de compartilhamento de material ilícito com crianças
Polícia Civil e outras autoridades realizam buscas e prendem homem em crime de abuso infantil.

Operação Midas Combate Tráfico de Drogas e Armas no Rio de Janeiro e Outros Estados
Ação busca desmantelar esquema de envio de entorpecentes e armamentos com identificação de fazendas e laboratórios ilegais.

Aumento de Casos de Feminicídio em São Paulo nos Dois Primeiros Meses de 2026
Comparação entre os anos revela subida de 31% nos registros de feminicídio





