Golpes com Inteligência Artificial avançam no Brasil e acendem alerta para população em 2026
Pesquisas indicam crescimento de fraudes digitais com uso de clonagem de voz e deepfakes, com impacto direto em Minas Gerais
PATRICK BRYAN FERREIRA NASCIMENTO BACKSTAGE ASSESSORIA
15/12/2025 14h18 - Atualizado há 2 meses
IA
O avanço da Inteligência Artificial deve impulsionar, em 2026, uma nova geração de golpes digitais no Brasil, mais sofisticados, personalizados e difíceis de identificar. Levantamentos do Fórum Brasileiro de Segurança Pública e da SaferNet Brasil indicam que crimes virtuais com uso de tecnologias avançadas crescem de forma acelerada, acompanhando a popularização de ferramentas de IA generativa.
De acordo com estudos da SaferNet Brasil, denúncias de fraudes digitais e tentativas de golpes online aumentaram significativamente nos últimos anos, tendência que deve se intensificar com o uso de clonagem de voz, vídeos falsos realistas e mensagens automatizadas altamente personalizadas. Projeções do setor de segurança digital apontam que, até 2026, mais de 70% das tentativas de fraude online devem utilizar algum nível de Inteligência Artificial.
Em Minas Gerais, os números seguem a tendência nacional. Dados do Fórum Brasileiro de Segurança Pública mostram que o estado está entre os que mais registram ocorrências de estelionato digital no país. Em Belo Horizonte e na Região Metropolitana, o crescimento de golpes via aplicativos de mensagem e redes sociais preocupa autoridades e especialistas, especialmente pelo impacto sobre idosos, pessoas acima dos 40 anos e pequenos empreendedores que utilizam o WhatsApp como principal ferramenta de trabalho.
A facilidade de acesso às tecnologias é um dos fatores de alerta. Hoje, poucos segundos de áudio disponíveis em redes sociais já são suficientes para a clonagem de voz com alto grau de semelhança. O mesmo ocorre com imagens e vídeos, usados para criar situações falsas de urgência emocional, como pedidos de dinheiro ou confirmação de dados bancários.
Para o desenvolvedor e especialista em Inteligência Artificial, Caio Arimura, o cenário exige uma mudança urgente no comportamento digital da população. “O erro é achar que golpe ainda vem com mensagem mal escrita ou pedido genérico. Em 2026, a fraude é personalizada, emocional e extremamente convincente. A Inteligência Artificial permite imitar voz, imagem e linguagem de pessoas reais, o que torna esse tipo de crime muito mais perigoso”, afirma.
Segundo Caio, confiar apenas na intuição não é mais suficiente. “Não se trata de falta de atenção da vítima. É um novo modelo de crime. A alfabetização digital precisa acompanhar a evolução da tecnologia. As pessoas precisam aprender a confirmar informações por outros canais, criar códigos de segurança entre familiares e desconfiar até de áudios e vídeos aparentemente legítimos”, completa.
Especialistas alertam que bancos, empresas e órgãos públicos também terão de revisar protocolos de segurança e comunicação, enquanto cresce a necessidade de campanhas educativas voltadas à prevenção de golpes com uso de Inteligência Artificial. A orientação é que nenhuma decisão financeira ou compartilhamento de dados pessoais seja feita apenas com base em mensagens ou ligações, mesmo quando parecem vir de contatos conhecidos.
Notícia distribuída pela saladanoticia.com.br. A Plataforma e Veículo não são responsáveis pelo conteúdo publicado, estes são assumidos pelo Autor(a):
PATRICK BRYAN FERREIRA NASCIMENTO
[email protected]