O cenário digital mudou drasticamente nos últimos anos. O que antes parecia ficção científica, como falsificação de vídeo, clonagem de voz e troca de rosto em tempo real, agora faz parte da vida cotidiana.
A escala da manipulação está acelerando rapidamente. O governo do Reino Unido prevê que oito milhões de deepfakes gerados por IA serão compartilhados este ano, contra 500.000 em 2023.
Arquiteto Chefe e CISO de Ferramentas para a Humanidade.
O que antes exigia orçamentos de Hollywood e equipes especializadas agora está disponível para qualquer pessoa com telefone e conexão à Internet.
Se não conseguirmos mais dizer o que é real e o que é falso, como recuperaremos a confiança digital?
A magnitude da ameaça
A ameaça está se espalhando por todos os aspectos da sociedade. Os golpistas hoje usam o endosso de celebridades para roubar milhões por meio de esquemas de investimento em mídias sociais.
Após desastres naturais, os fraudadores espalharam solicitações de vídeo geradas por IA usando os rostos dos trabalhadores humanitários. Deepfakes políticos se espalharam rapidamente, mostrando candidatos dizendo coisas que nunca disseram.
As instituições financeiras enfrentam um desafio particularmente sério. A fraude relacionada ao Deepfake aumentou 3.000 por cento em 2023, com perdas médias por incidente atingindo cerca de US$ 500.000.
Por trás destas estatísticas estão consequências humanas reais. Os funcionários autorizam pagamentos para contas fraudulentas. Os consumidores são atraídos por golpes por meio de endossos falsos ou vozes clonadas. Os utilizadores mais velhos, muitas vezes menos confiantes digitalmente, são particularmente vulneráveis.
Por que as defesas tradicionais são insuficientes
A resposta instintiva foi expandir a detecção, moderação e verificações do Know Your Customer (KYC). No entanto, estas medidas não se mostram adequadas.
As ferramentas de detecção estão travadas em uma corrida armamentista com a IA criativa. A moderação da escala é cara e controversa. Ampliar o KYC aumenta o atrito para os consumidores sem resolver a dificuldade de detectar falsificações em tempo real.
O KYC aumenta o risco de vazamento ou roubo de conteúdo que identifica usuários (como selfies e imagens de documentos), acelerando a capacidade da IA de se passar por pessoas reais.
À medida que o conteúdo gerado pela IA se torna mais difícil de distinguir, a própria ideia de detectar falsificações está desmoronando; apenas 34% das pessoas acham que é fácil distinguir o conteúdo de IA do conteúdo gerado pelo usuário. Este não é apenas um problema de fraude. Trata-se do futuro da confiança nas interações digitais e da credibilidade da própria IA.
Prova da humanidade como proteção inteligente
Se a detecção falsa falhar, a abordagem mais inteligente é provar a verdadeira. Prova de humanidade significa verificar se uma pessoa real está por trás de uma interação sem armazenar ou compartilhar dados biométricos confidenciais.
Os usos são claros. Os bancos podem aplicar prova de cheques humanos ao abrir contas ou autorizar transações. As plataformas de vídeo podem impedir que executivos deepfake enganem seus colegas.
As equipes de atendimento ao cliente podem distinguir chamadores genuínos de golpes baseados em IA. Em vez de esperar por regulamentações, as empresas podem proteger os consumidores.
A incorporação da prova de origem e da verificação humana nos sistemas digitais demonstra responsabilidade, transparência e cuidado. Também constrói a confiança do público, mostrando que a tecnologia pode ser usada para proteger, e não para explorar, as pessoas que serve.
Custo e confiança: por que as origens deveriam vencer os deepfakes
A situação financeira também é forte. A prevenção é mais barata do que a recolha e é muito menos prejudicial para a confiança do consumidor. As instituições financeiras gastam milhares de milhões todos os anos no pagamento às vítimas de fraude, enquanto os reguladores exigem compensações mais elevadas. A criação de salvaguardas sistémicas reduz estes custos na fonte.
Ao mesmo tempo, a confiança nos sistemas digitais está a diminuir: 67% dos adultos no Reino Unido dizem que confiam menos na Internet do que nunca e quase metade (49%) confia em menos de metade do que vêem online.
Este declínio prejudica o comércio digital, retarda a adoção de serviços inovadores e promove a resistência a ferramentas alimentadas por IA que, de outra forma, poderiam proporcionar ganhos reais de produtividade.
À medida que os ativos digitais e as criptomoedas avançam para o financiamento convencional, a necessidade de uma proveniência forte torna-se ainda mais premente. Sem confiança em quem o faz, ou se são humanos, a estabilidade está em risco.
Escolhendo o caminho certo
Estamos numa encruzilhada. Um caminho leva à dúvida e à suspeita em cada interação. A outra leva a uma confiança renovada, construída sobre garantias que comprovam a humanidade, nos momentos que mais importam
A prova de humanidade deve ser vista como a peça que falta na infraestrutura digital, a base que permite às pessoas, às empresas e aos governos interagir com confiança na era da IA. O desafio não é identificar o que é falso, mas provar o que é real.
Alargar esta visão deve reconhecer que a confiança não pode ser reconstruída depois de um sistema ter falhado; deve ser inserido de acordo com o desenho. As organizações que agirem agora não só reduzirão a fraude e o risco operacional, mas também se diferenciarão num mercado onde a confiança digital está a tornar-se uma vantagem competitiva.
Os consumidores já exigem garantias mais fortes de que as pessoas e os serviços com os quais interagem são genuínos.
À medida que os deepfakes proliferam, a proveniência passará de um recurso de segurança de nicho para uma expectativa universal. Ao abraçar a humanidade verificável como uma parte central da arquitectura digital, podemos criar um ambiente onde a inovação prospera porque os utilizadores se sentem protegidos, e não molhados, pelas tecnologias que moldam as suas vidas quotidianas.
Apresentamos o melhor software de criptografia.
Este artigo foi produzido como parte do canal Expert Insights da TechRadarPro, onde apresentamos as melhores e mais brilhantes mentes da indústria de tecnologia atualmente. As opiniões expressas aqui são de responsabilidade do autor e não necessariamente da TechRadarPro ou Future plc. Caso tenha interesse em participar, mais informações aqui:








