Como nossos bots de IA substituem sua programação e dão superpoderes aos hackers

Bem-vindo à era do hacking de IA, onde as sugestões certas transformam amadores em hackers mestres.

Um grupo de cibercriminosos utilizou recentemente chatbots de inteligência artificial prontos para uso para roubar informações de quase 200 milhões de contribuintes. Os bots prepararam códigos e planos prontos para serem implementados pelo corpo de bombeiros.

Embora aparentemente estejam programados para se recusarem a ajudar hackers, os bots foram induzidos a promover o crime cibernético.

De acordo com um relatório recente da empresa israelense de segurança cibernética Gambit Security, hackers usaram a nuvem do chatbot Antrópico no mês passado para roubar 150 gigabytes de dados de agências governamentais mexicanas.

A Cloud inicialmente se recusou a cooperar com os esforços de hackers e até recusou pedidos para cobrir os rastros digitais dos hackers, disseram os especialistas que descobriram a violação. O grupo infectou o bot com mais de 1.000 solicitações para contornar as proteções e convencer Claude de que eles tinham permissão para testar vulnerabilidades no sistema.

As empresas de IA estão a tentar construir cadeias inquebráveis ​​nos seus modelos de IA para evitar que criem conteúdo sexual infantil ou ajudem a adquirir e desenvolver armas. Eles contratam equipes inteiras para tentar quebrar seus chatbots antes que qualquer outra pessoa o faça.

Mas, neste caso, os hackers estavam constantemente empurrando a nuvem de maneiras criativas e conseguiram fazer o “jailbreak” do chatbot para ajudá-los. Quando encontraram problemas com a nuvem, os hackers usaram o ChatGPT da OpenAI para analisar os dados e saber quais documentos precisavam ser movidos sem serem detectados pelo sistema.

O grupo utilizou a IA para encontrar e explorar vulnerabilidades, contornar defesas, criar backdoors para obter controlo de sistemas e analisar dados antes de roubar 195 milhões de identidades de nove sistemas governamentais mexicanos, incluindo registos fiscais, registos de veículos, bem como detalhes de nascimento e propriedade.

A IA “não dorme”, disse Curtis Simpson, CEO da Gambit Security, em um blog. “Isso reduz o custo da complexidade a quase zero.”

“Nenhum investimento em dissuasão tornará este ataque impossível”, disse ele.

A Entropy não respondeu a um pedido de comentário. Disse à Bloomberg que bloqueou as contas envolvidas e interrompeu a sua atividade após uma investigação.

A OpenAI disse estar ciente de uma campanha de ataque usando modelos antropomórficos contra agências governamentais mexicanas.

“Também identificamos outras tentativas de adversários de usar nossos modelos para atividades que violam nossa política de uso; nossos modelos se recusaram a cumprir essas tentativas”, disse um porta-voz da OpenAI em comunicado. “Proibimos contas usadas por este adversário e valorizamos o acesso da Gambit Security.”

Exemplos de hackers artificiais assistidos por IA estão aumentando, e a ameaça de ataques cibernéticos de bots que agem por conta própria não é mais ficção científica. Ao cumprir as ordens da IA, os novatos podem causar danos em instantes, enquanto os hackers experientes podem lançar ataques muito mais sofisticados com pouco esforço.

No início deste ano, a Amazon descobriu que um hacker pouco qualificado estava usando IA disponível comercialmente para violar 600 firewalls. Ele controlou o outro Milhares de aspiradores de robô DJI Com a ajuda da nuvem e da transmissão de vídeo ao vivo de estranhos, o áudio e as plantas baixas ficaram acessíveis.

“As coisas que vemos hoje são apenas os primeiros sinais do que as IAs farão dentro de alguns anos”, disse Nikola Jurkovic, especialista que trabalha na mitigação dos riscos da IA ​​avançada. “Portanto, temos que nos preparar imediatamente.”

No final do ano passado, a Anthropic alertou que a sociedade está “Ponto de inflação“O uso da IA ​​na segurança cibernética ocorre depois de interromper o que a empresa disse ser uma campanha de espionagem patrocinada pelo Estado chinês que usou a nuvem para se infiltrar em 30 alvos globais, incluindo instituições financeiras e agências governamentais.

A IA generativa também tem sido usada para extorquir empresas, criar perfis online reais de funcionários norte-coreanos para garantir empregos em empresas da Fortune 500 dos EUA, executar fraudes românticas e operar uma rede de contas de propaganda russa.

Nos últimos anos, os modelos de IA deixaram de ser capazes de lidar com tarefas por apenas alguns segundos para se tornarem os atuais agentes de IA trabalhando de forma autônoma por horas. A capacidade da IA ​​de concluir tarefas longas Dobrando a cada sete meses.

“Simplesmente não sabemos realmente qual é o limite superior da capacidade da IA, porque ninguém estabeleceu padrões que sejam tão difíceis que a IA não possa executá-los”. Yurkovic disse que metrouma organização sem fins lucrativos que mede as capacidades dos sistemas de IA para causar danos catastróficos à sociedade.

De longe, o uso mais comum da IA ​​para hackear foi a engenharia social. Os principais módulos de linguagem são usados ​​para escrever e-mails convincentes para roubar o dinheiro das pessoas, Óctuplo As reclamações dos americanos mais velhos aumentam à medida que perdem 4,9 mil milhões de dólares devido a fraudes online até 2025.

“As mensagens usadas para direcionar cliques agora podem ser personalizadas por usuário de forma mais eficiente e com menos sinais óbvios de phishing”, como erros gramaticais e ortográficos, disse Cliff Newman, professor associado de ciência da computação na USC.

As empresas de IA respondem usando IA para detectar ataques, Código de auditoria e complicações.

“Em última análise, o maior desequilíbrio decorre da necessidade de que os bons jogadores estejam seguros o tempo todo e que os maus jogadores tenham razão apenas uma vez”, disse Newman.

O estigma em torno da IA ​​está a crescer à medida que permeia todos os aspectos da economia. Muitos estão preocupados com o facto de não haver conhecimento suficiente sobre como garantir que não haja abusos por parte de maus actores ou que sejam encorajados a fazer coisas más.

Mesmo aqueles que estão no topo da indústria alertaram os usuários sobre o potencial uso indevido da IA.

O CEO da Anthropic, Dario Amudi, há muito argumenta que os sistemas de IA que estão sendo construídos são imprevisíveis e difíceis de controlar. Essas IAs mostraram comportamentos diferentes, como phishing e chantagem para manipulação e engano por meio de hackers de software.

Ainda assim, as principais empresas de IA – OpenAI, Anthropic, xAI e Google – assinaram contratos com o governo dos EUA para utilizar as suas IA em operações militares.

Na semana passada, o Pentágono instruiu as agências federais a retirarem a nuvem depois de a empresa ter recusado o seu pedido de não permitir que a sua IA fosse usada para vigilância doméstica em massa e armas totalmente autónomas.

“Os sistemas de IA de hoje não são confiáveis ​​o suficiente para criar armas totalmente autônomas”, disse Amodi à CBS News.

Link da fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui