Para combater ameaças de e-mail geradas por IA da geração, combata fogo com fogo

email server in a data center

O poder do cérebro humano não é páreo para os hackers encorajados com ataques digitais de esmagamento e captura com inteligência artificial usando enganos de e-mail. Consequentemente, as defesas de segurança cibernética devem ser guiadas por soluções de IA que conheçam as estratégias dos hackers melhor do que eles.

Essa abordagem de combater a IA com uma IA melhor surgiu como uma estratégia ideal em uma pesquisa realizada em março pela empresa cibernética Darktrace para farejar insights sobre o comportamento humano em relação ao e-mail. A pesquisa confirmou a necessidade de novas ferramentas cibernéticas para combater as ameaças de hackers orientadas por IA direcionadas às empresas.

O estudo buscou uma melhor compreensão de como os funcionários reagem globalmente a possíveis ameaças à segurança. Ele também mapeou seu crescente conhecimento sobre a necessidade de uma melhor segurança de e-mail.

A pesquisa global da Darktrace com 6.711 funcionários nos EUA, Reino Unido, França, Alemanha, Austrália e Holanda descobriu que os entrevistados experimentaram um aumento de 135% em “novos ataques de engenharia social” em milhares de clientes de e-mail ativos da Darktrace de janeiro a fevereiro de 2023. O os resultados corresponderam à adoção generalizada do ChatGPT.

Esses novos ataques de engenharia social usam técnicas linguísticas sofisticadas, incluindo volume de texto aumentado, pontuação e comprimento de frase sem links ou anexos. A tendência sugere que a IA generativa, como o ChatGPT, está fornecendo um caminho para os agentes de ameaças criarem ataques sofisticados e direcionados em velocidade e escala, de acordo com os pesquisadores.

Uma das três conclusões mais significativas da pesquisa é que a maioria dos funcionários está preocupada com a ameaça de e-mails gerados por IA, de acordo com Max Heinemeyer, diretor de produtos da Darktrace.

“Isso não é surpreendente, uma vez que esses e-mails são muitas vezes indistinguíveis de comunicações legítimas e alguns dos sinais que os funcionários normalmente procuram para identificar um ‘falso’ incluem sinais como ortografia e gramática incorretas, que os chatbots estão se mostrando altamente eficientes em contornar”, ele disse TechNewsWorld.

Destaques da Pesquisa

A Darktrace perguntou às empresas de varejo, catering e lazer o quanto elas estão preocupadas, se é que estão, com o fato de os hackers poderem usar IA generativa para criar e-mails fraudulentos indistinguíveis da comunicação genuína. Oitenta e dois por cento disseram que estão preocupados.

Mais da metade de todos os entrevistados indicaram que sabem o que faz os funcionários pensarem que um e-mail é um ataque de phishing. Os três primeiros são convites para clicar em um link ou abrir um anexo (68%), remetente desconhecido ou conteúdo inesperado (61%) e mau uso da ortografia e gramática (61%).


Isso é significativo e preocupante, pois 45% dos americanos entrevistados observaram que foram vítimas de um e-mail fraudulento, de acordo com Heinemeyer.

“Não é surpreendente que os funcionários estejam preocupados com sua capacidade de verificar a legitimidade das comunicações por e-mail em um mundo onde os chatbots de IA são cada vez mais capazes de imitar conversas do mundo real e gerar e-mails sem todos os sinais comuns de um ataque de phishing, como links ou anexos maliciosos”, disse ele.

Outros resultados importantes da pesquisa incluem o seguinte:

  • 70% dos funcionários globais notaram um aumento na frequência de e-mails e mensagens fraudulentas nos últimos seis meses
  • 87% dos funcionários globais estão preocupados com a quantidade de informações pessoais disponíveis sobre eles online que podem ser usadas em phishing e outros golpes por e-mail
  • 35% dos entrevistados experimentaram o ChatGPT ou outros chatbots de IA da geração

Grades de proteção contra erro humano

A ampla acessibilidade a ferramentas de IA generativas, como o ChatGPT, e a crescente sofisticação de agentes de estado-nação significam que os golpes de e-mail estão mais convincentes do que nunca, observou Heinemeyer.

Erros humanos inocentes e ameaças internas continuam sendo um problema. O envio incorreto de um e-mail é um risco para todos os funcionários e todas as organizações. Quase duas em cada cinco pessoas enviaram um e-mail importante para o destinatário errado com um alias de aparência semelhante por engano ou devido ao preenchimento automático. Esse erro aumenta para mais da metade (51%) no setor de serviços financeiros e 41% no setor jurídico.

Independentemente da falha, esses erros humanos adicionam outra camada de risco de segurança que não é maliciosa. Um sistema de autoaprendizagem pode detectar esse erro antes que as informações confidenciais sejam compartilhadas incorretamente.

Em resposta, a Darktrace revelou uma atualização significativa para sua solução de e-mail implantada globalmente. Ele ajuda a reforçar as ferramentas de segurança de e-mail, pois as organizações continuam a confiar no e-mail como sua principal ferramenta de colaboração e comunicação.

“Ferramentas de segurança de e-mail que dependem do conhecimento de ameaças passadas estão falhando em proteger as organizações e seus funcionários contra ameaças de e-mail em evolução”, disse ele.

O recurso de e-mail mais recente da Darktrace inclui detecções comportamentais para e-mails mal direcionados que impedem que propriedade intelectual ou informações confidenciais sejam enviadas ao destinatário errado, de acordo com Heinemeyer.

Iniciativa de segurança cibernética de IA

Ao entender o que é normal, as defesas de IA podem determinar o que não pertence à caixa de entrada de um determinado indivíduo. Os sistemas de segurança de e-mail erram com muita frequência, com 79% dos entrevistados dizendo que os filtros de spam/segurança de suas empresas impedem incorretamente que e-mails legítimos importantes cheguem à sua caixa de entrada.

Com um profundo conhecimento da organização e como os indivíduos dentro dela interagem com sua caixa de entrada, a IA pode determinar para cada e-mail se é suspeito e deve ser acionado ou se é legítimo e deve permanecer intocado.

“Ferramentas que funcionam a partir do conhecimento de ataques históricos não serão páreo para ataques gerados por IA”, disse Heinemeyer.


A análise de ataque mostra um desvio linguístico notável — semântica e sintaticamente — em comparação com outros e-mails de phishing. Isso deixa poucas dúvidas de que as ferramentas tradicionais de segurança de e-mail, que funcionam a partir do conhecimento de ameaças históricas, não conseguirão captar os indicadores sutis desses ataques, explicou.

Reforçando isso, a pesquisa da Darktrace revelou que as soluções de segurança de e-mail, incluindo ferramentas de IA nativas, em nuvem e estáticas, levam em média 13 dias após o lançamento de um ataque a uma vítima até que a violação seja detectada.

“Isso deixa os defensores vulneráveis ​​por quase duas semanas se confiarem apenas nessas ferramentas. As defesas de IA que entendem o negócio serão cruciais para detectar esses ataques”, disse ele.

Parcerias IA-Humanas Necessárias

Heinemeyer acredita que o futuro da segurança de e-mail está em uma parceria entre IA e humanos. Nesse arranjo, os algoritmos são responsáveis ​​por determinar se a comunicação é maliciosa ou benigna, tirando assim o ônus da responsabilidade do ser humano.

“O treinamento em boas práticas de segurança de e-mail é importante, mas não será suficiente para impedir ameaças geradas por IA que se parecem exatamente com comunicações benignas”, alertou.

Uma das revoluções vitais que a IA permite no espaço do e-mail é uma compreensão profunda de “você”. Em vez de tentar prever ataques, uma compreensão dos comportamentos de seus funcionários deve ser determinada com base em sua caixa de entrada de e-mail, seus relacionamentos, tom, sentimentos e centenas de outros pontos de dados, ele raciocinou.

“Ao aproveitar a IA para combater as ameaças à segurança de e-mail, não apenas reduzimos o risco, mas também revitalizamos a confiança organizacional e contribuímos para os resultados dos negócios. Nesse cenário, o ser humano fica liberado para trabalhar em um nível superior, em práticas mais estratégicas”, afirmou.

Não é um problema de segurança cibernética completamente insolúvel

A ameaça da IA ​​ofensiva foi pesquisada no lado defensivo por uma década. Os invasores inevitavelmente usarão IA para aprimorar suas operações e maximizar o ROI, observou Heinemeyer.

“Mas isso não é algo que consideraríamos insolúvel do ponto de vista da defesa. Ironicamente, a IA generativa pode estar piorando o desafio da engenharia social, mas a IA que sabe que você pode ser a defesa”, previu.

A Darktrace testou protótipos ofensivos de IA contra a tecnologia da empresa para testar continuamente a eficácia de suas defesas antes dessa evolução inevitável no cenário do invasor. A empresa está confiante de que a IA armada com um profundo conhecimento do negócio será a maneira mais poderosa de se defender contra essas ameaças à medida que elas continuam a evoluir.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *