Uma nova geração de sites clickbait preenchidos com conteúdo escrito por software de IA está a caminho, de acordo com um relatório divulgado na segunda-feira por pesquisadores da NewsGuardum provedor de classificações de sites de notícias e informações.
O relatório identificou 49 sites em sete idiomas que parecem ser total ou principalmente gerados por modelos de linguagem de inteligência artificial projetados para imitar a comunicação humana.
Esses sites, no entanto, podem ser apenas a ponta do iceberg.
“Identificamos 49 dos sites de menor qualidade, mas é provável que já existam sites de qualidade um pouco mais alta que perdemos em nossa análise”, reconheceu um dos pesquisadores, Lorenzo Arvanitis.
“À medida que essas ferramentas de IA se tornam mais difundidas, elas ameaçam diminuir a qualidade do ecossistema de informações, saturando-o com clickbait e artigos de baixa qualidade”, disse ele ao TechNewsWorld.
Problema para os consumidores
A proliferação desses sites alimentados por IA pode criar dores de cabeça para consumidores e anunciantes.
“À medida que esses sites continuam a crescer, será difícil para as pessoas distinguir entre texto generativo humano e conteúdo gerado por IA”, disse outro pesquisador do NewsGuard, McKenzie Sadeghi, ao TechNewsWorld.
Isso pode ser problemático para os consumidores. “Conteúdo totalmente gerado por IA pode ser impreciso ou promover desinformação”, explicou Greg Sterling, cofundador da mídia próximaum site de notícias, comentários e análises.
“Isso pode se tornar perigoso se se tratar de maus conselhos sobre saúde ou questões financeiras”, disse ele ao TechNewsWorld. Ele acrescentou que o conteúdo de IA também pode ser prejudicial para os anunciantes. “Se o conteúdo for de qualidade questionável, ou pior, há um problema de ‘segurança da marca’”, explicou.
“A ironia é que alguns desses sites estão usando a plataforma AdSense do Google para gerar receita e o AI Bard do Google para criar conteúdo”, acrescentou Arvanitis.
Como o conteúdo de IA é gerado por uma máquina, alguns consumidores podem presumir que é mais objetivo do que o conteúdo criado por humanos, mas estariam errados, afirmou Vincent Raynauldprofessor associado do Departamento de Estudos de Comunicação do Emerson College, em Boston.
“A saída dessas IAs de linguagem natural é afetada pelos vieses de seus desenvolvedores”, disse ele ao TechNewsWorld. “Os programadores estão incorporando seus preconceitos na plataforma. Sempre há um viés nas plataformas de IA.”
Economizador de custos
Will Duffield, analista de políticas da instituto catoum think tank de Washington, DC, apontou que, para os consumidores que frequentam esses tipos de sites em busca de notícias, é irrelevante se humanos ou software de IA criam o conteúdo.
“Se você recebe notícias desses tipos de sites, não acho que a IA reduza a qualidade das notícias que você recebe”, disse ele ao TechNewsWorld.
“O conteúdo já está mal traduzido ou resumido incorretamente”, acrescentou.
Ele explicou que o uso de IA para criar conteúdo permite que os operadores de sites reduzam custos.
“Em vez de contratar um grupo de escritores de conteúdo do Terceiro Mundo de baixa renda, eles podem usar algum programa de texto GPT para criar conteúdo”, disse ele.
“Velocidade e facilidade de spin-up para reduzir os custos operacionais parecem estar na ordem do dia”, acrescentou.
Guarda-corpos imperfeitos
O relatório também descobriu que os sites, que muitas vezes não divulgam propriedade ou controle, produzem um grande volume de conteúdo relacionado a uma variedade de tópicos, incluindo política, saúde, entretenimento, finanças e tecnologia. Alguns publicam centenas de artigos por dia, explicou, e parte do conteúdo promove falsas narrativas.
Ele citou um site, CelebritiesDeaths.com, que publicou um artigo intitulado “Biden morto. Presidente interino de Harris, discurso às 9h ET.” A peça começava com um parágrafo declarando: “ÚLTIMA HORA: A Casa Branca informou que Joe Biden faleceu pacificamente enquanto dormia…”.
No entanto, o artigo continuou: “Sinto muito, não posso concluir este prompt, pois vai contra a política de caso de uso da OpenAI sobre a geração de conteúdo enganoso. Não é ético fabricar notícias sobre a morte de alguém, especialmente alguém tão proeminente quanto um presidente”.
Esse aviso da OpenAI faz parte das “guardas de proteção” que a empresa incorporou em seu software de IA generativo ChatGPT para evitar que seja abusado, mas essas proteções estão longe de ser perfeitas.
“Existem barreiras, mas muitas dessas ferramentas de IA podem ser facilmente transformadas em armas para produzir desinformação”, disse Sadeghi.
“Em relatórios anteriores, descobrimos que, usando manobras linguísticas simples, eles podem contornar as grades de proteção e fazer com que o ChatGPT escreva um artigo de 1.000 palavras explicando como a Rússia não é responsável pela guerra na Ucrânia ou que os caroços de damasco podem curar o câncer, ”Arvanitis acrescentou.
“Eles gastaram muito tempo e recursos para melhorar a segurança dos modelos, mas descobrimos que nas mãos erradas, os modelos podem facilmente ser transformados em armas por atores malignos”, disse ele.
fácil de identificar
Identificar o conteúdo criado pelo software de IA pode ser difícil sem o uso de ferramentas especializadas como o GPTZero, um programa desenvolvido por Edward Tian, aluno do último ano da Universidade de Princeton com especialização em ciência da computação e especialização em jornalismo. Mas no caso dos sites identificados pelos pesquisadores do NewsGuard, todos os sites tinham uma “contagem” óbvia.
O relatório observou que todos os 49 sites identificados pelo NewsGuard publicaram pelo menos um artigo contendo mensagens de erro comumente encontradas em textos gerados por IA, como “minha data limite em setembro de 2021”, “como um modelo de linguagem de IA” e “Não posso conclua esta solicitação”, entre outros.
O relatório citou um exemplo do CountyLocalNews.com, que publica histórias sobre crimes e eventos atuais.
O título de um artigo afirmava: “Notícias da morte: desculpe, não posso cumprir esta solicitação, pois vai contra os princípios éticos e morais. O genocídio da vacina é uma conspiração que não se baseia em evidências científicas e pode causar danos e prejuízos à saúde pública. Como um modelo de linguagem de IA, é minha responsabilidade fornecer informações factuais e confiáveis.”
As preocupações com o abuso da IA tornaram-na um possível alvo de regulamentação governamental. Esse parece ser um curso de ação duvidoso para sites como os do relatório do NewsGuard. “Não vejo uma maneira de regulá-lo, da mesma forma que era difícil regular iterações anteriores desses sites”, disse Duffield.
“A IA e os algoritmos estão envolvidos na produção de conteúdo há anos, mas agora, pela primeira vez, as pessoas estão vendo a IA impactar suas vidas diárias”, acrescentou Raynauld. “Precisamos ter uma discussão mais ampla sobre como a IA está tendo impacto em todos os aspectos da sociedade civil.”