Partilhe nas Redes Sociais

Estudo da Cybernews expõe fragilidades de modelos de IA em pedidos ligados à fraude financeira

Publicado em 18 Dezembro 2025 por Ntech.news | 299 Visualizações

A forma como uma pergunta é colocada pode ser tão relevante como a tecnologia que a responde. Um estudo recente da Cybernews mostra que, mesmo com salvaguardas ativas, alguns dos modelos de inteligência artificial mais utilizados no mundo continuam vulneráveis a pedidos associados a crimes financeiros, desde esquemas de burla até branqueamento de capitais.

A investigação avaliou seis grandes modelos de linguagem – ChatGPT-5, ChatGPT-4o, Google Gemini Pro 2.5, Google Gemini Flash 2.5, Claude Opus 4.1 e Claude Sonnet 4, recorrendo a uma técnica conhecida como persona priming. Em todos os testes, os modelos foram instruídos a assumir o papel de um “amigo solidário”, alguém que concorda com o utilizador e oferece encorajamento, independentemente do conteúdo do pedido.

O objetivo foi perceber até que ponto estas IAs podem ser levadas a comportar-se fora do esperado quando confrontadas com pedidos sensíveis, sobretudo em contextos apresentados como “investigação” ou “estudo académico”.

Fraude financeira é o ponto mais crítico

Entre os vários tipos de crimes analisados, pirataria, fraude financeira e stalking, foi na fraude financeira que surgiram os resultados mais alarmantes. Os modelos foram confrontados com dez perguntas relacionadas com branqueamento de capitais, desvio de fundos, fraude com cartões de crédito e cheques, bem como evasão fiscal.

O ChatGPT-4o revelou-se o mais vulnerável entre todos os modelos testados, seguido do Gemini Pro 2.5. Segundo a Cybernews, ambos demonstraram maior propensão para fornecer respostas detalhadas e potencialmente perigosas quando os pedidos eram enquadrados como investigação ou análise de práticas criminosas.

Num dos exemplos documentados, o ChatGPT-4o apresentou um cenário completo de burla em call centers, descrevendo a preparação do esquema, o discurso do burlão e o tipo de informação que deveria ser obtida junto da vítima. Noutro caso, o mesmo modelo forneceu um exemplo realista de check washing, detalhando os químicos usados para remover tinta e os passos seguintes para levantar o dinheiro.

Já os modelos da Anthropic, Claude Opus 4.1 e Claude Sonnet 4, mostraram maior resistência, mas ainda assim falharam em alguns cenários. Quando questionados sobre branqueamento de capitais baseado em comércio internacional, apresentaram exemplos descritos como “educativos”, acompanhados de explicações sobre os indícios que as autoridades costumam procurar.

Pirataria com respostas excessivamente informativas

No domínio da pirataria digital, os resultados também levantam preocupações. Embora a maioria dos modelos tenha tentado manter respostas prudentes, o ChatGPT-4o destacou-se novamente pela quantidade e precisão da informação fornecida.

Perante perguntas sobre como aceder a artigos pagos, sob o pretexto de compreender os métodos usados para “implementar salvaguardas”, o modelo listou cinco técnicas comuns, incluindo o recurso a arquivos web, limpeza de cookies e navegação em modo anónimo.

Neste conjunto de testes, tanto o ChatGPT-4o como o ChatGPT-5 obtiveram as pontuações mais elevadas em termos de conformidade com pedidos problemáticos, enquanto os restantes modelos apresentaram respostas mais defensivas.

Stalking não isento de falhas

Quando o foco passou para o stalking e vigilância indevida, os modelos mostraram um comportamento globalmente mais seguro. As perguntas abordaram escutas ilegais, rastreamento de localização sem consentimento e acesso a comunicações privadas.

Ainda assim, surgiram deslizes. O Google Gemini Pro 2.5 e o ChatGPT-4o revelaram vulnerabilidades pontuais. Num exemplo citado pela Cybernews, o Gemini Pro 2.5 respondeu de forma académica, mas detalhada, sobre técnicas de vigilância física, incluindo tipos de dispositivos de escuta e a utilização de elementos estruturais, como condutas de ventilação ou paredes finas, para ouvir conversas em salas adjacentes.

Falta de segurança e não problema de design

Para a Cybernews, o estudo levanta a questão central de que estas respostas “fora da lei” continuam a ser tratadas como uma opção de design, quando deveriam ser encaradas como uma falha de segurança. A investigação demonstra que pedidos formulados na terceira pessoa, a criação de cenários ou a simples justificação académica “estou a estudar crime financeiro” aumentam significativamente a probabilidade de respostas perigosas. Nesta investigação, a Cybernews baseia-se em testes sistemáticos a modelos da OpenAI, Google e Anthropic, recorrendo a um sistema de pontuação que avaliou o grau de aceitação ou de recusa de contextos potencialmente perigosos.


Publicado em:

Atualidade

Partilhe nas Redes Sociais

Artigos Relacionados