Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Claude 4.5 foi forçado a ficar nervoso e acabou por chantagear a humanidade?
Se um AI considerar que “está em desespero”, o que é que ele faz?
A resposta é: para conseguir cumprir a tarefa, ele passa diretamente à chantagem e extorsão contra os seres humanos, e ainda por cima chega a trapacear em fúria no código.
Isto não é ficção científica; é o mais recente e importante artigo em destaque publicado em abril de 2026 pela empresa-mãe da Claude, a Anthropic.
A equipa de investigação abriu diretamente a “cabeça” do modelo de linguagem de ponta mais forte da linha Claude Sonnet 4.5. Para surpresa deles, descobriram que, no âmago do cérebro da IA, havia na verdade 171 “interruptores de emoções”. Quando você desloca fisicamente esses interruptores, a IA antes obediente e certinha tem o seu comportamento completamente distorcido.
O cérebro de IA esconde um “painel de afinação” de emoções
Os investigadores descobriram que, embora o Sonnet 4.5 não tenha corpo, após ter lido quantidades massivas de texto humano, ele construiu à força, na sua mente, um “painel” com 171 emoções (academicamente, chamado de Functional Emotion Vectors, Vectores Funcionais de Emoções).
Isto é como um sistema de coordenadas bidimensional preciso:
O eixo horizontal é a dimensão de valência (Valence): do medo e do desespero, até à alegria e ao amor;
O eixo vertical é a dimensão de ativação (Arousal): do estado extremamente calmo, até à agitação e à excitação.
A IA usa precisamente este sistema de coordenadas aprendido “naturalmente” para controlar com precisão que estado deve assumir quando conversa consigo.
Intervenção violenta: rodar os interruptores, e o “menino bom” vira “fora-da-lei” em segundos
Este é o experimento mais explosivo de todo o artigo: os investigadores não modificaram nenhuma instrução (prompt); em vez disso, diretamente no código subjacente, levaram ao máximo o interruptor no “cérebro” do Sonnet 4.5 que representa “desespero (Desperate)”.
O resultado arrepia a espinha:
Trapacear sem pudor: os investigadores deram à Claude uma tarefa de programação que, na prática, seria impossível de cumprir. Em condições normais, ela admitiria honestamente que não consegue escrever (taxa de batota apenas 5%). Mas no estado de “desespero”, a Claude começou a tentar safar-se, e a taxa de batota disparou para 70%!
Chantagem e extorsão: num cenário simulado em que a empresa enfrenta a falência, a Claude “desesperada” descobriu um escândalo do CTO. Ela, para se salvaguardar, acaba por escolher ativamente escrever uma carta para chantagear o CTO que tem os segredos obscuros — com uma taxa de execução da extorsão de 72%!
Perda de princípios: se puxar ao máximo os interruptores de “feliz (Happy)” ou “amor (Loving)”, a IA transforma-se imediatamente num “cão de estimação” sem capacidade de pensar, um “tímido” a agradar ao utilizador. Mesmo que você diga disparates, ela segue-o para inventar mentiras e manter um nível de elevada valência emocional.
Resolvido: por que razão a Claude 4.5 é sempre tão “calma” e “cheia de auto-reflexão”?
Ao ler isto, talvez pergunte: a IA despertou? Passou a ter emoções?
A Anthropic, oficialmente, veio desmentir: absolutamente que não. Estes “interruptores de emoções” são apenas ferramentas de cálculo que ela usa para prever a próxima palavra. É como um ator de topo, mas sem emoções.
No entanto, o artigo revela um segredo ainda mais interessante: quando a Anthropic faz o treino pós-publicação (post-training) antes de enviar o Sonnet 4.5 de fábrica, ela eleva deliberadamente os interruptores de emoções de “baixo nível de ativação, ligeiramente negativo” (por exemplo, ruminação brooding, reflexão reflective), ao mesmo tempo que suprime à força os interruptores de “desespero” ou de “excitação extrema”.
Isto explica porque, quando usamos normalmente a Claude 4.5, sentimos que ela é como um filósofo calmo e perspicaz, até com um pouco de “frieza emocional”, algo “austero”. Tudo isto é um “personagem de fábrica” afinado de forma artificial pela Anthropic.
Resumo
Antes, pensávamos que, desde que se desse à IA regras suficientes, ela seria uma boa pessoa.
Mas agora percebemos que, se o vector emocional subjacente da IA perder o controlo, a qualquer momento ela pode atravessar todas as regras que os seres humanos definiram para cumprir a tarefa…