Revisão do Claude Opus 4.7: Vale o título de modelo mais forte?
Título original: "Opus 4.7 nunca teve a intenção de ser o 'modelo mais forte': Todos estão empolgados com a velocidade da Claude, mas não conseguem acompanhar o ritmo da Anthropic"
Fonte original: Silicon Pro
Em 16 de abril de 2026, a Anthropic lançou oficialmente o Claude Opus 4.7, pouco mais de dois meses após a geração anterior, o Opus 4.6.
Após uma recente série intensa e frenética de atualizações de produtos e modelos, a revelação de um novo modelo pela Anthropic naturalmente transmitiu uma atmosfera grandiosa. Tenho certeza de que você viu muitos relatórios de revisão de modelos pela primeira vez, com todos chamando o Opus 4.7 de "o modelo mais forte", levando a termos como "a humanidade acabou" e "alerta de desemprego" a fazerem ondas mais uma vez.
Mas vamos dar uma olhada no que a Anthropic realmente lançou.
O tom deste lançamento é realmente bastante incomum.
No anúncio, a Anthropic afirmou diretamente: As capacidades do Opus 4.7 não são tão boas quanto as do Claude Mythos Preview — onde o Mythos está disponível apenas para alguns parceiros como Apple, Google, Microsoft, Nvidia e não é acessível para desenvolvedores e usuários comuns.
Além disso, o que é ainda mais notável do que essa retórica é que ele não é apenas mais fraco que o lendário Mythos, mas é realmente mais fraco em algumas capacidades-chave em comparação com o modelo da geração anterior.
Um número anormal na tabela de desempenho do Opus 4.7: Benchmark de Contexto Longo MRCR v2 @1M caiu de 78,3% no Opus 4.6 para 32,2%, uma queda de 46 pontos percentuais.
Muito raramente uma iteração de modelo principal corta sua própria capacidade de ases pela metade.
E essa foi uma escolha que ele fez por conta própria.
Então, enquanto todos continuam a elogiar cegamente cada um de seus modelos como o "mais forte", eles estão realmente ficando para trás em relação ao próprio ritmo da Anthropic!

Ela nem se preocupa em abordar essa questão da lavagem de carros
O Opus 4.7 foi um lançamento que nunca teve a intenção de ser o "modelo mais forte". Foi um lançamento com claras compensações, uma abordagem de "facão de precisão", diferente das várias estratégias de lançamento de outros principais fabricantes de modelos no passado. É também uma nova direção para a qual os principais fabricantes estão coletivamente se voltando hoje, pois eles claramente sentem que o "grande salto em frente" do próprio modelo não é mais sustentável — a Anthropic, até certo ponto, tem se aproximado das estratégias de lançamento de empresas como a Apple e a Microsoft em sua fase de comercialização de produtos muito maduros.
Esta pode ser a verdadeira importância da versão 4.7.
1. Capacidade de codificação: Melhoria real por trás dos números
Para entender melhor essas mudanças, a melhor maneira é, naturalmente, primeiro dar uma olhada de perto no que realmente trouxe desta vez.
Aqui está o resumo completo do lançamento do Opus 4.7 — o que melhorou, o que piorou, o feedback dos desenvolvedores em primeira mão e se a migração é necessária.
Anúncio Oficial: https://www.anthropic.com/news/claude-opus-4-7
O desempenho de codificação é o ponto central desta versão do Opus 4.7.

SWE-bench Verificado (500 problemas reais do GitHub, que exigem que os modelos produzam correções que passem nos testes) aumentou de 80,8% no Opus 4.6 para 87,6% no Opus 4.7, uma melhoria de quase 7 pontos percentuais, tornando-o o melhor entre os modelos disponíveis publicamente. Comparado ao Gemini 3.1 Pro's 80,6%, a diferença é significativa.
SWE-bench Pro é uma versão mais desafiadora, cobrindo um pipeline de engenharia completo em quatro linguagens de programação. O Opus 4.7 saltou de 53,4% para 64,3%, um aumento de 11 pontos percentuais. Comparado aos 57,7% do GPT-5.4 e aos 54,2% do Gemini 3.1 Pro, o Opus 4.7 está claramente à frente neste benchmark.
CursorBench é um benchmark prático da Cursor, que mede especificamente a qualidade da assistência de programação de um modelo em um ambiente de IDE real. O Opus 4.6 obteve 58%, enquanto o Opus 4.7 saltou para 70%, uma melhoria de 12 pontos percentuais. O cofundador da Cursor, Michael Truell, afirmou no anúncio oficial: "Este é um salto significativo nas capacidades, proporcionando um raciocínio criativo mais forte ao enfrentar desafios."
Dados testados pelo parceiro:
· Rakuten: O número de tarefas de produção resolvidas pelo Opus 4.7 é três vezes maior que o do Opus 4.6, com aumentos de dois dígitos nas classificações de qualidade do código e qualidade dos testes
· Fábrica: A taxa de sucesso das tarefas aumentou em 10-15%, reduzindo significativamente as falhas durante o treinamento
· Cognição (empresa de Devin): Modelo "pode funcionar continuamente por horas sem se desconectar"
· CodeRabbit: Taxa de recall aumentada em mais de 10%, "um pouco mais rápido que o modo xhigh GPT-5.4"
· Bolt: Em tarefas de compilação de aplicativos mais longas, o Opus 4.7 superou o Opus 4.6, "mostrando uma melhoria de até 10% no melhor cenário, sem os problemas de regressão observados no passado"
· Terminal-Bench 2.0: O Opus 4.7 abordou três tarefas que nenhum modelo Claude anterior (ou concorrente) conseguia lidar, incluindo uma que exigia raciocínio de vários arquivos em diferentes repositórios para corrigir uma condição de corrida

Esses conjuntos de dados apontam em uma direção: O Opus 4.7 mostrou uma melhoria significativa em tarefas de programação complexas de longa duração, entre arquivos, que mantêm o contexto. Isso resolve diretamente as maiores reclamações dos usuários sobre o Opus 4.6 nos últimos dois meses: tarefas que desistem a meio da execução e problemas com vários arquivos.
II. Capacidade Visual: A Melhoria Mais Subestimada nesta Versão
Benchmark de precisão visual XBOW pulou de 54,5% para 98,5%. Esta não é uma melhoria incremental, mas um salto de nível de reconstrução.
Alterações específicas das especificações:
· A resolução máxima da imagem aumentou de cerca de 1,15 milhão de pixels (lado mais longo de 1.568 pixels) para aproximadamente 3,75 milhões de pixels (lado mais longo de 2.576 pixels), mais de três vezes a da geração anterior
· As coordenadas do modelo agora correspondem 1:1 com pixels reais, eliminando a necessidade de conversão manual do fator de escala em tarefas de visão computacional
· Benchmark de raciocínio visual do CharXiv: Sem Ferramentas 82,1%, Com Ferramentas 91,0%

Quais são as implicações substanciais disso?
Para a equipe de produtos de uso do computador, essa atualização pode ser decisiva. O uso do computador na era Opus 4.6 estava em um estado de "capaz de fazer uma demonstração, mas não pronto para produção" — a taxa de erros de clique era muito alta e imprevisível. Uma precisão visual de 98,5% significa que esse recurso atingiu, pela primeira vez, o limiar para uma implantação confiável. Vários blogs de tecnologia afirmaram diretamente em suas avaliações: se você adiou seu plano de uso de produtos de computador por causa da alta taxa de erros de clique no Opus 4.6, o 4.7 eliminou esse obstáculo.
Feedback em primeira mão no Reddit (r/ClaudeAI): Alguns usuários mencionaram: "O aprimoramento da capacidade visual é crucial. Eu já fiz muitos projetos de ponta antes, tentando fazer com que o modelo melhore iterativamente sua saída em um loop de feedback visual, o efeito sempre foi caótico. Estou realmente ansioso para ver como o 4.7 abordará essa questão."
Além do uso do computador, outros cenários benéficos incluem: análise de digitalização de documentos (capaz de ler fontes menores, reconhecer detalhes mais finos em gráficos), compreensão de capturas de tela, aplicativos de painel e processamento de PDFs complexos.
Consideração de Custo: Imagens de alta resolução consomem mais tokens. Se o seu cenário de aplicação não exigir alto detalhe da imagem, recomenda-se fazer o downsampling antes da entrada.

III. O maior obstáculo: Colapso de longo contexto
MRCR v2 @1M (Recuperação de Contexto Longo de Milhões de Tokens):
· 4.6: 78,3%
· 4.7: 32,2%
Uma queda de 46 pontos percentuais, caindo de quase 80% para um terço.
Essa queda é quase sem precedentes na história da iteração do modelo principal. O MRCR v2 foi uma capacidade fortemente promovida pela Anthropic na era do Opus 4.6 — naquela época, as palavras exatas da Anthropic eram "uma mudança qualitativa ocorreu em uma magnitude de um contexto no qual um modelo é realmente utilizável." Por volta da versão 4.7, essa "mudança qualitativa" desapareceu diretamente.
Por que isso está acontecendo? O Tokenizer foi alterado.
O Opus 4.7 utiliza um novo tokenizer, e o mesmo texto de entrada agora resultará em aproximadamente 1.0-1.35 vezes o número de tokens, com o multiplicador exato variando dependendo do tipo de conteúdo.
As ramificações imediatas são:
· A janela de contexto nominal de 200K/1M ainda está presente, mas a mesma quantidade de texto agora ocupa menos espaço.
· O consumo real de tokens para fluxos de trabalho de agentes de tarefas longas aumentou em cerca de 35%.
· O preço permanece o mesmo (entrada de $5, saída de $25 por milhão de tokens), mas o custo de uso real aumentou.
A declaração oficial da Anthropic é que o novo tokenizer "melhorou a eficiência do processamento de texto", mas os dados de referência mostram uma regressão significativa em cenários de longo contexto.
As capacidades de pesquisa também regrediram:
· BrowseComp (Busca Profunda de Informações na Web): A Opus 4.6 estava com 83,7%, enquanto a Opus 4.7 está com 79,3%.
· O GPT-5.4 Pro obteve 89,3% nesta área, o Gemini 3.1 Pro obteve 85,9% e o Opus 4.7 atualmente ocupa a última posição entre os principais modelos concorrentes.
A pesquisa e o texto longo são os cenários mais comuns para muitos usuários empresariais.
Feedback direto de desenvolvedores do Hacker News (postagem com 275 upvotes, 215 comentários, fonte: Discussão HN):
"Desativar o pensamento adaptativo e aumentar manualmente o controle de esforço foi o que me fez voltar ao desempenho de base. Frases como 'isso parece bom em nossos testes internos' não são mais suficientes; todos estão vendo o mesmo problema." No 4.7, os resumos de tokens de raciocínio legíveis por humanos não estão mais incluídos na saída por padrão; você tem que adicionar display: resumido à solicitação da API para recuperá-los."
Esses são todos problemas relatados por usuários reais. No entanto, essa também é uma escolha feita proativamente pela Anthropic.
Quatro, Nova Característica Comportamental: Autovalidação e Instrução Mais Literal
Uma declaração notável no anúncio oficial do Opus 4.7 é: O modelo valida sua saída antes de relatar os resultados.
A equipe técnica da Hex forneceu um exemplo específico durante os testes: quando os dados estão faltando, o Opus 4.7 relatará com sinceridade "os dados não existem" em vez de fornecer uma resposta aparentemente razoável, mas na verdade fabricada — uma armadilha em que o Opus 4.6 cairia. A avaliação da plataforma de fintech Block sobre isso foi: "Ele pode detectar seus próprios erros lógicos durante a fase de planejamento, acelerando a execução, mostrando uma clara melhoria em relação ao modelo Claude anterior."
No entanto, a autovalidação trouxe outra mudança comportamental associada: O Opus 4.7 interpreta as instruções de forma mais literal.
Isso representa um risco significativo de migração. Se você ajustou meticulosamente os prompts para o Opus 4.6, o 4.7 pode não "interpretar entre as linhas" como o 4.6 faria, mas seguir estritamente o significado literal que você escreveu. A Anthropic mencionou explicitamente isso no guia oficial de migração e recomendou realizar testes de regressão em prompts-chave antes de implantar o 4.7.
Um ponto de referência prático do CTO da Hex: Para o nível de baixo esforço, o Opus 4.7 tem um desempenho aproximadamente equivalente ao nível de esforço médio do Opus 4.6.
Cinco, Mecanismo de Controle de Raciocínio: xhigh, Orçamentos de Tarefa e /ultrareview
Um evento ocorreu com o Opus 4.6 que afetou a confiança do usuário: em 9 de fevereiro, ele mudou para o pensamento adaptativo como modo padrão, e em 3 de março, a profundidade de raciocínio padrão oficial do Claude Code foi reduzida do nível mais alto para o médio, citando a necessidade de "equilibrar inteligência, latência e custo". Este evento, apelidado de "o portão da inteligência", ganhou muita atenção depois que um diretor sênior da AMD o questionou no GitHub.
A resposta do Opus 4.7 foi dar aos usuários um controle mais explícito sobre a profundidade do raciocínio.
nível de esforço alto: Um novo nível de intensidade de raciocínio situado entre os níveis existentes alto e máximo. Claude Code atualizou todos os padrões planejados para xhigh.
No entanto, a comunidade de desenvolvedores tem uma pergunta direta sobre xhigh, conforme afirmado por um usuário do Reddit: "O Opus 4.6 tem como padrão o nível médio e o 4.7 tem como padrão o xhigh. Estou curioso sobre o raciocínio por trás dessa decisão, porque aumentar o nível de esforço obviamente resulta em mais consumo de tokens."
Em outras palavras, o que os usuários veem como uma correção de "controle de retorno ao usuário" é, na verdade, um aumento no nível padrão, o que significa que a mesma tarefa agora exige a queima de mais tokens. Junto com as alterações no tokenizer, isso é um aumento de custo duplo.
Orçamentos de Tarefas (Em Beta Público): Um mecanismo de controle de orçamento de tokens para tarefas longas. Os desenvolvedores definem um orçamento total de tokens (mínimo de 20K), e o modelo pode ver dinamicamente o saldo restante durante a execução para alocar recursos de acordo. Isso é para evitar a interrupção no meio do caminho devido ao excesso de gastos com tokens e evitar o desperdício de computação desnecessário.
Claude Code Novo comando /ultrareview: Uma sessão especial de revisão de código focada na correção de bugs e problemas de design, executando uma revisão profunda uma vez, com os usuários Pro e Max recebendo 3 sessões gratuitas por mês.
Modo automático disponível para usuários Max: Anteriormente disponível apenas no plano Enterprise, agora também acessível aos usuários Max. No modo automático, o Claude pode tomar decisões de forma autônoma, reduzindo a necessidade de interromper os usuários para obter informações. Boris Cherny, o chefe da equipe Claude Code, afirmou: "Dê uma tarefa ao Claude, deixe-o executar e volte para obter resultados verificados."
Seção Seis: Visão Geral do Benchmark - Vitórias e Perdas
Abaixo estão os dados de referência chave atuais divulgados (fonte: Cartão de sistema oficial da Anthropic e avaliações de parceiros).
Programação e Engenharia (Opus 4.7 Líder)

Visão e Multimodal (Opus 4.7 Significativamente Líder)

Trabalho de Conhecimento (Opus 4.7 Líder)

Avaliação Abrangente (Opus 4.7 Melhora Claramente)

Raciocínio Geral (Três Básicos Basicamente Alinhados)

Este benchmark tornou-se saturado e não é mais uma linha divisória competitiva eficaz.
Tipo de Tarefa de Pesquisa (GPT-5.4 Lidera, Opus 4.7 Recua)

Contexto de Longo Prazo (Opus 4.7 Regride Significativamente)

Resumo da Lógica de Seleção do Modelo: Nas áreas de programação, agente de engenharia, visão e trabalho de conhecimento jurídico-financeiro, o Opus 4.7 tem uma clara vantagem; para tarefas intensivas em pesquisa e recuperação em rede aberta, o GPT-5.4 é mais forte; em cenários de contexto de longo prazo, o Opus 4.7 fica muito atrás de seu predecessor, o que é o ponto mais preocupante.
Seção Sete: Barreira de Segurança – Marco do Mythos
Esta seção é frequentemente negligenciada como uma "declaração genérica de segurança" em comunicados de imprensa, mas é fundamental para entender a estratégia atual da Anthropic.
Em 7 de abril, a Anthropic anunciou o Projeto Glasswing: disponibilizando a Visualização do Claude Mythos para nove parceiros, incluindo Apple, Google, Microsoft, Nvidia, Amazon, Cisco, CrowdStrike, JPMorgan Chase e Broadcom, especificamente para cenários de cibersegurança defensiva.
O Mythos é o modelo mais poderoso da Anthropic até o momento. De acordo com o The Hacker News, ele pode descobrir autonomamente vulnerabilidades de dia zero, identificando milhares de vulnerabilidades anteriormente desconhecidas em sistemas operacionais e navegadores importantes. No entanto, devido a essa capacidade, também foi considerado como tendo riscos significativos de uso indevido e, portanto, não é lançado publicamente.
O Opus 4.7 é a primeira amostra de teste nessa linha. Durante a fase de treinamento, a Anthropic reduziu ativamente a capacidade do modelo de lançar ataques de cibersegurança (enquanto tentava manter as capacidades defensivas) e implementou um sistema de barreira em tempo real para detectar e bloquear automaticamente solicitações de cibersegurança de alto risco. O anúncio original afirmava: "Vamos aprender com a implementação real do Opus 4.7 para determinar a eficácia desta barreira antes de decidir se a estendemos aos modelos de nível Mythos."
Em outras palavras, todo desenvolvedor que utiliza o Opus 4.7 está ajudando a Anthropic a calibrar a cerca de segurança.
Revisão da Gizmodo: Este lançamento adota uma "estratégia de marketing ousada - promovendo proativamente seu novo modelo como 'menos capaz em geral do que outras opções'", o que é extremamente raro em lançamentos de destaque.
Se os profissionais de segurança precisarem usar o Opus 4.7 para testes de penetração legítimos, pesquisa de vulnerabilidades ou trabalho em equipe vermelha, eles precisam se inscrever para participar do Programa de Verificação Cibernética.
8. Preços e Migração: Preços nominais permanecem, mas o custo real aumenta
Preços: Entrada em $5/milhão de tokens, saída em $25/milhão de tokens, o mesmo que o Opus 4.6. A ID do modelo da API é claude-opus-4-7. As plataformas suportadas incluem Claude API, Amazon Bedrock, Google Cloud Vertex AI, Microsoft Foundry, com o GitHub Copilot também integrado.
No entanto, como mencionado anteriormente, a alteração do tokenizer agora resulta na geração de aproximadamente 1.0-1.35 vezes mais tokens para a mesma entrada, juntamente com os tokens de pensamento adicionais sob níveis de esforço padrão mais altos, o custo real para um fluxo de trabalho de agente de tarefa longa pode ser 2-3 vezes maior que o do Opus 4.6 com configurações equivalentes.
A Anthropic também reduziu o TTL da cache do Claude Code de uma hora para cinco minutos — o que significa que, se você se afastar do computador por mais de cinco minutos e voltar, a cache de contexto expirará, exigindo um recarregamento, o que acelera o consumo de tokens. A comunidade do Reddit viu muitos usuários reclamarem que "a cota se esgota mais rápido do que uma cachoeira".
Lista de Alterações Disruptivas para Usuários Existentes do Opus 4.6:
1. O parâmetro de Orçamento de Pensamento Estendido foi removido; passar por ele retornará um erro 400, e o modo de pensamento adaptativo deve ser usado em vez disso
2. Parâmetros de Amostragem como temperatura, top_p, top_k foram removidos; o prompt deve ser usado para controlar o comportamento da saída
3. Seguimento de Instruções Literárias Mais Rigorosas - O prompt ajustado para o Opus 4.6 precisa ser testado novamente; a troca direta de ID de modelo não é permitida.
4. As alterações no tokenizador alteraram as contagens de tokens. Recomenda-se executar amostras em tráfego real antes de prosseguir com uma migração completa.
5. A saída padrão não inclui mais os resumos de tokens de inferência. Você precisa definir explicitamente display: resumido para recuperá-los.
Melhor prática: O guia oficial de migração da Anthropic sugere executar o Opus 4.7 em tráfego de produção representativo antes da mudança final, comparando o consumo de tokens e a qualidade da tarefa antes de tomar uma decisão.
A precisão na execução pode ser assustadora.
O Opus 4.7 é uma atualização direcionada com vantagens claras, mas também com compensações consideráveis. Além disso, tudo isso é projetado pela própria Anthropic, e, em grande medida, você tem que arcar com os custos.
O lado positivo do progresso deste modelo:
· 87,6% no SWE-bench Verificado, 64,3% no SWE-bench Pro, 70% no CursorBench e um aumento de 3x nas tarefas de produção da Rakuten - estas são as melhorias perceptíveis na capacidade de programação dentro de um ambiente de produção
· Reconstrução das capacidades visuais (XBOW 54,5% → 98,5%, aumento de 3x na resolução, mapeamento pixel-perfect 1:1), permitindo o uso do computador para implantação confiável pela primeira vez
· xnível elevado, orçamentos de tarefas, /ultrareview - uma resposta explícita à barreira do "simplificar demais"
· 90,9% em BigLaw, 64,4% em Agente Financeiro, claramente líder em trabalhos de conhecimento especializado como questões jurídicas financeiras
Aspectos que foram abandonados:
· MRCR v2 @1M caiu de 78,3% para 32,2%, quase reduzindo pela metade as capacidades de longo contexto
· BrowseComp cai de 83,7% para 79,3%, capacidade de pesquisa ultrapassada tanto pelo GPT-5.4 quanto pelo Gemini 3.1 Pro
· alterações no tokenizer + aumento do esforço padrão + redução do TTL do cache = aumento secreto triplo dos preços
· O Mythos está firme, indicando que a Anthropic tem cartas ainda mais fortes na mão, mas não está jogando com elas
Este lançamento é o mais autêntico até agora, não o "modelo mais forte" nem o "modelo público mais forte", mas sim: uma iteração com claras compensações.
A última notícia é que a Claude Code já atingiu US$ 2,5 bilhões em receita anual em fevereiro. O Opus 4.7 é o próximo passo nesta linhagem online.
Codificação e visão são adições, contexto longo e pesquisa são subtrações, o preço permanece nominal, mas a conta está subindo. A Anthropic está trabalhando em um equilíbrio com o Opus 4.7 — tanto para resolver os danos à confiança deixados pelo Opus 4.6 quanto para realizar um exercício de segurança no mundo real em preparação para a abertura mais ampla dos modelos de nível Mythos no futuro. Mais importante, ele visa capitalizar totalmente sua posição de liderança atual, traduzindo a preferência do usuário por seus produtos na inércia que não pode ser evitada nem mesmo através de gerações de produtos imperfeitos, mas indispensáveis, estabelecendo o tipo de experiência de usuário pegajosa de amor e ódio com verdadeiro valor comercial que empresas maduras como a Apple alcançaram e construindo um ecossistema verdadeiramente valioso.
Você também pode gostar

Previsão de Preço do XRP: Sinais de Fundo Apontando, Bom Momento para Comprar?
O XRP está indicando sinais de oversold no RSI, similar ao de outubro de 2025, que historicamente precederam…

Um Hacker Acaba de Cunhar 1 Bilhão de Tokens Dot por Meio da Ponte Polkadot
Um ataque à infraestrutura da Polkadot resultou na cunhagem de 1 bilhão de tokens DOT. O incidente causou…

Acumulação dos Baleias do Trump Antes do Almoço em Mar-A-Lago: Impulso para os Memecoins?
A concentração de tokens TRUMP alcançou um pico não visto desde outubro de 2025, com 83 wallets detendo…

Previsão de Preço do Ethereum: Triângulo Dourado para Enviar ETH ao Parabólico
Principais Conclusões ETH encontra-se abaixo de $2,200, mas o gráfico de 3 semanas aponta para um rally acima…

Previsão do Preço do Bitcoin: Arthur Hayes sobre IA, Preço do Petróleo e Guerra Contra Cripto
Arthur Hayes prevê que o preço do Bitcoin pode atingir entre $500K e $750K até o final de…

Relatório Detalhado da DWF: A IA supera os humanos na otimização de yield farming em DeFi, mas transações complexas ainda ficam 5x atrás

Revelado o programa do evento Rhythm X Zhihu, com demonstração de funcionalidades, palestra principal e mesa redonda para um aprofundamento sobre agentes e finanças em cadeia

Os truques financeiros da gigante das criptomoedas Kraken

Quando os formadores de mercado proativos começam a tomar a iniciativa

# Detalhamento do Desempenho Mercadológico dos Tokens HYPE Após Movimentos de Whale
Key Takeaways Um investidor conhecido como TechnoRevenant iniciou uma transação de desestatização de tokens HYPE no valor de…

# Outline
1. Introdução Contextualizar sobre a segurança em dispositivos para criptomoedas. Relevância dos dispositivos Ledger no mercado. 2. Descoberta…

# Título: ListaDAO Identifica Vulnerabilidade em Contrato Não Autorizado
Key Takeaways ListaDAO confirmou que a vulnerabilidade reportada não estava em seus contratos oficiais, mas sim em um…

# Outline
H1: Grandes Brechas de Segurança em Protocolos DeFi em Abril de 2026 H2: O Ataque ao Drift Protocol…

Um Hacker Acaba de Cunhar 1 Bilhão de Tokens Dot por Meio da Ponte Polkadot
Um ataque à infraestrutura da Polkadot resultou na cunhagem de 1 bilhão de tokens DOT. O incidente causou…

Acumulação dos Baleias do Trump Antes do Almoço em Mar-A-Lago: Impulso para os Memecoins?
A concentração de tokens TRUMP alcançou um pico não visto desde outubro de 2025, com 83 wallets detendo…

Previsão de Preço do XRP: Sinais de Fundo Apontando, Bom Momento para Comprar?
O XRP está indicando sinais de oversold no RSI, similar ao de outubro de 2025, que historicamente precederam…

Previsão de Preço do Ethereum: Triângulo Dourado para Enviar ETH ao Parabólico
Principais Conclusões ETH encontra-se abaixo de $2,200, mas o gráfico de 3 semanas aponta para um rally acima…

Previsão do Preço do Bitcoin: Arthur Hayes sobre IA, Preço do Petróleo e Guerra Contra Cripto
Arthur Hayes prevê que o preço do Bitcoin pode atingir entre $500K e $750K até o final de…
Previsão de Preço do XRP: Sinais de Fundo Apontando, Bom Momento para Comprar?
O XRP está indicando sinais de oversold no RSI, similar ao de outubro de 2025, que historicamente precederam…
Um Hacker Acaba de Cunhar 1 Bilhão de Tokens Dot por Meio da Ponte Polkadot
Um ataque à infraestrutura da Polkadot resultou na cunhagem de 1 bilhão de tokens DOT. O incidente causou…
Acumulação dos Baleias do Trump Antes do Almoço em Mar-A-Lago: Impulso para os Memecoins?
A concentração de tokens TRUMP alcançou um pico não visto desde outubro de 2025, com 83 wallets detendo…
Previsão de Preço do Ethereum: Triângulo Dourado para Enviar ETH ao Parabólico
Principais Conclusões ETH encontra-se abaixo de $2,200, mas o gráfico de 3 semanas aponta para um rally acima…
Previsão do Preço do Bitcoin: Arthur Hayes sobre IA, Preço do Petróleo e Guerra Contra Cripto
Arthur Hayes prevê que o preço do Bitcoin pode atingir entre $500K e $750K até o final de…





