Apresentando o modelo Claude Opus 4.7 da Anthropic no Amazon Bedrock

Apresentando o modelo Claude Opus 4.7 da Anthropic no Amazon Bedrock
Hoje, anunciamos o Claude Opus 4.7 no Amazon Bedrock, o modelo Opus mais inteligente da Anthropic para aprimorar o desempenho em codificação, agentes de longa duração e trabalho profissional. O Claude Opus 4.7 é alimentado pelo motor de inferência de próxima geração do Amazon Bedrock, fornecendo uma infraestrutura de nível empresarial para cargas de trabalho de produção. O novo motor de inferência do Bedrock possui uma lógica de escalonamento e agendamento totalmente nova que aloca dinamicamente a capacidade às solicitações, melhorando a disponibilidade, especialmente para cargas de trabalho de estado estável, ao mesmo tempo em que abre espaço para serviços de escalonamento rápido. Ele oferece acesso de operador zero – o que significa que os prompts e as respostas dos clientes nunca são visíveis para os operadores da Anthropic ou da AWS – mantendo os dados confidenciais privados.
De acordo com a Anthropic, o modelo Claude Opus 4.7 oferece melhorias nos fluxos de trabalho que as equipes executam em produção, como codificação agêntica, trabalho de conhecimento, compreensão visual e tarefas de longa duração. O Opus 4.7 funciona melhor em situações ambíguas, é mais completo na resolução de problemas e segue as instruções com mais precisão.
- Codificação agêntica: O modelo estende a liderança do Opus 4.6 em codificação agêntica, com desempenho mais forte em autonomia de longo prazo, engenharia de sistemas e tarefas complexas de raciocínio de código. De acordo com a Anthropic, o modelo registra altas pontuações de desempenho com 64,3% no SWE-bench Pro, 87,6% no SWE-bench Verified e 69,4% no Terminal-Bench 2.0.
- Trabalho de conhecimento: O modelo avança o trabalho de conhecimento profissional, com desempenho mais forte na criação de documentos, análise financeira e fluxos de trabalho de pesquisa em várias etapas. O modelo raciocina através de solicitações subespecificadas, fazendo suposições sensatas e as declarando claramente, e auto-verifica sua saída para melhorar a qualidade na primeira etapa. De acordo com a Anthropic, o modelo atinge 64,4% no Finance Agent v1.1.
- Tarefas de longa duração: O modelo permanece no caminho certo em horizontes mais longos, com desempenho mais forte em sua janela de contexto completa de 1M tokens, à medida que raciocina através de ambiguidades e auto-verifica sua saída.
- Visão: O modelo adiciona suporte a imagens de alta resolução, melhorando a precisão em gráficos, documentos densos e interfaces de usuário de tela onde detalhes finos são importantes.
O modelo é uma atualização do Opus 4.6, mas pode exigir mudanças nos prompts e ajustes nos harness para obter o máximo do modelo. Para saber mais, visite o guia de prompts da Anthropic.
Modelo Claude Opus 4.7 em ação
Você pode começar a usar o modelo Claude Opus 4.7 no console do Amazon Bedrock. Escolha Playground no menu Test e selecione Claude Opus 4.7 ao escolher o modelo. Agora, você pode testar seu prompt de codificação complexo com o modelo. Executei o seguinte exemplo de prompt sobre decisão de arquitetura técnica: Design a distributed architecture on AWS in Python that should support 100k requests per second across multiple geographic regions.
Você também pode acessar o modelo programaticamente usando a Anthropic Messages API para chamar o bedrock-runtime através do Anthropic SDK ou dos endpoints bedrock-mantle, ou continuar usando a Invoke e Converse API no bedrock-runtime através da AWS Command Line Interface (AWS CLI) e do AWS SDK. Para começar a fazer sua primeira chamada de API para o Amazon Bedrock em minutos, escolha Quickstart no painel de navegação esquerdo no console. Depois de escolher seu caso de uso, você pode gerar uma chave de API de curto prazo para autenticar suas solicitações para fins de teste. Ao escolher o método de API, como a OpenAI-compatible Responses API, você pode obter exemplos de código para executar seu prompt e fazer sua solicitação de inferência usando o modelo.
Para invocar o modelo através da Anthropic Claude Messages API, você pode prosseguir da seguinte forma usando o pacote anthropic[bedrock] SDK para uma experiência simplificada:
from anthropic import AnthropicBedrockMantle
# Initialize the Bedrock Mantle client (uses SigV4 auth automatically)
mantle_client = AnthropicBedrockMantle(aws_region="us-east-1")
# Create a message using the Messages API
message = mantle_client.messages.create(
model="us.anthropic.claude-opus-4-7",
max_tokens=32000,
messages=[
{"role": "user", "content": "Design a distributed architecture on AWS in Python that should support 100k requests per second across multiple geographic regions"}
]
)
print(message.content[0].text)
from anthropic import AnthropicBedrockMantle
# Initialize the Bedrock Mantle client (uses SigV4 auth automatically)
mantle_client = AnthropicBedrockMantle(aws_region="us-east-1")
# Create a message using the Messages API
message = mantle_client.messages.create(
model="us.anthropic.claude-opus-4-7",
max_tokens=32000,
messages=[
{"role": "user", "content": "Design a distributed architecture on AWS in Python that should support 100k requests per second across multiple geographic regions"}
]
)
print(message.content[0].text)
Você também pode executar o seguinte comando para invocar o modelo diretamente para o endpoint bedrock-runtime usando a AWS CLI e a Invoke API:
aws bedrock-runtime invoke-model \
--model-id us.anthropic.claude-opus-4-7 \
--region us-east-1 \
--body '{"anthropic_version":"bedrock-2023-05-31", "messages": [{"role": "user", "content": "Design a distributed architecture on AWS in Python that should support 100k requests per second across multiple geographic regions."}], "max_tokens": 32000}' \
--cli-binary-format raw-in-base64-out \
invoke-model-output.txt
aws bedrock-runtime invoke-model \
--model-id us.anthropic.claude-opus-4-7 \
--region us-east-1 \
--body '{"anthropic_version":"bedrock-2023-05-31", "messages": [{"role": "user", "content": "Design a distributed architecture on AWS in Python that should support 100k requests per second across multiple geographic regions."}], "max_tokens": 32000}' \
--cli-binary-format raw-in-base64-out \
invoke-model-output.txt
Para uma capacidade de raciocínio mais inteligente, você pode usar o Adaptive thinking com Claude Opus 4.7, que permite que o Claude aloque dinamicamente orçamentos de thinking token com base na complexidade de cada solicitação. Para saber mais, visite a Anthropic Claude Messages API e confira exemplos de código para múltiplos casos de uso e uma variedade de linguagens de programação.
Informações importantes
Permita-me compartilhar alguns detalhes técnicos importantes que acredito que serão úteis.
- Escolhendo APIs: Você pode escolher entre uma variedade de APIs do Bedrock para inferência de modelos, bem como a Anthropic Messages API. A Converse API nativa do Bedrock suporta conversas multi-turno e integração com Guardrails. A Invoke API fornece invocação direta do modelo e controle de nível mais baixo.
- Escalonamento e capacidade: O novo motor de inferência do Bedrock foi projetado para provisionar e servir capacidade rapidamente em muitos modelos diferentes. Ao aceitar solicitações, priorizamos manter as cargas de trabalho de estado estável em execução e aumentar o uso e a capacidade rapidamente em resposta a mudanças na demanda. Durante períodos de alta demanda, as solicitações são enfileiradas, em vez de rejeitadas. Até 10.000 solicitações por minuto (RPM) por conta por Região estão imediatamente disponíveis, com mais disponibilidade mediante solicitação.
Oficialmente disponível
O modelo Claude Opus 4.7 da Anthropic está oficialmente disponível hoje nas regiões US East (N. Virginia), Asia Pacific (Tokyo), Europe (Ireland) e Europe (Stockholm); verifique a lista completa de Regiões para futuras atualizações. Para saber mais, visite a página Claude by Anthropic no Amazon Bedrock e a página de preços do Amazon Bedrock.
Experimente o Claude Opus 4.7 da Anthropic no console do Amazon Bedrock hoje mesmo e envie feedback para o AWS re:Post para Amazon Bedrock ou através de seus contatos habituais de Suporte AWS.
— Channy Atualizado em 17 de abril de 2026 – Corrigimos exemplos de código e comandos CLI para alinhar com a nova versão.
Como parceira certificada, a VirtuAllIT pode ajudar sua empresa a implementar e otimizar soluções baseadas no Amazon Bedrock e no modelo Claude Opus 4.7, garantindo que você aproveite ao máximo essas tecnologias avançadas para suas necessidades de codificação, análise e automação.
Precisa de ajuda com suas soluções de TI?
A VirtuAllIT Solutions oferece consultoria especializada em virtualização, cloud computing e infraestrutura tecnológica.

