Nova personalização serverless no Amazon SageMaker AI acelera o fine-tuning de modelos

Nova Personalização Sem Servidor no Amazon SageMaker AI Acelera o Fine-Tuning de Modelos
Hoje, tenho o prazer de anunciar a nova personalização serverless (sem servidor) no Amazon SageMaker AI para modelos de inteligência artificial populares, como Amazon Nova, DeepSeek, GPT-OSS, Llama e Qwen.
Essa nova capacidade de personalização oferece uma interface fácil de usar para as mais recentes técnicas de fine-tuning (ajuste fino), como reinforcement learning (aprendizado por reforço), permitindo que você acelere o processo de customização de modelos de IA de meses para dias. Com apenas alguns cliques, você pode selecionar um modelo e uma técnica de customização, além de gerenciar a avaliação e o deployment (implantação) do modelo – tudo de forma totalmente serverless, para que você possa se concentrar no ajuste do modelo em vez de gerenciar a infraestrutura.
Ao optar pela customização serverless, o SageMaker AI seleciona e provisiona automaticamente os recursos de compute (computação) apropriados com base no modelo e no tamanho dos dados.
Primeiros Passos com a Customização de Modelos Sem Servidor
Você pode começar a customizar modelos no Amazon SageMaker Studio. Escolha Models (Modelos) no painel de navegação esquerdo e confira seus modelos de IA favoritos que podem ser customizados.
Customizar com a Interface do Usuário (UI)
Você pode customizar modelos de IA em apenas alguns cliques. Na lista suspensa Customize model (Customizar modelo) para um modelo específico, como o Meta Llama 3.1 8B Instruct, escolha Customize with UI (Customizar com UI).
Você pode selecionar uma técnica de customização usada para adaptar o modelo base ao seu caso de uso. O SageMaker AI suporta Supervised Fine-Tuning (Ajuste Fino Supervisionado) e as mais recentes técnicas de customização de modelos, incluindo Direct Preference Optimization (Otimização de Preferência Direta), Reinforcement Learning from Verifiable Rewards (RLVR - Aprendizado por Reforço a partir de Recompensas Verificáveis) e Reinforcement Learning from AI Feedback (RLAIF - Aprendizado por Reforço a partir de Feedback de IA). Cada técnica otimiza modelos de maneiras diferentes, sendo a seleção influenciada por fatores como tamanho e qualidade do dataset (conjunto de dados), recursos computacionais disponíveis, tarefa em questão, níveis de precisão desejados e restrições de deployment.
Faça o upload ou selecione um training dataset (conjunto de dados de treinamento) para corresponder ao formato exigido pela técnica de customização escolhida. Utilize os valores de batch size (tamanho do lote), learning rate (taxa de aprendizado) e número de epochs (épocas) recomendados pela técnica selecionada. Você pode configurar configurações avançadas, como hyperparameters (hiperparâmetros), um recém-introduzido aplicativo serverless MLflow para rastreamento de experimentos, e criptografia de rede e de volume de storage (armazenamento).
Escolha Submit (Enviar) para iniciar seu job (tarefa) de treinamento de modelo. Após a conclusão do treinamento, você pode ver os modelos criados na aba My Models (Meus Modelos). Escolha View details (Ver detalhes) em um de seus modelos. Ao selecionar Continue customization (Continuar customização), você pode continuar a customizar seu modelo ajustando hyperparameters ou treinando com diferentes técnicas. Ao escolher Evaluate (Avaliar), você pode avaliar seu modelo customizado para ver seu desempenho em comparação com o modelo base.
Ao concluir ambos os jobs, você pode escolher entre SageMaker ou Bedrock na lista suspensa Deploy (Implantar) para implantar seu modelo. Você pode optar pelo Amazon Bedrock para inference serverless (inferência sem servidor). Escolha Bedrock e o nome do modelo para implantá-lo no Amazon Bedrock. Para encontrar seus modelos implantados, escolha Imported models (Modelos importados) no console do Bedrock.
Você também pode implantar seu modelo em um inference endpoint (endpoint de inferência) do SageMaker AI, caso deseje controlar seus recursos de deployment, como tipo de instância (instance type) e contagem de instâncias (instance count). Depois que o deployment do SageMaker AI estiver em status In service (Em serviço), você poderá usar esse endpoint para realizar inference (inferência). Na aba Playground, você pode testar seu modelo customizado com um único prompt ou no modo chat. Com o recurso serverless MLflow, você pode registrar automaticamente todas as métricas críticas do experimento sem modificar o código e acessar visualizações ricas para análises futuras.
Customizar com Código
Ao escolher customizing with code (customizar com código), você pode visualizar um sample notebook (notebook de exemplo) para realizar o fine-tuning ou implantar modelos de IA. Se desejar editar o sample notebook, abra-o no JupyterLab. Alternativamente, você pode implantar o modelo imediatamente escolhendo Deploy. Você pode selecionar o Amazon Bedrock ou o endpoint do SageMaker AI, escolhendo os recursos de deployment tanto no Amazon SageMaker Inference quanto no Amazon SageMaker Hyperpod. Ao escolher Deploy no canto inferior direito da página, você será redirecionado de volta à página de detalhes do modelo. Depois que o deployment do SageMaker AI estiver em status In service, você poderá usar esse endpoint para realizar inference.
Você viu como otimizar a customização de modelos no SageMaker AI. Agora você pode escolher sua maneira favorita. Para saber mais, visite o Guia do Desenvolvedor do Amazon SageMaker AI.
Já Disponível
A nova customização serverless de modelos de IA no Amazon SageMaker AI já está disponível nas regiões US East (N. Virginia), US West (Oregon), Asia Pacific (Tokyo) e Europe (Ireland). Você paga apenas pelos tokens processados durante o treinamento e a inference. Para obter mais detalhes, visite a página de preços do Amazon SageMaker AI.
Experimente no Amazon SageMaker Studio e envie feedback (comentários) para o AWS re:Post para SageMaker ou através de seus contatos habituais de AWS Support.
— Channy
Precisa de ajuda com suas soluções de TI?
A VirtuAllIT Solutions oferece consultoria especializada em virtualização, cloud computing e infraestrutura tecnológica.

