Principais destaques do AWS re: Invent 2024: A visão do Dr. Swami Sivasubramanian para a IA de geração
by Paul Jeyasingh, Head of Presales (US), Data Analytics and Gen AI, Rackspace Technology


Recent Posts
Uma nova era de diversificação da nuvem
Abril 11th, 2025
Navegando na transição para o OpenStack
Abril 11th, 2025
O Seattle Children's Hospital e a Rackspace discutem o poder das parcerias estratégicas no ViVE 2025
Abril 7th, 2025
Recapitulação e repetição do webinar: Navegando pelas ameaças cibernéticas: Insights para uma segurança resiliente
Abril 2nd, 2025
Desbloquear o roteiro para o futuro digital dos cuidados de saúde
Março 31st, 2025
Related Posts
Cloud Insights
Uma nova era de diversificação da nuvem
Abril 11th, 2025
Cloud Insights
Navegando na transição para o OpenStack
Abril 11th, 2025
Cloud Insights
O Seattle Children's Hospital e a Rackspace discutem o poder das parcerias estratégicas no ViVE 2025
Abril 7th, 2025
Cloud Insights
Recapitulação e repetição do webinar: Navegando pelas ameaças cibernéticas: Insights para uma segurança resiliente
Abril 2nd, 2025
Cloud Insights
Desbloquear o roteiro para o futuro digital dos cuidados de saúde
Março 31st, 2025
A IA generativa ocupa um lugar central na visão da AWS para capacitar as empresas e transformar as indústrias.
A palestra do Dr. Swami Sivasubramanian foi uma das sessões mais esperadas no AWS re: Invent 2024, atraindo milhares de entusiastas de ML e IA generativa. No seu discurso, Sivasubramanian revelou uma série de novas funcionalidades e actualizações concebidas para acelerar o percurso da IA generativa. No centro deste esforço está Amazon SageMaker, que simplifica o ciclo de vida da aprendizagem automática (ML), integrando a preparação de dados, a formação de modelos, a implementação e a observabilidade numa plataforma unificada. Ao longo do último ano, a SageMaker introduziu mais de 140 novas capacidades para melhorar os fluxos de trabalho de ML, e Sivasubramanian destacou as actualizações inovadoras do HyperPod e a capacidade de implementar aplicações de IA de parceiros sem problemas na SageMaker.
Os planos HyperPod simplificam a formação LLM
As empresas que estão a construir os seus próprios LLM necessitam de uma enorme capacidade de infraestrutura. A aquisição desta infraestrutura e a reserva de hardware a esta escala requerem um tempo considerável. É por isso que adoramos os planos de treino HyperPod - são um divisor de águas para simplificar o processo de treino de modelos.
Estes planos permitem às equipas criar rapidamente um plano de formação que reserva automaticamente a capacidade necessária. O HyperPod configura um cluster, inicia trabalhos de formação de modelos e pode poupar semanas às equipas de ciência de dados no processo de formação. Construído em blocos de capacidade EC2, o HyperPod cria planos de formação óptimos adaptados a prazos e orçamentos específicos.
O HyperPod também fornece fatias de tempo individuais e AZs disponíveis para acelerar a prontidão do modelo por meio de checkpointing e retomada eficientes. Trata automaticamente as interrupções de instâncias, permitindo que a formação continue sem interrupções e sem intervenção manual.
A governança de tarefas do HyperPod melhora a eficiência dos recursos A governança de tarefas do HyperPod ajuda as empresas a maximizar a utilização de recursos de computação - como aceleradores - automatizando a priorização e o gerenciamento de tarefas de treinamento, ajuste fino e inferência de modelos. Com a gestão de tarefas, as empresas podem definir limites de recursos por equipa ou projeto, enquanto monitorizam a utilização para garantir a eficiência. Esta capacidade pode ajudar a reduzir os custos de infraestrutura, potencialmente até 40%, de acordo com a AWS.
As aplicações de IA dos parceiros melhoram as capacidades do SageMaker
Uma das actualizações de destaque partilhadas durante a apresentação foi a capacidade de implementar aplicações de IA de parceiros diretamente no Amazon SageMaker. Esta nova funcionalidade simplifica o ciclo de vida da implementação do modelo, proporcionando uma experiência totalmente gerida sem qualquer infraestrutura para provisionar ou operar. Também tira partido das funcionalidades robustas de segurança e privacidade do SageMaker. Entre as aplicações disponíveis encontram-se Comet, Deepchecks, Fiddler e Lakera, cada uma oferecendo um valor único para acelerar os fluxos de trabalho de aprendizagem automática.
Os LLM da Amazon Nova trazem versatilidade a Bedrock
Durante a sua intervenção, Sivasubramanian apresentou Amazon Nova, uma família inovadora de modelos de linguagem de grande dimensão (LLMs) concebida para expandir as capacidades do Amazon Bedrock. Cada modelo é adaptado a casos de utilização específicos de IA generativa, com destaques para
- Amazon Nova Micro: Um modelo apenas de texto optimizado para respostas de latência ultra-baixa a um custo mínimo
- Amazon Nova Lite: Um modelo multimodal que oferece processamento de baixa latência para entradas de imagem, vídeo e texto a um custo muito baixo
- Amazon Nova Pro: Um modelo multimodal versátil que equilibra precisão, velocidade e custo para diversas tarefas
- Amazon Nova Premier: O modelo mais avançado, concebido para raciocínios complexos e que serve como o melhor professor para destilar modelos personalizados (disponível no primeiro trimestre de 2025)
- Amazon Nova Canvas: Um modelo de vanguarda especializado na geração de imagens
- Amazon Nova Reel: Um modelo de ponta para geração de vídeo
Estes modelos Nova reflectem o compromisso da AWS em responder às diversas necessidades dos programadores e das empresas, fornecendo ferramentas que combinam a eficiência de custos com capacidades avançadas para alimentar a inovação em todos os sectores.
O Poolside Assistant expande os fluxos de trabalho de desenvolvimento de software
Outro anúncio de destaque da apresentação foi a colaboração da AWS com a Poolside Assistant, uma startup especializada em fluxos de trabalho de desenvolvimento de software. Com base nos modelos Malibu e Point, destaca-se em tarefas como geração de código, testes e documentação. O AWS é o primeiro fornecedor de serviços em nuvem a oferecer acesso a este assistente, que deverá ser lançado em breve.
Stability.ai Stable Diffusion 3.5 avança na geração de texto para imagem
O modelo Stable Diffusion 3.5 da Stability.ai, treinado no Amazon SageMaker HyperPod, está a chegar em breve ao Amazon Bedrock. Este modelo avançado de conversão de texto em imagem, o mais potente da família Stable Diffusion, abre novas possibilidades para aplicações criativas e técnicas.
A Luma AI apresenta a geração de vídeo de alta qualidade com o RAY2
O modelo RAY2 da Luma AI, que chegará em breve ao Amazon Bedrock, permite a geração de vídeo de alta qualidade com suporte para capacidades de texto para vídeo, imagem para vídeo e vídeo para vídeo.
O Amazon Bedrock Marketplace simplifica a descoberta de modelos
O Amazon Bedrock Marketplace oferece um catálogo único de mais de 100 modelos básicos, permitindo que os desenvolvedores descubram, testem e implantem modelos em pontos de extremidade gerenciados. Ferramentas integradas como Agents e Guardrails facilitam a criação e a gestão de aplicações de IA.
Modelo Amazon Bedrock A destilação aumenta a eficiência
A destilação de modelos no Amazon Bedrock simplifica a transferência de conhecimentos de modelos grandes e precisos para modelos mais pequenos e mais eficientes. Estes modelos destilados são até 500% mais rápidos e 75% menos dispendiosos do que os seus homólogos originais, com menos de 2% de perda de precisão em tarefas como a Geração Aumentada por Recuperação (RAG). Esta funcionalidade permite às empresas implementar modelos económicos sem sacrificar a precisão específica de cada caso de utilização.
A Inferência Optimizada de Latência do Amazon Bedrock acelera a capacidade de resposta
A Inferência Optimizada de Latência melhora significativamente os tempos de resposta das aplicações de IA sem comprometer a precisão. Esta melhoria não requer qualquer configuração adicional ou afinação, permitindo às empresas aumentar imediatamente a capacidade de resposta das aplicações.
O Amazon Bedrock Intelligent Prompt Routing optimiza o desempenho da IA
O Intelligent Prompt Routing seleciona o melhor modelo de base da mesma família para cada pedido, equilibrando a qualidade e o custo. Esta capacidade é ideal para aplicações como o serviço de apoio ao cliente, encaminhando as consultas simples para modelos mais rápidos e económicos e as complexas para modelos mais capazes. Ao adaptar a seleção de modelos, as empresas podem reduzir os custos até 30% sem comprometer a precisão.
O Amazon Bedrock introduz o caching imediato
Uma funcionalidade de destaque anunciada durante a apresentação foi o prompt caching no Amazon Bedrock, que permite que o contexto utilizado com frequência seja retido em várias invocações de modelos por até cinco minutos. Isto é especialmente útil para sistemas de Q&A de documentos ou assistentes de codificação que necessitam de uma retenção de contexto consistente. O armazenamento em cache imediato pode reduzir os custos até 90% e a latência até 85% nos modelos suportados.
O índice de IA generativa Amazon Kendra melhora a recuperação de dados
O novo Amazon Kendra Generative AI Index fornece um recuperador gerido para Retrieval-Augmented Generation (RAG) e Bedrock, com conectores para 43 fontes de dados empresariais. Esta funcionalidade integra-se nas bases de dados de conhecimento Bedrock, permitindo aos utilizadores criar assistência generativa baseada em IA com agentes, fluxos de solicitação e guardrails. É também compatível com as aplicações empresariais Amazon Q.
Recuperação de dados estruturados em bases de conhecimento Bedrock
Uma das funcionalidades mais solicitadas, a recuperação de dados estruturados, está agora disponível nas Bases de Dados de Conhecimento do Bedrock. Os utilizadores podem consultar dados em tabelas Amazon Redshift, SageMaker Lakehouse e S3 com suporte Iceberg utilizando linguagem natural. O sistema transforma estas consultas em SQL, recuperando os dados diretamente sem pré-processamento.
O GraphRAG liga relações em bases de dados de conhecimento
As bases de conhecimento Bedrock suportam agora o GraphRAG, combinando técnicas RAG com gráficos de conhecimento para melhorar as aplicações de IA generativa. Esta adição melhora a exatidão e fornece respostas mais abrangentes, ligando as relações entre as fontes de dados.
A automatização de dados do Amazon Bedrock simplifica os fluxos de trabalho
O Amazon Bedrock Data Automation permite a criação rápida de fluxos de trabalho para processamento inteligente de documentos (IDP), análise de media e RAG. Esta funcionalidade pode extrair e analisar dados multimodais, oferecendo informações como resumos de vídeo, deteção de conteúdos de imagem inadequados e análise automática de documentos.
Processamento de dados multimodais em bases de conhecimento Bedrock
Para suportar aplicações que lidam com dados visuais e de texto, as Bases de Conhecimento Bedrock processam agora dados multimodais. Os utilizadores podem configurar o sistema para analisar documentos utilizando o Bedrock Data Automation ou um modelo de base. Isto melhora a precisão e a relevância das respostas, incorporando informações de texto e imagens.
As barreiras de proteção expandem-se para a deteção multimodal de toxicidade
Outra atualização interessante é a deteção multimodal de toxicidade nos Guardrails de Bedrock. Esta funcionalidade alarga as salvaguardas aos dados de imagem e deverá ajudar as empresas a criar aplicações de IA generativa mais seguras. Impede a interação com conteúdos tóxicos, incluindo ódio, violência e má conduta, e está disponível para todos os modelos Bedrock que suportam dados de imagem.
Aproveitar estas inovações no futuro A palestra do Dr. Swami Sivasubramanian apresentou inúmeros anúncios inovadores que prometem transformar o panorama da IA generativa e da aprendizagem automática. Embora tenhamos destacado algumas das actualizações mais interessantes, há muito mais para explorar. Estas inovações oferecem um potencial incrível para ajudar as empresas a obterem resultados com impacto, a criarem novas oportunidades de receitas e a conseguirem poupanças de custos à escala.
Na Rackspace Technology, estamos entusiasmados em ajudar as organizações a aproveitar esses avanços para otimizar suas estratégias de dados, IA, ML e IA generativa. Visite o nosso perfil Amazon Marketplace para saber mais sobre como o podemos ajudar a desbloquear o futuro da computação em nuvem e da IA.
Para obter informações adicionais, assista a este webinar, Building the Foundation for Generative AI with Governance and LLMOps, que analisa mais de perto as estratégias de governação e a excelência operacional para a IA generativa.
Tags: