Destaques da apresentação de Swami Sivasubramanian no AWS re:Invent 2023
by Masoom Tulsiani, AWS Cloud Architect, EMEA Professional Services, Rackspace Technology


Recent Posts
Acelere sua jornada na nuvem com os pods dedicados da Rackspace Elastic Engineering
Junho 12th, 2025
Porque é que a tecnologia de nuvem é essencial para as operações dos cuidados de saúde modernos
Junho 11th, 2025
Conformidade baseada em IA: Desbloquear a eficiência e melhorar a segurança na nuvem, inclusive para CMMC
Junho 9th, 2025
Related Posts
Products
Acelere sua jornada na nuvem com os pods dedicados da Rackspace Elastic Engineering
Junho 12th, 2025
Cloud Insights
Porque é que a tecnologia de nuvem é essencial para as operações dos cuidados de saúde modernos
Junho 11th, 2025
Cloud Insights
Conformidade baseada em IA: Desbloquear a eficiência e melhorar a segurança na nuvem, inclusive para CMMC
Junho 9th, 2025
Cloud Insights
CDOs: A IA, a colaboração entre equipas e a governação de dados são fundamentais para o sucesso dos dados
Maio 27th, 2025
Cloud Insights
Reforçar os cuidados aos doentes através de uma segurança de nuvem resiliente
Maio 20th, 2025
O AWS Cloud Architect partilha os destaques do que aprendeu no evento AWS re:Invent 2023 - desde a geração de imagens com IA à pesquisa multimodal e à segurança de dados.
A relação simbólica entre os seres humanos e a IA é semelhante à relação simbólica entre as remoras e as raias manta, de acordo com Swami Sivasubramanian, Vice-Presidente de Base de Dados, Análise e Aprendizagem Automática da AWS. Ele fez um discurso de abertura no AWS re:Invent 2023 em Las Vegas em novembro.
Para quem não conhece, as rémoras agarram-se às jamantas para se protegerem, para se transportarem e para comerem os restos das refeições das jamantas. As rémoras beneficiam das arraias-manta ao limparem a sua pele de bactérias e parasitas.
A sessão de Sivasubramanian começou com a Amazon Web Services (AWS) a apresentar a sua infraestrutura de aprendizagem automática da AWS, incluindo a sua pilha e camadas de computação de dados. A AWS suporta agora os modelos mais recentes da Ai21 Jurassic-2, Anthropic, Cohere, Meta e Stability AI, bem como adições aos modelos Amazon Titan - os modelos de eleição para muitas organizações.
Os participantes também ficaram a saber que:
- Gerir infra-estruturas rentáveis continua a ser um desafio
- Os dados continuam a ser um fator de diferenciação para as organizações
- O sucesso das aplicações de IA generativa dependerá da eficácia com que as empresas conseguirem treinar os seus modelos linguísticos
Seis destaques principais
Entre os muitos anúncios feitos durante o evento, seis destaques principais roubaram a cena:
- Amazon Titan geração de imagens em Amazon Bedrock: Agora, os utilizadores do AWS podem gerar imagens realistas, com qualidade de estúdio, em grande volume e a baixo custo, utilizando avisos de linguagem natural no Amazon Bedrock. Além disso, o Centro de Inovação de IA generativa da AWS fornecerá certificações de IA e ajudará os clientes com as suas aplicações de IA generativa Bedrock.
- Os modelos Claude 2.1 da Anthropic e Llama 2 70B da Meta: Ambos estão agora disponíveis no Amazon Bedrock e são adequados para tarefas de grande escala, como modelação de linguagem, geração de texto e sistemas de diálogo. O Claude 2.1 oferece uma janela de contexto de 200K tokens e uma precisão melhorada em documentos longos.
- Amazon Titan Multimodal Embeddings: Permite que as organizações criem experiências de pesquisa multimodal e de recomendação inteligente mais precisas e contextualmente relevantes. O modelo converte imagens e textos curtos em embeddings - representações numéricas que permitem ao modelo compreender facilmente os significados semânticos e as relações entre os dados. Estes são armazenados na base de dados de vectores de um cliente.Leia mais sobre esta inovação aqui.
- Amazon SageMaker HyperPod: Ajuda a reduzir o tempo de formação de modelos de base (FMs), fornecendo uma infraestrutura específica para formação distribuída em escala, ajudando a reduzir o tempo necessário para formar modelos até 40%.
- Avaliação de modelos no Amazon Bedrock: Facilita o acesso a conjuntos de dados com curadoria e métricas predefinidas para avaliações automáticas, ajudando a avaliar, comparar e selecionar os melhores modelos de base para casos de utilização de IA.
- AWS Clean Rooms ML: Ajuda os utilizadores a aplicar modelos de aprendizagem automática para gerar conhecimentos preditivos sem partilhar dados brutos subjacentes. Também especifica conjuntos de dados de treinamento usando o AWS Glue Data Catalog.
Sivasubramanian fez uma demonstração da funcionalidade de edição de modelos utilizando o parque de imagens Amazon Bedrock com o gerador de imagens Amazon Titan. Gerou variações de fundo através de avisos e de incríveis funcionalidades de geração de imagens.
Serviços de bases de dados e de análise
Os participantes também ficaram entusiasmados com os seguintes anúncios de Sivasubramanian sobre dados e análises:
- Amazon Neptune analytics: Um motor de base de dados analítica que pode ajudar a obter informações através da análise de dezenas de milhares de milhões de ligações em segundos com algoritmos de gráficos integrados, permitindo pesquisas vectoriais mais rápidas com gráficos e dados.
- Amazon Q SQL generativo para Amazon Redshift Serverless: Permite que as equipas de engenharia de dados acelerem a construção de pipelines de dados. Q pode escrever consultas SQL mais rapidamente utilizando linguagem natural e ajudar a simplificar o processo para trabalhos ETL personalizados.
- Motor de vectores sem servidor Amazon OpenSearch: Isto conduzirá a pesquisas e processos mais eficientes.
- Capacidades de vectorização de bases de dados Amazon DocumentDB e Amazon DynamoDB: Brevemente, para permitir aos utilizadores armazenar vários tipos de dados em conjunto.
- Amazon MemoryDB para Redis: Esta solução suportará a pesquisa vetorial, conduzindo a tempos de resposta mais rápidos e permitindo dezenas de milhares de consultas por segundo. Trata-se de uma aplicação útil, em particular, para a deteção de fraudes nos serviços financeiros.
- Bases de dados como o MongoDB e armazenamentos de valores chave como o Redis: Estes estarão disponíveis como uma base de conhecimento no Amazon Bedrock.
- Amazon Q integração de dados: Estará disponível no AWS Glue.
Parceiros da AWS partilham conhecimentos sobre IA
Os participantes também tiveram acesso a casos de utilização reais de parceiros como a Booking.com e a Intuit. Rob Francis, CTO da Booking.com, discutiu como a empresa criou a sua aplicação AI Trip Planner alojando o Llama 2.0 e utilizando o Amazon Sagemaker. Os principais componentes da sua API de recomendação utilizam o Amazon Bedrock e o Titan.
Nhung Ho, vice-presidente de IA da Intuit, compartilhou insights sobre sua experiência na construção de uma ferramenta chamada GenX para implantar experiências de IA generativas com a ajuda de uma arquitetura escalonável construída em SageMaker, Bedrock e Redshift. A sua equipa também criou o Intuit Assist, que utiliza modelos financeiros de grande linguagem (LLM) para fornecer informações sobre tópicos como finanças pessoais.
Para concluir, é importante mencionar que, para tirar o máximo proveito da IA generativa, Sivasubramanian enfatizou a importância de ter uma base de dados sólida que inclua a segurança dos dados. Isto é particularmente importante porque estamos a viver uma explosão de dados. A AWS está a pensar nisto com cada inovação. Por exemplo, as imagens geradas pelo Titan têm marcas de água para ajudar a reduzir a propagação de desinformação.
Tags: