Aspectos destacados de la conferencia magistral de Swami Sivasubramanian en AWS re:Invent 2023
by Masoom Tulsiani, AWS Cloud Architect, EMEA Professional Services, Rackspace Technology


Recent Posts
Fomentar el liderazgo con la Academia de liderazgo fanático de la Universidad Rackspace
Febrero 28th, 2025
Desbloquear la agilidad: Por qué la nube híbrida es la nueva normalidad
Febrero 5th, 2025
El impacto de la IA en el sector BFSI | Rackspace Technology
Enero 27th, 2025
Related Posts
Culture & Talent
Fomentar el liderazgo con la Academia de liderazgo fanático de la Universidad Rackspace
Febrero 28th, 2025
Cloud Insights
Desbloquear la agilidad: Por qué la nube híbrida es la nueva normalidad
Febrero 5th, 2025
AI Insights
El impacto de la IA en el sector BFSI | Rackspace Technology
Enero 27th, 2025
Cloud Insights
Principales ponencias del Dr. Werner Vogels: Gestionar la complejidad con sencillez
Diciembre 6th, 2024
Cloud Insights
El poder de las asociaciones: Ponencia de la Dra. Ruba Borno para socios de AWS re:Invent 2024
Diciembre 5th, 2024
El arquitecto de la nube de AWS comparte los aspectos más destacados de lo que aprendió en el evento AWS re:Invent 2023: desde la generación de imágenes de IA hasta la búsqueda multimodal y la seguridad de los datos.
La relación simbólica entre los seres humanos y la IA es similar a la relación simbólica entre las rémoras y las mantarrayas, según Swami Sivasubramanian, Vicepresidente de Bases de Datos, Análisis y Aprendizaje Automático de AWS. Pronunció un discurso de apertura en AWS re:Invent 2023 en Las Vegas en noviembre.
Para los que no estén familiarizados, las rémoras se aferran a las mantarrayas para protegerse, transportarse y comer los restos de sus comidas. Las rémoras se benefician de las mantas al limpiar su piel de bacterias y parásitos.
La sesión de Sivasubramanian comenzó con la presentación por parte de Amazon Web Services (AWS) de su Infraestructura de Aprendizaje Automático de AWS, incluyendo su pila y capas de computación de datos. AWS ahora admite los últimos modelos de Ai21 Jurassic-2, Anthropic, Cohere, Meta y Stability AI, así como adiciones a los modelos de Amazon Titan, los modelos elegidos por muchas organizaciones.
Los asistentes también se enteraron de que:
- Gestionar infraestructuras rentables sigue siendo un reto
- Los datos siguen siendo un factor diferenciador para las organizaciones
- El éxito de las aplicaciones de IA generativa dependerá de la eficacia con que las empresas puedan entrenar sus modelos lingüísticos
Seis puntos clave
Entre los numerosos anuncios realizados a lo largo del acto, seis fueron los más destacados:
- Amazon Titan generación de imágenes en Amazon Bedrock: Ahora, los usuarios de AWS pueden generar imágenes realistas con calidad de estudio en grandes volúmenes y a bajo costo utilizando indicaciones en lenguaje natural en Amazon Bedrock. Además, el Centro de Innovación de IA Generativa de AWS ofrecerá certificaciones de IA y ayudará a los clientes con sus aplicaciones de IA generativa de Bedrock.
- Los modelos Claude 2.1 de Anthropic y Llama 2 70B de Meta: Ambos están ya disponibles en Amazon Bedrock y son adecuados para tareas a gran escala, como el modelado del lenguaje, la generación de textos y los sistemas de diálogo. Claude 2.1 ofrece una ventana contextual de 200.000 tokens y una mayor precisión en documentos largos.
- Amazon Titan Multimodal Embeddings: Permite a las organizaciones crear experiencias de búsqueda multimodal y recomendación inteligente más precisas y contextualmente relevantes. El modelo convierte imágenes y textos breves en incrustaciones, representaciones numéricas que permiten al modelo comprender fácilmente los significados semánticos y las relaciones entre los datos. Se almacenan en la base de datos de vectores del cliente.Más información sobre esta innovación aquí.
- Amazon SageMaker HyperPod: Ayuda a reducir el tiempo de entrenamiento de los modelos de fundamentos (FM) proporcionando una infraestructura especialmente diseñada para el entrenamiento distribuido a escala, ayudando a reducir el tiempo que se tarda en entrenar los modelos hasta en un 40%.
- Evaluación de modelos en Amazon Bedrock: Facilita el acceso a conjuntos de datos curados y métricas predefinidas para evaluaciones automáticas, ayudando a evaluar, comparar y seleccionar los mejores modelos de base para casos de uso de IA.
- AWS Clean Rooms ML: Ayuda a los usuarios a aplicar modelos de aprendizaje automático para generar perspectivas predictivas sin compartir los datos sin procesar subyacentes. También especifica conjuntos de datos de entrenamiento utilizando el catálogo de datos de AWS Glue.
Sivasubramanian hizo una demostración de la función de edición de modelos utilizando la zona de reproducción de imágenes de Amazon Bedrock con el generador de imágenes de Amazon Titan. Generaba variaciones de fondo mediante avisos y funciones increíbles de generación de imágenes.
Servicios de bases de datos y análisis
Los asistentes también escucharon con entusiasmo los siguientes anuncios de Sivasubramanian sobre datos y análisis:
- Análisis de Amazon Neptune: Un motor de base de datos analítica que puede ayudar a obtener información analizando decenas de miles de millones de conexiones en segundos con algoritmos de gráficos integrados, lo que permite realizar búsquedas vectoriales más rápidas tanto con gráficos como con datos.
- Amazon Q SQL generativo para Amazon Redshift Serverless: Permite a los equipos de ingeniería de datos acelerar la creación de canalizaciones de datos. Q puede escribir consultas SQL más rápidamente utilizando lenguaje natural y ayudar a simplificar el proceso para trabajos ETL personalizados.
- Motor vectorial Amazon OpenSearch Serverless: Esto permitirá realizar búsquedas y procesos más eficientes.
- Capacidades vectoriales de base de datos de Amazon DocumentDB y Amazon DynamoDB: Próximamente para permitir a los usuarios almacenar múltiples tipos de datos juntos.
- Amazon MemoryDB para Redis: Esto soportará la búsqueda vectorial, lo que conducirá a tiempos de respuesta más rápidos y permitirá decenas de miles de consultas por segundo. Es una aplicación útil, en particular, para la detección del fraude en los servicios financieros.
- Bases de datos como MongoDB y almacenes de valores clave como Redis: Estos estarán disponibles como base de conocimientos en Amazon Bedrock.
- Integración de datos de Amazon Q : Estará disponible en AWS Glue.
Los socios de AWS comparten sus conocimientos sobre IA
Los asistentes también pudieron conocer casos de uso reales de socios como Booking.com e Intuit. Rob Francis, CTO de Booking.com, habló de cómo la empresa construyó su aplicación AI Trip Planner alojando Llama 2.0 y utilizando Amazon Sagemaker. Los componentes clave de su API de recomendación utilizan Amazon Bedrock y Titan.
Nhung Ho, vicepresidente de IA en Intuit, compartió su experiencia en la creación de una herramienta llamada GenX para desplegar experiencias generativas de IA con la ayuda de una arquitectura escalable basada en SageMaker, Bedrock y Redshift. Su equipo también creó Intuit Assist, que utiliza modelos financieros de lenguaje amplio (LLM) para ofrecer información sobre temas como las finanzas personales.
Para terminar, es importante mencionar que, para sacar el máximo partido de la IA generativa, Sivasubramanian hizo hincapié en la importancia de contar con una base de datos sólida que incluya la seguridad de los datos. Esto es especialmente importante porque todos estamos experimentando una explosión de datos. AWS piensa en ello con cada innovación. Por ejemplo, las imágenes generadas por Titán llevan marcas de agua para ayudar a reducir la difusión de información errónea.
Tags: