De grandes volúmenes de datos a grandes volúmenes de dinero


De grandes volúmenes de datos a grandes volúmenes de dinero con cómputo en la nube y software de código abierto

Anand Bhadouria
Estratega de TI sénior, Enterprise Cloud Solutions

Resumen ejecutivo

El futuro de su empresa puede estar en riesgo si no comienza a convertir grandes volúmenes de datos en grandes volúmenes de dólares.

Grandes volúmenes de datos significa la abundancia de información digital que se transmite de muchas fuentes, desde medios sociales hasta sensores incorporados. Es demasiado para manejarlo con herramientas tradicionales y está creciendo increíblemente de 40% a 60% por año.

Cualquier empresa se puede beneficiar de los grandes volúmenes de datos. De hecho, la investigación ha demostrado que una típica compañía Fortune 1000 que utilice los datos de una forma un 10% más efectiva puede generar $2 mil millones en ingresos adicionales. En el sector de consumo, los minoristas pueden aumentar los márgenes en un 60%. El sistema de salud de los Estados Unidos puede ahorrar la sorprendente suma de $200 mil millones al año. Con los competidores existentes y nuevos luchando por una posición, todas las empresas deben prestar atención a los grandes volúmenes de datos.

Pero existen importantes desafíos, que incluyen incompatibilidades con infraestructuras existentes, gastos de capital altos y la amenaza de encontrarse atado a un proveedor. Y el desafío aumenta porque la oferta de las habilidades estratégicas necesarias para utilizar grandes volúmenes de datos es escasa.

Para generar resultados rentables con grandes volúmenes de datos, las empresas deben mirar más allá de su estructura de TI, al cómputo en la nube. La nube es perfecta para los grandes volúmenes de datos, con almacenamiento masivo, expansibilidad elástica y facturación con pago por consumo. En lugar de mantener su propia infraestructura costosa, con el cómputo en la nube, paga solo por lo que usa cuando lo necesita.

Al trabajar con un socio tecnológico de eficiencia comprobada, la mayoría de las empresas pueden ahorrar dinero y evitar problemas al buscar convertir grandes volúmenes de datos en grandes volúmenes de dólares. Rackspace es un socio tecnológico ideal, con un amplio portafolio de ofertas, software de código abierto para construir nubes públicas y privadas, y una reputación estelar en servicios profesionales.

¿Qué son los grandes volúmenes de datos?

Grandes volúmenes de datos se refiere a la transmisión continua de información digital que ingresa por muchos canales, lo que incluye:

  • correo electrónico
  • medios sociales
  • contenido generado por el usuario, como fotos y videos
  • transacciones B2B y de clientes
  • celulares con GPS
  • dispositivos móviles
  • registros de sistemas de todo tipo
  • sensores de etiquetas RFID incluidas en diferentes elementos, desde pistas de avión hasta fichas de casino

Estos datos son de un 80 a un 90 por ciento no estructurados, lo que significa que no tienen un formato predecible, como un informe de proforma. Y hay demasiado como para que una empresa lo maneje con las mismas herramientas y experiencia que utiliza para las actividades cotidianas.

Además, los grandes volúmenes de datos son objetivos que se mueven y crecen con rapidez, sin estar sujetos a una cantidad específica de gigabytes o terabytes. A medida que se acumulan más datos en determinado sector, las herramientas se deben expandir para manejarlos, por lo que el objetivo se extiende de forma continua.

Los grandes volúmenes de datos son extensos y siguen creciendo

Hoy, la información fluye sin cesar en todas las direcciones y se acumula más rápido que nunca. Los volúmenes de datos masivos son comunes en la mayoría de las organizaciones, en todos los sectores y todos los países. De hecho, The Economist se refiere a los datos como "la materia prima de los negocios: un recurso económico casi a la altura del capital y la mano de obra".1

La mayoría de las personas están familiarizadas con los megabytes y los gigabytes, pero no con los términos más amplios que se utilizan para describir grandes volúmenes de datos. Los conjuntos de datos ahora se miden en términos de terabytes, petabytes y exabytes: términos exóticos que ni siquiera aparecen en la mayoría de los correctores ortográficos. Ver Tabla 1 para acceder a definiciones y ejemplos que permiten visualizarlos mejor.

Estos términos se han vuelto esenciales, porque la cantidad de información almacenada en el mundo aumenta a un ritmo feroz, de un 40% a un 60% por año, según qué estimaciones se consideren.2

¿En resumen? Los grandes volúmenes de datos están presentes hoy y continuarán creciendo en el futuro inmediato.

Los grandes volúmenes de datos prometen muchos beneficios

Casi cualquier organización de cualquier sector se puede beneficiar con los grandes volúmenes de datos. Los principales minoristas, como Walmart e eBay, utilizan grandes volúmenes de datos obtenidos de transacciones para perfeccionar los motores de búsqueda en línea y alentar a los clientes a comprar más.3 4

Los proveedores de alimentos y bebidas, como la división latinoamericana de Pepsi, combinaron datos de clientes, logística y fabricación para mejorar de forma significativa sus operaciones.5

Incluso las organizaciones sin fines de lucro, como el Hospital de Niños de Los Ángeles, utilizan informática de vanguardia para buscar datos pediátricos y encontrar patrones que ayuden a los médicos a salvar las vidas de los niños.6

Estos ejemplos se encuentran entre los beneficios más prometedores de los grandes volúmenes de datos:

  • Mejor productividad
  • Mayores ganancias
  • Mejor toma de decisiones
  • Productos, servicios y modelos de negocios nuevos e innovadores

"Los grandes volúmenes de datos se solían considerar una herramienta para lograr una ventaja competitiva, pero en el ambiente competitivo actual son fundamentales para la supervivencia", añade Ryan Hawk, vicepresidente de administración de información de Rackspace.

Se han hecho varios intentos de cuantificar estos beneficios. Un estudio de la Universidad de Texas determinó que si una compañía Fortune 1000 promedio aumentaba la facilidad de uso de sus datos en solo un 10%, ganaría un adicional de $55,900 por empleado, o más $2 mil millones por año, en ingresos adicionales.7

El McKinsey Global Institute afirma que los minoristas podrían aumentar sus márgenes en un 60% si obtuvieran más valor de sus grandes volúmenes de datos. Y el sistema de salud de los Estados Unidos podría ahorrar una sorprendente suma de $200 mil millones por año.8

Por otro lado, hay compañías que ignoran que los grandes volúmenes de datos son vulnerables a los competidores. Si no se tiene en cuenta esto, se corre el riesgo de quedar atrás frente a competidores más hábiles. O, como Forrester comenta en un informe reciente, "El futuro de su compañía depende de utilizar más datos de forma efectiva".9

Algunos sectores clave que están posicionados para beneficiarse ampliamente de los grandes volúmenes de datos incluyen computación y artículos electrónicos, entretenimiento y medios, finanzas, cuidado de la salud, servicios de información, seguros, ventas minoristas y todos los niveles del gobierno. Todos estos sectores generan una gran cantidad de datos que se pueden extraer para analizar o reutilizar en nuevos modelos de negocios.

Más allá de estos, las empresas de todos los sectores se pueden beneficiar en las áreas de mercadotecnia, desarrollo de productos y servicio al cliente. Con tanto por ganar, toda organización del mundo necesita tomar los grandes volúmenes de datos con seriedad.

Pero utilizar grandes volúmenes de datos es un desafío

En general, se espera que los equipos administrativos "hagan más con menos". Pero, en este caso, se les pide que "hagan más con más"... más datos. Para generar perspectivas útiles, se deben adquirir, almacenar y analizar grandes volúmenes de datos de manera útil y rentable.

Pero el uso de grandes volúmenes de datos puede tener muchos desafíos, como los siguientes:

  • La infraestructura existente no puede manejar grandes volúmenes de datos
  • Costos de capital más altos (CapEx)
  • Costos de recursos no estratégicos más altos
  • Atadura a un proveedor, lo que limita las opciones

La infraestructura existente no puede manejar grandes volúmenes de datos

Dado que los grandes volúmenes de datos son menos estructurados que la información almacenada en un sistema CRM or ERP cualquiera, las bases de datos y plataformas analíticas tradicionales no pueden manejarlos. De hecho, los grandes volúmenes de datos son un terreno sin explorar que extenderá la infraestructura de TI de cualquier compañía.

"La captura, filtro, almacenamiento y análisis de grandes volúmenes de datos puede sobrecargar las redes, matrices de almacenamiento y plataformas de bases de datos relacionales tradicionales", de acuerdo con un artículo reciente de MIT Sloan. "Los intentos de replicar y expandir la tecnología existente no estarán a la altura de las demandas de grandes volúmenes de datos".10

Gastos de capital más altos

Si un equipo de TI trata de manejar grandes volúmenes de datos sin repensar su infraestructura interna existente, esto significará, con frecuencia, comprar discos y discos para distribuir los datos en crecimiento, y añadir servidores para picos ocasionales de demanda de procesamiento. Todo esto puede generar gastos de capital altísimos e impredecibles, o CapEx, que la mayoría de los CFO desean evitar, en especial en datos con crecimiento rápido.

Costos de recursos no estratégicos más altos

Cuantos más servidores y unidades de almacenamiento se integren, más personal de TI se necesitará. Estos recursos añadidos ocupan papeles no estratégicos para no mucho más que la rutina de mantenimiento, o solo "mantener las luces encendidas". No contribuirán con el tipo de perspectivas estratégicas que podrían proporcionar los analistas de grandes volúmenes de datos.

Estar atado a un proveedor limita las opciones

El problema de estar a un proveedor puede surgir como resultado de la compra de hardware o software que no funcionan con otros productos. Esto limita las opciones futuras de actualizar la infraestructura o cambiar de proveedor.

Cuando se encuentra atado a un proveedor, debe seguir comprándole a este, incluso aunque no vea un rendimiento de la inversión aceptable con sus productos. Se encuentra atrapado en un círculo vicioso.

"Los sistemas heredados y los formatos y normas incompatibles con mucha frecuencia evitan la integración de datos y los elementos analíticos más sofisticados que crean valor con los grandes volúmenes de datos", explica McKinsey.11

En el peor de los casos, una empresa puede estar atada a una infraestructura costosa e inflexible que no es compatible con las herramientas analíticas necesarias para profundizar en los grandes volúmenes de datos de la compañía.

Déficit de habilidades especializadas

Otro gran desafío es el déficit de personas que pueden ayudar a las empresas a aprovechar los grandes volúmenes de datos. Esta nueva tendencia aumenta la demanda de ciertas habilidades, como adquisición de datos, análisis y visualización. Cualquiera que tenga estas habilidades puede ocupar uno de los principales papeles actuales en TI: el del científico de datos.

Estos son los responsables de responder las preguntas indispensables, como "¿Quiénes son nuestros clientes?", "¿Por qué nos compran?" y "Cómo hacemos para que gasten más y con más frecuencia?".

Así como el Sr. Spock en la Star Trek original, este papel es "una combinación entre hacker de datos, analista, comunicador y asesor de confianza", de acuerdo con el Harvard Business Journal, que lo llama "el empleo más atractivo del siglo 21". Pero dado que los científicos de datos son los participantes clave en los grandes volúmenes de datos, el déficit de estos se está convirtiendo en "una limitación grave" y "la competencia por obtener gran talento será feroz".12

Para 2015, la demanda de grandes volúmenes de datos alcanzará los 4.4 millones de empleos a nivel global, pero solo un tercio de esos puestos se ocupará, afirma Gartner.13 ¿El motivo? Las universidades no pueden brindarles a los graduados las habilidades que se requieren con la velocidad necesaria. Las empresas tendrán que pagar altas sumas para contratar empleados entre el pequeño grupo de científicos de datos capacitados, además de ofrecer incentivos, como bonos y acciones.

Por todos estos motivos, el equipo el TI y la infraestructura actual pueden no estar bien preparados para manejar proyectos con grandes volúmenes de datos. El equipo de administración debe mirar más allá de la situación actual para lograr una solución más efectiva.

La solución: trasladar los grandes volúmenes de datos a la nube...

Para obtener el mayor valor de los grandes volúmenes de datos al menor costo posible y superar las limitaciones de las TI internas, muchas empresas están acudiendo a la nube.

"El cómputo en la nube es adecuado para los grandes volúmenes de datos", explica MIT Sloan, dado que la nube satisface la necesidad de almacenamiento masivo rentable, expansibilidad elástica y precios de pago por consumo.14

Por ejemplo, una compañía puede necesitar más recursos informáticos para manejar el análisis de grandes volúmenes de datos en un cronograma impredecible. La nube proporciona un modo simple y asequible de utilizar tantos servidores adicionales como sea necesario, liberarlos en cuanto el trabajo esté completo y pagar solo por el tiempo en que se utilizaron.

La mayoría de los CFO consideran que la facturación de servicios para el cómputo en la nube, que se paga a través de los presupuestos operativos u OpEx, es mejor para el balance general de la compañía. Esto significa que la nube puede proporcionar lo mejor de ambos mundos: mejores servicios y mejores resultados.

El investigador de Forrester, Holger Kisker, nombró recientemente tres razones clave por la que es conveniente utilizar la nube para grandes volúmenes de datos:

  1. Los grandes volúmenes de datos requieren un espectro de tecnologías, habilidades e inversiones avanzadas. ¿Realmente quiere todo esto a nivel interno?
  2. Los grandes volúmenes de datos incluyen grandes cantidades de datos externos. ¿Tiene sentido trasladar y manejar todos estos datos bajo su firewall?
  3. Los grandes volúmenes de datos requieren muchos servicios de datos. ¿Por qué no concentrarse en el valor del análisis, en lugar de solo manejar los datos?15

Por todos estos motivos, trasladar sus proyectos de grandes volúmenes de datos a la nube tiene mucho sentido.

... y utilizar software de código abierto

Esta es la decisión fundamental que hay que tomar al trasladarse a la nube: ¿la empresa debe usar software comercial de propiedad privada o de código abierto?

La mayor parte de la Web y la nube ya funcionan a la perfección con software de código abierto, como la pila LAMP (un acrónimo de Linux, Apache, MySQL y Perl). La herramienta más popular para el manejo de grandes volúmenes de datos, Hadoop, es un software de código abierto galardonado.

Para una mayor flexibilidad y rentabilidad en la nube, cientos de empresas están acudiendo a un software de código abierto llamado OpenStack®.Es un conjunto de herramientas de software flexibles y rentables que permiten construir nubes privadas y públicas de forma más rápida y sencilla. Dado que es de código abierto —disponible bajo la licencia Apache 2.0—, se puede adquirir sin cargo y sin riesgos de estar atado al proveedor.

¿Qué es OpenStack?

OpenStack es un sistema operativo abierto y escalable para la creación de nubes públicas y privadas. Brinda una alternativa a los ambientes de nube cerrada para las organizaciones grandes y pequeñas, lo que reduce los riesgos de ataduras asociados con plataformas de propiedad privada. OpenStack ofrece flexibilidad y opciones a través de una comunidad altamente comprometida de más de 6,000 individuos y más de 190 compañías.

Rackspace ofrece una amplia gama de productos y servicios para las plataformas de nube impulsadas por OpenStack.

  • Plataforma de cómputo en la nube poderosa y escalable
  • Nube privada en cualquier sitio: en su centro de datos o el nuestro
  • Capacitación práctica para que pueda manejar sus propias nubes impulsadas por OpenStack

Encontrar un socio que ayude

Las empresas necesitan un socio tecnológico que las ayude a convertir los grandes volúmenes de datos en una gran oportunidad. Con tanto en juego -—incluso la supervivencia de la compañía—, ¿qué debe buscar una empresa en un socio?

Tiene sentido buscar un socio que pueda ofrecer una vasta experiencia en cómputo en la nube, una amplia gama de software de código abierto, un compromiso demostrado hacia el servicio técnico y experiencia en servicios profesionales. Es imperativo que el socio no solo pueda diseñar y ejecutar un ambiente arquitectónico optimizado, sino que también tenga acceso a la experiencia necesaria para el análisis de grandes volúmenes de datos.

Los presupuestos de TI y las tecnologías internas no serán suficientes para manejar la infraestructura y los recursos humanos necesarios para los grandes volúmenes de datos actuales y futuros. Por esto, el camino lógico para dominar los grandes volúmenes de datos es aprovechar los beneficios del cómputo en la nube y encontrar el software y la experiencia adecuados para obtener perspectivas sobre petabytes de datos y ponerlas en acción. Rackspace es adecuado para asociarse con empresas y garantizar que tengan los medios para aprovechar el gran conocimiento de sus datos y evitar la sobrecarga en presupuestos y experiencia escasos.

La organización Rackspace's Enterprise Cloud Solutions, con su equipo de estrategas de TI sénior y arquitectos de soluciones de nube, es un líder reconocido en todas estas áreas, y la alineación estratégica de Rackspace con Hortonworks, líder en desarrollo, implementación, servicio técnico, operaciones y capacitación de Apache Hadoop, proporciona a los clientes una plataforma de Hadoop lista para la empresa y fácil de usar en la nube. Juntos, Rackspace y Hortonworks se centran en eliminar las complejidades y los extensos procesos manuales necesarios para la implementación de soluciones de grandes volúmenes de datos. El esfuerzo compartido busca una solución de Hadoop basada en OpenStack para nube pública y privada, que se puede implementar fácilmente en minutos. Las soluciones de nube privada se encuentran disponibles con una solución de nube pública que se lanzará pronto.

Deje que el equipo de expertos en soluciones de nube para empresas de Rackspace le enseñe cómo la tecnología puede ayudar a calcular, clasificar y utilizar grandes volúmenes de datos, de manera que resulte valioso para su empresa.

Programe su Advisory Services: taller de evolución de TI de cortesía hoy. Juntos, definiremos cómo una solución de grandes volúmenes de datos puede fortalecer su negocio, construir un ambiente optimizado y crear una hoja de ruta aplicable para alcanzar sus objetivos.

Contáctenos al 1-800-440-1249 o envíenos un correo electrónico a advisory_services@rackspace.com.

Notas

1 "Data, data everywhere", The Economist, 25 de febrero de 2010
2 Las diferentes fuentes calculan el crecimiento de los grandes volúmenes de datos de diferentes maneras. The Economist y varios analistas dicen que la información digital aumenta 10 veces cada cinco años, lo que equivale a un crecimiento anual del 60%. IBM afirma que los datos están creciendo un 50% por año. IDC predice que el universo digital crecerá más de un 45% entre 2010 y 2015, mientras que las ventas de tecnología relacionada crecerán un 40% al año.
3 "Report: Wal-Mart's Big Data Moves Will Boost Rackspace", Data Center Knowledge, 22 de octubre de 2012
4 "How Ebay uses big data to make you buy more", zDNet, 20 de octubre de 2012.
5 "How Big Data Came to pepsiCo", Forbes, 12 de diciembre de 2012.
6 "Using big data to save lives", phys.org - Computer Sciences, 22 de octubre de 2012.
7 "Measuring the Business impacts of Effective Data, chapter 1", Universidad de Texas, septiembre de 2010, pág. 3
8 James Manyika et al, "Big Data: The next frontier for innovation, competition, and productivity", Mckinsey Global Institute, mayo de 2011, págs. 64 y 39
9 Brian Hopkins y Boris Evelson, "Expand Your Digital Horizon With Big Data", Forrester, 30 de septiembre de 2011, pág. 2
10 Thomas Davenport, Paul Barth y Randy Bean, "How 'Big Data' is Different", MiT Sloan Management Review, 30 de julio de 2012
11 James Manyika et al, "Big Data: The next frontier for innovation, competition, and productivity", Mckinsey Global Institute, mayo de 2011, pág. 12
12 Thomas H. Davenport y D. J. patil, "Data Scientist: The Sexiest Job of the 21st Century", Harvard Business Review, octubre de 2012
13 "Gartner reveals Top predictions for iT organizations and Users for 2013 and Beyond", Press Release, Gartner, 24 de octubre de 2012
14 Thomas Davenport, Paul Barth y Randy Bean, "How 'Big Data' is Different", MiT Sloan Management Review, 30 de julio de 2012
15 Holger kisker, "Big Data Meets Cloud", para el blog Chief Information Officers Forrester, 15 de agosto de 2012



¿Este contenido fue útil?




© 2014 Rackspace US, Inc.

Excepto cuando se indique lo contrario, el contenido de este sitio está bajo una licencia Creative Commons Attribution-NonCommercial-NoDerivs 3.0 Unported License


Ver especificaciones de licencia y DESCARGO DE RESPONSABILIDAD