LogoSBS

Herramientas para Big Data más utilizadas


¿Qué son y cómo funcionan las herramientas de Big Data?

Spain Business School

jueves, 29 de septiembre de 2016

¿Sabías que al día se generan 2,5 trillones de bytes de datos y que el 90% de los datos que hay en el mundo se han creado tan solo en los últimos dos años? Esta gran cantidad de información es uno de los motivos por los que las empresas tienen que saber adaptarse a los cambios del contexto digital si quieren seguir compitiendo en un mercado en constante cambio. Aquí es donde el Big Data juega un papel muy importante.

El Big Data engloba los procesos de gestión y análisis de grandes volúmenes de datos que no pueden ser tratados de una forma convencional puesto que superan las capacidades de las herramientas tradicionales. Para poder gestionar esta ingesta de datos, las empresas necesitan herramientas que les ayuden a analizarlos.

A continuación, os mostramos algunas de las herramientas para Big Data más utilizadas:

Hadoop

Hadoop es un sistema de código abierto que se usa para almacenar, procesar y analizar grandes volúmenes de datos. Fue creado en 2005 por Mike Cafarella y Doug Cutting y, en su origen, estaba destinado a datos de búsqueda en Internet, pero en la actualidad se ha convertido en un proyecto de código abierto comunitario de Apache Software Foundation que se usa en todo tipo de industrias.

Hadoop almacena toda clase de datos, tanto estructurados como no estructurados o semiestructurados. Según se explica en Microsoft, el éxito de Hadoop se debe en parte a una cuestión económica puesto que tiene la capacidad de abordar petabytes de datos sin que los presupuestos más reducidos supongan un problema. Continúan explicando que hasta un 80% de los datos con los que las organizaciones trabajan hoy en día no vienen perfectamente clasificados en columnas y filas, sino que se trata de una avalancha desordenada de correos electrónicos, fuentes de medios sociales, imágenes de satélites, señales de GPS, registros de servidor y otros archivos no relacionales sin estructurar. El gigante tecnológico explica que una de las ventajas de Hadoop es que puede administrar prácticamente cualquier archivo o formato de manera que las organizaciones pueden plantearse cosas que nunca creyeron posibles.

Spark

Apache Spark fue creado en la Universidad de Berkeley (California) y es considerado el primer software de código abierto que hace la programación distribuida accesible a los científicos de datos. Al igual que Hadoop, Spark pertenece a Apache Software Foundation.

Según explica IBM, Apache Spark es una infraestructura de informática de clúster de código abierto con proceso en memoria para agilizar las aplicaciones de analítica hasta 100 veces más comparado con las tecnologías actuales del mercado. Apache Spark puede reducir la complejidad de la interacción de los datos, aumentar la velocidad de proceso y mejorar las aplicaciones de misión crítica con amplia información útil.

Muchos especialistas en Big Data opinan que Spark es una herramienta más avanzada que Hadoop. De hecho, en 2014, Spark batió el Récord Mundial al clasificar 100 terabytes de datos en tan solo 23 minutos, superando así la marca de Hadoop, que se situaba en los 71 minutos. El motor de procesamiento Spark se ha creado para ofrecer velocidad, facilidad de uso y análisis sofisticados.

Mapreduce

MapReduce de Hadoop es un marco de software para escribir trabajos que procesan enormes cantidades de datos. La entrada de datos se divide en fragmentos independientes que, a continuación, se procesan en paralelo a través de los nodos del clúster. MapReduce se puede implementar en varios lenguajes, siendo Java la implementación más común.

Storm

Apache Storm es un sistema de cálculo de código abierto, distribuido y con tolerancia a errores que permite procesar datos en tiempo real con Hadoop. Las soluciones de Storm pueden proporcionar también procesamiento de datos garantizado, con la posibilidad de reproducir los datos que no se han procesado correctamente la primera vez.

Hive

Apache Hive es un sistema de almacén de datos para Hadoop, que permite realizar resúmenes de datos, consultas y análisis de datos mediante HiveQL (una lenguaje de consultas similar a SQL). Hive se puede usar para explorar los datos de forma interactiva o para crear trabajos de procesamiento por lotes reutilizables.

Hive permite proyectar la estructura del proyecto en datos que en gran medida no están estructurados. Después de definir la estructura, puede usar Hive para consultar esos datos sin conocimiento de Java o MapReduce

Fuente: Microsoft Azure

Si quieres especializarte en el análisis de datos, infórmate sobre el Máster en Analítica Web y Big Data .


 

Enviar noticia por E-mail



Normas de uso
Esta es la opinión de los usuarios, no de SpainBS.com
No está permitido verter comentarios contrarios a las leyes españolas o injuriantes.
Reservado el derecho a eliminar los comentarios que consideremos fuera de tema.
Comentario

© Spain Business School 2014 | www.spainbs.com

Quiénes somos | Contacto | Aviso legal | SiteIndex