Los artículos más leidos
- ¿Cuál es la diferencia entre CAPEX y OPEX?
- ¿Para que sirve el Big Data en mi empresa?
- La razón de ser de esta web
- Los países que leen latecnologiamegusta.com
- ¿Qué es un WAF? - Web Application Firewall
- Diferencia entre Housing y Hosting
- ¿Que es un Data Center Tier IV?
- Diferencia entre SAN y NAS
- Tienda Online
- ¿Cuál es la diferencia entre un CRM y un ERP?
Mapa del sitio
Big Data
Hadoop es una iniciativa de software libre bajo el paragua de Apache que permite el procesamiento de datos de manera distribuida.
Se procesa una gran cantidad de datos a la vez, lo que le hace especialmente interesante para el Big Data. Yahoo lo utiliza para procesar los datos de sus búsquedas. También lo utilizan las redes sociales como Tuenti, Twitter Linkedin y Facebook.
La idea principal de Hadoop, como dice su fundador, Doug Cutting, es que los datos no 'viajen' a la unidad de procesamiento sino al revés: el procesamiento de los datos viaje a las unidades de almacenamiento.
Funciona de la siguiente manera:
Los datos se dividen en bloques replicados que se reparten en un conjunto de unidades de almacenamiento. En cada unidad de almacenamiento se ejecuta una tarea sencilla de análisis de los datos (por ejemplo, contar la aparición de una secuencia - mapeo). Estos datos se consolidan en un almacenamiento intermedio (en nuestro ejemplo, suma de las apariciones iguales - reducción); lo que produce un resultado explotable en una Base de Datos convencional.
Hadoop es la herramienta que permite gestionar el estructura distribuida de los datos y su procesamiento.
Escribir comentario (0 Comentarios)