• Document: Reduce, NoSQL), Análisis de datos (Spark, Splunk)
  • Size: 6.26 MB
  • Uploaded: 2018-10-12 15:56:47
  • Status: Successfully converted


Some snippets from your converted document:

Big Data: Fundamentos, Estrategias, Gestión de datos (Hadoop, Map/Reduce, NoSQL), Análisis de datos (Spark, Splunk) Jose Aguilar CEMISID, Escuela de Sistemas Facultad de Ingeniería Universidad de Los Andes Mérida, Venezuela Big Data Muchos datos se están recogiendo y almacenando • Datos de la Web, comercio electrónico • compras en almacenes/tiendas • Bancos • Redes Sociales Big Data • Google procesaba 20 PB al día (2008) • Facebook tenía 2.5 PB de datos de usuario y procesaba 50 TB/día (2009) • eBay tenía 6.5 PB de datos de usuario (5/2009) Large Hydron Collider del CERN (LHC) generaba 15 PB al año 640K debe ser suficiente para todos. Explosión de Datos Air Bus A380 -1 billon de código - cada motor genera 10 TB c/30 min 640TB por vuelo Twitter generaba aproxim. 12 TB de datos/día New York Stock intercambiaba 1TB de datos/día Capacidad de almacenamiento se ha duplicado aproximadamente cada tres años desde la década de 1980 Explosión de Datos Ciencia • Bases de datos de astronomía, genoma, datos medioambientales, datos de transporte, ... Humanidades y Ciencias Sociales • Libros escaneados, documentos históricos, datos de las interacciones sociales, las nuevas tecnologías como el GPS ... Comercio y Negocios • Las ventas corporativas, transacciones del mercado de valores, el tráfico aéreo, ... Entretenimiento • Imágenes de Internet, películas de Hollywood, archivos MP3, ... Medicina • Resonancia magnética y tomografías computarizadas, registros de pacientes, ... Big Data “Volumen masivo de datos, tanto estructurados como no- estructurados, los cuales son demasiado grandes y difíciles de procesar con las bases de datos y el software tradicionales" (ONU, 2012) Big Data Los grandes datos permiten una mayor inteligencia de negocios mediante el almacenamiento, el procesamiento y el análisis de datos que se ha ignorado con anterioridad debido a las limitaciones de las tecnologías tradicionales de gestión de datos Source: Harness the Power of Big Data: The IBM Big Data Platform Big Data: Nueva Era de la Analítica 12+ terabytes 5+ million de Tweets eventos comerciales por por día segundo. Volumen Velocidad Variedad Veracidad 100’s Solo 1 de 3 de diferente tomadores de decisiones tipos de datos. confían en su información. 4 Características de Big Data Eficiente procesamiento En respuesta a la Analizar la amplia cada vez mayor de creciente Velocidad Variedad grandes Volumenes 30 50x 35 ZB Billones sensores 80% e los RFID , etc. datos del mundo es no 2010 2020 estructurado Establecer la 1 de 3 líderes de negocios no confían Veracidad de las en la información que utilizan para fuentes de datos tomar decisiones grandes Las cuatro dimensiones de Big Data Volumen: • Hoy en día, se estima que estamos produciendo 2,5 trillones de bytes de datos por día. Para darse cuenta de lo mucho que esto es, pensar que un trillón es un millón de millones de personas. • La velocidad a la que se produce de datos está en constante aumento. • Se estima que más del 90% de los datos que hemos generados y recogidos hasta el momento se ha producido en los últimos 2 años. • Aproximadamente el 90% es no estructurado, es decir, procedentes de fuentes que no son las bases de datos convencionales. • Se producen a un ritmo que nunca han visto antes. Por ejemplo, en 60 segundos hay más de 80 mil publicaciones en el muro en Facebook, 370 miles de llamadas de Skype, alrededor de 100 miles de tweets y más de 170 millones de mensajes de correo electrónico enviados. Las cuatro dimensiones de Big Data Volumen: • Los datos de interés que se producen no sólo son de naturaleza electrónica o social de la red, pueden ser de todos los aspectos de la actividad humana: Teléfonos que se compran, las transferencias de dinero, el paso de las

Recently converted files (publicly available):