Big Data
Todos formamos parte de
ese hiper-crecimiento de los datos.
Nos
encontramos en todas partes con este término, revistas, periódicos, reportajes
y programas y debido al gran avance que existe hoy por hoy en las tecnologías
de la información y las comunicaciones, las organizaciones se han tenido que
enfrentar a nuevos desafíos que les permitan analizar, descubrir y entender más
allá de lo que sus herramientas tradicionales reportan sobre su información, al
mismo tiempo que durante los últimos años el gran crecimiento de las
aplicaciones disponibles en internet (geo-referenciada, redes sociales, entre otros...)
han sido parte importante en las decisiones de negocio de las empresas. El
presente artículo tiene como propósito introducir al lector en el concepto de
Big Data y describir algunas características de los componentes principales que
constituyen una solución de este tipo y que seguiremos escuchándola por todas partes.
¿A qué llamamos Big Data?
En
el siglo 21 recibimos el Big Data es un término común bajo el que se agrupan
toda clase de técnicas de tratamiento de grandes volúmenes de datos, fuera de
los análisis y herramientas clásicas. Este concepto engloba muchas ideas y
aproximaciones, pero todas con un objetivo común: extraer información de valor
de los datos, de forma que pueda ser de ayuda para las decisiones y procesos de
negocio.
El
concepto de Big Data se encuentra muchas veces hermanado con otros términos
como Data Science, Analytics o Data Mining, que expresan igualmente el objetivo
de extraer valor de los datos. Es también conocida la definición de Big Data
como las tres V, que representan el gran volumen de datos que debe ser capaz de
tratar, la velocidad con la que puede procesar esos datos, y la variedad de
formas que pueden tomar los mismos. En ocasiones se hace énfasis en el objetivo
del Big Data añadiendo una cuarta V, la del valor que se obtiene por la
información extraída de los datos.
Todo
proyecto centrado en Big Data se basa en tres capas tecnológicas:
§ Almacenamiento
Los
recursos hardware y software permiten el almacenamiento distribuido y
redundante de los datos, facilitando su acceso y disponibilidad, y evitando los
silos de datos. Responden a dónde tener los datos.
§
Procesamiento
Las
herramientas de procesamiento de los datos dan la base tecnológica para operar
con grandes volúmenes de información batch o flujos rápidos de datos en tiempo
real. Responden a cómo trabajar con los datos.
§
Análisis
Por
último, los algoritmos y métodos realizan el análisis de los datos, produciendo
información de valor para el negocio. Responden a qué hacer con los datos. El
núcleo, experiencia y trayectoria del IIC en estos 25 años ha girado en torno a
la capa de análisis de datos. Haciendo uso de las tecnologías de almacenamiento
y procesamiento existentes, nuestra apuesta de valor es el desarrollo de
algoritmos y técnicas de análisis a medida, de modo que conformen soluciones de
Big Data altamente adaptadas a la problemática de cada cliente.
Nuestra
capacidad de acompañar al cliente durante el desarrollo de una solución
personalizada es nuestro factor distintivo frente a los habituales productos
cerrados de analítica de datos.
¿Cómo
funciona?
Las
soluciones basadas en Big Data tienen como objetivo extraer información de
valor mediante el análisis de grandes conjuntos de datos. Este análisis se
fundamenta en técnicas matemáticas, generalmente basadas en la estadística, y
que provienen de campos diversos como la minería de datos, el aprendizaje
automático, el análisis de series temporales o la investigación operacional.
Mediante
estas técnicas pueden explotarse datos de cualquier naturaleza: bases de datos,
registros numéricos, texto libre, actividad en una red social, audios,
imágenes, vídeos… Mediante los tratamientos adecuados, cualquier tipo de datos
es susceptible de ser analizado. Escenarios donde haya diversidad de datos en
diferentes formatos también podrán tratarse mediante estrategias de integración
de la información, enriqueciendo así la solución. Según
el nivel de valor de la información obtenida pueden distinguirse tres clases de
analítica:
Analítica
descriptiva
Consiste
en almacenar y realizar agregaciones de datos históricos, visualizándolos de
forma que puedan ayudar a la comprensión del estado actual y pasado del
negocio. La analítica descriptiva nos cuenta cómo ha funcionado nuestro negocio
hasta la fecha.
Analítica
predictiva
Se
construye sobre la analítica descriptiva y usa modelos estadísticos avanzados
para añadir a nuestra base de información datos que no conocemos. Esto se
traduce en técnicas como la predicción de valores futuros en series históricas
de precios y demandas, pero también la clasificación automática de textos u operaciones,
o la segmentación de clientes. De esta forma la analítica predictiva nos dice
cómo va a funcionar nuestro negocio.
Analítica
prescriptiva
Supone
el nivel más alto de analítica y explota los niveles anteriores junto con
estrategias de optimización operativa para indicarnos qué acciones de negocio
proporcionarán los mejores resultados. Mediante la analítica prescriptiva
podemos obtener recomendaciones automatizadas sobre el momento idóneo para
ejecutar pedidos, mantenimientos, u otras operaciones cuantificables del
negocio. Con la analítica prescriptiva podemos saber qué debemos hacer para
optimizar nuestro negocio.
Fuente:
https://www.ibm.com/developerworks/ssa/local/im/que-es-big-data/
http://www.afiescueladefinanzas.es/
http://www.iic.uam.es/big-data/
Hasta
la próxima entrega amig@s.
Cordial
saludo,
Elvin
Mendoza
No hay comentarios:
Publicar un comentario