Aunque no existe una definición universalmente aceptada para el término big data, Cambridge Dictionary lo define como «extensos conjuntos de datos, generados por personas al usar internet, que sólo pueden ser almacenados, comprendidos y utilizados con ayuda de métodos y herramientas específicas». En estas herramientas se esconde la razón del por qué el big data no se ha popularizado y difundido hasta hace muy poco tiempo. Técnicas tradicionales de software convencional y gestión de datos no tenían la capacidad de administrar y procesar este volumen de datos debido a la complejidad de su tamaño, su velocidad de movimiento y/o su tipo de estructura.
La visualización ofrecía un desafío interesante para los sistemas informáticos: los conjuntos de datos eran cada vez más grandes, lo que afectaba a las capacidades de la memoria principal, el disco local e incluso el disco remoto. Así que, cuando surgieron las primeras tecnologías de big data, capaces de procesar una cantidad de datos masivos, el acceso a estos recursos era altamente limitado y los precios prohibitivos para la mayoría de las empresas y entidades.
A raíz de la caída en el costo de los discos duros y el auge del almacenamiento en nube, las empresas y entidades podían almacenar cada vez más datos, surgiendo la necesidad de encontrar nuevas formas para poder darles sentido y significado. Esto impulsó el desarrollo de nuevos sistemas, algoritmos y paradigmas informáticos, como la interconexión masiva entre sistemas y dispositivos digitales. El resultado de estos avances de tecnología ha permitido que en la actualidad las empresas puedan almacenar y procesar estos datos a un precio infinitamente más económico y aplicarlos al negocio donde impacta.
Por tanto, big data a día de hoy no se refiere al almacenamiento masivo de datos. Se refiere a la virtud de aprovechar, explotar y procesar toda la información digital disponible generada por humanos y máquinas, para ganar en una economía altamente competitiva. Los volúmenes de información que se almacenan y gestionan hoy en día eran impensables hace una década. ¿Eres consciente de que la capacidad de computación de un iPhone actual es mayor a la de la NASA en 1969 cuando envió el Apolo 11 a la luna? La evolución de los datos está alcanzando un aumento exponencial si se analiza en el contexto de nuestra historia moderna
El problema de esta evolución es que la información consiste en una cantidad de datos masivos generalmente poco estructurados y en cantidades ingentes. Y ahí está el verdadero significado del Big data en el contexto moderno; que sistemas accesibles para empresas de diferentes tamaños e industrias sean capaces de sintetizar estos datos y encontrar patrones repetitivos de donde obtener suficientes conclusiones como para poder tomar decisiones automáticamente en base a ellas. Por tanto, el big data en el contexto de hoy engloba tres grandes actividades:
♠ Adquisición de datos.
♠ Gestión de datos.
♠ Análisis e información.
Las grandes empresas han sido las primeras de la industria en ver la oportunidad que suponía realizar proyectos de big data. El hecho de poder analizar millones de datos de diferentes fuentes digitales, como logs, señales de móvil, encuestas, emails, imágenes digitales redes sociales etc., ha permitido que se extraiga el valor de esta información para responder a preguntas de negocio o tomar decisiones con rapidez, precisión y efectividad. Según el Banco Mundial, con datos de 119 países, un aumento de 10% en la penetración de banda ancha representa 1.21 puntos porcentuales de aumento del PIB para países desarrollados y 1.38 para naciones emergentes. El mundo de las tecnologías de la información supone conocimiento, es básico para cualquier avance que tenga que ver con procesos productivos o industriales.
El big data ha proporcionado a la industria la posibilidad de explotar productivamente una gran cantidad de datos para crear nuevos productos y servicios que se anticipen a la demanda, a través de patrones y predicciones basadas en los datos. Además, sistemas de mantenimiento predictivo, estudios de parámetros de desviación y análisis de las propiedades del producto final mejoran sustancialmente la calidad de los productos.
El big data es una tecnología fundamental para el sector industrial en la Industria 4.0. La inteligencia artificial utilizada por las plantas industriales se nutre de datos y los emplea para desarrollar algoritmos y para constituir la ‘lógica’ de las máquinas. Sólo de esta manera es posible que tengan la autonomía para tareas tan específicas como detectar errores en tiempo real, encontrar puntos de mejora y prever cargas de trabajo, resultando en un sistema de producción más competitivo.
El enorme valor agregado que surge de la Industria 4.0 es que el conjunto de tecnología asociado permite cambios profundos en el modelo de negocio, al modificar y abrir caminos para que las empresas creen y capturen valor y el big data permite que las empresas entiendan y aprendan de grandes cantidades de datos simplificados y convertidos en información relevante y significante para poder tomar decisiones de cara al futuro con mayor exactitud que nunca.