Qué es Big Data Analytics

Compártelo
Qué es Big Data Analytics

El aumento de la digitalización en las últimas décadas ha llevado a empresas e instituciones públicas a generar y almacenar grandes cantidades de datos. La explosión de datos digitales es particularmente evidente cuando uno se da cuenta de que el 90% de los datos disponibles en todo el mundo se crearon en los últimos dos años.

Con sistemas de software cada vez más desarrollados y un número cada vez mayor de usuarios de Internet y redes sociales en todo el mundo, esta tendencia de crecimiento continuará en el futuro.

Cómo lidiar con la cantidad de datos es una pregunta crucial para las empresas de hoy. Con el análisis correcto, se pueden obtener conocimientos importantes que sirven como base para las decisiones estratégicas de la empresa. En este artículo, describimos cómo las empresas pueden beneficiarse de la cantidad de datos disponibles para seguir siendo competitivas en la economía digital.

¿Qué es el gran volumen de datos?

Big data son grandes cantidades de datos que son producidos por empresas y particulares a diario. A nivel del consumidor, estos datos incluyen información sobre el comportamiento en línea, de búsqueda y de compra. A nivel de empresa, por ejemplo, se ven afectados los datos de transporte y producción. Según IBM: Big data se refiere a conjuntos de datos cuyo tamaño y forma los hacen incapaces de ser capturados, administrados y procesados ​​utilizando bases de datos tradicionales y relacionales.

Hay 3 características que resumen las propiedades del Big Data de forma condensada:

Volumen : describe el enorme volumen de datos o la enorme cantidad de datos.

Velocidad : describe la velocidad a la que se crean los datos. Cada vez se generan más datos en períodos de tiempo cada vez más cortos.

Variedad : describe las diferentes fuentes y formularios de datos. Los datos pueden ser estructurados o no estructurados y, p. B. como un archivo de audio o video.

Según Jules Berman, las características complejas de los grandes datos se vuelven particularmente claras cuando observas cómo los grandes datos difieren de los pequeños datos en la práctica.

Las diferencias entre big data y small data

  1. Objetivos: mientras que los datos pequeños se utilizan para un objetivo específico, el uso de datos masivos a menudo se desarrolla en una dirección inesperada.
  1. Ubicación: Small Data básicamente reside en un solo lugar (en un archivo de computadora); Big data a menudo se distribuye en muchos archivos en múltiples servidores en diferentes países.
  1. Estructura de datos: Los datos pequeños generalmente se estructuran en línea recta; Big data puede no estar estructurado, abarcar muchos formatos de archivo de diferentes disciplinas y hacer referencia a diferentes fuentes.
  1. Preparación de datos: Small Data es preparado por el usuario final para sus propósitos; Big data a menudo es preparado por un grupo, analizado por un segundo y utilizado por un tercero. Cada grupo puede tener un propósito diferente. 
  1. Longevidad: los datos pequeños generalmente se conservan durante un período limitado (aproximadamente de 5 a 7 años) después de la finalización del proyecto. Con Big Data, los datos permanecen almacenados indefinidamente, ya que los proyectos de datos se fusionan en otros proyectos. 
  1. Medidas: Los datos pequeños se registran con un solo registro en unidades de medida específicas durante un período corto de tiempo. Los grandes datos provienen de diferentes lugares, tiempos, organizaciones y países. Esto implica conversiones complejas.
  1. Reproducibilidad: los datos pequeños suelen ser totalmente reproducibles en caso de que algo salga mal. Big data viene en tantas formas y de tantas fuentes que es imposible empezar de nuevo si algo sale mal.
  1. Riesgo: en caso de problemas de análisis con datos pequeños, el proyecto sigue siendo financieramente manejable. Dificultades similares con big data pueden resultar en daños financieros de varios cientos de millones.
  1. Introspección: (hasta qué punto los datos pueden describirse a sí mismos de manera significativa): en un pequeño conjunto de datos, todo está bien organizado y los significados son claros. Los grandes datos son más complejos y pueden contener información no identificable o incluso sin sentido. Esto puede reducir la calidad de los datos.
  1. Análisis: Los datos pequeños se pueden analizar en un solo proceso desde un solo archivo de computadora. Con big data, los datos extensos deben pasar por extracciones, controles, reducciones, normalizaciones y transformaciones, entre otras cosas.

Conoce más en nuestro Magíster en Ciberseguridad Online (ceupe.cl)

  Conecta con nosotros en nuestro perfil de Linkedin:  https://www.linkedin.com/in/ceupechile/ 

Valora este artículo del blog:
Publicidad en Instagram para empresas
¿Qué papel desempeña el CEO en una empresa?
Compártelo
 

Comentarios

No hay comentarios por el momento. Se el primero en enviar un comentario.
Invitado
Sábado, 04 Febrero 2023