Datos gruesos frente a macrodatos

Nodo de origen: 1435261

Datos gruesos frente a macrodatos

Uno de los desafíos que enfrentan las empresas en el mundo posterior a COVID-19 es el hecho de que el comportamiento del consumidor no volverá a las normas anteriores a la pandemia. Los consumidores comprarán más bienes y servicios en línea, y un número cada vez mayor de personas trabajará de forma remota solo por mencionar algunos cambios importantes. A medida que las empresas comienzan a navegar por el mundo posterior a la COVID-19 y las economías comienzan a reabrirse lentamente, el uso de herramientas de análisis de datos será extremadamente valioso para ayudarlas a adaptarse a estas nuevas tendencias. Las herramientas de análisis de datos serán particularmente útiles para detectar nuevos patrones de compra y brindar una mejor experiencia personalizada a los clientes, además de comprender mejor el nuevo comportamiento de los consumidores.

Sin embargo, muchas empresas todavía se enfrentan a obstáculos para el éxito de los proyectos de big data. En todas las industrias, la adopción de iniciativas de big data está muy arriba. El gasto ha aumentado y la gran mayoría de las empresas que utilizan big data esperan un retorno de la inversión. Sin embargo, las empresas todavía citan la falta de visibilidad de los procesos y la información como un punto principal de dolor de big data. Modelar segmentos de clientes con precisión puede ser imposible para las empresas que no entienden por qué, cómo y cuándo sus clientes deciden realizar compras, por ejemplo.

Para abordar este problema, es posible que las empresas deban considerar una alternativa a los grandes datos, a saber, los datos gruesos. Es útil definir ambos términos, Big Data frente a datos gruesos.

Big Data son datos no estructurados grandes y complejos, definidos por 3 V; Volumen , con big data, tendrá que procesar grandes volúmenes de datos no estructurados de baja densidad. Estos pueden ser datos de valor desconocido, como acciones de Facebook, feeds de datos de Twitter, secuencias de clics en una página web o una aplicación móvil, o equipos habilitados para sensores. Para algunas organizaciones, esto podría ser decenas de terabytes de datos. Para otros, pueden ser cientos de petabytes. Velocidad: es la velocidad rápida a la que se reciben los datos y se actúa sobre ellos. Variedad  se refiere a los muchos tipos de datos que están disponibles. Los tipos de datos no estructurados y semiestructurados, como texto, audio y video, requieren un procesamiento previo adicional para derivar el significado y respaldar los metadatos.

Datos gruesos se trata de una gama compleja de enfoques de investigación primarios y secundarios, que incluyen encuestas, cuestionarios, grupos focales, entrevistas, diarios, videos, etc. Es el resultado de la colaboración entre científicos de datos y antropólogos que trabajan juntos para dar sentido a grandes cantidades de datos. Juntos, analizan los datos en busca de información cualitativa como conocimientos, preferencias, motivaciones y motivos de los comportamientos. En esencia, los datos gruesos son datos cualitativos (como observaciones, sentimientos, reacciones) que brindan información sobre la vida emocional cotidiana de los consumidores. Debido a que los datos gruesos tienen como objetivo descubrir las emociones, las historias y los modelos del mundo en el que viven las personas, pueden ser difíciles de cuantificar.

No hay texto alternativo para esta imagen

Comparación de Big Data y datos gruesos

  • Big Data es cuantitativo, mientras que Thick Data es cualitativo.
  • Big Data produce tanta información que necesita algo más para cerrar y/o revelar las brechas de conocimiento. Thick Data descubre el significado detrás de la visualización y el análisis de Big Data.
  • Big Data revela información con un rango particular de puntos de datos, mientras que Thick Data revela el contexto social y las conexiones entre los puntos de datos.
  • Big Data entrega números; Datos gruesos ofrece historias.
  • Big data se basa en IA/aprendizaje automático; Los datos gruesos se basan en el aprendizaje humano.

Los datos gruesos pueden ser un diferenciador de primer nivel, ya que ayudan a las empresas a descubrir los tipos de conocimientos que en algún momento esperan lograr solo con los grandes datos. Puede ayudar a las empresas a ver el panorama general y unir todas las historias diferentes, al mismo tiempo que acepta las diferencias entre cada medio y las usa para extraer temas y contrastes interesantes. Sin un contrapeso, el riesgo en un mundo de Big Data es que las organizaciones y las personas comiencen a tomar decisiones y a optimizar el rendimiento de las métricas, métricas que se derivan de los algoritmos, y en todo este proceso de optimización, las personas, las historias y las experiencias reales quedan casi olvidadas.

Si las grandes empresas de tecnología de Silicon Valley realmente quieren "comprender el mundo", necesitan capturar tanto sus cantidades (big data) como sus cualidades (datos gruesos). Desafortunadamente, reunir esto último requiere que en lugar de simplemente 'ver el mundo a través de Google Glass' (o en el caso de Facebook, la Realidad Virtual) dejen atrás las computadoras y experimenten el mundo de primera mano. Hay dos razones clave por las cuales:

  • Para entender a las personas, necesitas entender su contexto
  • La mayor parte de 'el mundo' es conocimiento previo

En lugar de buscar comprendernos simplemente en función de lo que hacemos, como en el caso de los datos masivos, los datos gruesos buscan comprendernos en términos de cómo nos relacionamos con los muchos mundos diferentes que habitamos.

Solo mediante la comprensión de nuestros mundos alguien puede realmente entender "el mundo" como un todo, que es precisamente lo que empresas como Google y Facebook dicen que quieren hacer. Para “comprender el mundo”, necesita capturar tanto sus cantidades (big data) como sus cualidades (datos gruesos).

De hecho, las empresas que confían demasiado en los números, gráficos y factoides de Big Data corren el riesgo de aislarse de la rica realidad cualitativa de la vida cotidiana de sus clientes. Pueden perder la capacidad de imaginar e intuir cómo el mundo y sus propios negocios podrían estar evolucionando. Al subcontratar nuestro pensamiento a Big Data, nuestra capacidad de dar sentido al mundo mediante una observación cuidadosa comienza a debilitarse, al igual que se pierde la sensación y la textura de una nueva ciudad al navegarla solo con la ayuda de un GPS.

Las empresas y los ejecutivos exitosos trabajan para comprender el contexto emocional, incluso visceral, en el que las personas encuentran su producto o servicio, y son capaces de adaptarse cuando cambian las circunstancias. Pueden usar lo que nos gusta llamar Datos gruesos, que comprende el elemento humano de Big Data.

Una tecnología prometedora que puede darnos lo mejor de ambos mundos (Big Data y Thick Data) es computación afectiva.

Computación afectiva es el estudio y desarrollo de sistemas y dispositivos que pueden reconocer, interpretar, procesar y simular los afectos humanos. Es un campo interdisciplinario que abarca la informática, la psicología y la ciencia cognitiva. Si bien los orígenes del campo se remontan a las primeras investigaciones filosóficas sobre la emoción ("afecto" es, básicamente, un sinónimo de "emoción"), la rama más moderna de la informática se originó con el artículo de Rosalind Picard de 1995 sobre computación afectiva. Una motivación para la investigación es la capacidad de simular empatía. La máquina debe interpretar el estado emocional de los humanos y adaptar su comportamiento a ellos, dando una respuesta adecuada a esas emociones.

El uso de algoritmos informáticos afectivos en la recopilación y el procesamiento de datos hará que los datos sean más humanos y muestre ambos lados de los datos: cuantitativo y cualitativo.

Ahmed BanafaAutor de los libros:

Internet de las cosas (IoT) seguro e inteligente con Blockchain y AI

Tecnología y aplicaciones Blockchain

Lea más artículos en: Sitio web del Prof. Banafa

Referencias

https://www.linkedin.com/pulse/8-key-tech-trends-post-covid-19-world-ahmed-banafa/

https://www.bdex.com/thick-data-why-marketers-must-understand-why-people-behave-the-way-they-do/

https://www.usertesting.com/blog/thick-data-vs-big-data

https://www.oracle.com/in/big-data/what-is-big-data/

https://www.cognizant.com/us/en/glossary/thick-data

http://www.brandwatch.com/2014/04/what-is-thick-data-and-why-should-you-use-it/

http://ethnographymatters.net/2013/05/13/big-data-needs-thick-data/

http://www.wired.com/2014/04/your-big-data-is-worthless-if-you-dont-bring-it-into-the-real-world/

http://www.big-dataforum.com/238/big-data-how-about-%E2%80%9Cthick-data%E2%80%9D-%E2%80%94-or-did-we-just-create-another-haystack

http://blog.marketresearch.com/thick-data-and-market-research-understanding-your-customers

http://www.wired.com/2013/03/clive-thompson-2104/

Comparte esta publicación a través de: Fuente: https://semiwiki.com/general/304678-thick-data-vs-big-data/

Sello de tiempo:

Mas de Semiwiki