Trendcast & Blog

Big Data: lo que no es medible no es ciencia

Big Data: lo que no es medible no es ciencia

Rebold Marketing - data

2016-10-03

El Big Data ha pasado de estar en la oscuridad a encontrar la luz de ‘lo científico’ gracias a la aparición de herramientas que nos permiten tabular, ordenar y transformar los datos en información concluyente. Siempre ha habido censos, migraciones, hábitos de consumo, movimientos de capital, propagación de enfermedades… pero ahora podemos medirlos.

Dotamos a toda esta información de método científico y somos capaces de aplicarlo a los negocios. Este es el punto más interesante por las posibilidades que se nos abren por delante, tanto de desafío tecnológico como de nuevos ámbitos profesionales.

La cita del título del artículo ‘lo que no es medible no es ciencia’ es de Ernest Rutherford, uno de los mayores científicos del siglo XX. Físico y químico británico-neozelandés, propuso uno de los primeros modelos atómicos, es decir, estableció la estructura interna del átomo: ese dibujo que ahora todos conocemos de un núcleo que posee carga positiva y casi toda la masa del átomo y alrededor un enjambre de electrones girando, a gran velocidad, con carga negativa.

Más tarde, un alumno suyo, Niels Bohr, fue un paso más allá e introdujo por primera vez conceptos cuánticos para precisar aún más cómo se comportaban los electrones en las órbitas.

Después todo se complicó irremediablemente. Ya no nos sirve la imagen del científico solitario en su pequeño laboratorio y su pizarra cambiando el mundo. Hasta el punto que hemos tenido que invertir cientos de millones de euros para construir el Gran Colisionador de Hadrones en el CERN con miles de científicos trabajando para poder seguir descubriendo cómo funciona el Universo.

Maldito Big Data

En los últimos años vivimos una tendencia interesante en los negocios: la incorporación de una nueva generación de directivos que valoran el método científico como herramienta clave para innovar en sus compañías.

La intuición deja paso a la creación de procesos que no penalizan el error, sino que premian la velocidad de aprender de ellos. El fallo en cualquier proceso de innovación va a existir. El secreto es, como se extrae del método científico, tener la capacidad de diseñar nuevos experimentos que nos den resultados diferentes. Cualquier empresa ante la tesitura de empezar a descifrar todos los datos alrededor de su negocio siente que tiene que construir su Gran Colisionador de Hadrones particular, maldito Big Data.

Pero es falso, no se trata de descifrar el origen del Universo, sólo es cuestión de tomar decisiones usando el máximo de información a nuestra disposición para minimizar los errores. Al fin y al cabo es lo que se ha hecho siempre, la diferencia actual reside en las magnitudes. Ahí entran estas frases que parecen vacías de tanto leerlas como ‘democratización de la tecnología’ o ‘cuarta revolución industrial’ o ‘data science’.

Por un lado tenemos más acceso que nunca a datos que siempre han exisitido y que hasta ahora no podíamos gestionar, y por otro, una ingente cantidad de nueva información creada por todos nosotros.

“Atibórralos de datos no combustibles, lánzales encima tantos «hechos» que se sientan abrumados, pero totalmente al día en cuanto a información. Entonces, tendrán la sensación de que piensan, tendrán la impresión de que se mueven sin moverse. Y serán felices, porque los hechos de esta naturaleza no cambian. No les des ninguna materia delicada como Filosofía o Sociología para que empiecen a atar cabos”.

Puede que en esta cita de Fahrenheit 451 Ray Bradbury buscara justo lo contrario, pero acierta de forma clarividente cómo tenemos que aproximarnos al Big Data: estamos atiborrados de datos y tenemos que atar cabos.

No estamos solos

Si lanzas una moneda al aire mil veces al final te saldrán unas 500 veces cara y unas 500 veces cruz. Si actuamos en nuestro negocio siempre por intuición, tarde o temprano todo saldrá mal. No se puede ser un experto de verdad sin el análisis.

La democratización de la tecnología y la llegada de la cuarta revolución industrial permiten el acceso a herramientas de análisis a precios muy bajos, incluso con costes marginales de producción en algunos servicios prácticamente nulos.

La data science ofrece la posibilidad de conectar datos internos de las compañías con fuentes OSINT, datos de acceso públicos como blogs, medios, redes sociales o bases de datos. En este proceso de herramientas al alcance de todos y de expertos en recolección y análisis unido al conocimiento que tenemos de nuestro negocio encontramos la manera de resolver el puzzle: poner los datos a nuestro servicio.

Un ejemplo: Election Talks

Uno de los pilares del método científico es la refutabilidad, es decir, que cualquier proposición puede ser reinterpretada con un nuevo experimento.

Ese fue el objetivo que nos planteamos en Acceso con el proyecto de Election Talks, establecer una nueva metodología para los pronósticos electorales utilizando el Big Data en las elecciones generales del 20 de diciembre de 2015.

Generalmente, estas investigaciones se basan en encuestas sobre las que se realizan análisis cuantitativos y modelos de predicción. Las encuestas ayudan a entender percepciones no transmitidas o declaradas en la escucha, pero también condicionan muchas veces la opinión del encuestado, al mostrarle sólo opciones acotadas entre las que tiene que elegir. A veces son poco ágiles, y disponer de ellas con frecuencia y continuidad puede ser muy costoso.

Existen otras metodologías complementarias, innovadoras, que pueden ayudar a sortear estas dificultades. El Social & Media Listening es un complemento perfecto para las encuestas, ya que mejora los modelos de previsión actuales y permite una continuidad a lo largo del año que las encuestas difícilmente cubren (o solo consiguen con un alto coste). Ayuda a comprender y proyectar las percepciones e intenciones de los ciudadanos, y lo hace de una manera más cercana a ellos.

Descarga gratis el Caso Election Talks Tracking

Una estrategia en 4 pasos:

1-. Rastrear, almacenar, enriquecer y clasificar todos los mensajes y opiniones de los políticos, medios de comunicación y ciudadanos en tiempo real. 2.- Probar la relación entre la opinión publicada (Social Listening), opinión pública y encuestas tradicionales. 3.- Crear nuevos modelos de data science y análisis, para ayudar a optimizar las comunicaciones políticas y predecir los resultados electorales. 4.- Demostrar que esta metodología de investigación mejora los resultados tradicionales, algo extremadamente útil para cualquier marca y en cualquier sector cuyas necesidades sean entender el mercado y adelantarse a las reacciones de los ciudadanos.

El resultado:

Esta nueva metodología nos permitió entender y mostrar todos aquellos datos que las encuestas tradicionales no pueden ofrecer, como el voto indeciso, y puso de manifiesto las sensaciones y reacciones de los ciudadanos ante noticias publicadas en los medios y que las encuestas no son capaces de detectar tan ágilmente. En base a la información recogida sobre las elecciones generales españolas, fuimos capaces de ofrecer estimaciones de voto con 4 puntos menos de error que las encuestas tradicionales.

Compartir

Tweet Publicar Whatsapp Linkedin/span> Link

¡Url copiada!

Una pregunta...

¿Has pensado lo que tu marca podría conseguir mañana?

¡Cuéntanos!