Your address will show here +12 34 56 78
Data Science, Investigación de Mercados, Politica

Seguro que muchos recordaréis haber visto “rankings” de candidatos o partidos políticos basados en menciones o seguidores en las redes sociales. Hace unos cuantos años, llamaba la atención, e incluso se destacaba mucho en la prensa tradicional, especialmente durante las campañas electorales. En los últimos años ya no se ven o destacan tanto porque era fácil asociarlos a encuestas y estimaciones de voto, que en el caso de las redes sociales, obviamente, no se correspondía con los resultados finales.

Desde la óptica de la medición y el análisis de redes sociales, hemos evolucionado en los últimos años desde una medición muy básica: contar seguidores de los candidatos y sus menciones por parte de otros usuarios, a un análisis más sofisticado basado en el contenido y sobretodo en el grafo social.

Por lo que respecta a los contenidos políticos e ideológicos: la tendencia actual en las redes sociales es a favorecer la generación de contenidos con alto contenido emocional, un contenido que favorece la polarización. Si eres usuario habitual de Twitter y Facebook estás acostumbrado a “memes” y a respuestas más o menos ingeniosas a noticias o mensajes de personajes y entidades famosas. Llevado a sus formas extremas, imágenes sacadas de contexto, retocadas e incluso “fake news”. Éste contenido se comparte y difunde masivamente en el grafo social.

Pero ¿quien compone el grafo social? ¿como impactan y se distribuyen los contenidos? La analítica social media se ha centrado en los últimos años en comprender que tipos de perfiles podemos distinguir en las redes sociales, empezando por distinguir a personas de otras “especies” (cuentas falsas, más o menos automatizadas (“bots”), generadas por programas o usuarios que persiguen objetivos de difusión de contenidos orientados a objetivos políticos, ideológicos o similares). De ésta manera es más fácil analizar campañas orquestadas por grupos que pretenden influir en política, especialmente en los asuntos más conflictivos como el “Brexit”, “Gilets jaunes”, …

Pero una vez se han distinguido las personas reales del resto, lo interesante realmente es analizar el grado de polarización de cada nodo (perfil de la red social) y su posición en el grafo (lo que determina su papel y afinidades). De ésta manera podemos identificar individuos o colectivos más partidarios o incluso radicalizados en una posición, de aquellos que mantienen posiciones más equidistantes, ambiguas o que no han expresado opinión. Éste tipo de análisis nos permite conocer que nodos están mejor conectados y por tanto son más efectivos en la difusión de contenidos.

Desde el punto de vista de las campañas políticas, los usuarios más partidarios de la causa se consideran difusores de los mensajes de la campaña, y los usuarios más neutrales se consideran el objetivo del mensaje. También hay que tener en cuenta que las campañas o mensajes a difundir, pueden ser “en positivo” (a favor de nuestro partido y objetivos) o pueden ser “en negativo” (en contra de otro partido y sus objetivos). Es habitual ver mensajes negativos que contestan inmediatamente a los mensajes de partidarios de otras opciones políticas, para contrarrestar el efecto original.

Los principales objetivos de la analítica avanzada en social media aplicada a las campañas políticas son identificar colectivos o “nichos” de usuarios indecisos respecto a una temática política importante y proponer el modo más eficiente posible para hacer llegar el mensaje del partido.

Las campañas políticas acumulan cada vez mayor experiencia en las redes sociales, y también las técnicas y herramientas de análisis se han sofisticado mucho. Probablemente en el ciclo electoral que se inicia veremos ejemplos de ésto.

0

Análisis de Sentimiento, Audience Analytics, Data Science, Inteligencia Artificial, Investigación de Mercados
El análisis de los comentarios y opiniones en las redes sociales ya se ha consolidado como una de las herramientas más utilizadas por los profesionales de la investigación de mercados (lo confirma un reciente estudio – Grit Report España- de AEDEMO, Asociación Española de Estudios de Mercado, Marketing y Opinión). 

  Como todas las técnicas y metodologías, cuando van alcanzando un cierto grado de madurez se comprende mejor sus limitaciones, potencialidades y puntos críticos a tener en cuenta. Las Redes sociales se han convertido en una inmensa fuente de datos (big data) en formato texto y de video: contenidos, opiniones comentarios, gustos, afinidades, relaciones… Muy valiosa, pero extremadamente compleja, enmarañada, “sucia” des del punto de vista del análisis metodológico.

  Porque, o bien el analista filtra, selecciona, lee y revisa detalladamente uno por uno, grandes cantidades de tweets, fotos de instagram, comentarios de facebook, blogs, hilos de los foros,…o bien nos basamos en un proveedor de datos, herramientas y servicios que extraiga los contenidos, añada información categorizada y facilite la elaboración de conclusiones cualitativas.

  Respecto a los contenidos: en general, cuando no son publicaciones de medios digitales que se comparten, son comentarios espontáneos, opiniones, quejas, y según en que redes, bromas, “postureos”,…De muchísimos temas,…aunque a veces con no tanto detalle como nos gustaria. Una pregunta precisa que quieres hacer a tus potenciales clientes, es posible que no tenga suficiente volumen en las redes sociales. En cambio, las respuestas espontáneas, distintas de las prediseñadas, pueden reportar resultados inesperados y valiosos.
  Aquí vienen al rescate las técnicas de análisis de texto NLP (Natural Language Processing) https://en.wikipedia.org/wiki/Natural-language_processing, que permiten clasificar la opiniones por sentimiento, temática o categoria, y en definitiva extraer y analizar de manera sistemática el contenido semántico de los textos (extracción de entidades semánticas https://en.wikipedia.org/wiki/Named-entity_recognition ). Atención porque el análisis y categorización por polaridad o sentimiento (sin extendernos, ya dedicaremos otro post) deberia ser “aspect based”, es decir, por cada atributo que queremos analizar. Y no es nada fácil.
  También las imágenes pueden aportar información valiosa: lugares, logotipos, objetos, situaciones…En los últimos años el análisis de imágenes ha evolucionado mucho, y es posible extraer información de los píxels de una manera muy fiable.

  Respecto a los autores, también se presentan grandes desafíos. No siempre es fácil saber información sobre el autor de un tweet, una foto de instagram, un comentario,…La geolocalización en muchas redes sociales, es un campo de información optativo y sin estructura, que muchos dejan en blanco o bien utilizan para mostrar su ingenio. Es posible que sólo entre un 30% y 40% de los autores se hayan molestado en poner una referencia geográfica en su perfil. Aunque existen métodos sofisticados para inferir el lugar de residencia del autor: cruzar perfiles de distintas redes sociales, buscar referencias en la biografía o enlaces/amistades con otras cuentas muy específicas de un lugar,…no resulta fácil.

  Idealmente para la investigación seria importante conocer variables demográficas del autor como género (fácilmente deducible por el nombre), edad, profesión, nivel de estudios, etc…y también otras variables como gustos, estilos de vida, afinidades con marcas,…
  En BrandChats hemos apostado por éstas variables de los autores porque aportan mucho valor a las investigaciones y a otros servicios que ofrecemos en el ámbito del Márketing Digital.

  También es muy importante el análisis de grafos aplicado a las redes sociales, conocido como SNA (Social Network Analysis https://en.wikipedia.org/wiki/Social_network_analysis). Los individuos formamos parte de un grafo social de conocidos en la vida real y conocidos en la vida digital. Compartimos contenidos y opiniones, y ésta interacción con la comunidad nos coloca en una posición del grafo que indica el grado de influencia, interacción, frontera entre comunidades,…


  Los métodos que hemos comentado forman parte de las técnicas de Inteligencia Artificial: NLP análisis de texto, el análisis de imágenes mediante algoritmos de nueva generación (redes neuronales convolucionales https://en.wikipedia.org/wiki/Convolutional_neural_network ), algoritmos de clasificación para la inferencia de variables, SNA.
  Añadir ésta calidad (variables) a los datos es fundamental para disponer de una metodología robusta y fiable; y así tener un entorno de análisis (datos, herramientas, metodología) para la investigación de mercados que sea reutilizable, económicamente super competitivo y valioso.

¡Comentarios bienvenidos!
0

Audience Analytics, Data Science, Social Media Marketing
Las redes sociales y el mundo digital en general permiten una comunicación bidireccional y personalizada, es decir, sabemos más de nuestros clientes y potenciales clientes.
Pero realmente, al analizar a fondo a las personas que se muestra activas en las redes sociales ¿hasta donde se puede llegar? ¿para que sirve exactamente?
Imagínate que de un grupo de personas (clientes, potenciales clientes, seguidores de tus redes sociales u otros activos en las redes) puedes conocer información sobre ellos, sus gustos, intereses y afinidades con medios, marcas, empresas o servicios. En principio ¡GENIAL! ¿no?, pero ¿cómo se aplica éste conocimiento en la práctica?

   El Análisis de los intereses de un segmento respecto al total de la comunidad proporciona una nueva dimensión de oportunidades para crear contenido que conecte
Vas a poder tener Segmentos / Grupos / Tribus como nunca los habías visto antes, basados en gustos, estilos de vida, afinidades. Confirmar hipótesis sobre tu audiencia, decubrir nuevos segmentos o microsegmentos, incluso mini-comunidades muy de nicho a las que puedes acceder/impactar con contenidos distintos y más adecuados a sus intereses.
Fanáticos de los deportes de riesgo, Adictos a la actualidad y las noticias 24 horas, Fans de los eSports, Amantes salidas a la naturaleza/montaña, Seguidores de trucos bricolaje DIY, Amigos de la cerveza artesanal…y una larga lista de segmentos que forman parte de tu audiencia.

 Los segmentos o tribus se pueden realizar manualmente o utilizando algoritmos de “clustering”. Los gustos, intereses y afinidades permiten muchas combinaciones y la creación de segmentos hasta el momento no analizados ya que no se basan en las variables demográficas tradicionales
Así que ¿no crees que podrás?:
– Afinar mucho más en las Estrategias de contenidos a partir de los temas que motivan e interesan a cada segmento de audiencia, a cada uno de éstos grupos que has identificado
– Identificar a influenciadores que impactan directamente en los intereses de éstos segmentos, o a posibles partners (descubrir sinergias por afinidades compartidas), e incluso buenas oportunidades de sponsorización
– Entender mejor como evolucionan los segmentos y sus gustos / tendencias, compararlo con los competidores para desarrollar o mejorar el análisis de Inteligencia competitiva
– En general, disponer de una herramienta para una Investigación de mercados ágil y más económica.

Como siempre encantados de recibir comentarios, opiniones y preguntas.
0

Data Science, Social Business Intelligence, Social Media Monitoring
Visualmente atractivos, los “dashbords” han sido y siguen siendo un buen gancho comercial para vender tecnología, consultoría, innovación y demás valores analíticos y similares. Es por eso que los vemos constantemente.

A parte de su uso -y un cierto abuso- como reclamo para impulsar proyectos de todo tipo,  existe una doble utilización de los dashboards, que complica su diseño, me explico. En función de los usuarios del Dashboard, tenemos de dos tipos:
a) Dashboards para directivos: KPI’s (indicadores) con las mediciones clave del negocio, área o tarea. Seguimiento periódico, agregaciones temporales y por alguna otra dimensión (geográfica, producto/servicio, agrupación de clientes,…). Fáciles de leer en poco tiempo, mejor si son agradables gráficamente, pero poca interacción con los datos (estáticos o algunas agregaciones predefinidas).
b) Dashboards para analistas: entorno gráfico para descubrir correlaciones, tendencias, anomalías, en difinitiva conclusiones valiosas en los datos. Utilizan la visualización avanzada (gráficos avanzados), uso de algoritmos e idealmente deberían permitir integrar distintas fuentes de datos, tanto internas como externas. Dinámicos, preparados para leer gran cantidad de datos, a veces en tiempo real. Generalmente con gran libertad de agregación, muchas veces sin agregaciones predefinidas (todos los datos al máximo nivel de detalle), libertad para seleccionar tipos de gráficos, añadir variables, probar algoritmos, etc…

Pero los Dashboards sufren una maldición, y es que cada vez más usuarios se dan cuenta de que caducan rápidamente. Sufren el paso del tiempo, pasan de moda. En la práctica, tras un período cada vez más breve, en que todos quieren acceder al nuevo Dashboard, deja de ser consultado y cae en el olvido de sus usuarios potenciales.
 
¿Y porque ocurre éste fenómeno? O bien porque los KPI’s no ayudan a entender suficientemente las claves del negocio, los planes estratégicos y/o inciativas del momento, o posiblemente porque no miden, ni segmentan por las variables que importan.
Otro motivo que explica la caducidad es que los analistas, que interactúan más a fondo con los datos, se centran en resolver ciertos problemas, optimizaciones,…y que una vez enfocados y mejorados adecuadamente necesitan pasar al siguiente tema candente.
Otro factor importante es la necesidad de integración de múltiples fuentes de datos, tanto internas como externas, añadiendo nuevas variables que pueden aportar luz a la medición o al análisis.
 
Por tanto los Dashboards, o los entornos analíticos que permiten diseñarlos, deben ser ÁGILES, fáciles de adaptar, cambiar, compartir con otros usuarios, añadir nuevas fuentes de datos (conexión y muchas veces también transformación y adaptación a.k.a ETL).
Cada vez encontramos en las empresas más personas con una orientación analítica, que exigen herramientas y recursos. Éstos usuarios necesitan analizar lo que importa en cada momento y una gran agilidad para realizar su trabajo; ya sea en un rol directivo o en un rol puramente analítico.

No dejemos que los Dashboards caduquen, evitemos la maldición de los Dashboards.

Recomendaciones para evitar la maldición de los Dashboards:
– Verifica que las métricas (KPI’s) son entendidas por todos y aceptadas como importantes
– Piensa en el perfil de los usuarios del dashboard: negocio vs análisis, o managers vs analistas/data scientists
– Utiliza tecnología que permita:
  1.cambiar y adaptar los dashboards de manera ágil
  2. añadir fácilmente nuevas fuentes de datos, e integrarlas entre sí
  3. transformar y dar formato a las variables
– En la selección y diseño de los gráficos utiliza las mejores prácticas de visualización de datos https://en.wikipedia.org/wiki/Data_visualization
– Cuando los usuarios sean analistas, data scientists o perfiles similares, ten en cuenta que van a necesitar testear y probar modelos de datos, algoritmos y machine learning. Van a utilizar python, R o entornos parecidos. Cuanto más integrado con el dashboard, mejor, mayor agilidad. Incluso mejor seria diseñar un entorno de análisis completo y ágil, en el que los Dashboards sea un elemento mas, sobretodo útil para compartir los resultados de los análisis que se realizan.

Como siempre en BrandChats estaremos encantados de compartir con vosotros nuestra visión sobre la análisis avanzado y el data science.
0

Data Science, Eventos, Inteligencia Artificial

BrandChats no es una simple herramienta de monitorización de redes, es mucho más. Por eso, siempre tratamos de estar al tanto de las últimas novedades que puedan ayudarnos en un futuro cercano a mejorar nuestros servicios. Una de las áreas que más avances ha visto en los últimos años ha sido el de la inteligencia artificial.

Cuando hoy en día oímos hablar sobre la famosa inteligencia artificial, nuestra mente se mueve casi en el terreno de la ciencia ficción, pensamos en robots con los que podríamos establecer una conversación o de los que incluso enamorarnos como en aquella película. La ciencia ficción no podemos negar que es muy interesante, pero la revolución por ahora no está yendo en esa dirección. Es por ello que en BrandChats asistimos al congreso sobre máquinas predictivas papis.io en Valencia.

En pAPIs (predictive application programming interface; Interfaz de programación de aplicaciones predictivas) pudimos ponernos al día de las novedades en el campo de la inteligencia artificial: Machine Learning (aprendizaje automático), Deep Learning (aprendizaje profundo), redes neuronales convolucionales… además de ponernos al día en las tecnologías utilizadas para dotar de la infraestructura necesaria: Hadoop, Spark, MapReduce, Coffee…

¿Que dónde están esos ordenadores inteligentes en el sentido humano de la palabra? En palabras del profesor R. López de Mantaras, quien realizó una interesantísima keynote en papis.io, la limitación que tenemos para conseguir esa inteligencia artificial propia de la ciencia ficcíon (técnicamente llamada IA Fuerte) es que todavía no somos capaces de crear un programa capaz de tener sentido común, que es lo que hace que seamos capaces de identificar lo lógico de lo ilógico a pesar de que no nos hayan enseñado a hacerlo. En palabras de López de Mantaras: El sentido común es la razón por la que un ordenador necesita cientos de miles de fotos de un gato para identificarlo y a un ser humano le basta con uno.

Aún así, existe investigación para crear un sistema de inteligencia artificial fuerte, como nos explicaron la gente de GoodAI. Pero la potencia está en la IA Débil, en enseñar a un ordenador a realizar tareas específicas como discernir el contenido de una imagen, realizar un procesamiento semántico del lenguaje o ganar al campeón mundial de Go (porque por supuesto, se discutió el caso de AlphaGo de Google Deepmind), o incluso algo tan aparentemente sencillo como enseñar a nuestro ordenador a interpretar una partitura de jazz con sentimiento de tristeza.

Durante este último año, ya incluimos una búsqueda por detección de logos con Visual Tagging, ya estamos estudiando el uso de grafos para estudiar las comunidades generadas alrededor de la monitorización. La complejidad de los datos generados en redes sociales nos lleva a la necesidad de investigar en técnicas avanzadas con las que analizar los datos y desde BrandChats ofreceros un mejor servicio.

0

Bitnami