lunes, 2 de marzo de 2015

EL VESTIDO DE COLORES: UNA EXPLICACIÓN NEUROPSICOLÓGICA


EL VESTIDO DE COLORES: UNA EXPLICACIÓN NEUROPSICOLÓGICA
Millones de personas se han preguntado por el color del vestido sin llegar a ponerse de acuerdo. Es una de las comprobaciones del poder contextual en cualquier actividad psicológica, también en la percepción visual.
Para muchos autores sensación y percepción son dos procesos distintos.
Sensación se refiere a la experiencias inmediatas de los estímulos simples y, esto es importante, aislados.
Percepción es el proceso por el cual, a partir de experiencias pasadas, el contexto, etc. interpretamos mentalmente las sensaciones.
El color es una percepción no existe como tal. El cerebro interpreta que determinadas longitudes de onda corresponden con un color y lo percibimos así.
Es decir el fenómeno pre-existente es una longitud de onda que nosotros asociamos para crear un output psicológico: el color. Es decir transformamos la entrada sensorial (la longitud de onda  de la luz) en una salida perceptiva: el color.
Brunswick establece una distinción entre el estímulo distal (la energía física) y el estímulo proximnal (proyección de esa energía, en este caso en los fotoreceptores).

Lo fundamental de la percepción, y que explica las diferencias en el caso del vestido es que la percepción es relativa: tiene lugar en un contexto que la marca.
La escuela Gestalt estudió en profundidad la percepción, con el principio figura fondo.
Y en el caso del color, la apariencia de un color  puede cambiar según el color de las áreas circundantes.
En percepción cromática, la asimilación es la mezcla aparente de un estímulo de color con su entorno.


Lo pueden comprobar en esta página, con las cruces grises sobre dos fondos distintos.
En la retina  existen tres canales de oponencia del color. Es la teoría de Hering, desarrollada después por Hurvich y Jameson (1957). Es decir, cada recpetor produce dos respuestas antagónicas y la que mayor estimulación produce hace que la percepción psicológica sea una u otra.
Vean esos procesos antagónicos y comprenderán casi todo:

El azul se empareja con el amarillo.

 El rojo se empareja con el verde.

El blanco se empareja con el negro.

Asi, unas personas percibieron con el siguiente proceso:
-El fondo brillante hace que la figura no deba de aumentar o disminuir la estimulación de la figura, al estar el fondo saturado de luz,
-Al aumentar o disminuir el estímulo de la figura, el proceso anatagónico se pone en marcha.
-Si el estímulo es mayor en la figura percibimos la longitud de onda mayor y el proceso psicológico escoge los pares amarillo y blanco.
-Si atenuamos la figura para distinguirla del fondo saturado. El par elegido es azul y negro.
Como son procesos antagónicos, las diferencias individuales en la percepción del contraste hacen el resto.


Bibliografía:
-Urtubia, C. (1999) Neurobiología de la visión. Pag. 234. Barcelona: UPC
-Casacuberta, D. (2007) y Pousada, M. " Percepción" en Cognición y emoción. FUOC: Barcelona.



viernes, 20 de febrero de 2015

LAS ELECCIONES Y EL BIG DATA: EL CASO OBAMA

LAS ELECCIONES Y EL BIG DATA: EL CASO OBAMA

Como estamos en un año con cuatro elecciones, los cuarteles generales de los partidos políticos se han convertido en la sede de todo tipo de estudiosos individuos que quieren captar las tendencias de los electores.
Hay numerosas herramientas que se han utilizado a lo largo de la historia. La más conocida las encuestas, pero no siempre la más útil.

Un caso paradigmático de la utilización de la investigación cualitativa se muestra en el documental Ocho personas catando vino. Muestra cómo encontraban los equipos de campaña los elementos emocionales y actitudinales del electorado.

En Estados Unidos la compleja fórmula de elección presidencial hace que unos pocos estados y un puñado de electores indecisos sean el blanco de todo el esfuerzo de campaña. Y esta investigación cualitativa mostraba las preocupaciones y actitudes de ese segmento del electorado.
Pero como señaló Chris Anderson, en 2008, “el diluvio de datos” cambiará para siempre la metodología científica, basada en las hipótesis ante la escasez de datos.

Las hipótesis luego debían confirmarse. Pero ahora los datos nos ofrecen correlaciones a estudiar.
Y ahí, Barack Obama, que fue el primer político que usó las redes sociales en una campaña en 2008, llegó también el primero a ese nuevo método gracias  al Big Data.


En su campaña de 2012 una legión de analistas y programadores hicieron un trabajo, en primer lugar, de unificación de todas las fuentes de datos. Las encuestas, los correos electrónicos, los mensajes en las redes sociales, los datos sociodemográficos y los comportamientos de consumo, sí de consumo, se unieron para segmentar perfectamente al electorado.

El resultado fue que consiguieron más de mil millones de dólares en donaciones. Gracias al análisis de los datos, segmentaron al electorado y le ofrecieron ofertas personalizadas. A las mujeres de alto poder adquisitivo de la costa oeste una cena con George Clooney, o que las cartas de petición de donativos eran más eficaces en ciertos segmentos si las firmaba Michelle Obama. O establecer un perfil de voluntarios para cada zona, que eran más efectivos en su labor.

En cuanto al electorado, les permitió conocer qué segmentos estaban indecisos y unir estos segmentos a los mensajes adecuados y los canales más efectivos.

Así decidieron anunciarse en los intermedios de Walking Dead o en la revista Reddit, porque en ambos lectores-espectadores se concentraban electores del target buscado.

A estos datos debemos unir también la geolocalización. En España, la empresa sevillana Dialoga usa el big data y la geolocalización e incluso trabaja en campañas en Chile.
La era de las hipótesis de los politólogos puede haber pasado a mejor vida porque ahora hay una inmensa masa de datos por analizar, que permite establecer correlaciones, y desde un objetivo claro hacer preguntas pertinentes y analizar desde ellas los datos.

Y no sólo con datos estructurados. El Big Data puede analizar datos de diversas fuentes y con un formato de tabla o no. De ahí su potencia.

Unido a herramientas de investigación cualitativa (con la categorización para dar sentido a los datos en su contexto) muestra las actitudes, motivaciones y comportamientos por segmentos.

El resto es una mera operación de adaptación del mensaje para llegar en el momento oportuno al elector adecuado, por el canal más eficaz y con el mensaje más relevante para él.


viernes, 13 de febrero de 2015

¿QUÉ ES EL EFECTO IKEA?

¿QUÉ ES EL EFECTO IKEA?

Hace unas semanas estuve con los amigos de @cafedigital en un programa de radio y hablamos un buen rato sobre Dan Ariely. Uno de los temas que surgió fue el efecto IKEA, que estudiaron Norton o el propio Ariely.
La idea central es que cuando realiza una tarea, el resultado de ese trabajo, de esa implicación tiene más valor para nosotros. Los experimentos realizados muestran que las creaciones de las personas tenían para ellas una valoración similar a las realizadas por profesionales. Algunos de los experimentos mostraron que los participantes valoraban cuatro veces más alto sus propias creaciones que las de otros.
Algunos estudios relacionan esta valoración con el éxito en la tarea pero este sesgo parece tener más que ver con la experiencia directa, con la implicación personal en el producto.
Un ejemplo de los resultados de este sesgo cognitivo (valoramos más aquello en lo que estamos implicados) es la corriente de consumo “Do it yourself”. El “hazlo tú mismo” se ha convertido en un sinónimo de éxito pero hay muchas más posibilidades.
Por ejemplo la co-creación o  el crowdfunding deberían tener el mismo efecto. Hemos participado, nuestra experiencia con el producto es directa y nuestro unión con él provoca sesgos cognitivos favorables.
Cualquier agente inmobiliario o vendedor de coches usados sabe de las disparatadas tasaciones de los dueños que deciden deshacerse algo que tiene para ellos una alta implicación  personal. Una vivienda o un vehículo idénticos no tienen el mismo valor si es “de otro” que si tiene asociados recuerdos y emociones relevantes para nosotros.
Hay también un aspecto muy destacable que el de la disonancia post-compra. Cuando juzgamos la disonancia entre las expectativas y lo efectivamente conseguido con la adquisición nos sentimos satisfechos o insatisfechos.
Según la teoría de la atribución, cuando un producto no satisface nuestras expectativas buscamos una explicación en base a tres aspectos. El control, estabilidad y centro.
Sea el problema permanente o no (estabilidad), el caso es que si estamos implicados en la experiencia y sobre todo en la construcción del producto (físicamente al montarlo como un mueble de Ikea o desde el punto de vista psicológico en la co-creación o el crowdfunding) podemos considerar que somos responsables de ese resultado (el control es interno, no hay causas externas) y tenemos por tanto control sobre el resultado (no hay causas incontrolables).
Si hacemos una atribución de causa controlable e interna eso afecta a nuestro autoconcepto y en general no nos gusta destruirlo.
Juzgar severamente el resultado equivale a juzgarlos severamente a nosotros mismos (no fuimos capaces) y entonces aparece el sesgo cognitivo: el resultado es juzgado como mejor que en idéntica circunstancia pero bajo la responsabilidad ajena.

El resto lo hace nuestra conexión emocional: “los nuestros”, puesto que hemos formado parte de ello, siempre son comparados positivamente con “los otros”.

miércoles, 21 de enero de 2015

Data mining: conocer al cliente a través de los datos


Conocer a los clientes, sus hábitos y necesidades, es clave para un negocio. La psicología del comportamiento del consumidor es una excelente herramienta para predecir qué va a hacer y qué quiere el cliente, pero no es la única. Los propios datos de la empresa ocultan muchas veces, las respuestas necesarias. Para encontrarlas están las técnicas de data mining.

¿Qué es el data mining?

El trabajo diario de un negocio produce infinidad de datos, pero la mayoría quedan almacenados sin ofrecer demasiada utilidad al negocio desde el punto de vista estratégico, más allá de la gestión diaria de la contabilidad, el almacén, los proveedores y la tesorería. Sin un adecuado tratamiento no sirven como ayuda para tomar decisiones ni tener un conocimiento más profundo de los clientes, el mercado y la evolución del negocio en sí mismo.
La razón fundamental es que nos encontramos ante “una montaña de datos” y que sin una metodología adecuada, y unas herramientas tecnológicas acordes con esa metodología y volumen de datos, resultan imposibles de manejar, y mucho menos de ser un instrumento de utilidad para el negocio.
Esta es la función del data warehouse y del data mining, convertir una enorme cantidad de datos en un instrumento de conocimiento útil para la toma de decisiones.







El Data warehouse “apoya la toma de decisiones ofreciendo diversos puntos de vista de los datos almacenados  Convierte una montaña de datos inconexos en un instrumento de información,




El Data Mining es “el acto de extraer patrones o modelos a partir de los datos". Convierte la montaña de datos en una información útil, en conocimiento. Como la arena de las dunas se convierte en dibujos.

Se trata por tanto de utilizar las herramientas de la estadística, la computación y la inteligencia artificial para localizar aspectos -no evidentes o inmanejables para los humanos- en los datos, y que estos aspectos ocultos sirvan para resolver problemas del negocio o ayudar en la toma de decisiones.



¿Para qué sirve el data mining?

La utilización del Data warehouse, es decir de un gran almacén de datos unificado permite el acceso rápido a los datos,  o de combinaciones de ellos , y es condición necesaria para el análisis. De nada sirven los datos repartidos en infinidad de bases de datos, sin un formato común ni la posibilidad de analizarlos conjuntamente y acceder a ellos de manera rápida.

Muchas empresas tienen en este momento innumerables datos pero no les sirven para responder a las preguntas qué se plantean a la hora de tomar decisiones: clasificar a sus clientes en función de su rentabilidad, descubrir qué productos resultan más rentables, las posibles asociaciones en la compra de productos o la rentabilidad y predicción de facturación por tiendas, por localizaciones geográficas, por temporadas, etc..

La utilización de técnicas de data mining en el análisis de un almacén unificado de datos puede permitir resolver estas preguntas, relacionadas con los problemas de negocio que plantea:

-Permite identificar los perfiles de los clientes y clasificarlos.
Segmentar los clientes por diferentes criterios para realizar acciones de marketing que tengan eficacia para la empresa y relevancia para el consumidor.

-Establece el valor de vida del cliente, ya que podemos conocer su rentabilidad (su frecuencia de compra,  su volumen de compra y la última vez que compró) y dedicar un mayor esfuerzo y recursos a los clientes más rentables.

-Permite estimar la facturación de cada una de las tiendas  y describir las diferencias entre cada una de ellas (productos más vendidos, rentabilidad, mayor o menor, tasa de repetición de compra, etc.) lo que permite gestionar acciones específicas en cada una de ellas.

-Analiza la rentabilidad de cada producto. O incluso si el producto se asocia a operaciones rentables aunque su margen sea pequeño.

-Puede localizar patrones de compra y consumo y encontrar asociaciones en la compra conjunta de productos. Permite aumentar facturación  al localizar aquellos que compran una de las dos cosas que habitualmente se adquieren conjuntamente y ofrecerles la otra. También encontrar clientes a los que ofrecer productos que permitan aumentar su pedido. Upselling y cross selling.

-Permite clasificar a los clientes nuevos en alguno de los segmentos diferenciados en las acciones de marketing y predecir su comportamiento de compra, al conocer las variables que el análisis determine como claves para su clasificación.
Por ejemplo si pertenece a unos de los grupos creados de consumidores en función de su valor de vida del cliente.

-Estimar las probabilidades de compra.

-Conocer sus hábitos o compras estacionales (ocasiones especiales por ejemplo al analizar comportamientos de compra históricos) y remitir comunicaciones de marketing personalizadas.

En definitiva podremos describir aspectos ocultos en los datos y predecir el comportamiento de diversas variables del negocio que ayudarán a la toma de decisiones. Y no sólo de los clientes, también sirve para gestionar el stock o incluir o eliminar productos de nuestro catálogo en función de su rentabilidad.

El no tener una base de datos unificada y tratada adecuadamente (para evitar errores o vacíos de información) elimina la posibilidad de acceder a esos datos para su análisis o de consultar datos de manera rápida y eficaz.
El no utilizar herramientas de análisis de esos datos impide  acceder al conocimiento que se  puede extraer a esos datos y por tanto supone lanzarse al viaje sin mapa. Incluso cuando conocemos un camino por la experiencia, el conocimiento más profundo permite orientarse tanto en situaciones conocidas como prever y actuar proactivamente ante las que, en otro caso no podríamos predecir.
En un momento en que la diferenciación y el conocimiento profundo de las necesidades del cliente es capital para la supervivencia en un mercado de competencia feroz, no utilizar estas herramientas es una desventaja que puede suponer la desaparición de la empresa o, en el mejor de los casos, no aprovechar convenientemente todas las oportunidades de negocio ni sacar todo el partido posible a nuestros clientes.