La creciente necesidad de entender a nuestros clientes

Algunas de las conversaciones que tenemos últimamente están orbitan alrededor del hecho que de las cosas no son como en el pasado. Las iniciativas del pasado ya no son suficiente. Y uno de los puntos que es más diferente es cómo debemos identificar, atraer, servir y retener a nuestros clientes. Es fácil errar al intentar leer las preferencias de los clientes. Recordemos que ha pasado en las últimas elecciones en diferentes países.

Las organizaciones se enfrentan a un escenario en el que los clientes están más informados, más instrumentados y son menos leales. A veces, introducimos el concepto del cliente elusivo. Y el CRM ya no es suficiente para captar a cliente elusivo.

Afortunadamente el mismo contexto que ha transformado al cliente, nos proporciona nuevas estrategias para la captura, la gestión, análisis y generación de valor estratégico de los datos de cliente, lo que conocemos como Customer Analytics.

Con el objetivo de incrementar el conocimiento de lo que se puede hacer, Sngular Data & Analytics ha preparado una jornada para hablar sobre Analítica de Clientes a la que han invitado a Delfos para hablar.

Aún estáis a tiempo de apuntaros a esta sesión el próximo día 30 de Noviembre en Madrid. Más información aquí

Understanding GDPR: The need for a new mindset

 

The recently approved General Data Protection Regulation, which will enter into force in May 2018, represents a radical departure from the compliance-based approach in relation to data management.

The immediate reaction from most CDOs or security professionals after reading in detail the document is feeling overwhelmed. Not in vain, according to the research company Ovum, more than 50% of CDOs from large businesses worldwide fear they are going to be fined by the Data Protection agencies.

Why this reaction? The reason is compliance with the new regulation from a traditional mindset seems an impossible task.  A new approach is necessary. There are four key areas where a shift needs to take place:

  • Security: The regulator is no longer telling organizations what security measures are required. Given the quick pace of technological change, compliance checklists are no longer viable. This is why organizations are told to base their security related decisions on risk audits, not only internal, but encompassing the impact for customers or individuals. Security decisions become a matter of judgement. Given that breaches will have to be notified within 72 hours, it will be better to err on the side of caution.
  • Transparency: Until now, once individuals gave permission to an organization to use their data, they lost visibility and control over it. Under GDPR, organizations will have to open up completely to individuals.

In the first place, tacit agreements in relation to data use will no longer be valid. Customers will have to take affirmative action. Furthermore, this will not be the end, but the beginning of a transparent and proactive reporting cycle with customers and individuals. Every action departing from the agreed use of information will have to be notified. Actually, individuals may request information to be accessed, erased, or even transferred to a competitor.

This is a reminder that data remains the property of individuals. Organizations will have to honor that, and transparency will represent a great deal in customer satisfaction and trust.

  • Responsibility: Under this new framework, whoever interacts with individual information becomes responsible, be it an information-processing company, or an actor in the supply chain. In plain language, there is nowhere to hide. This prevents the creation of weakest link in the information cycle outside a given organization. That’s where most attacks take place.

This changes relationships among players in the value chain, and contracts will have to reflect it accordingly: responsibility is closely tied to liability.

  • Treatment: Data per se is no longer the key concern. What organizations do with it is what matters. When companies had only a piece of information about individuals, this was considered almost innocuous. Now, with the emergence of Big Data, it is becoming too easy to combine information, and extract insights that may affect individual in unsuspected ways. This is why organizations will have to keep record of how they treat individual information. The GDPR wants to make sure the far reaching implications that may unfold from the use of analytics and Big Data are not beyond control.

In summary, this regulation treats data as the core asset in every organization, as well as a key element in personal security. This understanding is where the mind shift needs to take place. Once this is clear, the implications deriving from it make sense. It is true that the degree of imprecision sometimes deliberate, in this regulation may create areas of legal uncertainty. But, seeking compliance instructions of a regulator is no longer viable in a data driven world. Everyone will have to lead their own journey. The regulator is just pointing at the boundaries and responsibilities.

 

Suggested reading:

http://www.lopdat.es/noticias/aplicacion-practica-y-progresiva-del-nuevo-reglamento-europeo-de-proteccion-de-datos

https://www.dlapiper.com/en/uk/focus/eu-data-protection-regulation/key-changes/

 

 

 

Sistemas cognitivos: escalando el conocimiento para resolver problemas complejos

Henry Marsh es una eminencia mundial en neurocirugía. Por sus manos han pasado más de 15.000 pacientes. Hoy, después de 30 años ejerciendo, confiesa: “Lo difícil de mi trabajo no es operar sino decidir si hay que hacerlo o no”. Esta es la realidad a la que se enfrentan muchos médicos que se acuestan pensando si el diagnóstico y la consiguiente decisión que han tomado era la adecuada. Quizá por eso los médicos son algunos de los profesionales más interesados en los sistemas cognitivos.

Estos sistemas representan una aproximación tecnológica diferente, centrada en desarrollar una colaboración simbiótica entre las personas y las máquinas. Y es que el volumen de datos generados hace tiempo que sobrepasa nuestra capacidad para analizarlos. Por ejemplo, en un año el número de artículos de investigación médica que se publican se cuenta por miles.

Los sistemas cognitivos traen la promesa de cerrar la brecha que se está abriendo entre la necesidad de activar toda información relevante en su contexto y nuestra capacidad como individuos para llevarlo a cabo.

Hablamos de sistemas que buscan replicar la forma en la que las personas procesamos situaciones complejas y tomamos decisiones. Y lo hace trabajando con creencias, conocimientos, ideas e hipótesis. Se trata en definitiva de, a partir de la información existente, ofrecer la mejor respuesta posible a problemas complejos en los que no existen certezas sino probabilidades e intervalos de confianza en torno a múltiples respuestas posibles.

A diferencia de los sistemas expertos, los cognitivos se aplican en situaciones donde las reglas no están bien definidas y los datos además de ser abundantes se encuentran en constante cambio. Lo que define esta nueva generación de sistemas es su capacidad de aprender de la experiencia sin ser reprogramados, generar y evaluar hipótesis, y justificar sus conclusiones.

Esto permite escalar el conocimiento mediante la convergencia de la inteligencia artificial y las aplicaciones analíticas. Pongámoslo de este modo: las soluciones analíticas traducen e interpretan los datos en su contexto para generar información, ésta es agregada y combinada con otras fuentes de información configurando un corpora –repositorio dinámico con toda la información existente– que nutre a los sistemas cognitivos para, en un proceso continuo de aprendizaje, generar conocimiento.

Cuando un médico interactúa con un sistema cognitivo lo hace estableciendo un diálogo: el médico aporta las preguntas, su experiencia, sus valores… El sistema cognitivo la velocidad de análisis, de descubrimiento, de identificación de nuevas relaciones y patrones para mostrar los resultados sustentándolos en evidencias que pueden ser escrutadas antes de tomar una decisión.

La relación entre persona y máquina nace de la formulación de una pregunta, y el sistema tiene que, en primer lugar, interpretarla extrayendo significado del lenguaje antes de ofrecer una respuesta. Luego vendrá todo lo demás: análisis de información desestructurada –texto, imágenes, vídeos, etc.–, descubrimiento de patrones, generación de hipótesis… Hasta llegar a las conclusiones.

Todavía estamos en la infancia de este tipo de sistemas pero dado que una característica esencial de los mismos es su capacidad de aprendizaje cabe esperar una evolución exponencial. Estos sistemas ya comienzan a expandirse para abarcar nuevas áreas en las que las personas afrontamos problemas complejos y donde un sistema probabilístico puede potenciar nuestras capacidades.

En la actualidad Henry Marsh está jubilado pero dedica su tiempo a transmitir su conocimiento a otros médicos para que cuando se enfrenten a problemas complejos puedan tomar las mejores decisiones. La escalabilidad de conocimiento que ofrecen los sistemas cognitivos permitirá que cualquier médico tenga su propio “coach” asistiéndoles en la importantísima tarea que les ocupa, permitiéndoles acostarse sabiendo que su decisión se ha sustentado en toda la información relevante disponible en el preciso instante en la que la tomó.

PD. Este artíclo ha sido previamente publicado en Linkedin

 

Artificial Intelligence needs to cross the uncanny valley

Despite the vertiginous advances in cognitive technologies, commercial success will be determined by the willingness of humans to embrace them. Actually, the process of acceptance requires overcoming at some point a strong aversion by users. This dynamics need to be understood in business cases before rushing to make a decision.

The promise of intelligent technologies is fascinating: There is a wave of predictions presenting a future with robots taking over most human tasks, creating a much higher standard of living, where humans will concentrate on value-added tasks (there is a pessimistic current of thinking predicting we will end up as servants to robots, but we are not going to deal with that in this post). The question that is often overlooked is how to make the journey to that promising future.

Technological lifecycle follows a consistently upwards path, which can take the form of an S-curve, linear, or a disruptive leap. However, in the case of human and machine interactions, when assessing the likelihood of acceptance from the user side, the lifecycle path does not apply. The shape of the curve and the process dynamics are quite different. Understanding this difference could make the difference between the success and failure of a given project. This was known about 40 years ago, and the acceptance curve is called the uncanny valley.  The concept was coined by the Japanese robotics researcher Masahiro Mori. It describes our response cycle when interacting with a robot. It is shown in the graph below:

uncanny-valley

Source: ACM, 2016

Initially, our response to the appearance of a robot is positive as the appearance of the robot becomes increasingly human. However at some point, as the robot appears closer to humans, but not quite, it triggers a strong revulsion. That is the uncanny valley. Only when the appearance of the robot becomes practically indistinguishable from that of a human being, the emotional response becomes positive again.

The point here is that the uncanny valley does not apply only to robotics, but to the technologies that represent an interaction between humans and intelligent machines. In this case, the key is to be able to identify the factors defining the human-machine experience, beyond physical appearance.

Different technologies are at different points in the uncanny valley. For instance, digital representations of humans crossed the valley years ago. Other technologies are still making their way up from the bottom of the uncanny valley. We are going to explore two of them, how the uncanny valley applies, and the main implications:

Customer-facing Artificial Intelligence: This is a clear example of the illusion of upward evolution when the uncanny valley is overlooked. The benefits that AI can bring are great: an always-on, self-service offering, which can create top quality experiences when combined with big data and analytics. This has been proposed as the solution to the chronic BPO challenges, as organizations struggle to find contact center staff combining excellence in their skills, job loyalty and competitive salaries.

Basic IVR systems provided a cost-effective solution to simple problems. With the evolution of artificial intelligence, the range of problems that can be solved is potentially much broader. However, when dealing with more sophisticated systems, customer experience can be summarized as frustrating. There is an overall impression that the machine does not understand customer needs, beyond a set of predefined scenarios. This, along with the need to repeat questions several times, leads to an urge to talk to a human being. In the case of chatbots or personal assistants, it just takes a few interactions to reach the limits of that intelligence. Children seem to be particularly talented for that. Both cases reflect they are in the low region in the uncanny valley.

These systems do not yet have the ability to recognize or assess their own limitations. Furthermore, there are unable to deal with uncertainty and ambiguity, which are present to a high degree in human communication. The level of interaction expected needs to be richer than just providing an answer.

Anthropomorphic robots: After creating outstanding value in several sectors (e.g. manufacturing), the robot industry is turning to fulfilling human and social needs, in areas such as elderly care, domestic services, or even children with special needs. In principle, robots can potentially make a substantial improvement in the quality of life of many people.

This case combines both physical appearance and artificial intelligence. One of the companies actively researching in this area is Hanson Robotics, aiming at bringing to the world “humanlike robots with greater-than-human wisdom.” The company believes that showing humanlike face expressiveness and language technology, they can build strong emotional connections, paving the way for the services mentioned above.

I invite the reader to check the link below, and assess where in the uncanny valley this robot is. In order to create an interaction resembling human experience, and be accepted by people (in particularly those with special needs) it seems obvious that they still have a long way to go.

There is an element missing in the cognitive world and artificial intelligence when it comes to complex interaction with humans: emotional intelligence. These machines lack a basic conscience. It seems too obvious the user is dealing with just an algorithm or engine, however sophisticated, and no empathy emerges from those interactions. There is a contrast between the enthusiasm of developers and the reaction of users (or viewers)

This raises a question: if we are willing to trust a robot, knowing that in the end it is a robot. On the other hand, if a given robot passes the Turing test (created to determine if a machine behavior is actually indistinguishable from that of a human), a new breed of problems may appear. A clear example is the computer generated Japanese pop idol Aimi Eguchi, who (which) was a clever digital composite of the features of six existing members of the idol group AKB48, able to fool and later shock millions of fans in 2011.

It is not clear if society will allow robots to enter areas considered genuinely human. We may end up determining limits, establishing which activities can be performed by robots, and which ones will remain in the human domain. This is particularly clear in the case of ethical dilemmas (see the link below).It will be necessary to create a multidisciplinary dialogue addressing these questions.

For the time being, the most immediate step for any organization developing these solutions would be assessing where they are in the uncanny valley, and what steps are necessary to cross it. It is not them who should make the assessment, but their customers, the ultimate decision makers.

 

Recommended links:

Overview: http://cacm.acm.org/magazines/2016/9/206247-the-edge-of-the-uncanny/fulltext

Anthropomorphic robot: http://www.cnet.com/news/crazy-eyed-robot-wants-a-family-and-to-destroy-all-humans/

AI and ethical dilemmas: https://www.linkedin.com/pulse/conciencia-artificial-vs-inteligencia-antonio-j-ramirez (in Spanish)

Checklist para advanced analytics

Ya sabemos que la palabra de moda (ahora) es Analytics (ya sea como machine learning, artificial inteligence o deep learning). Aquellas empresas que no están generando estas capacidades dejarán de ser competitivas (lo dice todo el mundo Gartner, IDC, Harvard Business School, MIT,…). Podemos discutir (o no) si, se creemos en esto o si debemos creerlo con matices (no es la discusión de hoy).

Hoy estoy de retrospectiva.

Desde TDWI (en 2009!), se preparó una lista  – checklist lo llamaban – para advanced analytics que toda persona interesada en el tema debía (según ellos) echar un vistazo (como os podéis imaginar el enlace ya no existe o al menos yo no lo he encontrado). Creo que es interesante recuperar el tema. Veamos la lista:

  1. Uso de advanced analytics para descubrir relaciones y anticipar el futuro.
  2. Escalar la integración de datos para aumentar el alcance de volúmenes de datos a analizar.
  3. Identificar que reporting y analytics tiene diferentes objetivos y necesidades.
  4. Distinguir entre data warehouse, data mart y bases de datos analíticas.
  5. Diseñar una arquitectura de data warehouse que encaje con el análisis.
  6. Preparar los datos para cumplir las necesidades del método de análisis escogido.
  7. Preservar la riqueza de los datos, dado que en ella están ocultas los patrones buscados.
  8. Mejorar los datos después de trabajar con ellos, no antes. Es decir, incorporar los resultados a los datos.
  9. Aplicar el análisis al BI y al DW.

Algunos encontrarán esta lista obvia (de sentido común, dirán otros). Lo interesante de esta lista es que con unas ligeras modificaciones la adaptamos al contexto actual.

  1. Uso de machine learning y deep learning para descubrir relaciones y anticipar el futuro.
  2. Escalar la ingestión de datos para aumentar el alcance de datos complejos (big data) a analizar.
  3. Identificar que reporting y analytics tiene diferentes objetivos y necesidades.
  4. Distinguir entre big data, data lakedata warehousedata mart y bases de datos analíticas.
  5. Diseñar una arquitectura de data warehouse y/o big data que encaje con el análisis.
  6. Preparar los datos para cumplir las necesidades del método de análisis escogido.
  7. Preservar la riqueza de los datos, dado que en ella están ocultas los patrones buscados.
  8. Mejorar los datos después de trabajar con ellos, no antes. Es decir, incorporar los resultados a los datos.
  9. Aplicar el análisis al BI, DW y al Big Data.

Está claro que detrás de esta lista muy simple hay muchos detalles complicados. Como, por ejemplo, el punto 4 puede llegar a ser realmente interesante. Preguntas como: ¿es necesario desplegar una arquitectura ad-hoc, es suficiente con una out-of-the-box -que haremos evolucionar- y/o hacemos uso de recurso de cloud computing?

En todo caso, es interesante ver que esta lista sigue bastante vigente.

PD. Este artíclo ha sido previamente publicado en josepcurto.com

Chat-bots: ¿Un revulsivo para la industria TIC?

Desde principios de año las expectativas de crecimiento del mercado de chat-bots se han disparado, captando la atención mediática y abriendo un debate sobre si podrán llegar a sustituir el mercado de Apps e incluso si terminarán convirtiéndose en el nuevo interfaz de internet.

El mercado tecnológico siempre busca nuevos revulsivos, su crecimiento depende de su capacidad de innovar ¿Serán los chat-bots el revulsivo que la industria está buscando?

La tecnología que los hace posible lleva mucho tiempo entre nosotros – el primer chat-bot, ElIZA, data de los años 60s-. Pero no fue hasta principios de este siglo cuando empresas como AOL trataron, sin éxito, de hacer un uso comercial de los mismos. Entonces no existía la sobreabundancia de información actual, los usuarios ni disponíamos de dispositivos móviles inteligentes ni hacíamos un uso intensivo de plataformas de mensajería, y la inteligencia artificial o las tecnologías para el procesamiento del leguaje (NPL) tampoco tenían el grado de madurez del que gozan hoy.

Las condiciones han cambiado. Ahora sólo basta que todas las piezas que componen el engranaje del mercado comiencen a girar, y de momento lo están haciendo: en la actualidad se están desarrollando miles de chat-bots, las empresas comienzan a adoptarlos con entusiasmo, los inversores inyectan fondos en distintas start-ups, los grandes de la industria TIC empiezan a construir sus ecosistemas, … Y nosotros, los usuarios, aceptamos con cierta naturalidad interactuar con ellos.

Aunque el ruido mediático sea ensordecedor, los chat-bots todavía tienen que demostrar su capacidad para cubrir las expectativas que están generando en torno al incremento de la productividad de los empleados, a la mejora de la experiencia del cliente o a la creación de un nuevo paradigma de “comercio conversacional”.

Para que este mercado florezca es necesario que los desarrolladores entren en él, que moneticen sus desarrollos y obtengan beneficios. Durante los últimos años, los ingresos generados por el mercado de las Apps han ejercido una fuerte atracción sobre ellos. Tanto es así que han cambiado la escala del mercado de software: de unas decenas de miles de aplicaciones desarrolladas para entornos de escritorio hemos pasado a millones de apps.

Pero, si bien sus cifras quitan el aliento, el reparto de ingresos no ha sido equitativo y se ha concentrado en un puñado de empresas. Los desarrolladores encuentran cada vez más difícil y costoso conseguir monetizar sus Apps y tienen que hacer frente a un “problema de descubrimiento”. Quizá el desarrollo de chat-bots siga la misma senda de sobreabundancia. A día de hoy, todavía a la espera del “killer bot”, ofrece un mundo de posibilidades. En algunos casos sustituyendo las apps existentes y en otros siendo una extensión de las mismas como ya sucede en los videojuegos.

Desarrollar chat-bots no es lo mismo que desarrollar Apps. En apariencia su desarrollo es más sencillo, pero no lo es. Las habilidades necesarias para llevarlo a cabo son diferentes. Más allá de las disciplinas propias de la actividad tradicional en el desarrollo de software – Existen herramientas que permiten acelerar el proceso; Por ejemplo, botkit de slack -,  la dificultad se encuentra en identificar todos los matices del lenguaje humano, asegurando que se establecen conversaciones útiles en un contexto dado para permitir que el usuario complete la tarea iniciada.

En un intento de atraer a desarrolladores y generar un ecosistema en torno a ellos, los grandes de la industria tecnológica ya han comenzado a mover sus piezas. Aquí las espadas están en alto en lo que sabemos será uno de los principales campos de batalla: la construcción de un ecosistema de desarrolladores. Tecnológicas consolidadas como Amazon, Facebook, IBM, Cisco o Microsoft, junto con emergentes plataformas de mensajería como Slack o Telegram, están invirtiendo recursos para crear sus respectivos ecosistemas. Algunos ejemplos: Slack ha creado un fondo de 80 millones de dólares, Amazon de 100 millones, Cisco de 150 millones… e IBM además de dedicar un fondo similar, ha lanzado distintos concursos para identificar el talento y captar el interés de los desarrolladores – Por cierto, uno de los concursos está enfocado a establecer un dialogo entre bots… ¡¿premonitorio?! -.

En un mercado todavía en construcción, los desarrolladores también se enfrentan a un problema de descubrimiento, en este caso no por sobreabundancia, que la habrá, sino por la ausencia mecanismos que los pongan en contacto con los clientes potenciales. Hablamos de la falta de tiendas online – Bot-stores – que agreguen la oferta disponible y reduzcan el coste de búsqueda de los usuarios. Aunque ya existen empresas como Telegram que los han lanzado – creando una API que permite su escalabilidad-, no será hasta que Facebook lance el suyo propio cuando el mercado realmente se dinamice.

Telegram Bot-Store

store-bot

Nota: Interesante observar las categorías (ej. Educación) y el número de bots que incluyen (más de 3.000).

Nos encontramos en una fase incipiente del mercado. En las empresas los chat-bots están encontrando su entrada natural en los departamentos de servicio al cliente. No sin reticencias de algunas, que encuentran peligroso dejar en manos de la inteligencia artificial y de plataformas de terceros, el contacto con el cliente-. Pero cualquier departamento terminará adoptándolos porque en todos ellos existen preguntas en las que los empleados, para encontrar la respuesta, tienen que acceder a distintas aplicaciones o navegar por un gran volumen de información hasta dar con ella. Y este es el terreno de los chat-bots.

El hecho de que sean los departamentos de atención al cliente los que lideren la adopción está provocando que sean las empresas de B2C las primeras en experimentar con ellos. Pero los chat-bots no sólo tienen un uso hacia los clientes, sino también hacia los empleados-. Y en este último caso, cuando se construyen sobre los procesos de negocio pueden generar significativos aumentos en la productividad.

Como usuarios estamos preparados para interactuar con los chat-bots, ya sea en forma de texto como de voz. Sobre todo, después de haber pasado por unos sistemas automáticos que se encuentran en las antípodas de un sistema conversacional – “Si opción A, pulse 1. Si opción B, pulse 2…”. Los chat-bots nos permitirán hacer preguntas complejas que hoy no son posibles. Por ejemplo, traten de ver qué resultado que ofrece un buscador si le preguntan: busca el restaurante más cercano a mi oficina que sirva un menú en torno a 15€ y que disponga de mesas en una terraza.

Nos encontramos todavía en la infancia de los chat-bots y uno de sus principales aspectos diferenciales todavía no se muestra con toda su fuerza: su capacidad de aprendizaje. Por eso, uno de los principales retos que enfrentan los chat-bots y que determinará su futuro estará vinculado a cómo se define la propiedad de los datos, a su captura a través de distintas plataformas, a las políticas de privacidad, … En síntesis: a su estrategia de datos.

Hasta que no se desarrolle una estrategia de datos, mi Slack-bot me recordará que “es solo un bot, pero hará todo lo posible por contestarme”.