Understanding GDPR: The need for a new mindset

 

The recently approved General Data Protection Regulation, which will enter into force in May 2018, represents a radical departure from the compliance-based approach in relation to data management.

The immediate reaction from most CDOs or security professionals after reading in detail the document is feeling overwhelmed. Not in vain, according to the research company Ovum, more than 50% of CDOs from large businesses worldwide fear they are going to be fined by the Data Protection agencies.

Why this reaction? The reason is compliance with the new regulation from a traditional mindset seems an impossible task.  A new approach is necessary. There are four key areas where a shift needs to take place:

  • Security: The regulator is no longer telling organizations what security measures are required. Given the quick pace of technological change, compliance checklists are no longer viable. This is why organizations are told to base their security related decisions on risk audits, not only internal, but encompassing the impact for customers or individuals. Security decisions become a matter of judgement. Given that breaches will have to be notified within 72 hours, it will be better to err on the side of caution.
  • Transparency: Until now, once individuals gave permission to an organization to use their data, they lost visibility and control over it. Under GDPR, organizations will have to open up completely to individuals.

In the first place, tacit agreements in relation to data use will no longer be valid. Customers will have to take affirmative action. Furthermore, this will not be the end, but the beginning of a transparent and proactive reporting cycle with customers and individuals. Every action departing from the agreed use of information will have to be notified. Actually, individuals may request information to be accessed, erased, or even transferred to a competitor.

This is a reminder that data remains the property of individuals. Organizations will have to honor that, and transparency will represent a great deal in customer satisfaction and trust.

  • Responsibility: Under this new framework, whoever interacts with individual information becomes responsible, be it an information-processing company, or an actor in the supply chain. In plain language, there is nowhere to hide. This prevents the creation of weakest link in the information cycle outside a given organization. That’s where most attacks take place.

This changes relationships among players in the value chain, and contracts will have to reflect it accordingly: responsibility is closely tied to liability.

  • Treatment: Data per se is no longer the key concern. What organizations do with it is what matters. When companies had only a piece of information about individuals, this was considered almost innocuous. Now, with the emergence of Big Data, it is becoming too easy to combine information, and extract insights that may affect individual in unsuspected ways. This is why organizations will have to keep record of how they treat individual information. The GDPR wants to make sure the far reaching implications that may unfold from the use of analytics and Big Data are not beyond control.

In summary, this regulation treats data as the core asset in every organization, as well as a key element in personal security. This understanding is where the mind shift needs to take place. Once this is clear, the implications deriving from it make sense. It is true that the degree of imprecision sometimes deliberate, in this regulation may create areas of legal uncertainty. But, seeking compliance instructions of a regulator is no longer viable in a data driven world. Everyone will have to lead their own journey. The regulator is just pointing at the boundaries and responsibilities.

 

Suggested reading:

http://www.lopdat.es/noticias/aplicacion-practica-y-progresiva-del-nuevo-reglamento-europeo-de-proteccion-de-datos

https://www.dlapiper.com/en/uk/focus/eu-data-protection-regulation/key-changes/

 

 

 

Experiencia de Cliente, el nuevo mantra para los negocios

¿Recuerda la última vez que viajó en avión? ¿Fue fácil comprar el billete? ¿Tuvo ansiedad antes de volar? ¿Quizá una carrera por el aeropuerto…? ¿Qué recuerda exactamente?

En mi caso recuerdo a una azafata dando las instrucciones de vuelo como si realmente me hablara a mí y no en modo autómata como acostumbran. Confieso que esto mitigó la ansiedad que suele acompañarme en estos casos. A continuación, me encontré pensando en la experiencia de cliente.

Esta se ha convertido en un nuevo mantra para los negocios. No se trata solo de mejorar el servicio reduciendo tiempos de espera o realizar mejoras en el producto. Sino más bien de adquirir la visión del cliente de principio a fin, desde que explora la posibilidad de adquirir el producto o servicio hasta que finalmente lo compra o consume. Y vuelta a empezar recorriendo de nuevo distintos puntos de interacción.

Existen distintas aproximaciones a la experiencia del cliente, pero la visión predominante es la que llevan a cabo empresas que utilizan todos los datos disponibles a su alcance para conocer al cliente, facilitarle la vida y mejorar el servicio al mismo tiempo que incrementan su eficiencia interna.

La idea que subyace es que, si tus operaciones son impecables y dotas de mayor capacidad de autoservicio al cliente, entonces tendrás clientes satisfechos con un menor coste de servicio.

Bajo este paradigma las empresas se afanan en conocer las preferencias del cliente, medir su grado de involucración, utilizar análisis predictivo, etc. Sin embargo, esta aproximación deja un componente esencial fuera de la ecuación: las emociones.

Poner la palabra “emoción” en un contexto de negocio puede chirriar los oídos a aquellos que piensa en una aproximación más funcional: simplificar la vida al cliente e incrementar el valor que recibe. Pero aquellas empresas capaces de ubicar las emociones dentro de su estrategia de experiencia de cliente conseguirán mayores cotas de fidelización. Y es que las emociones perduran en el tiempo.

Por ejemplo, una aplicación que nos permite cambiar un vuelo en tránsito en tiempo real mediante autoservicio no sólo es eficiente y nos simplifica la vida, sino que además mitiga nuestra ansiedad.

Se trata por tanto no sólo de generar emociones positivas como “deleitar” sino también mitigar emociones negativas como la “ansiedad”. Hay que gestionar ambos tipos de emociones. Si, además, esta aplicación ha sido diseñada situando al cliente en el centro entonces la experiencia será óptima.

Cada vez más, la interacción con el cliente se produce a través de canales digitales; es decir, entre el cliente y una pantalla donde una buena experiencia de usuario humaniza esas pantallas.

Pero en el terreno de las emociones el factor humano sigue siendo determinante; el mejor vehículo para trasmitir una emoción son las personas. Por tanto, identificar un eventual punto de interacción entre empleado y cliente, y añadir el contexto emocional, debe complementar esa “humanización de las pantallas”. Incluso podemos ir más lejos: aunque esa interacción persona a persona sea susceptible de automatizarse y transformarse en una interacción “persona a pantalla” ¿Debo automatizarla por defecto?

El espectacular avance de la inteligencia artificial abre una puerta a automatizar cosas antes impensables. Pero que sea posible no debe significar que debamos hacerlo. No sin antes entender el contexto emocional de cada situación.

Una buena estrategia de experiencia de cliente pone a las personas por delante. Empezando por los propios empleados para los que ahora su actitud, que no su aptitud, es esencial para desarrollar una cultura centrada en el cliente que permita alcanzar el éxito.

Reconozco que me da miedo volar, pero con una voz más humana, más próxima, como si realmente me estuviera hablando a mí, la ansiedad que me acompaña en cada vuelo se reduce.

Sí, esta es una experiencia personal. Pero, al fin y al cabo, no es esta la promesa que encierra la experiencia de cliente.

PD. Este artículo ha sido previamente publicado en BVEX

Redefiniendo la estrategia de precios

¿Cómo establecen en la práctica las empresas sus precios? ¿Cuánta información explotan antes de fijarlos? La pregunta está justificada. Según Mckinsey, un incremento de un 1% en los precios tiene un efecto multiplicativo sobre el margen operativo de hasta un 8%.

La capacidad de reacción frente a competidores, un mayor entendimiento de la elasticidad de la demanda, del ciclo de vida del cliente o de su contexto deben nutrir la estrategia de precios de las empresas. Atrás quedaron los tiempos en los que los precios se construían a partir de los costes, siguiendo a los líderes del mercado o intuyendo el valor aportado a un cliente genérico.

El cliente ha cambiado, su proceso de compra también. ¿De verdad pueden las empresas seguir fijando los precios como hasta ahora? ¿Sigiendo un proceso de planificación estático y secuencial que calcula costes, estima demanda, etc., una vez al año? ¿Utilizando una metodología que corresponde a una época con escasez de datos y los que había miraban al pasado?

Las presiones para redefinir la estrategia de precios proceden de la existencia de precios dinámicos, de la necesidad de alcanzar mayores cotas de personalización y de la la drástica reducción de los costes de experimentación:

  • Los precios de las empresas se tornan dinámicos – se elimina el coste intrínseco de cambiarlos como por ejemplo su etiquetado- permitiendo ser adaptados a las condiciones de cada momento. Esto significa que cualquier cambio en la estructura de costes o en el precio de un competidor puede reflejarse de forma instantánea. Por ejemplo,  beonprice permite a los hoteles hacer un seguimiento de los precios de sus competidores, bufete de marketing establecer un benchmark de precios y condiciones sobre productos financieros,…
  • Es posible alcanzar mayores cotas de personalización gracias a un mejor conocimiento sobre los clientes y su contexto, llegando incluso a anticipar su intención de compra o su propensión de pago. Y con ello cargando diferentes precios a distintos clientes ( Ver artículo académico de Universitat Politecnica de Catalunya y Telefónica Research sobre la discriminación de precios en internet)
  • El coste de experimentación es menor pudiendo ir ajustando los precios mediante prueba y error. Por ejemplo, antes de que se produzca una campaña, un comercio puede experimentar con distintos precios de un artículo para optimizar el precio durante la misma. Este es el caso de Amazon que realiza distintos test antes de fijar precios de algunos artículos.

Ahora las empresas no sólo pueden, sino que deben pasar de una planificación estática a otra adaptativa que fije los precios de acuerdo al valor aportado a cada cliente. Hasta la fecha esta aproximación ha sido escurridiza, pero hoy, gracias a la existencia de nuevos datos y la capacidad de las empresas para explotarlos, ya es posible.

Para ello será necesario identificar y recoger los datos relevantes, explotarlos, introducir un mayor grado de automatización y hacer un seguimiento continuo del impacto creando un proceso de retroalimentación continuo. Por partes:

  • Recoger datos. No se trata sólo de identificar qué datos tengo sino también qué datos necesito. Por ejemplo, quizá no disponga de datos sobre mis clientes por lo que será necesario tener una estrategia clara sobre la privacidad incorporándola por diseño – desde el principio- en la relación con los clientes.Identificar los datos relevantes no siempre será sencillo. Por ejemplo, empresas como Netflix apuntan a que ninguna variable demográfica determina los gustos de sus clientes a la hora de seleccionar una película.
  • Explotar datos. Combinar un enfoque tanto de análisis en tiempo real como un análisis con los datos en frio. Buscando crear modelos que incorporen todo el conocimiento existente con fines predictivos. Por ejemplo, en el sector industrial se pueden incorporar modelos de obsolescencia con fuentes de información transaccional y de interacción. En el sector telco, combinar modelos de churn de clientes con cambios en los precios de competidores. La lista puede ser muy extensa.
  • Automatizar. Alcanzar un mayor grado de “personalización” en los precios a gran escala exige una mayor automatización para disparar el precio en un contexto de compra. Por ejemplo, aunque incipiente, comienza a vislumbrarse una tendencia hacia un comercio conversacional en el que se puedan dispara precios personalizados en función de las necesidades expresadas por el cliente.
  • Retroalimentación continua. La estrategia de precios debe ser dinámica, adaptándose a un mercado en constante cambio. Al final, todas las empresas tendrán que retroalimentar su estrategia recogiendo información sobre el impacto que está teniendo la misma en los resultados de la empresa. Convirtiendo este en un input para reiniciar así el proceso de fijación de precios.

Cada sector encontrará nuevas fuentes con las que nutrir sus modelos, Pero será la forma en la que exploten esos datos los que marcará la diferencia entre empresas. Pero primero tendrán que desarrollar una estrategia adaptativa, que dé una respuesta ágil a los cambios de mercado y que persiga que la personalización de los precios sea escalable.

La era digital está forzando una redefinición de la estrategia de precios. Cualquier esfuerzo que realicen hoy las empresas en este sentido se verá recompensado. Mañana sencillamente será una condición de permanencia en el mercado.

Sistemas cognitivos: escalando el conocimiento para resolver problemas complejos

Henry Marsh es una eminencia mundial en neurocirugía. Por sus manos han pasado más de 15.000 pacientes. Hoy, después de 30 años ejerciendo, confiesa: “Lo difícil de mi trabajo no es operar sino decidir si hay que hacerlo o no”. Esta es la realidad a la que se enfrentan muchos médicos que se acuestan pensando si el diagnóstico y la consiguiente decisión que han tomado era la adecuada. Quizá por eso los médicos son algunos de los profesionales más interesados en los sistemas cognitivos.

Estos sistemas representan una aproximación tecnológica diferente, centrada en desarrollar una colaboración simbiótica entre las personas y las máquinas. Y es que el volumen de datos generados hace tiempo que sobrepasa nuestra capacidad para analizarlos. Por ejemplo, en un año el número de artículos de investigación médica que se publican se cuenta por miles.

Los sistemas cognitivos traen la promesa de cerrar la brecha que se está abriendo entre la necesidad de activar toda información relevante en su contexto y nuestra capacidad como individuos para llevarlo a cabo.

Hablamos de sistemas que buscan replicar la forma en la que las personas procesamos situaciones complejas y tomamos decisiones. Y lo hace trabajando con creencias, conocimientos, ideas e hipótesis. Se trata en definitiva de, a partir de la información existente, ofrecer la mejor respuesta posible a problemas complejos en los que no existen certezas sino probabilidades e intervalos de confianza en torno a múltiples respuestas posibles.

A diferencia de los sistemas expertos, los cognitivos se aplican en situaciones donde las reglas no están bien definidas y los datos además de ser abundantes se encuentran en constante cambio. Lo que define esta nueva generación de sistemas es su capacidad de aprender de la experiencia sin ser reprogramados, generar y evaluar hipótesis, y justificar sus conclusiones.

Esto permite escalar el conocimiento mediante la convergencia de la inteligencia artificial y las aplicaciones analíticas. Pongámoslo de este modo: las soluciones analíticas traducen e interpretan los datos en su contexto para generar información, ésta es agregada y combinada con otras fuentes de información configurando un corpora –repositorio dinámico con toda la información existente– que nutre a los sistemas cognitivos para, en un proceso continuo de aprendizaje, generar conocimiento.

Cuando un médico interactúa con un sistema cognitivo lo hace estableciendo un diálogo: el médico aporta las preguntas, su experiencia, sus valores… El sistema cognitivo la velocidad de análisis, de descubrimiento, de identificación de nuevas relaciones y patrones para mostrar los resultados sustentándolos en evidencias que pueden ser escrutadas antes de tomar una decisión.

La relación entre persona y máquina nace de la formulación de una pregunta, y el sistema tiene que, en primer lugar, interpretarla extrayendo significado del lenguaje antes de ofrecer una respuesta. Luego vendrá todo lo demás: análisis de información desestructurada –texto, imágenes, vídeos, etc.–, descubrimiento de patrones, generación de hipótesis… Hasta llegar a las conclusiones.

Todavía estamos en la infancia de este tipo de sistemas pero dado que una característica esencial de los mismos es su capacidad de aprendizaje cabe esperar una evolución exponencial. Estos sistemas ya comienzan a expandirse para abarcar nuevas áreas en las que las personas afrontamos problemas complejos y donde un sistema probabilístico puede potenciar nuestras capacidades.

En la actualidad Henry Marsh está jubilado pero dedica su tiempo a transmitir su conocimiento a otros médicos para que cuando se enfrenten a problemas complejos puedan tomar las mejores decisiones. La escalabilidad de conocimiento que ofrecen los sistemas cognitivos permitirá que cualquier médico tenga su propio “coach” asistiéndoles en la importantísima tarea que les ocupa, permitiéndoles acostarse sabiendo que su decisión se ha sustentado en toda la información relevante disponible en el preciso instante en la que la tomó.

PD. Este artíclo ha sido previamente publicado en Linkedin

 

Compitiendo en ecosistemas

Escoger una solución de datos (ya sea de Business Intelligence, Data Analytics o Big Data) se está volviendo cada vez más complicado y es necesario tener una estrategia adecuada y mecanismos de evaluación eficientes. Por ejemplo, ¿qué librería de machine learning es mejor en las diferentes plataformas?  ¿Sabemos definir qué es mejor?  ¿Qué solución me ofrece mayor versatilidad para mis preguntas? ¿Qué supone para mi organización escoger una plataforma u otra? ¿Debo considerar convertir mi organización en un colaborador de la plataforma?

Tradicionalmente escoger una plataforma de datos ha esta ligado al precio, a la calidad, a las características de producto,… pero actualmente también han emergido otras formas de competición que afectan al mercado de Big Data y Analytics y impactan profundamente en la selección de nuestra plataforma de datos.

Tal y como apuntan Kapoor y Lee en el artículo Coordinating and competing in ecosystems: How organizational forms shape new technology investments, actualmente las organizaciones compiten a través de ecosistemas en los que colaboran y compiten al mismo tiempo.

En el contexto de las estrategias de datos, tradicionalmente fabricantes y proveedores han creado relaciones uno a uno para crear mejores productos y ofrecer valor añadido. Sin embargo, hemos asistido en los últimos años a un fenómeno que se enclava dentro del artículo anteriormente citado: las tecnologías de Big Data y Analytics se articulan a través de ecosistemas y plataformas. La dinámica competitiva ha cambiado. Se compite en la capacidad de innovación presente y futura lo que lleva a considerar modelos de coopetencia construidos en torno a tecnologías open source.

El ejemplo más claro de esto es Apache Hadoop en el que múltiples empresas colaboran para mejorar las componentes del ecosistema y al mismo tiempo ofrecen servicios de valor añadido mediante su propia plataforma en la que han integrado diversas de las componentes.

Cambios en la dinámica competitiva de los proveedores requieren un nuevo enfoque en la evaluación por parte de las empresas.

Tenemos, en realidad, varios escenarios que conviven al mismo tiempo:

  • Fabricantes que siguen el modelo tradicional fundamentados en partnerships con terceros para la reventa y creación de servicios de valor.
  • Fabricantes que colaboran en el diseño y la mejora de tecnologías con otros, pero que a posteriori ofrecen una plataforma integrada sobre la que ofrecen servicios. Por ejemplo, Apache Hadoop o Spark.
  • Fabricantes que ofrecen plataformas de desarrollo (de estrategias de datos) para captar empresas que creen sus nuevos productos fundamentados en sus componentes. Por ejemplo, Amazon, Microsoft o Google.

Elegir un enfoque sobre el resto, limita qué podremos hacer y la forma de hacerlo. A tener en cuenta:

  • La situación del ecosistema: quién participa, de qué forma, en qué condiciones, madurez y evolución.
  • Lock-in: una vez escogido el ecosistema, ¿es para siempre?
  • Open Source: en qué medida se apoya el ecosistema en el open source y bajo qué licencia.
  • Propiedad del dato y del algoritmo: en función del ecosistema es necesario revisar quién es el propietario de estos puntos.

Ante tanta opción, es fácil que una organización quede paralizada y no inicie ninguna acción en su transformación hacia la orientación del dato.

En esta nueva realidad, cambia cómo las organizaciones deben evaluar sus estrategias de datos. Importa el enfoque y no sólo el producto. Y es necesario prepararse para evitar la parálisis. Estamos hablando de nuevos perfiles, nuevos criterios de decisiones y nuevos modelos de colaboración.

¿Estamos preparados para el reto?

Data Science y el embrollo de la reproducibilidad

Desde hace un año la polémica está servida en el ámbito de la Psicología: la mayor parte de los resultados encontrados en distintos experimentos publicados en las más prestigiosas revistas del mundo no han podido ser reproducidos.

La reproducibilidad no es negociable para ninguna disciplina científica, forma parte de su esencia. Por eso el debate sobre sus causas se ha expandido a otros ámbitos científicos y no debería pasar inadvertido en el mundo empresarial donde la orientación al dato busca consolidarse.

En agosto de 2015 se presentó un proyecto inusual que consistió en reproducir distintos experimentos llevados a cabo en el terreno de la psicología. Sus hallazgos fueron contundentes: de cada 100 experimentos tan sólo 36 pudieron reproducirse con éxito.

Existen múltiples explicaciones para este bajo porcentaje. Por ejemplo, es posible que faltase información relevante acerca de las condiciones en las que se creó el experimento o sencillamente que el investigador en su afán de buscar un resultado sorprende generase un sesgo involuntario. Puede incluso que los métodos (P-Value) para validar su reproducción no fueran los adecuados.

Lo cierto es que el hecho de que un experimento no pueda ser reproducido no significa necesariamente que los resultados sean falsos o que no se aplicara una metodología robusta. Es más, este ejercicio dice muy poco acerca de la veracidad del mismo.

Sin embargo, trasladar el debate suscitado al incipiente terreno de la orientación de las empresas al dato debería servir para reflexionar sobre la emergente figura del científico del dato, en cómo afecta a su capacidad para generar confianza en el decisor y en la eficiencia, por medio de la iteración, del propio proceso de análisis.

  • Generar confianza: Imaginemos a ese científico del dato que ha presentado los resultados de su análisis al comité de dirección. El análisis es robusto, las conclusiones pueden activar una decisión que cambiará el rumbo del negocio, la historia está bien elaborada y ha respondido a los porqués planteados. Pero, unas semanas más tarde vuelve con unos resultados distintos… Y aunque aquellos fueran veraces habrá perdido la confianza del decisor. Así que por un lado será necesario establecer mecanismos de revisión y de auditoría, seguimiento de versiones, que se documenten las condiciones en las que el análisis se llevó a cabo… Pero, además, los decisores tendrán que saber que las condiciones varían, que los modelos evolucionan y que la validez no se encuentra en la capacidad de reproducir un resultado. En otras palabras, será necesario construir la confianza trabajando en ambos extremos.
  • Fomentar la iteración: Existe un difícil equilibrio entre la necesidad de definir procesos y la “anarquía metodológica” en la búsqueda de resultados. El científico del dato tendrá que responder frecuentemente a preguntas similares, en la que existan pequeñas variaciones, o extensiones de algunas ya formuladas. Reinventar la rueda para dar respuesta cada vez que se formule una pregunta no solo no es eficiente – falta de reusabilidad – sino que impacta en su reproducibilidad.  Esta requiere que se establezcan procesos que, soportados por una infraestructura, busquen una mayor automatización. En otras palabras, la definición de un proceso que busque la reproducibilidad deberá cimentarse en la reutilización y la automatización para facilitar así la iteración.

Aunque la reproducibilidad es un viejo conocido del científico del dato y se han hecho significativos progresos, lo que ésta polémica nos enseña es que la comunicación y la eficiencia se encuentra en el corazón de su actividad.

Convertir las ciencias sociales en una suerte de nueva física social, ni va a ser fácil, ni va a estar exento de polémica. Tampoco lo va estar la mayor orientación al dato por parte de las empresas. Habrá que seguir trabajando.

PD. Este artículo ha sido previamente publicado en Linkedin

Artificial Intelligence needs to cross the uncanny valley

Despite the vertiginous advances in cognitive technologies, commercial success will be determined by the willingness of humans to embrace them. Actually, the process of acceptance requires overcoming at some point a strong aversion by users. This dynamics need to be understood in business cases before rushing to make a decision.

The promise of intelligent technologies is fascinating: There is a wave of predictions presenting a future with robots taking over most human tasks, creating a much higher standard of living, where humans will concentrate on value-added tasks (there is a pessimistic current of thinking predicting we will end up as servants to robots, but we are not going to deal with that in this post). The question that is often overlooked is how to make the journey to that promising future.

Technological lifecycle follows a consistently upwards path, which can take the form of an S-curve, linear, or a disruptive leap. However, in the case of human and machine interactions, when assessing the likelihood of acceptance from the user side, the lifecycle path does not apply. The shape of the curve and the process dynamics are quite different. Understanding this difference could make the difference between the success and failure of a given project. This was known about 40 years ago, and the acceptance curve is called the uncanny valley.  The concept was coined by the Japanese robotics researcher Masahiro Mori. It describes our response cycle when interacting with a robot. It is shown in the graph below:

uncanny-valley

Source: ACM, 2016

Initially, our response to the appearance of a robot is positive as the appearance of the robot becomes increasingly human. However at some point, as the robot appears closer to humans, but not quite, it triggers a strong revulsion. That is the uncanny valley. Only when the appearance of the robot becomes practically indistinguishable from that of a human being, the emotional response becomes positive again.

The point here is that the uncanny valley does not apply only to robotics, but to the technologies that represent an interaction between humans and intelligent machines. In this case, the key is to be able to identify the factors defining the human-machine experience, beyond physical appearance.

Different technologies are at different points in the uncanny valley. For instance, digital representations of humans crossed the valley years ago. Other technologies are still making their way up from the bottom of the uncanny valley. We are going to explore two of them, how the uncanny valley applies, and the main implications:

Customer-facing Artificial Intelligence: This is a clear example of the illusion of upward evolution when the uncanny valley is overlooked. The benefits that AI can bring are great: an always-on, self-service offering, which can create top quality experiences when combined with big data and analytics. This has been proposed as the solution to the chronic BPO challenges, as organizations struggle to find contact center staff combining excellence in their skills, job loyalty and competitive salaries.

Basic IVR systems provided a cost-effective solution to simple problems. With the evolution of artificial intelligence, the range of problems that can be solved is potentially much broader. However, when dealing with more sophisticated systems, customer experience can be summarized as frustrating. There is an overall impression that the machine does not understand customer needs, beyond a set of predefined scenarios. This, along with the need to repeat questions several times, leads to an urge to talk to a human being. In the case of chatbots or personal assistants, it just takes a few interactions to reach the limits of that intelligence. Children seem to be particularly talented for that. Both cases reflect they are in the low region in the uncanny valley.

These systems do not yet have the ability to recognize or assess their own limitations. Furthermore, there are unable to deal with uncertainty and ambiguity, which are present to a high degree in human communication. The level of interaction expected needs to be richer than just providing an answer.

Anthropomorphic robots: After creating outstanding value in several sectors (e.g. manufacturing), the robot industry is turning to fulfilling human and social needs, in areas such as elderly care, domestic services, or even children with special needs. In principle, robots can potentially make a substantial improvement in the quality of life of many people.

This case combines both physical appearance and artificial intelligence. One of the companies actively researching in this area is Hanson Robotics, aiming at bringing to the world “humanlike robots with greater-than-human wisdom.” The company believes that showing humanlike face expressiveness and language technology, they can build strong emotional connections, paving the way for the services mentioned above.

I invite the reader to check the link below, and assess where in the uncanny valley this robot is. In order to create an interaction resembling human experience, and be accepted by people (in particularly those with special needs) it seems obvious that they still have a long way to go.

There is an element missing in the cognitive world and artificial intelligence when it comes to complex interaction with humans: emotional intelligence. These machines lack a basic conscience. It seems too obvious the user is dealing with just an algorithm or engine, however sophisticated, and no empathy emerges from those interactions. There is a contrast between the enthusiasm of developers and the reaction of users (or viewers)

This raises a question: if we are willing to trust a robot, knowing that in the end it is a robot. On the other hand, if a given robot passes the Turing test (created to determine if a machine behavior is actually indistinguishable from that of a human), a new breed of problems may appear. A clear example is the computer generated Japanese pop idol Aimi Eguchi, who (which) was a clever digital composite of the features of six existing members of the idol group AKB48, able to fool and later shock millions of fans in 2011.

It is not clear if society will allow robots to enter areas considered genuinely human. We may end up determining limits, establishing which activities can be performed by robots, and which ones will remain in the human domain. This is particularly clear in the case of ethical dilemmas (see the link below).It will be necessary to create a multidisciplinary dialogue addressing these questions.

For the time being, the most immediate step for any organization developing these solutions would be assessing where they are in the uncanny valley, and what steps are necessary to cross it. It is not them who should make the assessment, but their customers, the ultimate decision makers.

 

Recommended links:

Overview: http://cacm.acm.org/magazines/2016/9/206247-the-edge-of-the-uncanny/fulltext

Anthropomorphic robot: http://www.cnet.com/news/crazy-eyed-robot-wants-a-family-and-to-destroy-all-humans/

AI and ethical dilemmas: https://www.linkedin.com/pulse/conciencia-artificial-vs-inteligencia-antonio-j-ramirez (in Spanish)