Redefiniendo la estrategia de precios

¿Cómo establecen en la práctica las empresas sus precios? ¿Cuánta información explotan antes de fijarlos? La pregunta está justificada. Según Mckinsey, un incremento de un 1% en los precios tiene un efecto multiplicativo sobre el margen operativo de hasta un 8%.

La capacidad de reacción frente a competidores, un mayor entendimiento de la elasticidad de la demanda, del ciclo de vida del cliente o de su contexto deben nutrir la estrategia de precios de las empresas. Atrás quedaron los tiempos en los que los precios se construían a partir de los costes, siguiendo a los líderes del mercado o intuyendo el valor aportado a un cliente genérico.

El cliente ha cambiado, su proceso de compra también. ¿De verdad pueden las empresas seguir fijando los precios como hasta ahora? ¿Sigiendo un proceso de planificación estático y secuencial que calcula costes, estima demanda, etc., una vez al año? ¿Utilizando una metodología que corresponde a una época con escasez de datos y los que había miraban al pasado?

Las presiones para redefinir la estrategia de precios proceden de la existencia de precios dinámicos, de la necesidad de alcanzar mayores cotas de personalización y de la la drástica reducción de los costes de experimentación:

  • Los precios de las empresas se tornan dinámicos – se elimina el coste intrínseco de cambiarlos como por ejemplo su etiquetado- permitiendo ser adaptados a las condiciones de cada momento. Esto significa que cualquier cambio en la estructura de costes o en el precio de un competidor puede reflejarse de forma instantánea. Por ejemplo,  beonprice permite a los hoteles hacer un seguimiento de los precios de sus competidores, bufete de marketing establecer un benchmark de precios y condiciones sobre productos financieros,…
  • Es posible alcanzar mayores cotas de personalización gracias a un mejor conocimiento sobre los clientes y su contexto, llegando incluso a anticipar su intención de compra o su propensión de pago. Y con ello cargando diferentes precios a distintos clientes ( Ver artículo académico de Universitat Politecnica de Catalunya y Telefónica Research sobre la discriminación de precios en internet)
  • El coste de experimentación es menor pudiendo ir ajustando los precios mediante prueba y error. Por ejemplo, antes de que se produzca una campaña, un comercio puede experimentar con distintos precios de un artículo para optimizar el precio durante la misma. Este es el caso de Amazon que realiza distintos test antes de fijar precios de algunos artículos.

Ahora las empresas no sólo pueden, sino que deben pasar de una planificación estática a otra adaptativa que fije los precios de acuerdo al valor aportado a cada cliente. Hasta la fecha esta aproximación ha sido escurridiza, pero hoy, gracias a la existencia de nuevos datos y la capacidad de las empresas para explotarlos, ya es posible.

Para ello será necesario identificar y recoger los datos relevantes, explotarlos, introducir un mayor grado de automatización y hacer un seguimiento continuo del impacto creando un proceso de retroalimentación continuo. Por partes:

  • Recoger datos. No se trata sólo de identificar qué datos tengo sino también qué datos necesito. Por ejemplo, quizá no disponga de datos sobre mis clientes por lo que será necesario tener una estrategia clara sobre la privacidad incorporándola por diseño – desde el principio- en la relación con los clientes.Identificar los datos relevantes no siempre será sencillo. Por ejemplo, empresas como Netflix apuntan a que ninguna variable demográfica determina los gustos de sus clientes a la hora de seleccionar una película.
  • Explotar datos. Combinar un enfoque tanto de análisis en tiempo real como un análisis con los datos en frio. Buscando crear modelos que incorporen todo el conocimiento existente con fines predictivos. Por ejemplo, en el sector industrial se pueden incorporar modelos de obsolescencia con fuentes de información transaccional y de interacción. En el sector telco, combinar modelos de churn de clientes con cambios en los precios de competidores. La lista puede ser muy extensa.
  • Automatizar. Alcanzar un mayor grado de “personalización” en los precios a gran escala exige una mayor automatización para disparar el precio en un contexto de compra. Por ejemplo, aunque incipiente, comienza a vislumbrarse una tendencia hacia un comercio conversacional en el que se puedan dispara precios personalizados en función de las necesidades expresadas por el cliente.
  • Retroalimentación continua. La estrategia de precios debe ser dinámica, adaptándose a un mercado en constante cambio. Al final, todas las empresas tendrán que retroalimentar su estrategia recogiendo información sobre el impacto que está teniendo la misma en los resultados de la empresa. Convirtiendo este en un input para reiniciar así el proceso de fijación de precios.

Cada sector encontrará nuevas fuentes con las que nutrir sus modelos, Pero será la forma en la que exploten esos datos los que marcará la diferencia entre empresas. Pero primero tendrán que desarrollar una estrategia adaptativa, que dé una respuesta ágil a los cambios de mercado y que persiga que la personalización de los precios sea escalable.

La era digital está forzando una redefinición de la estrategia de precios. Cualquier esfuerzo que realicen hoy las empresas en este sentido se verá recompensado. Mañana sencillamente será una condición de permanencia en el mercado.

Data Science y el embrollo de la reproducibilidad

Desde hace un año la polémica está servida en el ámbito de la Psicología: la mayor parte de los resultados encontrados en distintos experimentos publicados en las más prestigiosas revistas del mundo no han podido ser reproducidos.

La reproducibilidad no es negociable para ninguna disciplina científica, forma parte de su esencia. Por eso el debate sobre sus causas se ha expandido a otros ámbitos científicos y no debería pasar inadvertido en el mundo empresarial donde la orientación al dato busca consolidarse.

En agosto de 2015 se presentó un proyecto inusual que consistió en reproducir distintos experimentos llevados a cabo en el terreno de la psicología. Sus hallazgos fueron contundentes: de cada 100 experimentos tan sólo 36 pudieron reproducirse con éxito.

Existen múltiples explicaciones para este bajo porcentaje. Por ejemplo, es posible que faltase información relevante acerca de las condiciones en las que se creó el experimento o sencillamente que el investigador en su afán de buscar un resultado sorprende generase un sesgo involuntario. Puede incluso que los métodos (P-Value) para validar su reproducción no fueran los adecuados.

Lo cierto es que el hecho de que un experimento no pueda ser reproducido no significa necesariamente que los resultados sean falsos o que no se aplicara una metodología robusta. Es más, este ejercicio dice muy poco acerca de la veracidad del mismo.

Sin embargo, trasladar el debate suscitado al incipiente terreno de la orientación de las empresas al dato debería servir para reflexionar sobre la emergente figura del científico del dato, en cómo afecta a su capacidad para generar confianza en el decisor y en la eficiencia, por medio de la iteración, del propio proceso de análisis.

  • Generar confianza: Imaginemos a ese científico del dato que ha presentado los resultados de su análisis al comité de dirección. El análisis es robusto, las conclusiones pueden activar una decisión que cambiará el rumbo del negocio, la historia está bien elaborada y ha respondido a los porqués planteados. Pero, unas semanas más tarde vuelve con unos resultados distintos… Y aunque aquellos fueran veraces habrá perdido la confianza del decisor. Así que por un lado será necesario establecer mecanismos de revisión y de auditoría, seguimiento de versiones, que se documenten las condiciones en las que el análisis se llevó a cabo… Pero, además, los decisores tendrán que saber que las condiciones varían, que los modelos evolucionan y que la validez no se encuentra en la capacidad de reproducir un resultado. En otras palabras, será necesario construir la confianza trabajando en ambos extremos.
  • Fomentar la iteración: Existe un difícil equilibrio entre la necesidad de definir procesos y la “anarquía metodológica” en la búsqueda de resultados. El científico del dato tendrá que responder frecuentemente a preguntas similares, en la que existan pequeñas variaciones, o extensiones de algunas ya formuladas. Reinventar la rueda para dar respuesta cada vez que se formule una pregunta no solo no es eficiente – falta de reusabilidad – sino que impacta en su reproducibilidad.  Esta requiere que se establezcan procesos que, soportados por una infraestructura, busquen una mayor automatización. En otras palabras, la definición de un proceso que busque la reproducibilidad deberá cimentarse en la reutilización y la automatización para facilitar así la iteración.

Aunque la reproducibilidad es un viejo conocido del científico del dato y se han hecho significativos progresos, lo que ésta polémica nos enseña es que la comunicación y la eficiencia se encuentra en el corazón de su actividad.

Convertir las ciencias sociales en una suerte de nueva física social, ni va a ser fácil, ni va a estar exento de polémica. Tampoco lo va estar la mayor orientación al dato por parte de las empresas. Habrá que seguir trabajando.

PD. Este artículo ha sido previamente publicado en Linkedin

Personalized Medicine. A New Healthcare Paradigm Based on ICT Tools

During the last decades, the ICT revolution has dramatically transformed the way people and companies operate. The continuous development of ICT tools, not only has helped organizations to improve their productivity, but also has created completely brand new industries.

However, the healthcare industry has not historically embraced such technologies as fast as others. Traditionally, and in a classic product adoption lifecycle context, healthcare organizations used to be part either of the late majority or the laggards segments. Among others, the most important reasons of the slow deployment are:

  • existence of a high bureaucratic system with a wide number of actors involved in decision making.
  • difficulty to cope with high volumes of heterogeneous data
  • high costs involved in the storage and the analysis of the information.
  • legal issues concerning personal data management and data compilation
  • patient´s mistrust about data management of sensitive information.
  • lack of IT literacy of some segments of the healthcare workforce.

Historically, the main stakeholders of the healthcare system have not had big reasons for changing a classic, bureaucratic and highly profitable system. Large corporations have been interested in maintaining a corrective based and scale intensive model, focus in general diagnosis and treatments. On top of that, public administrations have contributed to create massive public systems whose efficiency is increasingly being questioned.

However, during the last few years, two main forces are producing a turning point, enabling a rapid implementation of ICT tools in healthcare sector. Today, the industry is considered to have a high potential for implementing such solutions. This revolution is generating a paradigm shift, from a traditional medical system, to a personalized medicine approach. A model centered in patient´s particular characteristics.

In developed countries, Governments are deploying a “push strategy” to change the situation. This is the first driver that is speeding up the pace at which the industry is evolving towards technological based models. Since an economic point of view, classic healthcare systems are no longer sustainable. Public institutions are seeing the new personalized medicine paradigm as an opportunity to create better solutions at a considerable lower cost. An example of this approach is the Horizon 2020 Healthcare framework developed by the European Union, funded with more than M€ 450 for the period 2014-20.

The second driver that is enabling this transformation is technology. New text mining and cognitive computing processes are allowing doctors and researchers to use unstructured data. This kind of data can be extracted from papers and other plain text documents and, analyzed as a whole, can provide useful information when diagnosing or treating a patient. Moreover, the cost of computer power needed to analyze huge amounts of data is becoming available at a reasonable cost, allowing activities that could not be imagined only a decade ago.

Data is nowadays present everywhere. Healthcare is a data intensive industry that uses knowledge to transform symptoms and pre-tested hypothesis in diagnostics and treatments. Nowadays, there exists an affordable technology capable of measuring and analyzing the data of the patient on an individual basis allowing, not only to create on-demand treatments, but to develop specific plans to predict and prevent diseases in advance.

The battle of Personalized Medicine has begun. A new dynamic and highly heterogeneous industry is being formed. Pharmaceutical, ICT, Insurance, Telecommunication, Consumer Electronics, are only a few of the sectors that are interested in creating specific divisions to develop products and services in the eHealth market. Based on its core competences, they will offer value propositions that will vary. However, most of them will have to implement big data platforms to turn raw data into meaningful value.

Francisco Parra, Research Analyst @ Delfos Research.

Data Driven Revolution (II)

It’s time to continue with our last post. We were how technolgies enabled the personalization of products and services.

The democratization of transaction and information costs has transformed the way of doing business, especially in the first decade of the XXI century. Today, organizations compete at a worldwide level in a fast changing environment, with lower entry barriers and symmetric information between sellers and buyers. On the one hand, this means that new sources of competitive advantage persist less over time. On the other hand, it also means that customers can compare for free and buy every product worldwide, thanks to the affordability of transportation costs. Thus, classic companies’ advantages like tangible assets or well-structured value chains are giving way to new sources of value.

It is here where the power of collaboration, big data and data analytics comes into play. In a fast changing environment, data that can be transformed in knowledge is becoming a very valuable asset. Also, new analytical tools are democratizing the analysis of big amounts of data. A few years ago, these processes were only available to large corporations.

Data driven organizations, like Google or Facebook are today among the most powerful companies in the world. In only a couple of years, they have transformed the way people and companies behave. These organizations are enabling complete new markets that didn’t exist before, and they are threatening the hegemony of leaders in classic sectors like Banking, Energy or Insurance. Why? Because all of these industries have one thing in common: profitability is directly related with the information quality of their activities, clients and other stakeholders.

This statement it is not only true for the three sectors above mentioned, but in a greater or lesser extent to all the organizations. We live in the era of data. We have produced more data in the last few years that in the entire history of human being. And we have an affordable way to analyze massive amounts of data and transform it into valuable knowledge. All this things combined represent challenging opportunities, but also big threats. Threats for classic banks, which start to consider Facebook and Google as potential competitors with better customer knowledge than them. Threats for classic energy companies, that are watching Google closing a multibillion dollar deal with Nest. A company that can predict the energy demand better than them. And many more examples are available on the web.

Mark Van Rijmenam preconizes in his book Think Bigger, that companies who fail in managing big data in the medium term, will cease to exist in 10 to 15 years from now. I do not know if the data impact will be as big as he says, but it cannot be denied that it is going to deeply change how the companies will operate and how they will create brand new competitive advantages in the future. New advantages based in the ability to turn internal and external sources of data, in valuable knowledge for decision making. But in essence, new advantages to continue doing the same: create or evolve new strategic, managerial or organizational models that outperform their competitors. Data driven organizations that will enable the development of more efficient processes and the creation of more personalized value propositions to each customer.

Francisco Parra, Research Analyst @ Delfos Research.

Data Driven Revolution (I)

The concept of competitive advantage was introduced by Michael Porter in the late 80s. A competitive advantage is an attribute or a combination of them that a company acquires or develops, and allows to outperform temporarily its competitors. This idea, linked with the Value Chain theory, created a framework for companies to define their competitive positioning, to develop efficiently processes and to provide better value propositions to their customers. Under these assumptions, an organization can follow two different strategies. A “low cost” or a differentiation approach.

While this framework has been since the 80s a rule of thumb in strategy management, during the last decades it seems that it is becoming out of date. Competitive advantages are becoming more temporary than ever, and constant innovation is a must in most of the industries. In this video, Philip Evans, Senior Partner in BCG, explains what are the drivers that are invalidating the classic Porter’s theories. In brief, two aspects have been the key for this periodical transformation: i) the democratization of transaction costs, thanks to the development of the Internet 2.0 and ii) the democratization of data analytics.

How these trends are changing the way a competitive advantage is understood? How companies are changing the way they compete in the market? Based on the two drivers above mentioned, it is possible to characterize the evolution of the organizations during the last decades, distinguishing between three different approaches: i) Product oriented, ii) Customer centric and iii) Data driven.

Product oriented companies are designed under the motto “sell everything it’s produced”. Companies have been competing for decades under these premises in many industries. These kind of organizations were intensive in tangible assets, and operated in markets characterized by the asymmetries of information between the supply and the demand. In this environment, efficiency and economies of scale were the main sources of competitive advantage.

Step by step, marketing activities were taking a more important role into organizations. The opinion of the customer increased its importance and companies started to develop consumer centric strategies, based on their personal needs and wants. Mass production and isolated transactions were substituted by personalization and long term approaches. The new social Internet, or Internet 2.0, has enabled the introduction of external information in the CRM systems, creating a 360° view of the customer. The communication between companies and customers has evolved from classic one-to-many monologues, to personalized many-to-many dialogues. Thanks to the dramatic decrease of transaction costs, every organization, no matter its size, is able to sell, create and share products, services and contents worldwide. In this new arena, the long tail has become available, allowing a higher personalization degree of products and services.

We will continue discussing about data-driven companies in the second part of this post.

Francisco Parra, Research Analyst @ Delfos Research.