¿HACIA DÓNDE EVOLUCIONA EL DATA CENTER?

En el contexto de negocio de transformación  e incertidumbre en el que todos los negocios están inmersos, muchas empresas se están cuestionando su modelo de data center. ¿Existe un modelo de data center de referencia? ¿Por cuál debe apostar una empresa?

En Delfos pensamos que el modelo que prevalece es el híbrido. Es decir, no se trata de un modelo, sino de una amalgama de estos. No solo nos referimos a la convivencia de lo heredado y lo nuevo. El asunto de fondo es que para ser competitivas, las empresas tienen que moverse en la confluencia de agilidad, innovación y eficiencia. Esto hace imposible que una empresa pueda apostar por un modelo único, dado que condicionaría alguno de estos aspectos.

Hace algunos años ya observamos que el mercado de data center se estaba bifurcando en dos direcciones: por un lado el data center definido por software, y por otro, el data center de infraestructura especializada, es decir, definido por hardware. Ambos modelos responden a necesidades diferentes.

El data center definido por software da respuesta al imperativo de agilidad. Las organizaciones se encuentran en un entorno de negocios impredecible y acelerado. No se puede saber con certeza cómo va a evolucionar la demanda; esto hace arriesgado tomar decisiones  ahora que puedan comprometer la trayectoria futura. Además, si aparece una oportunidad, hay que capturarla y escalarla con rapidez, antes de que la competencia se apropie de ella. En el modelo de data center definido por software, el hardware se convierte en una commodity, y es el software el que determina su función. De este modo, los recursos se definen y ajustan en función de una demanda cambiante.

La otra dirección que toma el data center es la de la infraestructura especializada, es decir, dirigido por hardware. Este modelo responde al imperativo de innovación. Los limites la frontera de la innovación están determinados por el hardware. Ejemplos claros son la inteligencia artificial y el blockchain. Ambos tienen requerimientos de cómputo muy intensivo, que afectan no solo al propio hardware, sino a la arquitectura física de la instalación, el suministro energético y el entorno físico. Por ejemplo, las condiciones climáticas de Noruega han atraído una elevada inversión en blockchain, ante la facilidad de refrigeración. La frontera de la innovación está determinada por la disponibilidad de hardware.

Estas dos líneas de evolución provienen del lado de la oferta, que basa su estrategia en uno de los modelos. Sin embargo, la demanda no puede comprometerse con una opción predefinida de data center. Las empresas no pueden apostar por la agilidad y dejar de lado la innovación, dado que erosionarían sus márgenes y sus ingresos futuros. Tampoco pueden innovar sin agilidad, dado que llegarían tarde al mercado. Además, necesitan operar de forma eficiente, entregando los recursos a medida que se necesitan, y evitando el sobredimensionamiento. Es decir, las empresas compiten en el área de confluencia de agilidad, innovación y eficiencia. Por eso, necesitan combinar las ventajas de cada modelo en la medida justa para su negocio. Es decir, el data center es híbrido por su propia naturaleza y no por una coyuntura de coexistencia de lo nuevo y lo heredado.

Además, hay que tener en cuenta que las cargas tienen un ciclo de vida, en el que cada etapa tiene sus requerimientos, y que aparecen nuevas tecnologías de forma continua. Es decir, el entorno híbrido va a estar adaptándose, incluso reconfigurándose, a medida que el negocio evoluciona. El futuro del data center es híbrido y a la vez dinámico.

El reto para muchas empresas es gestionar esta evolución con recursos limitados. Es aquí donde la oferta de tecnología como servicio entra al rescate. Eso sí, es necesario que exista una masa crítica de oferta disponible –para proporcionar agilidad y escalabilidad-, y una infraestructura especializada accesible –para permitir la innovación.

Una oferta adecuada de estos servicios proporciona una ventaja competitiva a la región, que puede crear negocios intensivos en tecnología sin comprometer inversiones. Por eso existe una competencia global por atraer inversiones en data centers. Hemos realizado recientemente un estudio en el que se detalla la importancia de la infraestructura para hacer posible esta oferta de servicios.

El año de la redefinición por antonomasia

2018 es el año en que las empresas asumen que ser digital significa algo más que adoptar nuevas tecnologías. Estas son condición necesaria, pero deben ir acompañadas de una nueva mentalidad: un negocio digital es radicalmente distinto, tanto hacia fuera como hacia dentro. Por ejemplo, este año veremos cómo distintas empresas exploran IoT para ofertar productos y servicios basados en pago por uso. Estamos en un momento en el que cualquier sector apunta hacia una redefinición, lo que está por ver es la conversión del piloto a escala, del impacto anecdótico al transformador. La mayor parte de las pruebas de concepto no llegarán nunca a escalar. Pero, aquellas que lo hagan, ofrecerán fuertes recompensas. El coste de oportunidad de no experimentar es tan alto que los lideres del mercado invertirán, asumiendo riesgos y entendiendo cada “fracaso” como un aprendizaje. Esta es la nueva dinámica de la era digital: los primeros en llegar se lo llevan todo, aunque para ello tengan que recorrer un largo camino de prueba y error sin garantía de éxito.
El segundo aspecto que marcará este año es que la innovación vendrá más por combinar tecnologías ya existentes que en la aparición de nuevas. Incluso aquellas todavía inmaduras, como blockchain, comenzarán a combinarse de maneras insospechadas con IoT,  inteligencia artificial, realidad virtual o cloud. De todas ellas, la inteligencia artificial será la que alcance una mayor ubicuidad gracias a su capacidad de integración y potenciación de las tecnologías existentes: desde asistentes personales; actuando como interfaz de usuario en toda clase de servicios, hasta ser embebidas en todo tipo de soluciones SaaS, tanto aplicaciones empresariales como herramientas de productividad. Ello implica que desaparece el pensamiento mágico asociado a la inteligencia artificial, y es sustituido por un pensamiento pragmático, más consciente de las posibilidades, las limitaciones y la curva de aprendizaje.
El tercer factor que cobra relevancia este año es la “transformación cultural” de las empresas. Son cada vez más las empresas que empiezan a cuestionar la forma de entender el trabajo, incluso la propia organización. Está emergiendo un nuevo paradigma de colaboración y empoderamiento de los empleados. Así; por ejemplo, este año las metodologías ágiles dejarán de ser una aproximación marginal para ser adoptada por un grupo significativo de empresas, que incluye a la mediana empresa. Este enfoque va más allá de la actividad de desarrollo, y se extiende a otros procesos, y se combina con enfoques lean y de design thinking. Para los que están a la vanguardia, el reto va a estar en extenderlas desde el departamento de sistemas a toda la organización.
Por último, no hay que olvidar que todas las iniciativas tecnológicas estarán marcadas por la nueva regulación GDPR que entra en vigor en unos meses, así como de otras regulaciones sectoriales, que tendrán un fuerte impacto. Este año su cumplimiento va a ser una prioridad en la empresa. Pero aquellas visionarias irán un paso más allá y cambiarán su modelo de relación con los clientes y los empleados, siendo por un lado más transparentes y por otro otorgando mayor control a la persona sobre el uso que se hace de sus datos. Estas empresas nos mostrarán cómo se compite en la economía del dato.
Este artículo ha sido previamente publicado en computerworld

NO ES LO MISMO “HACER DIGITAL” QUE “SER DIGITAL”

No hay marcha atrás. Todas las empresas compiten en un entorno digital. No importa que el sector se considere tradicional o parezca alejado de la tecnología. En este contexto, muchas empresas ven cómo su negocio, del que todavía proviene el grueso de sus ingresos, está en declive. Pero el nuevo negocio, de donde vendrán los ingresos futuros, no está definido. Una vez iniciado el proceso de transformación digital, la pregunta que surge de forma natural es: transformarse en qué, hacia dónde, si no sabemos qué aspecto tendrá nuestro negocio en el futuro.

Lo que sí sabemos es que los nuevos actores digitales estarán allí, cambiando constantemente las reglas, obligando a todos sus competidores a tener que adaptarse con agilidad. Para hacernos una idea, basta pensar cuál está siendo ya el impacto combinado de la inteligencia artificial (IA) e Internet de las cosas (IoT) en el sector seguros. Lo que no está claro es si serán las propias aseguradoras quienes lo exploren, aparezca un nuevo marco de competencia, o consigan alinearse en forma de ecosistema. Llegados a este punto es necesario hacer una distinción muy importante: no es lo mismo “hacer” digital que “ser” digital.

Siguiendo con nuestro ejemplo, “hacer digital” significa adoptar IoT para crear un nuevo modelo de negocio en las empresas aseguradoras para ofertar un seguro de pago por uso. Mientras que ser digital significa saber que un 85% de las pruebas de concepto en IoT van a fallar. Es decir, significa estar dispuesto a recorrer el camino del 85% del error, hasta que se descubra aquello que funciona. Ello requiere una forma distinta de entender y evaluar el éxito… y el fracaso.

Hay que desterrar la idea de una innovación basada en grandes proyectos faraónicos que corren en paralelo al negocio. En las empresas con mayor éxito la innovación está dispersa por toda la organización e integrada en su actividad diaria. Pero no basta con ser una empresa que experimenta y aprende. Cuando, fruto de este proceso de experimentación, uno encuentra “un filón”, tiene que moverse rápido y ser ágil escalando la oportunidad. Hay que monetizarla antes que los competidores, que pueden replicar, e incluso mejorar la innovación de forma implacable. En otras palabras, no busques el producto o servicio perfecto, lanza una versión que sea mínimamente viable y ya irás mejorándolo, pero hazlo ya.

En la práctica esto significa que el foco ya no está en el producto, sino que éste se ha desplazado al cliente. Los productos y servicios se encuentran en una constante “beta” a la espera de ser mejorados a través del feedback de los clientes. No se trata solo de ser rápidos, se trata también de saber lo que el cliente quiere y encontrar la manera de incorporarlo en el producto o servicio. Es precisamente el dato lo que lo hace posible. De hecho, muchas empresas de producto están tratando de reequilibrar los flujos de información con el resto de actores de la cadena (ej. distribuidores). Ser digital no es comunicarse con el cliente a través de nuevos canales: es obsesionarse por el cliente, conocerle y anticiparse a sus necesidades.

¿Por dónde empezar? Quizá nos seduzca el brillo de las tecnologías que se encuentran a nuestro alcance, pero hay que aprender a gestionar el riesgo, a recorrer la senda del error, sin poner en jaque la supervivencia del negocio. Aquí se encuentra el principal obstáculo a superar. Las tecnologías están disponibles, y su potencial no tiene límites; todo negocio debe adoptar, sin duda, nuevas tecnologías que le permitan competir en un mundo digital. Pero ser digital implica algo más, implica pensar de otra manera: experimentar, tomar riesgos; requiere nuevas métricas y nuevas formas de decidir y evaluar. Este ejercicio no lo puede hacer la tecnología, solo las personas. Se trata de convertirse en un negocio digital, con directivos digitales y empleados digitales.

El cambio empieza en nosotros. De ahí vendrá todo lo demás.

Inteligencia artificial y pensamiento mágico

La inteligencia artificial utiliza el mundo como laboratorio. Su presencia en todo tipo de dispositivos, desde smartphones hasta vehículos, aunque invisible comienza a ser ubicua. Toma decisiones que afectan a nuestra vida cotidiana. Determina, por ejemplo, a qué noticias o publicidad estamos expuestos en Internet.

Por si esto fuera poco, cualquiera que lea la prensa sabrá que robots dotados de esta inteligencia pueden remplazar nuestro trabajo, convertirse en nuestro próximo jefe o decidir si somos aptos para un nuevo empleo.

Esta inteligencia ya está aquí, aunque de momento solo acceden empresas con los recursos suficientes. Pero, ¿hasta cuándo? Reputadas voces que miran al futuro, como Bill Gates, comienzan a preguntarse si estos robots deberían pagar impuestos. Esta es la envergadura de los cambios que se avecinan en el mercado laboral.

Sus implicaciones intelectuales, tecnológicas, políticas, éticas y sociales son enormes. Confiar en ella ciegamente, arriesgado. No importa lo poderosa que sea, cómo y dónde la apliquemos es nuestra decisión.  Y para que esta sea la adecuada es necesario desterrar el pensamiento mágico actual que la rodea.

La inteligencia artificial no piensa por sí misma. Esta tecnología hereda nuestros sesgos a través de los datos que la nutren o de las creencias de quien la programa. Basta un sencillo ejemplo para demostrarlo: desde hace ya un tiempo los buscadores de Internet la utilizan para etiquetar imágenes, prueben a buscar en ellos fotos de distintas profesiones y verán un claro sesgo de género. Traslademos este ejemplo a los procesos de selección de las empresas o a la concesión de un crédito de un banco. Esta tecnología está diseñada por personas y se alimenta de datos que no son necesariamente objetivos y, si pasa inadvertido a quien la programa, generará discriminaciones. No tiene conciencia de su entorno más allá de la tarea encomendada.

La inteligencia artificial predice, pero (de momento) no explica. Esta tecnología adquiere un conocimiento inductivo a través de la observación. No existe ninguna teoría impuesta a priori detrás de ella. Es como una caja negra donde; por un lado, entran datos y; por otro, salen predicciones. Sin embargo, no sabemos por qué predice lo que predice. Por ejemplo, puede determinar que la imagen que tiene delate es la de una persona, pero no nos dirá cómo llegó a esa conclusión. Ahora, si trasladamos esto a la decisión de concesión de una beca o una hipoteca, el resultado es que podemos sufrir una exclusión sin recibir ningún tipo de explicación del porqué se ha producido. Otro escenario en el que la falta de una explicación es relevante se produce cuando de forma repentina esta inteligencia comienza a fallar en sus predicciones. En este caso, muy real, no sabremos cómo solucionarlo.

La inteligencia artificial también se equivoca. Predecir con precisión no lo es todo. Aunque esta tecnología pueda predecir mejor la detección de diabetes que nuestros gustos musicales, el coste de fallar en un diagnóstico médico es mucho mayor que el de hacerlo cuando nos recomienda una canción. Saber cómo y dónde aplicarla requiere contraponer la probabilidad de acierto y el coste de fallo. Por eso, mientras que en diagnósticos médicos el juicio de los médicos sigue siendo determinante, en la recomendación de qué canción escuchar alcanza plena autonomía. Esto puede cambiar a medida que desarrollemos mejores modelos predictivos o que la regulación varíe el coste de errar mediante la asignación de responsabilidades.

La inteligencia artificial está especializada, no es generalista. Esta tecnología primero nos batió al ajedrez, luego en juegos más sofisticados como “Go” y, recientemente, también al póker. Pero los algoritmos que hacen que gane al ajedrez no juegan al póker. A cada familia de algoritmos se le da muy bien resolver problemas concretos, pero no todos. Incluso, ocasionalmente, cuando tratan de adquirir nuevo conocimiento pueden tener “olvidos catastróficos” y desaprender. Esto significa que se centra en realizar actividades que no requieren el uso de diferentes habilidades cognitivas en una secuencia de tareas. Estamos lejos de alcanzar una inteligencia artificial general capaz de resolver, por ejemplo, problemas de negocio complejos.

Arthur C. Clarke, autor de 2001, una odisea en el espacio, decía que “toda tecnología lo suficientemente avanzada es indistinguible de la magia”. La inteligencia artificial definitivamente parece magia, pero no lo es.

Tenemos trabajo por delante si queremos beneficiarnos de ella. Para evitar que herede nuestros sesgos y los perpetúe tendremos que añadir un contexto más amplio que abarque el impacto de sus decisiones en términos de discriminaciones o exclusiones. Para que sea más trasparente tendremos que ir más allá de la precisión en sus predicciones y generar modelos explicativos a su alrededor. Y para determinar en qué casos puede llegar a gozar de plena autonomía, asistirnos o sencillamente no ser aplicada debemos evaluar cuál es el coste asociado a sus fallos con relación a su probabilidad de acierto.

Por último, será necesario regularla y establecer un código ético sobre su uso. Se trata de una tecnología tan poderosa que algunos gobiernos y empresas van a tener la tentación de hacer un mal uso de ella. Sin embargo, haciendo un buen uso y consiguiendo que sea accesible por muchos y no unos pocos, permitirá cosas como el desarrollo de una medicina preventiva, una educación personalizada o sencillamente liberarnos del trabajo rutinario que nos ocupa.

No cabe duda de que la inteligencia artificial cambiará el mundo tal y como lo conocemos, pero qué aspecto tendrá este, está en nuestras manos. Un buen principio es desprendernos del pensamiento mágico actual en torno a ella para conocer sus limitaciones, usos e implicaciones. Y, a partir de este conocimiento, hacer que trabaje en nuestro beneficio.

 

PD. Este artículo ha sido previamente publicado en El País Retina

 

 

Telefónica, un “banco” para tus datos

Con la presentación de Aura, Telefónica pone al cliente y sus demandas de inmediatez y personalización en el centro, no ya de la propia operadora, sino de un potencial ecosistema de empresas que ahora podrán orbitar en torno a ella.

Este es el escenario competitivo que se perfila en la economía del dato. Las reglas del juego, con la inminente directiva sobre protección de datos – GDPR-, ya están definidas: privacidad por diseño, trasparencia, control y propiedad del usuario sobre sus propios datos.

Así las cosas, los datos son del usuario y este puede llevárselos o traerlos, según se mire, donde quiera. En este sentido, Telefónica podría convertirse en un “banco” de datos para sus clientes. Por ejemplo, actualmente un usuario puede autorizar a la operadora para que “transfiera” sus datos de localización a una entidad financiera para evitar el uso fraudulento de una tarjeta de crédito.

Este tipo de servicios hoy son marginales, pero en la economía del dato tenderán a proliferar y el usuario va a necesitar un lugar centralizado donde guardar sus datos y gestionar sus “transferencias”.

Pero como banco, no sólo podrá realizar transferencias sino también recibirlas. Especulemos juntos sobre este punto: ¿Qué servicios podrá construir telefónica con nuestros datos financieros, de navegación por internet, de terceras empresas? Nuestros datos hoy están fragmentados y distribuidos, pero ¿qué sucederá si alguien, pogamos Telefónica, fuera capaz de centralizarlos en un único sitio?

Pues para empezar podría adquirir un mayor conocimiento sobre nosotros y, gracias a la inteligencia artificial que hay detrás de Aura, permitir una personalización a escala y eficiente de los servicios que presta. Una inteligencia que cuantos más datos la alimenten obtendrá un modelo más preciso de quienes somos y que queremos, llegando a anticipar, por qué no, nuestros gustos y necesidades.

Durante su presentación José María Alvarez- Pallete repitió varias veces que estaban entrando en terreno desconocido, que entraban en la era cognitiva. Así, Aura es un primer paso de algo que no sabemos bien dónde les llevará. De momento, nada parece indicar que crearán un mercado de datos, no con los datos de sus clientes particulares, pero qué pasa con sus clientes corporativos.

Lo que sí que sabemos es que Telefónica está donde tiene que estar: centrada en el cliente y no en sus productos, anticipándose a una regulación exigente pero que sienta las bases de la economía del dato y escapando del círculo vicioso de mayor inversión y menores precios de su actual mercado de referencia. Ahora sólo falta que sus clientes encuentren un valor diferencial en esta apuesta de futuro del operador.

Telefónica ha movido ficha, ¿qué harán el resto de operadores?

Big Data y “la inflación verdadera”

El origen de “la inflación verdadera” se remonta al año 2007 en Argentina. En esta época, el Fondo Monetario Internacional había manifestado su desconfianza en las cifras oficiales que el Gobierno argentino publicaba sobre su tasa de inflación. Además de existir un problema de credibilidad, el país se encontraba en un momento de hiperinflación, de tal forma que para cuando se publicaban las cifras oficiales, con unos meses de retraso, la información ya había caducado debido al efecto acumulado de unos precios que cambiaban diariamente.

Por entonces, un doctorado de la MIT, Alberto Cavallo, presentó una tesis doctoral con un método alternativo para calcular el IPC: recoger precios de múltiples comercios online y aplicar técnicas de Big data con el objeto de estimarlo. Este método se aplicó al caso de Argentina, en un proyecto que se denominó “la inflación verdadera”. Como cálculo alternativo que era, terminó mostrando discrepancias con las cifras oficiales. Por ejemplo, mientras que en algunos periodos de 2008 las cifras oficiales situaban el IPC en un 8%, “la inflación verdadera” llegaba a alcanzar el 20%.

Sin entrar en qué método se ajustaba más a la realidad – el trabajo de Cavallo, apuntaba a una manipulación de las cifras oficiales-, el índice alternativo ofrecía dos ventajas: uno, su publicación era instantánea y; dos, realizaba buenas predicciones al utilizar la última información disponible.

Lo que empezó siendo un proyecto nacido de una tesis doctoral, hoy es una Spin-off de la MIT (Price-Stat) que cubre distintos países con indicadores tanto sobre su inflación como sobre el poder de paridad de compra – ¿Recuerdan el índice Big Mac?-.

Este índice de precios online ha adquirido una especial relevancia en Argentina que durante los seis primeros meses de 2016 dejó de ofrecer cifras oficiales sobre la evolución del IPC. Durante este tiempo, si alguien quiso tomar decisiones empresariales considerando el efecto de la inflación tuvo que recurrir a índices como “la inflación verdadera”.

Quizá este sea un ejemplo extremo. Aunque puede que, paradójicamente, sin pretenderlo Argentina haya liderando el necesario cambio que los indicadores macroeconómicos necesitan: aprovechar la proliferación de canales de venta online y Big data para desarrollar métodos alternativos que promuevan, para empezar, una mayor transparencia. Pero cuyas consecuencia van más allá: ¿Se romperá el monopolio de información de los Gobiernos en torno a los indicadores macroeconómicos? ¿Reflejarán los métodos alternativos su evolución con mayor precisión? ¿Aumentará la granularidad y frecuencia de la información disponible? ¿Se crearán nuevos indicadores?¿Harán uso de los nuevos indicadores las agencias de calificación?… ¡¿Dejaremos de fallar sistemáticamente en nuestras predicciones sobre la evolución de la economía?!

Sea como fuera, la irrupción de Big Data en el cálculo de los indicadores macroeconómicos ya no se puede ignorar. Es perentorio que se produzca su asimilación. Sobre todo ahora que los canales de venta online proliferan y las empresas redefinen su estrategia de precios en torno a los mismos.

Para tirar del hilo:

Estadísticas de Price-Stat sobre la evolución de los precios británicos

Sobre Alberto Cavallo

Sobre la medición de la inflación mediante precios online en Argentina (Académico)

Sobre la discrepancia entre cifras oficiales e índice de precios online argentinos

Sobre el proyecto “A billion prices Project

Sobre el índice Big Mac

Sobre Stat-Price

Sobre la Reanudación de la publicación de cifras oficiales de IPC en Argentina

Sobre las presiones para cambiar los indicadores macroeconómicos

Sobre la redefinición de la estrategia de precios de las empresas

El futuro pasa por Blockchain

Aunque todavía en los mentideros del mundo tecnológico, el debate sobre Blockchain se está desplazando paulatinamente a sus casos de uso. Actualmente existen fuertes expectativas sobre lo que podrá hacer y su propuesta de valor como mecanismo para establecer confianza, ya sea sustituyendo los mecanismos actuales o creándola donde no existe, comienza a clarificarse.

La importancia de la confianza para el funcionamiento de la economía es incuestionable. Todo sistema económico se sustenta sobre ella, sea ésta informal o institucional. Pudiendo argumentarse que gran parte del desarrollo económico se debe a nuestra capacidad para generarla más allá de nuestro entorno cercano.

Por eso Blockchain nos interesa a todos, porque es, ante todo, un nuevo mecanismo para crear confianza. Y lo hace eliminando la necesidad de que intervenga un intermediario. Así, la propiedad de esas tierras, los derechos de autor de esa canción o la titularidad de esa acción no requiere de un tercero que verifique la identidad de las partes y confirme su capacidad para llevar a cabo el intercambio. Aquí todo descansa en una comunidad de agentes, a priori anónimos, que actúan por consenso para alimentar un registro único con el estado en el que se encuentra cada activo.

Su origen hay que buscarlo en un breve documento que apareció a finales de los 90s con el título “The God protocol”. En éste se describía un protocolo diseñado para que la confianza necesaria en los intercambios entre agentes económicos no tuviera que descansar sobre intermediarios.

Una década más tarde, durante el colapso financiero de 2008, irrumpe en el mercado una moneda digital inspirada en este protocolo: los bitcoins. Una moneda que permite el intercambio directo – peer to peer – entre personas o empresas. El sueño de crear una red de valor comienza a tomar forma. Y la tecnología que lo hace posible es blockchain.

Simplificando, esta puede verse como una base de datos distribuida que permite registrar cada transacción de forma indeleble, pública y vinculada a su estado precedente, de tal forma que es posible tener una trazabilidad con total trasparencia, de forma segura y eficiente.

Aunque estrechamente vinculada a las monedas virtuales – su “killer application” -, esta tecnología puede utilizarse para hacer seguimiento de cualquier activo: contratos, certificados, patentes, titulaciones, votaciones, licencias, etc. Se trata, en definitiva, de la construcción de un “Internet” de valor en la que los derechos sobre distintos activos pueden ser intercambiados, sean estos financieros, físicos o intelectuales.

La analogía con Internet es clara en el sentido de que es una red descentralizada, pero la analogía termina ahí. Mientras que en Internet intercambiamos copias de contenidos, en blockchain cuando alguien “envía” algo – ej. Un contrato- no es la copia lo relevante sino más bien su registro en dicha base de datos distribuida.

Los primeros en darse cuenta de su potencial han sido las instituciones financieras, quizá porque las monedas virtuales las obligaron a estudiar a fondo el fenómeno para concluir que, si bien dichas monedas eran una amenaza, aprovechar la tecnología subyacente representaba una oportunidad para incrementar su eficiencia. Hoy ya existen pilotos dirigidos a utilizarla en pagos transfronterizos. Pero esto es solo la punta de un iceberg.

Que nadie se equivoque, blockchain va más allá del sector financiero. De hecho, ya hay voces que apuntan que no será esté sector el primero en adoptarla. En cualquier caso, no hablamos de una adopción inminente, sino que habrá que esperar unos años.

Sin embargo, es hoy cuando su futuro se está decidiendo. Los principales bancos del mundo – incluso los bancos centrales-, los grandes de la industria TIC y un innumerable número de startups han comenzado a posicionarse. Estas últimas nos dan una pista de por dónde podría comenzar a adoptarse. Por ejemplo, algunas apuestan por que blockchain hará posible que, cuando todos esos objetos de IoT estén conectados, puedan realizarse intercambios económicos de forma autónoma.

Pero lo cierto es que hoy muy pocas personas en el mundo, sí alguna, son capaces de leer con claridad el futuro de blockchain. Quedan muchas incógnitas por despejar. Por ejemplo, ¿será escalable esta tecnología ante una eventual adopción masiva? O ¿dominarán las grandes corporaciones, mediante sistemas privados, su evolución?

Sea como fuera, lo que sí que sabemos es que si eficientamos los mecanismos de generación de confianza o creamos confianza donde no existe, estaremos tocando el corazón de nuestro sistema económico.

La confianza permite que las personas hagan negocios y estos al hacerlo generan riqueza. Por eso blockchain encierra la promesa de una nueva era de prosperidad.

 

PD. Este artículo ha sido previamente publicado en ITuser