lunes, 17 de marzo de 2014

Una breve historia de las tecnologías que prometen cambiar el mundo (I)

Basta con dar una vuelta por Internet para sentirnos abrumados por un elenco de nuevas tecnologías que prometen cambiar el mundo y, en realidad, lo están haciendo. Red Semántica, Cloud Computing, Big Data, Tecnologías Móviles, Interfaces Gestuales, Internet de las Cosas, Drones, Impresoras 3D son sólo algunos ejemplos.

Alvin Toffler, en su libro "La Tercera Ola", simplificó con una clarividencia admirable la historia de la humanidad considerándola consecuencia de tres grandes revoluciones. Cada una de ellas llegó como una ola para sacudir los pilares de la civilización: los sistemas de producción, la estructura social y los medios de comunicación.

La primera, la agricultura, hizo sedentarios a nuestros ancestros obligándoles a cambiar una primitiva economía, basada en la caza y la recolección, por otra más dinámica apoyada en el comercio y el trabajo. En esta sociedad la información era transmitida oralmente de un individuo a otro, de una generación a otra.

Coincidiendo con la revolución industrial, la segunda ola separó al productor del consumidor. Nacieron así las grandes corporaciones y la clase trabajadora se movilizó, forzada a abandonar los campos para dirigirse allá donde se instalaban las fábricas. Esta inusitada movilidad acabó con la estructura social pre-industrial dominada por grandes clanes que fueron sustituidos por la Familia Nuclear integrada por dos cónyuges y unos pocos hijos. Periódicos, radios y la televisión permitieron a unos pocos transmitir ingentes cantidades de información a millones de personas.


La tercera ola acompañó al siglo veinte. La automatización en las fábricas abarató los costes y aumentó la oferta dando a los consumidores acceso a cientos de miles de productos diferentes. También enseñó las miserias del desempleo a la clase media que, por esa época, trabajaba mayoritariamente en las factorías. La Familia Nuclear sufrió los cambios disgregándose en infinidad de nuevos modelos de convivencia. Siguiendo a los medios de producción y la convulsión del modelo familiar, la comunicación se fue también descentralizando provocando el nacimiento de la Aldea Global (ahora la llamamos Sociedad del Conocimiento) en la que todos tenemos acceso a cantidades ingentes de información sobre la que, además, podemos intervenir.

No me atrevo a proponer una cuarta ola, seguramente aún estemos en la cresta de la tercera, pero en los últimos años han ido desarrollándose algunas tecnologías que prometen profundas transformaciones en la comunicación, los sistemas de producción y en la estructura social.

LA RED SOCIAL

Internet también parece evolucionar a borbotones. Primero se apoyo en HTML (la Web 1.0, como Teruel, también existe), un lenguaje de especificación que permite a cualquier persona publicar y distribuir contenidos. En unos pocos años miles de millones de páginas abarrotaron la red gracias a esta innovación y se hizo necesario disponer de motores de búsqueda cada vez más potentes. Al entrañable Altavista le sucedió Google y en esas estamos (aunque hay algunas alternativas prometedoras).

HTML se diseñó para las personas y en él se mezclan los datos con su representación lo que dificulta que los contenidos puedan ser procesados por los ordenadores. Esta limitación se soslayó gracias a la definición de un nuevo protocolo de intercambio de datos conocido como XML, uno de los pilares fundamentales de la Web 2.0. Gracias a él, la información puede ser almacenada, analizada y compartida por las máquinas.

Preparado el escenario, surgieron las plataformas sociales para facilitar la comunicación y la interacción entre los usuarios. La separación entre datos y presentación permite que una publicación en tu muro de Facebook se transmita de forma instantánea a los amigos o que aparezca publicada en otras redes como Twiter. Y, lo que es más importante, los datos pueden ser procesados para obtener valiosa información sobre tu comportamiento: con quién te relacionas, cuáles son tus intereses, cuándo te conectas, qué medios utilizas.

Así recibes de forma automática recomendaciones para conectar con personas que comparten contigo unos mismos intereses o publicaciones relevantes para tu actividad diaria. Vienen acompañadas por una publicidad cada vez más personalizada y agresiva pero es el precio que hay que pagar por recibir estos servicios de forma gratuita.

LA RED SEMÁNTICA

Desde el punto de vista de las máquinas, la evolución de Internet presenta un interesante paralelismo con la escritura. Para ellas HTML es poco más que un simple diccionario; un conjunto de términos que pueden combinarse con completa libertad para formar frases indiscernibles. XML aportó una gramática gracias a la cual los ordenadores pudieron extraer datos de ese galimatías y procesarlos de forma automática.

Pero los ordenadores seguían (y siguen) sin comprender el verdadero significado de la información que están procesando. Cuando escribes algo en un buscador, el motor de búsqueda no tiene ni la más remota idea de lo que le estás pidiendo. En su lugar recurre a la potencia de cálculo para localizar en su base de datos aquellos documentos en los que aparezcan los términos que has propuesto y, a la estadística, para determinar en cuáles son más relevantes.

Existen alternativas al procesado estadístico basadas en la definición de taxonomías, ontologías y relaciones cuyo objetivo es también lograr la clasificación automática de contenidos y que, son conocidas comúnmente como Semantic Web.

Sea como fuere, comprender un texto escrito es algo, por el momento, fuera del alcance de la técnica actual. Hasta que no se consiga, la Red Semántica seguirá gateando.

CLOUD COMPUTING

Un ordenador aislado es incapaz de atender a miles o millones de usuarios mientras analiza la información que va recopilando, la personaliza y la envía a miriadas de localizaciones diferentes. No digamos ya si tiene que indexar los contenidos, clasificar cada término que se encuentra y buscar las relaciones más relevantes entre ellos.

Surge así la necesidad de enlazar varios servidores en una red para permitir el procesado en paralelo de tan ingente cantidad de información. Empujados por esta demanda exponencial los grandes proveedores de Internet fueron ampliando sus Centros de Proceso de Datos enlazando cientos y miles de servidores  (las malas lenguas dicen que cientos de miles aunque el número exacto es un secreto celosamente guardado) en unas redes cada vez más rápidas, dinámicas e "inteligentes".

Cuando tienes que incorporar cien nuevos servidores a tu red cada tres días necesitas mecanismos automáticos. Necesitas poder instalar un servidor en diez segundos y necesitas que tu red sea capaz de detectar el nuevo servidor instalado y asignarle algún trabajo. Para solucionar el primer problema se recurrió a la virtualización, los servidores dejaron así de tener una existencia física para convertirse en software que se ejecuta sobre otros servidores mucho más potentes. Para resolver el segundo se diseñaron nuevos protocolos capaces de reconfigurar la red  y los flujos de computación en función de los recursos disponibles. Nació así la Nube (o el Cloud Computing) (más información...).

Las redes de los grandes proveedores de Internet deben estar dimensionadas para atender los picos en la demanda de información de la Humanidad. En consecuencia, disfrutan de algo de tiempo libre, un tiempo que puede ser vendido al mejor postor para convertirse en el que será uno de los mayores negocios del siglo veintiuno.

BIG DATA

La explosión de las Redes Sociales, las tecnologías móviles y, en breve, la Internet de las Cosas obliga a considerar miles de millones de usuarios, cientos de miles de millones de contenidos y billones (trillones?) de transacciones entre servidores. Para poder ofrecer servicios cada vez más personalizadas todas y cada una de estas transacciones deben ser almacenadas en una base de datos desde donde deben ser procesadas en tiempo real.

Los simuladores empleados por los meteorólogos para predecir el tiempo necesitan también procesar ingentes cantidades de información al igual que los servidores que vaticinan la evolución de los sistemas financieros (con poco éxito, por cierto). Analizar el ADN, simular procesos físicos son otras de esas aplicaciones en las que los servidores se ven abrumados por la colosal cantidad de datos que deben procesar en un tiempo razonable.

Hasta hace poco, las bases de datos eran relacionales. En ellas la información en estado bruto se almacena en registros y tablas y luego se establecen relaciones entre ellas para facilitar las búsquedas mediante índices y consultas bien estructuradas. Esta tecnología se ha mostrado incapaz de ofrecer el rendimiento suficiente para atender la demanda actual lo que ha obligado a desarrollar un nuevo paradigma conocido como Big Data, un término que engloba las nuevas técnicas de procesamiento masivo de información.

Big Data es una tecnología imprescindible, con un gran potencial para hacer avanzar a la medicina, la meteorología y para luchar contra el cambio climático. Pero es también una tecnología peligrosa al permitir modelar el comportamiento de las personas.

Si comenzamos con Alvin Toffler, dejadme terminar con otra referencia literaria. George Orwell imaginó un año 1984 dominado por un poder central sin escrúpulos. Se equivocó, sin duda, pero esperemos que no haya sido sólo por unas cuantas décadas.

PRÓXIMAMENTE

Un buen amigo mío (que seguramente lee este blog por compasión) me ha recomendado que limite el tamaño de los artículos que publico. Interesado en conservar esta amistad, dejo en el tintero otras tecnologías igual de relevantes que las aquí expuestas.

En breve hablaremos de las Tecnologías Móviles, los nuevos Interfaces de Usuario (gestos, voz, reconocimiento facial, sensores biométricos), la Internet de las Cosas, la Robótica, los Drones y las Impresoras 3D. Y quizás algo más que surja por el camino.

No hay comentarios:

Publicar un comentario