La nueva revolución P2P: Skype

Niklas ZennstromDe forma no demasiado ruidosa, con lentitud pero ya con aires de irreversibilidad, se está consolidando cada vez más la VoIP como alternativa a la telefonía tradicional. Al menos en el ámbito empresarial, ya nadie cuestiona que la antigua división entre redes de voz y redes de datos está pasando a mejor vida. El futuro -casi el presente- es la voz sobre IP, que representará un ahorro colosal a las corporaciones y servirá de paso para optimizar el uso de las redes.
Parecía en cambio que los usuarios domésticos iban a tener que esperar un poco más, fundamentalmente por el elevado precio de los terminales. Pero en esto llegó Niklas Zennstrom, quien fuera cofundador del mítico programa de intercambio de ficheros Kazaa. Zennstrom ha lanzado hace unos meses Skype, un servicio que permite realizar llamadas de alta calidad gratis a través de Internet y que podría revolucionar en poco tiempo el sector de las telecomunicaciones.

Skype permite que utilicemos nuestro ordenador personal como si fuera un teléfono y, además (a diferencia de los productos de otras empresas como Vonage o Net2Phone), es totalmente gratuito.
Skype se puede descargar de forma gratuita y sencilla desde su web, es fácil de utilizar y ofrece seguridad y llamadas de muy alta calidad. Algunas de las funciones que ofrece Skype son: llamadas gratuitas de Skype a Skype en todo el mundo, conferencias telefónicas simultáneas hasta un máximo de 5 personas, mensajería instantánea y acceso al Directorio Global.
Desde luego, aplicar la filosofía del software P2P al mundo de la telefonía sobre IP resuelve, aparentemente, gran parte de los problemas que presentaban los directorios centralizados, que amenazaban con consumir todos los recursos que se les pusiera a su alcance. Si la idea cuaja entre los usuarios y conoce una progresión similar a la que en su día tuvo Kazaa en el ámbito del intercambio de ficheros, el fin de la telefonía tradicional podría estar mucho más cerca de lo que parecía.

Tengo un trato: lo mio, pa mi saco

Zapatero y los cantantesEl pasado lunes 21 de junio, una representación de la industria musical española y algunos de los cantantes y grupos españoles más exitosos le arrancaron al presidente del Gobierno español, José Luis Rodríguez Zapatero, el compromiso de promover una ’Ley de la Música’.
El estribillo de esta reunión bien lo podía haber puesto la rapera sevillana La Mala Rodríguez, que también acudió al encuentro: ’Tengo un trato, lo mio pa mi saco’, a toda costa, sin contar con la opinión de los clientes y usuarios, sin detenerse ni tan siquiera ante las puertas del sentido común.

Rodríguez Zapatero se reunió en el Palacio de La Moncloa con artistas como Alejandro Sanz, Alex Ubago, La Oreja de Van Gogh, David Bisbal, Andy&Lucas, Antonio Orozco, Josep Pons (director de la Orquesta Nacional de España), Café Quijano y La Mala Rodríguez, entre otros. Los músicos llevaban en el pecho unas pegatinas con el lema «La música se muere. Ayúdanos».
A la reunión asistieron también el presidente de la Sociedad General de Autores y Editores (SGAE), Eduardo Bautista; el presidente de la Sociedad de Artistas de España (AIE), Luis Cobos; el presidente de la Asociación de Representantes Técnicos del Espectáculo (ARTE), Emilio Santamaría; y el presidente de la Asociación Fonográfica y Videográfica de España (AFYVE), Antonio Guisasola.

Documento de quejas

Entregaron a Rodríguez Zapatero un documento en el que se dice que España es el país de Europa con mayor volumen de música pirateada. En el documento se defienden las ayudas públicas al sector para defender la ’excepcionalidad cultural’ y para promover el uso del idioma español en la música.

Este documento fue encargado por AFYVE (qué pésima página Web tiene esta asociación, por cierto; merece la pena visitarla sólo por ver lo mala que es, ¡si está hecha con Microsoft Word!) a una consultora de comunicación (Weber Shandwick) que ni siquiera tiene página Web en español. Curiosa forma de no predicar con el ejemplo.
Pero, anécdotas aparte, las Instituciones harían bien en oír también, antes de legislar en la materia, a clientes, usuarios, empresas tecnológicas… realmente, a todo el mundo salvo a la propia industria discográfica, que en este asunto anda con el pié cambiado frente a la realidad y, en vez de adaptarse a ella, pretende momificarla a base de legislaciones específicas. O dicho en plata: con medidas represivas.
Como dice José Cervera en su Retiario:

“El intercambio de ficheros entre iguales (P2P) no daña a la industria de la música, analiza la revista de la prestigiosa escuela de Económicas de Harvard. Puede arañar beneficios a algunos de los peces gordos de la industria fonográfica, pero los músicos independientes está descubriendo que la Red les ayuda y facilita la tarea de hacer más música (y vivir de ella). A la vez los gigantes de la industria fonográfica (incapaces de encajar Internet) se consolidan y fusionan reduciendo las alternativas disponibles e intentando regir el mercado con puño de hierro. La Tierra ha visto antes este patrón: dinosaurios que se hacían cada vez más grandes hasta extinguirse y ser sustituidos… por pequeños y ágiles mamíferos. La evolución se repite: que crezcan los gigantes”.

Gestión de Contenidos y Star Trek

star treckNos cuenta la BBC los resultados expuestos por un grupo de científicos austríacos y estadounidenses en la revista Nature, de los que se desprende que han conseguido teletransportar una partícula de un lugar a otro del espacio sin utilizar para ello ningún vínculo físico.
Para ser exactos, lo que han transportado de un lugar a otro son las propiedades de la partícula en sí (si es que ’la partícula en sí’ es algo). Y esto, que parece más propio de Star Trek que de la Gestión de Contenidos, podría tener sus consecuencias si, finalmente, son ciertas las tesis del físico inglés David Deutsch.

El propio despacho informativo de la BBC recuerda cómo, en 2264, la tripulación del U.S.S. Enterprise se movía por cualquier lugar del Universo gracias a los equipos de teletransportación del ingeniero en jefe, Montgomery Scott. Lo que en Star Trek era cotidiano, y casi imprescindible en ocasiones para salir con bien de sus misiones, en el mundo real se nos antoja fabuloso pero, como veremos, no es en absoluto imposible.
Lo que los físicos austriacos y estadounidenses han logrado teletransportar ahora son los “estados cuánticos” entre átomos. Los estados cuánticos son propiedades físicas como la energía, el movimiento y el campo magnético del átomo.
Yo no entiendo gran cosa del asunto, pero como explica magistralmente David Deutsch en La estructura de la realidad, para que este tipo de teletransportación sea posible, es necesario concebir que más que de Universo deberíamos de hablar de Multiverso, una especie de universo compuesto de múltiples capas o dimensiones (¿un universo que podríamos imaginarnos como una milhoja?).
Estas dimensiones del multiverso abarcarían todo el ámbito de lo posible y, pese a todo, es posible que exista algún tipo de interacción entre las diferentes dimensiones. Esto no lo dice ningún defensor de las ciencias ocultas, sino un físico más o menos ortodoxo como Deutsch. Él lo que hace es tomarse en serio la Teoría Cuántica, y explorarla sin miedo hasta sus últimas consecuencias.
¿Y qué tendrá esto que ver con la Gestión de Contenidos? A corto plazo, poco. Tampoco vamos a ver cómo se teletransporta un gato, o aunque sea un mosquito, a corto plazo. Pero sí que va a tener consecuencias, y a gran escala, en la ciencia de la computación. Los resultados de los experimentos en EE.UU. y Austria representan un gran progreso en la búsqueda de computadoras ultra-rápidas que podrán transmitir información a la velocidad de la luz.

Gestión Cuántica de Contenidos

Si Deutsch está en lo cierto, podremos utilizar los recursos no sólo de este Universo, sino de un número indeterminado de Universos paralelos para realizar nuestros cálculos. Y esto será de vital importancia no sólo para la rapidez de procesamiento de datos, sino también para la seguridad en la transmisión de contenidos, en criptografía. Virtualmente, la criptografía cuántica sería indescifrable por ningún tipo de máquina posible.
Y, en el campo de la Gestión de Contenidos pasaría algo similar. Tendríamos un número indefinido, virtualmente infinito, de universos para almacenar nuestros contenidos, y una potencia de cálculo virtualmente ilimitada para poder gestionarlos. No sé si Deutsch está en lo cierto o si yerra parcialmente o por completo. De lo que casi puedo estar seguro es de que tales maravillas no las veré yo. ¿O sí?

Taxonomías

LibroUna de las razones que me llevó a elegir SPIP como CMS para martinalia.com fue su capacidad para clasificar los contenidos de una manera absolutamente flexible. Por tanto, me permitía contar con mi propia taxonomía, sin depender de la estructura rígida de casi todos los sistemas de publicación de bitácoras y de gran parte de los sistemas de Gestión de Contenidos más habituales en el mercado.
Claro que aún ha de mejorar su capacidad de utilización de las taxonomías, permitiendo, por ejemplo, mostrar los resultados de las búsquedas ordenados según los criterios personalizados e, incluso, permitiendo búsquedas bidimensionales.

Hasta hace relativamente poco, si oíamos oir de taxonomía lo menos que podíamos hacer era llevarnos la mano a la cartera por si de algún tipo nuevo de impuesto se tratara. A los biólogos sí les sonaba, claro, estaban familizarizados con la palabra desde el siglo XVIII, cuando Linneo introdujo la Taxonomía como un sistema ordenado de clasificación y nomenclatura de los seres vivos. Pero el resto de los mortales, lo dicho, la mano a la cartera.
En cambio, este concepto hace ya tiempo que trascendió el ámbito de la biología. En psicología cognitiva se emplea al menos desde 1948; también se emplea en el ámbito lexicográfico y, cada vez con más fuerza, en el mundo de la Gestión de Contenidos, donde se está convirtiendo en un elemento esencial y muy asociado a la extensión del estándar XML.
En términos generales, una taxonomía es un conjunto de información que representa la organización jerárquica de un ámbito del conocimiento siguiendo un protocolo de género-especie o general-específico. Por tanto, es parte inherente de cualquier sistema complejo de Gestión de Contenidos. Gracias a la taxonomía se organiza la estructura y se guía el indexado, etiquetado y asociaciones del contenido.
Esto, que aparentemente es tan enrevesado, no es más que dotar de un poco de sentido común a la gestión documental, especialmente en entornos (empresas o administraciones) donde el volumen de documentación es tan masivo que la información relevante corre el serio riesgo de quedar sepultada, perdida para siempre.
Por ello, construir una taxonomía robusta (idealmente, antes de la implementación del sistema de Gestión de Contenidos… pero no siempre se puede) es una condición imprescindible para salvaguardar la información relevante de nuestra organización. De esta manera, se supera la limitación de los sistemas tradicionales, que suelen asociar los documentos a una cuenta de cliente, a un proyecto o a una transacción determinada… lo que a todas luces no es suficiente, porque no nos proporciona información sobre su relevancia.

Envío masivo de invitaciones de Gmail

gmailYo ya lo había notado, porque las tres o cuatro cuentas de Gmail que tengo habían comenzado a recibir de repente más y más posibilidades de realizar nuevas invitaciones para abrir cuentas de Gmail.

Pero lo que era una sospecha lo veo ahora confirmado en google.dirson.com, que nos informa de que todas las cuentas de Gmail (tanto nuevas como antiguas), así como muchos clientes de AdWords y usuarios de Blogger, están recibiendo 3 invitaciones extra para enviarlas a sus conocidos.

Parece claro que después de este envío masivo la cotización de las cuentas de Gmail caerán (si no han caido ya) en picado, y que aquellos que intentan sacarle algún beneficio están de enhoramala.

Pese a todo, y ahora que podemos, nosotros también queremos ayudar a que todos conozcáis Gmail, y entregaremos una invitación a los 6 primeros que nos enviéis un email sugeriéndonos alguna nueva idea para el blog ’martinalia.com’ (esto se lo he copiado a google.dirson.com, y es más que nada por pedir algo…).

Gestión de Contenidos sin pedantería

escribaDemasiadas veces ocurre que algunos conceptos que son fundamentales para el buen funcionamiento de la empresa, y que no revisten excesiva complejidad por sí mismos, se envuelven en un lenguaje oscuro y enrevesado que aparentemente sólo es apto para unos cuantos especialistas ’iniciados’.

Por desgracia, esto también ha pasado con la gestión de contenidos. Parece que algunos, desde el ámbito de la consultoría, pero también desde determinadas posiciones internas en las empresas, han decidido que es más rentable utilizar un lenguaje abstruso. Quizá porque utilizando un lenguaje claro y sencillo nadie estaría dispuesto a pagarles lo que quieren cobrar por ello.

Al fin y al cabo, la Gestión de Contenidos no es más que un nuevo nombre para una actividad con mucha solera, la actividad editorial. Un proceso editorial, ahora en la interred pero también antes en el mundo meramente impreso, tiene como objetivo proporcionar el contenido preciso a las personas adecuadas en el tiempo exacto y con el coste justo. El proceso tiene como actores principales, hoy como ayer, a autores y editores. Los autores crean el contenido. Los editores deciden qué contenido debe publicarse, cómo debe publicarse y cuándo.

A pesar de estas evidentes similitudes, a mucha gente le gusta hacer que la jerga profesional que utiliza sea compleja, e incluso a veces incomprensible, porque esto les permite darse más valor (pavonearse) dentro de la empresa. Y muchos de los términos que están de moda dentro de la “Gestión de contenidos Web” suenan lo suficientemente complejos como para satisfacer este afán de pedantería (movido, eso sí, por la intención de cobrar más por lo mismo).

Es verdad que en los comienzos de la interred todo el proceso editorial era muy dependiente de los programadores, y esto pudo determinar la creación de una jerga técnica muy específica y desde luego lejos del alcance de la mayoría.

Pero, como era de esperar, la tecnología ha entrado en una fase creciente de madurez y estandarización que permite que el foco se esté desplazando paulatinamente desde el ámbito las herramientas hacia el ámbito de los contenidos propiamente dichos.

Nueva perspectiva

Y, desde esta nueva perspectiva de los contenidos, algunos conceptos que se habían vuelto centrales desde el punto de vista de las herramientas de publicación carecen de todo sentido. Por ejemplo, la diferencia entre “Contenidos dinámicos” y “Contenidos estáticos” se vuelve ahora irrelevante. El término “Contenidos dinámicos” suele referirse al contenido que se publica desde una base de datos, pero eso sólo importa desde el punto de vista tecnológico. Desde el punto de vista de los contenidos, lo que importa es que este contenido sea exacto y adecuado, que esté bien escrito y que esté actualizado.

Igual pasa con los “Contenidos interactivos”: cabría decir que los contenidos no interactúan, sino las personas. Los contenidos lo que hacen (o deben hacer) es informar. Aunque quizá el término más obscuro y más persistente de todos en la jerga específica de la Gestión de Contenidos sea el de “Arquitectura de la información”: no hay que asustarse por esto. No es nada nuevo. Se trata simplemente de la organización y el diseño del contenido Web. En el mundo impreso, los editores han gestionado la ’arquitectura de la información’ de sus productos impresos durante siglos… nihil novum sub solem.

Internet, un instrumento de destrucción de la cultura

Juan Mollá¿Puede la interred ser un instrumento de destrucción de la cultura? A juzgar por la opinión expuesta por el vicepresidente primero de CEDRO, Juan Mollá, en una mesa redonda celebrada en la Feria del Libro de Madrid, sí.
Claro que habría que preguntarse qué concepto tiene esta asociación de “cultura”. Todas estas asociaciones y entidades que surgen en torno a la protección a capa y espada de los llamados “derechos de autor” tienen en común la postura, a mi entender discutible, de que los autores obran, si no en exclusiva sí principalmente, movidos por un afán económico, y que por tanto la copia no autorizada (o, para ser más exactos, no “compensada”) de su obra es un perjuicio directo y un claro motivo desincentivador.

CEDRO es una asociación privada, que en 2.000 reconocía que no tenía competencias ni instrumentos para ejercer su actividad en la interred, pero que pretende ahora sumarse al carro de la industria discográfica para asustar y, eventualmente, exprimir económicamente a los usuarios de programas P2P.

De hecho, Magdalena Vinent, la directora general de CEDRO, ha pedido una legislación específica que proteja las obras en la interred, y ha anunciado que CEDRO se lanzará en otoño a la gestión digital de obras literarias en internet (o sea, a intentar sacar dinero de donde sea). Uno más en el club de los que quieren ponerle puertas al campo.
La directora general de CEDRO dijo que “todo no puede ser gratuito” en Internet y apuntó a una “falta de concienciación” ciudadana, puesto que “la compra de un ejemplar no da derecho a la reproducción indiscriminada en la Red”.
Cabría preguntarse hasta qué punto estos autores y editores asociados tienen razón en sus planteamientos. Sin duda, y con independencia de los derechos concretos que recoge la Ley de Propiedad Intelectual española, parece que es justo reconocer que un autor tiene derecho a una compensación económica por la utilización de su obra.
Pero ¿de dónde surge este derecho a la compensación? ¿Del hecho mismo de la utilización de su obra? Pues no exactamente. Este derecho surge por la posibilidad de que terceras partes puedan beneficiarse de la obra del autor, y de la consideración de que parte de ese beneficio corresponde en justa medida al autor de la obra.

Modelo tradicional

En el modelo tradicional era la industria editorial quien obtenía beneficio de la difusión de las obras y, por tanto, compensaba a los autores por ello. Todo el modelo se complicó, primero, con la aparición de la fotocopia, pero mucho más con la aparición de la interred. Ahora la reproducción de las obras se puede hacer de forma instantánea y sin intermediarios. Esto quiere decir, también, sin beneficios.
Y, si no hay beneficios… ¿por qué habría que penalizar su difusión? ¿Es que el autor se ve perjudicado por la difusión de su obra? No me convence en absoluto. ¿Hay que perseguir a un joven que se descarga de una red P2P las obras completas de Cervantes? En mi opinión, habría que concederle alguna medalla. ¿Habría que perseguir a un oficinista aburrido que se descarga El Código Da Vinci? También en mi opinión, en su mal gusto lleva la penitencia.
Bromas aparte, creo que mucho más perjudica a la cultura la concepción cerradamente monetarista de la misma (esto es, dar por supuesto que un escritor escribe sólo o principalmente para recibir dinero a cambio) que la disrupción tecnológica que ha supuesto la interred. Ya me gustaría a mí escribir una obra que la gente pujara por descargarse de una red P2P. No hay mayor honor que ser pirateado.

Nuevas tecnologías y bienestar

Nuevas tecnologíasInformaba recientemente Europa Press de un estudio de TNS-Demoscopia del que se podía concluir que la inmensa mayoría de los españoles (cuatro quintas partes) creen que las nuevas tecnologías han mejorado el bienestar social.
Claro que habría que ver qué se entiende por “nuevas tecnologías” (según el estudio, se asocia este concepto al de ordenador) y, sobre todo, habría que determinar qué se entiende por “bienestar social”. Y esto sin olvidar que la Estadística es la forma más convincente de mentira. Ya lo decían Tip y Coll en uno de sus gags: “La estadística es la ciencia que dice que si tu te comes una migaja de una tarta y yo el resto cada uno nos hemos comido media” (esto se lo he copiado a Kevin en un comentario realizado en el blog de Arcadi Espada).

Tampoco hay que olvidar que el “Estudio sobre la Actitud y Comportamiento hacia las NN.TT.”, ha sido realizado por TNS-Demoscopia por encargo de Intel Iberia. No es por desconfiar, pero está claro que a Intel no le interesaba otro tipo de resultados, ¿verdad?
Por resumir un poco los datos que aportaba el estudio: el ochenta por ciento cree que las nuevas tecnologías son el motor de la sociedad; el 92 por ciento cree que “facilitan el trabajo” y el 96 por ciento dice que “han cambiado las formas de trabajar”.
Los encuestados asocian las nuevas tecnologías a los ordenadores (30 por ciento), a la informática en general (20 por ciento) e Internet (16 por ciento). El ordenador personal es el dispositivo más citado (66 por ciento), junto al teléfono móvil (34), la televisión (19), Internet y los reproductores de DVD (11).

La blogosfera hispana, a examen

blogosferaHace muy poco comentábamos aquí los resultados de la encuesta que realizó Henry Copeland, de blogads.com, entre 17.159 lectores de bitácoras de todo el mundo. Los resultados que presentaba eran a menudo curiosos, pero, desde luego, nada hacía suponer que pudiera extrapolarse sus resultados a la blogosfera hispana, puesto que sólo un 0,1 por ciento de los encuestados era español.
Ahora es bitacoras.net quien, en colaboración con tintachina, blogpocket y blogosfera.org, ha lanzado la primera Encuesta a Webloggers y lectores de bitácoras (se sobreentiende que del ámbito hispanoparlante, aunque la encuesta no está restringida a nadie).

La encuesta divide la muestra en dos universos distintos: los lectores de bitácoras y los creadores de bitácoras. Los lectores de bitácoras tiene que responder a cinco pantallas de preguntas bastante bien estructuradas y sin sorpresas. Se piden datos que, tratados estadísticamente, pueden resultar interesantes: bitácoras recientemente visitadas, el tipo de bitácora que se visita, los idiomas en que se leen, frecuencia de consulta, nivel de interacción, etcétera.
Los creadores de bitácoras han de responder aún alguna cuestión más. Se les pregunta por las bitácoras que les han influido, hábitos de publicación y frecuencia de actualización, interacción con otros creadores y con los lectores, cuestiones técnicas, etcétera. En total, nueve pantallas.
Lo que sí llama la atención -y en esto se nota que somos españoles, y que nos da vergüenza hablar de dinero- es que la encuesta de blogads sí que afinó bastante el nivel socioeconómico de los lectores de bitácoras, y en esta encuesta el dinero ni se menciona. Nos quedaremos sin saber si estamos más o menos como nuestros equivalentes anglosajones (yo juraría que más tiesos, pero no puedo demostrarlo).
Como en el caso de blogads, esta encuesta no tiene ningún tipo de validez científica, pero sí que puede servir para que nos hagamos una ligera idea de por dónde andan los tiros. Pero para ello es imprescindible que participemos de forma más o menos masiva y que, por supuesto, no mintamos más de lo necesario.

Lo que importa medir en el proceso de Gestión de Contenidos Web

kpisElegir un sistema de Gestión de Contenidos Web es un problema tremendamente complicado, pero no es desde luego el último obstáculo con el que se enfrenta una empresa antes de la puesta en marcha del proceso de Gestión de Contenidos propiamente dicho.

Obviando la implementación del software que haya sido elegido, que siempre resulta azarosa y arriesgada, queda ni más ni menos que la cuestión de implantar un nuevo proceso en nuestra organización, y que con frecuencia es un proceso que se entiende mal en las empresas que no son propiamente informativas.

Desde luego, determinar qué es lo que realmente importa medir en el sitio Web dependerá mucho de los intereses y necesidades de cada empresa, pero se pueden ofrecer algunas orientaciones básicas. Básicamente se trata de medir con cuánta eficacia se crea, se edita y se publica contenido. Estos son los tres pilares básicos del proceso de gestión de contenidos Web.

En torno a estos tres ejes, hay algunos aspectos que conviene vigilar. Por ejemplo, la adecuación del contenido que se publica a los lectores del sitio Web. No se puede ofrecer una imagen distinta a la que queremos proyectar sobre nuestra empresa o sobre nuestros productos. Sería desastroso, por ejemplo, utilizar un lenguaje serio y formal en una Web dirigida a un público juvenil y desenfadado.

También es importante analizar la rapidez con la que se publica el contenido en nuestra web. Si necesitamos agilidad en la comunicación pero, por la razón que sea, el proceso editorial (o el de autorización, que suele ser más frecuente) demora la publicación en nuestra Web más allá de lo razonable, estamos fallando e incumpliendo nuestros objetivos.

Pero publicar con rapidez no significa publicar con desorden. Hay que vigilar la calidad de los contenidos (de hecho, la calidad debe estar implícita en el proceso de Gestión de Contenidos), de forma que el contenido publicado refleje el estilo y el tono que la empresa pretende. Claro que para esto es imprescindible, previamente, contar con una buena Guía de Estilo Web. Otro día hablaremos más extensamente de ello.