Mi nuevo servidor Plex

Sacando partido a MartinServer con un gestor de contenidos multimedia

plex
Para quien no lo conozca, Plex es un gestor de contenidos multimedia cliente-servidor. Instalándolo en nuestro propio equipo (un pc normal y corriente, un servidor, un NAS o incluso una Raspberry-Pi), podemos organizar y visualizar en una interfaz muy amigable nuestras películas, series, fotos, canciones y cualquier otro tipo de archivos multimedia. Añade, además, todo tipo de información (carátulas, director, actores, sinopsis,  trailers, etc) sobre cada película o serie de forma automática.

Consta, como hemos dicho, de una parte servidor y una parte cliente:

Plex Media Server

El servidor, el Plex Media Server, lo podemos instalar en Windows, Mac OS, Linux, FreeBSD o en un NAS. Es el que se encarga de gestionar los archivos multimedia, organizándolos en librerías (“música”, “películas”, “series”, etc) y se encarga de enviar los contenidos hacia los dispositivos reproductores (clientes). Una de las características más interesantes es la “transcodificación”, que, explicándolo pronto  y mal, significa que Plex analiza dónde quieres reproducir tu contenido y si, por ejemplo en un teléfono móvil, tiene restricciones de bitrate o no puede interpretar algún códec específico, Plex transforma (transcodifica) ese contenido de manera que pueda ser visualizado en tu reproductor, no importa las limitaciones que tenga. Otra función interesante es que tu servidor es accesible desde cualquier lugar a través de internet, por lo que te llevas tus películas y series contigo allá a donde vayas. Y, además, te permite compartir tu contenido con los amigos que quieras, se encuentren en la parte de mundo que se encuentren.

Reproductores

Hay reproductores disponibles para las principales plataformas: teléfonos móviles (android e iPhone), smart TVs, PlayStation, Roku, etc, así como una interfaz web llamada Plex Web App.

Plex no es software libre, a pesar de estar basada en Kodi (la antigua XBMC). Sin embargo, se puede utilizar gratuitamente, aunque hay una versión de pago (PlexPass) que ofrece funcionalidades avanzadas, y algunos clientes (el de iPhone, que yo sepa) son de pago también. En cualquier caso, tanto la funcionalidad como la usabilidad de Plex lo hacen, desde mi punto de vista, la mejor opción.

Instalación

En primer lugar, creamos una cuenta de usuario de Plex en https://www.plex.tv/sign-up/. Seguidamente, descargamos en nuestro equipo el fichero de instalación (MartinServer usa Ubuntu Server, por lo que me descargué el instalador para Linux) :

wget https://downloads.plex.tv/plex-media-server/xxxxxxx/plexmediaserver_xxxxxxx_amd64.deb   (substituir xxxxxxx por la última versión de Plex)

A continuación instalamos el paquete:
sudo dpkg -i plexmediaserver_xxxxxxx_amd64.deb   (substituir xxxxxxx por la última versión de Plex)

A partir de ese momento, seguimos las instrucciones de instalación. Borramos el fichero de instalación.
rm plexmediaserver_xxxxxxx_amd64.deb   (substituir xxxxxxx por la última versión de Plex)

Y ya está listo para utilizar.

Configuración

Para configurar Plex Media Server, si estamos en la misma máquina en la que lo hemos instalado, entramos en cualquier navegador a la URL http://127.0.0.1:32400/web. Si es desde otro equipo, obviamente tendremos que substituir la IP. Aquí tenemos que introducir nuestro nombre de usuario y contraseña de Plex.

Ahora ya lo único que tenemos que hacer es crear nuestras propias bibliotecas de contenido (películas, series, musica, etc), decirle a Plex en qué ubicación están almacenadas… y nada más. Ya podemos disfrutar de nuestro propio servidor de contenidos multimedia. Eso sí, es muy recomendable, para que Plex reconozca adecuadamente los contenidos y pueda bajar el contenido adicional (carátulas, autores, actores, trailers, sinopsis, etc) seguir las recomendaciones de nomenclatura de Plex.

 

MartinServer

De cómo el enojo con mi proveedor de hosting me llevó a montar mi propio servidor doméstico: MartinServer

HP-Compaq-dc7800p

HP dc7800p Convertible Minitower

Desde que tengo actividad en internet he pasado por varios proveedores de hosting: al principio, en 1996, contraté con arrakis, la empresa sevillana que finalmente fue absorbida por BT; posteriormente pasé por EspaHost, Nominalia y no sé si alguna más, hasta que finalmente, en diciembre de 2005, contraté el servicio de una empresa californiana, DreamHost.

La oferta era realmente buena, me ofrecían un hosting linux con almacenamiento ilimitado (bueno, esto no era del todo cierto, había que leerse la letra pequeña) por 120 dólares al año. Esto me permitió alojar decenas de webs.

En la fase de desarrollo, yo montaba las webs en una instalación local de LAMP que posteriormente subía al servidor de Dreamhost por FTP, y así quedaban finalmente publicadas. Era un sistema que funcionaba bien, no me daba problemas y tenía un precio relativamente económico, 10 dólares mensuales.

Como ven, he sido un cliente fiel. Diez años he permanecido con ellos. Pero nada es perfecto, y hace unos meses comenzaron las desavenencias. Quiero aclarar que el culpable soy yo, por no leerme la letra pequeña de los contratos. Dicho esto, resumo lo que pasó: aprovechando que según mi contrato tenía “almacenamiento ilimitado” en Dreamhost, decidí crearme mi propia nube privada.

Letra pequeña

Instalé una instancia de Owncloud, que es una magnífica alternativa Open Source a servicios como Dropbox o Google Drive, y sincronicé todos mis equipos con el servidor. Era maravilloso. Ya no tenía que preocuparme de la pérdida, robo o malfuncionamiento de mis laptops. Podía tener sincronizado todo mis documentos entre los distintos equipos (personal, de trabajo…).

Sólo había una pequeña pega: en la letra pequeña del contrato de Dreamhost excluía explícitamente el uso del servidor como almacenamiento en la nube. Maldición. Yo me enteré porque deshabilitaron la instancia de Owncloud. Mala suerte, pero ya me buscaría una alternativa.

Lo peor, y lo que me enojó, es que comenzaron a llegarme requerimientos de pago por uso del servicio de almacenamiento. No, Dreamhost, no. Tendrás toda la razón legal que quieras, pero a un cliente con diez año de fidelidad no se le hace eso: está bien que cortes un servicio que dices no estar permitido, pero no intentes abultar la factura con esto. Ya me llamaste la atención. Déjalo estar…

Reclamé la factura, pataleé, pero fue para nada. Lo cierto es que contractualmente tenían razón, pero como cliente me sentí maltratado y los mandé a la chingada. Aprovechando que acababa de contratar un servicio de internet en casa que me ofrecía 200MB simétricos (tanto de subida como de bajada), decidí experimentar por primera vez con mi propio servidor doméstico.

Plaza de la Tecnología

 

Plaza de la Tecnologia

Plaza de la Tecnología

Como no tenía ninguna computadora que pudiera ejercer de servidor (utilizar laptops para ese fin es una mala idea), me dirigí a la Plaza de la Tecnología, muy cerquita del centro histórico de la Ciudad de México.
La Plaza de la Tecnología no es una plaza. Bueno, aquí en México se le llama “Plaza” a un centro comercial, pero es que ni siquiera eso. Es más bien un zoco desperdigado a lo largo de cuatro cuadras, lleno de puestos y tenderetes en el interior de vetustos edificios. Marea la sobreabundancia de oferta de cualquier producto tecnológico que puedas soñar. Lo que no encuentras en ningún otro lado, aquí está.
Yo tenía muy claro que lo que buscaba era un PC de escritorio de lo más barato. Así lo dije, y lo más barato que encontré fue un HP dc7800p Convertible Minitower, junto con un monitor y teclado, por el que me cobraron $2,000 pesos. Unos 100 euros. La verdad que el equipo, para 2015, ya era una porquería: un Intel Core 2 Duo, con 2.83GHz y 2GB de RAM. De disco duro, 250GB.

Ubuntu Server

Pero para mi propósito estaba bien. Le quité el Windows XP en chino con el que venía y le instalé la versión 12.04.5 LTS de Ubuntu Server. Esta distribución linux ya viene con casi todo lo necesario para mis necesidades. En concreto, el servidor Apache, PHP y MySql. Con esto podía poner en marcha, desde mi propia casa, todas mis webs. Bueno, todas todas no. Avisé a varios amigos a los que les alojaba las webs para que migrasen a otros servidores. No quería hacerme responsable del posible malfuncionamiento, eso lo dejaba exclusivamente para mis webs.

Algunos migraron, a otros pareció no importarles y se quedaron alojados en MartinServer. Así que configuré los VirtualHost para cada uno de los websites, los habilité en Apache. Finalmente, al no tener contratada IP estática con mi proveedor de internet, configuré los dominios en FreeDNS para gestionar la resolución de nombres de dominio. O sea, para que mis webs fueran localizables en internet con independencia de los cambios de IP que se pudieran producir en mi Servidor.

Y listo. Ahora, por primera vez en mi vida, tengo mi propio servidor en casa. A partir de ahora, a aprovechar todas las ventajas que esto ofrece. Y no sólo como servidor de páginas web: como media center, servidor de FTP, archivos en la nube doméstica, etc.

Twitter como herramienta de Gestión de Crisis

Alfredo Pérez RubalcabaEl 11 de marzo de 2011, un terremoto de 9 grados en la escala Richter sacudió Japón. El mundo entero asistió a la tragedia, narrada directamente por los ciudadanos a través de los Social Media. Google, por ejemplo, ofreció soluciones revolucionarias, como una aplicación gratuita,  Person Finder, que puso en contacto a las personas que estaban buscando desaparecidos con aquellas otras personas o instituciones que les podían facilitar esa información.

Y Twitter, definitivamente, se consolidó como un medio indispensable para el seguimiento de la información en tiempo real. Pocas horas después del terremoto, el gobierno japonés creó la cuenta @Kantei_Saigai.  A través de ellas ofreció mensajes e informaciones sobre las evacuaciones, réplicas, fugas radioactivas, la situación de los reactores nucleares, etc. Fue seguida por más de 200.000 personas.

Lo que ya resulta evidente en el ámbito de la Gestión de Catástrofes, lo es cada vez más también en la Gestión de Crisis Empresariales. Un buen ejemplo es lo que sucedió con la Crisis de los Controladores Aéreos en España.

En diciembre de 2010, el gobierno español tuvo que declarar el Estado de Emergencia y cerrar el espacio aéreo español debido a a huelga de los controladores. El caos fue enorme.
Obviamente, el impacto sobre AENA, la empresa que gestiona los aeropuertos españoles, fue brutal. Cientos de miles de viajeros, ansiosos de información sobre sus vuelos, causaron el colapso de todas las vias de atención al cliente. Hasta el propio sitio web de AENA se cayó debido a la altísima demanda.

Mientras tanto, en Twitter, surgieron dos hashtags para seguir el conflicto: #spainstrike (internacional) y #controladores. Además, la huelga copó los 10 principales trending topics de España.

En este contexto, el Grupo Inforpress y AENA crearon un canal en Twitter para informar sobre la crisis. Pocas horas después de su creación, @aenainformacion  ya tenia más de 3.500 seguidores y fue incluida en más de 100 listas de seguimiento.

La cuenta de Twitter consiguió compensar la sensación de falta de información, que estaba originando angustia en los viajeros. Fue tal el éxito que, según Top Comunicación, después de la crisis, AENA decidió mantener @aenainformacion y la incluyó como una pieza más dentro de su plataforma de herramientas de información.

¿Qué Gestor de Contenidos necesito en mi empresa?

Content Management SystemEl mercado de los sistemas de Gestión de Contenidos es tan heterogéneo y fragmentado que es necesario estudiar cada implantación caso por caso.

De hecho, no existe una definición estándar de “Gestión de Contenidos” más o menos aceptada por toda la industria. Un sistema de Gestión de Contenidos puede ser casi cualquier cosa: desde un programa que gestiona la publicación en un sitio web hasta un gestor de bases de datos, pasando por gestores de archivo, gestores documentales, etcétera.

La oferta existente es tan extensa que difícilmente una empresa tendrá capacidad para evaluarla por sus propios medios. En primer lugar es necesario delimitar un poco más las necesidades concretas de la empresa. ¿Qué es lo que realmente necesita?:

  • Gestores de Contenido Web (WCM; básicamente son aplicaciones que permiten administrar de forma sencilla sitios web y que proporcionan un control avanzado de las tareas editoriales (creación, edición, validación, publicación) y una gestión de permisos y usuarios.
  • Gestores de Contenido Empresarial(ECM; en esta categoría cabe incluir una muy amplia gama de aplicaciones que van desde las de Gestión Documental a las herramientas de Gestión del Conocimiento, Data Mining o BPM.

Por supuesto que éste no es más que el comienzo del camino. Una vez que hemos delimitado nuestras necesidades, hay que contrastarlas con las funcionalidades que ofrecen cada una de estas aplicaciones.Una primera aproximación la podemos obtener en CMSMatrix.

De cualquier forma, no es tarea fácil, puesto que a la gran cantidad de productos más o menos similares existentes en el mercado se suma la necesidad de definirse por un modelo de implantación determinado, un modelo de gestión, mantenimiento y evolución que se adecuen a la realidad de nuestra empresa.

Tanto en el caso de aplicaciones propietarias como en el caso de las soluciones Open Source existentes, se impone sin duda el asesoramiento especializado de integradores o consultores independientes que, gracias a su conocimiento de los productos, minimicen el riesgo inherente a la implantación y el impacto del cambio en la organización. 

OpenText compra Vignette

OpenTextLa anunciada adquisición de Vignette por la canadiense OpenText ha sacudido por completo el ya de por sí bastante ajetreado mercado de la Gestión de Contenidos. Todos sabíamos las dificultades por las que atravesaba el decano y antaño intocable gigante del WCM, pero una noticia de este calado ha generado sorpresa y expectación.

OpenText, uno de los grandes indiscutibles, había forjado en los últimos tiempos una alianza más que estrecha con SAP, con la que ha consolidado una oferta complementaria que, además, le ha abierto una puerta privilegiada de acceso a las grandes corporaciones. Había, además, iniciado adquisiciones estratégicas como la de Vizible. Pero la compra de Vignette es, sencillamente, otra dimensión.

Casi que se puede hablar que después de este paso se cierra toda una época en el mundo de la Gestión de Contenidos y se abre otra totalmente nueva, aún con características inciertas.

La empresa radicada en Ontario va a desembolsar unos 310 millones de dólares en la compra de Vignette. Pagará unos 8 dólares en efectivo por cada acción de Vignette, más un plus de 0.1447 acciones de Open Text por cada una de Vignette. Un total de 12.70 dólares por acción, un 74% por encima del valor nominal de las acciones de Vignette.

Además de impresionantes, las cifras abren toda una serie de interrogantes que no serán fáciles de contestar. Tecnológicamente hablando, OpenText y Vignette se solapan en gran medida, por lo que no cabe esperar que se vayan a producir sinergias. Sencillamente, todo apunta a que se mantendrá la marca durante un tiempo, pero que lo que realmente se está haciendo es asaltar a las bravas una porción más que jugosa del mercado.

OpenText tiene tras de sí una larga tradición de crecer a base de adquisiciones (como cuando se hizo con RedDotal comprar Hummingbird en 2006). Probablemente su intención con Vignette sea ahora la misma, pero está por ver que esta vez no se le vaya a indigestar el bocado.

10 características que todo CMS debería cumplir para ser “SEO friendly”

Uno de los aspectos cruciales a la hora de decantarse por una u otra solución de Gestión de Contenidos Web, tanto si se trata de un producto Open Source como si es un software comercial, es la facilidad y la flexibilidad que ofrecen a la hora de implementar técnicas de SEO (Search Engine Optimization).

De poco serviría que el esfuerzo de adaptación e implantación de un CMS fuera exitoso desde el punto de vista de los procedimientos de la empresa, de su adaptación a los conocimientos y experiencia de los usuarios, de su categorización e incluso de la apariencia visual si, finalmente, el contenido que genera acaba siendo mal indexado por los robots de búsqueda. Sería un éxito invisible (que es lo mismo que un fracaso).

Jonathan Saipe enumera diez características que todo CMS debería cumplir para ser “SEO friendly”:

1. Metadatos Es imprescindible que el CMS que escojamos permita el control manual sobre los metadatos de nuestro sitio web, puesto que es parte esencial de cualquier campaña SEO. Aunque nuestro website pueda generar dinámicamente las etiquetas para el título de la página, la descripción y las keywords, el CMS debe facilitarnos paralelamente el pleno control manual de los mismos.

2. Gestión de URLs y categorías Lo ideal es que el CMS nos ofrezca la posibilidad de generar URLs “amistosas” para los buscadores, compuestas, por ejemplo, con frases cuyas palabras estén separadas por guiones simples.

Es preferible: http:/martin.ekiry.com/El-Ministerio-de-Educacion que

https://martin.ekiry.com/article.php?id_article=201

Los buscadores tienen en cuenta las palabras que encuentran en la cadena que forma la URL.

El CMS también debe permitir que se pueda modificar la categoría que aparece en la URL sin que esto provoque enlaces rotos.

3. Texto de los enlaces El texto que describe un enlace (link anchor text) es una aspecto importante a la hora de controlar nuestro posicionamiento. Casi todos los CMS ofrecen control sobre este aspecto dentro del texto, pero no todos ofrecen el control del mismo en la estructura de navegación.

4. Validación de enlaces

Un buen CMS controlará los cambios en cascada que deba realizar para evitar enlaces rotos cuando se renombre o reubique un directorio o una página en nuestro sitio web. Idealmente, debería avisarnos si se encuentran enlaces rotos (internos o externos a nuestro sitio).

5. Sitemap y XML El CMS debe generar dinámicamente un Sitemap de nuestra web, pero permitiéndonos controlar en todo momento los textos de los enlaces (ver punto 3).

El Sitemap debe construirse en XML acorde con los estándares utilizados por los buscadores.

6. Atributos ALT Es imprescindible qe el CMS permita añadir tributos ALT (texto alternativo) a cualquier objeto incrustado como las imágenes. No sólo por cuestiones de posicionamiento, sino también de accesibilidad.

7. Redirecciones 301 El CMS debe ofrecer una utilidad para configurar redirecciones 301 (redirecciones permanentes) sin necesidad de tener que editar manualmente el archivo .htaccess.

8. Páginas 404 personalizadas Cuando se cambia de sitio una página o se migra un sitio web completo, los buscadores seguirán apuntando hacia URLs que ya no existen, por lo que es importante disponer de páginas de error 404 que apunten hacia la dirección correcta para evitar perder tráfico en la página en cuestión.

9. Modelado del PageRank El modelado del Google PageRank es la técnica que permite añadir la etiqueta “no follow” sobre los enlaces, con el objetivo de controlar manualmente el Google PageRank de un sitio web.

10. Contenido duplicadot El contenido duplicado es uno de los factores que más perjudica al posicionamiento de una página, por lo que el CMS debería ofrecer alguna utilidad para controlar este aspecto.

En resumen, y con independencia de las diez características que enumera Jonathan Saipe o cualquier otra que queramos añadir, lo esencial para que el CMS por el que finalmente optemos sea amigable para los buscadores es que el usuario (administrador) tenga absoluto control sobre el código que finalmente va a generarse. Aunque prácticamente todos los CMS de última generación publicitan que esto es así, en la práctica no siempre está tan claro ni es tan sencillo de implementar, por lo que, sin duda, comprobarlo debería ser una de las claves de nuestra elección.

EverGreen y Koha: gestores de contenidos para bibliotecas

EvergreenSi hay un sector con necesidades específicas de gestión de contenidos, y con una clara necesidad de utilizar principalmente software Open Source, éste es sin duda el de las bibliotecas. No tiene nada que ver la gestión de un sitio de noticias o la gestión de un sitio corporativo con las necesidades específicas que se encuentran los bibliotecarios a la hora de plantearse la presencia on-line de sus instituciones.

EverGreen destaca, sin duda, en este panorama. Es un proyecto que nació inicialmente para cubrir las necesidades de PINES (Public Information Network for Electronic Services), un consorcio norteamericano que aglutina a unas 270 bibliotecas.

Evergreen ofrece capacidades avanzadas de catalogación, acceso on-line a catálogos, informes estadísticos, etc. El software está licenciado bajo la GNU General Public License.

koha Koha, por su parte, tiene una interfaz mucho más amigable que EverGreen y está sin duda mucho mejor adaptado a las necesidades de pequeñas bibliotecas. Su uso es sencillo aunque sus funcionalidades son igualmente avanzadas y adaptadas a la perfección a las necesidades del sector. Se distribuye bajo licencia GPL.

El Ministerio de Educación brasileño se pasa a Joomla

joomla Brasil Joomla, uno de los gestores de contenido OpenSource más populares y con una mayor comunidad de usuarios, se ha apuntado un importante tanto al haber sido elegido como CMS por el Ministerio de Educación brasileño para el nuevo rediseño y estructuración de su Web institucional.

Joomla tiene una extensísima base de usuarios entre particulares y pequeñas y medianas empresas, pero sus referencias eran más escasas en la gran empresa o en instituciones de tamaño considerable. En cualquier caso, la apuesta decidida del gobierno brasileño por el uso de tecnologías OpenSource en todos los ámbitos, desde el Desktop hasta las webs ministeriales, ha brindado la oportunidad de demostrar las capacidades de Joomla para proyectos más ambiciosos.

El nuevo portal presenta un diseño claro y atractivo, bastante usable, aunque presenta problemas de accesibilidad (no todos los contenidos son fácilmente accesibles con navegadores que no implementen CSS o Javacript).

Decididamente, presenta un aspecto mucho más “actual” que el de la mayor parte de las instituciones equivalentes, permitiendo, entre otras cosas, la creación de perfiles de navegación particularizado por cada usuario, el uso intensivo del vídeo como contenido y la navegación facetada a través de nubes de tags.

CMIS podría aprobarse antes de fin de año

El nuevo estándar para la Gestión de Contenidos podría revolucionar la Web

Ron Miller comenta en Fierce Content Management la conversación que (via Twitter) mantuvo con la directora del Comité Técnico de OASIS, Mary McRae, que afirmó que el nuevo nuevo estándar para Servicios de Interoperabilidad de Gestión de Contenidos (CMIS) podría estar para finales de año, aunque aún quedan muchas piezas por encajar.

De la importancia de este nuevo estándar dan fe las palabras de John Newton, presidente de Alfresco, que lo compara en importancia a la adopción, en su momento, de SQL. Al igual que entonces, dice Newton, este nuevo estándar puede multiplicar exponencialmente la dimensión del negocio y hará surgir servicios que exploten el potencial de la interoperabilidad de contenidos.

Y todo ello hasta el punto de que se pueda hablar de una nueva Web, diferente a todo lo que conocemos hasta ahora.

Lo cierto es que, como bien conoce cualquier integrador, los problemas existentes en toda empresa que utilice diferentes repositorios de contenido (lo que es normal, por otra parte) son inmensas. Cada aplicación constituye una isla por sí misma, que encierra sus contenidos y no permite (o dificulta muchísimo) su integración. Esto deriva en importantes trabas para la integración de los contenidos empresariales, que a menudo repercute también en ineficiencias y, sobre todo, pérdida de oportunidades.

Dejando al lado sus diferencias, ECM, IBM y Microsoft enviaron en octubre de 2007 un borrador de CMIS a la Organización para el Fomento de los Estándares de Información Estructurada (OASIS), y posteriormente Alfresco, OpenText, Oracle y SAP se unieron a esta iniciativa de estandarización.

Ahora sólo queda esperar que se cumplan todos los trámites que una propuesta de este tipo debe superar y, una vez aprobada, observar hasta qué punto se cumplen las previsiones de aparición de nuevos servicios y oportunidades de negocio.