Resumen SEO Plus Congress 2015 (Parte 2)

Continuando con la primera parte de mi resumen del SEO Plus Congress 2015 que inicié la semana pasada, recopilando las tres primeras ponencias, hoy os traigo la segunda y última parte con el resto.

El cierre de la mañana quedó a cargo de Carlos Cano y la segunda sesión del día sobre Grey Hat SEO bajo el título “Tipologías, Usos y Herramientas para Pirámides de Enlaces”.

Tipologías, usos y herramientas para Pirámides de Enlaces - Carlos Cano

A lo largo de la charla nos fue dando numerosas y valiosas recomendaciones en la creación y mantenimiento de las Pirámides de Enlaces, una relación de enlaces estructurada en varios niveles de menor a mayor calidad hacia nuestro sitio web principal o money site. 

Dentro de nuestra pirámide el nivel más importante que debemos cuidar y el que en consecuencia nos llevará mayor inversión de recursos (tiempo y dinero) es el Tier 1 o primer nivel. Este deberá estar compuesto por sites de calidad, reseñas, notas de prensa, artículos invitados (guest posting), etc. dónde el contenido debe ser de tipo editorial, nada de “spins”. En este proceso también es muy beneficioso obtener citaciones con datos de SEO local (marca+dirección+teléfono) analizando los datos que se muestran de la competencia para las búsquedas relacionadas con el sector y automatizando un proceso de búsqueda mediante Scrapebox y un footprint con sus direcciones. 

Entre las principales recomendaciones para evitar que los sites del Tier 1 sean detectados me quedo especialmente con estos tres cuidados:

  • Comprobar previa y periódicamente el SPAM. Si vamos a crear un site en una plataforma 2.0 nuestra obligación es analizar cómo de spameado está este site. Algunos sitios como Jimdo parecen tener ya un nivel de morralla importante :P
  • Mantener una proporción 4-5 a 1 de artículos o contenido sin enlaces frente a aquellos en los que sí que colocaremos un enlace para pasar relevancia.
  • No enlaces entre sites de Tier 1  

Para Tier 2 y el Tier 3 nos dio también muy buenos consejos. En el segundo y tercer nivel nos valdrían las mismas técnicas que vimos con Joel Pérez en la primera de las ponencias del día. El tier 2 deberá mantener algo de calidad y bastantes enlaces y el tier 3 será simplemente miles de enlaces hacia el segundo nivel sin importar calidad. 

Herramientas

  • Tier 1 :Scrapebox, Ahrefs, Xenu Screaming Frog
  • Tier 2-3: Scrapebox, FCS Networker, SEO Content Machine, Espinner.net, GSA y One Hour Indexing  

Tras el descanso para comer Fernando Angulo de Semrush nos habló brevemente de cómo analizar a la competencia SEO usando diferentes utilidades disponibles en esta potentísima herramienta SEO. Nos guió paso a paso cómo analizar a los mejores competidores en las SERPs, los que crecen más rápido, revisando también las keywords para las que tienen posiciones y mucho tráfico y analizando los puntos fuertes del site en cuestión. Por último nos presentó el nuevo sistema de informes (reports) con los que podemos presentar muy claros todos los datos para un mejor entendimiento por parte del cliente.

Al finalizar dio paso a Luis M. Villanueva, otro reconocido Consultor SEO de la ciudad y compañero de equipo en Webpositer, y su ponencia errr….””White Hat SEO””... “PBNs Megacurradas a Prueba de Humanos”  ;) 

PBNs Megacurradas a prueba de humanos - Luis M. Villanueva

Bajo este título nos fue mostrando numerosos trucos para montar una PBN, una Red Privada de Blogs de sitios de autoridad y dominios caducados (principalmente) para reforzar nuestro linkbuilding de un modo similar al realizado con la estrategia de Tiers que nos contó Carlos. 

Entre los puntos más relevantes para analizar la viabilidad de un dominio caducado citó los siguientes: 

  • DA/PA: Autoridad del Dominio y Autoridad de Página, podemos sacar ambos datos con la barra de MOZ como siempre. Buscar valores superiores a 20
  • CF/TF: Citation Flow y Trust Flow, dos métricas que podemos obtener con Majestic SEO y para las que debemos vigilar su proporción. Buscar valores altos pero similares entre CF y TF. Muy importante fijarse en las temáticas del Topical Trust Flow (TTF).
  • Perfil de enlaces: Revisión exhaustiva del perfil de enlaces entrantes (backlinks) con Ahrefs. Poner especial atención al número de IPs y subredes que enlazan para no dar con una granja de sites ubicados en un mismo servidor o tan solo unos pocos.
  • Revisión de contenido: Si vamos a recuperar un dominio caducado interesa ver qué había antes por si ya está quemado. Esto lo podemos ver con archive.org
  • Revisión de penalizados: MUY IMPORTANTE al igual que la revisión de contenido. Como siempre para esto podemos acudir, si disponemos de ella, a la herramienta SEO Sistrix, una de mis favoritas.  

Una vez que vayamos a proceder con el registro y hospedaje del site nos contó lo importante que es hacerlo con distintos datos de registro, en diferentes agentes registradores, servicios de hosting, plataforma de blog y diseños de plantillas para el blog, de este modo nos garantizamos mayor naturalidad en la red y sobre todo que no exista un patrón que pueda ser rastreado por algún revisor. 

Otra muy buena práctica es la de generar actividad en redes sociales con herramientas como Ready4Social para dar más naturalidad a la PBN. 

Llegó finalmente la última ponencia del congreso ya pasadas las 18’00 pero sabiendo que a pesar de haber sido un día intenso nos íbamos a echar unas buenas risas además de llevarnos una buena dosis de información con Álvaro Sáez, más conocido como Chuiso en la scene SEO. El título “Poniendo a prueba el algoritmo de Google” ya nos daba una pista de cómo de interesante iba a ser su contenido. 

Poniendo a prueba el algoritmo de Google - Álvaro Sáez (Chuiso)

Comenzó recordándonos los datos del experimento que nos presentó este mismo año también en Alicante en el congreso Internet 3.0, un sito web optimizado para búsquedas relacionadas con “congreso de marketing” en el que, a pesar de ser (cito) “una auténtica mierda de contenido”, con ponentes de chiste y muchas coñas, seguía en primeras posiciones para muchas búsquedas relacionadas pasados ya 4 meses desde su posicionamiento mediante acciones Black Hat SEO

Su ponencia se centró en cómo automatizar la creación de contenido en sites para monetización, “pasándonos por el beicon” el algoritmo de Google y esquivando penalizaciones por Puro Spam. 

Rescató un clásico de los plugins para Wordpress, WP Robot, para automatización de contenidos, spineo etc. pero contándonos que todo lo que es comercial acaba por quemarse porque es posible sacar patrones y que los mejores bots siempre serán los que hayamos desarrollado nosotros y no compartamos o compartamos en petit comité. 

Para el spineo, dónde en español siempre tenemos dificultades, podemos partir de traducciones de varios idiomas similares hasta llegar al español para evitar que sea detectable, por ejemplo pasar del francés al portugués y de éste al que nos interesa. 

Una herramienta para comprobar la viabilidad de nuestros contenidos es http://smallseotools.com/plagiarism-checker/ , no obstante siempre serán más efectivos unos textos muy bien spineados. 

En los ejemplos que fue citando nos mostró un blog que llegó a alcanzar 4000 visitas diarias hasta que se despeñó y nos habló de cómo hizo varias redirecciones 301 hacia otros dominios en los que restauraba el blog conforme iba siendo penalizado por Puro Spam. Unos datos muy interesantes para ver la efectividad del algoritmo. 

Su teoría se centraba en penalizaciones de Panda y su conclusión...que el black hat funciona, puede perdurar cierto tiempo y es efectivo para monetización. 

Una cosa que me llamó la atención en sus slides fueron los datos de comportamiento de usuario de los sites donde éstos contaban con tasas de rebote altísimas y poco tiempo y páginas vistas por visitas por lo que me picó la curiosidad de los resultados con estos experimentos con una posible mejora de esos datos. Habrá que cacharrear! :)

Y hasta aquí mi resumen del congreso! Espero que lo hayáis disfrutado y que os sea de utilidad! 

Cierre del SEO Plus Congress 2015 #seoplus2015

Resumen SEO PLUS Congress 2015 (parte 1)

El pasado viernes 17 tuvimos por fín la ocasión de celebrar el SEO Plus Congress 2015 #seoplus2015 en Alicante, un eventazo de Posicionamiento en Buscadores como pocos. En los últimos años hemos tenido la suerte de contar en la ciudad con el Black Hat Spain (Julio de 2014) y dos ediciones de SEO para SEOs (2013 y 2012) ambos también de una excelente calidad. Este tenía la particularidad de ser gratuito tanto presencial como en streaming y con un elenco de ponentes de muy alto nivel con lo que, como era de esperar, el número de asistentes cubrió más de 3 cuartas partes del Paraninfo de la Universidad de Alicante.

SEO Plus Congress 2015 Alicante

El leitmotiv del congreso venía enmarcado en ponencias en las que se explicarían las distintas técnicas SEO dentro del marco del White Hat, Black Hat y ejem… Grey Hat, pero qué queréis que os diga… había Black Hat a expuertas! :) Y disfrutamos de lo lindo.

Empezamos la jornada de ponencias con Joel Pérez, a quién tengo el honor de tener como compañero desde hace bien poquito en el equipo de Consultores SEO de Webpositer.

Las mejores herramientas para automatizar la creación de enlaces - Joel Pérez

Con el título “Mejores herramientas para automatizar la creación de enlaces” nos dio un montón de consejos y recomendaciones para usar lo que el llama “Arsenal de aplicaciones” :

  • FCS Networker para la creación de sites de forma automatizada en plataformas de sitios web 2.0 como Rebelmouse, Scribd o Tumblr entre muchísimas otras.
  • GSA Search Engines Ranker para fortalecer todos estos sites con la creación de "cholones" de enlaces de forma automática.

Nos comentó que podemos usar GSA para Tier1 y Tier2, aunque su curva de aprendizaje es muy pronunciada y, como en casi todas estas herramientas para SEO del lado oscuro, requiere una inversión de unos 350 €/mes en herramientas complementarias para que funcione pata negra (proxys, anti-captchas, recaptchas, etc.)

También nos habló de un buen montón de aplicaciones para generar contenido de forma automática como seocontentmachine.com, wordai.es y espinner.net, estas últimas de lo mejorcito en español por ahora. Otros dos buenos consejos que nos dió fue contar con un VPS para disponer de un buen ancho de banda de subida al trabajar con GSA y el otro vino en forma de cita con la frase “Enlace no indexado, enlace no contado” así que recuerda… indexa tus links!! Black Hat SEO del bueno, si señor! :) 

Trucos SEO que me han funcionado en 2015”, con este título empezamos una ponencia con un Story Telling muy currado (y de los que me molan...FRIKI) a cargo de Alex Navarro, otro buen SEO de La Terreta (Me refiero a Alicante para el que no lo sepa).

Trucos SEO que me han funcionado en 2015 - Alex Navarro

A lo largo de la charla nos enumeró varias técnicas SEO digamos… grises, que están funcionando.

  • Vídeos de Youtube: Seguimos teniendo oportunidades para posicionar con relativa facilidad vídeos en Youtube. La técnica pasa por optimizar estos vídeos para posicionamiento de servicios locales, “taller mecanico alicante” por ejemplo, y sub-arrendar posteriormente a terceros el espacio destinado a la miniatura y la descripción, incuyendo textos y enlaces del cliente. Esto gris gris….no es eh! :P Como recomendaciones nos indicó que:
    • Su duración fuese de un minuto o minuto y poco para que se vea el máximo % del vídeo, usar
    • Usemos un canal de youtube por “campaña”
    • Contemos con más de 400 palabras por descripción + etiquetas + miniatura personalizada
    • Añadamos periódicamente contenido
    • Reforcemos con backlinks
  • Google My Maps: Esta poco conocida aplicación de Google Maps para usuarios permite crear capas en las que nos podemos configurar nuestras propias localizaciones con todo lujo de detalles y como no… con un jugoso enlace hacia el site que queramos posicionar. Además nos permite embeber un vídeo de youtube con lo que podemos reforzar uno de los anteriormente citados. Durante la sesión de preguntas alguien consultó si se podían añadir listas de reproducción de youtube con lo que queda un tema para experimentar por aquí.
  • Conseguir un enlace de los grandes de tu sector: Cuando leo posts de SEO en los que se resta importancia al cuidado del on-page no dejo de acordarme de esta técnica. Alex nos contó cómo conseguir un enlace de las grandes marcas del sector dónde nos estemos posicionando analizando los enlaces rotos de sus sites y rescatando dominios caducados. Un clásico en el linkbuilding gris pero para el que nos dio algunas recomendaciones muy interesantes. Cuando consigamos encontrar un enlace roto de este tipo con un dominio que podamos registrar tenemos 2 opciones:
    • Hacer una redirección 301 del sitio caducado hacia nuestra web
    • Montar una PBN​

El consejo deluxe… Montar una PBN en la que pongamos algunos sites con https, una señal más de fiabilidad de cara a posibles revisores.

  • Aumentar un 30% el tráfico: Esta técnica consiste básicamente en trabajar muy bien tus criterios long-tail. Analizar los criterios long-tail y sus landings te puede dar muy buenas ideas para la optimización on-page de tu site o para redacción de contenidos optimizados para ese long-tail
  • Comportamiento de usuario: Aquí tuvimos el primer contacto con los datos de CTR tan comentados últimamente. Nos habló de su plataforma EcoSEO dónde es posible el “intercambio” de acciones manuales de CTR para mejorar los datos de usuario (accesos y navegabilidad en tu site) tan importantes para Google.

Tras el coffee break tocó el turno para Marcos Herrera y su ponencia “Auditoría SEO: Yoda tips, Googlebots y sablazos láser”...chapó por el título, los slides y la entrada en el escenario con sable láser incluido, si llega a sonar la Marcha Imperial hago la ola! XD

Auditoría SEO: Yoda tips, Googlebots y sablazos láser - Marcos Herrera

Aquí por fin vimos White Hat SEO, nos fue contando paso a paso pero a velocidad de Halcón Milenario todos los puntos a tratar en una Auditoría SEO con varios tips de Jedi Master. Me resulta imposible sintetizar todas sus recomendaciones en unos párrafos así que citaré aquellas que me encuentro más a menudo cuando hago auditorías y que son más “dañinas” sin están mal:

  • Facilitar el acceso a Google: Revisa tus androides digo...robots! De nada sirve currarte varias cosas si luego la lías con el robots.txt. Marcos citó varios casos conocidos como el de Rastreator (para bien), Groupalia, la Casa Real, o el de la Policía, a este último podríamos llamarle “Estos no son los androides que estáis buscando” jeje. No añadas parámetros y filtros si no tienes muy controladas tus URLs y sus backlinks, no bloquees paginaciones, ficheros css y javascript. Revisa cómo rastrea Google tu web usando Search Console. Bloquea lo que no se deba indexar como textos de cookies y LSSI (si son copiados o generados), páginas con tiempos elevados de carga(rastreo). Protégete contra bots maliciosos (Rastreator) y añade un sitemap.
  • Audita tus páginas con noindex: Usa Screaming Frog para revisar posibles meta-etiquetas robots en las que tengas asignado un atributo noindex. Revisa el total de páginas escaneadas, las que tienes en sitemap y las que Google tiene indexadas y contrasta.
  • Haz sitemaps de sitemaps: Aquí vino un Pro-Tip para cuando tengamos muchísimas URLs, haz sitemaps de categorías y de productos por ejemplo y añadelos a todos los agregadores de feeds o móntalos en una Fusion Table para que se indexen.
  • Conversion First: Optimiza primero las URLs que te estén generando más ingresos, aumentarás datos de comportamiento de usuario y adivina… ingresos!
  • Optimiza tus Snippets: Debemos cuidar muy mucho la longitud, exclusividad y el contenido con toque marketiniano de nuestros Títulos HTML y Meta-Descriptions. Yo suelo recomendar a los clientes que piensen en un anuncio de AdWords, en esos pocos caracteres tenemos que convencer al usuario para que haga clic en nuestro anuncio, pues con nuestros resultados de búsqueda orgánicos lo mismo.
  • Optimización Semántica: Revisa la redacción de tus contenidos y comprueba que estás usando lenguaje relacionado y variaciones de tus criterios principales.
  • Finetuning técnico: Revisa enlaces rotos, errores 404 y 5XX, abuso de redirecciones, etc
  • Revisa duplicidades de contenido: Usa Screaming Frog (nuestro gran aliado) y Siteliner para analizar posibles duplicidades de contenido, Panda se “alimenta” de esto.

Hasta aquí la parte 1 de mi resumen, en breve (espero) publicaré otro post con las 3 últimas ponencias para que no se quede un único post muy largo.

SEOPlus Congress Foto Paraninfo Universidad de Alicante

Tutorial Liferay Demo: Cómo probar Liferay Portal

Vuelvo a publicar en el blog en menos de una semana!! Inédito!! :P

El sábado añadí la sección SEO en Liferay , un índice de posts a modo de guía, en esta ocasión os traigo un vídeo cortito, el primero de varios espero, en el que os explico cómo instalar Liferay Portal en vuestros PCs para que podáis probarlo. Sin más os dejo con el vídeo y la transcripción aproximada del mismo. Si os gusta no os olvidéis de compartir! ;)

Transcripción del vídeo:

Para inaugurar los vídeos voy a hacer una pequeña guía de cómo probar Liferay en local. Si bien es cierto que podemos probar gestores de contenido como Wordpress, Joomla, Drupal etc online, tenemos ciertas facilidades para probarlos de este modo, pero con Liferay lo tenemos un poquito más complicado. Os voy a enseñar paso a paso para que podáis probarlo en local, sin ningún tipo de limitación además, con lo que si queréis ver como es la gestión de contenido o la optimización SEO en Liferay y demás lo podéis hacer muy facilmente.

Lo primero que debemos hacer es bajarnos los ficheros para instalarlo en local para ello podemos ir directamente a http://sourceforge.net/projects/lportal/files/Liferay%20Portal/ dónde veréis un montón de versiones, todas las que se han ido liberando a lo largo del tiempo están aquí, a nosotros la que nos interesa es la más reciente. Veréis que hay una versión 7.0 M4 pero se trata de una Beta de la próxima versión pero la que nos interesa es la 6.2.3 GA4 ya que en el momento que grabo el vídeo es la más reciente. Os recomiendo que bajéis la que viene con Tomcat en el bundle, es la que más se usa normalmente y como podréis ver la que tiene más descargas. Si ya tenéis JAVA instalado y la variable de entorno JAVA_HOME configurada os vale con descargar el bundle liferay-portal-tomcat-6.2-ce-ga4-20150416163831865.zip, si por casualidad no tenéis JAVA instalado y no os queréis meter en el "embolao" de instalar JAVA podéis descargar la versión del bundle liferay-portal-tomcat-jre-6.2-ce-ga4-20150417110247462.zip ya que dentro de la carpeta Tomcat tenemos un JRE (runtime) para poder ejecutar aplicaciones JAVA. Yo la que me descargo, ya que tengo JAVA instalado, es la primera. Descargamos y descomprimimos.

Nos iremos al directorio /liferay-portal-6.2-ce.ga4/Tomcat-7-0.42/bin dónde veréis dos ficheros con el mismo nombre pero con diferente extensión que son los que tenemos que ejecutar, dependiendo del sistema operativo, para arrancar Liferay. Si es una plataforma Windows tendréis que ejecutar el fichero startup.bat si es una plataforma Linux el startup.sh.

El proceso que viene a continuación de ejecutar el startup.bat es bastante lento, debemos esperar a que termine de arrancar la aplicación, cuando haya terminado de arrancar veremos el mensaje "Server startup in N ms" y a continuación se nos abrirá la URL http://localhost:8080 en el navegador que tengamos por defecto.

La primera vez que accedemos a localhost:8080 entraremos en el Wizard, el asistente para la configuración de la instalación de Liferay, para probarlo rápidamente se puede dejar todo por defecto. Yo suelo cambiar al menos el idioma a Español. Podemos modificar la base de datos de Hypersonic a MySQL pero se trata de que podamos probarlo lo antes posible así que lo mejor es dejarlo tal cual. El proceso que viene a continuación del asistente también suele tardar unos minutos.

Guardada la configuración del asistente y teniendo todo correcto hacemos clic en "Ir al portal" para acceder al mismo. Deberemos aceptar las condiciones de uso que vienen por defecto. Pondremos una contraseña fácil de recordar y lo mismo en el recordatorio de contraseña y ya estaremos en disposición de acceder al portal.

Para las siguientes veces que queramos probar Liferay bastará con ejectuar de nuevo el fichero startup.bat y accederemos directamente al login en http://localhost:8080.

Espero que os haya resultado útil y nada... a trastear!! Un saludo! :)

Liferay Symposium 2014 en dos palabras: User Experience

Estas son las dos palabras que podrían resumir el contenido del Symposium de Liferay de este año y es que desde la presentación de Bryan Cheung, CEO de Liferay, hasta el cierre a cargo de Jorge Ferrer, Vicepresidente de Ingeniería, gran parte de las ponencias han girado en torno a la experiencia de usuario, su continuidad multi-canal y multi-dispositivo y los aspectos técnicos detrás de todo ello mediante aplicaciones como Audience Targeting o la creación de aplicaciones nativas integradas con el portal, creadas en tiempo récord con Liferay Screens.
 
Liferay Symposium 2014
 
Bryan Cheung comenzó poniéndonos en situación de cómo los procesos habituales han ido transformándose para integrarse en sistemas digitales, de la enorme cantidad de información que esto mismo ha generado en consecuencia y de cómo se debe gestionar de forma eficaz la atención del usuario, implementado sistemas que garanticen dicha atención al ofrecer sólo información relevante para éste. Tenemos demasiadas aplicaciones, canales, interfaces y audiencias por lo que se hace necesario tener capacidad de segmentación para captar ésta atención.
 
Al hilo de esta introducción, Jorge Ferrer continuó desarrollando los conceptos de content targeting y de continuidad de la experiencia de usuario y nos habló de cuáles eran los dos pilares fundamentales para sacar el máximo partido a Liferay: 
  • Servicios y componentes reutilizables para todo tipo de aplicaciones empresariales y dispositivos (PCs, Tablets/Móviles o Smartwatches) que facilitan la integración. Gracias a la modularidad de Liferay es posible desarrollar extensiones para alimentar estas aplicaciones y cubrir las necesidades de continuidad de experiencia multi-dispositivo.
  • El ‘Desarrollo de experiencias en lugar de aplicaciones’. Con esta frase nos indicaba la importancia de poner el foco en el usuario usando como ejemplo un clásico: la petición de soporte/asistencia por parte de un cliente, donde habitualmente se pasa por varios canales (web, teléfono, ubicación física) e interlocutores que solicitan reiteradamente información por no disponer de un sistema con datos centralizados. La experiencia influye directamente en la conversión (en un 97% de los casos según Gartner) por lo que es imprescindible tratar de garantizar que sea satisfactoria.
Es en esta ponencia en la que empezamos a tener las primeras vistas y los primeros datos sobre el plugin Audience Targeting como base para construir esta experiencia de usuario, fluida y continuada, junto al potencial de integración de servicios que ofrece Liferay.
 
Sobre la integración de servicios en aplicaciones móviles continuaron más adelante Zeno Rocha, Juan Fernández y José Manuel Navarro en las ponencias “Mobile Apps” y “Liferay Screens”, dónde de una manera práctica (y con slides “starwarseros” muy divertidos) vimos el potencial del Mobile SDK y el desarrollo de Screenlets. Todas estas librerías nos permitirán consumir recursos de Liferay directamente en nuestras aplicaciones eliminando complejidad a las llamadas remotas, gestión de errores etc. desarrollando así aplicaciones nativas totalmente integradas. Los Screenlets además de contar con un origen de datos tienen una vista, que podemos personalizar con un theme, aspecto que particularmente me resultó interesante por la parte que me toca en desarrollos de front-end.
 
Julio Camarero y Eduardo García nos presentaron posteriormente la modularidad basada en OSGi para crear plugins extensibles y sus beneficios al reducir la inversión en mantenimiento y en la gestión del ciclo de releases, ofreciendo además la posibilidad a desarrolladores de ofrecer estos servicios modulares en el marketplace. Todo se iba orquestando magníficamente ya que, como veríamos en su siguiente ponencia y en la del día siguiente, dicha metodología es en la que está basado el desarrollo de Audience Targeting.
 
Dos ponencias más sobre aspectos técnicos tuvimos seguidamente, “Nuevos componentes de Liferay Faces basados en AlloyUI” a cargo de Juan González (no podía ser de otro modo ;) ) dónde vimos de nuevo su potencial y su capacidad responsive y “Single Page Applications in Alloy 3.0 and Liferay 7.0” a cargo del génio del Javascript Iliyan Peychev, enseñandonos aplicaciones de una sola página al más puro estilo Twitter/Facebook, más rápidas que la vista (como comento Manuel de la Peña), ‘cacheables’, optimizadas para SEO & “Boorkmarkability”, historial de navegación etc.
 
Audience Targeting PluginLlegado este punto ya teníamos todas las piezas para presentar uno de los platos fuertes del Symposium, llegó el momento de (redoble mental) la ponencia de Audience Targeting a cargo de nuevo de Julio Camarero.
 
Comenzó hablándonos de cómo ha ido evolucionando la maquetación de contenido y de como la experiencia usando una web a acabado convirtiéndose en algo bidireccional.

“es un diálogo, escucho lo que quiere el usuario y se lo ofrezco”

A medida que nos iba mostrando las capacidades de este plugin me iba quedando más ojiplático con su potencial y es que tiene unas posibilidades tremendas!
 
En la gestión interna del plugin tenemos un gestor de reglas en el que podemos ir agregando patrones para ir segmentando comportamiento y características de los usuarios, desde la ubicación que tiene definida en el portal hasta las redes sociales que sigue. Dentro de esta gestión existen cuatro bloques principales para definir estas reglas
  • Social: para aspectos relacionados con redes sociales como por ejemplo identificar páginas de Facebook a las que esté siguiendo el usuario.
  • Behavior: Para definir comportamientos del usuario en el portal y crear reglas en base a éstos
  • User attributes: Para segmentar en base a datos que pueda tener el usuario en su perfil del portal
  • Session Attributes: Para definir parámetros en base a la sesión en la que se encuentra el usuario como su localización, navegador o dispositivo utilizado.
La gran ventaja es que no solo podemos crear segmentos para los usuarios del portal de los que tenemos mucha más información sino que también podemos segmentar contenido para usuarios no identificados.
 
Para probar todas las reglas que vamos creando contamos con un simulador que nos permite adoptar un tipo de usuario que cumpla determinadas características y observar así si el contenido que se le muestra es el que procede.
 
Acompañando a todo esto, el plugin Audience Targeting cuenta con un sistema de estadísticas que nos permite crear campañas, en las que podemos definir prioridad si tenemos más de una funcionando, y monitorizar sus resultados. El reporte inicial es muy básico pero otra gran ventaja es que es posible ampliar estos informes de modo que podamos obtener datos muy precisos tremendamente valiosos para el departamento de marketing.
 
Además, como vimos al día siguiente, al estar basado en OSGi podemos extender sus funcionalidades. Nos mostró un ejemplo muy ilustrativo en el que, integrándolo contra un API de un proveedor de servicios meteorológicos podíamos mostrar un contenido u otro en función de si el día era soleado o estaba nublado, algo que según nos indicaba Julio estaban haciendo algunas grandes compañías (no haré publi :P) para ofrecer unos productos u otros en sus websites.
 
Para estas ampliaciones contamos con un SDK en la Developer Network, de la que os hablaré más adelante, y en las próximas semanas añadirán tutoriales para hacer estas cosas paso a paso, incluyendo por ejemplo la personalización de la vista mediante Freemarker (de nuevo frontend yeah!!). 
 
Os dejo el enlace : Audience Targeting SDK
 
La guinda a todo este mundo del UX o experiencia de usuario la puso el segundo día Juan Hidalgo con su ponencia “Buenas prácticas para proporcionar una gran experiencia de usuario en tu portal” pero lamentablemente este año me la perdí ya que asistí al workshop sobre Temas de apariencia (themes) que daba Marcos Castro, del que salí con algunas ideas para próximos Themes. 
 
Me ha quedado un post tremendo así que ahí va mi “disclaimer” :P
Esto no es todo el symposium de liferay ni muchísimo menos, he tratado de dar un enfoque centrado en uno de los temas que captó previamente e in situ toda mi atención.
 
Tuvimos muchísimas otras charlas interesantes como la de Jorge Ferrer sobre la Liferay Developer Network, en la que se ha centralizado toda la documentación y se va a ofrecer la posibilidad de que sea ampliada y traducida por la comunidad o en la que nos contó 4 caracteristicas emocionantes para desarrollo que vendrán con Liferay 7. También me resultó muy interesante la de Zeno Rocha y Chema Balsas sobre el concepto “Mobile First”, de cómo aplicar el Progressive Enhancement (de móvil a desktop) en lugar de Graceful Degradation (de desktop a móvil). Por supuesto no podía faltar una mención a la de nuestro miembro honorífico del LSUG James Falkner, Community Manager de Liferay, sobre como contribuir a la comunidad con pequeñas acciones como crear una idea de una nueva funcionalidad, participar en los user-groups, blogs y foros o contribuir con aplicaciones, traducciones y documentación. 
 
Y con esto tocó despedirse hasta el año siguiente dónde los miembros del LSUG, como viene siendo tradición al finalizar el primer día, volveremos a contarnos entre cañas nuestra experiencia con todas estas tecnologías que tanto nos apasionan.
 
LSUG en el Symposium de Liferay de 2014

Liferay Spain Symposium 2014, calentando motores

Tan solo quedan 3 meses exactos hasta la cita anual con el Symposium de Liferay y ya conocemos los que serán puntos fuertes de esta edición, así como una agenda provisional de las ponencias que tendremos divididas, como viene siendo habitual en los últimos años,  en un track técnico y otro de negocio.
 
Liferay Spain Symposium 2014
 
Como bloques principales este año nos encontraremos con el desarrollo de aplicaciones móviles nativas conectadas a los servicios de nuestros portales, el uso multi-dispositivo, la gestión y monitorización en la nube gracias a Liferay Cloud Services o una introducción al Audience Targeting de Liferay. 
 
Completando las dos jornadas tendremos sesiones muy ilustrativas con casos de éxito, buenas prácticas, ejemplos de integración con otras aplicaciones, mesas redondas y, como novedad este año dos workshops, uno de desarrollo de aplicaciones móviles y otro de temas de apariencia basados en Bootstrap. Tampoco nos podemos olvidar del bloque de charlas de 7 minutos o Lightning Talks de las que también podemos sacar información jugosa. En el pasado symposium tuve la oportunidad de estrenarme en este formato con la Implementación de Google Authorship en Liferay y también de quedarme "ojiplático" en varias de estas charlas realizadas por otros compañeros, muy interesante! [Nota: Lástima que los señores de Google decidieran hace unas semanas suprimir las imágenes de autor en los rich snippets ¬_¬ ]. Como véis, hacer una hoja de ruta para todas las ponencias puede ser complicado ya que uno optaría por clonarse y asistir a todo pero lamentablemente por ahora... hay que escoger. 
 
El año pasado tuvimos una magnífica ponencia de Ed Chung sobre Segmentación de usuarios y personalización de contenidos (Audience Engagement) que me resultó de lo más interesante. También tuvimos otra de Jorge Ferrer sobre las tendencias futuras de Liferay en productos y servicios, en la que abordó este tema y nos habló de los plugins de Content Targeting que tendríamos en el marketplace. Es por esto que la que previsiblemente cerrará el primer día es una de las que me ha generado más expectación. Os dejo la ponencia de Ed Chung y el enlace a todas las demás:
 
 
 
Como broche de oro a la jornada del 22 supongo que, para no perder las buenas costumbres, tendremos reunión del Liferay Spain User Group o LSUG, momento perfecto para tomarte algo fresquito y conocer a personas con las que probablemente has intercambiado ayuda en los foros, contar tu experiencia con Liferay, descubrir cómo puedes aportar a la comunidad, etc. un rato entre geeks de lo más entretenido! 
 
El registro para el Symposium suele tener importantes descuentos meses antes, para ser más precisos la inscripción más económica es hasta el 24 de Septiembre, así que no lo dejes para mañana!!
 
— 5 Resultados por página
Mostrando el intervalo 1 - 5 de 20 resultados.