Resumen SEO PLUS Congress 2015 (parte 1)

El pasado viernes 17 tuvimos por fín la ocasión de celebrar el SEO Plus Congress 2015 #seoplus2015 en Alicante, un eventazo de Posicionamiento en Buscadores como pocos. En los últimos años hemos tenido la suerte de contar en la ciudad con el Black Hat Spain (Julio de 2014) y dos ediciones de SEO para SEOs (2013 y 2012) ambos también de una excelente calidad. Este tenía la particularidad de ser gratuito tanto presencial como en streaming y con un elenco de ponentes de muy alto nivel con lo que, como era de esperar, el número de asistentes cubrió más de 3 cuartas partes del Paraninfo de la Universidad de Alicante.

SEO Plus Congress 2015 Alicante

El leitmotiv del congreso venía enmarcado en ponencias en las que se explicarían las distintas técnicas SEO dentro del marco del White Hat, Black Hat y ejem… Grey Hat, pero qué queréis que os diga… había Black Hat a expuertas! :) Y disfrutamos de lo lindo.

Empezamos la jornada de ponencias con Joel Pérez, a quién tengo el honor de tener como compañero desde hace bien poquito en el equipo de Consultores SEO de Webpositer.

Las mejores herramientas para automatizar la creación de enlaces - Joel Pérez

Con el título “Mejores herramientas para automatizar la creación de enlaces” nos dio un montón de consejos y recomendaciones para usar lo que el llama “Arsenal de aplicaciones” :

  • FCS Networker para la creación de sites de forma automatizada en plataformas de sitios web 2.0 como Rebelmouse, Scribd o Tumblr entre muchísimas otras.
  • GSA Search Engines Ranker para fortalecer todos estos sites con la creación de "cholones" de enlaces de forma automática.

Nos comentó que podemos usar GSA para Tier1 y Tier2, aunque su curva de aprendizaje es muy pronunciada y, como en casi todas estas herramientas para SEO del lado oscuro, requiere una inversión de unos 350 €/mes en herramientas complementarias para que funcione pata negra (proxys, anti-captchas, recaptchas, etc.)

También nos habló de un buen montón de aplicaciones para generar contenido de forma automática como seocontentmachine.com, wordai.es y espinner.net, estas últimas de lo mejorcito en español por ahora. Otros dos buenos consejos que nos dió fue contar con un VPS para disponer de un buen ancho de banda de subida al trabajar con GSA y el otro vino en forma de cita con la frase “Enlace no indexado, enlace no contado” así que recuerda… indexa tus links!! Black Hat SEO del bueno, si señor! :) 

Trucos SEO que me han funcionado en 2015”, con este título empezamos una ponencia con un Story Telling muy currado (y de los que me molan...FRIKI) a cargo de Alex Navarro, otro buen SEO de La Terreta (Me refiero a Alicante para el que no lo sepa).

Trucos SEO que me han funcionado en 2015 - Alex Navarro

A lo largo de la charla nos enumeró varias técnicas SEO digamos… grises, que están funcionando.

  • Vídeos de Youtube: Seguimos teniendo oportunidades para posicionar con relativa facilidad vídeos en Youtube. La técnica pasa por optimizar estos vídeos para posicionamiento de servicios locales, “taller mecanico alicante” por ejemplo, y sub-arrendar posteriormente a terceros el espacio destinado a la miniatura y la descripción, incuyendo textos y enlaces del cliente. Esto gris gris….no es eh! :P Como recomendaciones nos indicó que:
    • Su duración fuese de un minuto o minuto y poco para que se vea el máximo % del vídeo, usar
    • Usemos un canal de youtube por “campaña”
    • Contemos con más de 400 palabras por descripción + etiquetas + miniatura personalizada
    • Añadamos periódicamente contenido
    • Reforcemos con backlinks
  • Google My Maps: Esta poco conocida aplicación de Google Maps para usuarios permite crear capas en las que nos podemos configurar nuestras propias localizaciones con todo lujo de detalles y como no… con un jugoso enlace hacia el site que queramos posicionar. Además nos permite embeber un vídeo de youtube con lo que podemos reforzar uno de los anteriormente citados. Durante la sesión de preguntas alguien consultó si se podían añadir listas de reproducción de youtube con lo que queda un tema para experimentar por aquí.
  • Conseguir un enlace de los grandes de tu sector: Cuando leo posts de SEO en los que se resta importancia al cuidado del on-page no dejo de acordarme de esta técnica. Alex nos contó cómo conseguir un enlace de las grandes marcas del sector dónde nos estemos posicionando analizando los enlaces rotos de sus sites y rescatando dominios caducados. Un clásico en el linkbuilding gris pero para el que nos dio algunas recomendaciones muy interesantes. Cuando consigamos encontrar un enlace roto de este tipo con un dominio que podamos registrar tenemos 2 opciones:
    • Hacer una redirección 301 del sitio caducado hacia nuestra web
    • Montar una PBN​

El consejo deluxe… Montar una PBN en la que pongamos algunos sites con https, una señal más de fiabilidad de cara a posibles revisores.

  • Aumentar un 30% el tráfico: Esta técnica consiste básicamente en trabajar muy bien tus criterios long-tail. Analizar los criterios long-tail y sus landings te puede dar muy buenas ideas para la optimización on-page de tu site o para redacción de contenidos optimizados para ese long-tail
  • Comportamiento de usuario: Aquí tuvimos el primer contacto con los datos de CTR tan comentados últimamente. Nos habló de su plataforma EcoSEO dónde es posible el “intercambio” de acciones manuales de CTR para mejorar los datos de usuario (accesos y navegabilidad en tu site) tan importantes para Google.

Tras el coffee break tocó el turno para Marcos Herrera y su ponencia “Auditoría SEO: Yoda tips, Googlebots y sablazos láser”...chapó por el título, los slides y la entrada en el escenario con sable láser incluido, si llega a sonar la Marcha Imperial hago la ola! XD

Auditoría SEO: Yoda tips, Googlebots y sablazos láser - Marcos Herrera

Aquí por fin vimos White Hat SEO, nos fue contando paso a paso pero a velocidad de Halcón Milenario todos los puntos a tratar en una Auditoría SEO con varios tips de Jedi Master. Me resulta imposible sintetizar todas sus recomendaciones en unos párrafos así que citaré aquellas que me encuentro más a menudo cuando hago auditorías y que son más “dañinas” sin están mal:

  • Facilitar el acceso a Google: Revisa tus androides digo...robots! De nada sirve currarte varias cosas si luego la lías con el robots.txt. Marcos citó varios casos conocidos como el de Rastreator (para bien), Groupalia, la Casa Real, o el de la Policía, a este último podríamos llamarle “Estos no son los androides que estáis buscando” jeje. No añadas parámetros y filtros si no tienes muy controladas tus URLs y sus backlinks, no bloquees paginaciones, ficheros css y javascript. Revisa cómo rastrea Google tu web usando Search Console. Bloquea lo que no se deba indexar como textos de cookies y LSSI (si son copiados o generados), páginas con tiempos elevados de carga(rastreo). Protégete contra bots maliciosos (Rastreator) y añade un sitemap.
  • Audita tus páginas con noindex: Usa Screaming Frog para revisar posibles meta-etiquetas robots en las que tengas asignado un atributo noindex. Revisa el total de páginas escaneadas, las que tienes en sitemap y las que Google tiene indexadas y contrasta.
  • Haz sitemaps de sitemaps: Aquí vino un Pro-Tip para cuando tengamos muchísimas URLs, haz sitemaps de categorías y de productos por ejemplo y añadelos a todos los agregadores de feeds o móntalos en una Fusion Table para que se indexen.
  • Conversion First: Optimiza primero las URLs que te estén generando más ingresos, aumentarás datos de comportamiento de usuario y adivina… ingresos!
  • Optimiza tus Snippets: Debemos cuidar muy mucho la longitud, exclusividad y el contenido con toque marketiniano de nuestros Títulos HTML y Meta-Descriptions. Yo suelo recomendar a los clientes que piensen en un anuncio de AdWords, en esos pocos caracteres tenemos que convencer al usuario para que haga clic en nuestro anuncio, pues con nuestros resultados de búsqueda orgánicos lo mismo.
  • Optimización Semántica: Revisa la redacción de tus contenidos y comprueba que estás usando lenguaje relacionado y variaciones de tus criterios principales.
  • Finetuning técnico: Revisa enlaces rotos, errores 404 y 5XX, abuso de redirecciones, etc
  • Revisa duplicidades de contenido: Usa Screaming Frog (nuestro gran aliado) y Siteliner para analizar posibles duplicidades de contenido, Panda se “alimenta” de esto.

Hasta aquí la parte 1 de mi resumen, en breve (espero) publicaré otro post con las 3 últimas ponencias para que no se quede un único post muy largo.

SEOPlus Congress Foto Paraninfo Universidad de Alicante

Comentarios