Resumen SEO Plus Congress 2015 (Parte 2)

Continuando con la primera parte de mi resumen del SEO Plus Congress 2015 que inicié la semana pasada, recopilando las tres primeras ponencias, hoy os traigo la segunda y última parte con el resto.

El cierre de la mañana quedó a cargo de Carlos Cano y la segunda sesión del día sobre Grey Hat SEO bajo el título “Tipologías, Usos y Herramientas para Pirámides de Enlaces”.

Tipologías, usos y herramientas para Pirámides de Enlaces - Carlos Cano

A lo largo de la charla nos fue dando numerosas y valiosas recomendaciones en la creación y mantenimiento de las Pirámides de Enlaces, una relación de enlaces estructurada en varios niveles de menor a mayor calidad hacia nuestro sitio web principal o money site. 

Dentro de nuestra pirámide el nivel más importante que debemos cuidar y el que en consecuencia nos llevará mayor inversión de recursos (tiempo y dinero) es el Tier 1 o primer nivel. Este deberá estar compuesto por sites de calidad, reseñas, notas de prensa, artículos invitados (guest posting), etc. dónde el contenido debe ser de tipo editorial, nada de “spins”. En este proceso también es muy beneficioso obtener citaciones con datos de SEO local (marca+dirección+teléfono) analizando los datos que se muestran de la competencia para las búsquedas relacionadas con el sector y automatizando un proceso de búsqueda mediante Scrapebox y un footprint con sus direcciones. 

Entre las principales recomendaciones para evitar que los sites del Tier 1 sean detectados me quedo especialmente con estos tres cuidados:

  • Comprobar previa y periódicamente el SPAM. Si vamos a crear un site en una plataforma 2.0 nuestra obligación es analizar cómo de spameado está este site. Algunos sitios como Jimdo parecen tener ya un nivel de morralla importante :P
  • Mantener una proporción 4-5 a 1 de artículos o contenido sin enlaces frente a aquellos en los que sí que colocaremos un enlace para pasar relevancia.
  • No enlaces entre sites de Tier 1  

Para Tier 2 y el Tier 3 nos dio también muy buenos consejos. En el segundo y tercer nivel nos valdrían las mismas técnicas que vimos con Joel Pérez en la primera de las ponencias del día. El tier 2 deberá mantener algo de calidad y bastantes enlaces y el tier 3 será simplemente miles de enlaces hacia el segundo nivel sin importar calidad. 

Herramientas

  • Tier 1 :Scrapebox, Ahrefs, Xenu Screaming Frog
  • Tier 2-3: Scrapebox, FCS Networker, SEO Content Machine, Espinner.net, GSA y One Hour Indexing  

Tras el descanso para comer Fernando Angulo de Semrush nos habló brevemente de cómo analizar a la competencia SEO usando diferentes utilidades disponibles en esta potentísima herramienta SEO. Nos guió paso a paso cómo analizar a los mejores competidores en las SERPs, los que crecen más rápido, revisando también las keywords para las que tienen posiciones y mucho tráfico y analizando los puntos fuertes del site en cuestión. Por último nos presentó el nuevo sistema de informes (reports) con los que podemos presentar muy claros todos los datos para un mejor entendimiento por parte del cliente.

Al finalizar dio paso a Luis M. Villanueva, otro reconocido Consultor SEO de la ciudad y compañero de equipo en Webpositer, y su ponencia errr….””White Hat SEO””... “PBNs Megacurradas a Prueba de Humanos”  ;) 

PBNs Megacurradas a prueba de humanos - Luis M. Villanueva

Bajo este título nos fue mostrando numerosos trucos para montar una PBN, una Red Privada de Blogs de sitios de autoridad y dominios caducados (principalmente) para reforzar nuestro linkbuilding de un modo similar al realizado con la estrategia de Tiers que nos contó Carlos. 

Entre los puntos más relevantes para analizar la viabilidad de un dominio caducado citó los siguientes: 

  • DA/PA: Autoridad del Dominio y Autoridad de Página, podemos sacar ambos datos con la barra de MOZ como siempre. Buscar valores superiores a 20
  • CF/TF: Citation Flow y Trust Flow, dos métricas que podemos obtener con Majestic SEO y para las que debemos vigilar su proporción. Buscar valores altos pero similares entre CF y TF. Muy importante fijarse en las temáticas del Topical Trust Flow (TTF).
  • Perfil de enlaces: Revisión exhaustiva del perfil de enlaces entrantes (backlinks) con Ahrefs. Poner especial atención al número de IPs y subredes que enlazan para no dar con una granja de sites ubicados en un mismo servidor o tan solo unos pocos.
  • Revisión de contenido: Si vamos a recuperar un dominio caducado interesa ver qué había antes por si ya está quemado. Esto lo podemos ver con archive.org
  • Revisión de penalizados: MUY IMPORTANTE al igual que la revisión de contenido. Como siempre para esto podemos acudir, si disponemos de ella, a la herramienta SEO Sistrix, una de mis favoritas.  

Una vez que vayamos a proceder con el registro y hospedaje del site nos contó lo importante que es hacerlo con distintos datos de registro, en diferentes agentes registradores, servicios de hosting, plataforma de blog y diseños de plantillas para el blog, de este modo nos garantizamos mayor naturalidad en la red y sobre todo que no exista un patrón que pueda ser rastreado por algún revisor. 

Otra muy buena práctica es la de generar actividad en redes sociales con herramientas como Ready4Social para dar más naturalidad a la PBN. 

Llegó finalmente la última ponencia del congreso ya pasadas las 18’00 pero sabiendo que a pesar de haber sido un día intenso nos íbamos a echar unas buenas risas además de llevarnos una buena dosis de información con Álvaro Sáez, más conocido como Chuiso en la scene SEO. El título “Poniendo a prueba el algoritmo de Google” ya nos daba una pista de cómo de interesante iba a ser su contenido. 

Poniendo a prueba el algoritmo de Google - Álvaro Sáez (Chuiso)

Comenzó recordándonos los datos del experimento que nos presentó este mismo año también en Alicante en el congreso Internet 3.0, un sito web optimizado para búsquedas relacionadas con “congreso de marketing” en el que, a pesar de ser (cito) “una auténtica mierda de contenido”, con ponentes de chiste y muchas coñas, seguía en primeras posiciones para muchas búsquedas relacionadas pasados ya 4 meses desde su posicionamiento mediante acciones Black Hat SEO

Su ponencia se centró en cómo automatizar la creación de contenido en sites para monetización, “pasándonos por el beicon” el algoritmo de Google y esquivando penalizaciones por Puro Spam. 

Rescató un clásico de los plugins para Wordpress, WP Robot, para automatización de contenidos, spineo etc. pero contándonos que todo lo que es comercial acaba por quemarse porque es posible sacar patrones y que los mejores bots siempre serán los que hayamos desarrollado nosotros y no compartamos o compartamos en petit comité. 

Para el spineo, dónde en español siempre tenemos dificultades, podemos partir de traducciones de varios idiomas similares hasta llegar al español para evitar que sea detectable, por ejemplo pasar del francés al portugués y de éste al que nos interesa. 

Una herramienta para comprobar la viabilidad de nuestros contenidos es http://smallseotools.com/plagiarism-checker/ , no obstante siempre serán más efectivos unos textos muy bien spineados. 

En los ejemplos que fue citando nos mostró un blog que llegó a alcanzar 4000 visitas diarias hasta que se despeñó y nos habló de cómo hizo varias redirecciones 301 hacia otros dominios en los que restauraba el blog conforme iba siendo penalizado por Puro Spam. Unos datos muy interesantes para ver la efectividad del algoritmo. 

Su teoría se centraba en penalizaciones de Panda y su conclusión...que el black hat funciona, puede perdurar cierto tiempo y es efectivo para monetización. 

Una cosa que me llamó la atención en sus slides fueron los datos de comportamiento de usuario de los sites donde éstos contaban con tasas de rebote altísimas y poco tiempo y páginas vistas por visitas por lo que me picó la curiosidad de los resultados con estos experimentos con una posible mejora de esos datos. Habrá que cacharrear! :)

Y hasta aquí mi resumen del congreso! Espero que lo hayáis disfrutado y que os sea de utilidad! 

Cierre del SEO Plus Congress 2015 #seoplus2015