La mejor Guia de Scrapebox

Hay veces que conoces a personas dentro de tu profesi??n que son maestros dentro de una determinada disciplina. Eso es lo que me pas?? a mi cuando comenc?? a hablar con Javier Marcilla de NinjaSEO har?? unos pocos meses atr??s. Era un crack en muchos temas de los que todav??a no hab??a demasiada informaci??n y adem??s me cay?? especialmente bien porque era sumamente comunicativo (una virtud muy poco com??n entre los SEOs).
seo-scraper
Cuando vi el post que me mand?? para publicar pens??… «este t??o est?? loco…» as?? que lo ten??a que traer a Blogger3cero :)
Javier es un verdadero crack del SEO. No dud?? en pedirle cierto consejo para montar mi PBN y los resultados por su parte fueron extraordinarios. Pero quiero que lo compruebes directamente t??… Hoy viene a ense??arnos todo acerca de Scrapebox. Una de las herramientas SEO m??s controvertidas de nuestra profesi??n.
###
Introduccion-Scrapebox
bienvenidos a esta Mega Gu??a de Scrapebox en Espa??ol!
La idea de crear este recurso surgi?? de una conversaci??n con Dean, porque no es que Scrapebox sea un desconocido, pero en general sigue siendo una herramienta poco utilizada y conocida fuera de los c??rculos BlackHat.
As?? que… NinjaSEO al rescate ;-)
Y muchas gracias Dean por ofrecerme amablemente tu blog para dar a conocer un poco m??s a esta m??quina del SEO que es Scrapebox.
En este art??culo aprender??s como usarlo para algunas tareas SEO WhiteHat, y tambi??n para hacer un poquito (porque es peligroso si no lo controlas) de BlackHat.
Pero antes de comenzar un par de comentarios para evitar malentendidos…
Siempre que ha sido posible (y si no lo indico) las instrucciones y capturas de pantalla se refieren a la versi??n 2.0 Beta de Scrapebox, que est?? muy avanzada y soporta 64 bits entre otras muchas mejoras respecto a la versi??n 1.
Scrapebox es una herramienta de pago, que no ofrece ninguna demo, si quieres utilizarla debes comprarla. Incluso para utilizar la versi??n Beta debes tener una licencia.
Y aunque esta gu??a es muy extensa (??m??s de 7.000 palabras!) todav??a queda mucho que contar sobre Scrapebox, ya que s??lo estoy explicando las funciones que utilizo habitualmente, y que pienso que pueden ser m??s ??tiles para el p??blico en general.
??Est??s sentado? Ve pidi??ndote una pizza y prepara caf?? y coca-cola??? ??vamos a empezar!

??Qu?? es Scrapebox?

caja-2Es una herramienta que te permite rastrear, recopilar y procesar informaci??n de forma masiva en Internet. Un programa «de escritorio» s??lo disponible para Windows.
Digamos que cualquier actividad que puedes hacer manualmente con un buscador, puedes hacerla mucho m??s r??pidamente con Scrapebox, y adem??s crear flujos de trabajo que puedes reutilizar.
Es muy posible que conozcas esta herramienta por su mala reputaci??n, y por estar relacionada con ???malas pr??cticas???, Spam o t??cticas BlackHat.
Y s??, puede utilizarse para todo eso, de hecho uno de sus puntos fuertes es automatizar el env??o masivo de comentarios en blogs, pero adem??s puede utilizarse para muchas tareas que tienen poco que ver con el BlackHat, como ver??s m??s adelante.

??Por qu?? hay que pagar por Scrapebox?

Como he comentado al principio, s?? o s?? hay que pagar para utilizarlo, no ofrece demos, periodos de prueba ni nada parecido.
??Y c??mo puede estar seguro de que funciona bien si no la puedes comprar primero?
Scrapebox funciona, y muy bien, pero debes aprender a usarlo antes de poder sacarle partido. Si tienes dudas de si puede serte ??til para tu estrategia particular lee esta gu??a y toma una decisi??n. Si despu??s tienes preguntas, para eso est??n los comentarios :-)
Aunque no todos lo admiten abiertamente, en parte debido su reputaci??n, muchos SEOs la utilizan de forma habitual, principalmente como apoyo a sus tareas WhiteHat, pero tambi??n para ayudarse a posicionar con ???otros m??todos??? ;-)
Scrapebox es una de esas pocas herramientas fant??sticas que puede servir «para todo???, si la utilizas con un poco de imaginaci??n. Y viene muy bien para aprenden algunos conceptos importantes del posicionamiento web.
Y un detalle muy importante sobre Scrapebox: no tiene programa de afiliaci??n, es decir que nadie gana dinero por aconsejarla, por lo que las recomendaciones suelen ser bien intencionadas.
Afortunadamente es una herramienta econ??mica comparada con otras, se paga 197 USD y listo, sin cuotas mensuales ni pagar por actualizaciones
TRUCO NINJA: no pagues el precio oficial de $197, puedes conseguir Scrapebox por $57pinchando aqu??
(Como ya sabes NO es un enlace de afiliado, es un descuento exclusivo del desarrollador)

Interface de Scrapebox

Si ya has utilizado Scrapebox, tal vez desees saltarte esta secci??n, aunque por otra parte quiz?? descubras algo que no sab??as ;-)
Este es el aspecto de Scrapebox v2 (beta) y para alguien que no lo ha visto nunca, s?? que puede intimidar un poco.
Interface-Scrapebox-2
Pero te preocupes, con el uso y la ayuda de esta gu??a aprender??s a realizar la mayor??a de las acciones muy r??pidamente.
Estas son las 5 grandes secciones en las que se divide la interface de Scrapebox:
Scrapebox-secciones
Aunque me gusta utilizar el espa??ol siempre que puedo, he decidido conservar la terminolog??a en Ingl??s a trav??s de esta gu??a para no confundirte cuando utilices el programa.

FOOTPRINTS

En esta secci??n introduces los Footprints que deseas utilizar para delimitar tus b??squedas.
Por si no conoces lo que es un footprint: se trata de una ???huella??? reconocible que podemos utilizar para encontrar algo en internet.
Por ejemplo: seguro que has visto la frase «Proudly powered by WordPress??? en el pi?? de muchas p??ginas. Ese texto com??n es una ???huella» que te permitir??a buscar webs que est??n construidas con WordPress.

KEYWORDS

Al igual que utilizas palabras o frases para buscar algo en Google, utilizar??s esta secci??n para introducir las Keywords que quieres encontrar mediante un Footprint.
Un ejemplo sencillo: para encontrar art??culos publicados en Universidades que hablen de varias dietas para adelgazar podr??as poner como Footprint «site:.edu» y como Keywords ???dieta para adelgazar, dieta dukan, dieta de la pi??a, etc.??? (cada keyword en una l??nea)
Scrapebox-Footprints-Keywords
Con ello Scrapebox har??a una b??squeda separada para cada una de estas Keywords en todos los sitios alojados en un domino «.edu», es decir Universidades.

PROXIES

Proxy
En esta secci??n eliges el tipo de recolecci??n («harvest») que vas a utilizar, y tambi??n, muy importante, gestionar??s tus proxies o buscar??s nuevos si no tienes.
Scrapebox-Proxies
Pronto descubrir??s que para utilizar Scrapebox eficientemente necesitas unos buenos proxies, ya sea para recolectar b??squedas masivas, utilizar varios de los Addons de Scrapebox, o los comentarios automatizados. Pero por ahora no te preocupes, veremos este tema de los proxies en el siguiente bloque.

HARVESTER

En esta secci??n aparecer??n los resultados de tus b??squedas, y podr??s gestionarlos mediante los botones de la derecha, que te permiten eliminar duplicados, comprobar el estado de indexaci??n, filtrar los resultados por Page o Domain Authority, MozRank, etc.
Scrapebox-Harvester

COMMENT POSTER

La principal utilidad de esta secci??n es el env??o de comentarios automatizados, pero tambi??n la emplear??s para indexar tus Backlinks, comprobar si siguen estando vivos, etc.
Scrapebox-Comment-Poster

ADDONS Y PLUGINS

Aunque no forman parte de la interface Principal de Scrapebox, uno de los puntos fuertes de esta herramienta es la cantidad de plugins que tiene (unos pocos son de pago) y que te permiten realizar muchas m??s tareas.
Scrapebox-Addons

SETTINGS (AJUSTES)

No voy a explicar aqu?? los ajustes de Scrapebox 2, porque en principio no necesitar??as tocarlos, y la explicaci??n de todos ellos llevar??a mucho tiempo.
Pero s?? que hay un ajuste que es importante que conozcas.
En el men?? superior pincha en ???Settings??? y luego en «Harvester Engine Configuration???.
Ah?? puedes editar los ajustes para varios motores de b??squeda que soporta Scrapebox, y tambi??n crear nuevos ajustes.
Por defecto Scrapebox utiliza Google Global «Google.com» para recolectar informaci??n, pero si deseas utilizar la versi??n de Google para tu pa??s, puedes hacerlo editando el ajuste por defecto o creando uno nuevo.
Por ejemplo para utilizar Google Espa??a puedes duplicar el ajuste de Google y donde dice ???&hl=en??? pones ???es???, o ???mx??? para M??xico, etc.
Scrapebox-Harvester_Engine_Configuration
Para que quede claro, en el campo ???Query String??? donde dice:
«http://www.google.com/search?complete=0&hl=en&q={KEYWORD}&num=100&start={PAGENUM}&filter=0»
Quedar??a as?? para buscar en Google Espa??a (.es)
«http://www.google.com/search?complete=0&hl=es&q={KEYWORD}&num=100&start={PAGENUM}&filter=0»

Proxies

Para sacar el m??ximo partido a Scrapebox necesitas usar proxies, y si vas a utilizar sus funciones m??s ???oscuras??? es muy recomendable ejecutar Scrapebox desde un Servidor Virtual Privado (VPS)
Como se suele decir en este mundillo, ???no lleves a cabo ninguna actividad BlackHat desde tu servidor u ordenador principal»
Vas a necesitar proxies para realizar peticiones de b??squeda masiva, y tambi??n para comprobar el Pagerank, indexado, etc. sin que Google bloquee tu IP por abusar del servicio.
Tienes dos opciones, comprarlos o aprender a encontrarlos tu mismo.

Proxies de pago

No te voy a recomendar aqu?? ning??n proveedor en concreto, puedes encontrar cientos de opciones buscando en Google ???buy proxies for Scrapebox??? o ???comprar proxies???.
En realidad lo que haces es ???alquilar??? proxies durante un tiempo determinado, normalmente un mes, y al final de este periodo dejar??n de funcionar. O si estableces un plan de pagos mensual te mandar??n unos nuevos.
B??sicamente puedes optar por comprar dos tipos de proxies:
Proxies Compartidos (???Shared??? o ???Semi Dedicated»)
En esta variante los mismos proxies que te alquilan los ofrecen tambi??n a otros compradores, por lo que suelen ser bastante econ??micos (m??nimo 1USD por proxy al mes)
Pueden funcionar bien si no utilizas Scrapebox a su m??ximo potencial, pero el ratio de ??xito en comentarios no suele ser demasiado bueno.
Proxies Privados (???Private??? o ???Dedicated»)
Estos proxies s??lo los utilizar??s t?? por lo que son mucho m??s efectivos, pero tambi??n m??s caros, normalmente el doble (m??nimo 2 USD/proxy/mes)
??Cuantos proxies necesitas? Pues depende del uso que le des a Scrapebox
  • Si realizas consultas de poco volumen de vez en cuando, y no utilizas el m??dulo de comentarios automatizados, 10 proxies compartidos suelen ser suficientes.
  • Si utilizas Scrapebox intensivamente durante periodos de tiempo largos, o para comentar autom??ticamente, tendr??s m??s ??xito con proxies privados, comenzando con un m??nimo de 20.

Proxies p??blicos

Son aquellos que puedes encontrar en blogs, foros o p??ginas que publican listas para todo aquel que quiera usarlas.
Lo genial de este m??todo es que los proxies te salen gratis, pero suelen durar muy poco (unas pocas horas) porque muchos como t?? los est??n utilizando a la vez y Google los detecta y bloquea r??pidamente.
La forma m??s sencilla de encontrar y comprobar proxies p??blicos es precisamente utilizando Scrapebox.
Pincha en el bot??n ???Manage??? y luego en ???Harvest Proxies??? y ???Start«
Scrapebox_Harvest-Proxies
Cuando el Proxy Harvester haya terminado debes comprobar tu lista de proxies.
Pincha en ???Test Proxies??? y ???Test all Proxies«
ProxyManager
Scrapebox comprueba los proxies y te dices si son an??nimos y si funcionar??n con Google.
Para trabajar con Google necesitas proxies compatibles con Google (???Google passed???) y descubrir??s que no son los m??s f??ciles de encontrar.
Para otros motores de b??squeda, o para comentar, es suficiente con que sean an??nimos.
Guarda los dos tipos de proxies en archivos de texto separados, para usarlos seg??n la activad que vayas a realizar.
Scrapebox_ProxyManager-Guardar
Si no tienes experiencia encontrando buenas fuentes de proxies yo te recomendar??a que no comenzases con proxies p??blicos, de lo contrario tendr??s que recolectar proxies nuevos cada pocas horas y puedes hartarte muy r??pidamente.
Para comenzar con lo mejor es comprar un paquete econ??mico de 10 proxies compartidos, y cuando ya tengas m??s experiencia usando la herramienta es el momento de aprender a buscar proxies por tu cuenta y utilizarlos con el Proxy Harvester
Proxy_Harvester
El Proxy Harvester de Scrapebox busca en una lista de sitios que est?? disponible para todo el que utiliza esta herramienta (y somos muchos) por lo que no es el mejor m??todo para encontrar proxies p??blicos.
RECURSO NINJA: visita la p??gina de recursos para Scrapebox (al final de este art??culo) para aprender c??mo buscar y a??adir tus propias fuentes de proxies.

Palabras clave

???Scrapear??? es posiblemente la funci??n m??s utilizada de esta herramienta. Podr??amos traducir este t??rmino como ???ara??ar??? o ???rascar??? la web, es decir rebuscar para encontrar lo que necesitamos.
A falta de una traducci??n mejor yo suelo llamarlo ???recolectar» («harvest» en ingl??s)
Casi cualquier tarea que puedes realizar en Scrapebox comienza con una recolecci??n de datos, as?? que voy a seguir m??s o menos el proceso «normal» con un ejemplo ficticio.
Para el resto de este art??culo vamos a suponer que estamos interesados en el nicho de ???dietas para adelgazar???, y que no sabemos nada o muy poco sobre ese nicho particular.
El primer paso suele ser conseguir una buena lista de palabras clave para trabajar con ella.
Para ello pincha en el bot??n ???Scrape??? y ???Keyword Scraper??? en el men?? que se despliega.
Scrapebox-Keyword-Scraper-1
A continuaci??n introduce las palabras clave con las que desees comenzar y elige el m??todo y el motor del que quieres recolectar las sugerencias.
Scapebox-Keyword-Scraper-2
Scrapebox puede explorar en segundos las sugerencias que ofrece Google Suggest, Youtube o Bing, entre otros.
En este ejemplo escribe simplemente ???dietas para adelgazar???, marca s??lo ???Google Suggest??? y pincha en ???Start???. Casi inmediatamente ver??s que los resultados aparecen en la derecha.
Scapebox-Keyword-Scraper-3
En este ejemplo Scrapebox ha encontrado 11 frases clave ??nicas (despu??s de eliminar los duplicados) que provienen de las ???B??squedas relacionadas??? que muestra Google al final de la p??gina de resultados.
Puedes crear una lista mucho m??s extensa pinchando en el bot??n ???Append A-Z???. Al hacerlo Scrapebox recolectar?? todas las sugerencias que encuentre la funci??n auto-completar de Google para todo el alfabeto.
Scapebox-Keyword-Scraper-4
Al hacerlo tu lista se ampl??a, en este caso a 271 palabras clave. Ahora podr??as darte por satisfecho, o seguir expandiendo tu lista pinchando en el bot??n ???Transfer Results to Left Side??? y otra vez en ???Start???.
Y puedes repetir este proceso tantas veces como quieras, o pedirle a Scrapebox que repita el ciclo autom??ticamente hasta cuatro veces con la opci??n ???Level«
Scapebox-Keyword-Scraper-5
Si lo que te interesa es una lista de palabras clave con cierto volumen de tr??fico (para crear un art??culo por ejemplo) puedes analizarlas y filtrarlas con el Planificador de Palabras Clave de Google, de lo contrario contin??a con toda la lista tal cual est??.
Es una buena idea exportar la lista de Keywords para poderla recuperar m??s adelante.
Scapebox-Keyword-Scraper-6
Para trasladar la lista a Scrapebox pincha en «Save All keywords to Scrapebox Keywords«
Pero antes de dejar esta secci??n hay una opci??n muy interesante que te ofrece Scrapebox: la posibilidad de comprobar si hay disponibles dominios de palabra clave exacta (EMD) para la lista de palabras clave.
Para ello pincha en ???Domain Lookup«
Scapebox-Keyword-Scraper-7
Elige las extensiones que deseas comprobar, pincha en ???Start» y Scrapebox te dir?? si el EMD est?? disponible.
Scrapebox-Domain-Lookup
??Para qu?? puedes utilizar esta funci??n?
Si sabes c??mo manejarlo, un dominio exacto todav??a puede ser muy efectivo para dominar algunos nichos.
TRUCO NINJA: utiliza el Domain Lookup para tener una percepci??n r??pida de la competencia en un nicho. Si la mayor??a de los EMD ya est??n registrados suele ser una se??al de que hay SEOs intentando posicionarse y por lo tanto habr?? mucha competencia.

Recolectar con Scrapebox

Ahora que ya tienes una lista de palabras clave, es el momento de que hagas algo con ellas.
Puedes optar, por ejemplo, por comenzar recolectando una lista de webs que publiquen art??culos sobre estos temas, para comenzar a conocer el nicho. Y quiz?? filtrar una lista de esos art??culos para destacar aquellos que se comparten m??s.
Tambi??n podr??as encontrar foros que trataran estos temas, para comenzar a integrarte en ellos y generar ideas, estudiar colaboraciones y publicitar tu web.
O tal vez quieras localizar webs que acepten art??culos de invitado (Guest Posts) relacionados con tu tem??tica.
Pero antes debes tener una noci??n m??nima de qu?? son los Operadores de B??squeda y c??mo funcionan.
En Scrapebox utilizar??s estos operadores a modo de Footprints (huellas) para buscar ciertos patrones que se repiten en la informaci??n que vas a buscar.
Por ejemplo: las p??ginas donde aparezca determinada palabra clave en el t??tulo, o que est??n construidos con un sistema de publicaci??n como WordPress, etc.

LOS OPERADORES B??SICOS QUE DEBES DOMINAR

inurl

Encuentra las p??ginas que contienen una determinada keyword en su direcci??n (URL)
Ejemplo: «inurl:dieta» encontrar??a p??ginas que contengan «dieta» en la direcci??n, como «http://dieta.exur.netdna-cdn.com»

intitle

Encuentra las p??ginas que tienen la keyword buscada en el t??tulo.
Ejemplo: «intitle:dieta» encontrar??a p??ginas en cuyo t??tulo est?? la keyword «dieta» como «SITIO OFICIAL de la Dieta Dukan | Dieta n?? 1 en Francia ?????? como www.dietadukan.es

site

Encuentra p??ginas alojadas en dominios espec??ficos.
Ejemplo: «site:.edu» encontrar??a todos los dominios alojados en el TLD «edu»
Y por supuesto es posible combinar varios operadores, como por ejemplo: «inurl:dieta site:.edu».
Puedes aprender m??s sobre este tema en esta gu??a de Google en espa??ol.
Sigamos con nuestro ejemplo.
Carga la lista de palabras clave que has creado en el campo «Keywords» del «Harvester»
Y busca los primeros 20 resultados de Google (2 primeras p??ginas) para cada una de ellas.
ScrapeBox_64-Bit_V2_0_0_29_public_beta___C_2009-2015_Scrapebox_com
Scrapebox te devuelve 4.960 resultados, es decir 20 resultados de cada una de las 248 keywords que ves a la izquierda.
Ver??s que no he utilizado proxies (no est??n marcados), porque el volumen de la «recolecci??n» no era demasiado grande, pero los necesitar??s para obtener grandes vol??menes de datos, de lo contrario Google bloquear?? tu IP.
Una vez obtenidos los resultados debes eliminar los duplicados. Puedes hacerlo teniendo en cuenta la URL completa o s??lo el dominio.
Para nuestro ejemplo elimina los duplicados por URL.
Scrapebox-Recolectar-2
Y te quedas con 2.369 url ??nicas.
Ahora ser??a interesante saber cuales de ellas son las que m??s se han compartido en Redes Sociales, porque te??ricamente ser??n las que tienen contenidos m??s atractivos para este nicho.
Para ello vas a instalar tu primer Addon: «Scrapebox Social Checker«

Scrapebox Social Checker

El proceso de instalaci??n es el mismo para todos ellos, pincha «Addons» en el men?? superior, elige el que deseas instalar y pincha en «Install Addon»
Scrapebox-Instalar-Addon
Una vez instalado podr??s acceder al Addon desde el men??.
Scrapebox-Instalar-Addon-2
Abre «Scrapebox Social Checker», pincha en «Import urls from Scrapebox harvester» y luego en ???Start???.
Enseguida comenzar??s a ver el n??mero de veces que las URLs se han compartido en Facebook, G+, Twitter, LinkedIn y Pinterest.
Scrapebox-Social-Checker-1
Para analizar los datos con m??s facilidad, lo mejor es exportarlos a un fichero Excel donde podr??s ordenarlos o filtrarlos.
En la mayor??a de Addons tienes la opci??n de exporta los resultados para Excel o como texto simple.
??Qu?? consigues con la informaci??n que te proporciona Social Checker?
Pues, por ejemplo, saber qu?? canales de comunicaci??n suelen ser los m??s importantes para este nicho, o lo que es lo mismo, por d??nde se mueven los usuarios.
Y esta informaci??n te ayudar?? a comprender qu?? tipo de contenido tiene mejor aceptaci??n en tu nicho, y te ser?? m??s f??cil replicarlo.
TRUCO NINJA: si como sucede en este ejemplo ves que los contenidos se comparten mucho en Facebook, es una buena idea crear una P??gina all?? y atraer al p??blico a tu web.

Merge y vencer??s (funci??n Merge)

Para crear b??squedas avanzadas existe una potente funci??n que poca gente utiliza: el bot??n ???M??? (???Merge???)
Scrapebox-Merge-1
Para usar Merge debes crear una lista de Keywords en un fichero de texto y a??adir el operador «%KW%» que referenciar?? a las Keywords que tienes en Scrapebox.
??Vaya l??o no? Tranquilo, con un ejemplo lo entender??s enseguida.
Digamos que para tu nicho de dietas se te ocurre buscar todos los blogs que escriban sobre tu lista de keywords y que funcionen en WordPress o Drupal porque planeas comentar en ellos.
Y sabes que puedes encontrar webs que funcionen con estos motores buscando «powered by wordpress??? o «powered by Drupal»
??Pero como puedes combinar estos dos Footprints con tu lista de Keywords?
Pues con la funci??n Merge, claro.
Crea un fichero de texto que contenga estas dos l??neas y gu??rdalo.
???powered by WordPress??? %KW%
«powered by Drupal» %KW%
Pincha en el bot??n «M» y elige este fichero. Autom??ticamente Scrapebox combinar?? los dos footprints con las keywords de esta forma:
???powered by WordPress??? ???dietas para adelgazar en 3 d??as???
«powered by Drupal» ???dietas para adelgazar en 3 d??as???
???powered by WordPress??? «dietas para adelgazar muy r??pido???
«powered by Drupal» «dietas para adelgazar muy r??pido???
… y as?? con todas las keywords
TRUCO NINJA: cuando tengas algo m??s de experiencia descubrir??s que es muy ??til crear una «librer??a» de Footprints que podr??s reutilizar a menudo en todos tus nichos.

Comenta en blogs

Una de las estrategias SEO m??s conocidas es comentar en blogs para conseguir enlaces y visibilidad. Y Scrapebox est?? especialmente preparado para esto.
Imaginemos que decides probar esta estrategia con la lista de p??ginas que ya has encontrado para tus Keywords.
Naturalmente, no todas ellas ser??n blogs, ni todas las que lo sean admitir??n comentarios.
Afortunadamente Scrapebox est?? preparado para esto y mucho m??s ;-)

Blog Analyzer

??Quieres saber r??pidamente en qu?? p??ginas puedes comentar? Utiliza el Addon ???Blog Analyzer???.
NOTA: todav??a no est?? disponible para la versi??n 2.0 beta, por lo que tendr??s que utilizar la versi??n 1.
Este Addon te permite saber qu?? plataforma utiliza la p??gina en cuesti??n (por ejemplo WordPress), si admite comentarios, tiene protecci??n anti-spam o utiliza captchas.
Elige ???Scrapebox Blog Analizer??? del men?? ???Addons???, importa la lista a comprobar desde ???URL???s Harvested??? y pincha en ???Start«
Scrapebox-Blog-Analyzer-1
A continuaci??n puedes filtrar la lista por blogs que no acepten comentarios, o aquellos que pidan un c??digo de verificaci??n (???captcha???), y devolver la lista depurada a Scrapebox, o guardarla para utilizarla m??s adelante.
Y si lo deseas puedes continuar depurando tu lista de blogs ???buenos???, centr??ndote ??nicamente en aquellos que tengan pocos comentarios, comprobando el n??mero de enlaces salientes con el Addon ???Outbound Link Checker???.

Outbound Link Checker

Carga la lista de URLs con el bot??n ???Import urls???, elige ???Import urls from Scrapebox harvester??? y pincha en ???Start«
Scrapebox-Outbound-Link-Checker
A continuaci??n utilizar el bot??n ???Filter??? para seleccionar las URLs que dan error (???Remove failed/error entries???) y elimina aquellas que tengan m??s de un n??mero de enlaces que consideres excesivo.
??Porqu?? puedes querer no comentar en blogs con muchos enlaces salientes?
En primer lugar porque normalmente (aunque no siempre) los blogs que tienen una gran cantidad de comentarios suelen estar llenos de Spam, y Google se dar?? cuenta tarde o temprano y puede penalizar o disminuir la efectividad de los enlaces.
Y tambi??n porque a mayor cantidad de enlaces salientes, los beneficios que proporciona un backlink disminuyen. Aunque este punto es un poco controvertido y yo personalmente no me fijo un l??mite de enlaces, sino que observo lo que suele ser ???normal??? en cada nicho.
TRUCO NINJA: f??jate en el n??mero de comentarios que suelen haber en los blogs moderados en tu nicho, y filtra de acuerdo a este n??mero. Por ejemplo elimina los que tengan m??s de esa cantidad, o el doble, etc.
Una vez depurada tu lista puedes plantearte bombardearla con comentarios automatizados (lo veremos en un momento) o utilizarla para comentar manualmente.
??Porqu?? te podr??a interesar perder el tiempo comentando de forma manual, cuando puedes hacerlo autom??ticamente con Scrapebox?
Te puede interesar si tu intenci??n es crear una web ???legal??? y vas a apuntar los enlaces directamente a tu sitio.
A continuaci??n te comento algunas formas en que Scrapebox te puede ayudar para comentar sin spamear blogs.

Alexa Rank Checker

Con los comentarios adecuados puedes conseguir tr??fico y visibilidad en blogs de referencia en tu nicho, siempre que leas detenidamente cada art??culo y aportes un comentario que contribuya a enriquecerlo.
Para ayudarte a invertir mejor tu tiempo carga tu lista en el Addon «Alexa Rank Checker??? y conocer??s r??pidamente las estad??sticas de tr??fico de cada dominio.
Scrapebox-Alexa-Rank-Checker-1
Recuerda que cuanto m??s bajo el n??mero m??s tr??fico recibe la p??gina, y que los datos de Alexa (excepto para dominios verificados) son s??lo una estimaci??n, pero en cualquier caso ??til para comparar dominios entre s??.
TRUCO NINJA: este Addon te puede ser muy ??til para hacer un seguimiento de tu Alexa Rank o el de tus clientes, y mantener un hist??rico (exporta los datos a Excel) muy efectivo para demostrar a tus clientes que est??s haciendo bien tu trabajo, para verificar tus estrategias de tr??fico, o para mantener controlada a la competencia.

Dofollow/Nofollow

Si te interesa conseguir alg??n enlace Dofollow en un blog de referencia en tu nicho, utiliza el Addon ???DoFollow/NoFollow Check???.
NOTA: de momento s??lo est?? disponible para la versi??n 1 de Scrapebox.
Scrapebox-Dofollow-Nofollow-Check
Dependiendo del nicho ser?? complicado encontrar Blogs que permitan comentarios con enlaces Dofollow, pero si insistes puedes acabar??s encontrando alguno.

Page Authority

Ya s?? que hay mucha controversia al respecto, pero estoy convencido de que un comentario «bien puesto» puede ayudarte aunque sea Nofollow.
El Addon ???Page Authority??? te permite extraer las m??tricas Page Authority, Domain Authority y MozRank utilizando la API de Moz.
Scrapebox-Page-Authority
Primero debes dar de alta una API en Moz, utilizando el bot??n «Account Setup«. Puedes utilizar una API gratuita, aunque si trabajas con listas grandes trabajar??s mejor con una API de pago.

Comentarios automatizados

comment_please1
Scrapebox te permite comentar de forma autom??tica en miles de p??ginas, para conseguir enlaces, tr??fico, o las dos cosas.
ATENCI??N: ??Seguro que quieres hacer esto? Pi??nsatelo antes, porque puedes penalizar tu web si no tienes cuidado.
Esta t??cnica es puro BlackHat, y lleva tiempo perfeccionarla, as?? que no te apresures, y sobre todo no la utilices si no est??s seguro de lo que est??s haciendo.
Hasta que no tengas bastante experiencia, y a??n as?? no lo aconsejo, no dirijas ning??n enlace creado con Scrapebox o ninguna otra herramienta autom??tica a tu sitio principal («money site»), enlaza a otras P??ginas Sat??lite (Tier 2 ?? Tier 3)
Como ya te habr??s dado cuenta la mayor??a de los blogs que admiten comentarios est??n moderados, esto quiere decir que el editor o el due??o del blog revisan los comentarios antes de publicarlos.
Estos blogs que llamamos «moderados» no te interesan para esta estrategia, pero puedes guardarlos para analizarlos y de forma manual en los m??s interesantes, como te he explicado en el punto anterior.
Para la estrategia de comentarios automatizados te interesan los blogs no moderados, que aprueben los comentarios autom??ticamente, de lo contrario tu porcentaje de ??xito ser?? muy peque??o.
Si ya has creado una lista de blogs en los pasos anteriores puedes utilizarla ahora y si no tienes tiempo, y no te importa invertir algo de dinero, puedes comprar alguna lista de blogs no moderados. Seguro que te resulta f??cil encontrar alg??n vendedor.
RECURSO NINJA: descarga gratis una lista de blogs no moderados al final del art??culo.
Si decides utilizar tu propia lista el m??todo m??s sencillo es probar a comentar y depurar los resultados.
??C??mo? Te lo explico paso a paso.
  • En primer lugar elimina las URL duplicadas (Remove/Filter > Remove Duplicate URL’s) porque no obtendr??s ning??n beneficio comentando varias veces en la misma p??gina.
  • A continuaci??n debes crear los archivos de datos que necesitar??s para utilizar el m??dulo de comentarios. En realidad son los mismos datos que utilizas para comentar manualmente en cualquier blog, pero en cantidad.
  • F??jate en el lateral derecho del m??dulo ???Comment Poster???, y ver??s que en el apartado ???Data Lists??? te indica los ficheros que debes rellenar
Los botones son para limpiar cada lista de datos (C), abrir un fichero ya guardado en el disco (Open) o Editar las listas (E)
Scrapebox-Data-Lists-1

Nombres

En el momento de hacer un comentario siempre te piden un nombre, que se convierte en el texto ancla de tu enlace.
Puedes crear autom??ticamente una gran cantidad de nombres con el generador autom??tico de Scrapebox, utilizar tus Keywords, o combinar ambos datos.
Personalmente me inclino por incluir diferentes porcentajes de nombres, Keywords, y textos ancla gen??ricos.
En la barra de men?? de Scrapebox pincha en ???Tools??? y despu??s ???Name and Email Generator«. Elige la cantidad de nombres que necesitas, pincha en ???Generate??? y guarda los resultados como «Names.txt«
Scrapebox-Name-Email-Generator-1

Emails

Al igual que el nombre es obligatorio introducir un email para comentar en la mayor??a de los blogs, as?? que genera la misma cantidad de emails con el «Name and Email Generator???, y guarda la lista como «Emails.txt«
Scrapebox-Name-Email-Generator-2

Websites

Cuando comentas en un blog habitualmente te piden la direcci??n de tu sitio web, que se convertir?? en un enlace cuyo texto ancla ser?? el nombre que has proporcionado.
??No me he explicado bien? Veamos un ejemplo tomado de este mismo blog:
Name-Website-Texto-Ancla
Si est??s intentando posicionar o conseguir tr??fico para una p??gina concreta deber??s poner ??nicamente esa direcci??n en el fichero. Si est??s creando enlaces para varias p??ginas escribe las direcciones (una por l??nea) y Scrapebox las usar?? aleatoriamente.
Graba este fichero como «Websites.txt«

Comentarios

Ahora debes crear una lista de comentarios para que se env??en de forma autom??tica.
Ten en cuenta que, aunque los comentarios se aprueben de forma autom??tica, el editor puede revisarlos y borrar los comentarios m??s fuera de lugar.
El nivel de calidad de los comentarios que generes depende del tiempo de que dispongas, y de la calidad que suelen tener en tu nicho particular, aunque por regla general si inviertes un poco de tiempo en ellos los resultados suelen ser mejores.
Un enlace tiene que «aguantar» el tiempo suficiente para que sea plenamente efectivo. Si es borrado poco despu??s de publicarlo no ha llegado a su m??xima potencia, a menos que est?? en un dominio con mucha autoridad.
TRUCO NINJA: si no tienes ni idea de qu?? comentar, simplemente toma comentarios de p??ginas en otros nichos y los adaptas al tuyo 😉
Te pongo unos ejemplos relacionados con la tem??tica de dietas, suponiendo que quieres enlazar a una de tus p??ginas que tratan sobre la «dieta Dukan»
???muchas gracias por el art??culo, he venido buscando informaci??n sobre la dieta dukan para adelgazar, porque tengo entendido que es la mejor dieta de todas.»
???estupendo art??culo, la verdad es que la dieta que m??s que ha funcionado es la dukan»
???felicidades por tu web ??qu?? sabes de la dieta dukan? estoy muy interesado en conocer m??s, mis amigas dicen que muy buena para adelgazar»
… y bueno ya te vas haciendo la idea, ??verdad? Por supuesto tendr??s que adaptar el tono y la expresi??n seg??n tu nicho.
Graba este fichero como «Comments.txt«
RECURSO NINJA: en la p??gina de recursos, al final del art??culo, te ense??o algunos trucos para crear comentarios.

Blogs

Y por ??ltimo necesitas una lista de blogs en los cuales insertar tus comentarios.
Si todav??a la tienes en el Harvester pincha en el bot??n ???List??? y luego en ???Transfer URL???s to Blogs List for Commenter«
Scrapebox-Data-Lists-2
O crea tu propio fichero y gu??rdalo como «Blogs.txt«

Blogs con confirmaci??n autom??tica

Como ya sabes lo ideal es contar con una lista de blogs que confirmen autom??ticamente los comentarios («autoapprove»)
Por desgracia (a menos que hayas comprado una lista) la ??nica forma de distinguirlos es probando.
Antes de continuar recuerda que para este paso necesitas proxies. De lo contrario los sistemas de protecci??n tipo Askimet pueden bloquear la IP de tu ordenador y tu porcentaje de ??xito ser?? m??nimo.
Adem??s tu nivel de ??xito en este proceso tambi??n depender?? de la calidad de tus proxies.

Fast Poster

Ahora carga todos los ficheros de datos (Names, Emails, Websites, Comments, Blogs) que has creado anteriormente, selecciona ???Fast Poster??? y Pincha en ???Start Poster«
Scrapebox-Fast-Poster-1
En la pantalla siguiente pincha en el bot??n ???Start??? y al rato ver??s las p??ginas en las que Scrapebox ha tenido ??xito comentando (???Success???) o no (???Failed???)
Scrapebox-Fast-Poster-2
Si dispones de un programa Anti-Captcha, o pagas por alguno de estos servicios online, puedes utilizarlo para comentar autom??ticamente en blogs que tengan esta protecci??n.
Si es as?? pincha en el bot??n ???Decaptcher Setup??? y rellena tus datos.
Scrapebox-Decaptcher_Setup
De momento te aconsejo que no te preocupes por este tema, ya te ocupar??s de los blogs con protecci??n cuando domines Scrapebox y te merezca la pena invertir en uno de estos sistemas.
Cuando hayas finalizado esta ronda, regresa al interface principal de Scrapebox y exporta los blogs exitosos (???Export all successful entries???) y los que no (???Export all non successful entries???) en archivos separados.
Scrapebox-Fast-Poster-3
Y vuelve a seguir el mismo proceso con los que han fallado en la primera ronda.
Y haz una tercera, y???
Cuando en una de las rondas consigas muy pocos resultados positivos (???sucsessful???) es el momento de terminar.
TRUCO NINJA: en lugar de crear archivos nuevos en cada ronda, utiliza ???Export all ???. and add to existing list??? para ir a??adiendo los resultados en un ??nico archivo de ??xitos y otro de fallos.
Pero??? todav??a no cantes victoria :-)
Todo lo que sabes en este punto es que Scrapebox ha podido comentar en estos blogs, pero no si el comentario ha sido aprobado.

Link Checker

Coge tu lista de comentarios exitosos, m??tela en el archivo ???Blogs List???, selecciona ???Check Links??? y pincha en ???Start Link Checker«
Scrapebox-Link-Checker
Los enlaces que den ??xito (???Success???) son los blogs en los que Scrapebox ha podido comentar autom??ticamente. Guarda esta lista para utilizarla m??s adelante.
??Y por fin tienes tu propia lista de blogs con confirmaci??n autom??tica («auto approve???)!
TRUCO NINJA: tambi??n puedes utilizar el Link Checker para verificar si siguen ???vivos??? otros Backlinks que hayas creados manualmente, con otra aplicaci??n, hayas comprado, etc., siguen «vivos». Para ello introduce las p??ginas o dominios al que deben apuntar los Backlinks en el archivo «Websites.txt» y la lista de enlaces a comprobar en el «Comment Poster»
RECURSO NINJA: hay otras formas de encontrar blogs con confirmaci??n autom??tica, en la p??gina de recursos al final donde te explico alguna m??s.
??No ha sido tan complicado, verdad?

Indexa tus backlinks

Has conseguido crear una lista ???auto approve??? y has comentado en ella.
??Buen trabajo!
Pero te falta una cosita m??s :-)
Si los enlaces que has creado no se indexan en los buscadores es como si no existiesen.
Puedes optar por esperar un tiempo para ver los buscadores los indexan de forma natural, o intentar forzar el indexado inmediatamente.
TRUCO NINJA: Puedes comprobar r??pidamente si una lista URLs est?? indexada, peg??ndola/import??ndola en el Harvester y pinchando la opci??n «Check Indexed»
Scrapebox-Check-Indexed
Scrapebox ofrece la posibilidad de forzar el indexado masivo de URLs mediante varios m??todos: RAPID INDEXER, PING MODE o RSS.
S??lo te voy a explicar el Rapid Indexer, que es sencillo y seguramente te ser?? suficiente.
RECURSO NINJA: indexar con RSS suele ser m??s efectivo, pero es m??s complicado. Si est??s interesado en aprenderlo visita la p??gina de recursos al final del art??culo.

Scrapebox Rapid Indexer

Abre el Addon ???Scrapebox Rapid Indexer??? (disponible s??lo para versi??n 1)
Carga la lista de URLs que deseas indexar (en tu caso la lista de enlaces comprobados), la lista de sitios que quieres utilizar para indexar tus enlaces, y pincha en ???Start???
Scrapebox-Rapid-Indexer-1
Scrapebox ya viene con una lista de sitios que puedes utilizar para el indexado, y que puedes descargar directamente desde el men?? de instalaci??n del Addon.
Scrapebox-Rapid-Indexer-2
Si descargas el fichero y lo abres ver??s que contiene una lista de URLs como esta:
http://whois.domaintools.com/{website}
http://hosts-file.net/default.asp?s={website}
http://www.aboutus.org/{website}
Como habr??s adivinado este Addon crea p??ginas temporales en webs de estad??sticas, whois, etc. que «enlazan a tus enlaces»
Estas p??ginas se crean en sitios que son visitados e indexados muy a menudo por los buscadores ,y por ello hay muchas posibilidades que que sigan el enlace y lo indexen.

An??lisis de Meta-Tags

Si est??s familiarizado con el SEO On Page ya sabr??s lo importante que es optimizar el t??tulo y la descripci??n de tus p??ginas.
Debes comprobar rutinariamente tus meta tags, verificar que los t??tulos no son demasiado largos, que no falte una descripci??n, etc. Y algo igual de importante, pero no tan explotado: adem??s de verificar tus metas tambi??n es ??til controlar los de tu competencia.
??Porqu??? Porque puedes aprender muchas cosas.
Puedes aprender qu?? es lo que est??n promocionando y mediante qu?? palabras clave, y conseguir ideas para crear tus propios art??culos.
O analizar los metas de tu competencia para crear los tuyos.
Y si tienes experiencia con Excel puedes hacer maravillas con estos datos ;-)
Por ejemplo podr??as exportarlos en una hoja de c??lculo, borrar las ???palabras vac??as??? y los duplicados, y utilizar Rank Tracker para ver c??mo se est?? posicionando tu competencia.

Comprobaci??n de Metata Tags

Si quieres comprobar tus metas utiliza el Footprint ???site:tusitio.com??? (por ejemplo ???site:ninjaseo.es???)
Scrapebox-Meta-Tags-1
Y recolecta los meta de las p??ginas encontradas pinchando en el bot??n ???Grab / Check??? y luego en «Grab META info from harversted URL List»
Scrapebox-Meta-Tags-2
En pocos segundos tendr??s los resultados:
Scrapebox-Meta-Tags-3
Y podr??s exportar estos valiosos datos para analizarlos tranquilamente.

Enlaces rotos y «Broken Link Building»

El Addon ???Broken Links Checker??? te permite comprobar que no hayan enlaces rotos en tu sitio web, pero tambi??n te puede ayudar a conseguir enlaces con la t??cnica del ???Broken Link Building???.
Este m??todo consiste en informar al due??o/editor de una web de alg??n enlace roto y sugerir que lo sustituya con otro enlace a nuestras p??ginas.
Como siempre, comienza recolectando las p??ginas donde quieres utilizar el Addon.

Sitemap Scraper

Si las webs que deseas comprobar tienen un Sitemap puedes extraer todas sus p??ginas con el Addon ???Sitemap Scraper???.
Carga una lista de URLs en el Addon, pincha en el bot??n ???Trim to root and add sitemap.xml??? y pincha en ???Start«
Scrapebox-Sitemap-Scraper-1
Tambi??n puedes hacerlo con el Footprint ???site:???
Si utilizas diferentes m??todos o varios buscadores elimina los duplicados antes de continuar.
Ahora utiliza el Addon ???Broken Links Checker??? y exporta en las p??ginas que devuelven un error 404 (no se encontr?? la p??gina)
Scrapebox-Broken-Links-Checker
??Qu?? puedes hacer con esta informaci??n?
Si se trata de tu propio sitio web o de tu cliente, repara los enlaces rotos.
Si est??s haciendo ???Broken Link Building??? contacta al editor/webmaster de las webs donde hay enlaces rotos, comun??cale el problema y aprovecha para insinuar (esto es todo un arte) que enlace a una de tus p??ginas.

Art??culos de invitado (Guest Posting)

Escribir para otras p??ginas, lo que se conoce como ???Guest Posting??? puede ser muy efectivo, si eliges bien el tema y la web.
Esto que est??s leyendo es un Guest Post, y adem??s de ense??arte me estoy promocionando y estableciendo una relaci??n contigo, as?? que puede ser ??til, ??verdad?
Para encontrar p??ginas que acepten publicar art??culos de invitado puedes comenzar buscando con estos Footprints:
???guest post»
???guest blogger»
???post invitado»
???escribe para nosotros»
???env??a tu post»
???contribuye»
Por ejemplo: inserta «intitle:»post invitado??? en la casilla de ???Custom Footprint???
Y las keywords «dieta??? y ???dietas??? en el ??rea de Keywords
Scrapebox-Guest-Posting
TRUCO NINJA: recuerda que puedes construir b??squedas avanzadas con la ayuda del bot??n ???M??? (Merge)
Una vez tengas tus resultados, extrae el dominio ra??z con Trim to Root??? y elimina los duplicados.
Scrapebox-Guest-Posting-2
Ahora podr??as filtrar los dominios por tr??fico con el Addon ???Alexa Rank Checker??? o por autoridad con «Page Authority??? (o ambos) y centrarte en los mejores.
Una vez tengas claro para quien te interesar??a escribir, puedes intentar encontrar emails de contacto pinchando en el bot??n ???Grab/Check???, y despu??s en ???Grab emails from harvested URL list???
Scrapebox-Guest-Posting-3
En la pr??ctica ver??s que no siempre consigues encontrar emails con este m??todo, pero como normalmente est??s trabajando con miles de resultados suele ser suficiente.
Scrapebox-Guest-Posting-4
Ahora es cuesti??n de que exportes los resultados, contactes con los due??os de las p??ginas, y explores la posibilidad de escribir en su blog.

Dominios caducados (Expired Domains)

??Sab??as que Scrapebox tambi??n te puede ayudar a encontrar dominios caducados?
??Que no sabes qu?? puedes hacer con un dominio caducado («expired»)?
Pues puedes hacer muchas cosas, entre ellas montar una PBN o comenzar un proyecto con un dominio «establecido» en lugar de hacerlo con uno «desde cero»
El Addon que vas a utilizar para esto es el «TDNam Scrapper«, y funciona explorando los dominios expirados de Godaddy que no han sido adquiridos en una subasta.
TDNAM son las siglas de «The Domain Name Aftermarket???, y para acceder y registrar dominios en este «mercado» debes pagar una tarifa anual de $4,99.
No es habitual encontrar maravillas en el TDNAM, pero s?? que es posible conseguir alg??n domino decente, a un precio muy interesante.
Lo primero es escribir en el Addon una o varias palabras clave, o puedes cargar tu lista desde la secci??n de Keywords.
Escribe por ejemplo ???dietas??? y ???dieta??? y pincha en «Start»
Scrapebox-TDNAM-Scraper
Enseguida ver??s los dominios caducados disponibles para tus palabras clave. Visita las subastas de Godaddy para registrarlos.
Adem??s el Addon te muestra unos datos muy interesantes: tr??fico (si lo tiene), edad y precio de venta.
Cuidado, no corras a registrar ning??n dominio sin antes asegurarte de que est?? limpio de Spam, y que tiene por lo menos unas m??tricas decentes.
Si est??s familiarizado con las subastas de Godaddy sabr??s que puedes conseguir esta informaci??n directamente en su p??gina. La ventaja de este Addon es que filtra r??pidamente los dominios con compra directa para muchas keywords a la vez.
Y adem??s puedes descargar estos datos para continuar analizando los dominios con Scrapebox u otras herramientas.
TRUCO NINJA: exporta la lista de dominios disponibles y compru??bala con el Addon «Page Authority???. Ver??s r??pidamente cuales de ellos pueden m??s interesantes.

??Necesitas im??genes? Scrapebox al rescate

Scrapebox tiene algunos Addons que en principio pueden parecer una chorrada, pero que en realidad son muy ??tiles.
El Addon ???Google Image Grabber??? es uno de ellos.
Seguramente has realizado alguna b??squeda de im??genes en Google, para encontrar inspiraci??n, utilizar alguna imagen en tus art??culos, o ilustrar alg??n PDF, Powerpoint, etc.
Con este Addon puedes hacerlo mucho m??s r??pidamente, y con m??s control.
Introduce tus Keywords, o c??rgalas desde Scrapebox, elige la cantidad de im??genes que deseas encontrar para cada Keyword, su tama??o y el tipo de licencia.
Scrapebox-Google-Image-Grabber
Scrapebox recolectar?? las URLs de todas las im??genes, y hasta las puedes guardarlas en diferentes carpetas para cada Keyword.
??No te convence?
Bueno, piensa por ejemplo que necesitas im??genes para crear un mont??n de art??culos ???basura??? para un Tier 3??? pues aqu?? las tienes, y lo mismo si necesitas crear P??ginas Sat??lite con im??genes, tipo Tumblr.
Y por supuesto puedes utilizar estas im??genes para todas tus actividades creativas, aunque recuerda utiliza el filtro de licencia para evitar problemas.
TRUCO NINJA: ??necesitas crear r??pidamente un v??deo sencillo? Recolecta im??genes con este addon, s??belas al creador de v??deos de Youtube, a??ade su m??sica libre de derechos y listo.

Escaneo de p??ginas

En mi opini??n el Addon ???Page Scanner??? es uno de los m??s interesantes, y por ello me sorprende lo poco que se habla sobre ??l.
Este Addon analiza una lista de URLs y busca Footprints en el c??digo fuente (HTML)
??Para qu??? Piensa un poco y luego te doy pistas.
Lo primero es tener una lista de URLs para escanear, y decidir que footprints te interesa localizar.
Carga el Addon, crea un nuevo archivo de Footprints y ed??talo.
Scrapebox-Page-Scanner-2
Puedes crear una gran variedad de footprints y categorizarlos para separar distintas p??ginas seg??n pertenezca a una u otra categor??a.
Scrapebox-Page-Scanner-2A
Te voy a mostrar un ejemplo muy sencillo para que vayas comprendiendo sus posibilidades.
Imagina que te gustar??a comprobar si todas las p??ginas de tu web (para este ejemplo la m??a: ninjaseo.es) tienen el c??digo de Google Analytics instalado.
En lugar de visualizar el c??digo de todas las p??ginas y buscarlo, puedes recolectar todas las URLs de tu web (comando «site:»)
Scrapebox-Page-Scanner-3
Cargar la lista en el Addon «Page Scanner»
Scrapebox-Page-Scanner-4
Crear una categor??a, que podr??as llamar  ???GA??? para abreviar, con el c??digo de Analytics que deber??a estar presente en cada p??gina.
Scrapebox-Page-Scanner-5
Pinchar en ???Start???, y comprobaci??n realizada:
Scrapebox-Page-Scanner-6
En este caso s??lo has utilizado un grupo de footprints (GA), si tuvieras varios grupos el Addon los analizar??a todos y te dir??a en qu?? p??ginas ha encontrado el footprint (Completed)
Venga, un par de ideas m??s.
Util??zalo para analizar grandes vol??menes de URLs, descubriendo pautas, plugins similares??? tu imaginaci??n es el l??mite ;-)
Por ejemplo puedes recolectar los dominios de un nicho concreto y averiguar si tus competidores est??n monetizando con Adsense.
TRUCO NINJA: Imagina que quieres vender un servicio concreto a usuarios de un CMS espec??fico??? o que quieres ofrecer un descuento competitivo a usuarios de un plugin de WordPress para que compren el tuyo??? o que quieres ofrecer Google Analytics/Adsense a webs que no usen uno u otro…
??A que te gusta este Addon?

An??lisis r??pido de la competencia en las SERPS

Si todav??a est??s leyendo (??bravo!) te habr??s dado cuenta de que Scrapebox es una especie de navaja suiza, que puedes utilizar para multitud de tareas.
Pero la utilidad de cualquier herramienta va ligada a la capacidad para usarla. Y una forma de aumentar tu capacidad es crear m??todos para optimizar o automatizar algunas de tus tareas.
Para finalizar el art??culo te voy a explicar c??mo puedes hacer un an??lisis r??pido de competencia, utilizando de forma creativa las diferentes funciones que te ofrece Scrapebox
  • Hazte con una lista de tus palabras clave, o las de tu cliente, o utiliza el Keyword Scraper como ya te he explicado al principio.
  • Recolecta s??lo los primeros 10 resultados (primera p??gina de Google) para cada Keyword.
  • Utiliza el Addon ???Scrapebox Backlink Checker??? con tu API de Moz para obtener la cantidad de Backlinks de tu competencia.
Scrapebox-Analisis-Rapido-1
  • Haz lo mismo para recolectar el ???PA/DA??? como ya sabes, gracias al Addon ???Page Authority»
  • Igual con el Addon ???Social Checker»
  • Recolecta emails de contacto con el Addon «Whois Scraper»
Scrapebox-Analisis-Rapido-2
  • Recolecta los meta tags de todas esas p??ginas como te acabo de explicar.
  • Tambi??n el Alexa Rank como ya sabes.
  • Exporta y consolida toda esa informaci??n en un archivo Excel…
Y ya puedes analizar a tu competencia teniendo en cuenta sus backlinks, meta tags, m??tricas de cada dominio…
Ahora ??chale un poco de imaginaci??n y comienza a crear tus propios sistemas con Scrapebox ;-)
TRUCO NINJA: te regalo una idea m??s para utilizar Scrapebox de forma creativa. Filtra las mejores p??ginas, las que tengan m??s Backlinks y se hayan compartido m??s en redes sociales. Utiliza el Addon ???Backlink Checker??? con la opci??n ???Save Urls with backlinks??? para ver quien enlaza a estos art??culos, crea uno o varios mejores y pide (???Grab Emails??? / ???Whois Scraper???) que te enlacen.

Recursos Ninja para Scrapebox

Muchas gracias por haber llegado hasta aqu??, has demostrado tener muchas ganas de aprender y mucha paciencia, felicidades :-)
Si no conoc??as Scrapebox espero que esta gu??a te haya descubierto algunas de las posibilidades de esta herramienta y te anime a investigar por tu cuenta y probar formas creativas de utilizarla.
Para ayudarte en esta tarea he preparado una p??gina de recursos en NinjaSEO donde podr??s encontrar entre otras cosas:
  • Una lista de blogs sin moderar («auto approve»)
  • Una lista de footprints
  • Una gu??a para encontrar proxies p??blicos
  • Ideas para encontrar blogs ???auto approve»
  • Trucos para crear comentarios m??s efectivos
  • Una gu??a para indexar Backlinks usando RSS

One of the tools that are frowned upon in the world of SEO is ScrapeBox. This is a tool that is classified as SPAM, but in my opinion it is not. This tool may or may not be SPAM, it all depends on the person using it, the end of the day, it is a tool that collects data (among other features), and like any tool can be used to do «good» things or to do things «not so good».
As you know if you are in this world of SEO, recent months have changed many things about building links to our website, now we must focus more on the quality of each link in the quantity and with the passage of this month will become even more important and each link to place can benefit or harm our Link Building strategy.
In the following book I’ll tell you to use ScrapeBox and that brings me benefits.
But first … What is ScrapeBox?
ScrapeBox
Scrapebox is a tool to scrapear, to automate tasks and create you Google your own footprints (If you do not know what are the footprints here I leave a complete article about them). Many professionals think that Scrapebox is a tool for massive links and consider it a SPAM tool, not culp0 them because many people use this type of software to practice black hat that never recommend.
Scrapebox is not a spam tool, in fact Scrapebox the use in my day to day tasks now White hat along this guide you will see.
«Scrapebox NOT a tool designed to help EVERYDAY A SEO. Its method of use depends on the person who controls «
Walking around this tool interface
Interface ScrapeBox
Before starting to list all the possibilities and gives you this tool in your day to day, I’m going to show its interface and briefly explain what each one of them:
Section Harvester: You can put the footprints you want to use to purchase blogs, domains, and other resources. You may also choose the «Custom Footprint» option to further customize and get more out of this option.
Section Keywords: This is where the keyword is inserted on which we seek with the custom footprint. For example, if we want to find blogs related to SEO and they are working under wordpress.com just what we would do would be to place the following line: site: wordpress.com «SEO». This would return the results that we all find ScrapBox based on this footprint and this keyword.
Harvested URLs: In this window you will find all the results that you’ve got to get through your practice as I have mentioned in point 2.
Select Engines & Proxies: This is where you need to select the search engine and insert the proxies you want to use to start scrapear information. If you’re using this tool for detoxification issues bonds or competitive analysis also recommend you select search engines like Bing and Yahoo later contrasted more information.
Coment Poster: This option allows you to post comments on sites that have obtained previously using the right footprint, but this will not recommend you to wear well, as it is black hat and such practices would end up penalizing your project. You can use it to ping your links and get it indexed faster.
Start your strategy with Keyword Link Building Scraper option
Keyword option Scraper
Receive my best tips and tricks to learn Internet marketing and SEO, directly to your email.
Sign Up
Let’s start with the good, one of the features I like. This is the Keyword Scraper option, which will serve to acquire numerous related keywords, which you can then use to boost your list to scrapear and details. This option will suggest a host of related keywords in the purest style suggestive keywords Google.
To operate this wonderful option, simply select the option Scrape scrape >> keyword section 2 (Keywords), enter on the left side the keywords that you have designed and click the «scrape» button. Once this task you will see how ScrapeBox begin to show many related keywords.
To prevent duplicate keywords or unwanted find a button called Remove, here you can eliminate duplication, keywords that do not contain the word you want and other very ??ltiles to finish outlining your list of options keywods.
IMPORTANT: As I said, this tool is used to good SEO practices, although many use it for other practices. Do not be fooled by the title of this section because you will not find a magic method to automate links. Simply you find a method to improve your link building strategy.
ScrapeBox. Complete Guide to Good Practice

ScrapeBox

Now we start with the complete guide of good practices ScrapeBox. Once you’ve seen some of the most important features of this software, now you will see the practical benefits that we reported daily use of this tool.

1. Scrapea URLs from ScrapeBox options

Definitely one of the best scrapeadores you can find on the Internet, but the best. So once you’ve got your list of selected keywords (remember to choose keywords related directly or indirectly to your niche with a volume of important searches), the you enter the section of keywords for which I have already spoken on the lines above and follow step 2.

2. Use the Footprints.

The footprints are commands that are inserted into google for more specific searches. To make you understand better see an example:
Imagine you want to find all URLs that Google has indexed in its search engine containing the keyword «SEO», for it empelearemos a code to facilitate this search, so specific in this case. Then he would read: «inurl: SEO».
You see the footprints are very useful in day to day SEO and a few people use them, I encourage you to start using it and make the most of your actions.
Here I leave the three search operators you should know:
Site: Displays lists of domain specific URLs or links to a specific domain.
Inurl: Displays URLs that contain a specific text fragment previously defined.
Intitle: Sample URLs that contenien a piece of text in the meta-tag title previously defined.
As additional information here I leave some advanced Google search operators recommended.
Now that you know are serving and search operators or footprints, sure you already know what to do if you have the following questions:
I need to get links from Blogs and Bloggers related to my subject.
I need to get my product and related sites where you can be mentioned links.
Platforms need to know that I can share my products.
3. Find good sites for Guest Posting by ScrapeBox.

looking urls with Scrapebox

Suppose you have a Web Analytics blog and want to present your professional services analyst and try to draw customers to your blog. Some of the actions you should take to try to achieve your goals are:
Publish specific content on Web Analytics in your blog regularly.
Publish specific articles and related Blogs have visibility to accept guest posts.
Be present in the best business platforms related to your niche.
I propose a strategy to three months where you will be able to get 30 reviews with many links (do-follow / no-follow) in authority sites related to your niche.
For this you have to do is use the following combination of footprints:
«Powered by WordPress» + «Google Analytics» and site: .com
I explain in detail the entered data:
«Powered by WordPress» footprint introduce this because I have found that most people who have a blog related to Online Marketing what are often under the WordPress platform.
«Google Analytics» This footprint use it because I want you to give me back only the specific sites where we talk about Google Analytics WordPress and are also low.
Site: .com: I use this advanced search operator to select domains ending in .com alone.
If you want to curl over the loop you can even put the following footprint:
«Powered by WordPress» + «Marketing» and intext: «guest post»
You see, here is a more generic search is made. With this results we make any WordPress Blog fact that talk of Marketing and surely has sections or articles have already been invited.
Now once you understand a little the operation of the footprints just open Scrapebox and enter everything you’ve learned.
4. Check the quality of links found.
Once you’ve done your keyword research and ScrapeBox has made you the first list of URLs you should start doing a check of some basic data of each of the links. In addition you must also use the APIs Moz.
STEP 1 >> Play with Domains: In the strategy I proposed I told you Guest items, relationships and authority pages. In this case you should forget to look out only in articles and focus on the entire domain. For this you must go to 0pci??n of «Trim to Root» is inside «Manage Lists» to cut all URLs and be alone with domains.
option «to root tim»
STEP 2 >> Eliminates duplication: Once the previous step, you must click «Remove / Filter» >> «Remove Duplicate URL» to remove duplicate domains.
remove duplicate domains
STEP 3 >> Check PageRank: You must check the PageRank of each URL to make sure that this indicator exceeds 2 or 3. This will mean that it is at least one domain that has a minimum of authority. This you can check in the section «Get Domain PageRank».
check pagerank
STEP 4 >> Check Domain Authority (DA): This should be done with the «Page Autority Addon» option. Besides domain authority, it also gives you information page authority, the Moz Rank and external links.

moz api Scrapebox

STEP 5 >> Get emails of your list of URLs: One option that I like about ScrapeBox. With the «Grab Emails locally from list» option, you’ll get a list of all the emails at each of the owners of these domains so you can contact them to reach an agreement to get reviews, guest articles and synergies . Undoubtedly, an option that saves you hours of work.
get emails with Scrapebox
As you see, it takes about 10 minutes to take a few email list related to your topic that accept guest articles bloggers or those who can reach an agreement for the benefit of your dissemination strategy. Moreover you should know that some of the emails that show you ScrapeBox not valid and therefore have to go to page to find them.
5. Eliminate duplication thanks to this tool
Another feature of ScrapeBox quite useful. With this option you can detect duplication of URLs when you’re doing a job detection of toxic bonds.
To make an audit of links, especially when you’re doing it on a site penalized for links, you should do a thorough job and do this job Based on different sources:
You can do it with the Link Detox tool.
Combined with manual work with the help of Ahrefs.
Combined with manual labor also Based on data from Open Site Explorer.
You see, doing this job, you would link three separate files with interesting content. One of the main objectives would be to combine these 3 files at 1 alone and eliminate duplication of links or repeated domains.
To do this you will use the Addon «DupeRemove». Once installed and running you will get a window like this:
remove dupe of Scrapebox
Now you must go to the «Select source files to merge» and select the 3 files you want to combine into one. After selecting the files containing information of the links you must click on the «Merge Files» option to merge the files into one.
Finally to eliminate duplicate domains or URLs you must click on the «Select Source File» and choose where you want expoertar URLs or domains not duplicated.
6. Detects «META» tags for each URL of your list
ScrapeBox also allows you scrapear titles and descriptions from a list of URLs. To do this select situated within the option «Grab / Check» the «Grab meta info harvested from URL list» option.
With this you will have a quick view of the title, the description and the keywords of each of the URLs in the list that you imported goal.
meta tag information through ScrapeBox
This will be useful if you export this data to an Excel file and and you use it to check the number of pages that use exact match a key word in the title or some other over-optimization is not well seen by Google.
Once you detect these over-optimizations you have to do is change all those titles for over natural titles.
7. Check the validity of each of your internal and external links.
ScrapeBox Alive Checker
Another practice that should be done in a Web when you are conducting an audit or simply when you want to check different aspects of the web, is to check the status of links, both internal and external.
To perform this test you must use the addon «Scrapebox Alive Checker». This option failitar?? us this task.
To detect any problems with your links you just have to set this up properly. To do this simply adds response codes 200 and 301 as well and check the «Follow Relocation» box.
Check Status link
With this program you mark as erroneous all links that return a different response code 200 and 301.
8. Check if your changes in your project URLs are being indexed by Google.
If you’re making major changes in your project related to the total amount of internal pages, want to make sure that Google again re-index all new URLs you entered and all the changes you’ve implemented.
To ensure all this I recommend combining the Screaming Frog ScrapeBox tool, now I tell you how …
Before you begin, if you do not know which is Screaming Frog or do not know why I let you use a full article on this tool Eduardo Martinez here: http://www.eduardomartinezblog.com/screaming-frog/
STEP 1: The first thing to do is scrapear your project with Screaming Frog, setting the options that let you Basci following images:
Screaming Frog settings
STEP 2: Screaming Frog Once the process is over, you must save export data to a CSV file to open it later and copy it to ScrapeBox. Another option is valid also convert CSV said in a .txt and then import it as you see in the image below:
import-list-screaming-frog
STEP 3: After importing the list of URLs you just have to click on the button «Check indexed» and select the option «Google Indexed»
As a result of having done well these 3 steps, the tool will return a pop up where you have all the information indexed and non-indexed URLs.
I recommend to export the list of URLs not indexed to analyze in more detail.
Outbound links 9. Check your list of links obtained.
Scrapebox-outbound-link-checker
As a final option that I really like, I tell you that with ScrapeBox can also know outbound links or Outbound links of each of the URLs obtained result of having done a job search sites insert your reviews as I have spoken to in point 3 of this article.
For this there is an option in the list of Addons called «Outbound link checker». This option will show the outgoing links of each of the URLs obtained after making a search of sites where add your links or reviews.
Scrapebox-outbound-link-checker-2
As you see in the picture, you back some useful data. Once obtained this information you can also check the authority of these URLs and decide if they are valid for you or not.
ScrapeBox. My findings
You see, even though many professionals or «not so professional» ScrapeBox considered as a SPAM tool, it is actually a very powerful tool that lets you save time in your daily tasks and other advanced tasks. As I have discussed throughout the article you can use it to get it right or you can use it to make other practices, it all depends on the person who is the head of this tool.
I recommend that when eschuches or read to an industry professional talk bad about ScrapeBox think maybe you have not used this tool or unknown many of its features as I just show you throughout this article.
If you liked this article and want to know more information and advanced options for this software I recommend you consult a Chuiso, the only person I know who knows by heart this tool and who has helped me discover a host of advanced options.
Finally I would like to know what you use your ScrapeBox and benefits you reported in your daily life.
Bueno amigos, no me quiero andar por las ramas porque lo que la mayor??a quer??is es la informaci??n??? Nutriros cu??l vampiros sedientos de sangre??? Arrffgghhh, jejeje ???? Antes de comenzar dejar?? varias cosas claras:

No me considero SEO profesional, ni nada de eso. Simplemente realizo SEO a mis proyectos, tengo experiencia??? Pero nada m??s. Yo no me oferto como SEO ni ofrezco mis servicios, pese a que desde que ???he despuntado??? por as?? decirlo, me han contactado muchas empresas para hacerles SEO. Qu?? va, paso. Me he dado cuenta que la mayor??a de los mejores SEO son gente an??nima. En el sector profesional del SEO a??n hay mucho charlat??n (no todos) que se aprovecha de peque??as y medianas empresas que no tienen ni idea de lo que es el SEO.
No me considero mejor ni peor que nadie en ??sto, sigo siendo un noob en muchos aspectos. Tengo un blog y escribo sobre lo que me da la gana, no me corto un pelo a la hora de hablar y ofrecer mi opini??n pero intento no meterme con nadie si ??l mismo no se lo busca. Sigo escribiendo igual ahora que hace 8 meses, no se me sube la fama a la cabeza ni voy a montar ahora un gur??blog. Nunca he intentado d??rmelas de sabiondo y nunca me he autoproclamado experto SEO. Mi ??xito ha sido compartir todo lo que s?? y darle un toque divertido, no tiene m??s. Ni siquiera he ganado este concurso por mi s??lo y no me cuesta admitirlo, gan?? gracias a Jos?? M., a Luis M. Villanueva y, por supuesto, a toda la comunidad que me apoy?? ????
El concurso SEO me daba un poco igual pero Jos?? me anim?? para que participase, y desde luego era un reto. ??l no pod??a, est?? misteriosamente baneado de Forobeta, as?? que me ayud?? a mi a lo largo de todo el concurso con su experiencia y sus contactos. Hemos participado en mi nombre y con mi blog, pero Jos?? estaba ah?? conmigo a diario apoy??ndome??? Vamos, que ??bamos a pachas, fifty fifty ???? Tambi??n recib?? una ayuda m??s que clave de Luis M. Villanueva, buen amigo y compatriota espa??ol sin el cu??l no hubiese ganado.
Sabiendo esto, pasemos a la acci??n. Como dije en el post del concurso, esto no es una victoria m??a, es una victoria de todos los que me ayudaron altru??stamente (sab??is qui??nes soy y os lo agradezco con el coraz??n).

 

Los comienzos y la puesta a punto

El d??a que se anunci?? la keyword est??bamos frente a la pantalla del ordenador para intentar coger todo lo que fuese posible con dicha keyword, y aqu?? cometimos un error: la puta tilde, me cago en sus muertos. Tomamos los dominios exactos en .com, .net, .es y .org, pero sin tilde. No era algo muy determinante, pero hubiese estado mejor haberlos pillado con tilde (algo muy poco com??n los dominios con tilde, jejeje). Tambi??n alcanzamos a pillar el twitter exacto, p??gina de Facebook, canal de Youtube y no s?? cu??ntas cosas m??s. Una vez apuntamos todo lo dejamos guardado y nos olvidamos del concurso durante varios meses, para volver a retomar todo aproximadamente un mes antes de que terminase.

Desde un principio decidimos emplear Chuiso.com para concursar. Un blog que esta temporada 2013/2014 ha despuntado, que posiciona muy bien, con bastantes visitas, autoridad creciendo cada vez m??s y contenido fresco y con tendencia a compartirse mucho. Realizar un art??culo pod??a no ser la mejor elecci??n (un dominio con EMD tiene una ventaja abismal al tratarse de una keyword nueva que Google puede considerar como branding) pero era la m??s factible teniendo en cuenta que deb??a emplear mi blog (otra opci??n hubiese sido crear otro blog en un subdominio, algo rollo seovolucion.chuiso.com). Los handicaps eran que usar mi blog personal supon??a afrontar el SEO negativo (solucionable), ataques DDoS (solucionables) y otro tipo de ataques (hablaremos de ellos m??s adelante). En definitiva, es mi blog y me lo follo cuando quiero.

 

El art??culo-gancho para lograr m??s repercusi??n

Decidido esto ten??amos que tener un plan de acci??n. ??Como enfocar el art??culo? ??Incentivos? ??C??mo hacer que despunte? La optimizaci??n interna de un art??culo es algo sencillo y f??cil de hacer, pero lograr que el art??culo enganche, y en este caso siendo de una palabra inventada, no es f??cil. Decid?? ofrecer un incentivo (mi ??ltimo ebook sobre c??mo crear un blog de ??xito) y tambi??n hacer un jugoso sorteo. Todo esto ayud?? a mejorar la acci??n social, los comentarios, etc??? Me curr?? una imagen muy chula de Dragon Ball al estilo Chuiso y un t??tulo que ???retaba???: El Golpe Definitivo.

seovoluci??n concurso de forobeta

El art??culo que concursaba se public?? justo un mes antes de que acabase el concurso. Para ese entonces mi blog ten??a graves problemas de optimizaci??n, sobrecarga, vulnerabilidades??? Tuve que modificar el plugin de sitemap, optimizar todo e instalar y configurar un plugin de seguridad. No me atrev?? a cambiar el theme antes del concurso porque el que haya hecho esto varias veces sabes que a veces uno la puede ???liar parda??? cambiando el theme, as?? que prefer?? esperar a que acabase el concurso y realizar todo el lavado de cara despu??s de ganar, por supuesto ???? Al fin y al cabo la velocidad de carga y el c??digo limpio y ordenador son dos factores m??s del SEO, de los cientos que hay. Con el linkbuilding bestial que se iba a realizar sobre esta URL esos factores quedaban en segundo plano.

Una vez publicado, era cuesti??n de esperar. Desde un principio sab??amos que los sorteos que ofrec?? ten??an una funci??n clara: lograr rese??as muy variadas (y anchor text variados) en todo tipo de sitios variopintos. Una rese??a, como todos sab??is, es un jugoso enlace contextual, as?? que mientras que con el sorteo logr??bamos rese??as variadas hacia la URL, por nuestro lado ibamos consiguiendo enlaces en webs fuertes, sidebars, footers, donde fuese. Nivel de morralla m??ximo: era casi imposible que fu??semos penalizados a falta de 2-3 semanas, as?? que el SEO en un concurso como ??ste se debe hacer realmente mal y agresivo (debido a que la fecha de caducidad del concurso era inminente). Tambi??n logramos mucha interaci??n social artificial (Twitter y Facebook) y real (Google Plus). En un punto dado el spam en Twitter fue tan bestial que me convert?? en tendencia en Espa??a jajaja (mi usuario, @chuisochuisez).

 

Creaci??n de enlaces, juego sucio, SERPs???

Conforme iba pasando el tiempo logramos enlaces y m??s enlaces. Jos?? iba consiguiendo enlaces por donde pod??a, yo iba consiguiendo enlaces por debajo de las piedras, Luis Villanueva nos iba logrando enlaces por encima de ellas??? Y as??. Cada d??a me levantaba y tomaba nota de las nuevas rese??as que entraban a participar, charlaba con gente, y luego empezaba a gestionarlo todo??? ???Jos??, como van las posiciones, cons??gueme enlaceeeees???, ???Luis, que PR 8 me has conseguido hoy?????? Jajaja, en realidad resultaba divertido.

De primeras nos colocamos, creo recordar, en 2??/3?? p??gina, y al cabo de 10 d??as ya estaba en primera p??gina en todos los buscadores. Ojo, no os pod??is imaginar, en serio, la cantidad de visitas que recib??a/recibe ese art??culo??? Era bestial, much??simas, miles, trillones, creo que en el contador de Analytics sal??a el s??mbolo de infinito ???? Sin duda este art??culo, de todos, era el que la gente m??s visitaba sobre Seovoluci??n. Cre?? conflicto, fue novedad, fue algo que rompi?? los esquemas, al igual que la posterior entrada de Alex.

L??gicamente logramos enlaces de gran fuerza, no siempre de tem??tica similar (digo lo mismo, corto plazo, y la palabra seovoluci??n era una palabra inventada poco antes, sin una clara tem??tica definida ante los ojos de Google), en sidebars, footers, contenido??? Conforme pasaba el tiempo ve??amos que nuestro porcentaje de anchor text de la keyword exacta era muy alto, pero gracias a los diversos ataques de SEO negativo que nos hicieron se nivel????? As?? que por eso le damos las gracias a los culpables jijiji.

Me encantar??a poder citar a todos los que nos ayudaron altru??stamente??? Realmente con este concurso me di cuenta que eso del karma es cierto jeje ???? En TeamPlatino gente me escrib??a dici??ndome ???Ey Chuiso te puedo colar un enlace en esta web que tiene mucha autoridad??? y cosas similares. Se lo agradezco en el coraz??n 🙂 Perdonadme este ???momento Bisbal??? jejeje.

Por otro lado un enlace que creo que fue clave fue el que conseguimos en el home de Webempresa, un hosting que siempre recomiendo y que me parece el mejor en nuestro querido idioma. Webempresa tiene una autoridad brutal (PR 7, PA 74 DA 69) y para conseguirme colocar el enlace incluso tuvieron que modificar el c??digo del home de su web. Vale, yo promociono este hosting y lo pod??is ver aqu??, pero en serio, se lo ped?? como favor y pod??an haberme dicho perfectamente que no se pod??a por cualquier motivo, tal y cu??l??? Pero no, me dijeron que s??. Desde aqu?? le mando un saludo a Gerard.

Y bueno, no hay mucho m??s que decir sobre el tiempo intermedio. Segu??amos manteniendo posiciones decentes (Top 5, top 3, a veces primeros durante unos d??as) y est??bamos seguros de que acabar??amos subiendo. Pronto lleg?? la redirecci??n del dominio exacto .com y todos cre??mos que la hab??a hecho demasiado r??pido, pero co??o, a Google le gust????? Y si a Google se le pone que esa web es importante/oficial??? Puff, dif??cil bajarla. Por otro lado estaba Antares, que visto lo visto estaba dispuesto a vender sus ??rganos vitales a cambio de enlaces en PR alto jejeje. Sin duda alguna su determinaci??n y ganas para ganar este concurso fueron las m??s valorables de todos los participantes.

 

??Una nueva incorporaci??n sorprende!

En el proceso, a falta de 10-11 d??as, mi amigo Alex se apunt?? al trenecito. Casualmente d??as antes le ped?? un enlace de ayuda y me tuvo que mentir (l??gicamente, no quer??a mostrar sus cartas), pero tambi??n me sac?? algo de informaci??n sobre el SEO negativo que me estaban haciendo jeje.. Yo s?? que el es buena gente, as?? que todo qued?? en una mentirijilla que irremediablemente me tuvo que decir para poder competir en igualdad.

Sobre su participaci??n, creo que vio la oportunidad de volver a sorprender, pero la cosa no sali?? bien (muchas veces el SEO es impredecible). Desde mi punto de vista, y desde el de Jos??, jug?? su gran baza, los peri??dicos, muy muy White para estar en un concurso a falta de 10 d??as de acabar, y en general su estrategia fue de 10 para un proyecto SEO com??n, pero no para un concurso como ??ste. Consegu??a d??a a d??a enlaces en los peri??dicos m??s importantes de Espa??a, yo estaba flipando, ya solo le faltaba llamar a su coleguita Paco de la Nasa para que le pusiera un enlace en el home ???? Pero bueno, finalmente (y afortunadamente para nosotros) no subi??. Se me ocurren muchas teor??as, pero todo ser??a especulaci??n, as?? que diremos que fueron misterios inexplicables de Google.

Una ventaja que tuvo este a??o fue que todos los focos de atenci??n (y de maldad) se centraron en Chuiso (porque entramos antes), as?? que no recibi?? apenas juego sucio, no como el que m??s abajo leer??s que yo recib??. Una an??cdota que me hizo mucha, mucha gracia (me meaba de risa) fue un forero de Forobeta que cuando faltaban menos de 30 minutos para dar los resultados dijo algo as?? como ???Paciencia, que seguro que Alex a??n guarda un as en la manga???. WTF, lo que hace la mitificaci??n ????

Pocos d??as despu??s de que entrase Alex muchos de los participantes que estaban en los primeros puestos me contactaron para aliarnos (hacer una redirecci??n 301), todo ello en un lapso de 3 d??as. Me hicieron todo tipo de ofertas, y alguno incluso me ofreci?? todo el dinero del premio, queriendo ??l ??nicamente el reconocimiento. Lo consult?? con Jos?? y no aceptamos las ofertas. Por respeto no dir?? nombres, pero todos pensaban que Alex iba a subir r??pido y??? Fijaros, al final nanai de la China.

Otro traspi??s que tuvimos fue el de un ???SEO??? que me puso un enlace en su web y luego me lo quit?? y se puso a participar jajaja. En realidad m??s que darme miedo me result?? divertido. Su estrategia fue comprar un pack de trackbacks en Fiverr, lograr 15.000 RT con apps y algo de interacci??n social, subir r??pido en un s??lo buscador, bajar a??n m??s r??pido al inframundo, y luego decir que los enlaces eran seo negativo que le hicieron??? Jajajaja, sin comentarios. No se nos puede enga??ar a los perros viejos ???? Por supuesto tuvo el ego de hacer una captura de pantalla durante el poco tiempo que subi??, y luego lo volvi?? a intentar repitiendo el proceso, pero no le sirvi?? de nada. Una an??cdota que nadie recordar??.

 

Comienza la marcha atr??s??? ??Qu?? nervios!

El cron??metro de la desesperaci??n se activ?? cuando quedaban 5-6 d??as para el final. La redirecci??n no bajaba, me cago en todo??? Y nosotros descendimos en puestos mediocres, as?? que durante el d??a 6, 5 y 4 empezamos a poner enlaces por nuestras redes de blogs y a pedir ayuda a todo quisqui??? Y ya sin ning??n tipo de contemplaciones??? ??Sidebars y footers a muerte, que el enlace est?? en un sitio con potencia de antemano! Tal cu??l ped??amos enlaces nos ocup??bamos de que Google pasase por esa URL para que detectase el enlace r??pido (ya ibamos a contrarreloj). El tiempo segu??a pasando y a falta de 2 d??as ibamos perdiendo en todos los buscadores??? Pero ey??? ??Por qui??n nos tom??is? Hasta ese momento todo el linkbuilding realizado era white y grey, as?? que si Google no nos quer??a subir a los primeros puestos, le obligar??amos: ????BLACK HAT SEO madafakers!!

tecnica blackhat

El linkbuilding spammer bien seleccionado puede ser eficiente a muy corto plazo, as?? que mandamos algunos enlaces no muy spammers a la URL y blasteamos sin piedad los dominios que hab??amos comprado. Hecho esto hicimos redirecciones de dichos dominios al art??culo. Seguimos blasteando sin piedad gracias a Javi Mu??oz ???? y a la vez empec?? a debatir con Jos?? los pros/contras de realizar el trick de ???Google Freshness???, cambiar la fecha del post. Lo que hice fue borrar el post, publicar algo absurdo (ni recuerdo, era un post saludando a la gente) y volver a publicar el post de seovoluci??n exactamente igual. Lo ??nico que se perdi?? en el nuevo post fueron los comentarios de WordPress, pero eran realmente pocos. Toda la interacci??n social, linkbuilding, comentarios en Google Plus y dem??s permaneci??. Luego index?? el art??culo de nuevo a la velocidad de la luz gracias a un truco que mi socio Jos?? public?? y??? ??Tach??n! Subimos en casi todos los buscadores (6) al primer puesto, y en los otros ??bamos segundos. Un gif ???Fuck Yeah??? vale m??s que mil palabras:



Me imagino a mis rivales cuando revisaron posiciones??? ??Jajajajajajajajajajajajajaja! Menudo OWNED, solo me imagino frases como ???la concha de su madre pero que hizo este Chuiso??? ???chuiso sos un putoooo??? ???pero que ha hecho co??ooooooooooo???. No cre??is que nosotros no nos sorprendimos, jejeje??? Yo me tom?? una birra tal cu??l subimos a primera posici??n, y Jos?? un Bayleys (creo recordar). Quedaban 36 horas para terminar el concurso y nos hab??amos puesto l??deres, yeah. El resto del tiempo no hicimos mucho m??s, estar atentos de los ataques DDoS, evitar sorpresas y revisar las posiciones a cada rato. Bajamos en Google M??xico a 2?? posici??n, y nos planteamos repetir la jugada del ???Freshness???, pero yo no me atrev?? a reindexar la fecha de publicaci??n del post nuevamente, y dudaba que tuviese alg??n resultado positivo (una vez acab?? el concurso lo hice y continu?? en las mismas posiciones). Jos?? quer??a que lo hiciese, ??pero le dije que ni de co??a! Me dio canguele jejeje.

Y se acab??, el equipo de comprobadores de Forobeta (de varias partes del mundo) comprobaron las posiciones y por ah?? se le??a en todos lados CHUISO, jejeje. 5 victorias de 8 y en el resto de buscadores el 2?? puesto. Algo curioso que me pas?? fue que mi ordenador de sobremesa ???pet????? literalmente 5 minutos antes de decir los ganadores (y luego menuda guerra me dio el nuevo???), menos mal que ten??a un netbook que me resolvi?? bien jeje.

Sobre mis rivales, si tengo que felicitar a alguien ser??a al argentino Leonardo, su victoria fue m??s que merecida y magistral, y tambi??n a mi colega Alex porque calent?? el concurso e hizo que el tramo final fuese a??n m??s ??pico. Aunque tengamos nuestras diferencias y no creo que le guste saber que Jos?? tambi??n gano la Seovoluci??n, tambi??n felicito a Carlos Arreola por la organizaci??n del concurso y la gesti??n del mismo. Cobr?? el premio por otro medio ajeno a Paypal y se tom?? muchas molestias para enviarme el dinero, todo hay que decirlo (y me banee o no mantendr?? esto). Cambiando de tema os dejo el archivo en el que se publicaron los resultados:

resultados

 

??Vamos, todos a joder a Chuiso!

Algo que me sorprendi?? fue la cantidad de juego sucio que me hicieron pr??cticamente desde el principio??? Parec??a que supiesen que ibamos a ganar desde un principio. Es dif??cil citar del tir??n, as?? que ir?? enumerando todo lo que me han hecho:

3 ataques de SEO negativo que sumaron m??s de 15.000 enlaces con anchors de lo m??s variopinto: ???anal sex??? ???gore online??? ???buy drogs??? ???asian porn??? y ???chuiso estafador??? entre otros. El primer ataque se realiz?? apenas entr?? en el concurso, y ni siquiera estaba en los 10 primeros puestos, y el segundo algo despu??s. No es muy complicado imaginarse qui??n me mand?? esta retahila de enlaces nocivos de ScrapeBox, jejeje, pero yo soy un caballero y adem??s el ganador, as?? que no dir?? nada al respecto. Tambi??n cayeron en lo m??s bajo del ser humano atacando directamente mi dominio con la keyword ???ALVARO SAEZ ES ESTAFADOR???, ya con la victoria en mi poder ???? Lo que hace la envidia jiji
Inclusi??n de mi web en la lista de web peligrosas y bloqueadas de Trend Micro. Si ven??s aqu?? http://global.sitesafety.trendmicro.com/ y pon??is Chuiso.com lo ver??is (Spam y Disease Vector, que ofrezco software malicioso y virus jajaja). Tampoco es dif??cil saber qui??n hizo ??sto porque lo ha hecho muchas veces en el pasado (tengo constancia de ello) e incluso nos lo han hecho en nuestra red de blogs. No es un factor relevante desde mi punto de vista, solo se pueden perder algunas visitas que tengan ese bloqueador instalado.
Intento de acceso a mi blog en repetidas ocasiones. Logueos continuos que gracias al plugin de seguridad que ten??a instalado (Bullet Proof Security) se quedaron en otro intento de joderme ????
??Intentos de ataques DDoS? Ni lo dud??is, ser??a la ??nica guarrada que quedar??a por hacerme, pero estaba protegido ante el ataque ???? (aunque un ataque DDoS bien hecho es casi imposible de parar). Realmente los doseos no tienen mucho sentido, tendr??an que tirarte la p??gina durante un par de d??as para que afectase al posicionamiento en Google.
Tr??fico zombie, muuuucho tr??fico zombie, seguramente consecuencia de los factores anteriores.
M??s de mil suscriptores bots a mi lista de suscriptores de Jetpack. No entiendo muy bien si esto fue adrede, como consecuencia del linkbuilding spammer??? Quiz??s simplemente por rabia e impotencia porque la victoria se la llev?? Chuiso.com ????
Y, con todo esto, nos llevamos 5 buscadores de 8, y 2?? puesto en los otros 3, as?? que a la mente maestra que ide?? todo esto le digo que su juego sucio me lo pas?? por el beicon y le ganamos. ??Jajaja!

 

Una dedicatoria final

No, no me voy a despedir con una bisbalada jejeje. Aqu?? mi nivel de agresividad aumentar?? durante el pr??ximo p??rrafo ???? Cabe decir que no tard?? mucho en leer ???S??, pero ya veremos qui??n sigue ah?? dentro de unos meses??????. ???Eso no sirve, a ver si aguantan????????? ???Gur?? bla bla bla???, jejeje, chorradas. ??Os pens??is que yo blackhateo indiscriminadamente mis proyectos serios? Hombre por favor??? SEOvoluci??n era un concurso cuyo objetivo era ponerse primero en Google el d??a 6 de Abril, punto. Eso lo sab??a todo el que participaba. Es l??gico que luego haya bailes: una redirecci??n como la de Seonutz tiene fecha de caducidad limitada, y yo a las 12:01 del d??a 6 de Abril, tan pronto ganamos, ya estaba quitando todos los enlaces fuertes que ten??a, de modo que se quedar??n los 15.000 backlinks de SEO negativo que me hicieron??? ??Con eso me voy a mantener en las SERPs para esa keyword? Jajajaja, ni siquiera creo que me convenga mantener esa URL en mi blog??? O qui??n sabe, quiz??s le haga una redirecci??n a alg??n enemigo ???? Lo que quiero decir con esto es que no hag??is caso a las gur??charlas que intentan dar personas que se creen nuestros SEOpadres (y no tienen ni puta idea de la realidad y la practicidad del SEO, el trabajo de campo). Si son tan listos, que hubiesen concursado ellos y tengan cojones de ganarnos ???? ??Ah no, se me olvidaba! Que los gur??s s??lo ha-blablabla-n y ??nicamente traducen posts de SEOs ingleses??? Jajaja.

 

Jejeje, en fin, para terminar este extens??simo art??culo me gustar??a recomendarte que pruebes mi curso online TeamPlatino??? ??Por qu??? Sencillo, porque SEOvoluci??n lo hemos ganado, precisamente, los que impartimos este curso, y creo que este proyecto al que tanta dedicaci??n pongo merece la pena ????

 

??Me he gastado la pasta en cerveza?

Claro que no, afortunadamente mi amigo espa??ol Juan Carlos Navarro me trajo unas cervecitas en su breve paso por Santo Domingo ???? As?? que pude invertir mi parte del premio (1.250 d??lares) en una buena acci??n, algo que ten??a decidido desde hace mucho pero nunca dije. En este pa??s he visto mucha pobreza, he visto cosas muy chungas, mucha miseria, y me ha dado mucha pena. Yo vengo de Espa??a y por la calle no se ven las cosas que he visto por aqu????? Pero aqu?? tambi??n he visto ilusi??n, alegr??a (a pesar de la pobreza) y superaci??n. Tambi??n he comentado alguna vez que trabajo en una escuela de f??tbol y colaboramos con la Fundaci??n del Real Madrid, que opera en un colegio de escasos recursos. Gestion?? con el profesor de educaci??n f??sica (un buen amigo) la donaci??n y le ped?? una lista con todo lo que necesitaban. No quer??a donar el dinero, quer??a comprar las cosas que necesitasen y entreg??rselas (es mejor as??).

Luego le ped?? ayuda a mi buen amigo V??ctor de BajaleAlgo.net (que tambi??n public?? un art??culo al respecto) y nos pasamos dos d??as completos dando vueltas por Santo Domingo para comprar todo lo necesario: zapatos, zapatillas (tenis aqu??), botas de f??tbol (ganchos aqu??, lo que todos los ni??os quer??an jeje), ropa escolar, balones de f??tbol, fundas de comida??? Le agradezco a V??ctor la paciencia que tuvo conmigo ???? Sin duda este webmaster y blogger dominicano es uno de mis grandes amigos en esta bella isla. En definitiva gast?? pr??cticamente el 85-90% del premio en la donaci??n, y el otro 10-15% fue aproximadamente lo que se invirti?? en dominios y dem??s gastos necesarios para ganar el concurso. Os dejo unas de fotos del d??a en cuesti??n:

donacion 3

Hablando de Black Hat SEO, por supuesto???

donacion 2

Las do??as de la escuela sirviendo una picadera que organizamos XD

Deja un comentario

A %d blogueros les gusta esto: