Posicionamiento en buscadores

1. Introducción:

Básicamente lo que denominamos métodos de posicionamiento en buscadores consiste en la utilización de diversas técnicas con la finalidad de situar páginas web en los lugares más frecuentados por los navegantes de la web.

Para poder optimizar ese proceso, debemos adaptar esas páginas para que los buscadores las entiendan y sean mejor valoradas en las posiciones generales colocándose  entre los primeros resultados para determinadas palabras o frases de búsqueda con la consiguiente ventaja de conseguir mas clientes y mejorar nuestra llegada al público navegante.

Por otro lado, poder entender correctamente esta metodología permite una forma económica y rápida  de promocionar nuestras páginas  o incluso acceder  a labores relacionadas con esta especialidad (cada día crece mas el espectro laboral para este tipo de conocimientos).

Lejos de querer imponer técnicas rebuscadas o complejas de programación iremos repasando trucos y métodos que agilizaran este proceso, que a veces suele ser dejado de lado y representa la real manera de efectivizar tanto esfuerzo en visitas y eventualmente ventas.

2. Buscadores

Hablar de buscadores hoy en día remite casi en forma exclusiva a Google que entrega el 80% de las búsquedas y el 20% restante se reparte entre los otros (Yahoo, MSN, AltaVista…). Sin embargo había otros buscadores y otros líderes antes de Google así como también hoy en día tenemos alternativas al ultra poderoso rastreador. Por eso es bueno también prestar debida atención a darnos de alta en buscadores clásicos como Astalavista o Ask Jeeves sin perder debida atención a Alltheweb o al creciente GigaBlast.

La definición general  hace que los buscadores se dividan de diversas formas, ya sea en buscadores “de cumplimiento” y “por relevancia” y en forma mas genérica también en  buscadores con y sin robot. Empecemos por esta última división:

a) Por el sujeto que realiza la búsqueda

Buscadores sin robot:
En muchos casos los contenidos son analizados y procesados por personas que visitarán la nueva dirección, verificando si éste cumple con los requisitos necesarios para ser dado de alta y si los datos introducidos son correctos.

En estos casos es necesario dar de alta nuestra pagina (puede durar de 2 a 4 días) y para lograr una buena posición normalmente no es necesario el uso de palabras clave. Usualmente es suficiente con que el título del sitio comience con la letra más cercana a la A en el alfabeto o por alguno de los primeros caracteres de la codificación ASCII. Si bien hay menos resultados totales debido al menor contenido de sus bases de datos estos buscadores son los mejores ya que son más fiables y presentan menos enlaces erróneos o poco efectivos.

Buscadores con robot:
Los contenidos son indexados por medio de un programa denominado robot. Generalmente aca no es imprescindible dar el alta a un sitio web para figurar en él. Es decir, esto es aconsejable pero no imprescindible, ya que la mayoría de los robots buscan por la web por ellos mismos y van indexando todo lo que hallan a su paso. Los resultados aparecen siguiendo un orden de popularidad.

Para lograr una buena posición es necesario conocer y hacer uso del correcto uso de palabras clave y etiquetas dentro del código HTML. En estos buscadores las altas pueden llegar a demorar varios meses. Si bien hay más resultados totales, estos son menos fiables y presentan más enlaces erróneos.

b) Por la forma de buscar y relevar los datos

Buscadores ‘de cumplimiento’:
Estos buscadores encuentran las páginas que cumplan los requisitos que marca el usuario, sin hacer ningún esfuerzo por calcular la relevancia de éstos. Este concepto esta más relacionado al de buscadores sin robots y si bien usualmente brinda mejores resultados es mas costoso y complejo de implementar.

Buscadores ‘de relevancia’:
Estos gestores aseguran la relevancia de los resultados, es decir, que los primeros resultados devueltos sean aquellos que probablemente busca el usuario. Por añadidura  los documentos menos probables de satisfacer sus expectativas quedan relegados a los últimos puestos. Estos métodos de búsqueda se han ido haciendo mas sofisticados y en el caso de Google, actualmente se usan unos 100 factores para evaluar la relevancia de un resultado.

3. Google

¿Que hizo de Google el más popular? Su algoritmo. Sin entrar en tecnicismos imagínenlo como una formula especial que le permitió ordenar y analizar por relevancia miles de páginas web. Por ello, la empresa californiana se ha convertido, con más de 200 millones de consultas diarias, en el buscador más importante en la Red.

Se dice que del 80% de los usuarios de internet que usa habitualmente los buscadores entre un 60% y un 90% de ese tráfico remitido a las webs por los buscadores proceden de Google.

Esto sucede  ya sea directamente o a través de portales que, como Yahoo, también usan la base de datos de Google. Es de real importancia poder realizar bien las cosas ya que de esa masa gigantesca se estima que la mayoría de usuarios de buscadores no pasa de la tercera página de resultados.

4. ¿Cómo indexa Google?

En su metodología de procesamiento Google utiliza  el famoso sistema PageRank, que lo ha llevado a  convertirse en uno de los buscadores que mejor sabe valorar la relevancia sobre una base de datos de documentos sin control humano normalizado previo. Para eso  divide el proceso en tres fases concretas:

1) Calcular cuántas de las páginas de su base de datos cumplen con los criterios de búsqueda concreta.

2) Verificar los factores que miden la mayor o menor relevancia de la páginas.

3) Calcular los factores de popularidad (PageRank) para esos resultados, que acaba de determinar el orden en que devolverá los resultados.

Analicemos esas fases a la par que verificamos las dos formas de entrar en el índice de Google. La primera de las formas consiste simplemente en dar de alta nuestra web en el formulario de alta de Google (demora aprox. entre 60 – 90 días).

La segunda consiste en esperar que sea el propio Google (o bien sus robots de búsqueda) quien nos encuentre. Y es aquí donde nos concentraremos.

Pero antes, y acerca de la primer metodología, es decir, el alta a través del formulario de Google, es bueno explicar que aunque nos suscribamos a través del formulario, es conveniente tener algunos enlaces apuntándonos. ¿Por qué? Porque como decíamos en la etapa de fases del sistema de Google para considerar si una web es “importante” o no analiza si hay otras webs que la enlacen; aunque estemos en su índice, si no tenemos enlaces apuntando hacia nosotros, nuestra web será muy difícil de encontrar a través de Google.

En cuanto a la segunda forma en que podemos ser indexados en las DB’s de Google (y la más rápida) es poniendo uno o varios links  hacia nuestro sitio, en un sitio que sabemos de antemano que ya se encuentra indexado en Google, ya que este, al ser re-indexado (aprox. entre 20 y 30 días) los robots seguirán el link hacia nuestra página y allí será indexado nuestro sitio. Para este caso debemos tener especial atención de que el link hacia nuestro sitio sea un link html ya que no dará resultados si el link es por ejemplo de Javascript, por otro lado si podemos poner dicho link en un sitio con alto PageRank será mucho mejor.

Analicemos el sistema de Google con más detalle, en el proceso de rastreo, Google, interpreta un enlace de la página A a la página B como un voto (es decir,  de la página A, por la página B). Es decir, este buscador evalúa la importancia de una página por los votos que ésta recibe. Pero también analiza la página que emite el voto. Es decir, como decíamos antes los votos emitidos por páginas que son muy «importantes» tienen mayor ponderación y ayudan a hacer que otras páginas sean también ingresadas en esa categoría de páginas «importantes». Google permite una integridad en ese proceso de tal forma que no haya interferencia humana y esto asegure transparencia.

5. Métodos

Con esto que decíamos recién ya estamos hablando de métodos para mejorar nuestra posición. Como verán, armados de tiempo y mucha paciencia será conveniente promocionar lo más que pueda su sitio en paginas (lo más populares posibles) para así ganar más enlaces, en pocas palabras, la mejor forma de ganar posiciones o por lo menos la que más pesa es disponer de un PageRank lo más alto posible (El PageRank se mide entre 1 y 10)  y para ello nada mejor que disponer de muchos links externos hacia nuestro sitio. También influye entre otras cosas la estructura de links internos que hagamos y por lo general mientras mas paginas tenga nuestro sitio mejor.

Otro punto esencial es construir un sitio interesante para sus visitantes, no solo desde el punto de vista grafico sino de contenidos, actualizándolo constantemente para así lograr captar con esto la atención de más navegantes.

Dentro del punto vista técnico no nos olvidemos que también influye que el Título y el Contenido de la web reflejen las palabras más importantes que describan a su sitio ya que serán esas las que lo hagan aparecer cuando se usen como clave de búsqueda.

Es decir, hagamos que nuestro sitio web hable exactamente del tipo de cosas que nuestros navegantes y/o clientes están buscando. El título de la página es un detalle que tiene mucho peso a la hora del posicionamiento y sin embargo podemos encontrar muchas páginas “Untitled” aún en sitios muy importantes.

Si vale la analogía Google no es distinto a como uno buscaría comúnmente en un libro . A la hora de clasificar una web se fijará en el título de la página por defecto, en la descripción de la página  y en el contenido de la página home que, si está bien construida, debe ser un resumen de todo lo que el usuario va a encontrar en la web. A continuación, Google buscará la barra de navegación  y saltará de enlace en enlace por las distintas secciones de su web  repitiendo el proceso de análisis (título, descripción, encabezamientos, contenido, etc).

En relación a esto detengámonos un segundo en un pequeño conjunto de consejos acerca de una correcta implementación de un área clave en nuestra pagina, es decir : el Titulo de nuestra pagina.

  • Algo esencial. Que sea un titulo con “gancho”, es decir que publicite de la mejor forma nuestro sitio y resulte atractivo
  • Todas las páginas deben tener títulos. Un buen truco es cambiar cada titulo o bien usar uno general con una especificación de la pagina interior ya que esto duplica el efecto.
  • Si uno tiene una empresa no conviene del todo incluir solo en el nombre del titulo sino relacionado a palabras claves.
  • Cuidarse de infringir reglas que pueden penalizar al sitio. (Por ejemplo esas cadenas de letras  que a veces incluso vemos en los clasificados: “AAAAAA”)
  • Usar mayúsculas solo  cuando se requieran y estar bien atentos a la ortografía.
  • No usar un lenguaje complicado o rebuscado (a no ser que nuestra página web sea para un usuario específico y selecto y el tema muy concreto lo requiera).
  • No usar una lista de palabras claves separadas por comas. En su lugar  redactar una frase lógica utilizando siempre las palabras clave.

Es importante aclarar que todos estos conceptos no determinan  por si solos una correcta optimización sino que deben ser conjugados en un conjunto Por ejemplo, en relación a los títulos y acerca de la optimización de su uso se suelen usar conceptos tales como palabras claves, densidad, etc.

La densidad en un titulo es el porcentaje de palabras (también denominadas palabras clave) sobre el total general de palabras. Para darles un ejemplo mas claro: si usamos la palabra clave “paginas” y como título escogemos “Paginas web”, tendremos una densidad del 50%. Por ende agregando una palabra mas  tendremos una densidad del 33%.

En contra de lo que muchos consideran correcto no conviene tener densidad del 100% sino conceptos intermedios de hasta un máximo de 8 palabras.

Google parece otorgar una mayor importancia a aquellos elementos que se encuentran al inicio del título; por tanto, si queremos posicionarnos en el área de  “Paginas Web”, resultará más efectivo el título: “Paginas Web – Ingeniero Dateli” que “Ingeniero Dateli – Paginas Web”.

6. Consejos finales

Retomando el tema Google es bueno también aclarar que debemos tratar de hacerle fácil el proceso de indexación al robot. Por ejemplo,  Google no sigue todos los enlaces; por ejemplo ignora en general los enlaces en javascript, o los que se activan desde una casilla desplegable, etc.

También puede haber problemas si los enlaces están en un archivo flash (hay versiones encontradas de que Google puede recorrer links en un archivo de Flash pero no reconocer su contenido), o si son redirecciones, etc. Por esto es bueno saber conjugar Flash correctamente y no abusar de esta tecnología en exceso.

Si nuestra web no usa enlaces en HTML simple, es buena idea añadir enlaces a todas tus páginas en el pie de tu web, o bien hacer un mapa del sitio al que se acceda desde la página principal o home.

Otro tema a tener en cuenta es la penalización que Google hace a aquellos sitios que intentan de alguna manera “engañar” su algoritmo, entre las reglas básicas encontramos:

  • No utilizar textos o links invisibles, por ejemplo, colocar un link hacia nuestro sitio cuyo texto sea del mismo color del fondo.
  • Evitar realizar algún convenio con webmasters de otros sitios para intercambiar links. Por ejemplo ponemos un link hacia otro sitio y el webmaster del otro sitio hace lo mismo para con nosotros. Si bien este caso no es penalizado, tampoco es tenido en cuenta por el algoritmo para que aumente nuestro PageRank.
  • No utilizar sitios dinámicos que respondan en distintas maneras si la petición es de un navegante o de un robot. Por ejemplo si utilizamos una página en php que detecte si el visitante es un robot responde con un contenido y en cambio, si es un browser determinado responder con un contenido totalmente distinto.
  • Otro es generar sitios con contenidos repetidos con el único objetivo de colocar un link hacia nuestro sitio. Esta técnica se conoce como paginas espejos pero la manera de lograr que realmente funcione lleva mucho tiempo y se logra generando sitios con buena cantidad y calidad de contenido que sean a sus vez indexados en google.
  • Hacer uso intensivo de palabras claves dentro de contenido que no tiene que ver con las mismas

Después de todo este proceso muchos se preguntaran como podemos saber si Google indexo correctamente nuestra web. La mejor forma es usar este sencillo comando en la caja de texto general: allinurl:nuestrositio.com

7. Limitar el acceso de los robots

Por si no lo sabemos a esta altura, los robots son pequeños programitas “inteligentes” que van recorriendo los links de los sitios recavando información sobre el sitio para que luego sea ingresada en las Bases de Datos. Si por alguna razón deseamos evitar que dichos robots no indexen ciertas páginas o directorios de nuestro sitio, debemos declararlo colocando un archivo de nombre “robots.txt” en la carpeta raíz de nuestro sitio (en nuestro caso public_html) y el mismo debe tener la estructura del siguiente ejemplo:

User-agent: *
Disallow: /imagenes/
Disallow: /connections/

Disallow: /admin/

Disallow: *.inc
Disallow: ejemplo.html
—————————————————————-
Autor y Licencia de esta obra:
Seminarios Dattatec.com