martes, 31 de agosto de 2010

Asegura la Indexabilidad de tu Web





Os resumo 15 puntos que nos garantizarán que los contenidos de nuestra web estén en la mejor disposición de ser rastreados por los robots de los buscadores:



1. Que ven los buscadores de nuestra web: es importante saber qué es lo que leen las arañas de los buscadores sobre nuestra web. Para existen varios simuladores de arañas o robots (spider simulators o robot simulator) que podemos usar.
2. URLs únicos para cada página: en las páginas de resultados de los buscadores, cada resultado se identifica con un valor que ha de ser único: la dirección URL de la página. Es importante que cada página de nuestra web tenga su propia URL para que los buscadores puedan archivar todas las páginas.
3. Enlaces rastreables: son aquellos que los robots seguirán para poder continuar rastreando contenidos. Asegúrate de que estos enlaces son rastreables por los buscadores, así estos podrán indexar todas las páginas
4. Evita las ventanas pop-up: corremos el riesgo de que la apertura de la nueva ventana sea interceptada por los bloqueadores que existen en múltiples navegadores. Por otro lado, impedimos también que los robots lleguen a estas páginas, ya que los enlaces que abren estas páginas no son normalmente rastreables.
5. Arquitectura de la información: los robots de los buscadores consideran normalmente que la página home de la Web es la más importante del sitio, y que el nivel de importancia va disminuyendo conforme aumenta la distancia de clics de ella. Por ello es importante diseñar arquitecturas de la información con pocos niveles de profundidad, que evolucione más horizontal que verticalmente.
6. Emplea el método sIFR para impactar a los usuarios: evita la tecnología Flash.
7. Evita los marcos: dado los problemas de indexabilidad que plantean, se recomienda transformar una estructura de marcos en páginas individuales que integren todos los elementos.
8. Cuidado con los buscadores internos: los buscadores no pueden rellenar formularios de búsqueda por lo que si tu página web tiene contenido que sólo se encuentra mediante un buscador interno, haz lo siguiente. Crea agrupaciones de contenido que, a través de enlaces, permita una navegación hacia cada uno de los contenidos bajo distintos criterios.
9. Peso de la Web: hoy en día sigue siendo una buena regla mantener el tamaño de archivo tan reducido como sea posible, sin código basura y tan conforme a los estándares definidos por W3C como sea posible, esto garantizará que los buscadores lo rastrearán correctamente.
10. Elige bien tu dominio: los buscadores premian a los sitios Web del mismo país, así que si actúas en varios países distintos sería interesante adquirir los dominios con extensión de cada país de cada mercado en los que actúas.
11. Redireccionamientos 301: si has adquirido los dominios en otros países y deseas dirigir el tráfico de esos dominios a tu dominio principal usa los redireccionamientos 301. Desde el punto de vista del usuario puede no haber diferencia, pero desde la perspectiva de los buscadores, es mejor programar un redireccionamiento permanente 301 desde cada uno de estos dominios hacia el principal.
12. Páginas 404 eficaces: debido a la continua actualización de los contenidos de una Web es frecuenta que tarde o temprano nos encontremos con enlaces que apunten a páginas que ya no existan. Personaliza esta página de error e incluye un pequeño directorio de enlaces con vínculos que apunten hacia los principales grupos de contenido del sitio.
13. Mapa del sitio: nos permite ver en una única página el esquema completo del sitio Web en el que estamos, y nos permite, a través de sus enlaces, “saltar” rápidamente hacia cierto contenido sin tener que emplear el menú de navegación.
14. El archivo robots.txt: en él podemos especificar de forma sencilla qué áreas, subdirectorios o archivos de nuestra web no deberían ser indexados por los buscadores.
15. Sitemap: suele ser un fichero con código XML invisible para los usuarios pero que los buscadores consultarán para descubrir todas las páginas de tu web que queremos que indexen. Una vez generado y subido al servidor deberemos darlo de alta en los distintos buscadores.

viernes, 20 de agosto de 2010

Cosas que todo el mundo debería saber sobre SEO

Os dejo una presentación muy buena (en inglés) de seomoz.org sobre SEO. En 150 Slides Rand Fishkin explica muy bien lo que todo el mundo debería saber sobre SEO y los motores de búsqueda. ¡Espero que os guste!

Chris Anderson: La Teoría del Long Tail


La teoría del Long Tail está basada en un artículo de Chris Anderson publicado en Octubre del 2004 y se trata de uno de los documentos más comentados y visitados en Internet.

Esta teoría dice que la mitad de las visitas de buscadores vienen a través de palabras clave que se repiten más de una vez, mientras que la otra mitad de las visitas se obtienen a través de una única combinación de palabras clave. Es decir, existen una serie de palabras clave que son las más búsquedas de Internet en su sector pero que su proporción en el total de búsquedas sería relativamente pequeña comparada con la larga cola de millones de búsquedas que sólo se realizan unas pocas veces al día. La teoría del Long Tail centraría su atención en esas búsquedas minoritarias.

¿Por qué centrarse en esas búsquedas minoritarias?


La Teoría del Long Tail explica que estas búsquedas minoritarias, que vienen representadas por frases largas y específicas, generan una rentabilidad mucho más alta que las obtenidas por palabras genéricas y populares ya que la inversión de posicionarse en palabras clave muy especializadas es mucho menor que en palabras genéricas y muy competidas y su ratio de conversión de visita a cliente es también mayor.

Esa cola minoritaria de palabras clave (long tail) es el área en la que debemos enfocar nuestra campaña.

Estoy totalmente de acuerdo con la Teoría formulada por Chris Anderson, si bien es verdad que, en ocasiones, te ves obligado a sacrificar algo de rentabilidad para obtener más tráfico, y este mayor tráfico se consigue mediante las palabras genéricas más populares.

jueves, 19 de agosto de 2010

Lanzamiento inminente de Facebook Places


Facebook lleva varios meses preparando su nuevo servicio de geolocalización llamado “Facebook Places” y parece que finalmente está listo para ser presentado lo que no se sabe todavía es cuando.

En la última conferencia celebrada en el Campus de Facebook en Palo Alto (California), Mark Zuckerberg, CEO de Facebook, anunció que después de varios meses de intenso trabajo habían conseguido terminar Facebook Places.
Este nuevo servicio de Facebook, basado en la geolocalización, tendrá muchas similitudes con otras plataformas similares como Foursquare.

Los puntos clave de Facebook Places son 3:

1. Te ayuda a compartir en qué lugar te encuentras
2. Te permite localizar a tus amigos
3. Puedes descubrir nuevos sitios que sean de tu interés a tu alrededor

Otro punto interesante es el “Photo Tagging”, que te permite etiquetar a la gente que se encuentra en un lugar contigo sin necesidad de que estos hagan el correspondiente “check - in”.

Facebook Places estará disponible para iPhone, Blackberry, Android y el resto de Smartphones.

Ahora habrá que ver qué tal es el servicio, cómo se pueden beneficiar los anunciantes y qué nos aporta que no nos lo den el resto de plataformas basadas en la geolocalización.

miércoles, 18 de agosto de 2010

¿SEO o Redes Sociales?



He leído hoy un artículo en www.marketingdirecto.com sobre el SEO, Facebook y las Redes Sociales.

En este artículo se habla sobre la decadencia del SEO como consecuencia del desarrollo de Facebook y el resto de redes sociales. Argumentan que los anunciantes están dejando de realizar estrategias de SEO porque se están centrando en obtener tráfico a tavés de las redes sociales, y que esta tendencia irá en aumento en los próximos años.

¿Quieren decir que ya no es necesario realizar estrategias SEO?

Desde mi punto de vista, es un error enorme pensar en centrarse en campañas de Redes Sociales y dejar de lado el SEO. Estoy de acuerdo en que las redes sociales están adquiriendo gran protagonismo por el número de usuarios que tienen pero la calidad del tráfico que recibimos a través de las redes sociales no tiene nada que ver con la calidad que recibimos por SEO.

Recordemos que en los buscadores los usuarios realizan una consulta sobre algo concreto que conocen y del que necesitan más información, por lo tanto, si consigues aparecer en los primeros resultados de búsqueda para los términos de búsqueda clave relacionados con tu negocio te aseguras mucho tráfico y de calidad. Sin embargo, no podemos decir lo mismo de la calidad del tráfico de las redes sociales.

Desde luego si yo fuese un anunciante y tuviese un presupuesto limitado me decantaría por una estrategia SEO y más adelante me plantearía empezar a invertir en redes sociales.

El SEO lo utilizaría como canal principal para promocionar mis servicios/productos y las redes sociales como complemento de Branding, Venta e Interacción con mis clientes.

martes, 17 de agosto de 2010

Facebook compra Chai Labs


Facebook vuelve a la acción. Se trata de la adquisición de la “startup” Chai Labs, especializada en la creación de sitios webs temáticos con un sistema de búsqueda amigable.

La operación se ha llevado a cabo por un importe de 10 millones de dólares (7,8 millones de euros). Parece ser que la compañía de Mark Zuckerberg está más interesada en la integración del equipo de Chai Labs en Facebook que en su propia tecnología.

Chai Labs fue fundada por un ex ejecutivo de Google Adsense, Gokul Rajaram. Con sede en California, la compañía facturó el año pasado 1,1 millones de dólares y en el ejercicio anterior 1,3 millones de dólares.

La plataforma de Chai Labs consta de dos partes: por un lado, se centra en la extracción de contenido estructurado que la compañía recoge de fuentes de datos pobremente estructurados para transformarlos en información más accesible y manejable. Por otro lado, se sirve de la llamada búsqueda semántica, utilizando tecnologías de extracción de datos e inteligencia artificial para analizar y extraer ideas de millones de datos en tiempo real.

Parece que Google y Facebook se reparten las distintas “startups” que van saliendo.

jueves, 12 de agosto de 2010

Google compra Metaweb


En su afán por darle al usuario la mejor información Google compró hace apenas un mes una Start-Up llamada Metaweb, una compañía líder en Web semántica.

¿Qué es eso de la Web semántica?

Os dejo la definición de Wikipedia: “La Web semántica (del inglés semantic web) es la “Web de los datos”. Se basa en la idea de añadir metadatos semánticos y ontológicos a la World Wide Web. Esas informaciones adicionales – que describen el contenido, el significado y la relación de los datos – se deben proporcionar de manera formal, para que así sea posible evaluarlas automáticamente por máquinas de procesamiento. El objetivo es mejorar Internet ampliando la interoperabilidad entre los sistemas informáticos usando “agentes inteligentes”. Agentes inteligentes son programas en las computadoras que buscan información sin operadores humanos”.

Con la compra de Metaweb, Google tiene acceso a Freebase, una de las mayores bases de datos de relaciones semánticas de la web, lo que le permitirá analizar y entender las búsquedas de los usuarios en todo su contexto y no sólo por las palabras buscadas. Aparte de esto, Google también trabaja ya en una nueva herramienta de búsqueda denominada “Squared”, que presenta un sistema que guarda bastantes similitudes con la búsqueda semántica.

Os dejo aquí un vídeo de cómo funciona Metaweb:




¿Será Google algún día capaz de mostrarnos un solo resultado de búsqueda y acertar?

miércoles, 11 de agosto de 2010

El Libro Blanco de IAB. SEO: Optimización de Webs para Buscadores


Os dejo el enlace desde dónde os podréis descargar el libro publicado por el IAB sobre SEO:

http://www.iabspain.net/ver.php?mod=noticias&identificador=68

El libro se llama: "SEO: Optimización de Webs para Buscadores. Buenas prácticas y resultados".
Ya me lo he leído, me parece muy interesante, está muy bien redactado y es fácil de entender incluso para la gente que no esté muy familiarizada con el SEO. Además al final del libro podéis encontrar un glosario con las definiciones de los principales conceptos.
Desde mi punto de vista, es un libro de lectura obligatoria.

jueves, 5 de agosto de 2010

¡¡Importante cambio en la Política de Marcas Registradas de Google!!


A partir del 14 de septiembre entrará en vigor en Europa la nueva política de marcas registradas de Google, será misma política que se aplica en EEUU y Reino Unido.

¿Cómo afecta este cambio de política a los anunciantes?

Pues les afecta y mucho. Hasta ahora en Europa cualquier anunciante propietario de una marca registrada podía solicitar a Google la protección de la misma para Google Adwords. Es decir, si yo soy el propietario de la marca “Dell” y trabajo con Google Adwords puedo solicitarle a Google que proteja mi marca contra terceros, impidiendo que estos terceros puedan pujar por mi marca “Dell” e impidiendo que hagan uso de ella en sus anuncios de Adwords.

¿Qué ventajas tengo como propietario?

Muchas. La primera de ellas es que mi anuncio de Adwords será el único que aparezca cuando un usuario realice la búsqueda “dell”, por lo tanto tanto en SEM como en SEO los primeros anuncios que vea el usuario serán los míos.
La segunda ventaja, el CPC medio que pagaré por mi marca “dell”. Al no existir competencia en Adwords por esta keyword (Google no le permite a terceros pujar por ella) el CPC que pagaré será bastante bajo, puede ir desde los 0,03 € hasta los 0,2 €.

¿Problemas con la nueva política de marca de Google que entra en vigor?

A partir de ahora la competencia por las marcas será bestial, cualquier empresa pujará por la marca de su competencia para intentar posicionarse por encima de ella y llevarse los clics. Al existir más competencia por las distintas marcas, los CPCs se incrementarán muchísimo, en vez de CPCs de 0,03 € empezaremos a pagar 0,8 € y 0,9 € por nuestra propia marca si no queremos que nuestra competencia aparezca por delante de nosotros.
A partir de ahora, haceros a la idea de que los CPL/CPA/CPO se incrementarán bastante porque los que vienen a través de la marca serán cada vez más caros.

¿Qué os parece la solución de Google?