Mostrar el autor en las búsquedas de Google

Google-SearchA raíz del estudio «Eye Tracking Study» que vi publicado en Twitter, donde se mostraba el impacto de tener Google Authorship configurado para aparecer junto a tus resultados de búsqueda en Google, me decidí a implementarlo en el blog. Desafortunadamente a los dos meses de implementarlo, Google decidió reducir el número de resultados con foto de autor. Aun así, me he decidido a publicar los pasos para configurar el Google Authorship en los resultados de búsqueda, en mi caso, para un WordPress.

Configuración de Google Authorship

Para ello, tuve que seguir una serie de pasos (la verdad, parecía más sencillo de lo que finalmente fué).

  1. En primer lugar, descargué e instalé el plugin para WordPress Google Plus Authorship. Para configurarlo, bastará con indicar el enlace a tu perfil de G+.
  2. Desde G+, tuve que crear un enlace en la sección «Contributor» hacia helloit.es (el blog en el que creo el contenido).
  3. Después, en el blog, tuve que añadir un «by <nombre>» en cada post. El nombre ha de coincidir con el nombre del perfil de G+. Ésto puede hacerse de varias formas. La más sencilla es que tu tema lo permita, pero si no (como fué mi caso) deberás modificar el código de single.php y el loop.php para añadir algo parecido a lo siguiente (ésto dependerá del tema y los plugins que tengas instalados):

by <?php the_author(); ?>

Fuente: http://wordpress.org/support/topic/trying-to-add-author-to-post

Continuar leyendo «Mostrar el autor en las búsquedas de Google»

Optimiza el rendimiento de tu web

A raíz de EventoSEO, he mirado de optimizar el rendimiento de alguna de mis webs. Agarráos que esta entrada será larga, porqué voy a explicar algunos pasos que he dado para optimizar mi sitio web:

  1. Instala (si no lo tienes ya) Firebug y Google PageSpeed para Firefox.
  2. Desde Firefox -> Herramientas -> Firebug, abre Firebug y sitúate sobre la pestaña «Page Speed».
  3. Abre una nueva pestaña y entra en la web que quieres analizar. Espera hasta que esté cargada completamente (verás el «Terminado» abajo a la izquierda en el navegador).
  4. Si no estás viendo la sección del Firebug, podrás verla pulsando sobre el icono de Firebug en la barra de tareas inferior de Firefox.
  5. Pulsa sobre la opción Analizar para obtener las recomendaciones a seguir para optimizar tu web, como por ejemplo, optimizar la compresión de las imágenes (Google Page Speed ya te ofrece las imagenes problemáticas listas para descargar en su versión optimizada), comprimir la web con Gzip o minimizar el código CSS o HTML inútil.
  6. Siguiendo las recomendaciones obtenidas, se puede llegar a optimizar el rendimiento de nuestra web consiguiendo así una mejor indexación en el índice de Google, además de una mejor experiencia para el usuario.

Además de la optimización de las imágenes, dejo aquí algunas alertas que he recibido, junto a su solución:

Minimize CSS

Esto es tan fácil como descargar el archivo css que propone Google, el cual elimina espacios y saltos de línea innecesarios, y reemplazárlo por el original.

Minimize HTML

Igual que en el caso anterior, bastará con descargar el archivo propuesto por Google, el cual elimina espacios y saltos de línea innecesarios. Pero atención, si eres de los que programa con tabulaciones, para dejar un código límpio y fácil de leer, esto te lo va a destrozar. Guárdate una copia en local.

Minimize Redirects

Con mensajes de error como los siguientes:

Remove the following redirect chain if possible:

Este problema venía dado por que a estas imágenes se les hacía referencia desde el código como 02.jpg, mientras que su nombre era 02.JPG. Símplemente cambiando la extensión .JPG por .jpg se ha solucionado.

Opciones de servidor

Finalmente, tambien he obtenido alertas bastante más difíciles de solucionar. Concretamente, alertas correspondientes a opciones a cambiar o a habilitar en mi servidor web, que resulta ser un hosting compartido sobre el que no tengo acceso directo.

A pesar de eso, he conseguido obtener detalles sobre mi servidor web subiendo un fichero llamado info.php con una única línea de código:

<? phpinfo() ?>

Consultando esta web desde el navegador (http://www.misitio.com/info.php) se obtienen los detalles del hosting. Con esto y con la creación (o modificación) de un fichero .htaccess en la raíz de mi sitio web (con los detalles correspondientes) se puede llegar a solucionar algunos problemas, como los siguientes:

Leverage Browser Caching

Bastará con añadir líneas que controlen la caché para algunos elementos de nuestra web, en nuestro archivo .htaccess

Para ello, podremos usar el siguiente código

####### LeverageBrowserCaching #####
# 1 WEEK
<FilesMatch «\.(ico|pdf|flv|jpg|jpeg|png|gif|js|css|swf)$»>
Header set Cache-Control «max-age=604800, public»
</FilesMatch>

# 2 DAYS
<FilesMatch «\.(xml|txt)$»>
Header set Cache-Control «max-age=172800, public, must-revalidate»
</FilesMatch>

# 2 HOURS
<FilesMatch «\.(html|htm)$»>
Header set Cache-Control «max-age=7200, must-revalidate»
</FilesMatch>

#######################

La fuente de información es esta.

Enable Compression

Podremos habilitar la compresión tanto para las hojas de estilo como para los archivos html. Sin embargo, esta opción necesita que el servidor tenga instalado el módulo para comprimir, como el mod_gzip.

En mi caso he tenido que pedirle a mi hosting su instalación. Aún estoy esperando respuesta, y de momento, continúo con esta advertencia en el Page Speed Score.

Serve static content from a cookieless domain

Aquí, PageSpeed me pide «Serve the following static resources from a domain that doesn’t set cookies:» indicándo algunas imágenes, así como la hoja de estilos.

Para ello, en un segundo dominio diferente al dominio original, he creado varios sub-dominios (esto en realidad no haría falta, pero por temas de optimización, he creado un sub-dominio cada 3 imágenes, para poderlas cargar en paralelo. Si no sabes de qué hablo mírate este post).

Por cierto, no sé por qué extraña razón, mi hosting tarda unas 3 horas en crear un sub-dominio.

En resumen, si PageSpeed nos comenta usar un dominio libre de cookies, es porqué detecta que el actual no lo es. Según leo aquí, para usar un dominio libre de cookies, deberás usar un dominio que siempre haya estado libre de cookies (nunca haya requerido ningún tipo de inicio de sesión, ni logueos, ni Google Analytics activado para este dominio).

Una vez hecho esto, he redireccionado todos los sub-dominios a un directorio en mi servidor, donde tengo todas las imágenes.

Posteriormente, en el código fuente, he llamado a las imágenes, pero en lugar de usar «imagenes/1.JPG» he usado «http://1.sub-dominio.segundodominio.com/1.JPG», para llamarlas usando los nuevos sub-dominios.

Otros detalles

Aún me quedan algunos detalles que pulir, como por ejemplo que cada página use su propio archivo de hojas de estilo, con los estilos que use esa página. El problema de usar una única hoja de estilos global, es que la mayoría de páginas no usarán ni la mitad de los estilos definidos en el css común.

Entiendo, que lo ideal sería crear una hoja de estilos con los estilos comunes en todas las páginas, y a partir de ahí, una hoja de estilos personalizada para cada página.

También me queda pendiente habilitar la compresión en el servidor (me temo que tendré que pelearme con mi hosting), y finalmente también pulir el CSS, que todo y que es totalmente válido (validado con el validador de w3cschools) se me queja de que no es todo lo eficiente que debería ser.

De todas maneras, ya estoy en 93 – 95 sobre 100, en cuanto a puntuación de Google Page Speed, y la verdad, se nota.

Apuntes de EventoSEO

Hoy he tenido la fortuna de asistir a EventoSEO en Barcelona. No era nada planeado (en realidad me he apuntado una hora antes que empezara el evento) pero ha merecido la pena.

A modo de recordatorio, dejo aquí mis anotaciones:

PERFORMANCE

  • Hoy en día Google está valorando muy positivamente el «performance» o rendimiento de las páginas web, es decir, la velocidad de carga.
  • Google tiene a disposición de los usuarios Google Page Speed para evaluar el performance.
  • La media de carga de las páginas en España según Google es de 1,5 segundos, sin imágenes. Lo cual quiere decir que deberíamos llegar a este valor, y nunca sobrepasar los 2,5 segundos.
  • Para mejorar el performance, se puede optar por usar CSS Sprites, así como por eliminar las imágenes e iconos irrelevantes.
  • Sabiendo que los navegadores pueden descargar hasta 3 imágenes en paralelo por dominio o sub-dominio, se puede mejorar el performance incluyendo las 3 primeras imágenes de la web en el sub-dominio 1, las siguientes 3 en el sub-dominio 2, y así sucesivamente.
  • Algo que puede mejorar mucho el performance, es eliminar los espacios, puntos y coma innecesarios, intros, etc. de nuestras hojas de estilo, así como eliminar todas las clases e identificadores no usados, además de usar GZIP para los CSS.
  • Finalmente, pero no menos importante, es la conectividad del servidor que aloja la web. El servidor tiene que tener suficientes recursos y una buena conexión para obtener un buen performance, en otro caso, puede impactar muy negativamente en el tiempo de carga, y por tanto, en la indexación.

PENALIZACIONES

  • El contenido duplicado causará una de las dos penalizaciones más importantes de Google. Se puede prevenir el contenido duplicado con «No index» o con «Canonical» (calculado por página, nunca de forma global) pero nunca usando ambos a la vez.

GEOLOCALIZACIÓN

  • Para webs en múltiples idiomas, se recomienda usar dominios geolocalizados. De esta manera, tendremos un dominio .es para España, otro .it para Italia, etcétera.
  • La redirección de la home al dominio geolocalizado deberá hacerse con la redirección pertinente. No es lo mismo usar una redirección 301, que una 302 o una 307. Con algo de polémica entre los ponentes, se recomienda usar esta última, para prevenir generar contenido duplicado con la 302.

NOTAS

  • Algunas utilidades para la monitorización web del performance, son YSlow y Page Speed de Google, aunque si no se dispone de una línea suficientemente buena (9 MegaBytes) solo nos quedará usar las herramientas para webmasters de Google como analizador del performance.
  • Otra utilidad para el código es Firebug.
  • Se recomienda que el 75% del código sea contenido, por un 25% de código utilizado para la navegación (el propio código fuente para la maquetación). Para reducir el tanto por ciento de código utilizado para navegación, se puede usar ajax, por ejemplo para incluir el menú en javascript (que no cuenta como código indexable).
  • Se aconseja, programar con CSS que lo primero que se muestre sean los H1, seguidos de H2, contenido y finalmente el código de navegación, por tema indexación.

Sin duda, habrá que estar atento a este tipo de eventos.

SEO: Títulos y descripciones

Siguiendo con todo el tema posicionamiento web en buscadores (SEO), me he encontrado con este manual en castellano, hecho por Google, que da consejos básicos pero importantes para un buen posicionamiento.

Particularmente, creo que lo que más determina el posicionamiento, es el Page Rank los enlaces a tu site, seguido del contenido de tu sitio web, y su frecuencia de actualización, y ya en última instancia y con una importancia mucho menor, la limpieza del código, el tipo de programación, los meta-tags, el nombre de las páginas web, y un largo etcétera.

De este último grupo de múltiples acciones a realizar para obtener poco beneficio a cambio, quizá haya dos puntos que puedan ser más importantes que el resto:

  • El tag «title» que contiene el título de la web.
  • El meta-tag «description» que contiene la descripción de la web (Google comenta que este parámetro NO interviene a la hora de posicionar la web, y que su único uso real es el de permitir al usuario conocer lo necesario como para decidir si tu web es o no lo que andaba buscando. Fuente aquí).

Google nos recomienda (y por tanto nos vemos casi obligados a obedecer) tener un título y una descripción diferentes para cada una de las páginas que conforman nuestro sitio web, y además, nos comenta la importancia de generar buenos títulos y descripciones.

Herramientas para webmasters de Google

Para ello, en las Herramientas para webmasters de Google, se nos ofrecen herramientas de diagnóstico que nos validan la conveniencia o no de nuestros títulos y descripciones.

Sin embargo, es muy posible que Google nos comente que no se pueden extraer datos de nuestro sitio web, para generar las sugerencias HTML de las Herramientas para webmasters. En este caso, posiblemente debamos añadir nuestro dominio tanto con el prefijo www. como sin él, en las Herramientas para webmasters, con tal de evaluar ambos sitios.

En mi caso, me he encontrado que el sitio indexado por Google era el dominio sin www. , cuando el que yo había añadido a las Herramientas para webmasters era precisamente, el dominio con www.

Una vez añadidos los dos dominios, he podido obtener las sugerencias de Google respecto a los títulos y descripciones de mi página web.

Títulos y descripciones: conclusión

Volviendo al tema de los títulos y las descripciones, Google nos recomienda:

  • Crear descripciones sin contenido duplicado, donde se presente la información de forma clara y separada. Las buenas descripciones han de ser completamente comprensibles para los usuarios, ya que es a éstos a quien van dirigidas, y sobre todo, descriptivas.
  • Crear títulos que también describan cada web. Por ejemplo, no es bueno incluir únicamente el nombre de un producto en el título, sino que se recomienda incluir qué hace ese producto, o cuales son las principales funcionalidades del mismo, del estilo «Nombre del producto: palabras clave«. Todo, en un máximo de unos 60 caracteres. Google lo comenta aquí, destacando que un buen título:
    • Aprovecha al máximo el espacio dado al título.
    • Describe de forma precisa la página y el producto tanto a los motores de búsqueda como a los usuarios.
    • Incluye palabras que los usuarios usarían para encontrar el producto.

Páginas de error personalizadas

Error 404A raíz de mis intentos para mejorar el posicionamiento y la usabilidad de alguna de mis webs, y siguiendo con la entrada anterior, me he decidido a incluir páginas de error personalizadas.

He empezado con una página personalizada para el error HTTP 404, el típico error de «página no encontrada», siguiendo estos pasos:

  1. He creado una página de error personalizada, a la que he llamado 404.html
  2. Posteriormente, he abierto el bloc de notas, y he creado un fichero llamado «.htaccess» (sin comillas) con el siguiente contenido: «ErrorDocument 404 http://www.your_domain.com/404.html» (donde he substituido your_domain.com por mi dominio. También sin comillas).
  3. Finalmente, he subido ambos archivos a la raíz de mi servidor.
  4. Con un test como http://www.your_domain.com/pagina_no_existente.html he comprobado el correcto funcionamiento de la nueva página de error.

Estos pasos, me los ha descrito mi hosting, pero son comunes para la mayoría de hostings.

Posteriormente, he añadido también las páginas personalizadas para los errores:

  • HTTP 403 – Forbidden (Prohibido)
  • HTTP 500– Internal Server Error

También he tenido que modificar el archivo .htaccess con las correspondientes líneas:

  • ErrorDocument 403 http://www.your_domain.com/403.html
  • ErrorDocument 500 http://www.your_domain.com/500.html

Para concienciarse sobre la importancia de las páginas de error personalizadas, recomiendo leer este artículo.

Sitemap.xml y robots.txt

RobotLa verdad que con algunas webs me harto de repasar líneas y líneas para conseguir un código sin ningún error de validación HTML ni CSS (aprovecho para dar las gracias a w3c schools y su fantástico validador). Y ni aún así parece que sirva demasiado, en cuanto a posicionamiento.

También intento «currarme» los meta tags, para los cuales intento usar algún generador online cuyos resultados reviso en busca de posibles errores.

Finalmente, están dos puntos de los que suelo olvidarme (y que explicarían mi fracaso siempre que intento meterme en temas de SEO):

  • El archivo de sitemap.xml, que describe las páginas que conforman mi sitio web.
  • El archivo robots.txt, que contiene información para los rastreadores que usan los buscadores.

Afortunadamente, Google nos lo pone fácil para generar estos dos ficheros. Únicamente deberemos seguir los pasos descritos a continuación:

  1. Entrar en Google Webmasters Tools, donde podremos iniciar sesión con nuestra cuenta de Gmail.
  2. Desde la página principal, podremos añadir un sitio, del estilo «www.miweb.com». Al añadirlo, se generará una línea en html con un código que deberemos copiar y pegar en el código de las páginas que conforman nuestra web, dentro del apartado «<head>», junto al resto de «meta-tags».
  3. Una vez actualizadas las páginas de nuestra web, con el código identificador de Google, podremos «validar» el sitio, demostrando así la propiedad del mismo.
  4. Desde este momento, se podrá acceder al panel de control del sitio web, siempre desde Google Webmasters Tools, donde tendremos las opciones para generar el Sitemap.xml y el archivo Robots.txt.
  5. Desde Panel -> Información del sitio -> Sitemaps, podremos subir nuestro sitemap. Google nos ofrece la posibilidad de generar el archivo de sitemap, pero para eso necesitaremos tener acceso al servidor que aloja nuestra web, además de permitir la ejecución del script que genera el archivo. En su lugar, también podemos usar alguna de las múltiples páginas que generan de forma online el archivo xml.
  6. Una vez generado el archivo xml, deberemos subirlo en la raíz de nuestra web, y indicarle a Google que ya disponemos de sitemap, en la dirección www.miweb.com/sitemap.xml.
  7. Desde Panel -> Información del sitio -> Acceso de rastreadores, lo tendremos más fácil para generar el archivo robots.txt. Únicamente deberemos pulsar sobre la opción «Generar archivo robots.txt» para descargar un archivo robots.txt que también deberemos subir a la raíz de nuestro servidor.

Con esto, estaremos un poco más cerca de tener una web optimizada para su inclusión en los principales navegadores. Y digo un poco, porqué en realidad la importancia de una web la mide el famoso PageRank, que no es más que un número que indica la popularidad de un sitio en función, sobretodo, de los enlaces externos que le hacen referencia, y la importancia de dichos enlaces.

En cualquier caso, no pierdo la esperanza de que con los ficheros de sitemap y robots, ayuden a incrementar la visibilidad de mi web. Crucemos los dedos.