El SEO de tu sitio web va mucho mas allá de Keywords y Tags
Se encuentra en el corazón de este: En la arquitectura, en el código y en los datos.
Para crear un sito con un buen SEO hacen falta una serie de habilidades y conocimientos muy amplios, como entender de contenido e interpretación de datos, desarrollo web, diseño, creatividad etc…
Para optimizar el SEO necesitamos una buena estructura y tener en cuenta Indexación, Root domains, Redirecciones, URL´s Canónicas, la estructura de etiquetas de datos, y el CRP (Critical Rendering Path). Mejorar el SEO de un sitio es un campo tan grande, que es imposible abarcarlo de una sola vez. Además los motores de búsqueda como Google o Bing, están continuamente modificando sus algoritmos y reglas.
Como cualquier campaña de marketing la mejor forma para mejorar el SEO es convirtiéndolo en un proceso de mejora continua:
- REALIZAR TESTS
- MEDIR RESULTADOS
- RE-DEFINIR Y MODIFICAR ELEMENTOS
- REPETIR
Google tiene mas del 70% del mercado de buscadores, por lo tanto es una buena idea optimizar el sitio en función de las recomendaciones que nos ofrece. Rapidez y simplicidad son dos de las características que mas aprecia este buscador. Otras cualidades que debe tener un sitio web para tener buena puntuación es ser “User-friendly”, contar con una buena accesibildad ( estándares W3C), Links relevantes, y ser un sitio Auténtico y transparente.
Crear el sitio para las personas que lo van a usar, y no sobre-utilizar trucos técnicos es una recomendación muy extendida entre los expertos de SEO para mejorar el ranking de cualquier web.
5 CONCEPTOS DE SEO
TOP 5: Arquitectura del Sitio
Para mejorar la arquitectura del sitio web hay que facilitar el trabajo que hacen lo motores de búsqueda a través de Crawling e Indexing.
Crawling es la acción de encontrar una página en un sito web para analizar su contenido. Indexing es almacenar la información de esa página en la base de datos del motor de búsqueda.
Los crawlers se fijan en la Popularidad del Sitio y el Nuevo Contenido creado. Es importante contar con una Arquitectura bien definida y organizada. Una buena práctica es contar on una única URL por cada contenido importante y tener cuidado con la generación de URL´s dinámicas al aplicar filtros y crear documentos.
Es importante contar con el el archivo robots.txt que indica al crawler como interpretar tu sitio a través del sitemap.xml y controlando el acceso al sito Desactivando directorios que no aportan contenido como Login, Shopping cart, Avisos Legales, etc..
Otro asunto a tener en cuenta al desarrollar la arquitectura, son los conceptos de Taxonomy (Jerarquía) y Ontology (Relaciones entre conceptos y taxonomy)
HTTPS va a ser el estándar de la web y afecta a ranking de Google.
- Herramientas: Screaming Frog Spider, Google Search Console,
- TIPS: El contenido mas importante no debe estar a mas de 4 Clicks.
- Buen ejemplo de Arquitectura Compleja: Craiglist
TOP 4: URL´s
La estructura de las URL es importante tanto para el UX como para la optimización de motores de búsqueda. Las URLs deberían ser simples y fáciles de entender.
URLS estáticas suelen ser mejores ya que son fáciles de leer, tanto para las personas como para los crawlers. Aunque es importante tener Keywords en la URL, es mejor no sobrecargarla y diluir la fuerza de la misma.
Uno de los problemas mas comunes de las URL’s es la duplicidad de Contenido. Por eso todos los sitios necesitan Canonización de las URL´s: Consiste en convertir datos ue tienen mas de una posible forma de ser representados en un formato standard.
- Usar redirecciones 301 (www , / , aA)
- Vigilar los parámetros que se añade al trackear la página (links con atributo rel=’canonical’)
- Asegurarse de que los status HTTP de cliente y servidor coincidan y sean verdaderos (200, 301, 404)
Otro problema habitual para los crawlers de Google es la paginación. (Prev , next) Mas info
Los esfuerzos de optimización deben ser en Mobil, ya que google está haciendo esfurezos para rankear las paginas en función de la experiencia mobil de los sitos.
- TIPS: Usar guión medio – y solo una URL por página.
- Herramientas: Screaming Frog Spider
TOP 3: Estructura de Contenido
Los sitios SEO-friendly usan varias etiquetas HTML que suelen tener varios errores comunes por no seguir prácticas recomendadas
- <title> Keyword al principio, menos de 50 caracteres, relevante, única
- <Meta description> No tiene impacto directo en Rank. Impacta en los clicks recibidos. Sirve como Advertisement, Keywords. 140 caracteres.
- <h1, h2, ..> Definen Jerarquía. Motores de búsqueda le dan importancia a keywords en estos tags. Tienen que aparecer en order.
- <img> Incluir siempre el atributo
alt
relevante.
Los algoritmos de los motores de búsqueda, además de ser increíblemente complejos, tienen lo que se conoce com TF-IDF (Term Frequency-Inverse Document Frequency) Es una estadística numérica que refleja que importancia tiene una palabra de un documento con relación a una colección.
- Herramienta TF-IDF: www.ryte.com
TOP 2: Estructura de Datos
Tener los datos de tus sitios web bien estructurados y estandarizados, los hacen elegibles para la inclusión en Rich Results, que ayudan a Google a entender el contexto, y si los datos son breadcrumb, direcciones, mapas, etc..
<JSON-LD> es la forma mas comun – y sencilla – de estructurar datos
- Herramientas: Google Structure Tool, schema.org,
TOP 1: Velocidad
La Velocidad de Carga de una página web no es solo buena para SEO, sino que tambien para UX. Los mejores sitios tienen Carga Instantánea (menos de 1 segundo) y para ello hay que Render el DOM en menos de 200 mili segundos, eliminar Redirecs, Minimizar el numero de HTTP calls, Eliminar Blocking Javascript y CSS Y optimizarlo. Un conocimiento exhaustivo del DOM, el Critical Rendering Path y Web Apps Progresivas son la base para crear sitios rápidos con una buena UX y SEO.
- Herramientas:
- httparchive.org (speed and size)
- Google Speed Tools
- Lighthouse Google (Critical Rendering Path)
Bibliografía
Advanced SEO: Developing an SEO-Friendly Website. Linkedin Learn. Brad Batesole