Cuando se trabaja con el CMS más popular del mercado, se deben tener en cuenta varios aspectos a la hora de perfilar las acciones SEO para WordPress. No basta simplemente con diseñar un sitio web estéticamente agradable y funcional. A menudo, es necesario ir más allá de las preferencias iniciales del cliente o los colores del sitio.
Optimizar este CMS es un proceso mucho más complejo, que implica un enfoque en la creación de contenido relevante y útil para el usuario. Además, es esencial entender y satisfacer las expectativas del usuario en términos de la disposición y presentación de la información.
Lectura del sitio: rastreo por parte de Google. Aspectos básicos
Un usuario busca contenido que responda a su intención de búsqueda. Por lo tanto, es fundamental facilitar el rastreo del sitio por el bot de Google. El objetivo es que este bot pueda seguir todas las páginas y URLs de nuestro sitio de una manera eficiente y comprensible. Este rastreo facilita la indexación y posicionamiento de nuestro sitio web. El SEO en WordPress, como en otras plataformas como PrestaShop, Drupal, Shopify, Magento, entre otros, sigue los mismos principios básicos.
El código HTML es la primera información que Google lee de nuestro sitio. Este se combina con otros códigos, como CSS para estilos y PHP junto con JavaScript. Aunque hay que tener en cuenta que el código PHP puede causar contratiempos, ya que WordPress a menudo incluye demasiado código, también es crucial entender la interacción de este con JavaScript y cómo afecta a la longitud del contenido. Estos factores son determinantes al establecer el orden y la estructura en la que presentamos nuestro contenido a los clientes y al bot de Google.
Dentro de las limitaciones que presenta el gestor de contenidos, nuestro objetivo es generar el código más limpio posible. Esto se puede lograr disponiendo los javascript no críticos al final del contenido o incluso en el footer, no intercalando scripts ni estilos dentro del HTML principal, a menos que sea estrictamente necesario. También es importante precargar imágenes JavaScript y CSS esenciales para que el sitio se pueda visualizar correctamente tanto por Google como por los usuarios.
Estructura de página y buen uso de los encabezados
Es crucial utilizar de manera correcta las etiquetas HTML, como los encabezados h1, h2, h3, h4, h5, h6, así como las etiquetas de párrafo, negritas o «strong», y listas en formato OL o UL. Así presentamos un código más limpio y mejor estructurado, lo que facilita la lectura por parte del bot de Google. Hay que tener en cuenta que los temas de WordPress o constructores visuales suelen añadir código innecesario, lo que ralentiza la lectura del bot. Por ello, favorecer un código limpio y ágil facilita el proceso de rastreo y puede marcar la diferencia entre una web que carga rápidamente y una que no.
Entender una página web como una casa grande con muchas habitaciones es útil para conceptualizar el proceso de rastreo. El bot de Google es como un invitado que visita todas las habitaciones una a una. Un factor clave en esta interacción es el tiempo de rastreo, equivalente al tiempo que el bot pasa en nuestro sitio. Dependiendo de la relevancia y autoridad de nuestro sitio, este tiempo puede variar. Nuestra tarea es ordenar y estructurar nuestra «casa» de manera que el bot pueda revisar todas las «habitaciones» de manera eficiente y rápida.
Importancia de los enlaces internos
Los enlaces internos en nuestro sitio, que podemos disponer a lo largo de todas las URLs, en el menú, el contenido o el footer, son otro factor a considerar. Debemos indicar a Google qué partes de nuestro sitio debe visitar, ya que algunas «habitaciones» pueden contener información privada o no relevante. Para ello, podemos usar el archivo robots, que nos permite indicar a Google qué páginas puede y no puede ver.
Además, podemos ofuscar los enlaces, es decir, cambiar las puertas para que Google entienda que no hay ninguna ahí. Aunque esta práctica no está prohibida por Google, es un área gris y debe hacerse con cuidado para no perjudicar la experiencia del usuario. Según John Muller de Google, si la ofuscación se utiliza para ayudar a Google a enfocarse en las partes importantes de la web, es aceptable.
Asimismo, debemos recordar que Google renderiza los Javascript. Algunos estudios y experimentos indican que la única forma de ofuscar correctamente un enlace es utilizando una solución en base 64. Esta convierte el enlace en un código HTML, que luego un script JS transforma en un enlace visible para el usuario. En cuanto al aspecto técnico, existen explicaciones detalladas de este procedimiento que se pueden aplicar tanto a WordPress como a otras plataformas como PrestaShop, o a sitios web codificados de forma personalizada
Bloqueo por robots u ofuscación: diferencias y comparativa
Ahora bien, ¿en qué se diferencia el rastreo, bloquearlo mediante robots u ofuscar los enlaces? Bueno, por un lado, al final, cuando nosotros hacemos una estrategia de interlinking, debemos tener en cuenta que Google o el bot de Google rastrea 100 enlaces cada vez que aparece por una URL. Esto ocurre sin importar si es un medio, una web pequeña u otro tipo de página web. Siempre tendrá como máximo de 100 lecturas de URL o de enlaces, sean internos o externos.
Sabido esto, debemos contar con que, tras diversos experimentos, hemos observado que no hay un orden lógico. Es decir, no lee primero los 20 primeros y luego los 30 siguientes o los 100, sino que es arbitrario. Pero los enlaces que están más arriba a la izquierda en el frontend, es decir, más arriba dentro del código, tienen una mayor repetición a la hora de ser leídos por el bot.
Entonces, con esto debemos entender que los enlaces más importantes deben estar en la parte de above the fold o lo más arriba posible, incluyendo en el menú e incluso al comienzo del propio contenido. Además, debemos tener en cuenta otro pequeño detalle y es que Google, a la hora de repartir ese PageRank y favorecer el link juice, reparte esa autoridad entre tantos enlaces como hay en una URL.
Si tenemos una autoridad o un PageRank de 100 y tenemos 100 enlaces, se repartirá entre 100, es decir, a 1 por cada enlace que tengamos. Si contamos con que hay 2 o más enlaces a la misma URL, esa partición se seguirá haciendo, será uno por cabeza. Pero con una salvedad, cuando hay enlaces repetidos, a partir del segundo enlace, solamente el primero se reparte ese PageRank. Así que si tenemos cuatro enlaces a la misma URL solamente se contará el primero y perderemos todo el PageRank. Tiraremos por la borda la autoridad.
La única formulación que permite el buscador para seguir dos enlaces y transmitir PageRank es un enlace de imagen y un enlace de texto. Es la única combinación posible. A la segunda imagen también ocurre lo mismo que con el texto. Esto es algo muy importante en los e-commerce, que es una entidad de catálogos en los que se repiten muchas veces estos enlaces, pero también para medios, portadas, blogs, etc.
De esta manera, lo más inteligente es siempre optar por los enlaces de anchor text exactos que queremos disponer al principio del contenido. Más adelante en el texto, podemos incluir los enlazados externos. Como el propio Google está indicando a lo largo de sus últimos papers y exposiciones, cada vez es más importante la autoridad con esa E agregada a LEAD que desde el update de mayo de 2020, e incluso el de 2018, ya ha ido mejorando y atribuyéndole una mayor importancia.
Ahora, ¿qué importancia puede tener un enlace externo? Bueno, un enlace externo siempre debe ir enlazado a una fuente de autoridad. Si hablamos de algo relacionado a la salud, lo lógico es que le enlacemos a un organismo público mundial, un hospital o algo que tenga relevancia en el tema. No es lo mismo que, por ejemplo, quer…
Por otro lado, si se cuentan con 2 o más enlaces a la misma URL, esa partición se sigue haciendo, será uno por cabeza, pero con una salvedad. Cuando hay enlaces repetidos, a partir del segundo enlace, solamente el primero reparte ese PageRank. Por lo tanto, si se tienen cuatro enlaces a la misma URL solamente se contará el primero pero se perderá todo el PageRank. En esencia, se estará desperdiciando autoridad. La única formulación que permite el buscador para seguir dos enlaces y transmitir PageRank es un enlace de imagen y un enlace de texto. Es la única combinación posible. A la segunda imagen también ocurre lo mismo que con el texto.
Esto es algo muy importante en los e-commerce, que son una entidad de catálogos en los que se repiten muchas veces estos enlaces, pero también para medios, portadas, blogs, etc. De esta manera, lo más inteligente es siempre optar en el principio de contenido, esos enlaces de anchor text exactos que se quieren disponer y luego más adelante en el texto se pueden incluir los enlazados externos. Como el propio Google está indicando a lo largo de sus últimas publicaciones, cada vez es más importante la autoridad con esa E agregada a LEAD. Esto se ha notado desde el update de mayo de 2020, e incluso el de 2018, atribuyéndole una mayor importancia.
Ahora, ¿qué importancia puede tener un enlace externo? Un enlace externo siempre tiene que ir enlazado a una fuente de autoridad. Si se habla de algo relacionado a la salud, lo lógico es que se enlace a un organismo público, que sea mundial en este caso, un hospital o algo que tenga relevancia en el tema. Porque no es lo mismo que, por ejemplo, se quiera enlazar a un medio de comunicación. ¿Por qué? Primero, porque en los medios de comunicación es raro que escriba un médico. Como ocurre en los portales especializados, en los portales médicos.
Luego, por otro lado, esas fuentes también pueden ir a los propios papers o a las propias fuentes de estudios realizados que pueda ser un premio Nobel, que pueda ser también un estudio que tenga… O que esté clasificamente relacionado con la naturalidad, como por ejemplo con la COVID
Enlazado interno
Ya hemos visto que el enlace interno también es crucial y los lugares en los que tenemos este enlace son determinantes. El siguiente paso que toma Google al posicionar nuestra web es, una vez que la ha rastreado, renderizar la página. Por ello, es vital intentar no bloquear la carga del JavaScript crítico, es decir, de ese código que podría impedir que se cargue la web y, por lo tanto, que ni los usuarios ni el bot de Google puedan acceder a ella.
Una vez que no hay problemas de renderizado, lo que podemos verificar navegando o incluso a nivel del propio bot de Google, el siguiente paso que Google toma para posicionar es la indexación. Es importante distinguir entre indexación y posicionamiento, ya que solo se posicionan las páginas que están indexadas y que mejor se adaptan a una intención de búsqueda específica. Los criterios de indexación de Google son varios y variados. Por un lado, la web debe ser relevante, porque si tiene una penalización manual o algorítmica, o si Google considera que es spam, no la tendrá en cuenta.
Es importante tener en cuenta que varias URL de nuestro proyecto pueden estar orientadas a posicionarse por la misma palabra clave o la misma intención de búsqueda. En este caso surge la canibalización, y Google puede entender que varias están luchando por posicionarse para los mismos términos, por lo que ninguna alcanza su potencial de posicionamiento, y a veces ni siquiera se posicionan. Uno de los motivos por los que Google podría no indexar una página o URL concreta es porque no es suficientemente relevante o tiene «sin contenido». En el pasado, se entendía que una página carecía de contenido si tenía menos de 250 palabras. Actualmente, una intención de búsqueda se puede resolver con un vídeo, un podcast, una infografía o texto.
Por ejemplo, la intención de búsqueda de «los goles del Real Madrid o el Barça de la jornada» se resolvería mejor con un vídeo que con un relato escrito. De manera diferente, si queremos leer un estudio académico específico sobre salud, el estudio directo de la fuente será siempre más valioso que una explicación. Sin embargo, si tenemos dos listados, por ejemplo, «los mejores alimentos ricos en hierro» y «los mejores alimentos contra la anemia», es probable que ambos contenidos compitan por aparecer para la misma intención de búsqueda. En estos casos, la indexación se ve afectada y puede indexar el contenido menos optimizado para SEO.
Esta situación también afecta al «crawl budget» (presupuesto de rastreo) porque Google estará leyendo varias páginas similares o con la misma intención de búsqueda, cuando podríamos ahorrar este proceso. ¿Cómo se puede ahorrar este proceso? Mediante una buena gestión de las redirecciones. Si tenemos una URL que es mucho más completa o que está rankeando sobre otra, siempre podremos fusionar el contenido y tratar con una redirección 301 de página a página.
Las canibalizaciones, que pueden llegar a ser beneficiosas, forman parte de lo que llamamos el interlinking. Hay códigos 301 que, al igual que las webs que salen bien con código 200, hay otros códigos que son de origen 300, es decir, 302, 303, 304, hasta 310. A partir de ahí, no suele ser habitual ver ninguno, y luego los 400 y los 500. Todos estos afectan también al presupuesto de rastreo. En un enlace roto, además de contar con un enlace o una salida en otra página, puede ser un 404 interno o externo.
Por otro lado, los códigos 500 representan errores del servidor, generalmente asociados a la empresa de hosting, aunque no siempre es así. Pueden corresponderse con que la página se ha saturado, bien porque ha habido muchas peticiones en poco tiempo, un ataque DDoS, o porque ha habido más de lo que habitualmente el servidor puede manejar. Los errores 500 pueden tener su origen en hasta 10 tipologías distintas, por lo que en estos casos hay que estudiarlo. Todos ellos cuentan para el presupuesto de rastreo.
Los códigos 304 son útiles para mejorar el «crawl budget» porque indican que el contenido se mantiene en la caché de Google porque no ha cambiado, lo que ahorra tiempo de rastreo. Es como si tuviéramos una habitación que está totalmente igual que la última vez que Google la visitó y, por lo tanto, no necesita volver a entrar una vez que la ve desde fuera. Ya sabe que está totalmente igual.
Otro de los puntos importantes a tener en cuenta en la velocidad de página y también a la hora de estructurar el sitio es el propio tema. Podemos optar por Astra o por Generic Pledge, Block. Estas palabras son livianas en un sentido amplio, pero también cuentan con algunas limitaciones si lo que queremos es trabajar en bloque los datos. Es decir, para una estructura realmente flexible, estos pueden llegar a servir, pero si lo que queremos es trabajar con hojas de cálculo a gran escala, necesitamos constructores visuales.
Constructores visuales como Elementor, Divi o incluso Ludenberg pueden ser útiles para este propósito. Estos nos permiten construir a través de Generic CompressBlock, que también podemos hacer con Astra. Sin embargo, necesitamos ciertos detalles de PHP para poder hacer una función parecida a los Advanced Custom Field que tienen tanto Divi como Elementor y otros constructores visuales. Si deseas optar por una gestión visual, es decir, frontend, de lo que sería la construcción web, te recomiendo DIVI.
DIVI es mucho más flexible que Elementor, tiene más opciones de SEO, es más segura y tiene varias compatibilidades que evitan problemas de duplicación o de páginas. Por ejemplo, uno de los problemas más comunes que tiene Elementor, y a veces Divi, es que puede duplicar las páginas de tal manera que añade un «-2″ al final y genera redirecciones 301 de la página original a la que acaba en un 2 o en un 3. Estas redirecciones tienen una contrapartida canónica que genera problemas al buscar el origen sin conocerlo.
En DIVI, este problema es menos frecuente, ya que se requiere de plugins que cambien la URI, es decir, la URL, y se requiere de ciertas modificaciones sin tener mucho orden crítico. Aunque puede ocurrir, el caso de Divi es más propenso a mostrar otros problemas. Por ejemplo, puede introducir imágenes como si fueran las URL de las páginas o de los blogs, lo que aumenta exponencialmente las páginas arrastradas por parte de Google.
Otro problema que presenta Divi, si no se gestiona correctamente desde la estructura de enlazado personalizado, es que los blogs pasan a tener una estructura URL compleja. En estos casos, Divi suele enlazar las etiquetas rel=»next» para Google, aunque no es tan amigable en este sentido como otros constructores. De hecho, hay temas que requieren de ajustes en la parte de la función PHP para poder establecer las etiquetas rel=»next» y rel=»premium», e incluso a veces hasta las propias canónicas.
Con una buena estrategia a la hora de construir las URLs es suficiente. Incluso el Permalink Lite o la versión Pro, que te permite tener un mayor control sobre estas estructuras, puede ser más que suficiente para tener bajo control tu sitio. Ahora, si tienes muchas paginaciones en tu sitio, bien porque tengas un blog muy amplio, medio o incluso un e-commerce, hay ciertas fórmulas de poder reducir esas paginaciones.
En estos casos, lo más aconsejable es ofuscar la paginación, que el usuario pueda seguir leyendo todo lo que quiera y gestionar la zona interna de cada subsección mediante un HTML específico, un sitemap HTML específico para cada subsección y otro más para el mapa general. Esto hará que sea mucho más fácil para el usuario y para Google navegar por la web. De esta forma, conseguimos que una profundidad de clic igual a tres, que es otro de los puntos importantes del rastreo, y que también favorece al usuario, llegue al menos a tres clics a cualquier parte de la web.
Continuando con la generación de contenidos y la correcta disposición de los enlaces, es importante tener en cuenta que el enlazado externo funciona de igual manera que en cualquier proyecto. Para que sea lo más óptimo posible, necesitamos que las páginas a las que estamos enlazando sean fuentes autoridades del tema, y si podemos evitar que sean competidores, mucho mejor. Asimismo, dentro de estas fuentes de autoridad o incluso de medios, muchas veces es mejor que sea un medio específico que un medio generalista.
Autoridad y EEAT
Es importante tener en cuenta el perfil de enlaces de páginas externas, ya que podría ser que se vendan enlaces de manera fraudulenta. Se deben considerar aspectos como el volumen, la visibilidad y la tendencia de los enlaces. Herramientas como Semrush, Sistrix o href son útiles para detectar si existen penalizaciones. Asimismo, es crucial identificar las palabras clave con las que estas páginas posicionan, las cuales deben estar alineadas con las nuestras.
La mención de autoridad o el enlace externo puede ser un indicador de credibilidad. Imaginemos que llegamos a un pueblo y necesitamos un dentista. Si el borracho del pueblo nos recomienda uno, su opinión puede ser dudosa por su evidente falta de credibilidad. Sin embargo, la opinión de un cliente satisfecho o recurrente puede tener más peso. Por eso es importante considerar todas estas opiniones, que se pueden encontrar en foros o en My Business.
El camarero del pueblo, por otro lado, podría proporcionar detalles útiles de pacientes que han acudido a los dentistas locales. Finalmente, un médico generalista o un dentista que ha trabajado con el dentista en cuestión podrían proporcionar una recomendación valiosa. Si extrapolamos estos escenarios a la generación de enlaces externos de la web, tendríamos el símil perfecto.
Velocidad de carga y experiencia de usuario
En cuanto a la velocidad de carga de la web, otro punto importante a considerar son las fuentes. Aunque estamos hablando de recursos externos, podríamos llegar a cargarlas desde la propia web de su propio FTP. No obstante, se recomienda no utilizar más de dos o tres y sólo cargar los estilos que son necesarios. Para optimizar este aspecto, debemos intentar que se carguen de forma eficiente desde el principio, con el Prefetch, o al final teniendo en cuenta que pueda afectar al CLS. En este último caso, deberíamos considerar el coste-beneficio de hacerlo.
Un buen indicador de la experiencia del usuario en la página es el CLS. Este es uno de los factores que más afecta a la clasificación en los Core Web Vitals. Podemos evaluar todos estos aspectos con herramientas como GTMetrix o Pingdom, las cuales nos permiten ver el orden de carga, el tiempo que tardan en cargarse por completo, si tienen bloqueo, etc.
A pesar de la importancia de estas métricas, es fundamental no depender completamente de lo que nos indica PageSpeed Insights. Una página que tarda más de un minuto en abrirse podría estar dando un error 500 debido a una saturación de clientes o a un sobrecupo de URL, algo que puede suceder en WordPress a partir de unas 2000 o 3000 URL. Incluso una web muy utilizada en CMS puede tener más de 90.000 URL y más de 20.000 productos sin que se resienta la velocidad de carga. Es importante tener en cuenta estos detalles para sacar el máximo partido a PageSpeed Insights, la herramienta de Google.
Si un sitio no tiene mucho tráfico, no va a tener datos reales, sino solo de laboratorio, que están muy alejados de la realidad. Sin embargo, los datos reales para empresas que tengan mucho tráfico de otros países, especialmente de Latinoamérica, se promedian. No es lo mismo alguien que se convierte desde España, donde es raro no tener 4G o fibra, que con países de Latinoamérica con una conexión demasiado lenta, lo que muchas veces hace que esa media baje notablemente. Esto nos indica Google y no significa que esté mal si tenemos algún problema, sino que debemos saber qué porcentaje de tráfico nos entra desde qué parte del mundo.
Múltiples idiomas y versiones por países
Ahora bien, en esto entra en juego el SEO internacional y tenemos que tener en cuenta que, según la orientación de la empresa y los servicios que quiera prestar, hay tres opciones: establecer dominios, establecer subdirectorios o crear unas páginas nuevas con extensiones diferentes (.com, .es, .de, etc.). A excepción de los subdirectorios, el resto es como si empezáramos de cero en cuanto a autoridad. Con los subdirectorios, esto es mucho más controlable porque se sigue repartiendo autoridad por todo el sitio, aunque corremos el riesgo de que, al igual que en la multitienda, el rastreo no sea lo más eficiente para cada idioma.
Además, tenemos que establecer muy bien las etiquetas hreflang para cada país, es decir, si tenemos una página en ocho idiomas diferentes, tenemos que establecer un mínimo de 8 etiquetas hreflang. Luego también debemos tener en cuenta si hay mucho mercado o suficiente para justificar que, por ejemplo, en Inglaterra tengamos el idioma español o en España tengamos el idioma inglés o alemán. A su vez, hay que tener mucho cuidado con los canonical y estamos hablando de algo que se hace de una forma más o menos genérica tanto en Prestashop como en WordPress.
WordPress y Prestashop intentan respetar al máximo el hreflang, pero WordPress necesita plugins para poder realizarlo de una manera más eficiente en vez de tener que modificar los archivos de funciones y entrar en programación PHP. Aquí, los programas más utilizados no solo por su practicidad, sino también por las herramientas a nivel de SEO que proporcionan, son los que se recomendarían para trabajar sobre ellos, ya sea para una web pequeña o grande.
El tema importa, y mucho
Otro punto a tener en cuenta son los temas que utilizamos. Algunos de ellos están pensados directamente para SEO y son más livianos, como Astra o Generic Press, mientras que otros, los visuales, tienen una carga de código PHP que los ralentiza. La elección dependerá en gran medida de cómo queremos trabajar nuestra web. Si es un proyecto que va a tener muchos enlaces y habrá que subir contenido de forma masiva, ya sea porque es un e-commerce o un sitio local, o porque vamos a implementar una estrategia muy enfocada en sitios pequeños, hay que buscar opciones que sean capaces de soportar esta gestión.
GeneEdit Press, por ejemplo, permite, mediante código PHP, combinarlo con los plugins de ACF (Advanced Custom Fill), que nos permite rellenarlo con lo que nosotros queremos. En el caso de Astra, necesitamos combinarlo con un constructor visual, como puede ser Elementor o Divi. Esto no es lo más recomendable porque puede sobresatur. Si un sitio no tiene mucho tráfico, sus datos serán meramente de laboratorio, alejados de la realidad. Sin embargo, las empresas con alto tráfico, especialmente de países latinoamericanos, obtienen una media de datos más realistas. Es fundamental entender que las cifras pueden variar notablemente, según el lugar del mundo de donde proceda nuestro tráfico. Por ejemplo, no es lo mismo un usuario que se conecta desde España, donde es raro no tener 4G o fibra óptica, que uno que se conecta desde Latinoamérica, donde la conexión puede ser más lenta.
Estas diferencias pueden influir en las mediciones que nos proporciona Google, lo que no significa que estén erróneas, sino que debemos interpretarlas correctamente. En este sentido, es crucial considerar el SEO internacional, teniendo en cuenta la orientación de la empresa y los servicios que desea ofrecer. Existen tres opciones: establecer dominios, subdirectorios, o crear nuevas páginas con extensiones diferentes como .com, .es, .de, etc. A excepción de los subdirectorios, las demás opciones son como partir de cero en cuanto a autoridad.
Es importante tener en cuenta que si bien con los subdirectorios la autoridad se reparte por todo el sitio, se corre el riesgo de que el rastreo no sea lo más eficiente para cada idioma, similar a lo que ocurre con la multitienda. Además, debemos establecer correctamente las etiquetas hreflang para cada país. Si disponemos de una página en ocho idiomas diferentes, deberíamos establecer un mínimo de 8 etiquetas hreflang. También debemos considerar si hay un mercado suficiente para justificar que, por ejemplo, en Inglaterra tengamos el idioma español, o en España el idioma inglés o alemán.
Plugins
En relación a la elección de temas y plugins, es importante mencionar que algunos de ellos están diseñados específicamente para SEO, y son más ligeros, como Astra o Generic Press. Sin embargo, otros más visuales pueden ralentizar la web debido al código PHP. La elección depende del objetivo de nuestra web. Si es un proyecto que va a tener muchos enlaces y se va a subir contenido de forma masiva, hay que buscar opciones que sean capaces de soportar esta gestión, como Google Sheets u otros plugins.
Constructores visuales
En el caso de un constructor visual como Elementor o Divi, debemos tener cuidado con no sobresaturar la web. A pesar de que no es lo más recomendable, siempre podemos trabajar más en la optimización a nivel de plugins y servidores de caché. En el caso de Divi, es importante tener en cuenta que si clonamos una página, el canonical a menudo apunta a la página original, lo que puede generar un bucle no deseado.
Plugins SEO
Respecto a los plugins SEO, hay muchos que pueden afectar en diferentes etapas de la carga de la página, incluyendo la carga de iFrames. Es importante evitar los iFrames en la medida de lo posible. De todos los plugins de SEO para WordPress que he probado, personalmente prefiero RankMath, porque es el más completo y ofrece la mayor cantidad de opciones, a pesar de ser el más pesado.
Analítica
La analítica es un aspecto crucial en cualquier proyecto web. Es esencial trabajar con herramientas como Google Tag Manager, Google Analytics y Google Search Console. Estas herramientas nos permiten obtener una visión global de nuestro tráfico orgánico y segmentarlo por domin) En función de los verticales, luego trabajamos por URL. Cuanto más grande sea el proyecto, mejor vamos a controlar todo si hacemos varias cuentas en base a la URL. Primero, porque luego si trabajamos con Screaming Frog, conectarlo con la PSS Console tiene un máximo de 200-300 llamadas. Nunca vamos a sacar los datos exactos por otro lado, porque la PSS console a veces tiene una pequeña pérdida de datos.
Sin embargo, cuando trabajamos con directorios más pequeños, es más exacto. En el caso de Analytics es algo distinto, ya que lo necesitamos para eventos y redes sociales, que no son medidas por Search Console. También lo usamos para rastrear formularios, llamadas, etc. Vamos a controlar todo mediante los eventos dentro de Analytics, así como con Tag Manager. Esto último también nos serviría para llevar el control de las campañas de Google Ads.
Sitemaps
En cuanto a la indexación de la web, podemos hacer algo similar a lo que hemos hecho con los directorios, pero con los sitemap. Los IMAPs no ayudan a indexar, pero sí, favorecen el rastreo. Aun así, no es que sea algo que realmente vaya a ayudar, ya que incluso SyMaps de XML puede conseguir posicionar, indexar y posicionar más de 100.000 URLs. Además del API de Google, que nos indica la indexabilidad de nuestro sitio, también vamos a poder establecer qué vertical presenta problemas o no.
Por ejemplo, si tenemos un sitemap XML por cada vertical, podemos después extrapolar cuáles son las verticales con más páginas indexadas. Esta es una medida importante también para hacer redirecciones específicas cuando hemos hecho una migración o para borrar URLs que no queremos que estén. Podemos hacerlo tanto con el htaccess, igual que las recepciones, o con plugins. También podemos intentar que Google lea de una forma más rápida mediante imágenes.
Revisión de Logs SSL del servidor
Por otro lado, tenemos el rastreo mediante los logs. Nosotros hemos podido establecer una gran mecánica de rastreo, un gran interlink, un gran baiting. Sin embargo, cómo Google ve nuestra web, va a depender de los enlaces externos con los logs SSL. Nosotros vamos a poder saber cuáles son las páginas más vistas, si está más visto el vertical más transaccional o, por ejemplo, si vemos un blog. En base a eso, podemos establecer la estrategia del lanzamiento interno hacia esas zonas que más nos interesen, redirecciones si fuera el caso.
Fuentes y otros elementos para posponer su carga
Otro punto a tener en cuenta son las fuentes, el código script o el HTML para saber si tenemos que buscar, quitar o hacer un cambio también en ese apartado técnico. Esto es algo que Search Console también nos permite ver en cierta medida en los fallos del servidor. Aunque va con 3 días de retraso, podemos establecer algunas alertas mezclando Search Console con Google Sit, mandando esas alertas al correo o incluso con otros programas que puedan avisarnos mediante Telegram o Whatsapp de caídas concretas del servidor.
Raspado y análisis
Por otro lado, también podemos establecer algunos escáneres propios o utilizar Screaming Frog para identificar problemas técnicos en la web. Como, por ejemplo, si el número de paginaciones corresponde al número de páginas indexadas, lo que puede ser un indicativo de problemas. Supongamos que tenemos una estructura vertical en la que contamos con 100 páginas o URLs, pero existen 20 paginaciones, esto nos alerta de posibles incongruencias.
El porcentaje de páginas indexadas, es decir, las páginas totales, es mucho mayor que las páginas que deberían ser indexables. Esto sugiere que hay más paginaciones indexadas de las que realmente queremos indexar. Estamos frente a un problema de rastreo que, aunque solucionamos las paginaciones, no puede ser corregido completamente. Por ejemplo, podemos visualizar la cantidad de errores 404 y 500 de manera más fácil con el ToolFrog, que incluso nos indica cuáles son las fuentes de las redirecciones 301.
Estas redirecciones pueden originarse desde WordPress, HTAccess o algún plugin. Además, la herramienta nos permite vislumbrar otros problemas que puedan surgir, bien sea por redireccionamientos que se realizan o no. Esto es algo que debemos compartir como el bot de Google. Es cierto que en Screaming Frog deberíamos pasarlo tanto como el bot de Screaming Frog como el bot de Google para poder discernir que, en ocasiones, pueden ocurrir errores 500.
Estos errores pueden surgir si no hemos otorgado los permisos adecuados al plugin, lo que genera problemas de compatibilidad con otros plugins, pero solo para el bot de Google. Por eso existen errores que pueden afectar gravemente el posicionamiento, e incluso dañar un sitio sin que nos demos cuenta. Ahora, aparte de todas estas funcionalidades que permite gestionar con herramientas como Sistrix, Ahrefs, SEMRUSH a nivel estratégico, existe otro punto que no podemos obviar, y es la facilidad de indexación de la web.
Tiempo de indexación
Muchas veces, cuando un sitio es nuevo, hay que esperar entre un mes a tres para que algo se integre. O incluso, la mayor cantidad de palabras clave se puede posicionar un poco más si lo gestionamos muy bien. Incluso en un par de semanas, si hemos subido mucho contenido, podemos forzar a Google a que lea nuestra web y detecte algo. Pero esto es un caso muy específico que solo puede observarse en sitios web automáticos.
Normalmente, al trabajar con clientes no será así, a menos que tengamos un proyecto muy potente en el que invirtamos mucho dinero en enlaces externos. No contamos con una Red Privada de Blogs (PBN), que son tácticas que se consideran parte del territorio del Black Hat SEO. Por eso, debemos manejar estas técnicas con mucho cuidado.
Screaming Frog tiene una herramienta que no se suele utilizar o conocer mucho, que es la indexabilidad del proyecto. Podemos establecer ciertos patrones en general y comparar la diferencia de días entre la última modificación y la última lectura o rastreo. Si hemos modificado el 2 de abril y el último rastreo es del 3 de abril, la diferencia es de un día, lo cual es bastante positivo.
No es lo mismo tener nuestro producto estrella, que algo que es un servicio o producto, incluso una URL dentro de la web que no sea transaccional o que tenga un peso mucho más ligero. Como siempre, todas las métricas que existen en las herramientas deben interpretarse de la manera correcta.
No es lo mismo contar con metatítulos que luego se generan mediante Javascript, que Google puede leer, que de alguna manera que no sea capaz de interpretar esta herramienta. Por eso es muy importante que siempre el ojo humano esté presente, incluso aunque hagamos automatizaciones que se pueden llegar a hacer.
Es por ello que siempre se recomienda realizar primero una consultoría técnica y luego, a partir de esos primeros errores que podemos identificar, establecer una auditoría en profundidad. Esta profundizará más en los problemas, llegará a esos problemas más arraigados en la web y también ayudará con la estrategia SEO para aumentar ventas o alcanzar los objetivos que el cliente se ha marcado.
Compartir esta publicación