fbpx
  • Inicio
  • Blog
  • Google BERT, el algoritmo que cambiará cómo concebimos el SEO
Google Bert y Posicionamiento Web

Google BERT, el algoritmo que cambiará cómo concebimos el SEO

“En esencia, los motores de búsqueda tratan de entender el lenguaje”. Con estas palabras, Pandu Nayak, vicepresidente de Google Search y líder mundial en ciencia computacional, ha presentado la última actualización del buscador, que ha recibido el nombre de BERT (siglas de Bidirectional Encoder Representations from Transformers, «Representaciones de Codificadores Bidireccionales de Transformadores»).

BERT se ha configurado como una red neuronal de código abierto entrenada por Google para procesar de forma más efectiva el lenguaje natural que utiliza el usuario en las búsquedas.

Esta idea, que puede parecer sencilla en un primer momento, entraña realmente una gran complejidad. De hecho, la compañía californiana ha declarado que esta actualización es “el mayor avance en los últimos cinco años, y uno de los mayores avances en la historia de la Búsqueda de Google”.

La premisa de BERT es ofrecer el resultado que más se acerque a lo que se ha buscado teniendo en cuenta su contexto y siguiendo las pautas de procesamiento de lenguaje natural (PLN), una técnica que se emplea para entrenar sistemas lingüísticos y que estudia cómo hacer que los ordenadores sean capaces de entender la manera en la que se comunican los seres humanos entre sí.

El PLN toma relevancia especialmente cuando la persona que realiza una búsqueda no sabe cómo formularla correctamente, utiliza términos imprecisos o desconoce cómo se escribe una determinada palabra.

Esta misma disciplina ha hecho posible que se desarrollen herramientas de monitorización de redes sociales (social listening), chatbots y las búsquedas sugeridas.

¿Qué cambios plantea BERT en la comprensión de las búsquedas?

Como hemos adelantado, BERT se fundamenta en el procesamiento de lenguaje natural. Esta es una disciplina compleja que engloba el análisis de sentimientos e intenciones del emisor, la predicción de frases sucesivas (llamado en el ámbito de PLN “vinculación textual” o textual entailment), el etiquetado de rol semántico y sintáctico (es decir, definir qué función desempeña cada palabra en un texto) y correferencialidad (determinar cuáles son las palabras que aluden a una misma entidad, como los pronombres que sustituyen a sustantivos en un mismo texto). También se encarga de desambiguar palabras polisémicas (es decir, con diferentes significados) en función de su contexto.

Este último es uno de los grandes retos en los que trabaja el machine learning, ya que el mayor problema al que se enfrenta la Inteligencia Artificial es, precisamente, la ambigüedad del lenguaje natural.

Las máquinas no son capaces de comprender de manera automática cómo se relacionan las palabras de un texto dentro de su contexto lingüístico para poder diferenciar cuál es el significado y la intención del emisor. Por ejemplo, es complejo para los sistemas computacionales distinguir el sentido de las palabras homógrafas por el contexto de la búsqueda. Como ilustración, el término “carrera” podría hacer referencia a unos estudios universitarios o al ejercicio de correr, y el sistema ha de ser especialmente minucioso para comprender las conexiones semánticas que permiten distinguir ambos significados gracias a los matices contextuales.

Además, la Inteligencia Artificial plantea serios problemas para realizar inferencias entre diferentes búsquedas. Esto es un problema sobre todo para las búsquedas conversacionales (por voz), que se asemejan más al lenguaje natural y que emplean más pronombres, por ejemplo. En este caso, si se realiza la búsqueda por voz de “dónde hay restaurantes en Madrid para cenar con mi novia” y, a continuación, “qué puedo hacer antes de ir a cenar con ella”, es muy complicado que los algoritmos comprendan que el término “ella” se refiere a la pareja de la persona que ha realizado la búsqueda.

Por otra parte, los algoritmos clásicos de procesamiento de lenguaje natural, hasta ahora, únicamente extraían conclusiones del contexto de la palabra por el contenido que se encontraba antes o por el que se encontraba después, pero no ambos a la vez.

Los algoritmos de Google tienen problemas para determinar el significado de ciertas palabras y expresiones porque “leen” las búsquedas en castellano en un único sentido. Así, en la búsqueda “Cómo irme de Madrid”, se ofrecen en la primera página resultados que incluyen consejos para mudarse a Madrid, cómo vivir en Madrid o cómo llegar a Madrid.

BERT, sin embargo, sí realiza un análisis bidireccional, es decir, que considera tanto el contenido que precede como el que sigue a cada uno de los términos clave.

Esto hace posible que su comprensión del lenguaje humano sea más complejo y acertado, pues considera todas las capas semánticas en su conjunto y es capaz de resolver con éxito en qué contexto se emplea cada término (en el ejemplo anterior, considerando la preposición “de” como clave para entender el significado de la búsqueda).

La disrupción que presenta BERT no se limita a los modelos contextuales bidireccionales, ya que su ventaja diferencial está en poder aplicarlo en textos de código abierto que no han sido previamente etiquetados.
Antes se necesitaba la ayuda de lingüistas expertos que determinaran qué rol desempeñaba cada palabra en la oración (proceso de etiquetado) para que los algoritmos de Inteligencia Artificial pudieran extraer patrones sobre sus funciones sintácticas y semánticas. Sin embargo, el marco de trabajo de BERT se ha desarrollado a través de la introducción en el sistema de textos planos (sin etiquetar) con más de 2.500 millones de palabras extraídas de la Wikipedia anglófona.

¿Cómo va a afectar BERT al SEO?

La llegada de BERT ha supuesto un gran impacto dentro del Marketing Digital, que se pregunta cómo afectará este nuevo marco de trabajo al SEO.

Sin embargo, desde Google insisten en que lo más importante es ofrecer contenido de calidad para el usuario y su consejo es priorizar siempre que el contenido aporte valor al usuario. Destacan, además, que BERT no debería influir en cómo se optimiza una web ya que ofrecer contenido centrado en el usuario tendría que ser un estándar que se llevara a cabo antes de la irrupción de BERT.

Sin embargo, en cuanto a optimización web, es de esperar que BERT sirva como impulso para mejorar la calidad del contenido que se publica en la web. Esto es debido a que, a partir de ahora, el contenido que sea capaz de contestar de manera completa y adecuada a una query, se posicionará en los primeros puestos.

Por otra parte, es posible que algunas webs dejen de recibir tráfico orgánico si disponen de una keyword confusa o que dé lugar a dobles significados. Así, el tráfico que llegue a una web será cada vez más cualificado y conversivo, pues los usuarios que visiten nuestra web serán aquellos a los que nos dirigimos concretamente y no a cualquier otro.

En cuanto a las webs multi-idioma, BERT plantea premiar la generación de contenido local y específico para cada una de las lenguas en las que opera la web.

Pero, sin duda, el impacto más destacable en las SERP se notará en los rich snippets (los fragmentos destacados), las consultas largas y muy precisas (long tail) y aquellas en las que la búsqueda tiene un carácter conversacional, como las voice search. Esto se debe a que, en este tipo de búsquedas, el orden de los términos y el significado, tanto de las partículas como de las preposiciones, cuentan con especial relevancia.

La conclusión principal que se puede extraer de BERT es que, si los resultados van a acercarse cada vez más a la intención de búsqueda del usuario en lugar de dar prioridad a que las palabras coincidan con la query, lo mejor es optimizar el contenido para los seres humanos.

Además, es esencial crear contenido que realmente responda a cómo realiza las búsquedas la audiencia objetivo (con qué términos y en qué registro) y cómo formula las consultas en el buscador. Una consecuencia será la mayor importancia que tomarán las keywords long-tail, que se acercan más al lenguaje hablado y pueden ser opciones más estratégicas de posicionamiento que una palabra clave genérica que realmente no se corresponda con el contenido específico que se posiciona.

Las novedades de BERT se irán ampliando a todo el mundo progresivamente, aunque de momento solo afecta a las búsquedas que se realicen en inglés en Estados Unidos.

¿Te ha parecido interesante el artículo? Quizá quieras leer:

   Posicionamiento SEO Google BERT Conoce qué es el Voice Search y cómo influye en el SEO

Google BERT SEO ¿Sabes qué son las Audiencias Inteligentes?

Google BERT Posicionamiento SEO Descubre el Inbound Marketing

BERT y SEO Otros artículos sobre Noticias y Actualidad

 

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

agencia marketing online

Gacelaweb es una Agencia de Marketing Digital en Madrid especializada en Diseño y Desarrollo de Páginas Web, así como de Posicionamiento SEO y Campañas SEM, Marketing Online, planes de Social Media, Dominios, Hosting y Soporte Web.

Si tienes alguna idea, algún proyecto o alguna consulta, no dudes en contactar con nosotros:

Teléfono: 916059509
Email: info@gacelaweb.com
Dirección: Calle La Granja,  Alcobendas (Madrid)