Geschrieben von

BERT

SEO

Im Oktober 2019 wurde seitens Google das Update „BERT“ angekündigt. Zwar führt Google im Jahr mehrere Updates durch, mit BERT wird jedoch eines der größten Sprünge in den letzten 5 Jahren gemacht.

Was ist BERT?

BERT steht für „Bidirectional Encoder Representations from Transformers“. Dabei handelt es sich um einen Algorithmus, der sich NLP (Natural Language Processing) und neuronale Netze zunutze macht. Am 2. November 2018 hatte Google BERT auch als Open Source Projekt vorgestellt.

Anfangs wurde BERT nur für die englische Sprache ausgerollt. Am 09. Dezember 2019 verkündete Google, dass BERT auch für folgende Sprachen veröffentlicht wurde:

Afrikanisch, Albanisch, Amharisch, Arabisch, Armenisch, Aserbaidschanisch, Baskisch, Weißrussisch, Bulgarisch, Katalanisch, Chinesisch (einfach und Taiwanesisch), Kroatisch, Tschechisch, Dänisch, Deutsch, Niederländisch, Estnisch, Farsi, Finnisch, Französisch, Galizisch, Georgisch, Griechisch, Gujarati, Hebräisch, Hindi, Ungarisch, Isländisch, Indonesisch, Italienisch, Japanisch, Javanesisch, Lettisch, Kasachisch, Kanaresisch, Khmer, Koreanisch, Kurdisch, Kirgisisch, Lao, Litauisch, Mazedonisch, Malaiisch, Malayalam, Maltesisch, Marathi, Mongolisch, Nepalesisch, Norwegisch, Polnisch, Portugiesisch, Punjab, Rumänisch, Russisch, Serbisch, Singhalesisch, Slovakisch, Slowenisch, Suaheli, Schwedisch, Tagalog, Tadschikisch, Tamilisch, Telugu, Thailändisch, Türkisch, Ukrainisch, Urdu, Usbekisch und Vietnamesisch.

Wie funktioniert BERT?

Der Algorithmus verarbeitet Wörter in Abhängigkeit mit anderen Wörtern im gleichen Satz. Das Ganze in beide Richtungen. Dafür steht das „B“ in „BERT“, also „bidirectional“. Bisher hatte der Algorithmus Wort für Wort abgearbeitet. Mit BERT sei es nun möglich Zusammenhänge besser zu verstehen. Die Suchintention komplexer Suchanfragen von Nutzern kann somit besser gedeutet werden. Vor allem im Bereich Voice Search dürfte Google hier besser werden. Dafür sorgt auch das „T“ in „BERT“, was für „Transformers“ steht. BERT weiß damit, dass das „es“ im Satz „Das Auto konnte auf der Straße nicht fahren, weil es keine Reifen hatte.“ für „Auto“ steht, und dass das „es“ im Satz „Das Auto konnte auf der Straße nicht fahren, weil es zu nass war.“ für „Straße“ steht.

Auswirkungen wird es auf die normalen Suchergebnisse und Featured Snippets geben. Laut Google wird man mit BERT in der Lage sein 1 von 10 Suchen (zunächst in englischer Sprache) besser zu verstehen. Heißt konkret: 10 % der Suchergebnisse sind vom Update betroffen, was zu einigen Veränderungen führen kann. Denn: BERT zielt auf komplexe Suchanfragen ab und wird daher hauptsächlich Longtail-Keywords betreffen. Weniger betroffen sind Shorttail-Keywords. Diese werden meist auch von SEO-Tools überwacht. Sollte das eingesetzte SEO-Tool keine Ausschläge zeigen, dann liegt das vermutlich an den überwachten Keywords seitens dem Tool. Meist werden hier Shorttail-Keywords überwacht.

Neben komplexen Suchanfragen kann BERT auch bisher für die Suche irrelevante Wörter innerhalb der Suchanfragen wie „for“ oder „to“ besser verstehen. In der Veröffentlichung nennt Google das Beispiel „2019 brazil traveler to usa need visa“ für die normale Suche. Hier wäre „to“ ganz entscheidend, um den Zusammenhang besser zu verstehen. Mit der Berücksichtigung von „to“ ist klar, dass Reisen von Brasilien in die USA gemeint sind und nicht umgekehrt.

Auch für Featured Snippets nennt Google das Beispiel „parking on a hill with no curb“, wo bisher ein starker Fokus auf das Wort „curb“ bestand, ohne das entscheidende „no“ mitzuberücksichtigen. BERT berücksichtigt aber auch das „no“, was plötzlich zu anderen Featured Snippets Ausspielungen führt.

Wie kann man auf BERT optimieren?

Direkte und konkrete Handlungsempfehlungen gibt es hierzu nicht. Hauptsächlich geht es bei BERT um das Verständnis von Suchanfragen. Einige Tipps kann man jedoch berücksichtigen:

  • Inhalte müssen den Intentionen der Nutzer entsprechen
  • Texte sollten natürlich klingen und geschrieben werden
  • Die Texte sollen die Sprache der jeweiligen Zielgruppe widerspiegeln
  • Kurze Sätze schreiben
  • Klare Satzstrukturen

ERNIE vs. BERT

Mit ERNIE hat Baidu einen ähnlichen Algorithmus wie Googles BERT entwickelt, um die natürliche Sprache besser zu verstehen. Mit dem Test „GLUE“ (General Language Understanding Evaluation) kann gemessen werden, wie gut eine künstliche Intelligenz eine menschliche Sprache verstehen kann. Dabei schneidet ERNIE besser als BERT ab (Stand Ende Dezember 2019). Dies kann man im GLUE-Benchmark nachsehen. ERNIE steht für „Enhanced Representation through kNowledge IntEgration“. Baidu hat damit die chinesische Sprache im Fokus. Der Algorithmus kann aber auch auf andere Sprachen angewendet werden. Wie ERNIE genau funktioniert wird in einer wissenschaftlichen Arbeit dokumentiert.

Last modified: 25. Februar 2020