Skyskraber.dk
BERT Algoritmen - Kort Fortalt

BERT Algoritmen - Kort Fortalt

Promovering

Google har for nyligt lanceret deres største algoritme opdatering siden Rank-Brain. Algoritmen er blevet døbt BERT, og har til formål at hjælpe Google med at forstå, hvad intentionen bag en søgning er. Dette skal forhåbentlig give mere relevante og brugbare resultater, når vi søger os frem til information i fremtiden.

BERT kommer til at påvirke cirka 10% af alle søgninger. Derfor kommer BERT altså til at påvirke en kæmpe del af verdens hjemmesider. Herunder vil vi gennemgå, hvornår BERT kom, hvad BERT er, samt hvordan BERT fungerer.

Hvornår kom BERT?

BERT begyndte at blive implementeret i Googles søgesystem omkring d. 21 October 2019. Dog var det kun engelsk-sprogede søgninger, samt featured snippets på engelsk, der blev påvirket af BERT omkring d. 21 October.

Algoritmen er dog planlagt til at skulle implementeres på alle de sprog, som Google dækker. Hvornår implementeringen kommer til at ske, på de forskellige sprog, vides endnu ikke, hverken af os eller Google.

Hvad er BERT?

BERT, der er en forkortelse af Bidirectional Encoder Representations from Transformers, er en neural netværksbaseret teknik til bearbejde og forstå almindeligt sprog, samt hensigten og intentionen bag sproget.

Eksempelvis vil den på almindelig dansk hjælpe Google med bedre at forstå sammenhængen mellem ord, der forekommer i de forskellige forespørgsler på Google. Tag eksempelvis de engelske sætninger “nine to five” og “a quarter to five”, hvor bindeordet “to” har to vidt forskellige betydninger. Det er tydeligt for mennesker, at bindeordet ikke betyder det samme, hvilket ikke er lige så tydeligt for en søgemaskine.

BERT skal altså skabe mere nuance i søgningerne, således at vi får de resultater, vi søger efter.

Hvordan fungerer BERT?

BERTS helt store force, og banebrydende teknik for den sags skyld, ligger i evnen til at træne forskellige sprogmodeller, således at den forstår hele fraser i en sætning, og ikke blot ord for ord.

BERT gør det muligt for sprogmodellen at lære, hvilken kontekst ordet er indsat i, baseret på sætningens øvrige ord. Dette er en helt ny måde at forstå søgninger på, hvor man før i tiden først har læst den første ord til venstre, og derefter ord til ord mod højre.

Kort fortalt, så læste Google før hvert ord for sig, hvorimod BERT hjælper Google til at forstå sætningen som helhed, og endnu vigtigere, hvad sætningen betyder.

Tak til iBob.dk
Tak til iBob.dk for deres støtte i forbindelse med udarbejdelsen af denne artikel. Hos iBob kan du blandt andet købe kontorartikler.

about us
Mit navn er Simon. Til hverdag driver jeg det organiske marketingbureau Nutimo. Dette er blot et sted hvor jeg skriver om markedsføring, webudvikling og tiltag du kan gøre i din virksomhed.
Seneste indlæg