Om te beginnen wil ik toch even stellen dat we onszelf gelukkig mogen prijzen dat er zoiets bestaat als een zoekmachine, zoniet zou het haast onmogelijk worden om in de gigantische hoeveelheid webpagina's die het www rijk is onze weg te vinden. Zelfs nu, met het bestaan van zoekmachines, is dat soms al een hachelijke onderneming.
Bovendien wordt er voortdurend aan de achterliggende algoritmes van deze zoekmachines gewerkt om ons betere en meer accurate zoekresultaten te presenteren. Ik denk bijvoorbeeld maar aan de recente veranderingen die Google aan haar eigen algoritmes heeft doorgevoerd, meer gekend als de Google Penguin en Google Panda updates.
Crawlen
Een zoekmachine is de hele dag bezig met het zoeken van bijgewerkte en nieuwe pagina's op het web. Alle teksten worden nauwkeurig gescand en links in deze teksten worden gevolgd om zo vervolgens weer andere web pagina's te ontdekken. Dit proces heet men crawling. De nieuwe informatie wordt vervolgens opgeslagen in een gigantische database.
Zoekalgoritme
Tot op heden voeren we ozne zoekopdrachten nog uit via het invoeren van (een combinatie van) keywords. De zoekmachine en het achterliggende complexe algoritme gaat vervolgens in de database kijken welke webpagina's hieromtrent relevante inhoud te bieden hebben.
Deze manier van zoeken zal in de toekomst mogelijk drastisch veranderen, door de lancering van Google Hummingbird. Google heeft onlangs hun bestaande algoritme volledig "refactored" wat een heleboel nieuwe mogelijkheden creëert. Zo wordt verwacht dat we in de toekomst zullen gaan zoeken in de vorm van conversaties. Men kan vragen stellen in volledige zinnen, en na een antwoord een nieuwe vraag stellen die daarmee verband houdt.