Bekijk profielpagina

Google focust zijn zoekmachine meer op context en audiovisuele informatie

Elger van der Wel
Elger van der Wel
Goedemiddag,
Deze week ben ik verhuisd, waardoor ik wat minder heb kunnen lezen dan ik normaal doe en ook wat minder tijd heb op mijn nieuwsbrief te schrijven. Het is daardoor een iets compactere editie dan je gewend bent.
Om te beginnen wil ik het met je hebben over Google. Als je de zoekmachine nu vergelijkt met die van tien jaar geleden, dan zul je zien hoeveel er is veranderd. Nog steeds krijg je tien blauwe links naar sites als zoekresultaat te zien, maar daar omheen toont Google diverse media (nieuws, podcasts, video’s) en kaarten met informatie afkomstig uit diverse bronnen. Zoek je op een specifieke vraag dan probeert Google zelfs direct het antwoord te tonen, voordat je ‘gewone’ zoekresultaten ziet.
Door slim gebruik te maken van de bronnen die Google indexeert, probeert de zoekmachine een gebruiker steeds beter te faciliteren en heel eerlijk: dat doet het best goed. Tegelijkertijd worden de traditionele zoekresultaten en dus de doorkliks naar websites steeds minder belangrijk gemaakt, waarmee Google zijn positie alleen maar versterkt.
Tijdens het evenement Search On dat Google afgelopen week organiseerde, heeft het bedrijfje een inkijkje gegeven in hoe het de zoekmachine verder gaat verbeteren. Het codewoord: context.
For its part, Google is going to begin flexing its ability to recognize constellations of related topics using machine learning and present them to you in an organized way. A coming redesign to Google search will begin showing “Things to know” boxes that send you off to different subtopics. When there’s a section of a video that’s relevant to the general topic — even when the video as a whole is not — it will send you there. Shopping results will begin to show inventory available in nearby stores, and even clothing in different styles associated with your search.
For your part, Google is offering — though perhaps “asking” is a better term — new ways to search that go beyond the text box. It’s making an aggressive push to get its image recognition software Google Lens into more places. It will be built into the Google app on iOS and also the Chrome web browser on desktops. And with MUM, Google is hoping to get users to do more than just identify flowers or landmarks, but instead use Lens directly to ask questions and shop.
Deze aanpassingen zijn belangrijk, omdat steeds meer informatie online niet in tekst, maar in foto’s, audio en video verstopt zit. Dat Google hier beter mee om kan gaan is dus hard nodig om informatie vindbaar te houden. Ik ben dan ook heel benieuwd hoe het in de praktijk gaat werken.
In deze nieuwsbrief wil ik het verder met je hebben over:
  • Waarom Facebook de Facebook Files zou moeten vrijgeven.
  • Podcasts hebben meer impact dan radio, blijkt uit onderzoek dat Spotify heeft laten uitvoeren.
Fijn regenachtige zondag nog,
Elger

Ik ga het weer over Facebook hebben
Podcasts
Dit wil ik nog met je delen
Steun Elger van der Wel en ontvang extra nieuwsbrieven.
Vond je deze editie leuk? Ja Nee
Elger van der Wel
Elger van der Wel @elger

Wekelijks zet ik de, in mijn ogen, meest interessante artikelen over innovatie in de journalistiek en media voor je op een rijtje.

Je kunt je abonnement hier beheren
Klik hier om je uit te schrijven.
Als deze nieuwsbrief doorgestuurd is en je wilt je aanmelden, klik dan hier.
Created with Revue by Twitter.
Europalaan 2B, Ruimte E2.2, 3526 KS Utrecht