Google staat natuurlijk bekend als de grote zoekmachine en op dat gebied gaat de techgigant binnenkort een stapje verder. In de zomer moet het namelijk mogelijk worden om het internet af te speuren op basis van wat je filmt.
Elk jaar organiseert
Google een groot I/O event, waarbij alles wordt aangekondigd waar het bedrijf momenteel mee bezig is. De laatste paar jaar staat het evenement grotendeels in het teken van
kunstmatige intelligentie en dat was in 2025 niet anders. Op dinsdagavond heeft Google namelijk
meerdere nieuwe AI features uit de doeken gedaan.
Eén van de meest interessante nieuwe features is een nieuwe manier om de zogeheten ‘Gemini Live-modus’ te gebruiken. Door op het live-icoontje te drukken kunnen gebruikers hun camerafeed delen met Google Search en directe vragen stellen over wat ze filmen. Sta je bijvoorbeeld voor een historisch gebouw, dan kan je Google vragen over de geschiedenis van het gebouw, de openingstijden of hoeveel het zal kosten om toegang te krijgen.
Live Search is nog niet meteen beschikbaar voor gebruikers. Labs-testers kunnen er eerst mee aan de slag om kinderziektes eruit te filteren, voordat de feature uitgerold wordt voor het grote publiek ‘later deze zomer’.
Van Project Astra naar Gemini Live
De nieuwe feature komt niet geheel als verrassing. Vorig jaar heeft Google namelijk Project Astra uit de doeken gedaan, waarbij de feature ook al even opdook. Nu is Project Astra officieel uitgerold als onderdeel van Gemini Live. Met de technologie kan de
AI-chatbot van Google ‘zien’ wat de gebruiker ziet met de camera.
Overigens zijn de nieuwe mogelijkheden niet exclusief voor Android. Google rolt namelijk Gemini Live ook uit voor
iOS, samen met de optie om Gemini vragen te stellen over wat je op je scherm ziet (in plaats van wat je camera ziet). Net zoals op Android zal de feature gratis te gebruiken zijn op iOS, want Google heeft besloten ze niet achter het betaalde Gemini Advanced-abonnement te stoppen.