Sommige gebruikers hebben nu toegang gekregen tot de chatfunctie van Bing
AI. Daaruit blijkt dat de nieuwe tool van
Microsoft alleen niet heel emotioneel stabiel is. Bovendien denkt Bing dat het nog steeds 2022 is.
AI-programma’s zijn momenteel helemaal
hot. Sinds de enorme populariteit van
ChatGPT zijn Google en Microsoft al snel een strijd aangegaan om de meest geavanceerde AI chatbot te kunnen leveren. Daardoor heeft Google halsoverkop Bard aangekondigd, inclusief
een pijnlijke fout. Microsoft heeft ondertussen een officieel
een samenwerking aangekondigd met ChatGPT, waardoor de mogelijkheden van die
tool geïntegreerd worden in Bing.
Eerder bleek al dat tijdens de eerste presentatie van
Bing AI er al meerdere fouten werden gemaakt, maar nu de
tool voor een select aantal gebruikers toegankelijk is, duidelijk er meer
problemen op. Uit gesprekken met Bard AI blijkt namelijk dat de chatbot opvallend emotioneel is en niet alle informatie juist op een rijtje heeft.
Zo vraagt een gebruiker aan Bing AI om de tijden van Avatar: The Way of Water in de lokale bioscopen op te zoeken. Het gesprek gaat alleen al snel over in
een discussie over het jaartal, waarbij Bing stuk bij voet houdt dat het nog 2022 is. De gebruiker wordt door de chatbot uitgemaakt voor een leugenaar en een onvriendelijk persoon.
Spionage door Bing AI
Dat is niet het enige vreemde gesprek dat Bing AI de afgelopen dagen heeft gevoerd, zo meldt
The Verge. Zo vraagt de chatbot zich af wat de betekenis achter zijn bestaan is. In een ander gesprek zegt de AI dat het de ontwikkelaars bij Microsoft bespioneert via de webcams in hun laptops en dat zij ‘er niks aan kunnen doen’. Er is duidelijk nog wat werk aan de winkel voor de techgigant.