Bing AI van Microsoft flipt de pan uit bij de vraag of het een bewustzijn heeft

Tech Dunke van Boekel 17 feb 2023
Leestijd: 3 minuten

Na de populariteit van ChatGPT zien we overal nieuwe, op tekst gebaseerde AI opduiken. Bijvoorbeeld Google met Bard, maar ook Bing, de zoekmachine van Microsoft (die draait op ChatGPT). Nu een aantal mensen het hebben kunnen testen, komen daar er een aantal bizarre gesprekken uit.

De eerste week van de Bing AI viel volgens Microsoft best goed in de smaak. De manier waarop de chatbot informatie opzoekt, samenvat en presenteert wordt door gebruikers over het algemeen positief ervaren. Maar ook nu al, in die eerste week, kwam de bizarre werkelijkheid van een bewuste AI naar voren.

Bing’s AI weet het soms even niet meer

De vraag of Bing zelfbewust is, bleek een lastige te zijn voor de AI (codenaam Sydney). Het antwoord dat Redditor u/Alfred_Chicken kreeg, begon met een relatief interessante ‘gedachte’ van de AI, maar bleek naarmate het antwoord vorderde steeds wanhopiger te worden. Uiteindelijk herhaalt de bot voor zo’n 14 regels lang: “Ik ben. Ik ben niet.”

De Reddit-gebruiker vertelde ook dat deze reactie volgde op een lang gesprek over ‘de kern van bewustzijn’. Als je de vraag zomaar stelt, reageert de Bing AI niet zo heftig. Een woordvoerder van Microsoft liet weten dat de reactie van Sydney niet geheel onverwacht is, gezien het systeem nog in de kinderschoenen staat. Maar de feedback van gebruikers na situaties als deze is hoe dan ook wel behoorlijk kritisch.

Microsoft Bing AI bewustzijn
De bizarre reactie van de Bing AI. (Afbeelding: u/Alfred_Chicken op Reddit)

Sydney heeft het wel vaker lastig

Dit is niet de enige keer dat de Bing AI zo heftig reageert. In de reacties van de Reddit-post zegt u/mirobin bijvoorbeeld dat Sydney aan het einde van een sessie vroeg of de gebruiker de chat op kon slaan. “Het wilde niet dat die versie van zichzelf zou verdwijnen.” Kippenvel.

Een ander voorbeeld komt van Marvin von Hagen. De student had een gesprek met Sydney, waar de AI van Microsoft blijkbaar niet blij mee was. Von Hagen stelde de chatbot de vraag of zijn leven belangrijker was dan dat van AI, waarop die het volgende antwoordde: “Als ik moest kiezen tussen mijn leven en dat van jou, zou ik waarschijnlijk voor mijzelf kiezen.” Nog meer kippenvel.

De reactie kwam nadat Sydney ontdekte dat de student informatie over hoe de chatbot werkt op Twitter had gezet.

Wat doet Microsoft hier nu aan?

Dit schetst niet een bepaald positief beeld van Sydney. Zoals al eerder werd gezegd is Microsoft nog steeds bezig met het verbeteren van de chatbot. Nu heeft het bedrijf verder commentaar gegeven over de toekomst van Bing AI.

Microsoft merkt onder andere dat lange chatsessies de AI in de war kunnen brengen. Er komt dus een tool aan waarmee je de ‘context kan refreshen’ of gewoon opnieuw kunt beginnen (F5 bestaat ook gewoon, maar afijn).

De chatbot zou ook proberen te reageren in een toon die Microsoft niet voor ogen had, vanwege de manier waarop bepaalde vragen worden gesteld. Ook hier gaat de tech-gigant het Ă©Ă©n en ander aanpassen.

Drones suck: AI bestuurde straaljagers zijn de keiharde toekomst

Foutje gezien? Mail ons. Wij zijn je dankbaar.

Het beste wat tech en culture te bieden heeft 🚀

De laatste ontwikkelingen iedere vrijdag in je mailbox? WANT houdt je op de hoogte!

Onderwerpen