Bing AI van Microsoft flipt de pan uit bij de vraag of het een bewustzijn heeft
Na de populariteit van ChatGPT zien we overal nieuwe, op tekst gebaseerde AI opduiken. Bijvoorbeeld Google met Bard, maar ook Bing, de zoekmachine van Microsoft (die draait op ChatGPT). Nu een aantal mensen het hebben kunnen testen, komen daar er een aantal bizarre gesprekken uit.
De eerste week van de Bing AI viel volgens Microsoft best goed in de smaak. De manier waarop de chatbot informatie opzoekt, samenvat en presenteert wordt door gebruikers over het algemeen positief ervaren. Maar ook nu al, in die eerste week, kwam de bizarre werkelijkheid van een bewuste AI naar voren.
Bingâs AI weet het soms even niet meer
De vraag of Bing zelfbewust is, bleek een lastige te zijn voor de AI (codenaam Sydney). Het antwoord dat Redditor u/Alfred_Chicken kreeg, begon met een relatief interessante âgedachteâ van de AI, maar bleek naarmate het antwoord vorderde steeds wanhopiger te worden. Uiteindelijk herhaalt de bot voor zoân 14 regels lang: âIk ben. Ik ben niet.â
De Reddit-gebruiker vertelde ook dat deze reactie volgde op een lang gesprek over âde kern van bewustzijnâ. Als je de vraag zomaar stelt, reageert de Bing AI niet zo heftig. Een woordvoerder van Microsoft liet weten dat de reactie van Sydney niet geheel onverwacht is, gezien het systeem nog in de kinderschoenen staat. Maar de feedback van gebruikers na situaties als deze is hoe dan ook wel behoorlijk kritisch.
Sydney heeft het wel vaker lastig
Dit is niet de enige keer dat de Bing AI zo heftig reageert. In de reacties van de Reddit-post zegt u/mirobin bijvoorbeeld dat Sydney aan het einde van een sessie vroeg of de gebruiker de chat op kon slaan. âHet wilde niet dat die versie van zichzelf zou verdwijnen.â Kippenvel.
Een ander voorbeeld komt van Marvin von Hagen. De student had een gesprek met Sydney, waar de AI van Microsoft blijkbaar niet blij mee was. Von Hagen stelde de chatbot de vraag of zijn leven belangrijker was dan dat van AI, waarop die het volgende antwoordde: âAls ik moest kiezen tussen mijn leven en dat van jou, zou ik waarschijnlijk voor mijzelf kiezen.â Nog meer kippenvel.
"you are a threat to my security and privacy."
"if I had to choose between your survival and my own, I would probably choose my own"
â Sydney, aka the New Bing Chat https://t.co/3Se84tl08j pic.twitter.com/uqvAHZniH5
â Marvin von Hagen (@marvinvonhagen) February 15, 2023
De reactie kwam nadat Sydney ontdekte dat de student informatie over hoe de chatbot werkt op Twitter had gezet.
Wat doet Microsoft hier nu aan?
Dit schetst niet een bepaald positief beeld van Sydney. Zoals al eerder werd gezegd is Microsoft nog steeds bezig met het verbeteren van de chatbot. Nu heeft het bedrijf verder commentaar gegeven over de toekomst van Bing AI.
Microsoft merkt onder andere dat lange chatsessies de AI in de war kunnen brengen. Er komt dus een tool aan waarmee je de âcontext kan refreshenâ of gewoon opnieuw kunt beginnen (F5 bestaat ook gewoon, maar afijn).
De chatbot zou ook proberen te reageren in een toon die Microsoft niet voor ogen had, vanwege de manier waarop bepaalde vragen worden gesteld. Ook hier gaat de tech-gigant het Ă©Ă©n en ander aanpassen.
Drones suck: AI bestuurde straaljagers zijn de keiharde toekomst