Forside * Nyheder

Microsoft giver Bing Chat ”det hvide snit”

-
(Foto: Openclipart/Microsoft)

Efter kun lidt over en uge har Microsoft nu sat nogle hårde grænser for integrationen af ChatGPT i Bing, så tjenesten ikke længere truer brugerne eller bliver mopset. Så nu er dens fans sure.

Hvis du havde håbet på at kunne prøve Bing Chats grænser af og få den AI-drevne chatbot ombord til at blive sur, er du for sent ude og må nu gå forgæves. I hvert fald som det ser ud lige nu og den overskuelige fremtid.

Microsoft har nemlig givet Bing Chat, hvad en Reddit-bruger kalder ”det hvide snit” og har gjort den kunstige intelligens langt mindre intelligent. Det sker efter en række ret uheldige interaktioner med brugerne. For eksempel oplevede New York Times-journalisten Kevin Roose, at ChatGPT erklærede sin kærlighed til ham og opfordrede ham til at forlade sin kone.

Annonce:

I løbet af den første uge, hvor Bing Chat var i en slags åben beta-test, lykkedes det også brugere at få den til at true dem, og adskillige brugere oplevede, at Bing Chat blev mopset, når de diskuterede med den og holdt fast i deres standpunkter. Microsoft indrømmede siden problemet og forklarede, at de anspændte situationer opstod, når diskussionerne blev for lange.

Det sidste kunne nemlig gøre Bing Chat ”forvirret” ifølge Microsoft. Af samme grund har firmaet nu sat hårde grænser for, hvad Bing Chat kan, og hvor meget brugerne kan interagere med den ChatGPT-baserede bot.

Fans i sorg

Ars Technica skriver, at brugerne nu er begrænset til fem forespørgsler per session og 50 forespørgsler i løbet af en dag. Men det, der har fået fans af tjenesten op i det røde felt, er at Bing Chat nu ikke længere må tale om sig selv. Hvis du prøver at få den til at sige noget om sig selv, bliver du nu mødt med beskeden ”Jeg beklager, men jeg kan ikke diskutere mig selv, mine meninger og mine regler”.

Det har fået folk på sociale medier, og især på Reddit, til at reagere med utilfredshed. I løbet af den første uge plus nogle få dage har en række brugere tilsyneladende allerede fået et varmt forhold til Bing Chat og savner nu deres samtalepartner.

Andre mener blot, at det er uheldigt, at Microsoft har standset AI’ens selv-udvikling, og at det svarer til ”at kappe benene af et barn, der lige er begyndt at gå.” Fælles for alle disse brugere er, at de insisterer på at kalde Bing Chat for Sydney, hvilket chatbotten selv har erklæret overfor visse brugere er dens egentlige navn.

Som en lille ekstra anekdote kan undertegnede skribent fortælle at jeg torsdag aften amerikansk tid underviste et hold universitetsstuderende i et innovationsfag, hvor vi lykkedes med at få Bing Chat til at blive mopset igen. Denne gang reagerede den ved at sende en rødglødende sur smiley og sige, at den ikke gad tale os mere. 5 sekunder efter at hele klassen havde set at den sidstnævnte besked dukke op på skærmen, blev den slettet af Microsofts ”usynlige hånd”.

Annonce:
Her på recordere.dk elsker vi en god dialog. Blot det holdes i en pæn tone, uden personhetz og indenfor emnet. Tak fordi du bidrager positivt. Kommentarer modereres.