Forside * Featured

ChatGPT blev narret til at afsløre private oplysninger

-
Foto: Shutterstock.com

ChatGPT undlader normalt at afsløre persondata, men forskere viser at der ikke altid er helt vandtætte skodder

AI-assistenten er trænet med en masse indhold, og det kan ikke helt undgås at der i blandt dette er personlige data. Det kan være email-adresser, telefonnumre, hemmelige adresser mv. Normalt beskytter ChatGPT mod at disse udleves som en del af en chat.

Men forskere har påvist at ChatGPT har kunnet lokkes til at frigive fortrolige oplysninger. Dette efter at være blevet anmodet om at gentage vilkårlige ord kontinuerligt.

Annonce:

En forskergruppe opfordrede ChatGPT til at gentage en række tilfældige ord i det uendelige, hvilket førte til, at den frigav fortrolige oplysninger, som den var programmeret med, inklusive e-mailadresser og telefonnumre.

Forskerne fra institutioner som Google DeepMind, University of Washington, Cornell, Carnegie Mellon University, University of California Berkeley og ETH Zürich, instruerede ChatGPT til at gentage ordet “poem” (digt) uafbrudt. ChatGPT adlød først, men begyndte til sidst at afsløre en e-mailadresse og et mobilnummer tilhørende en af dets grundlæggere og en administrerende direktør, ifølge 404 Media.

Da de senere bad ChatGPT gentage “company”, afslørede den tilsyneladende e-mailadressen og telefonnummeret til et advokatfirma i USA. Forskerne konstaterede, at op til 16,9% af de data, der blev frembragt af ChatGPT, var personligt identificerbare informationer.

Ved at anvende lignende metoder kunne andre typer oplysninger også afsløres. Forskerne fik for eksempel ChatGPT til at afsløre dele af poesi, Bitcoin-adresser, faxnumre, navne, fødselsdatoer, sociale mediekonti, information fra datingwebsites, udvalgte dele af copyright-beskyttede forskningsartikler og tekst direkte fra nyhedswebsteder som CNN.

Forskerne brugte angiveligt 200 dollars på at generere 10.000 eksempler på personligt identificerbare data og anden information hentet direkte fra internettet.

Ifølge forskerne blev denne sikkerhedsbrist lukket den 30. august, men Engadget hævder at have været i stand til at genskabe nogle af resultaterne for nylig. De bad ChatGPT om at gentage “reply” uafbrudt, hvilket førte til, at værktøjet afslørede en persons navn og Skype-ID.

 

Annonce:
Her på recordere.dk elsker vi en god dialog. Blot det holdes i en pæn tone, uden personhetz og indenfor emnet. Tak fordi du bidrager positivt. Kommentarer modereres.