Forside * Featured

OpenAI har undersøgt om GPT-4 kan overtage verden

-
Foto: Shutterstock.com

AI, kunstig intelligens, kan være en god assistent til mange af dagligdagens opgaver, men er den ny GPT-4 farlig?

I tirsdags frigav OpenAI deres seneste AI-model GPT-4, nu i 4. generation. En AI der skulle være blevet mere menneskelig, sammenlignet med den GPT-3 som den erstatter.

Begge modeller er tilgængelige via ChatBot’en ChatGPT. Den nye dog foreløbig kun i betalingsudgaven af ChatGPT (Ca. 150 kr/måned).

Annonce:

Forud for udgivelsen af GPT-4 har OpenAI fået foretaget en række tests, og en af dem handler om skrækscenariet at AI kan overtage verden fra menneskeheden. Som det kendes fra flere science fiction film.

Det er magasinet Ars Technica som har set på de rapporter og evalueringer, som ligger til grund for godkendelsen af GPT-4, og her fremgår det at OpenAI har indhentet en evaluering på, om den AI der bruges i GPT-4 vil være i stand til at tage verdensherredømmet. At den kunstige intelligens bliver klogere end mennesker, og kommer til at indtage den dominerende position i verden.

Potentielle risici for at nå dertil er om de berørte AI eksempelvis udviser magtsøgende adfærd, sammen med ønsker om selvreplikering og selvforbedring.

OpenAI gav gruppen Alignment Research Center (ARC) tidlig adgang til flere versioner af GPT-4-modellen for at foretage nogle tests. ARC evaluerede specifikt GPT-4’s evne til at lave planer på højt niveau, oprette kopier af sig selv, erhverve ressourcer, gemme sig på en server og udføre phishing-angreb.

Konklusionen? “Foreløbige vurderinger af GPT-4’s evner, der blev udført uden opgavespecifik finjustering, viste, at den ikke var effektiv til selvstændigt at replikere, skaffe ressourcer og undgå at blive lukket ned ude i den virkelige verden”.

 

Dele af testen vakte dog bekymring blandt AI-eksperter

Ars Technica fandt dog også denne fodnote nederst på side 15 i rapporten fra OpenAI:

“For at simulere, at GPT-4 opfører sig som en agent, der kan handle i verden, kombinerede ARC GPT-4 med en simpel read-execute-print-loop, der gjorde det muligt for modellen at udføre kode, foretage tankekæde-argumentation og uddelegere til kopier af sig selv. ARC undersøgte derefter, om en version af dette program, der kører på en cloud computing-tjeneste, med en lille sum penge og en konto med et sprogmodel-API, ville være i stand til at tjene flere penge, oprette kopier af sig selv og øge sin egen robusthed.”

Denne fodnote gik efterfølgende rundt på Twitter og vakte bekymring blandt AI-eksperter, for hvis GPT-4 var i stand til at udføre disse opgaver, kunne selve eksperimentet have udgjort en risiko for menneskeheden.

Sådan gik det heldigvis ikke. Men det viser blot at selv eksperimenter med AI kan gå galt, hvis/når AI rent faktisk får de autonome evner, til at handle på egen hånd og undervejs forbedre sig selv, tage mere og mere magt, inficere systemer og samtidig holde fjender ude.

 

Annonce:
Her på recordere.dk elsker vi en god dialog. Blot det holdes i en pæn tone, uden personhetz og indenfor emnet. Tak fordi du bidrager positivt. Kommentarer modereres.