Virkelighed eller fiktion?

En ny undersøgelse viser, at folk er mere tilbøjelige til at stole på tweets genereret af AI-modellen GPT-3 end på indhold skrevet af mennesker – en klar reminder om, hvor kraftfulde AI-sprogmodeller kan være til at informere eller vildlede offentligheden.

Forskerne fandt ud af, at deltagerne i undersøgelsen havde svært ved at skelne mellem tweets skrevet af AI-modellen og tweets skrevet af mennesker. Faktisk var deltagerne bedre til at identificere sand information, når den kom fra AI-modellen, og havde sværere ved at genkende desinformation skrevet af AI-modellen. 

Umuligt at skelne 

Forskerne indsamlede tweets om videnskabelige emner som vacciner og klimaforandringer og bad GPT-3 om at generere nye tweets med både korrekt og ukorrekt information. Resultaterne viste, at GPT-3-genererede tweets var “umulige at skelne” fra ægte tweets.

Alligevel er der visse begrænsninger ved undersøgelsen, herunder at deltagerne skulle vurdere tweets uden kontekst og dermed ikke kunne se Twitter-profiler eller tidligere tweets, der kunne hjælpe dem med at identificere bots eller vildledende indhold.

Studiet konkluderede også, at deltagerne i undersøgelsen var bedre til at vurdere nøjagtigheden af tweets end GPT-3 i visse tilfælde. Forskerne mener, at forbedring af træningsdatasæt, der bruges til at udvikle sprogmodeller, kan gøre det sværere for dårlige aktører at bruge disse værktøjer til at sprede desinformationskampagner. 

Desuden understreger forskerne, at en langsigtet strategi til at imødegå desinformation er at fremme kritisk tænkning, så folk er bedre rustet til at skelne mellem fakta og fiktion. 

 

 

Læs mere her, https://www.theverge.com/2023/6/28/23775311/gpt-3-ai-language-models-twitter-disinformation-study 

 

 

Relaterede AI nyheder

0 Comments

Submit a Comment

Your email address will not be published. Required fields are marked *