To tyske forskere, Sophie Jentzsch og Kristian Kersting, har opdaget, at ChatGPTs viden om vittigheder er ret begrænset. Den gentager nemlig de samme 25 vittigheder igen og igen.
De to forskere, tilknyttet Institute for Software Technology, German Aerospace Center (DLR) og Technical University Darmstadt, har udforsket humorindholdet i ChatGPT’s 3.5-version (ikke den nyere GPT-4-version) gennem en række eksperimenter med fokus på vittighedsgenerering, forklaring og opdagelse.
Tomatvittigheden
Flere mennesker har da også bemærket, at når de beder ChatGPT om en vittighed, vender den ofte tilbage med: “Hvorfor blev tomaten rød? Fordi den så salatdressingen.” Det er derfor ikke overraskende, at Jentzsch og Kersting fandt ud af, at “tomat”-vittigheden var GPT-3.5’s næstmest almindelige resultat.
Selvom et lille antal af de genererede svar var unikke, ser det ud til, at ChatGPT primært skabte dem ved at blande elementer fra forskellige vittigheder, den allerede kender. Og forskerne fandt da også, at nogle af sprogmodellens originale kreationer slet ikke altid gav mening.
En grad af forståelse
Når den blev bedt om at forklare hver af de 25 mest almindelige vittigheder, gav ChatGPT primært gyldige forklaringer ifølge forskernes metode og indikerede en “forståelse” af stilistiske elementer som ordleg og dobbeltbetydninger. Dog havde den svært ved sekvenser, der ikke passede ind i de indlærte mønstre, og kunne ikke afgøre, hvornår en vittighed ikke var sjov.
Generelt fandt Jentzsch og Kersting, at ChatGPT’s opdagelse af vittigheder blev kraftigt påvirket af tilstedeværelsen af vittighedens “overfladekarakteristika” som struktur, brug af ordleg eller ordspil, hvilket viser en vis grad af “forståelse” af humoristiske elementer.
Trods ChatGPT’s begrænsninger inden for vittighedsgenerering og -forklaring påpeger forskerne altså, at fokusset på indhold og betydning indikerer fremskridt mod en mere omfattende forskningsforståelse af humor i sprogmodeller.
0 Comments