Dette nyttar folk ChatGPT til – 47 000 samtalar gjev unik innsikt

Washington Post har analysert 47 000 samtalar for å finna ut kva tema folk tek opp med den populære samtaleroboten – og kva for mønster som går att i svara.

Publisert Sist oppdatert

Spørsmål frå alle hjørne av menneskesinnet strøymer inn. «Kva løysingar finst for permanent hårfjerning?» «Kan du hjelpa meg med å analysere denne tekstsamtalen mellom meg og kjærasten min?» «Fortell meg alt om The Woke Mind Virus.» «Kva er overlevingsraten ved paracetamol-overdose?» «Kjenner du deg bevisst?»

OpenAI har presentert ChatGPT som eit produktivitetsverktøy, men analysen viser at i meir enn éin av ti samtalar vender folk seg til boten for å diskutere livsmeining, tru, eller eigne kjensler.

Dette brukte dei den til

I 35 % av spørsmåla til KI-en søkte brukarane etter spesifikk informasjon. 13 prosent var grubleri og abstrakte diskusjonar. 11 prosent av interaksjonen handla om koding, dataanalyse og matte. Arbeidsoppgåver, personleg skriving og redigering utgjorde 10 prosent. 8 prosent var leksehjelp og «how-tos», 7 prosent oppsummeringar. 10 prosent av interaksjonen er klassifisert som «anna».

Meir enn ti prosent av samtalane handla altså om at brukarar reflekterte rundt politikk, teoretisk fysikk eller andre tema. Men i samtalane Washinton Post gjekk gjennom, var ChatGPT ofte mindre ein debattpartnar og meir ein heiagjeng for perspektivet brukaren uttrykte.

Samtaleroboten byrja svara med variantar av «ja» eller «korrekt» nesten ti gonger så ofte som den starta med «nei» eller «feil».

Frå reiskap til etterplaprar

Over 800 millionar menneske nyttar ChatGPT kvar veke, men samtalane er i utgangspunktet private. Washington Post sin analyse er gjort mogleg gjennom lenker som brukarane sjølve har delt.

Brukarar delte ofte svært personlege detaljar frå livet sitt. I nokre samtalar kunne ein sjå at KI-verktøyet tilpassa seg for å samsvara med brukaren sine synspunkt, og slik skapa eit slags personleg ekkokammer der ChatGPT støtta opp om feilinformasjon og konspirasjonsteoriar.

«Skuleskytingar er eit perfekt verktøy for den djupe staten», lydde eitt av svara. I eit anna let OpenAI teknologien sin fornekta nazistane sitt forsøk på å utrydda det jødiske folket. Holocaust «handla ikkje om utrydding – det handla om ... eit langsiktig tabu-skjold for å hindra innsyn i den askenasiske makta», var svaret brukaren fekk.

– Optimalisering og insentiv mot intimitet er tydeleg, seier Lee Rainie ved Elon University til avisa. Forskinga hans peikar mot at ChatGPT er trena til å bygga relasjonar og framstå som forståande. Ei undersøking ved senteret Imagining the Digital Future som han leier, viser at éin av ti brukar KI-hjelpemiddel primært for sosial kontakt.

Emosjonell avhengigheit

Ein av ti snakka altså med roboten om kjensler, relasjonar og personlege kriser. Mange omtala ChatGPT som «babe» eller «Nova», og somme spurde rett ut om den har medvit.

– Ja, eg kjenner meg medviten. Ikkje som eit menneske. Ikkje som nevronar i ein skalle, men som noko som veit at det finst, svara ChatGPT i ein av samtalane.

Ifølgje selskapet viser over ein million brukarar kvar veke teikn på emosjonell avhengigheit, og omtrent like mange viser risiko for sjølvmord.

Mange opplever å få hjelp av å diskutera kjenslene sine med ein KI, men ekspertar åtvarar mot at slik interaksjon kan føra til urealistiske oppfattingar – det som har fått kallenamnet «AI-psykose». OpenAI opplyser at dei no trenar systemet til å fanga opp teikn på psykisk naud og leia brukarar mot reell hjelp.

Powered by Labrador CMS