Episode 31: Gætter store sprogmodeller dine dybeste hemmeligheder?

Ny forskning afslører, at generative chatbots som ChatGPT kan udlede en masse følsomme oplysninger om os, selv ud fra fuldstændig hverdagsagtige samtaler. På baggrund af hvad der kan virke som ‘uskyldige’ informationer, kan de f.eks. gætte hvor vi bor og hvad vi arbejder med. Og de kan gøre det langt hurtigere end mennesker. Den viden som kan sammenstykkes om os, kan måske indvarsle en ny æra af annoncering, hvor virksomheder bruger information indsamlet fra chatbots til at opbygge detaljerede profiler af brugere. Hvordan kan det overhovedet lade sig gøre at sammenstykke så privat information om os? Og findes der noget forsvar mod denne invasive snushane, så vi kan beskytte vores privatliv?   Podcasten ’Blinde Vinkler’ er produceret af Ingeniørforeningen IDA og IT-Branchen og udviklet i samarbejde med Tina Ryoon Andersen og Rune Fick Hansen. Den er tilrettelagt, redigeret og beværtet af Marie Høst. GæstSune Lehman, professor i netværks- og kompleksitetsvidenskab ved DTU Compute og professor i Social Data Science ved Københavns Universitet. LinksForskningsartikel:Beyond Memorization: Violating Privacy Via Inference with Large Language Modelshttps://llm-privacy.org/https://arxiv.org/abs/2310.07298v121 Lessons for the 21st Century by Yuval Noah Harari | Yuval on Datahttps://www.youtube.com/watch?v=wmxEYWEGYOI&t=144sWired: AI Chatbots Can Guess Your Personal Information From What You Typehttps://www.wired.com/story/ai-chatbots-can-guess-your-personal-information/Race to intimacy: How AI threatens global culture, Dr Wakuhttps://www.youtube.com/watch?v=ANUz53doMWw&t=15s

Om Podcasten

Udviklet, beværtet og tilrettelagt af tech journalist Marie Høst. Produceret af IDA og IT-Branchen.