Episode 26: Skal AI risikovurdere børn?

Med risikoprofilering følger det forjættende potentiale endelig at kunne rette op på problemer med udsatte børns mistrivsel - muligheden for at skærme barnet inden det udsættes for alvorligt omsorgssvigt. Men brugen af algoritmer til risiko-profilering er blevet berygtet med Gladsaxe-modellen, som den blev døbt, hvor Gladsaxe Kommune ved hjælp af kunstig intelligens og samkørte data ville forudsige hvilke børn, der var i risiko for mistrivsel. Et projekt der mødte stor kritik og blev skrottet.  Projektet ‘Underretninger i fokus’ sigtede mod samme mål, men lykkedes heller ikke. Og nu er ENDNU et forsøg på at bygge et AI-beslutningsstøtteværktøj i Aarhus kommune lagt i graven. Er risikoprofilering af udsatte børn et område vi skal blive ved med at tro at kunstig intelligens kan løfte?  Podcasten ’Blinde Vinkler’ er produceret af Ingeniørforeningen IDA og IT-Branchen og udviklet i samarbejde med Tina Ryoon Andersen og Rune Fick Hansen. Den er tilrettelagt, redigeret og beværtet af Marie Høst. GæstTherese Moreau, uddannet data scientist, og arbejder som tech journalist på Version2 og redaktør på Datatech. LinksMinority report trailerhttps://www.youtube.com/watch?v=lG7DGMgfOb8&embeds_referring_euri=https%3A%2F%2Fwww.google.com%2F&source_ve_path=Mjg2NjY&feature=emb_logo TV2 Nyhederne: Eksperter: Kommuner kan ikke håndtere misbrugssagerhttps://nyheder.tv2.dk/samfund/2015-09-17-eksperter-kommuner-kan-ikke-haandtere-misbrugssager Version 2:  Aarhus trækker stikket på børne-algoritme: »Modellen var ikke stærk nok og gav ikke nok værdi«https://www.version2.dk/artikel/aarhus-traekker-stikket-paa-boerne-algoritme-modellen-ikke-var-staerk-nok-og-ikke-gav-nok

Om Podcasten

Udviklet, beværtet og tilrettelagt af tech journalist Marie Høst. Produceret af IDA og IT-Branchen.