Generel

Forskere skaber verdens første 'psykopat' AI ved at gøre det til at læse Reddit-billedtekster


MIT-forskere har med succes oprettet en AI 'psykopat' ved at fodre den med indhold fra Reddit. Tre eksperter inden for dyb læring har slået sig sammen for at vise, hvordan det indhold, vi viser AI, virkelig påvirker deres læringsresultater.

For at bevise deres pointe havde MIT-ingeniører og forskere Pinar Yanardag, Manuel Cebrian og Iyad Rahwan deres AI, som de kaldte Norman efter hovedpersonen i Psycho, læste billedtekster fra et Reddit-forum.

De viste derefter Norman en række blækpletter fra den berømte Rorschach test. Mens en standard-AI, når de blev vist, reagerede billederne generelt med svar som 'nærbillede af en bryllupskage på et bord', reagerer Norman med grafiske ideer, herunder 'mand bliver myrdet af maskingevær i høj dagslys'.

For at være klar viste forskerne ikke robotten de faktiske billeder, der var tilgængelige på det uhyggelige Reddit-sted, men læste kun billedteksterne. Mens et tilsyneladende uhyggeligt og unødvendigt stykke forskning, kunne Norman-projektet ikke komme på et bedre tidspunkt.

På spørgsmålet om, hvad der motiverede dem til at forfølge en psykopatisk AI, forklarede Normans skabere, at projektet drejer sig om at bringe bevidsthed om, hvordan AI udvikler bias gennem det indhold, den fodres med. "De data, du bruger til at undervise i en maskinlæringsalgoritme, kan påvirke dens adfærd i væsentlig grad," sagde forskerne.

"Så når vi taler om, at AI-algoritmer er partiske eller uretfærdige, er synderen ofte ikke selve algoritmen, men de partiske data, der blev leveret til den." Da AI-teknologi hurtigt udvikler sig, er der spørgsmål om, hvordan den vil blive overvåget og reguleret.

Norman rejser store spørgsmål om AI-etik

I dag frigav Google sine etiske principper i forbindelse med sit arbejde med AI. Virksomheden siger, at det ikke vil arbejde med nogen militære organisationer for at udvikle våben.

Norman præsenterer subtile spørgsmål til både AI-ingeniører og den brede offentlighed om, hvordan vi overvåger indholdet og derfor bias af ny AI.

AI, der bruges i selvkørende biler, skal for eksempel læres, hvordan man genkender fodgængere fra livløse genstande. Opmærksomhed skal rettes for at sikre, at dataene, der leveres til AI, ikke refererer til noget særligt udseende af, hvad der er menneskeligt, for at sikre, at der ikke utilsigtet undervises i bias.

Det samme team fra MIT har før været på den mørke side af AI. Deres første projekt var den AI-drevne 'Nightmare Machine'. Projektet tacklede udfordringen med at få AI til ikke kun at opdage men inducere ekstreme følelser som frygt hos mennesker.

De fulgte derefter dette grufulde projekt med udviklingen af ​​Shelley, verdens første samarbejdende AI Horror Writer. Shelley blev 'rejst; læser skræmmende historier om sengetid fra subReddit NoSleep.

Hun var derefter i stand til at skrive over 200 horrorhistorier i samarbejde med menneskelige forfattere. I 2017 vendte holdet sig væk fra den mørke side kort for at udvikle Deep Empathy, et projekt, der undersøgte, om AI kan øge empati for ofre for fjerne katastrofer ved at skabe billeder, der simulerer katastrofer tættere på hjemmet.


Se videoen: Grounded Theory - Core Elements. Part 1 (Oktober 2021).