Generel

Forskere udvikler et AI-system, der giver tekstlige og visuelle svar


Et team af forskere inden for kunstig intelligens (AI) ved Cornell University har udviklet en dyb læringsmodel, der resulterer i et neuralt netværk, der ikke kun kan besvare spørgsmål, men også give en visuel forklaring.

I deres forskningspapir med titlen "Multimodale forklaringer: at retfærdiggøre beslutninger og pege på beviset" (som stadig afventer godkendelse) beskriver teamet de eksperimenter, der er udført med PJ-X-modellen (Pointing and Justification Explanation), de udviklede.

Ved at bruge en multimodal tilgang overgik holdet de begrænsninger, der er pålagt af unimodale modeller, en mulighed, som de hævder, er "at tilbyde enten billedbaseret visualisering af opmærksomhedsvægte eller tekstbaseret generering af post-hoc-retfærdiggørelser."

Holdet brugte identiske side om side-billeder, og efter at have introduceret en kontrolleret mængde data til PJ-X kunne modellen give forklaringer, der tilfredsstiller både aktivitetsgenkendelsesopgaver (ACT-X) og visuelle spørgsmålssvarende opgaver (VQA-X) .

Låse op for Mysteries of the Black Box

Selvom eksperimentet er ret lille i skala, kan det have vidtrækkende konsekvenser. Området med AI-forskning og -udvikling (F&U) er et af de mest spændende områder inden for videnskabelig forskning, der er opstået i det sidste årti, og det relative niveau af sund konkurrence mellem lande - alt sammen i stræben efter at hævde den gyldne pris for ”Verdensleder i AI Technologies ”føder projekter og forskningseksperimenter, der har resulteret i det ene gennembrud efter det andet.

Med brugen af ​​en mere dynamisk tilgang til dyb læring og algoritmer giver forskningen udført af teamet ved Cornell University fremragende værdi til det videnskabelige samfund.

Jo flere måder, der genereres ved at give svar, jo færre skeptikere vil der pege på den vage karakter af forklaringer, der gives om, hvordan AI fungerer. For eksempel er den kryptiske sorte boks - AI-datalageret, hvorigennem data behandles, og hvorfra svarene opstår, indhyllet i mysterium med en MIT Technology Review kildeopladning:

”Ingen ved virkelig, hvordan de mest avancerede algoritmer gør, hvad de gør. Det kunne være et problem. ”

I betragtning af dette komplicerede problem såvel som det svimlende udvalg af applikationer til AI-teknologi - området medicin og sundhedspleje er blevet undersøgt mest, i vid udstrækning på grund af muligheden for at bruge dyb læringsalgoritmer og dybe neurale netværk til at klassificere og diagnosticere alt fra hjertesygdomme til hudkræft. Emnet afsløring, uden tvivl et af de mest centrale temaer i moderne medicin, har dog udviklet sig parallelt med lægevidenskaben.

Takket være milepælslovgivning som Health Insurance Portability and Accountability Act (HIPAA) fra 1996 er der gjort reguleringsbestræbelser, der sikrer, at patienter og læger forbliver gensidigt informeret, uanset hvilken type medicinsk teknologimiljø, der eksisterer til enhver tid. Alligevel står vi måske over for behovet i de næste par år at opdatere offentliggørelseslove for at afspejle den hidtil usete indflydelse af teknologi inden for medicin. Vi må ikke give efter for vores mistanke til det punkt, at vi står i vejen for vital og meget tiltrængt forskning.


Se videoen: Day at Work: Software Engineer (Oktober 2021).