Generel

10 gange Ansigtsgenkendelsesteknologi fik det virkelig forkert


I løbet af de sidste par år er ansigtsgenkendelsesteknologien blevet mere kraftfuld til at registrere ansigterne mere præcist. I det mindste er det, hvad vi ofte hører fra fortalerne for denne teknologi. Sandheden er dog lidt anderledes. På trods af at ansigtsgenkendelsessystemer er forbedret markant, er der tilfælde, hvor det mislykkedes frygteligt og endda førte til nogle alvorlige konsekvenser.

Her er hvordan ansigtsgenkendelsesteknologien fik det virkelig forkert, hvilket beviste at det ikke skulle stole blindt på -

Apple iPhone X

Denne nylige pinlige hændelse opstod under lanceringen af ​​Apples nye iPhone X, da Craig Federighi kæmpede for at låse op for telefonen med sin meget omtalte Face ID-funktion. "Face ID er fremtiden for, hvordan vi låser iPhones op og beskytter følsomme oplysninger," siger Apple. Virksomheden kasserede det gamle Touch ID og valgte denne nye ansigtsgenkendelsesteknologi. Denne nøglefunktion fungerede dog ikke godt lige på lanceringsdagen. Mens han demonstrerede funktionen, blev Federighi tvunget til at indtaste adgangskoden, da systemet ikke genkendte hans ansigt i første omgang. Hændelsen inviterede allerede til enorm kritik fra internettet, men virksomheden siger, at funktionen er idiotsikker, og problemet opstod på grund af forkert håndtering af telefonen.

Samsung S8 & Note 8

Den meget roste ansigtsgenkendelsesfunktion fra Samsung er fyldt med alle fejlene. Der er flere videoer, der flyder på internettet, hvilket viser, at ansigtsgenkendelsesfunktionen let kan narres ved at vise en selfie fra en anden telefon. Dette er ret bekymrende, da alle let kan få adgang til din telefon, hvis de har din selfie. Imidlertid anerkendte virksomheden, at ansigtsgenkendelsesfunktionen ikke er beregnet til sikkerhed og er bare en anden måde at gå til startskærmen i stedet for at glide for at låse den op.

Boston Marathon Bombing

Boston Marathon Bombing er et andet tilfælde, hvor ansigtsgenkendelsesteknologi mislykkedes hårdt. På trods af CCTV-optagelserne fra de to mistænkte identificerede ansigtsgenkendelsessystemet, der blev brugt af politiet, ingen, selvom de mistænkte allerede var i deres database. Årsagen til denne fiasko ifølge efterforskerne skyldtes den dårlige billedkvalitet, som ikke fungerede til fordel for algoritmen.

Google Fotos

Google Fotos, I er alle sammen skidt. Min ven er ikke en gorilla. pic.twitter.com/SMkMCsNVX4

- OOP (@jackyalcine) 29. juni 2015

Googles populære fotos-app, der er meget afhængig af ansigtsgenkendelse for at kategorisere fotos i albummet, mislykkedes forfærdeligt, da det fejlagtigt betegnede et par som "gorillaer". Jacky Alcine, brugeren af ​​denne app, bragte den til Googles opmærksomhed, da hele samlingen af ​​hans fotos med sin ven blev forklassificeret. Alcine offentliggjorde problemet ved at sende fejlen på Twitter, hvilket førte til, at Google stod over for et tilbageslag, især på grund af fejlens racistiske intentioner. Google undskyldte dog for fejlen og lovede, at spørgsmål som dette ikke vil ske igen. Imidlertid vil kun tiden vise, hvor hurtigt virksomheden kan forbedre intelligensen inden for ansigtsgenkendelsesteknologien, da appen i flere andre tilfælde har fejlagtigt klassificeret billederne.

Nikon Coolpix

I en stræben efter at integrere flere nørdede funktioner i gadgets ender virksomheder sommetider med at skabe utilsigtede konsekvenser. Ansigtsgenkendelsesteknologien i Nikon Coolpix-kameraet gjorde netop det. Joz Wang, en af ​​kunderne, der købte kameraet, måtte håndtere et underligt problem, da hun forsøgte at klikke på sit billede. Kameraet kunne ikke genkende det asiatiske ansigt og blinkede en meddelelse "Blinkede nogen?" hver gang hun forsøgte at klikke på et portræt. Det var først, da hendes bror stillede med sine vidåbne øjne, at de indså, at kameraet ikke var i stand til at identificere, om øjnene var åbne. Hun indsendte sit billede på sin blog med titlen ”Racist Camera! Nej, jeg blinkede ikke ... jeg er bare asiatisk! ” Stillingen blev hurtigt hentet af Gizmodo og Boing Boing. Hvad der dog er overraskende er, at Nikon som japansk virksomhed ikke designede kameraet i betragtning af asiater.

Notting Hill Carnival

På trods af modstanden brugte Londons Met-politi sit kontroversielle og unøjagtige automatiserede ansigtsgenkendelsessystem andet år i træk, og det viste sig mere end ubrugeligt. Systemet identificerede 35 falske kampe og en "fejlagtig anholdelse" for en oprørshandling. Selvom systemet mislykkedes forfærdeligt, finder Met Police det vellykket. Met sagde: "Vi har altid fastholdt, at det var en fortsat retssag at teste teknologien og vurdere, om den kunne hjælpe politiet med at identificere kendte lovovertrædere i store begivenheder for at beskytte den bredere offentlighed."

HP-webkameraer

I 2012 måtte HP stå over for en akavet situation, da dets nye webkameraer med ansigtssporingsfunktion ikke kunne genkende sorte ansigter. En af brugerne indsendte en video på YouTube for at demonstrere fejlen i webkameraet, som hurtigt gik viralt over internettet. Virksomheden svarede dog på dem ved at nævne kontrastintensiteten som problemet bag problemet.

”Vi arbejder sammen med vores partnere for at lære mere. Den teknologi, vi bruger, er bygget på standardalgoritmer, der måler forskellen i kontrastintensitet mellem øjnene og den øverste kind og næse. Vi mener, at kameraet kan have svært ved at se kontrast under forhold, hvor der ikke er tilstrækkelig forgrundsbelysning. ”

Falsk kørekort

Massachusetts State Police identificerede fejlagtigt et kørekort som falsk på grund af, at ansigtsgenkendelsessystemet ikke identificerede personen. John H. Gass fra Needham måtte bevise sin identitet, da han blev informeret om, at hans kørekort var falsk. Problemet var imidlertid med sikkerhedssystemet, der fandt Johns ansigt svarende til en af ​​de millioner af chauffører i Massachusetts. Mens embedsmændene siger, at falske positive med sådanne systemer er uundgåelige, er bekymringen, hvad der ville ske, hvis nogen blev arresteret, bare fordi ansigtsgenkendelsessystemet synes, at han ligner en af ​​de eftersøgte kriminelle?

New Zealand-pasfornyelsessoftware

Software til ansigtsgenkendelse fik den newzealandske regering i problemer, efter at den ikke kunne genkende billedet af en asiatisk mand.

Richard Lee, der ønskede at forny sit pas, blev overrasket, da pasfornyelsessystemet, der benyttede ansigtsgenkendelsesteknologi, ikke accepterede hans foto. En akavet fejlmeddelelse dukkede op på skærmen og sagde: “Det foto, du vil uploade, opfylder ikke vores kriterier, fordi: Emne øjne er lukkede”. Lee fik stor støtte fra de lokale, men han tog problemet humoristisk. New Zealand Department of Internal Affairs svarede dog og sagde, at deres software er en af ​​de mest avancerede i verden, og fejlen skyldtes ujævn belysning i individets ansigt.

FBI's ansigtsgenkendelsessystem

Dette er sandsynligvis en af ​​de mest skræmmende hændelser, da ansigtsgenkendelsessystemet fik det hele forkert. Steve Talley, en finansiel rådgiver fra Denver, blev fejlagtigt beskyldt to gange for at have holdt op med to banker. FBI's ansigtsgenkendelsessystem fandt ligheder mellem Steve Talley og manden, der røvede bankerne. Anklagerne blev dog senere henlagt, da ansigtseksaminatoren ikke identificerede en muldvarp på Talleys højre kind, efterfulgt af en højdeanalyse, der viste, at Talley var tre inches højere. Arrestationen forårsagede imidlertid Talley alt. Han endte med at miste sit job og sin familie. Han blev kvæstet under anholdelser og er hjemløs. Han har anlagt sag for skaden og søger 10 millioner dollars.


Se videoen: Giant Chipotle Barbacoa u0026 Carne Asada Burrito Crunchy Chips Guacamole TRUE CRIME STORIES MUKBANG (December 2021).