Generel

Japansk Android-barns ansigt kan nu formidle menneskelige følelser


Japanere har altid elsket deres robotter. Der er ingen tvivl om det. For nylig har en gruppe forskere ved Osaka University imidlertid taget denne kærlighed til det næste niveau.

Deres Android-barnansigt, der kaldes Affeto, er i stand til at udføre glatte og hurtige bevægelser, der sigter mod at opnå en interaktion, der ligner et barn. De er kommet med en metode, der både identificerer og vurderer ansigtsbevægelserne på Android-barnets hoved kvalitativt.

Publikationen om den første generation af disse Android-robothovedmodeller blev udgivet i år 2011. Nu med anden generation har de taget et stort spring fremad.

De opgraderes på en måde, så deres udtryk er mere barnagtige og effektivt kan formidle følelser. Derfor har de et højere og et dybere udvalg af følelser, der kan føre til en bedre interaktion med mennesker.

Affeto's ansigtsudtryk

Undersøgelserne var omfattende i undersøgelsen af ​​ansigtsudtryk på Affeto. De begyndte med at undersøge så mange som 116 forskellige ansigtspunkter.

Dette blev gjort for at måle og forstå dens bevægelser på en tredimensionel måde. Desuden blev disse ansigtspunkter fundet af forskerne understøttet af deformationsenhederne.

Disse deformationsenheder hjalp til med kreativ specifik ansigtsforvrængning at gøre det mere menneskeligt. Dette omfattede sænkning af øjenlåget, hævning af øjenlåget, lignende bevægelser i læberne og så videre

Endelig målte de disse bevægelser gennem en matematisk model for at kvantificere dataene på deres overfladebevægelsesmønstre. Forskerne var med succes i stand til at justere deformationsenhederne på en måde, så de kunne få præcise ansigtsoverfladebevægelser på Affettos ansigt.

Imidlertid stod de over for udfordringer med at forbedre den syntetiske hud og anvende den samlede kraft.

"Android-robotansigter har vedvaret med at være et sort bokseproblem: de er blevet implementeret, men er kun blevet bedømt i vage og generelle termer. Vores præcise fund giver os mulighed for effektivt at kontrollere android-ansigtsbevægelser for at introducere mere nuancerede udtryk, såsom at smile og rynke , "sagde Hisashi Ishihara, den første forfatter af undersøgelsen.

Tidligere forsøg på sådanne Android-ansigter

Den nuværende version af dette Android-barnrobotansigt er skabt med det formål at vise udtrykkene fra en til et to-årigt barn. Det bruges til at studere de tidlige stadier af menneskelig udvikling i den sociale sammenhæng.

Som nævnt ovenfor blev dette Android-ansigt først afsløret i 2011. Der har også tidligere været mange lignende forsøg, hvor forskere forsøger at forstå dybden af ​​interaktion, der er mulig mellem mennesker og børnrobotter.

Imidlertid havde de ikke et realistisk udseende af et barns ansigt tidligere, så det påvirkede interaktionen enormt. Derfor var de ikke i stand til at forstå indviklingen ved interaktion mellem menneske og robot.

I mange tilfælde kunne folk ikke tale naturligt med robotter, som de ville gøre med mennesker. Nu, med dette nye barnlignende Android-hoved, håber forskerne at overvinde denne udfordring og komme videre i forholdet mellem menneske og robot.

Målet med forskerne gennem disse robotter er at hjælpe disse robotter med at dele deres følelser med omsorgspersoner. Dette er et fremragende skridt til forbedring af plejepersoners tjenester og også i interaktion mellem menneske og robot.

Vi kan kun vente med at se, hvad fremtiden ser ud.


Se videoen: Tlön, Uqbar, Orbis Tertius by Jorge Luis Borges (Oktober 2021).