Duke University presenterar EyeSyn – De "virtuella ögonen" som efterliknar mänskliga ögonrörelser

Källnod: 1231201

 

Smakämnen metaversumet lovar att bli nästa stora grej efter revolutionen för mobilt internet. Det räcker inte att koppla samman människor – ambitiösa företag vill föra dem samman i en virtuell värld som perfekt replikerar den verkliga. Avatarer kommer att interagera med varandra, göra affärer och ha kul precis som i den fysiska världen.

.u3464dafacf4c5fdae348defae1970fc7 { padding:0px; marginal: 0; padding-top:1em!viktigt; padding-bottom:1em!viktigt; bredd:100%; display: block; font-weight:bold; bakgrundsfärg:#FFFFFF; gräns:0!viktigt; border-left:4px solid #E74C3C!viktigt; box-shadow: 0 1px 2px rgba(0, 0, 0, 0.17); -moz-box-shadow: 0 1px 2px rgba(0, 0, 0, 0.17); -o-box-shadow: 0 1px 2px rgba(0, 0, 0, 0.17); -webkit-box-shadow: 0 1px 2px rgba(0, 0, 0, 0.17); text-dekoration:ingen; } .u3464dafacf4c5fdae348defae1970fc7:active, .u3464dafacf4c5fdae348defae1970fc7:hover { opacitet: 1; övergång: opacitet 250ms; webkit-transition: opacitet 250ms; text-dekoration:ingen; } .u3464dafacf4c5fdae348defae1970fc7 { övergång: bakgrundsfärg 250ms; webkit-transition: bakgrundsfärg 250ms; opacitet: 1.05; övergång: opacitet 250ms; webkit-transition: opacitet 250ms; } .u3464dafacf4c5fdae348defae1970fc7 .ctaText { font-weight:bold; färg:#000000; text-dekoration:ingen; teckenstorlek: 16px; } .u3464dafacf4c5fdae348defae1970fc7 .postTitle { color:#2C3E50; text-dekoration: understryka!viktigt; teckenstorlek: 16px; } .u3464dafacf4c5fdae348defae1970fc7:hover .postTitle { text-decoration: underline!important; }

Se även:  The Rise of Virtual Avatars: Från sociala medier till företag och underhållning

För att nå dit finns det ett ständigt behov av datauppsättningar att träna AI och utveckla metaverse-plattformar. Och Duke University har precis levererat en viktig pusselbit. Ett team av dataingenjörer har nyligen utvecklat EyeSyn – virtuella ögon som efterliknar rörelsen och fokus hos verkliga mänskliga ögon.

Varför fokusera på att utveckla virtuella ögon?

Metaversens utveckling beror på hur användare interagerar med den virtuella världen och vad de fokuserar på. Mänsklig ögonrörelse är det mest relevanta sättet att utvärdera vad användare tycker är intressant, spännande och värt att titta på. Ögonen har förmågan att berätta mer om en persons känslor, intressen, preferenser och fördomar än någon annan typ av icke-verbal kommunikation.

"Om du är intresserad av att upptäcka om en person läser en serietidning eller avancerad litteratur genom att bara titta på deras ögon, kan du göra det," sade Nortel Networks biträdande professor i elektro- och datorteknik vid Duke University, Maria Gorlatova, förklarar konceptet bakom EyeSyn-programmet. "Var du prioriterar din vision säger mycket om dig som person också. Det kan oavsiktligt avslöja sexuella och rasistiska fördomar, intressen som vi inte vill att andra ska veta om och information som vi kanske inte ens känner till om oss själva.”

Vikten av ögonrörelse för att utveckla metaversen

Ansträngningarna för att utveckla den simulerade plattformen för mänskliga ögonrörelser EyeSyn är väl motiverade. Skapare och utvecklare av AR- och VR-innehåll kan lära sig mycket om användarnas preferenser. Således kan de:

  • Servera dem skräddarsytt innehåll;
  • Minska upplösningen för perifer syn för att spara datorkraft;
  • Tillåt användare att anpassa sin interaktion med virtuella tillgångar enligt deras preferenser.
översikt över EyeSyn virtuella ögon
Översikt över EyeSyn; Källa: EyeSyn: Psykologiinspirerad syntes av ögonrörelser för blickbaserad aktivitetsigenkänning

Med de virtuella ögonen som utvecklats av teamet av forskare vid Duke University kan företag som arbetar med att bygga metaversen träna sina AR- och VR-plattformar och mjukvara utan att behöva komma åt riktiga användares eyetracking-data.

EyeSyn Virtual Eyes öppnar möjligheter för mindre företag

Samtidigt kommer de virtuella ögonen att tillåta mindre innehållsskapare att få tillgång till värdefull eyetracking-data, utan att utföra dyra tester med verkliga användare.

"Vi ville utveckla mjukvara som... tillåter mindre företag som inte har de nivåerna av resurser att komma in i metaverse-spelet," sa Gorlatova. "Mindre företag kan använda det snarare än att spendera tid och pengar på att försöka bygga sina egna datauppsättningar i verkligheten (med mänskliga ämnen).

Hur exakta är de virtuella ögonen?

Duke University-teamet testade EyeSyn på videor av Dr. Anthony Fauci under presskonferenser och jämförde resultaten med faktiska ögonrörelser av mänskliga tittare. Resultaten indikerar en nära matchning mellan de virtuella ögonens fokus och verkliga människors.

"Den syntetiska data ensam är inte perfekt, men det är en bra utgångspunkt," sa Gorlatova. "Om du ger EyeSyn många olika ingångar och kör det tillräckligt många gånger, kommer du att skapa en datamängd av syntetiska ögonrörelser som är tillräckligt stor för att träna en klassificerare (maskininlärning) för ett nytt program."

Att använda EyeSyn åtgärdar problemet med integritetsproblem

Företag har ännu en anledning att ta till de virtuella ögonen som utvecklats av Duke University. Att spela in riktiga människors ögonrörelser innebär att samla in personuppgifter – för närvarande en mycket känslig fråga.

.u0ca47cb158a024e7b9870a5c6b4fd098 { padding:0px; marginal: 0; padding-top:1em!viktigt; padding-bottom:1em!viktigt; bredd:100%; display: block; font-weight:bold; bakgrundsfärg:#FFFFFF; gräns:0!viktigt; border-left:4px solid #E74C3C!viktigt; box-shadow: 0 1px 2px rgba(0, 0, 0, 0.17); -moz-box-shadow: 0 1px 2px rgba(0, 0, 0, 0.17); -o-box-shadow: 0 1px 2px rgba(0, 0, 0, 0.17); -webkit-box-shadow: 0 1px 2px rgba(0, 0, 0, 0.17); text-dekoration:ingen; } .u0ca47cb158a024e7b9870a5c6b4fd098:active, .u0ca47cb158a024e7b9870a5c6b4fd098:hover { opacitet: 1; övergång: opacitet 250ms; webkit-transition: opacitet 250ms; text-dekoration:ingen; } .u0ca47cb158a024e7b9870a5c6b4fd098 { övergång: bakgrundsfärg 250ms; webkit-transition: bakgrundsfärg 250ms; opacitet: 1.05; övergång: opacitet 250ms; webkit-transition: opacitet 250ms; } .u0ca47cb158a024e7b9870a5c6b4fd098 .ctaText { font-weight:bold; färg:#000000; text-dekoration:ingen; teckenstorlek: 16px; } .u0ca47cb158a024e7b9870a5c6b4fd098 .postTitle { color:#2C3E50; text-dekoration: understryka!viktigt; teckenstorlek: 16px; } .u0ca47cb158a024e7b9870a5c6b4fd098:hover .postTitle { text-decoration: understryka!viktigt; }

Se även:  XRSI släpper rapport om farorna med XR-datainsamling

De virtuella ögonen tillhör inte någon person – det finns därför ingen potentiell intrång i dataintegriteten när man skapar och använder datauppsättningar på detta sätt.

Den fullständiga rapporten om EyeSyn virtuella ögon kommer att presenteras av forskargruppen på Internationell konferens om informationsbehandling i sensornätverk, som kommer att äga rum i stort sett den 4-6 maj.

Tidsstämpel:

Mer från AR -inlägg