Akoestische aanraaktechnologie helpt blinden te ‘zien’ met behulp van geluid – Physics World

Akoestische aanraaktechnologie helpt blinden te ‘zien’ met behulp van geluid – Physics World

Bronknooppunt: 3028585


Akoestische aanraking gebruiken om een ​​item op tafel te lokaliseren
Akoestische aanraking Een lid van het onderzoeksteam dat blind is, gebruikt de nieuwe slimme bril om een ​​voorwerp op tafel te lokaliseren en te pakken. (Met dank aan: CC-BY 4.0/Lil Deverell op het Motion Platform en Mixed Reality Lab in Techlab op de UTS)

Onderzoekers in Australië ontwikkelen een slimme bril voor blinden, waarbij ze gebruik maken van een technologie genaamd ‘akoestische aanraking’ om beelden in geluiden om te zetten. Eerste experimenten suggereren dat deze draagbare ruimtelijke audiotechnologie mensen die blind zijn of een aanzienlijk verminderd gezichtsvermogen hebben, kan helpen objecten in de buurt te lokaliseren.

Recente verbeteringen in augmented reality, praktische draagbare cameratechnologie en op deep learning gebaseerd computervisie versnellen de ontwikkeling van slimme brillen als een haalbare en multifunctionele ondersteunende technologie voor mensen die blind of slechtziend zijn. Dergelijke slimme brillen bevatten camera's, GPS-systemen, een microfoon en traagheidsmetingen en dieptesensoren om functies te leveren zoals navigatie, spraakherkenning of het weergeven van objecten, tekst of omgeving als computergesynthetiseerde spraak.

Howe Yuan Zhu en collega's van de University of Technology Sydney (UTS) en de Universiteit van Sydney onderzocht de toevoeging van akoestische aanraking aan slimme brillen, een aanpak die gebruik maakt van hoofdscans en de activering van auditieve iconen wanneer objecten verschijnen binnen een gedefinieerd gezichtsveld (FOV).

Schrijven in PLoS ONEleggen de onderzoekers uit dat akoestische aanraking verschillende voordelen biedt ten opzichte van bestaande benaderingen, waaronder het gemak van integratie met slimme briltechnologie en intuïtiever gebruik dan computergesynthetiseerde spraak. Dergelijke systemen vereisen mogelijk ook minder training voordat gebruikers er vaardig in worden.

In samenwerking met ARIA Research uit Sydney (dat onlangs won Australisch technologiebedrijf van het jaar vanwege zijn baanbrekende vision-tech-innovaties) creëerde het team een ​​foveated audio-apparaat (FAD) om deze aannames te testen op zeven vrijwilligers met geen of slecht zicht, plus zeven ziende geblinddoekte deelnemers. De FAD bestaat uit een smartphone en de NREAL augmented reality-bril, waaraan het team bewegingsvastleggende reflecterende markeringen heeft bevestigd om het volgen van hoofdbewegingen mogelijk te maken.

De FAD voert objectherkenning uit en bepaalt de afstand van het object met behulp van de stereocamera’s op de bril. Vervolgens wijst het passende auditieve pictogrammen toe aan de objecten, zoals bijvoorbeeld een geluid voor het omslaan van pagina's voor een boek. Wanneer een drager zijn hoofd draait, verandert de herhalingsfrequentie van de auditieve pictogrammen afhankelijk van de positie van het item binnen het auditieve gezichtsveld.

De vrijwilligers namen deel aan zowel zittende als staande oefeningen. Voor de zittende taak moesten ze verschillende methoden gebruiken om alledaagse voorwerpen te zoeken en te hanteren, waaronder een boek, fles, kom of beker, geplaatst op een of meerdere tafels. Deze taak mat hun vermogen om een ​​item te detecteren, een geluid te herkennen en de positie van het item te onthouden.

De onderzoekers ontwierpen deze taak om de FAD-prestaties te vergelijken met twee conventionele spraaksignalen: verbale aanwijzingen op de wijzerplaat; en het opeenvolgend afspelen van auditieve iconen uit luidsprekers die zich bij elk item bevinden. Ze ontdekten dat voor blinde of slechtziende deelnemers de prestaties met behulp van de FAD vergelijkbaar waren met de twee geïdealiseerde omstandigheden. De geblinddoekte ziende groep presteerde echter slechter bij gebruik van de FAD.

Bij de staande reiktaak moesten de deelnemers de FAD gebruiken om een ​​doelitem tussen meerdere afleidende items te zoeken en te bereiken. Deelnemers werd gevraagd objecten te vinden die op drie tafels waren geplaatst en die waren omgeven door vier flessen met verschillende vormen. Deze taak beoordeelde voornamelijk de functionele prestaties van het systeem en het menselijk gedrag bij gebruik van volledige lichaamsbeweging tijdens het zoeken.

“Dit jaar hebben we intensief onderzoek gedaan naar het gebruik van de auditieve soundscape ter ondersteuning van verschillende complexe taken”, vertelt Zhu Fysische wereld. “We hebben in het bijzonder onderzoek gedaan naar het gebruik van verschillende soorten ruimtelijke geluiden om mensen te begeleiden tijdens navigatie en ter ondersteuning van sportactiviteiten, met name tafeltennis. Volgend jaar hopen we deze gebieden verder uit te breiden en studies uit te voeren in de praktijk.”

Tijdstempel:

Meer van Natuurkunde wereld