Eine Vielzahl von Gadgets unterstützt die Sprachsteuerung. Das ist ziemlich bequem, aber die Technologie hat Nachteile: Verlust der Privatsphäre, Probleme beim Erkennen des gesprochenen Befehls an einem lauten Ort, Geräte machen oft Fehler und können die Stimmen der Besitzer nicht identifizieren. Eine Gruppe begeisterter Wissenschaftler der New York University in Buffalo schlug ihre eigene EarCommand-Technologie zur lautlosen Steuerung mobiler Elektronik vor.
Die Forscher gingen von einer wichtigen Beobachtung aus. Tatsache ist, dass bei der lautlosen Aussprache von Wörtern die Bewegungen von Knochen und Muskeln eine Verformung des Gehörgangs hervorrufen. Gleichzeitig können Verformungsmodelle mit bestimmten Wörtern verglichen werden. Der EarCommand ähnelt in seiner Form einem Ohrhörer und ist ein nach innen gerichteter Miniaturlautsprecher. Es erzeugt und leitet Ultraschallwellen in den Gehörgang. Ein empfindliches Mikrofon fängt das von den Wänden des Kanals reflektierte "Echo" ein. Das Signal wird dann von einem Computer analysiert.
Die Technologie wurde bereits getestet. Die Wissenschaftler entwickelten 32 Befehle in Form einzelner Wörter und 25 weitere in Form von Sätzen. Die Erkennungsqualität erwies sich als zufriedenstellend: Die Fehlerquote lag nicht über 10,2 bzw. 12,3 %. Diese Indikatoren können verbessert werden, wenn sich der Ansatz verbessert. Das experimentelle System funktioniert gut bei hohen Geräuschpegeln und bei Verwendung von Gesichtsmasken. Entwickler halten es für vielversprechend und forschen weiter.
2022-10-16 10:36:12
Autor: Vitalii Babkin