Des ingénieurs de l'université de Cornell ont mis au point des lunettes dotées d'un sonar intégré pour reconnaître la parole des utilisateurs silencieux. Si une personne ne peut pas émettre de sons pour une raison quelconque, mais que sa bouche reste mobile, elle peut imiter la parole en bougeant ses lèvres.
Le dispositif EchoSpeech est capable de capter ces mouvements et de les traduire en commandes vocales.
Le principe de fonctionnement d'EchoSpeech est simple : une paire de sources de signaux acoustiques est placée sur un arc de la monture des lunettes, et une paire de microphones pour les recevoir est placée sur l'autre arc. Les ondes sont dirigées vers la bouche et sont réfléchies par les lèvres d'une personne lorsqu'elles bougent, formant ainsi des signaux caractéristiques. Il en résulte un sonar analogue permettant de lire les données vocales, même si aucun son n'est produit.
Le système d'apprentissage automatique permet d'adapter les lunettes à chaque nouvel utilisateur et à son anatomie en quelques minutes seulement. Un point important - EchoSpeech n'utilise pas la connexion Internet et l'accès à des serveurs puissants pour le traitement de l'information, tous les processus sont autonomes, la confidentialité est préservée. L'appareil peut reconnaître environ 30 commandes différentes avec une précision de 95 %. Aucun composant consommant de l'énergie n'est utilisé, de sorte que l'EchoSpeech peut fonctionner jusqu'à 10 heures avec une seule charge.
2023-04-12 10:04:02
Auteur: Vitalii Babkin
URL source