Gli ingegneri della Cornell University hanno sviluppato degli occhiali con un sonar incorporato per riconoscere il parlato degli utenti silenziosi. Se una persona non può emettere suoni per qualche motivo, ma la sua bocca rimane mobile, può imitare il parlato muovendo le labbra.
Il dispositivo EchoSpeech è in grado di catturare questi movimenti e di tradurli in comandi vocali.
Il principio di funzionamento di EchoSpeech è semplice: una coppia di sorgenti di segnali acustici è collocata su un arco della montatura degli occhiali e una coppia di microfoni per riceverli è collocata sull'altro arco. Le onde sono dirette verso la bocca e vengono riflesse dalle labbra di una persona mentre si muovono, formando segnali caratteristici. Il risultato è un sonar analogico per la lettura dei dati vocali, anche se non viene prodotto alcun suono.
Il sistema di apprendimento automatico consente di adattare gli occhiali a ogni nuovo utente e alla sua anatomia in pochi minuti. Un punto importante: EchoSpeech non utilizza la connessione a Internet e l'accesso a potenti server per l'elaborazione delle informazioni, tutti i processi sono autonomi e la riservatezza è preservata. Il dispositivo è in grado di riconoscere circa 30 comandi diversi con una precisione del 95%. Non vengono utilizzati componenti che consumano energia, quindi EchoSpeech può funzionare fino a 10 ore con una sola carica.
2023-04-12 10:04:02
Autore: Vitalii Babkin
URL di origine