Disabilità linguistica, ingegnere messinese inventa “App” con il riconoscimento vocale

31 Dicembre 2019

L'idea di Davide Mulfari è denominata “CapisciAMe” e consente di interagire con sistemi di controllo automatico dell’ambiente domestico. È scaricabile gratuitamente, così come “Tagga Tagga” che fornisce informazioni sull'accessibilità dei posti.

 

di

Lo sviluppo tecnologico ha l’obiettivo di migliorare le condizioni di vita dell’essere umano, e tutto ciò incide in misura maggiore sulle persone diversamente abili. Partendo da questo assunto, l’ingegnere informatico Davide Mulfari ha creato due Applicazioni per Smartphone che favoriscono la comunicazione e l’accessibilità ai luoghi da parte dei disabili: “CapisciAMe” e “Tagga Tagga”.

Responsabile Unità di staff “Assistive Technology for Special Needs” dell’Università di Messina e dottorando presso l’Ateneo di Pisa, il brillante 34enne messinese si muove in carrozzina perché è affetto da disabilità motorie con disartria, un disturbo neurologico che gli impedisce di articolare in modo chiaro le sillabe di una parola.

Spinto, quindi, dall’esigenza di dialogare con gli altri per realizzare i suoi progetti, ha deciso di aguzzare l’ingegno e tentare di abbattere le barriere linguistiche con i suoi mezzi. Per capire meglio in cosa consistono le due App ne abbiamo parlato proprio con il dottore Mulfari.

“CapisciAMe” grazie al riconoscimento vocale favorisce le possibilità comunicative di chi è affetto da disabilità linguistica. Come funziona e quali sono i suoi potenziali sviluppi futuri?

«In contesti sperimentali ha buone performance (tra 80% e il 95%) nel riconoscimento di 13 parole pronunciate da quelle stesse persone che hanno contribuito all’addestramento. Il mio obiettivo è raccogliere ulteriori campioni vocali di persone con disartria, con disabilità del linguaggio o comunque con un parlato non riconosciuto dagli attuali assistenti vocali come “Siri” di Apple, “Alexa” di Amazon o “Google Assistant”. A costoro chiedo di usare la mia App per “donare” la loro voce, ossia di pronunciare un set limitato di parole per un numero predeterminato di volte. Questi contributi vocali vengono registrati localmente sullo smartphone in uso e sono trasmessi, tramite Internet, ad una base di dati centrale. Con queste “donazioni” io effettuo l’addestramento di un modello di rete neurale presente sui miei computer. Il riconoscimento di poche parole permette già di interagire con sistemi di controllo automatico dell’ambiente domestico (spegnere/accendere una luce o un qualunque elettrodomestico). Se il progetto andrà avanti è mia intenzione sviluppare anche la versione per Iphone».

“Tagga Tagga” invece è nata per aiutare i disabili che voglio raggiungere un determinato luogo…

«L’App “TaggaTagga” è disponibile sia per dispositivi Apple che Android ed è stata sviluppata per andare incontro ai reali bisogni di coloro, siano essi caregivers o gli stessi disabili, che vorrebbero avere preliminarmente le informazioni importanti sull’accessibilità dei posti in cui intendono recarsi. Ad esempio, possono avere bisogno di sapere dove siano i posteggi riservati, gli ascensori, i servizi o gli ingressi veramente accessibili agli edifici. L’Applicazione è in grado di indicare il luogo più vicino che meglio risponde alle proprie esigenze. Oltre che toccando lo schermo di uno smartphone, funziona anche intercettando precisi comandi vocali. Queste informazioni, per essere fornite agli utenti, devono essere presenti in archivio, per cui c’è una sezione apposita dell’App che permette ai fruitori stessi, o a persone espressamente incaricate, di immetterle nel sistema. “Tagga Tagga” prevede una sorta di approccio social e la condivisione di informazioni pertinenti all’accessibilità dei luoghi».

Il primo progetto è stato realizzato insieme all’equipe pisana e il secondo con il prof Massimo Villari dell’Ateneo Peloritano. Entrambe le App sono open source?

«Sviluppare software è la mia grande passione, credo nei valori dell’open source e tali sono le componenti software utilizzate per lo sviluppo. Ho scelto di pubblicare entrambe le App gratuitamente perché sono convinto che i servizi di accessibilità siano essenziali e non debbano essere a pagamento. “CapisciAMe” è stata sviluppata nell’ambito della mia tesi di dottorato e rientra in un progetto più ampio del prof. Luca Fanucci, dell’Università di Pisa, sul riconoscimento automatico del parlato disartrico. Di questo, io curo autonomamente l’aspetto legato all’utilizzo di strumenti dell’intelligenza artificiale e ho ideato tutta l’App per acquisire i contributi vocali. TaggaTagga è stata invece sviluppata da me per l’Università di Messina, sotto la direzione del Prof. Massimo Villari. Spetta all’Ateneo, proprietario dell’Applicazione, stabilire le modalità più opportune per la sua promozione».

Hai già dei dati sulla loro diffusione e sul grado di soddisfazione degli utenti?

«Per quanto riguarda “CapisciAMe” finora le persone che hanno donato la loro voce e che mi hanno permesso un primo addestramento della rete neurale e i primi test di funzionamento, sono in tutto 13. Un donatore sono io, 6 sono persone con le quali ho stabilito contatti via social e che hanno risposto ai miei appelli. Gli altri sono miei conoscenti personali e membri di associazioni messinesi di persone con disabilità. Ringrazio tutti loro di cuore per avermi permesso di concretizzare il mio lavoro. L’App ha avuto numerosi downloads e negli ultimi tempi c’è stato un incremento dal PlayStore di Google.  Per quanto riguarda “TaggaTagga”, i punti di interesse censiti sono in numero limitato e inseriti solo a fini dimostrativi. Spero che l’App possa trovare una sua collocazione nella stessa Università e anche nella città di Messina».

POTREBBERO INTERESSARTI ANCHE...

Seguici su Facebook

Made with by DRTADV