Grazie all’Intelligenza Artificiale arriva l’assistente virtuale empatico che consente ai cittadini sordi di accedere autonomamente ad informazioni e servizi
L’Intelligenza Artificiale aiuta a superare un altro confine grazie al primo ‘umano virtuale’ made in italy capace di produrre e comprendere la lingua dei segni italiana. Si tratta di un assistente virtuale empatico, un avatar avveniristico utile a promuovere una reale accessibilità per tutti i cittadini. Dietro alla sua realizzazione c’è la tecnologia di QuestIT, company made in Italy che, per l’occasione, ha stretto una partnership con l’Università di Siena e il Cnr. “La ricerca è la base dell’innovazione e l’intelligenza artificiale sarà la freccia più potente del nostro arco in vista dei prossimi anni” afferma Ernesto Di Iorio, Ceo di QuestIT
QuestIT per l’occasione ha stretto una partnership strategica proprio con il Santa Chiara Fab Lab dell’Ateneo toscano e con il Consiglio Nazionale delle Ricerche. “Per innovare il presente serve tanta ricerca e, soprattutto, la tecnologia giusta” afferma ancora Di Iorio. Il Ceo spiega che “per questo motivo abbiamo sfruttato le incredibili potenzialità dell’intelligenza artificiale per strutturare un avatar di ultima generazione che conosce alla perfezione la Lingua dei Segni Italiana. Grazie ad esso, potenziamo la ‘digital accessibility’ e diamo l’opportunità ai cittadini sordi di accedere autonomamente ad informazioni e servizi offerti da enti e realtà del territorio come la Pubblica Amministrazione e le banche, ma i potenziali campi d’applicazione sono innumerevoli: dall’organizzazione degli appuntamenti negli ospedali alla spiegazione di mostre o eventi culturali nei musei fino al chiarimento di materie o singoli concetti nelle scuole o nelle aule universitarie”.
Attualmente il virtual assistant può essere inserito all’interno di siti web, applicazioni, sistemi proprietari e persino totem interattivi. Una volta che la persona in questione si presenta dinanzi allo schermo e inizia ad interagire a suon di segni, l’invenzione analizza le espressioni facciali del singolo, oltre ai suoi movimenti, e risponde utilizzando la Lis. In questo modo è in grado di offrire consulenze mirate ed efficaci, a seconda del contesto di riferimento, ai clienti sordi. Ma non finisce qui, infatti, sono previste a stretto giro una serie di lavorazioni utili a perfezionare lo stesso umanoide.
“Stiamo già lavorando su quello che può essere l’evoluzione della tecnologia. L’obiettivo – aggiunge Di Iorio – è quello di offrire un avatar capace di tradurre simultaneamente le parole in segni. Già oggi, dopo una prima fase di training è in grado di gestire le richieste della clientela in totale autonomia e offrire così l’assistenza di cui le persone necessitano. Per l’organizzazione di questo progetto così ambizioso non potevamo che coinvolgere il Dipartimento di Scienze Sociali, Politiche e Cognitive dell’Università di Siena oltre all’Istituto di Scienze e Tecnologie della Cognizione del Consiglio Nazionale delle Ricerche e al Gruppo per lo studio e l’informazione della Lingua dei Segni Italiana”.
Una volta ultimate le presentazioni, QuestIT, in compagnia di IgoodI, avatar factory italiana, ha premiato anche il vincitore dell’Avacontest, anzi la vincitrice, ovvero Sarah Balestrieri. La giovane, insieme ad altri cittadini provenienti da tutta Italia, ha preso parte all’iniziativa che ha visto i singoli partecipanti tramutarsi in avatar e, oltre a vincere 2.500 euro, diventerà anche testimonial di imprese ed enti pubblici del territorio sotto forma di assistente virtuale.
Fonte: https://www.adnkronos.com/innovazione-nasce-il-primo-avatar-che-parla-la-lingua-dei-segni-italiana_48gcd8oZWT0CrqVlCEzpYi?refresh_ce