Apple sta cercando di migliorare Siri Per capire meglio le persone che hanno un problema di linguaggio come la balbuzie, secondo nuovi dettagli pubblicati dal Wall Street Journal in un articolo su come le aziende stanno sviluppando assistenti vocali per affrontare discorsi insoliti come la balbuzie, e la cosa strana è che Apple ha ha avuto il vantaggio di affrontare questo problema per molto tempo, ma sembra che non sia abbastanza sofisticato.
Lo sviluppo di un assistente personale per qualsiasi azienda è diventato una questione urgente ed è necessario per comprendere tutti i tipi di discorso e dialetti. Ad esempio, si è verificata una storia che ha dimostrato che è molto necessario. La signora Dagmar Moon e suo marito hanno acquistato un altoparlante intelligente da Amazon sette anni dopo che la signora Moon ha contratto la SLA, ciò causa il danneggiamento delle cellule nervose e i muscoli non possono più essere mossi, il che porta gradualmente alla loro debolezza, al punto di paralisi. Durante la malattia, i muscoli responsabili del movimento degli arti, della deglutizione, del parlare e persino della respirazione, vengono gradualmente feriti, senza un ordine fisso. Questa malattia non danneggia i cinque sensi, le capacità mentali o i muscoli interni (cuore, vescica urinaria, apparato digerente, ecc.).
Oh Dio, guarisci noi e te da ogni male e male e guarisci ogni paziente musulmano
All'inizio, l'assistente vocale, Alexa, è stata in grado di capire cosa stava dicendo la signora Moon. Ma quando le sue condizioni sono peggiorate e il suo linguaggio è diventato più lento e più confuso, si è trovata incapace di comunicare attraverso il suono.
"Non sono veloce a parlare abbastanza per pronunciare i comandi vocali", ha detto la signora Moon. "Se volessi dire qualcosa come" Alexa, dimmi le notizie ", verrà chiuso prima che io finisca la domanda."
Di conseguenza, la signora Moon non è riuscita a interagire con assistenti vocali come Alexa perché la tecnologia non era stata addestrata per comprendere le persone che soffrono di balbuzie e disartria, un disturbo del linguaggio causato da muscoli del linguaggio deboli. Anche le persone che soffrono di balbuzie o difficoltà di linguaggio a causa di problemi di udito o cancro orale possono avere difficoltà a essere comprese dagli assistenti vocali.
Secondo il National Institute on Deafness and Communication Disorders, circa 7.5 milioni di persone negli Stati Uniti hanno solo problemi a usare la voce. Questo gruppo rischia di essere lasciato indietro a causa della tecnologia di riconoscimento vocale in ritardo, ha affermato Julie Cateau, responsabile di produzione del team AI di Google. Google è una delle aziende che sta cercando ora di formare assistenti vocali per capire tutti, e quindi queste persone saranno il gruppo che trarrà i maggiori benefici da questa tecnologia.
"Per qualcuno con paralisi cerebrale che si siede su una sedia a rotelle, essere in grado di controllare il suo ambiente attraverso la sua voce può essere molto vantaggioso per lui", ha detto la signora Katiao. Google sta raccogliendo dati vocali atipici come parte di un'iniziativa per formare strumenti di riconoscimento vocale.
Anne Toth, direttrice di Alexa Trust di Amazon, ha affermato che la formazione di assistenti vocali per rispondere alle persone con disabilità del linguaggio potrebbe migliorare l'esperienza degli strumenti di riconoscimento vocale per un gruppo crescente di potenziali utenti come gli anziani, che sono più suscettibili alle malattie degenerative.
Così a dicembre Amazon ha annunciato l'integrazione di Alexa con Voiceitt, una startup supportata dall'Alexa Fund di Amazon che consente alle persone con disabilità del linguaggio di addestrare un algoritmo per riconoscere i loro modelli vocali unici. L'integrazione dovrebbe iniziare nei prossimi mesi e consentirà alle persone con un linguaggio atipico di utilizzare i dispositivi Alexa parlando nell'app Voiceitt.
Una funzionalità nell'iPhone per aiutare i balbuzienti dal 2015
Apple ha affermato che la sua funzione Hold to Talk, introdotta su iPhone nel 2015, consente già agli utenti di controllare per quanto tempo desiderano che l'assistente vocale Siri ascolti, impedendo all'assistente di interrompere gli utenti che già balbettano prima che finiscano di parlare.
La società sta ora esaminando come rilevare automaticamente se qualcuno sta parlando con una balbuzie e ha già creato una banca di 28000 podcast che includono Stutter per farlo.
Un portavoce di Apple ha affermato che i dati mirano a migliorare i sistemi di riconoscimento vocale per le persone con schemi vocali atipici e ha rifiutato di commentare il modo in cui Apple utilizza i risultati dei dati in dettaglio.
Google e il progetto Euphonia
Il progetto Euphonia sta testando il progetto Euphonia di Google, un'iniziativa di ricerca di Google incentrata sull'aiutare le persone con difficoltà di linguaggio a migliorare e consente loro di comunicare con l'Assistente Google e i prodotti intelligenti di Google Home attraverso un programma di formazione per comprendere i loro schemi di discorso unici. Ma raccoglie anche una banca vocale per discorsi straordinari forniti da volontari, inclusa la già citata signora Moon.
Google spera che questo aiuti ad addestrare la sua intelligenza artificiale a comprendere tutti i modelli di discorso, sebbene non sia un compito facile per tutti, perché i modelli di discorso regolare sono vicini nonostante la differenza di accenti, a differenza del discorso non stereotipato, è più vario e diverso, il che rende più difficile la comprensione Intelligenza artificiale.
I critici dicono che le aziende sono state troppo lente nell'affrontare il problema di avere assistenti personali circa 10 anni fa. Ha risposto che questa tecnologia era diventata abbastanza sofisticata e ha affrontato le complessità del discorso non standard.
Contribuire a progetti come il progetto Euphonia può anche essere difficile per le persone con un linguaggio atipico. La signora Moon dice che a volte trova faticoso parlare fisicamente, ma è felice di contribuire se aiuta a insegnare all'assistente vocale a capirla.
Fonte:
In primo luogo, sviluppano la lingua araba
Grazie mille 🌹
Grazie mille 🌹
ممتاز جدا
Voglio dire, su base biografica, si capisce che le persone eloquenti non hanno un handicap 😹 In modo che le persone che le contano possano capire la balbuzie
Grazie per questo bel argomento
Grazie dello sforzo
Sono rimasto molto sorpreso da Apple per non aver sviluppato Siri Arabic dal giorno in cui hanno funzionato !!
Discorso sterile e molto cattivo e rotto e le sue condizioni blah!
Perché non imparano da Google e prendono la loro esperienza !!
Anni lunghi e lui è nelle stesse condizioni e incolpa tutta la colpa della parte araba dell'azienda !!
Possa Allah guidarli e risolverli !!
Apple e la sua incessante ricerca di rendere Siri il migliore è ciò che lo rende il più forte tra i suoi pari
Spero che sarai anche nel dispositivo iPhone nel prossimo aggiornamento