Apple sucht nach Verbesserungsmöglichkeiten Siri Um Menschen mit Sprachproblemen wie Stottern besser zu verstehen, haben neue Details vom Wall Street Journal in einem Artikel darüber veröffentlicht, wie Unternehmen Sprachassistenten entwickeln, um mit ungewöhnlichen Reden wie Stottern umzugehen, und das Seltsame ist, dass Apple dies hat hatte den Vorteil, dies für eine lange Zeit anzugehen, aber es scheint, dass es nicht raffiniert genug ist.

Apple entwickelt Siri, um mit Stotternden umzugehen


Die Entwicklung eines persönlichen Assistenten für jedes Unternehmen ist zu einer dringenden Angelegenheit geworden und erfordert das Verständnis aller Arten von Sprache und Dialekten. Zum Beispiel geschah eine Geschichte, die bewies, dass sie dringend benötigt wird. Frau Dagmar Moon und ihr Ehemann kauften einen Smart Sprecherin von Amazon sieben Jahre, nachdem Frau Moon sich mit der Motoneuron-Krankheit ALS infiziert hatte. Dadurch werden Nervenzellen geschädigt und die Muskeln können nicht mehr bewegt werden, was allmählich zu ihrer Schwäche bis zur Lähmung führt. Während der Krankheit werden die Muskeln, die für das Bewegen der Gliedmaßen, das Schlucken, Sprechen und sogar das Atmen verantwortlich sind, in unbestimmter Reihenfolge allmählich verletzt. Diese Krankheit schadet weder den fünf Sinnen noch den geistigen Fähigkeiten oder den inneren Muskeln (Herz, Harnblase, Verdauungssystem usw.).

Oh Gott, heile uns und dich von allem Schaden und Übel und um jeden muslimischen Patienten zu heilen

Zuerst konnte die Sprachassistentin Alexa verstehen, was Mrs. Moon sagte. Aber als sich ihr Zustand verschlechterte und ihre Sprache langsamer und verwirrter wurde, war sie nicht in der Lage, über Geräusche zu kommunizieren.

"Ich bin nicht schnell genug zu sprechen, um Sprachbefehle zu sagen", sagte Frau Moon. "Wenn ich etwas sagen wollte wie 'Alexa, erzähl mir die Neuigkeiten', wird es geschlossen, bevor ich die Frage beende."

Infolgedessen war Frau Moon nicht mehr in der Lage, mit Sprachassistenten wie Alexa zu interagieren, da die Technologie nicht darauf trainiert war, Menschen zu verstehen, die an Stottern und Dysarthrie leiden, einer Sprachstörung, die durch schwache Sprachmuskeln verursacht wird. Menschen, die aufgrund von Hörstörungen oder Mundkrebs unter Stottern oder Sprachstörungen leiden, können es auch schwierig finden, von Sprachassistenten verstanden zu werden.

Laut dem National Institute on Deafness and Communication Disorders haben etwa 7.5 Millionen Menschen in den USA nur Probleme, ihre Stimmen zu benutzen. Diese Gruppe läuft Gefahr, von der verzögerten Spracherkennungstechnologie zurückgelassen zu werden, sagte Julie Cateau, Produktionsleiterin des KI-Teams von Google. Google ist eines der Unternehmen, das derzeit versucht, Sprachassistenten zu schulen, um alle zu verstehen. Daher werden diese Personen die Gruppe sein, die am meisten von dieser Technologie profitieren wird.

"Für jemanden mit Zerebralparese, der im Rollstuhl sitzt, kann es sehr vorteilhaft sein, seine Umgebung durch seine Stimme zu kontrollieren", sagte Frau Katiao. Google sammelt atypische Sprachdaten im Rahmen einer Initiative zur Schulung von Spracherkennungstools.

Anne Toth, Direktorin von Alexa Trust bei Amazon, sagte, dass die Schulung von Sprachassistenten zur Reaktion auf Menschen mit Sprachbehinderungen die Erfahrung mit Spracherkennungswerkzeugen für eine wachsende Gruppe potenzieller Benutzer wie ältere Menschen verbessern könnte, die anfälliger für degenerative Krankheiten sind.

Im Dezember kündigte Amazon die Integration von Alexa in Voiceitt an, ein Startup, das vom Amazon Alexa Fund unterstützt wird und es Menschen mit Sprachbehinderungen ermöglicht, einen Algorithmus zu trainieren, um ihre einzigartigen Stimmmuster zu erkennen. Die Integration soll in den kommenden Monaten beginnen. Durch die Integration können Personen mit atypischer Sprache Alexa-Geräte über die Voiceitt-App bedienen.


Eine Funktion im iPhone, die Stotternden seit 2015 hilft

Laut Apple können Benutzer mit der Hold-to-Talk-Funktion, die 2015 auf iPhones eingeführt wurde, bereits steuern, wie lange der Sprachassistent Siri zuhören soll, und so verhindern, dass der Assistent Benutzer unterbricht, die bereits stottern, bevor sie mit dem Sprechen fertig sind.

Das Unternehmen prüft derzeit, wie automatisch erkannt werden kann, ob jemand mit einem Stottern spricht, und hat bereits eine Bank mit 28000 Podcasts erstellt, die Stutter enthalten, um dies zu unterstützen.

Ein Apple-Sprecher sagte, dass die Daten dazu beitragen sollen, Spracherkennungssysteme für Menschen mit atypischen Sprachmustern zu verbessern, und lehnte es ab, zu kommentieren, wie Apple die Datenergebnisse im Detail verwendet.


Google und das Euphonia-Projekt

Project Euphonia testet Project Euphonia von Google, einer Google-Forschungsinitiative, die sich darauf konzentriert, Menschen mit Sprachproblemen zu helfen, besser zu werden, und ihnen ermöglicht, über ein Schulungsprogramm mit intelligenten Produkten von Google Assistant und Google Home zu kommunizieren, um ihre einzigartigen Sprachmuster zu verstehen . Es sammelt aber auch eine Vokalbank für außergewöhnliche Reden von Freiwilligen, einschließlich der oben genannten Frau Moon.

Google hofft, dass dies dazu beitragen wird, seine künstliche Intelligenz zu trainieren, um alle Sprachmuster zu verstehen, obwohl dies nicht für alle eine leichte Aufgabe ist, da die Muster der regulären Sprache trotz der unterschiedlichen Akzente nahe beieinander liegen, im Gegensatz zu nicht stereotyper Sprache vielfältig und unterschiedlich, was das Verständnis erschwert. Künstliche Intelligenz.

Kritiker sagen, Unternehmen seien vor etwa 10 Jahren zu langsam gewesen, um das Problem der persönlichen Assistenten anzugehen. Er antwortete, dass diese Technologie ausgefeilter genug geworden sei und sich mit der Komplexität von Nicht-Standard-Sprache befasst habe.

Ein Beitrag zu Projekten wie dem Euphonia-Projekt kann auch für Menschen mit atypischer Sprache schwierig sein. Frau Moon sagt, dass sie das Sprechen manchmal körperlich anstrengend findet, aber sie trägt gerne dazu bei, wenn es dem Sprachassistenten hilft, sie zu verstehen.

Glauben Sie, dass ein persönlicher Assistent in der Lage wäre, mit atypischer Sprache professionell umzugehen? Was halten Sie von solchen Initiativen, um diesen Menschen zu helfen? Lass es uns in den Kommentaren wissen.

Quelle:

wsj

Verwandte Artikel