Apple szuka sposobów na poprawę Siri Aby lepiej zrozumieć ludzi, którzy mają problemy z mową, takie jak jąkanie, zgodnie z nowymi szczegółami opublikowanymi przez The Wall Street Journal w artykule o tym, jak firmy opracowują asystentów głosowych do radzenia sobie z nietypową mową, taką jak jąkanie, a dziwne jest to, że Apple ma miał tę zaletę, że zajmował się tym przez długi czas, ale wydaje się, że nie jest to wystarczająco wyrafinowane.


Stworzenie osobistego asystenta dla każdej firmy stało się pilną sprawą i wymagało zrozumienia wszystkich rodzajów mowy i dialektów. Na przykład pojawiła się historia, która dowiodła, że ​​jest bardzo potrzebna. Pani Dagmar Moon i jej mąż kupili inteligentną mówca z Amazona siedem lat po tym, jak pani Moon zachorowała na ALS, co powoduje uszkodzenie komórek nerwowych, a mięśnie nie mogą się już poruszać, co stopniowo prowadzi do ich osłabienia, aż do paraliżu. Podczas choroby mięśnie odpowiedzialne za poruszanie kończynami, połykanie, mówienie, a nawet oddychanie są stopniowo uszkadzane, bez ustalonej kolejności. Ta choroba nie szkodzi pięciu zmysłom, zdolnościom umysłowym ani mięśniom wewnętrznym (serce, pęcherz moczowy, układ pokarmowy itp.).

O Boże, ulecz nas i siebie z każdego zła i zła, i ulecz każdego muzułmańskiego pacjenta

Początkowo asystentka głosowa, Alexa, była w stanie zrozumieć, co mówi pani Moon. Ale kiedy jej stan się pogorszył, a jej mowa stała się wolniejsza i bardziej zdezorientowana, odkryła, że ​​nie jest w stanie komunikować się za pomocą dźwięku.

„Nie mówię wystarczająco szybko, aby wypowiadać polecenia głosowe” - powiedziała pani Moon. „Gdybym chciał powiedzieć coś w stylu:„ Alexa, powiedz mi wiadomości ”, zostanie ono zamknięte, zanim skończę pytanie.”

W rezultacie, pani Moon nie była w stanie wchodzić w interakcje z asystentami głosowymi, takimi jak Alexa, ponieważ technologia nie była wyszkolona do rozumienia ludzi, którzy cierpią na jąkanie i dyzartrię, zaburzenie mowy spowodowane słabymi mięśniami mowy. Osoby, które cierpią na jąkanie lub niewyraźną mowę z powodu słabego słuchu lub raka jamy ustnej, mogą również mieć trudności z zrozumieniem asystentów głosowych.

Według National Institute on Deafness and Communication Disorders, około 7.5 miliona ludzi w Stanach Zjednoczonych ma tylko problemy z używaniem głosu. Ta grupa może zostać w tyle z powodu opóźnionej technologii rozpoznawania głosu, powiedziała Julie Cateau, kierownik produkcji w zespole Google ds. Sztucznej inteligencji. Google jest jedną z firm, które próbują teraz wyszkolić asystentów głosowych, aby rozumieli wszystkich, dlatego właśnie ci ludzie będą grupą, która odniesie największe korzyści z tej technologii.

„Dla kogoś z porażeniem mózgowym, który siedzi na wózku inwalidzkim, możliwość kontrolowania otoczenia za pomocą głosu może być dla niego bardzo korzystna” - mówi Katiao. Google zbiera nietypowe dane mowy w ramach inicjatywy mającej na celu szkolenie narzędzi do rozpoznawania głosu.

Anne Toth, dyrektor Alexa Trust w Amazon, powiedziała, że ​​szkolenie asystentów głosowych w zakresie reagowania na osoby z zaburzeniami mowy może poprawić doświadczenia związane z narzędziami rozpoznawania głosu dla rosnącej grupy potencjalnych użytkowników, takich jak osoby starsze, które są bardziej podatne na choroby zwyrodnieniowe.

Dlatego w grudniu Amazon ogłosił integrację Alexy z Voiceitt, startupem wspieranym przez Amazon Alexa Fund, który umożliwia osobom z zaburzeniami mowy trenowanie algorytmu rozpoznawania ich unikalnych wzorców wokalnych. Integracja ma się rozpocząć w najbliższych miesiącach, a integracja pozwoli osobom z nietypową mową na obsługę urządzeń Alexa poprzez mówienie w aplikacji Voiceitt.


Funkcja w iPhonie, która pomaga jąkającym się od 2015 roku

Apple powiedział, że jego funkcja Hold to Talk, która została wprowadzona na iPhone'ach w 2015 roku, już pozwala użytkownikom kontrolować, jak długo chcą, aby asystent głosowy Siri słuchał, uniemożliwiając asystentowi przerywanie użytkownikom, którzy już się jąkają, zanim skończą mówić.

Firma zastanawia się teraz, jak automatycznie wykrywać, czy ktoś mówi z jąkaniem, i utworzyła już bank 28000 XNUMX podcastów z funkcją Stutter, aby to zrobić.

Rzecznik Apple powiedział, że dane mają pomóc ulepszyć systemy rozpoznawania głosu dla osób z nietypowymi wzorami mowy i odmówił komentarza na temat tego, w jaki sposób Apple wykorzystuje szczegółowe wyniki danych.


Google i projekt Euphonia

Project Euphonia testuje Project Euphonia od Google, inicjatywę badawczą Google skupioną na pomaganiu ludziom mającym problemy z mową, aby być lepszymi i umożliwieniu im komunikowania się z Asystentem Google i inteligentnymi produktami Google Home poprzez program szkoleniowy w celu zrozumienia ich unikalnych wzorców mowy. Ale gromadzi też bank głosów do nadzwyczajnych przemówień, które wnoszą wolontariusze, w tym wspomniana pani Moon.

Google ma nadzieję, że pomoże to wyszkolić jego sztuczną inteligencję w zrozumieniu wszystkich wzorców mowy, chociaż nie jest to łatwe zadanie dla każdego, ponieważ wzorce regularnej mowy są bliskie pomimo różnicy w akcentach, w przeciwieństwie do mowy niestereotypowej jest bardziej różnorodne i odmienne, przez co trudniej je zrozumieć Sztuczna inteligencja.

Krytycy twierdzą, że firmy były zbyt powolne, aby zajmować się problemem posiadania osobistych asystentów około 10 lat temu. Odpowiedział, że ta technologia stała się wystarczająco wyrafinowana i radzi sobie ze złożonością niestandardowej mowy.

Udział w projektach takich jak projekt Euphonia może być również trudny dla osób z nietypową mową. Pani Moon mówi, że czasami rozmowa jest dla niej fizycznie wyczerpująca, ale jest szczęśliwa, że ​​może wnieść swój wkład, jeśli pomoże to nauczyć asystenta głosowego, jak ją rozumieć.

Czy uważasz, że osobisty asystent byłby w stanie profesjonalnie poradzić sobie z nietypową mową? Co myślisz o podejmowaniu takich inicjatyw, aby pomóc tym ludziom? Dajcie nam znać w komentarzach.

Źródło:

WSJ

Powiązane artykuły