Apple đang tìm cách cải thiện Siri Để hiểu rõ hơn về những người gặp vấn đề về giọng nói, chẳng hạn như nói lắp, theo chi tiết mới được The Wall Street Journal đăng tải trong một bài báo về cách các công ty đang phát triển trợ lý giọng nói để đối phó với giọng nói bất thường như nói lắp, và điều kỳ lạ là Apple đã đã có một lợi thế để giải quyết vấn đề này trong một thời gian dài, nhưng có vẻ như Nó không đủ tinh vi.

Apple đang phát triển Siri để đối phó với những người nói lắp


Việc phát triển trợ lý cá nhân cho bất kỳ công ty nào đã trở thành vấn đề cấp bách và bắt buộc phải hiểu tất cả các loại giọng nói và phương ngữ. Ví dụ, một câu chuyện xảy ra đã chứng minh rằng rất cần điều đó. Bà Dagmar Moon và chồng đã mua một chiếc thông minh. diễn giả từ Amazon bảy năm sau khi bà Moon mắc bệnh ALS, Điều đó khiến các tế bào thần kinh bị tổn thương và các cơ không còn cử động được nữa, dẫn đến tình trạng yếu dần, đến mức tê liệt. Trong thời gian mắc bệnh, các cơ chịu trách nhiệm cử động tứ chi, nuốt, nói và thậm chí là thở, dần dần bị tổn thương, không theo thứ tự cố định. Bệnh này không gây hại đến ngũ quan, khả năng trí óc, hoặc các cơ bên trong (tim, bàng quang, hệ tiêu hóa, v.v.).

Ôi Chúa ơi, hãy chữa lành cho chúng tôi và bạn khỏi mọi điều tồi tệ và tồi tệ, và để chữa lành mọi bệnh nhân Hồi giáo

Lúc đầu, trợ lý giọng nói, Alexa, có thể hiểu những gì bà Moon đang nói. Nhưng khi tình trạng của cô ấy trở nên tồi tệ hơn và giọng nói của cô ấy trở nên chậm hơn và trở nên bối rối hơn, cô ấy thấy mình không thể giao tiếp thông qua âm thanh.

Bà Moon nói: “Tôi không nhanh để nói đủ để nói các khẩu lệnh. “Nếu tôi muốn nói điều gì đó như, 'Alexa, hãy cho tôi biết tin tức,' nó sẽ bị đóng trước khi tôi hoàn thành câu hỏi."

Do đó, bà Moon không thể tương tác với các trợ lý giọng nói như Alexa vì công nghệ này không được đào tạo để hiểu những người mắc chứng nói lắp và chứng loạn nhịp, một chứng rối loạn ngôn ngữ do cơ nói yếu gây ra. Những người bị nói lắp hoặc nói lắp do thính giác kém hoặc ung thư miệng cũng có thể cảm thấy khó hiểu với trợ lý giọng nói.

Khoảng 7.5 triệu người ở Hoa Kỳ chỉ gặp khó khăn khi sử dụng giọng nói của họ, theo Viện Quốc gia về Điếc và Rối loạn Giao tiếp. Julie Cateau, giám đốc sản xuất của nhóm AI của Google, cho biết nhóm này có nguy cơ bị tụt hậu do công nghệ nhận dạng giọng nói bị tụt hậu. Google là một trong những công ty hiện đang cố gắng đào tạo trợ lý giọng nói để hiểu mọi người và do đó những người này sẽ là nhóm được hưởng lợi nhiều nhất từ ​​công nghệ này.

Bà Katiao nói: “Đối với những người bị bại não phải ngồi trên xe lăn, việc có thể kiểm soát môi trường xung quanh thông qua giọng nói của họ có thể rất có lợi cho họ. Google đang thu thập dữ liệu giọng nói không điển hình như một phần của sáng kiến ​​đào tạo các công cụ nhận dạng giọng nói.

Anne Toth, giám đốc Alexa Trust tại Amazon, cho biết việc đào tạo trợ lý giọng nói để ứng phó với những người khuyết tật về giọng nói có thể cải thiện trải nghiệm của các công cụ nhận dạng giọng nói cho một nhóm người dùng tiềm năng ngày càng tăng như người cao tuổi, những người dễ mắc các bệnh thoái hóa.

Vì vậy, vào tháng XNUMX, Amazon đã công bố sự tích hợp của Alexa với Voiceitt, một công ty khởi nghiệp được hỗ trợ bởi Quỹ Alexa của Amazon, cho phép những người khuyết tật về giọng nói đào tạo một thuật toán để nhận ra các mẫu giọng độc đáo của họ. Quá trình tích hợp sẽ bắt đầu trong những tháng tới và việc tích hợp sẽ cho phép những người có giọng nói không điển hình vận hành thiết bị Alexa bằng cách nói trong ứng dụng Voiceitt.


Một tính năng trong iPhone để giúp những người nói lắp từ năm 2015

Apple cho biết tính năng Hold to Talk của họ, được giới thiệu trên iPhone vào năm 2015, đã cho phép người dùng kiểm soát thời gian họ muốn trợ lý giọng nói Siri nghe, ngăn trợ lý này làm gián đoạn người dùng vốn đã nói lắp trước khi họ nói xong.

Công ty hiện đang xem xét cách tự động phát hiện xem ai đó có nói lắp hay không và đã tạo ra một ngân hàng 28000 podcast có tính năng Nói lắp để giúp làm như vậy.

Người phát ngôn của Apple cho biết dữ liệu này nhằm mục đích giúp cải thiện hệ thống nhận dạng giọng nói cho những người có mẫu giọng nói không điển hình và từ chối bình luận về cách Apple sử dụng chi tiết kết quả dữ liệu.


Google và Dự án Euphonia

Dự án Euphonia đang thử nghiệm Dự án Euphonia của Google, một sáng kiến ​​nghiên cứu của Google tập trung vào việc giúp những người gặp khó khăn về giọng nói trở nên tốt hơn và cho phép họ giao tiếp với Trợ lý Google và các sản phẩm thông minh của Google Home thông qua một chương trình đào tạo để hiểu các mẫu giọng nói độc đáo của họ. . Nhưng nó cũng thu thập một ngân hàng giọng nói cho bài phát biểu đặc biệt do các tình nguyện viên đóng góp, bao gồm cả bà Moon nói trên.

Google hy vọng rằng điều này sẽ giúp đào tạo trí tuệ nhân tạo của mình để hiểu tất cả các mẫu giọng nói, mặc dù đây không phải là một nhiệm vụ dễ dàng đối với tất cả mọi người, bởi vì các mẫu giọng nói thông thường gần gũi mặc dù có sự khác biệt về trọng âm, không giống như bài phát biểu không khuôn mẫu, nó còn hơn đa dạng và khác nhau nên càng khó hiểu. Trí tuệ nhân tạo.

Những người chỉ trích cho rằng các công ty đã quá chậm chạp trong việc giải quyết vấn đề có trợ lý cá nhân vào khoảng 10 năm trước. Anh ta trả lời rằng công nghệ này đã trở nên đủ tinh vi hơn và xử lý được sự phức tạp của cách nói không chuẩn.

Việc đóng góp cho các dự án như dự án Euphonia cũng có thể khó khăn đối với những người có bài phát biểu không điển hình. Cô Moon cho biết đôi khi cô cảm thấy việc nói chuyện mệt mỏi về thể chất, nhưng rất vui được đóng góp nếu điều đó giúp trợ lý giọng nói hiểu cô.

Bạn có nghĩ rằng một trợ lý cá nhân sẽ có thể xử lý một cách chuyên nghiệp các bài phát biểu không điển hình? Bạn nghĩ gì khi thực hiện những sáng kiến ​​như vậy để giúp đỡ những người này? Hãy cho chúng tôi biết trong các ý kiến.

Nguồn:

WSJ

Những bài viết liên quan