Apple tham gia dự án cải thiện nhận dạng giọng nói dành cho người dùng khuyết tật

Ngày đăng:
Link GoogleNews Dchannel

Đại học Illinois (UIUC) đang làm việc với Apple và các gã khổng lồ công nghệ khác trong dự án Speech Accessibility Project / Khả Năng Tiếp Cận Giọng Nói, nhằm mục đích cải thiện hệ thống nhận dạng giọng nói cho những người có mẫu giọng nói và khuyết tật các phiên bản hiện tại gặp khó khăn trong việc hiểu biết.

Mặc dù thường bị chế giễu vì nghe nhầm yêu cầu của người dùng, các hệ thống nhận dạng giọng nói cho các trợ lý kỹ thuật số như Siri đã trở nên chính xác hơn trong những năm qua, bao gồm cả việc phát triển nhận dạng trên thiết bị. Trong một động thái mới, một dự án nhằm tăng độ chính xác hơn nữa, bằng cách nhắm mục tiêu những người có trở ngại về lời nói và khuyết tật.

 Apple cùng Amazon, Google, Meta và Microsoft thực hiện dự án Speech Accessibility Project dành cho người khuyết tật
Apple cùng Amazon, Google, Meta và Microsoft thực hiện dự án Speech Accessibility Project dành cho người khuyết tật

Hợp tác với Apple, Amazon, Google, Meta và Microsoft cũng như các tổ chức phi lợi nhuận, dự án Speech Accessibility Project của UIUC sẽ cố gắng mở rộng phạm vi các mẫu giọng nói mà các hệ thống nhận dạng giọng nói có thể hiểu được. Điều này bao gồm tập trung vào lời nói bị ảnh hưởng bởi bệnh tật và khuyết tật, bao gồm bệnh Lou Gehrig, xơ cứng bên teo cơ, Parkinson, bại não và hội chứng Down.

 Apple cùng Amazon, Google, Meta và Microsoft thực hiện dự án Speech Accessibility Project dành cho người khuyết tật
Apple cùng Amazon, Google, Meta và Microsoft thực hiện dự án Speech Accessibility Project dành cho người khuyết tật

Trong một số trường hợp, hệ thống nhận dạng giọng nói có thể cải thiện chất lượng cuộc sống cho người dùng bị bệnh ức chế chuyển động, nhưng các vấn đề ảnh hưởng đến giọng nói của người dùng có thể ảnh hưởng đến hiệu quả của nó.

Theo Speech Accessibility Project, các mẫu sẽ được thu thập từ các cá nhân “đại diện cho sự đa dạng của các mẫu bài phát biểu”, để tạo ra một tập dữ liệu riêng tư và không xác định. Bộ dữ liệu đó, ban đầu sẽ tập trung vào tiếng Anh – Mỹ, sau đó có thể được sử dụng để đào tạo các mô hình học máy để đối phó tốt hơn với bài phát biểu.

 Apple cùng Amazon, Google, Meta và Microsoft thực hiện dự án Speech Accessibility Project dành cho người khuyết tật
Apple cùng Amazon, Google, Meta và Microsoft thực hiện dự án Speech Accessibility Project dành cho người khuyết tật

Sự tham gia của một loạt các công ty công nghệ có trợ lý ảo hoặc cung cấp các tính năng nhận dạng giọng nói trong các công cụ của họ có thể giúp tăng tốc độ phát triển trong dự án. Thay vì sử dụng các nhóm riêng biệt có thể nhân đôi kết quả được tìm thấy bởi những người khác, các nhóm thay vào đó có thể cộng tác trực tiếp thông qua dự án.

Giao diện nói nên có sẵn cho tất cả mọi người, và bao gồm cả người khuyết tật”, Mark Hasegawa-Johnson, Giáo Sư tại Đại Học UIUC cho biết. “Nhiệm vụ này rất khó khăn vì nó đòi hỏi rất nhiều cơ sở hạ tầng, lý tưởng là loại có thể được hỗ trợ bởi các công ty công nghệ hàng đầu, vì vậy chúng tôi đã tạo ra một đội ngũ liên ngành độc đáo với chuyên môn về ngôn ngữ học, ngôn luận, AI, bảo mật và quyền riêng tư.”

Nguồn: Appleinsider


Di Động Việt

Đánh giá bài viết

BÀI VIẾT LIÊN QUAN

BÌNH LUẬN

Vui lòng nhập bình luận của bạn
Vui lòng nhập tên của bạn ở đây