Google AI Đã Có Thể Đọc Được Khẩu Hình Miệng

24 Tháng Mười Một 20167:00 CH(Xem: 9020)
Google AI Đã Có Thể Đọc Được Khẩu Hình Miệng
blank
Hạ tuần tháng 11/2016, một dự án do hệ trí tuệ nhân tạo DeepMind của Google và Đại học Oxford thực hiện đã ứng dụng deep-learning để phân tích một bộ dữ liệu lớn là các chương trình của BBC. Kết quả thu được là một hệ thống đọc khẩu hình miệng tốt đến mức bỏ xa cả chuyên gia trong lĩnh vực này.

Theo đó, hệ thống AI được huấn luyện bằng dữ liệu từ khoảng 5,000 giờ chiếu từ 6 chương trình truyền hình khác nhau. Các video chứa tổng cộng khoảng 118,000 câu nói.

Đầu tiên, các nhà nghiên cứu của Đại học Oxford và nhóm DeepMind huấn luyện AI bằng các chương trình phát sóng từ tháng 01/ 2010 đến tháng 12/2015. Sau đó, họ thử nghiệm khả năng của AI trên các chương trình phát sóng từ tháng 3 đến tháng 9 năm 2016.

Bằng cách nhìn vào môi của người nói, hệ thống AI đã giải mã chính xác toàn bộ các cụm từ. Như vậy, AI đã tỏ ra vượt trội so với những chuyên gia đọc khẩu hình miệng chuyên nghiệp.

Những người đọc khẩu hình miệng giải mã 200 clip ngẫu nhiên trong bộ dữ liệu. Tuy nhiên, họ chỉ dịch được 12.4% các cụm từ mà không mắc lỗi nào. Trong khi đó, AI dịch được 46.8% các cụm từ mà không mắc lỗi nào. Các lỗi mắc phải cũng chỉ là lỗi nhỏ, như thiếu đuôi số nhiều 's' ở cuối từ. Hệ thống AI của Google cũng nhanh hơn so với tất cả các hệ thống đọc khẩu hình miệng tự động khác.

Ziheng Zhou tại Đại học Oulu (Phần Lan) cho biết: “Đó là một bước tiến lớn trong việc phát triển các hệ thống đọc khẩu hình miệng hoàn toàn tự động”.


Hồi thượng tuần tháng 11/2016, một hệ thống deep-learning tương tự có tên LipNet do Đại học Oxford phát triển cũng vượt qua con người trong việc đọc khẩu hình miệng từ bộ dữ liệu GRID. Nhưng từ vựng trong GRID chỉ gồm 51 từ, còn bộ dữ liệu BBC chứa gần 17,500 từ. Ngữ pháp trong bộ dữ liệu BBC cũng rất đa dạng, trong khi ngữ pháp của 33,000 câu trong GRID theo cùng một khuôn mẫu và hiển nhiên là dễ đoán hơn.

Nhóm DeepMind và Oxford cho biết sẽ phát hành bộ dữ liệu BBC như một nguồn dữ liệu để huấn luyện cho AI. Yannis Assael đang làm việc tại LipNet cho biết ông đang mong đợi để sử dụng bộ dữ liệu mới. Để thực hiện nghiên cứu, các video clip đã được chuẩn bị bằng máy học (machine-learning). Nguyên nhân là do các âm thanh và hình ảnh trong video đôi khi không đồng bộ với nhau, thường là khoảng 1 giây. Điều này làm cho AI khó có thể học mối liên quan giữa những lời nói và cách di chuyển đôi môi của người nói.

Hệ thống máy tính được sử dụng để tìm ra những đoạn không đồng bộ giữa âm thanh và hình ảnh, sau đó nó sẽ sắp xếp lại. Toàn bộ 5000 giờ chiếu đã được xử lý tự động. Vấn đề đặt ra là làm thế nào để sử dụng khả năng mới của AI. Máy đọc khẩu hình miệng có tiềm năng thực tiễn rất lớn, có thể ứng dụng để cải thiện máy trợ thính, hay nhận dạng giọng nói trong môi trường có nhiều tiếng ồn.
513Vote
40Vote
30Vote
20Vote
10Vote
513
Gửi ý kiến của bạn
Tắt
Telex
VNI
Tên của bạn
Email của bạn
Tạo bài viết
22 Tháng Hai 2021
Hôm thứ Hai (22/02/2021), Ủy ban An toàn Hà Lan (Dutch Safety Board - DSB) thông báo đang điều tra vụ máy bay chở hàng Boeing 747-400 gặp sự cố, khiến hàng chục mảnh vỡ động cơ rơi xuống làng Meerssen ở miền nam Hà Lan.
21 Tháng Hai 2021
Giới chức Mỹ yêu cầu kiểm tra và có thể loại bỏ một số chiếc Boeing 777 sau khi máy bay của United Airlines cháy động cơ trên không.
21 Tháng Hai 2021
40 người vô gia cư ở St. Petersburg được tiêm vaccine Covid-19 hôm Chủ nhật (21/02/2021), nhờ một sáng kiến từ thiện nhận được sự ủng hộ của các quan chức địa phương.
17 Tháng Hai 2021
Cơn khát vaccine của một số nước Châu Âu làm tăng ảnh hưởng của Trung Quốc, vốn đang nỗ lực thể hiện mình là một đồng minh chống Covid-19 đáng tin cậy.
17 Tháng Hai 2021
Các quan chức Lầu Năm Góc cho biết khoảng 1/3 quân đội Mỹ từ chối tiêm vaccine Covid-19, bất chấp mức độ lây nhiễm đáng lo ngại.
16 Tháng Hai 2021
Bà Ngozi Okonjo-Iweala, cựu bộ trưởng tài chính Nigeria, trở thành người Châu Phi đầu tiên và cũng là phụ nữ đầu tiên giữ cương vị tổng giám đốc của Tổ chức Thương mại Thế giới (WTO).