Khoảng cuối tháng 01/2018, Google đã có một bài đăng blog mới, chia sẻ rằng các kỹ sư làm việc với Google Clips đã tuyển dụng một nhà làm phim tài liệu, một phóng viên ảnh, và một nhiếp ảnh gia mỹ thuật, để tạo ra các dữ liệu thị giác để huấn luyện cho AI của camera.
Bài đăng cũng giải thích quá trình một các chi tiết. Để phần mềm có thể nhận diện được điều gì làm nên một hình ảnh đẹp hay xấu, nó phải được cung cấp thật nhiều dữ liệu. Các nhà lập trình đã tính toán không chỉ những dấu hiệu rõ ràng, chẳng hạn như, một bức ảnh tồi là một bức ảnh mờ, hoặc có gì đó đang che ống kính, họ còn phải tính đến những tiêu chí trừu tượng hơn, như thời gian. Nhóm lập trình đặt ra một số luật, buộc chiếc máy ảnh Google Clips “không được đi đâu lâu quá mà không chụp gì cả”
Để huấn luyện cho camera cách nhận diện các ảnh chụp đẹp, và để giúp cho giao diện người dùng trở nên thân thiện, Google đã tạo nên cái hãng gọi là “thiết kế lấy con người làm trung tâm”, tạo ra các sản phẩm AI có khả năng làm việc cho người dùng.
Rất nhiều người dùng đã bày tỏ mong muốn được sử dụng để kiểm tra Google Clips liệu có đạt được những mục tiêu đầy tham vọng của Google hay không. Tuy nhiên, đáng chú ý là, Google đã thừa nhận việc đào tạo một chương trình AI như vậy có thể là một quá trình không phải lúc nào cũng có sự chính xác tuyệt đối. Dù Clips có được cung cấp bao nhiêu dữ liệu, nó vẫn sẽ không bao giờ có thể biết chính xác là hình ảnh nào người dùng sẽ ưng ý nhất. AI có thể nhận ra một hình ảnh rõ nét, đúng tiêu điểm, có đủ ánh sáng, nhưng nó không thể xác định được đâu là hình ảnh người dùng yêu thích nhất.
- Từ khóa :
- ,
- Huấn Luyện AI
- ,
- Google Clips
Gửi ý kiến của bạn