Khoảng giữa tháng 08/2019, Tổ Chức American Civil Liberties Union (ACLU) đã tiến hành một thử nghiệm đối với phần mềm Rekognition của Amazon - chính là công nghệ nhận diện gương mặt hiện đang được sử dụng bởi lực lượng hành pháp Mỹ; kết quả cho thấy nó nhận dạng nhầm 26 nhà làm luật California là những tên tội phạm nằm trong cơ sở dữ liệu của cảnh sát.
Đây là lần thứ hai ACLU tiến hành thử nghiệm. Trong lần thử nghiệm đầu tiên vào năm 2018, Rekognition hoạt động rất tệ hạ, liên tục cho ra những kết quả sai và đầy tính phân biệt chủng tộc khi nhận diện các thành viên trong Quốc hội Mỹ. Trong lần thử nghiệm thứ hai, ACLU đã tìm cách so sánh 120 hình ảnh của các nhà làm luật tại California với một cơ sở dữ liệu gồm 25,000 hình ảnh định danh do các cơ quan chính phủ chụp. Phần mềm của Amazon cho ra kết quả với tỉ lệ sai vào khoảng 20%.
Phil Ting, một thành viên của hội đồng thành phố San Francisco, và là một trong những người bị nhận diện nhầm, đã sử dụng kết quả thử nghiệm để bày tỏ sự ủng hộ đối với một dự thảo luật nhằm cấm sử dụng công nghệ nhận diện gương mặt trên các camera gắn trên người cảnh sát khi thi hành công vụ. Ông cho biết: “Chúng tôi muốn chạy thử phần mềm như một minh chứng cho thấy nó hoàn toàn chưa sẵn sàng để được đưa vào sử dụng như thế nào. Dù chúng tôi có thể đùa cợt về nó với tư cách là các nhà lập pháp, nhưng nó không phải là chuyện có thể đùa được đối với những người đang cố tìm một công việc, hay đang muốn được an cư lạc nghiệp”
Một người phát ngôn của Amazon nói về vấn đề: “ACLU một lần nữa cố tình sử dụng sai và phát ngôn sai về Amazon Rekognition để thu hút sự chú ý. Như chúng tôi đã nói nhiều lần trước đây, khi được sử dụng để hỗ trợ quyết định do con người thực hiện, với độ chắc chắn khuyến nghị 99%, công nghệ nhận diện gương mặt có thể được sử dụng để phục vụ rất nhiều mục đích có ích, từ hỗ trợ nhận diện tội phậm đến giúp tìm trẻ em thất lạc, đến ngăn chặn nạn buôn người. Chúng tôi sẽ tiếp tục kêu gọi đưa công nghệ nhận diện gương mặt vào luật liên bang để đảm bảo nó được sử dụng một cách có trách nhiệm, và chúng tôi đã chia sẻ những khuyến nghị cụ thể về vấn đề với cả các nhà hoạch định chính sách một cách riêng tư và trên blog của mình một cách công khai”
Matt Cagle, luật sư của ACLU, người làm việc với Đại học Berkeley để xác nhận các kết quả dưới tư cách một bên độc lập, đã tranh cãi về vấn đề. Ông nói ACLU không sử dụng "độ chắc chắn khuyến nghị 99%" vì họ không thể thay đổi các thiết lập mặc định trong phần mềm của Amazon là 80%.
Amazon bác bỏ khẳng định, chỉ ra trong một bài blog của hãng rằng Rekognition không nên được sử dụng với mức độ chắc chắn dưới 99%. Nhưng nhiều ý kiến có thể chất vấn rằng: tại sao họ không đặt mặc định là 99% trong phần mềm mà lại đặt là 80%?
- Từ khóa :
- Amazon
- ,
- Rekognition
Gửi ý kiến của bạn