Stephen Hawking Và Elon Musk Cùng Thông Qua Bộ Quy Tắc 23 Điều Dành Cho AI

24 Tháng Mười Một 201712:30 SA(Xem: 5946)
Stephen Hawking Và Elon Musk Cùng Thông Qua Bộ Quy Tắc 23 Điều Dành Cho AI
Stephen Hawking Và Elon Musk Cùng Thông Qua Bộ Quy Tắc 23 Điều Dành Cho AI

Các nhà khoa học đã thông qua một bộ quy tắc 23 điều để bảo vệ nhân loại trước trí thông minh nhân tạo AI. Nhà vũ trụ học Stephen Hawking và Elon Musk, CEO Tesla đã tán thành một bộ quy tắc nhằm đảm bảo rằng AI luôn suy nghĩ và hành động một cách an toàn và vì lợi ích của con người.

 

Trong bối cảnh máy móc ngày càng trở nên thông minh hơn, cũng khiến cho nhiều người tin rằng chúng sẽ sở hữu khả năng tư duy giống con người trong vài thập kỷ tiếp theo. Và khi đạt tới khả năng tư duy như con người, chúng có thể tự cải tạo bản thân và tạo ra các vấn đề khác. Thậm chí, chúng còn sở hữu trí tuệ mạnh hơn cả AI mà các nhà khoa học gọi là superintelligences.

 

Hồi năm 2014, Elon Musk, người sở hữu một công ty AI trị giá 1 tỷ USD, đã cảnh báo rằng AI có khả năng sẽ “nguy hiểm hơn cả vũ khí hạt nhân”. Stephen Hawking cũng nói rằng AI có thể đặt dấu chấm hết cho nhân loại. Nhưng điều gì cũng có 2 mặt. Các nhà khoa học cũng thấy rằng AI có thể hỗ trợ trong việc trị bệnh ung thư và làm chậm sự ấm lên toàn cầu.

 

Nhìn lại Bộ quy tắc gồm 23 nội dung do Stephen Hawking và Elon Musk đã cùng thông qua, có tên gọi là AI Asimolar – vì nó được thông qua tại hội nghị Asimolar ở California. Nội dung của bộ quy tắc được chia làm 3 nhóm, bao gồm Vấn đề nghiên cứu; Đạo đức và giá trị và Các vấn đề dài hạn.

 

Các nguyên tắc đề cập đến vũ khí và khả năng tự tái tạo của AI được tạo ra bởi Future of Life Institute (Viện nghiên cứu cuộc sống tương lai). Đây là một viện nghiên cứu phi lợi nhuận được thành lập bởi nhà vũ trụ học Max Tegmar và đồng sáng lập Skype, Jaan Tallinn cùng nhà khoa học nghiên cứu DeepMind Viktoriya Krakovna vào tháng 03/2014. Họ đã làm việc để bảo vệ tương lai của nhân loại trước sự phát triển của công nghệ. Stephen Hawking và Elon Musk cũng có mặt trong Ban cố vấn của viện Future of Life Institute.

 

Trang web của Future of Life Institute cho biết: “Trí tuệ nhân tạo cung cấp công cụ hữu ích cho người dân trên khắp thế giới sử dụng hàng ngày. Tiếp tục phát triển nó theo những nguyên tắc sau sẽ cung cấp cơ hội tuyệt vời để giúp đỡ và trao quyền cho con người trong nhiều thập kỷ và thế kỷ tiếp theo”.

 

Nội dung bộ quy tắc AI Asimolar gồm:

I. Nhóm “các vấn đề nghiên cứu”:
 
1. Mục tiêu nghiên cứu: mục tiêu nghiên cứu AI phải nhằm mang lại lợi ích cho con người.

2. Kinh phí nghiên cứu: đầu tư vào AI cần đi kèm việc tài trợ cho các nghiên cứu về đảm bảo sử dụng một cách có lợi, bao gồm cả những câu hỏi khó trong khoa học máy tính, kinh tế, pháp luật, đạo đức và các nghiên cứu xã hội, chẳng hạn như:

-        Làm thế nào để hệ thống AI trong tương lai trở nên mạnh mẽ, không bị hỏng hóc hoặc tấn công con người?
-        Làm thế nào nhân loại phát triển thịnh vượng thông qua tự động hóa nhưng vẫn duy trì nguồn lực con người?

-        Làm thế nào có thể cập nhật hệ thống pháp luật một cách công bằng và hiệu quả để bắt kịp và quản lý sự phát triển của AI, tránh các rủi ro liên quan đến AI?

3. Khoa học – Chính sách liên kết: nên có sự trao đổi mang tính xây dựng và lành mạnh giữa các nhà nghiên cứu AI và các nhà hoạch định chính sách.

4. Văn hóa nghiên cứu: một nền văn hóa của sự hợp tác, tin tưởng và minh bạch phải được hình thành và bồi dưỡng cho các nhà nghiên cứu và phát triển AI.

5. Tránh đua tranh: nhóm phát triển AI cần tích cực hợp tác để tránh những khác biệt trong các tiêu chuẩn an toàn.
 
II. Nhóm “Đạo đức và giá trị”:
 
6. An toàn: đảm bảo sự an toàn của hệ thống AI trong suốt thời gian hoạt động.

7. Không minh bạch: nếu có một hệ thống AI gây hại, cần phải xác định nguyên nhân vì sao.

8. Minh bạch tư pháp: bất kỳ sự tham gia nào của một hệ thống tự động đều cần có cơ chế để các cơ quan có thẩm quyền của con người kiểm tra.

9. Trách nhiệm: các bên tham gia xây dựng các hệ thống AI tiên tiến phải đảm bảo các quy tắc đạo đức khi sử dụng, nếu vi phạm phải chịu trách nhiệm về hành vi của mình.

10. Giá trị: hệ thống AI tự động nên thiết kế sao cho các mục tiêu và hành vi phù hợp với các giá trị của con người trong suốt quá trình hoạt động.

11. Giá trị nhân lực: hệ thống AI cần được thiết kế và vận hành tương thích với những lý tưởng, giá trị của con người, về quyền tự do và sự đa dạng văn hóa.

12. Bảo mật cá nhân: người dân có quyền truy cập, quản lý, kiểm soát các dữ liệu mà họ tạo ra thông qua AI.

13. Tự do và bảo mật: các ứng dụng AI không tác động đến dữ liệu cá nhân một cách bất hợp lí, hạn chế tự do hay sự nhận thức của người dân.

14. Chia sẻ lợi ích: những lợi ích từ AI cần được chia sẻ cho càng nhiều người càng tốt.

15. Thịnh vượng chung: sự thịnh vượng kinh tế tạo ra bởi AI cần được chia sẻ rộng rãi, mang đến lợi ích cho toàn nhân loại.

16. Quyền kiểm soát của con người: con người được quyền quyết định có nên ra lệnh cho một hệ thống AI hoàn thành các mục tiêu đặt ra hay không.

17. Không lật đổ: quyền điều khiển của các hệ thống AI nên được tôn trọng và cải thiện, chứ không phải thay thế các quá trình của xã hội.

18. Chạy đua vũ trang: cần phải phòng tránh các cuộc chạy đua vũ trang với vũ khí tự động gây chết người.
 
III. Nhóm “Các vấn đề dài hạn”:
 
19. Năng lực chú ý: con người nên tránh những giả định về giới hạn của AI trong tương lai.

20. Tầm quan trọng: việc phát triển AI có thể đại diện cho một sự thay đổi sâu sắc trong lịch sử sự sống trên Trái đất nên cần được quy hoạch và quản lý với nguồn lực hợp lý.

21. Rủi ro: rủi ro gây ra bởi hệ thống AI, đặc biệt là các thảm họa phải được dự kiến trước để có thể giảm nhẹ thiệt hại.

22. Tự cải thiện: hệ thống AI cần được thiết kế có khả năng tự cải thiện hoặc tái tạo để tăng chất lượng hay số lượng công việc. Và điều này cần phải được quản lý một cách an toàn và hiệu quả.

23. Superintelligence chỉ được phát triển cho các dịch vụ vì lợi ích chung của toàn nhân loại, chứ không phải cho riêng một nhà nước, tổ chức, hay cá nhân.
52Vote
41Vote
30Vote
20Vote
10Vote
4.73
Gửi ý kiến của bạn
Tắt
Telex
VNI
Tên của bạn
Email của bạn
Tạo bài viết
22 Tháng Hai 2021
Hôm thứ Hai (22/02/2021), Ủy ban An toàn Hà Lan (Dutch Safety Board - DSB) thông báo đang điều tra vụ máy bay chở hàng Boeing 747-400 gặp sự cố, khiến hàng chục mảnh vỡ động cơ rơi xuống làng Meerssen ở miền nam Hà Lan.
21 Tháng Hai 2021
Giới chức Mỹ yêu cầu kiểm tra và có thể loại bỏ một số chiếc Boeing 777 sau khi máy bay của United Airlines cháy động cơ trên không.
21 Tháng Hai 2021
40 người vô gia cư ở St. Petersburg được tiêm vaccine Covid-19 hôm Chủ nhật (21/02/2021), nhờ một sáng kiến từ thiện nhận được sự ủng hộ của các quan chức địa phương.
17 Tháng Hai 2021
Cơn khát vaccine của một số nước Châu Âu làm tăng ảnh hưởng của Trung Quốc, vốn đang nỗ lực thể hiện mình là một đồng minh chống Covid-19 đáng tin cậy.
17 Tháng Hai 2021
Các quan chức Lầu Năm Góc cho biết khoảng 1/3 quân đội Mỹ từ chối tiêm vaccine Covid-19, bất chấp mức độ lây nhiễm đáng lo ngại.
16 Tháng Hai 2021
Bà Ngozi Okonjo-Iweala, cựu bộ trưởng tài chính Nigeria, trở thành người Châu Phi đầu tiên và cũng là phụ nữ đầu tiên giữ cương vị tổng giám đốc của Tổ chức Thương mại Thế giới (WTO).