Các chuyên gia AI kêu gọi hành động chính sách để tránh những rủi ro nghiêm trọng
Thứ ba vừa qua, 24 chuyên gia trí tuệ nhân tạo, trong đó có những người đoạt giải Turing như Geoffrey Hinton và Yoshua Bengio, đã công bố một bài viết kêu gọi chính phủ các nước thực hiện các biện pháp để quản lý nguy cơ từ trí tuệ nhân tạo. Tài liệu chính sách này tập trung đặc biệt vào nguy cơ cực đoan từ các hệ thống tiên tiến nhất, chẳng hạn như khả năng kích hoạt hoạt động tội phạm hoặc khủng bố quy mô lớn.
Bài viết đưa ra nhiều đề xuất chính sách cụ thể, như đảm bảo rằng các công ty công nghệ lớn và nguồn tài trợ cộng đồng dành ít nhất một phần ba ngân sách nghiên cứu và phát triển trí tuệ nhân tạo của họ cho các dự án thúc đẩy việc sử dụng an toàn và đạo đức của trí tuệ nhân tạo. Các tác giả cũng kêu gọi việc tạo ra các tiêu chuẩn quốc gia và quốc tế về phát triển AI.
Bengio, giám đốc khoa học tại Viện Học thuật Montreal về Thuật toán Học, cho biết bài viết nhằm giúp cho các nhà hoạch định chính sách, truyền thông và công chúng thấy được tổng quan về "nguy cơ và một số điều chúng ta cần làm để đảm bảo hệ thống trí tuệ nhân tạo làm theo ý muốn của chúng ta."
Các đề xuất này không mang tính đột phá. Thay vào đó, các tác giả của bài viết đang ủng hộ quan điểm được thống nhất giữa các nhà nghiên cứu chính sách trí tuệ nhân tạo quan tâm đến các nguy cơ cực đoan (chúng tương đồng chặt chẽ với các chính sách phổ biến nhất được xác định trong cuộc khảo sát của các chuyên gia vào tháng 5 năm nay).
"Chúng tôi muốn trình bày những tư duy rõ ràng về an toàn trí tuệ nhân tạo, khá tự do khỏi tác động của lợi ích cổ đông," Stuart Russell, giáo sư khoa học máy tính tại Đại học California, Berkeley và là một trong các tác giả của bức thư, cho biết trong một email gửi cho TIME.
Tuyên bố trong tuần này khác biệt so với các bức thư mở đầu tiên do các chuyên gia ký kết, Russell nói, vì "Các chính phủ đã hiểu rằng có những rủi ro thực sự. Họ đang hỏi cộng đồng trí tuệ nhân tạo, 'Chúng ta nên làm gì?' Tuyên bố này là câu trả lời cho câu hỏi đó."
Các tác giả khác bao gồm nhà sử học và triết gia Yuval Noah Harari, cùng với nhiều học giả từ nhiều quốc gia và lĩnh vực khác nhau.
Bài viết này là tuyên bố quan trọng thứ ba do các chuyên gia trí tuệ nhân tạo ký kết trong năm nay, trong một nỗ lực gia tăng để cảnh báo về nguy cơ tiềm năng của việc phát triển trí tuệ nhân tạo không được quy định. Vào tháng Ba, một bức thư mở kêu gọi các phòng thí nghiệm trí tuệ nhân tạo "ngừng ngay lập tức ít nhất 6 tháng đào tạo các hệ thống trí tuệ nhân tạo mạnh mẽ hơn GPT-4" đã được ký kết bởi hàng ngàn người, trong đó có Elon Musk, Bengio và Russell.
Cũng trong tháng 5, một tuyên bố do Trung tâm An toàn Trí tuệ nhân tạo tổ chức đã tuyên bố rằng "giảm nguy cơ tuyệt chủng do trí tuệ nhân tạo nên là ưu tiên toàn cầu, cùng với các rủi ro ở quy mô xã hội khác như đại dịch và chiến tranh hạt nhân." Tuyên bố đã được ký kết bởi hơn 500 học giả nổi tiếng và các nhà lãnh đạo ngành công nghiệp, bao gồm Hinton, Bengio và Russell, cũng như các CEO của ba công ty trí tuệ nhân tạo nổi tiếng nhất: Sam Altman của OpenAI, Demis Hassabis của DeepMind và Dario Amodei của Anthropic.
Pieter Abbeel, người đồng sáng lập, tổng giám đốc và nhà khoa học trưởng tại công ty robot học Covariant.ai, và giáo sư kỹ thuật điện tại Đại học California, Berkeley, đã ký kết bài viết trong tuần này mặc dù không ký kết các bức thư mở trước đó. Abbeel cho biết, quan điểm lạc quan một cách thận trọng trong tuyên bố gần đây nhất này phù hợp hơn với quan điểm của anh hơn là quan điểm đáng lo sợ của các tuyên bố mở trước đây. "Nếu chúng ta làm đúng - và chúng ta còn rất nhiều việc phải làm đúng - chúng ta có thể rất lạc quan về tương lai," ông nói.
Các nhà nghiên cứu trí tuệ nhân tạo đã lâu đã cố gắng thu hút sự chú ý đến những nguy cơ tiềm năng do công nghệ họ đã giúp phát triển. Năm 2016, Hinton, Bengio và Russell đã ký kết một bức thư do Học viện Tương lai tổ chức, một tổ chức phi lợi nhuận nhằm giảm thiểu các rủi ro toàn cầu và tuyệt chủng, kêu gọi "cấm vũ khí tự động tấn công ngoài khả năng kiểm soát có ý nghĩa của con người."
Lịch sử cho thấy, các nhà khoa học đã cảnh báo và là người ủng hộ sớm đối với các vấn đề liên quan đến nghiên cứu của họ. Các nhà khoa học về biến đổi khí hậu đã cảnh báo về vấn đề ấm đới toàn cầu từ những năm 1980. Và sau khi dẫn đầu trong việc phát triển bom nguyên tử, Robert Oppenheimer đã trở thành một người ủng hộ mạnh mẽ cho sự kiểm soát quốc tế, thậm chí là hoàn toàn cấm vũ khí hạt nhân.
Bengio cho biết cuộc ủng hộ chính sách trí tuệ nhân tạo của anh đã phát triển khi "sự hiểu biết về vấn đề và chính trị xung quanh nó đã được cải thiện rất nhiều."
Một trong các chính sách được đề xuất trong bài viết mới là yêu cầu các công ty phải xin giấy phép trước khi phát triển "các mô hình tương lai có khả năng đặc biệt." Tuy nhiên, một số nhà phát triển trí tuệ nhân tạo và nhận xét đã cảnh báo rằng việc cấp giấy phép sẽ làm lợi ích cho các công ty lớn có khả năng chịu gánh nặng quy định cần thiết để có được giấy phép.
Bengio gọi đây là một "lập luận hoàn toàn sai lầm," chỉ ra rằng gánh nặng của việc cấp giấy phép sẽ tác động duy nhất đối các công ty phát triển các mô hình trí tuệ nhân tạo lớn nhất và mạnh nhất. Thay vào đó, Bengio lập luận rằng nguy cơ thực sự của việc bị kiểm soát bởi các công ty là khi chúng được phép ảnh hưởng đến việc lập pháp đủ mạnh mẽ.
Russell cho rằng lập luận rằng các công ty trí tuệ nhân tạo lớn đang thúc đẩy quy định để loại bỏ các công ty nhỏ hơn là "hoàn toàn sai lầm," ông lập luận rằng mặc dù có nhiều quy định hơn đối với cửa hàng sandwich so với các công ty trí tuệ nhân tạo, hàng ngàn quán cà phê và nhà hàng mới mở mỗi năm.
Bài viết mới xuất hiện vào thời điểm quan trọng, khi các quy tắc ở các quốc gia phát triển trí tuệ nhân tạo lớn đang ở các giai đoạn khác nhau về mức độ hoàn thiện. Trung Quốc tiến xa hơn cả, các quy tắc của họ về chatbot trí tuệ nhân tạo, dựa trên các quy định trước đó và đã có hiệu lực trong tháng 8.
Các nước phương Tây đang kém xa. Dự luật Vận động trí tuệ nhân tạo của Liên minh châu Âu vẫn đang tiến qua quá trình quy định của Liên minh châu Âu. Ở Mỹ, Nhà Trắng đã đảm bảo cam kết tự nguyện từ 15 công ty trí tuệ nhân tạo hàng đầu, nhưng Quốc hội vẫn còn rất xa khỏi việc thông qua pháp luật về trí tuệ nhân tạo.
Trong khi đó, Thủ tướng Anh Rishi Sunak đang cố gắng đóng vai trò quan trọng trong việc thúc đẩy hợp tác quốc tế về các vấn đề trí tuệ nhân tạo, và Tổng thư ký Liên Hợp Quốc António Guterres và đặc phái viên về công nghệ của ông, Amandeep Gill, cũng đang cố gắng thúc đẩy quản trị toàn cầu về trí tuệ nhân tạo.
Russell nói: “Nếu các chính phủ hành động ngay bây giờ với quyết tâm, thì có khả năng chúng ta sẽ học được cách làm cho hệ thống AI trở nên an toàn trước khi chúng ta học cách làm cho chúng trở nên mạnh mẽ đến mức không thể kiểm soát được”.
Theo time.com