Hiệp ước về AI được thông qua tại hội nghị thường niên của Ủy ban Bộ trưởng EC, với sự tham gia của các bộ trưởng ngoại giao của 46 quốc gia thành viên.
Trong một tuyên bố, EC cho biết Công ước khung về AI đặt ra khung pháp lý đối với tất cả các giai đoạn trong quá trình phát triển và sử dụng các hệ thống AI, đồng thời giải quyết những rủi ro tiềm ẩn của AI và thúc đẩy sự đổi mới công nghệ một cách có trách nhiệm.
Tuyên bố nhấn mạnh rằng các quốc gia ngoài Liên minh châu Âu (EU) cũng có thể tham gia hiệp ước này.
Tổng thư ký EC Marija Pejcinovic cho biết Công ước khung về AI là hiệp ước toàn cầu đầu tiên bảo đảm rằng AI được sử dụng một cách có trách nhiệm, tuân thủ các quy định luật pháp và bảo vệ quyền lợi của người dân.
Theo EC, hiệp ước này yêu cầu các bên bảo đảm rằng hệ thống AI không được sử dụng để làm suy yếu các thể chế. Các yêu cầu về tính minh bạch và giám sát sẽ bao gồm việc xác định nội dung do AI tạo ra cho người dùng.
Công ước này là kết quả 2 năm làm việc của một cơ quan liên chính phủ, quy tụ 46 quốc gia thành viên của EC, EU và 11 quốc gia không phải thành viên EU - trong đó có Mỹ, cũng như đại diện của giới học giả. Dự kiến, Công ước khung về AI sẽ được ký kết tại một hội nghị của các bộ trưởng tư pháp EU ở thủ đô Vilnius của Litva vào tháng 9 tới.
Trước đó, tháng 3 vừa qua, Nghị viện châu Âu (EP) đã thông qua các quy tắc quản lý việc sử dụng AI, đặc biệt là các hệ thống AI đang thịnh hành như ChatGPT của công ty OpenAI (Mỹ).
Theo giới chuyên gia, đến năm 2028, giá trị thị trường AI có thể vượt ngưỡng 1.000 tỷ USD, điều đó đồng nghĩa rằng việc xây dựng hành lang pháp lý nhằm kiểm soát và ngăn ngừa những nguy cơ tiềm ẩn từ AI ngày càng cấp thiết.
Cùng với những lợi ích không thể phủ nhận, sự phát triển của hệ thống AI siêu thông minh đang đặt ra mối lo ngại về những hậu quả khôn lường nếu AI không được kiểm soát, hoặc con người lợi dụng AI cho những mưu đồ đen tối, nói cách khác là phát triển và sử dụng AI thiếu trách nhiệm.
Với mức độ phủ sóng gia tăng nhanh chóng, đồng thời là chủ đề thảo luận chủ đạo của năm 2023, AI đã được nhà xuất bản từ điển Collins (Anh) chọn là "Từ khóa của năm 2023".
Đó cũng là lý do cộng đồng thế giới đang khẩn trương phối hợp tìm giải pháp và cách thức tiếp cận chung để giám sát AI.
Tháng 11/2023, Hội nghị Liên minh AI châu Âu lần thứ tư diễn ra tại Tây Ban Nha đã tập trung thảo luận chủ đề "Phát triển AI một cách đáng tin cậy trên toàn cầu."
Hội nghị cấp cao toàn cầu đầu tiên về an toàn AI cũng đã được tổ chức tại Anh để đánh giá những nguy cơ từ AI, đặc biệt là ở giai đoạn phát triển và thảo luận về cách giảm thiểu những nguy cơ này thông qua phối hợp quốc tế.
Trong khi đó, các quan chức Nhóm các nước công nghiệp phát triển (G7) đã thống nhất về Bộ Quy tắc ứng xử 11 điểm dành cho các công ty phát triển AI, hướng dẫn quản lý những hệ thống AI tiên tiến nhất và hệ thống AI tạo sinh.
Tổng Thư ký Liên Hợp Quốc Antonio Guterres cũng công bố thành lập Ban cố vấn AI. Với 39 thành viên là các giám đốc công ty, quan chức chính phủ và các học giả, ban cố vấn có nhiệm vụ đưa ra hướng quản lý AI ở tầm quốc tế.
Liên Hợp Quốc khẳng định các công nghệ AI cần được giám sát chặt chẽ, cho dù công nghệ phát triển đến mức nào cũng phải bảo đảm khía cạnh quyền con người luôn là yếu tố trung tâm.
Ở quy mô quốc gia, chính phủ nhiều nước cũng nỗ lực quản lý công nghệ đang phát triển "quá nhanh, quá nguy hiểm" này.
Anh sẽ thành lập Viện An toàn AI đầu tiên trên thế giới, nhằm đánh giá và thử nghiệm các mô hình mới, qua đó xác định tất cả các rủi ro tiềm ẩn từ AI.
Nước này cũng tăng khoản tài trợ chi cho dự án "Tài nguyên nghiên cứu AI" lên 300 triệu bảng Anh (gần 374 USD), gấp 3 lần so với công bố trước đó.
Đây là dự án vận dụng năng lực của hai siêu máy tính ở Cambridge và Bristol để phân tích những mô hình AI hiện đại nhằm thử nghiệm các tính năng an toàn trong quá trình sử dụng công nghệ mới.
Trong khi đó, Hội đồng Liên bang Thụy Sĩ đã yêu cầu cơ quan chức năng đánh giá tổng quan về các phương pháp quản lý khả thi đối với AI, từ đó xác định các phương pháp tiếp cận tiềm năng để điều chỉnh quy định quản lý vào cuối năm 2024.
Mỹ cũng thành lập Viện An toàn AI nhằm đánh giá mức độ an toàn của các hệ thống AI và hướng dẫn quản lý các vấn đề phát sinh liên quan.