• An Giang
  • Bình Dương
  • Bình Phước
  • Bình Thuận
  • Bình Định
  • Bạc Liêu
  • Bắc Giang
  • Bắc Kạn
  • Bắc Ninh
  • Bến Tre
  • Cao Bằng
  • Cà Mau
  • Cần Thơ
  • Điện Biên
  • Đà Nẵng
  • Đà Lạt
  • Đắk Lắk
  • Đắk Nông
  • Đồng Nai
  • Đồng Tháp
  • Gia Lai
  • Hà Nội
  • Hồ Chí Minh
  • Hà Giang
  • Hà Nam
  • Hà Tây
  • Hà Tĩnh
  • Hòa Bình
  • Hưng Yên
  • Hải Dương
  • Hải Phòng
  • Hậu Giang
  • Khánh Hòa
  • Kiên Giang
  • Kon Tum
  • Lai Châu
  • Long An
  • Lào Cai
  • Lâm Đồng
  • Lạng Sơn
  • Nam Định
  • Nghệ An
  • Ninh Bình
  • Ninh Thuận
  • Phú Thọ
  • Phú Yên
  • Quảng Bình
  • Quảng Nam
  • Quảng Ngãi
  • Quảng Ninh
  • Quảng Trị
  • Sóc Trăng
  • Sơn La
  • Thanh Hóa
  • Thái Bình
  • Thái Nguyên
  • Thừa Thiên Huế
  • Tiền Giang
  • Trà Vinh
  • Tuyên Quang
  • Tây Ninh
  • Vĩnh Long
  • Vĩnh Phúc
  • Vũng Tàu
  • Yên Bái

YONHAP: Hàn Quốc trở thành quốc gia đầu tiên ban hành luật toàn diện về sử dụng AI an toàn

(Chinhphu.vn) - Ngày 22/1, Hàn Quốc đã chính thức ban hành đạo luật toàn diện đầu tiên trên thế giới về việc sử dụng an toàn các mô hình trí tuệ nhân tạo (AI), thiết lập khung pháp lý nhằm ngăn chặn tin giả và các rủi ro, tác động tiêu cực phát sinh từ công nghệ mới này.

22/01/2026 10:50
YONHAP: Hàn Quốc trở thành quốc gia đầu tiên ban hành luật toàn diện về sử dụng AI an toàn- Ảnh 1.

Theo Bộ Khoa học Hàn Quốc, Đạo luật cơ bản về Phát triển Trí tuệ nhân tạo và Thiết lập nền tảng tin cậy (gọi tắt là Đạo luật cơ bản về AI) đã chính thức có hiệu lực. Yonhap cho biết, sự kiện này đánh dấu lần đầu tiên một chính phủ trên thế giới áp dụng các hướng dẫn toàn diện về việc sử dụng AI.

Trọng tâm của đạo luật là yêu cầu các công ty và nhà phát triển AI phải chịu trách nhiệm lớn hơn trong việc giải quyết nội dung deepfake và tin giả có thể được tạo ra bởi các mô hình AI, đồng thời trao quyền cho chính phủ áp dụng các hình phạt tài chính hoặc tiến hành điều tra các hành vi vi phạm.

Đi vào chi tiết, đạo luật đưa ra khái niệm "AI rủi ro cao", ám chỉ các mô hình AI được sử dụng để tạo ra nội dung có thể ảnh hưởng đáng kể đến đời sống hằng ngày hoặc sự an toàn của người dùng, bao gồm các ứng dụng trong quy trình tuyển dụng, xét duyệt khoản vay và tư vấn y tế.

Các đơn vị khai thác các mô hình AI rủi ro cao này có nghĩa vụ phải thông báo cho người dùng rằng dịch vụ của họ dựa trên nền tảng AI và có trách nhiệm bảo đảm tính an toàn. Các nội dung do mô hình AI tạo ra bắt buộc phải có nhãn bản quyền số (watermark) để chỉ rõ đây là sản phẩm của trí tuệ nhân tạo.

Một quan chức bộ cho biết: "Việc gắn nhãn bản quyền số vào nội dung do AI tạo ra là biện pháp bảo vệ tối thiểu nhằm ngăn chặn các tác động tiêu cực từ việc lạm dụng công nghệ AI, chẳng hạn như nội dung deepfake".

Các công ty toàn cầu cung cấp dịch vụ AI tại Hàn Quốc nếu đáp ứng bất kỳ tiêu chí nào sau đây: Doanh thu hằng năm toàn cầu từ 1.000 tỷ won (681 triệu USD) trở lên, doanh thu trong nước từ 10 tỷ won trở lên, hoặc có ít nhất 1 triệu người dùng hằng ngày tại Hàn Quốc, sẽ phải chỉ định một đại diện tại địa phương. Hiện tại, OpenAI và Google đều nằm trong nhóm đối tượng này.

Các hành vi vi phạm đạo luật có thể bị phạt tiền lên tới 30 triệu won. Chính phủ Hàn Quốc dự kiến sẽ áp dụng thời gian ân hạn một năm trước khi chính thức xử phạt để giúp khu vực tư nhân thích nghi với các quy định mới.

Đạo luật cũng bao gồm các biện pháp nhằm giúp Chính phủ Hàn Quốc thúc đẩy ngành công nghiệp AI, theo đó Bộ trưởng Khoa học có nghĩa vụ phải trình bày kế hoạch chính sách tổng thể định kỳ ba năm một lần.

Theo Yonhap