Nghị viện EU đã tuyên bố, “Các quy tắc sẽ đảm bảo rằng AI được phát triển và sử dụng ở châu Âu hoàn toàn phù hợp với các quyền và giá trị của EU bao gồm giám sát con người, an toàn, quyền riêng tư, minh bạch, không phân biệt đối xử, đảm bảo phúc lợi xã hội và môi trường”.
Xếp hạng AI theo “Mức độ rủi ro”
Các quy tắc tuân theo cách tiếp cận dựa trên rủi ro và thiết lập nghĩa vụ cho các nhà cung cấp và những người triển khai hệ thống AI tùy thuộc vào mức độ rủi ro mà AI có thể tạo ra. Dựa trên mức độ này, những người vận hành AI tương ứng sau đó được trao quyền, đồng thời cũng có các nghĩa vụ nhất định. Do đó, các hệ thống AI có mức độ rủi ro không thể chấp nhận được đối với sự an toàn của mọi người sẽ bị cấm, chẳng hạn như những hệ thống được sử dụng để chấm điểm xã hội (phân loại mọi người dựa trên hành vi xã hội hoặc đặc điểm cá nhân của họ).
Các xâm phạm quyền riêng tư và phân biệt đối xử sẽ bị cấm. Điều này áp dụng cho:
- Hệ thống nhận dạng sinh trắc học từ xa “thời gian thực” trong các không gian có thể truy cập công khai;
- Đăng các hệ thống nhận dạng sinh trắc học từ xa, ngoại trừ duy nhất việc thực thi pháp luật để truy tố các tội phạm nghiêm trọng và chỉ sau khi được tư pháp cho phép;
- Hệ thống phân loại sinh trắc học sử dụng các đặc điểm nhạy cảm (ví dụ: giới tính, chủng tộc, dân tộc, tình trạng công dân, tôn giáo, khuynh hướng chính trị);
- Hệ thống kiểm soát dự đoán (dựa trên hồ sơ, vị trí hoặc hành vi tội phạm trong quá khứ);
- Hệ thống nhận dạng cảm xúc trong thực thi pháp luật, quản lý biên giới, nơi làm việc và các cơ sở giáo dục;
- Chỉnh sửa không có mục tiêu các hình ảnh khuôn mặt từ internet hoặc đoạn phim từ camera quan sát (Closed Circuit Television - CCTV) để tạo cơ sở dữ liệu nhận dạng khuôn mặt (vi phạm nhân quyền và quyền riêng tư).
Bốn nhóm rủi ro
Đạo luật AI phân biệt các quy tắc cho các mức độ rủi ro khác nhau. Các quy tắc mới thiết lập nghĩa vụ cho nhà cung cấp và người dùng tùy thuộc vào mức độ rủi ro từ trí tuệ nhân tạo. Mặc dù nhiều hệ thống AI gây ra rủi ro tối thiểu, nhưng chúng cần phải được đánh giá.
Nhóm I. Rủi ro không thể chấp nhận được
Thuộc nhóm I, Hệ thống AI được coi là mối đe dọa đối với con người và sẽ bị cấm khi chúng có những biểu hiện sau:
- Thao túng hành vi nhận thức của con người hoặc các nhóm dễ bị tổn thương cụ thể: ví dụ như đồ chơi kích hoạt bằng giọng nói khuyến khích hành vi nguy hiểm ở trẻ em;
- Tính điểm xã hội: phân loại mọi người dựa trên hành vi, tình trạng kinh tế xã hội hoặc đặc điểm cá nhân;
- Hệ thống nhận dạng sinh trắc học từ xa và thời gian thực, chẳng hạn như nhận dạng khuôn mặt.
Nhóm II. Hệ thống AI rủi ro cao
Các hệ thống AI gây ảnh hưởng tiêu cực đến an toàn hoặc các quyền cơ bản sẽ được coi là có rủi ro cao và sẽ được chia thành hai loại:
- Các hệ thống AI được sử dụng trong các sản phẩm thuộc luật an toàn sản phẩm của EU. Điều này bao gồm đồ chơi, hàng không, ô tô, thiết bị y tế và thang máy.
- Các hệ thống AI thuộc tám lĩnh vực cụ thể sẽ phải đăng ký trong cơ sở dữ liệu của EU, bao gồm: Nhận dạng và phân loại thể nhân; Quản lý và vận hành cơ sở hạ tầng quan trọng; Giáo dục và dạy nghề; Việc làm, quản lý người lao động và khả năng tự tạo việc làm; Tiếp cận và thụ hưởng các dịch vụ tư nhân thiết yếu và các dịch vụ và lợi ích công cộng; Thực thi pháp luật; Quản lý di cư, tị nạn và kiểm soát biên giới; Hỗ trợ giải thích pháp luật và áp dụng pháp luật.
Nhóm III. Trí tuệ nhân tạo
Nhóm AI, điển hình như ChatGPT, sẽ phải tuân thủ các yêu cầu về tính minh bạch:
- Tiết lộ rằng nội dung được tạo bởi AI;
- Thiết kế mô hình để ngăn nó tạo ra nội dung bất hợp pháp;
- Xuất bản tóm tắt dữ liệu có bản quyền được sử dụng cho đào tạo.
Nhóm IV. Rủi ro hạn chế
Các hệ thống AI có rủi ro hạn chế phải tuân thủ các yêu cầu tối thiểu về tính minh bạch để cho phép người dùng đưa ra quyết định sáng suốt. Sau khi tương tác với các ứng dụng, người dùng có thể quyết định xem họ có muốn tiếp tục sử dụng hay không. Người dùng nên được biết khi họ đang tương tác với AI. Điều này bao gồm các hệ thống AI tạo hoặc thao tác nội dung hình ảnh, âm thanh hoặc video, trong đó điển hình là deepfakes.
Đạo luật AI: Quyền và Trách nhiệm
Các nhà cung cấp mô hình nền tảng trong lĩnh vực AI sẽ phải đánh giá và giảm thiểu rủi ro có thể xảy ra (đối với sức khỏe, an toàn, quyền cơ bản, môi trường, dân chủ và pháp quyền) và đăng ký mô hình của họ trong cơ sở dữ liệu của EU trước khi phát hành trên thị trường EU. Các hệ thống AI dựa trên các mô hình như vậy, như ChatGPT sẽ phải tuân thủ các yêu cầu về tính minh bạch (tiết lộ rằng nội dung do AI tạo ra, đồng thời giúp phân biệt cái gọi là hình ảnh giả sâu với hình ảnh thật) và đảm bảo các biện pháp bảo vệ chống lại việc tạo ra nội dung bất hợp pháp. Các bản tóm tắt chi tiết về dữ liệu có bản quyền được sử dụng cho quá trình đào tạo của họ cũng sẽ phải được công khai.
Theo đó, ngay từ bây giờ các hệ thống AI tổng hợp như phải đáp ứng “các yêu cầu về tính minh bạch” và tiết lộ rằng nội dung được xác định là do AI tạo ra. Điều này sẽ giúp phân biệt ảnh deepfake với ảnh thật. Ngoài ra, các nhà cung cấp AI phải đảm bảo rằng không có nội dung bất hợp pháp nào được tạo ra. Các nhà khai thác AI phải công bố bản tóm tắt dữ liệu độc quyền mà họ đã sử dụng cho mục đích đào tạo. Người dùng có quyền và họ có thể gửi khiếu nại về các hệ thống AI.
Nguyễn Ngoan
09:00 | 08/06/2023
14:00 | 14/12/2023
15:00 | 26/10/2023
13:00 | 30/05/2023
09:00 | 03/10/2023
10:00 | 11/10/2023
10:00 | 12/09/2023
09:00 | 08/08/2023
13:00 | 15/08/2023
08:00 | 17/02/2023
08:00 | 04/05/2024
Năm 2023, tình hình an ninh mạng, an toàn thông tin diễn biến phức tạp, trên không gian mạng các thế lực thù địch không ngừng gia tăng các hoạt động tấn công, lừa đảo, chống phá Đảng, Nhà nước. Việc lộ lọt các thông tin quan trọng, thông tin bí mật nhà nước tiếp tục diễn biến khó lường. Trước những thuận lợi và thách thức đặt ra trong tình hình mới, Đảng và Nhà nước ta đã có nhiều đường lối, chủ trương quan trọng về lĩnh vực an ninh mạng, an toàn thông tin được cụ thể hóa bằng các văn bản quy phạm pháp luật được ban hành năm 2023. Bài báo sẽ tổng hợp những văn bản quy phạm pháp luật liên quan đến lĩnh vực an ninh mạng, an toàn thông tin được ban hành tại Việt Nam trong năm 2023.
15:00 | 23/04/2024
Mới đây, Cisco đã giới thiệu phương thức tiếp cận mới "Cisco Hypershield" để bảo mật các trung tâm dữ liệu và đám mây. Với phương thức tiếp cận mới này khách hàng có thể triển khai bảo mật ở bất kỳ nơi nào họ cần - trên đám mây, trong trung tâm dữ liệu, trên sàn nhà máy, hoặc phòng chụp chẩn đoán hình ảnh tại bệnh viện.
15:00 | 20/12/2023
Trong phần I bài viết đã thông tin tới độc giả các khái niệm, phương thức, thủ đoạn của hoạt động rửa tiền bằng tiền mã hóa. Phần II tiếp theo của bài báo sẽ tập trung đề xuất các giải pháp phòng, chống rửa tiền sử dụng tiền mã hóa tại Việt Nam.
23:00 | 28/09/2023
Với sự phổ biến của Internet, mạng xã hội, các thông tin được lan truyền với tốc độ nhanh chóng và rất khó kiểm soát, trong đó nhiều thông tin có nguồn gốc không đáng tin cậy, thông tin sai sự thật, trở thành những mối lo ngại được chính phủ các nước đặc biệt quan tâm. Do đó, truyền thông có một nhiệm vụ quan trọng là hỗ trợ cơ quan quản lý và chính phủ trong việc định hướng dư luận xã hội để ngăn chặn các luồng thông tin sai lệch, không chính thống. Có thể nói truyền thông là nhân tố, phương tiện có sức mạnh đặc biệt to lớn trong việc định hướng nhận thức và hình thành dư luận xã hội về an toàn thông tin. Với vai trò quan trọng của mình, truyền thông là cầu nối giúp tuyên truyền, phổ biến các chính sách, nâng cao nhận thức về an ninh, an toàn thông tin không chỉ tại Việt Nam mà còn trên toàn thế giới.