Danh mục hệ thống trí tuệ nhân tạo có rủi ro cao (đề xuất)

Danh mục hệ thống trí tuệ nhân tạo có rủi ro cao được đề xuất tại dự thảo Quyết định mới đây của Bộ Khoa học & Công nghệ. Dưới đây là thông tin cụ thể.

1.  Danh mục hệ thống trí tuệ nhân tạo có rủi ro cao

Dự thảo Quyết định ban hành Danh mục hệ thống trí tuệ nhân tạo có rủi ro cao đã đề xuất Danh mục hệ thống trí tuệ nhân tạo có rủi ro cao, gồm 13 nhóm, được chia theo các nhóm lĩnh vực và mức độ ảnh hưởng như sau

1.1 Nhóm I - Hệ thống AI tác động đến quyền con người

STT

Mô tả hệ thống

Ngưỡng áp dụng

1

AI phân loại, xếp hạng, dự báo về cá nhân để phục vụ quyết định ảnh hưởng trực tiếp đến quyền, lợi ích hợp pháp

Từ 1.000 cá nhân/tháng hoặc 10.000 cá nhân/năm; hoặc ≥ 30% quyết định dựa trực tiếp vào kết quả hệ thống

2

AI sử dụng trong tuyển dụng, đánh giá, kỷ luật, chấm dứt hợp đồng lao động

Từ 500 người lao động/năm; hoặc kết quả là căn cứ chính quyết định

3

AI nhận dạng sinh trắc học từ xa, phân loại sinh trắc học trong không gian công cộng

Phải chứng nhận trước khi sử dụng

1.2 Nhóm II - Hệ thống AI ảnh hưởng đến an toàn, an ninh

STT

Mô tả hệ thống

Ngưỡng áp dụng

4

AI là thành phần bảo đảm an toàn trong sản phẩm, hàng hóa rủi ro cao

Phải chứng nhận trước khi sử dụng

5

AI trong lĩnh vực an ninh quốc gia, trật tự an toàn xã hội (giám sát diện rộng, dự báo rủi ro an ninh)

Từ 1.000 đối tượng trở lên; hoặc triển khai từ 02 tỉnh trở lên

1.3 Nhóm III - Hệ thống AI trong lĩnh vực thiết yếu

STT

Mô tả hệ thống

Ngưỡng áp dụng

6

AI kiểm soát, vận hành, giám sát hạ tầng thiết yếu (giao thông, năng lượng, nước, viễn thông)

Ảnh hưởng ≥ 10.000 người; hoặc ≥ 02 tỉnh

7

AI hỗ trợ chẩn đoán, điều trị, phân loại bệnh nhân, phân bổ nguồn lực y tế

Phải chứng nhận trước khi sử dụng

8

AI trong giáo dục (đánh giá, xếp lớp, tuyển sinh)

≥ 500 người học/năm; hoặc là căn cứ chính quyết định

9

AI trong tài chính, tín dụng, bảo hiểm (xét duyệt tín dụng, định giá bảo hiểm…)

≥ 1.000 khách hàng/năm; hoặc tự động hóa ≥ 30%

10

AI hỗ trợ hoặc tham gia ra quyết định hành chính

Không phụ thuộc quy mô

11

AI hỗ trợ hoạt động tư pháp (phân tích hồ sơ, đánh giá rủi ro tái phạm…)

Không phụ thuộc số lượng vụ việc

1.4 Nhóm IV - Hệ thống AI có quy mô ảnh hưởng lớn, khó khắc phục

STT

Mô tả hệ thống

Ngưỡng áp dụng

12

AI triển khai trên diện rộng, có khả năng gây tác động dây chuyền, hậu quả kéo dài

≥ 02 tỉnh hoặc ≥ 50.000 người bị ảnh hưởng

13

AI xử lý dữ liệu cá nhân nhạy cảm hoặc dữ liệu yêu cầu bảo mật cao

Không phụ thuộc quy mô

Như vậy, dự thảo đã xác định rõ ràng, cụ thể các trường hợp hệ thống AI được xếp vào diện rủi ro cao, đồng thời làm rõ 03 nhóm hệ thống bắt buộc phải chứng nhận sự phù hợp trước khi đưa vào sử dụng.

Đây là căn cứ quan trọng để các tổ chức, doanh nghiệp rà soát hệ thống AI đang triển khai và chuẩn bị đáp ứng yêu cầu quản lý khi Quyết định được ban hành chính thức.


Danh mục hệ thống trí tuệ nhân tạo có rủi ro cao (đề xuất)
Đề xuất Danh mục hệ thống trí tuệ nhân tạo có rủi ro cao (Ảnh minh họa)

2. 3 nhóm hệ thống AI phải chứng nhận trước khi đưa vào sử dụng

Theo khoản 1, 2, 3 Phụ lục III dự thảo Quyết định ban hành Danh mục hệ thống trí tuệ nhân tạo có rủi ro cao, nguyên tắc xác định hệ thống trí tuệ nhân tạo có rủi ro cao cần chứng nhận phù hợp trước khi đưa vào sử dụng như sau:

- Hệ thống trí tuệ nhân tạo là thành phần thuộc về công trình hoặc hệ thống khác mà pháp luật chuyên ngành bắt buộc phải chứng nhận sự phù hợp hoặc kiểm định trước khi đưa vào sử dụng.

- Hệ thống trí tuệ nhân tạo thực hiện chức năng của sản phẩm, hàng hóa khác bắt buộc phải chứng nhận sự phù hợp hoặc kiểm định trước khi đưa vào sử dụng theo pháp luật chuyên ngành.

- Hệ thống nhận dạng sinh trắc học từ xa sử dụng trong không gian công cộng.

Bên cạnh đó, Phụ lục V ban hành kèm Quyết định dự thảo cũng đã nêu danh mục hệ thống trí tuệ nhân tạo phải chứng nhận sự phù hợp trước khi đưa vào sử dụng gồm 03 nhóm:

STT

Mô tả mục đích sử dụng

Ngưỡng áp dụng/Ghi chú

1

Hệ thống trí tuệ nhân tạo là thành phần thuộc về công trình hoặc hệ thống khác mà pháp luật chuyên ngành bắt buộc phải chứng nhận sự phù hợp hoặc kiểm định trước khi đưa vào sử dụng.

 

2

Hệ thống trí tuệ nhân tạo thực hiện chức năng của sản phẩm, hàng hóa khác bắt buộc phải chứng nhận sự phù hợp hoặc kiểm định trước khi đưa vào sử dụng theo pháp luật chuyên ngành.

 

3

Hệ thống trí tuệ nhân tạo được sử dụng như thành phần bảo đảm an toàn trong sản phẩm, hàng hóa có mức độ rủi ro cao do các Bộ ngành quy định theo pháp luật về sản phẩm, hàng hóa.

Hệ thống phải chứng nhận sự phù hợp trước khi đưa vào sử dụng.

Trên đây là Danh mục hệ thống trí tuệ nhân tạo có rủi ro cao (đề xuất).

1900 6192 để được giải đáp qua tổng đài
090 222 9061 để sử dụng dịch vụ Luật sư tư vấn (CÓ PHÍ)
Đánh giá bài viết:

Tin cùng chuyên mục

Video được tạo bởi AI: Khi nào phải gắn nhãn, khi nào phải thông báo?

Video được tạo bởi AI: Khi nào phải gắn nhãn, khi nào phải thông báo?

Video được tạo bởi AI: Khi nào phải gắn nhãn, khi nào phải thông báo?

Khi công nghệ AI ngày càng phát triển, việc sản xuất video, hình ảnh, âm thanh bằng hệ thống trí tuệ nhân tạo trở nên phổ biến. Từ ngày 01/3/2026, Luật Trí tuệ nhân tạo 2025 đã quy định rõ về gắn nhãn và thông báo đối với video do AI tạo ra hoặc chỉnh sửa.

Có đúng không gắn nhãn cho video, hình ảnh AI sẽ bị xử lý hình sự?

Có đúng không gắn nhãn cho video, hình ảnh AI sẽ bị xử lý hình sự?

Có đúng không gắn nhãn cho video, hình ảnh AI sẽ bị xử lý hình sự?

Luật Trí tuệ nhân tạo 2025, có hiệu lực từ ngày 01/3/2026 quy định hình ảnh video do AI tạo ra phải gắn dấu hiệu nhận biết, cá nhân hoặc tổ chức vi phạm có thể phải đối mặt án hình sự. Vậy có đúng không gắn nhãn cho video, hình ảnh AI sẽ bị xử lý hình sự?

Bầu cử đại biểu HĐND: Trường hợp nào phải bầu cử lại, bầu cử thêm?

Bầu cử đại biểu HĐND: Trường hợp nào phải bầu cử lại, bầu cử thêm?

Bầu cử đại biểu HĐND: Trường hợp nào phải bầu cử lại, bầu cử thêm?

Theo quy định tại Luật Bầu cử đại biểu Quốc hội và đại biểu Hội đồng nhân dân 2015, việc tổ chức bầu cử thêm, bầu cử lại hoặc hủy bỏ kết quả bầu cử để bầu cử lại được thực hiện trong những trường hợp cụ thể, bảo đảm đúng nguyên tắc, thẩm quyền và thời hạn luật định.