Thống đốc BoE cảnh báo nguy cơ lặp lại khủng hoảng tài chính 2008
Investing.com - Dự thảo Luật Trí tuệ nhân tạo (AI) đang được Bộ Tư pháp thẩm định đề xuất cấm phát triển và đưa ra thị trường các hệ thống AI có khả năng thao túng nhận thức hoặc hành vi con người, đồng thời yêu cầu con người phải giữ quyền kiểm soát và chịu trách nhiệm cuối cùng trong mọi quyết định liên quan đến việc thiết kế, phát triển và vận hành AI.
Theo Bộ Tư pháp, hiện các quy định về AI mới được đề cập sơ bộ trong Luật Công nghiệp công nghệ số, chưa hình thành được hành lang pháp lý toàn diện. Trong khi đó, công nghệ này đang phát triển với tốc độ nhanh, mở ra nhiều cơ hội nhưng cũng đặt ra không ít thách thức về an toàn, đạo đức và quản lý rủi ro.
Một trong những vấn đề nổi bật là khoảng trống pháp lý khi AI gây thiệt hại. Các tình huống như xe tự lái gây tai nạn, phần mềm chẩn đoán y tế sai lệch hoặc hệ thống tín dụng tự động từ chối cho vay một cách thiên vị hiện chưa có quy định rõ ràng về trách nhiệm pháp lý. Câu hỏi ai sẽ phải chịu trách nhiệm — nhà phát triển, nhà sản xuất, người sử dụng hay chính hệ thống AI — vẫn chưa được pháp luật hiện hành giải đáp thỏa đáng, khiến người dùng và doanh nghiệp đều đối mặt với rủi ro cao.
Bên cạnh đó, sự phát triển của AI còn kéo theo các nguy cơ an ninh đáng lo ngại, khi công nghệ deepfake bị lợi dụng để tạo thông tin giả, bôi nhọ hoặc gây bất ổn xã hội. Các thuật toán thiên vị cũng có thể khuếch đại định kiến sẵn có trong dữ liệu, dẫn đến những quyết định thiếu công bằng và phân biệt đối xử.
Để quản lý hiệu quả, dự thảo luật đề xuất cơ chế phân loại AI theo bốn mức độ rủi ro, từ thấp đến không chấp nhận được. Nhóm rủi ro cao nhất bao gồm các hệ thống có khả năng gây tổn hại nghiêm trọng đến quyền con người hoặc an ninh quốc gia, đặc biệt là những AI được thiết kế nhằm thao túng hành vi, nhận thức hoặc lợi dụng điểm yếu của nhóm người dễ tổn thương như trẻ em, người cao tuổi, người khuyết tật. Các hệ thống thuộc nhóm này sẽ bị cấm phát triển, cung cấp hoặc đưa vào sử dụng tại Việt Nam, chỉ được phép nghiên cứu, thử nghiệm trong môi trường kiểm soát như phòng thí nghiệm hoặc cơ sở giáo dục.
Đối với nhóm AI có rủi ro cao, tức các hệ thống có khả năng gây tổn hại đến tính mạng, sức khỏe hoặc quyền lợi hợp pháp của cá nhân, tổ chức, dự thảo yêu cầu phải được đánh giá sự phù hợp trước khi lưu hành và chịu sự thanh tra, giám sát của cơ quan chức năng trong quá trình hoạt động. AI rủi ro trung bình được xác định là những hệ thống có thể gây nhầm lẫn hoặc lừa dối người sử dụng, trong khi nhóm rủi ro thấp bao gồm các ứng dụng ít ảnh hưởng đến an toàn hoặc quyền con người.
Các doanh nghiệp và tổ chức phát triển AI sẽ phải tự phân loại sản phẩm của mình trước khi đưa ra thị trường. Riêng với các hệ thống rủi ro cao, dự thảo quy định phải đăng ký trên Cổng thông tin điện tử một cửa về AI trong vòng 30 ngày. Cổng này sẽ tích hợp với Cổng Dịch vụ công Quốc gia, đảm nhiệm vai trò tiếp nhận đăng ký, báo cáo sự cố, cung cấp thông tin, hướng dẫn pháp lý và tiêu chuẩn kỹ thuật liên quan đến AI, đồng thời là đầu mối để cơ quan quản lý giám sát hoạt động của các hệ thống sau khi thương mại hóa.
Việc xây dựng luật về AI được đánh giá là xu hướng tất yếu trên toàn cầu. Liên minh châu Âu (EU) đã ban hành Đạo luật AI (AI Act) – bộ quy định toàn diện đầu tiên trên thế giới có hiệu lực từ tháng 8/2024, áp dụng phương pháp quản lý dựa trên rủi ro nhằm đảm bảo tính an toàn, minh bạch và tôn trọng các quyền cơ bản. Hàn Quốc cũng đã thông qua Luật Cơ bản về phát triển trí tuệ nhân tạo và xây dựng nền tảng niềm tin, trong khi Trung Quốc và Mỹ triển khai hàng loạt quy định nhằm cân bằng giữa đổi mới sáng tạo và kiểm soát rủi ro.