Việt Nam đi ngược xu hướng đầu tư vàng toàn cầu trong quý II/2025
Investing.com — OpenAI, phòng thí nghiệm nghiên cứu trí tuệ nhân tạo, đã phát hành phiên bản cập nhật của Khung Chuẩn Bị (Preparedness Framework), nhằm giải quyết các rủi ro tiềm ẩn liên quan đến khả năng AI tiên tiến. Điều này diễn ra sau khi CEO ông Sam Altman được hỏi về an toàn AI trong một cuộc phỏng vấn TED gần đây với ông Chris Anderson.
Khung cập nhật được thiết kế để cung cấp phương pháp tập trung hơn vào việc xác định và giảm thiểu các rủi ro cụ thể. Nó đưa ra các yêu cầu mạnh mẽ hơn để giảm thiểu những rủi ro đó và cung cấp hướng dẫn rõ ràng hơn về cách tổ chức đánh giá, quản trị và công bố các biện pháp bảo vệ. OpenAI cũng có kế hoạch đầu tư mạnh mẽ để làm cho công việc chuẩn bị trở nên thiết thực, nghiêm ngặt và minh bạch hơn khi công nghệ phát triển.
Bản cập nhật bao gồm các tiêu chí rõ ràng để ưu tiên các khả năng có rủi ro cao, sử dụng quy trình đánh giá rủi ro có cấu trúc để đánh giá liệu một khả năng tiên tiến có thể dẫn đến tổn hại nghiêm trọng hay không. Nó phân loại mỗi khả năng dựa trên các tiêu chí đã định nghĩa, theo dõi những khả năng đáp ứng năm tiêu chí chính.
Khung này cũng giới thiệu các danh mục khả năng rõ ràng hơn. Các Danh Mục Được Theo Dõi bao gồm khả năng Sinh học và Hóa học, khả năng An ninh mạng, và khả năng Tự cải thiện của AI. OpenAI tin rằng những lĩnh vực này sẽ mang lại một số lợi ích chuyển đổi lớn nhất từ AI, đặc biệt là trong khoa học, kỹ thuật và nghiên cứu.
Ngoài các Danh Mục Được Theo Dõi, tổ chức này đang giới thiệu các Danh Mục Nghiên Cứu. Đây là những lĩnh vực có thể gây ra rủi ro tổn hại nghiêm trọng nhưng chưa đáp ứng đủ tiêu chí để trở thành Danh Mục Được Theo Dõi. Các lĩnh vực trọng tâm hiện tại thuộc danh mục mới này bao gồm Tự chủ Tầm xa, Sandbagging (cố tình hoạt động kém hiệu quả), Tự sao chép và Thích nghi, Phá hoại Biện pháp bảo vệ, và Hạt nhân và Phóng xạ.
Khung cập nhật cũng làm rõ các cấp độ khả năng, tinh giản chúng thành hai ngưỡng rõ ràng: Khả năng Cao và Khả năng Quan trọng. Cả hai cấp độ đều yêu cầu các biện pháp bảo vệ để giảm thiểu đủ mức rủi ro gây tổn hại nghiêm trọng liên quan trước khi triển khai và trong quá trình phát triển. Nhóm Cố vấn An toàn, một nhóm các lãnh đạo an toàn nội bộ, xem xét các biện pháp bảo vệ này và đưa ra khuyến nghị cho Ban Lãnh đạo OpenAI.
Khung cập nhật cũng bao gồm các đánh giá có thể mở rộng để hỗ trợ kiểm tra thường xuyên hơn và các Báo cáo Biện pháp Bảo vệ đã định nghĩa để cung cấp thêm chi tiết về cách thiết kế các biện pháp bảo vệ mạnh mẽ và cách xác minh hiệu quả của chúng.
Trong trường hợp có sự thay đổi trong bối cảnh công nghệ tiên tiến, khi một nhà phát triển AI khác phát hành hệ thống có rủi ro cao mà không có biện pháp bảo vệ tương đương, OpenAI có thể điều chỉnh các yêu cầu của mình. Tuy nhiên, trước tiên họ sẽ xác nhận rằng bối cảnh rủi ro đã thay đổi, công khai thừa nhận sự điều chỉnh, đánh giá rằng sự điều chỉnh không làm tăng tổng thể rủi ro gây tổn hại nghiêm trọng, và đảm bảo các biện pháp bảo vệ vẫn có tính bảo vệ.
OpenAI sẽ tiếp tục công bố các phát hiện về Sự Chuẩn Bị với mỗi lần phát hành mô hình tiên tiến, như đã làm với GPT-4o, OpenAI o1, Operator, o3-mini, nghiên cứu sâu, và GPT-4.5, và chia sẻ các tiêu chuẩn mới để hỗ trợ nỗ lực an toàn rộng hơn trong lĩnh vực này.
Bản cập nhật này diễn ra sau cuộc phỏng vấn TED trong đó CEO ông Sam Altman được hỏi về an toàn AI, đặc biệt liên quan đến AI tác nhân (agentic AI). Ông Altman thừa nhận rằng các vấn đề đang ngày càng nghiêm trọng, mô tả AI tác nhân là vấn đề an toàn thú vị và quan trọng nhất mà OpenAI đã đối mặt cho đến nay.
Bài viết này được tạo và dịch với sự hỗ trợ của AI và đã được biên tập viên xem xét. Để biết thêm thông tin, hãy xem Điều Kiện & Điều Khoản của chúng tôi.