Meta Platforms Inc. (NASDAQ: META) đã tiết lộ việc phát hiện ra nội dung lừa đảo trên nền tảng Facebook (NASDAQ:META) và Instagram của mình, dường như được tạo ra bởi trí tuệ nhân tạo (AI). Nội dung bao gồm các bình luận ca ngợi cách tiếp cận của Israel đối với cuộc chiến ở Gaza, được đăng bên dưới các bản cập nhật từ các hãng tin toàn cầu và các chính trị gia Hoa Kỳ.
Báo cáo bảo mật gần đây của công ty tiết lộ rằng các tài khoản giả mạo mạo danh các nhóm nhân khẩu học khác nhau, chẳng hạn như sinh viên Do Thái và người Mỹ gốc Phi, nhắm tin nhắn của họ vào người dùng ở Hoa Kỳ và Canada. Meta đã xác định công ty tiếp thị chính trị STOIC có trụ sở tại Tel Aviv là người khởi xướng các chiến dịch này. Cho đến hôm nay, STOIC vẫn chưa bình luận về các cáo buộc.
Báo cáo này đáng chú ý vì nó đánh dấu lần đầu tiên Meta báo cáo việc sử dụng các công nghệ AI tinh vi trong các hoạt động như vậy kể từ khi chúng xuất hiện vào cuối năm 2022. AI tạo ra có thể tạo ra văn bản, hình ảnh và âm thanh thuyết phục, làm dấy lên lo ngại giữa các nhà nghiên cứu về tiềm năng của nó để thúc đẩy các nỗ lực thông tin sai lệch hiệu quả hơn có thể ảnh hưởng đến kết quả bầu cử.
Trong một cuộc họp báo, các giám đốc điều hành bảo mật của Meta, bao gồm Mike Dvilyanski, người đứng đầu bộ phận điều tra mối đe dọa, tuyên bố rằng sự ra đời của các công nghệ AI mới không cản trở khả năng phá vỡ các mạng ảnh hưởng phối hợp của họ. Dvilyanski lưu ý, "Có một số ví dụ trên các mạng này về cách họ sử dụng công cụ AI có khả năng tạo ra để tạo nội dung. Có lẽ nó mang lại cho họ khả năng làm điều đó nhanh hơn hoặc làm điều đó với khối lượng lớn hơn. Nhưng nó không thực sự ảnh hưởng đến khả năng phát hiện chúng của chúng tôi".
Báo cáo an ninh nhấn mạnh sự gián đoạn của sáu hoạt động ảnh hưởng bí mật trong quý đầu tiên, một trong số đó là mạng STOIC. Một mạng lưới khác, có trụ sở tại Iran và cũng tập trung vào cuộc xung đột Israel-Hamas, đã bị đóng cửa, mặc dù nó không sử dụng AI tạo ra.
Khi những gã khổng lồ công nghệ như Meta phải đối mặt với thách thức trong việc giải quyết khả năng lạm dụng AI trong các cuộc bầu cử, các nhà nghiên cứu đã xác định được các trường hợp mà trình tạo hình ảnh từ các công ty như OpenAI và Microsoft (NASDAQ: MSFT) đã tạo ra hình ảnh chứa thông tin sai lệch liên quan đến bỏ phiếu. Các công ty này đã triển khai các hệ thống ghi nhãn kỹ thuật số để xác định nội dung do AI tạo ra khi tạo, nhưng các hệ thống này hiện không hoạt động trên văn bản và hiệu quả tổng thể của chúng bị các nhà nghiên cứu nghi ngờ.
Với các cuộc bầu cử quan trọng đang đến gần ở Liên minh châu Âu vào đầu tháng 6 và tại Hoa Kỳ vào tháng 11, Meta đang chuẩn bị thử nghiệm khả năng phòng thủ của mình trước các chiến dịch thông tin sai lệch do AI tạo ra như vậy.
Reuters đã đóng góp cho bài viết này.Bài viết này được tạo và dịch với sự hỗ trợ của AI và đã được biên tập viên xem xét. Để biết thêm thông tin, hãy xem Điều Kiện & Điều Khoản của chúng tôi.