Ram Shankar Siva Kumar, trưởng nhóm Red Team AI tại Microsoft cho biết: “Công cụ này được thiết kế để cho phép mọi tổ chức trên toàn cầu có trách nhiệm hơn khi đổi mới trí tuệ nhân tạo.”
Công ty cho biết PyRIT có thể được sử dụng để đánh giá tính mạnh mẽ của các điểm cuối trong mô hình ngôn ngữ lớn (LLM) nhằm chống lại các nội dung bịa đặt, sử dụng sai mục đích, nội dung cấm… Công cụ này cũng có thể được sử dụng để xác định các tác hại về bảo mật từ việc tạođến bẻ khóa, cũng như các tác động đến quyền riêng tư như đánh cắp danh tính.
PyRIT gồm 5 phần: mục tiêu, bộ dữ liệu, bộ đánh giá, khả năng hỗ trợ nhiều chiến lược tấn công và tích hợp một thành phần bộ nhớ, có thể ở dạng JSON hoặc cơ sở dữ liệu để lưu trữ các tương tác giữa đầu vào, đầu ra trung gian. Bộ đánh giá cũng cung cấp hai tùy chọn khác nhau để đánh giá các đầu ra từ hệ thống AI mục tiêu, cho phép Red Team sử dụng một bộ phân loại học máy cổ điển hoặc tận dụng một điểm cuối LLM để tự đánh giá.
Microsoft cho biết: “Mục tiêu là cho phép các nhà nghiên cứu có cơ sở về mức độ hoạt động của mô hình, toàn bộ quy trình của họ đối với các tác hại khác nhau và có thể so sánh dựa trên phiên bản hiện tại với với các phiên bản tương lai của mô hình”. Điều này cho phép Microsoft có nguồn dữ liệu qua các đánh giá về hiệu suất của mô hình và phát hiện bất kỳ sự suy giảm hiệu suất dựa trên các cải tiến trong tương lai.
PyRIT không phải là phương pháp thay thế cho việc kiểm tra Red Teaming thủ công mà là công cụ bổ trợ cho kỹ năng chuyên môn hiện có của đội ngũ Red Teaming. Theo đó, công cụ này giúp xác định các "điểm nóng" rủi ro bằng cách tạo ra các dấu nhắc có thể được sử dụng để đánh giá hệ thống AI và chỉ ra các lĩnh vực cần được điều tra thêm.
Microsoft đã phát triển PyRIT như một công cụ hỗ trợ quan trọng cho các đội ngũ Red Teaming trong việc đánh giá và phát hiện rủi ro trong hệ thống AI tạo sinh. Công cụ này không nhằm thay thế hoàn toàn cho các phương pháp kiểm tra thủ công mà là để tăng cường khả năng phát hiện các điểm rủi ro tiềm ẩn, giúp các chuyên gia có thể tập trung vào việc điều tra sâu hơn vào những vấn đề cụ thể. PyRIT đóng vai trò như một bước tiến quan trọng trong việc bảo mật AI, đặc biệt là trong bối cảnh ngày càng có nhiều hệ thống được triển khai rộng rãi.
Sự phát triển này xảy ra khi Protect AI tiết lộ nhiều lỗ hổng nghiêm trọng trong các nền tảng chuỗi cung ứng AI phổ biến như ClearML, Hugging Face, MLflow và Triton Inference Server có thể dẫn đến việc thực thi mã tùy ý và tiết lộ thông tin nhạy cảm.
Quốc Trung
(Theo The Hacker news)
09:00 | 06/12/2023
14:00 | 09/05/2024
16:44 | 12/10/2016
15:00 | 15/05/2024
14:00 | 23/02/2024
10:00 | 05/06/2024
10:00 | 20/05/2024
14:00 | 16/10/2024
Cuộc thi Sinh viên với An toàn thông tin ASEAN 2024 vừa chính thức khởi động với sự tham gia của 248 đội thi đến từ 63 trường đại học thuộc 10 quốc gia ASEAN. Đây là lần thứ hai liên tiếp tất cả các nước ASEAN đều góp mặt, đánh dấu bước phát triển vượt bậc của sân chơi trí tuệ này. Không chỉ góp phần nâng cao nhận thức về an toàn thông tin (ATTT), cuộc thi còn là cơ hội để các sinh viên tài năng trong khắp khu vực thể hiện bản lĩnh và kỹ năng trong lĩnh vực an ninh mạng, hứa hẹn những cuộc tranh
08:00 | 26/09/2024
GitLab đã phát hành bản cập nhật bảo mật để giải quyết lỗ hổng vượt qua xác thực (bypass) SAML nghiêm trọng ảnh hưởng đến các bản cài đặt tự quản lý (self-managed) của GitLab Community Edition (CE) và Enterprise Edition (EE).
11:00 | 03/09/2024
Google chính thức giới thiệu hai tính năng Gemini mới cho Gmail, tích hợp trí tuệ nhân tạo (AI) để hỗ trợ người dùng viết và chỉnh sửa email, cải thiện hiệu suất và chất lượng công việc.
10:00 | 30/08/2024
Ngày 20/8, Tòa phúc thẩm liên bang tại California, Mỹ đã ra phán quyết khôi phục vụ kiện của những người dùng trình duyệt Chrome, trong đó cáo buộc Google thu thập trái phép dữ liệu cá nhân thông qua tính năng Sync.
"Gã khổng lồ" thương mại điện tử Alibaba vừa giới thiệu phiên bản nâng cấp của công cụ dịch thuật trí tuệ nhân tạo (AI) Marco MT, với khả năng vượt trội hơn hẳn so với các đối thủ như Google, DeepL và ChatGPT.
10:00 | 27/10/2024