Chào bạn, tôi là Tiến sĩ Minh Trí. Bạn có bao giờ tự hỏi làm thế nào một chiếc xe tự hành có thể bị đánh lừa để nhìn biển báo "Dừng lại" thành biển báo "Tốc độ tối đa 80km/h" chỉ bằng một vài miếng dán nhỏ? Bạn muốn bảo vệ hệ thống AI của mình trước những cuộc tấn công đầu độc dữ liệu (Data Poisoning) hay tấn công trốn tránh (Evasion Attacks)? Đã đến lúc bạn làm chủ "nghệ thuật phòng thủ AI" với cuốn sách "Adversarial Machine Learning" (2019).
Anthony D. Joseph và Blaine Nelson dẫn dắt bạn đi sâu vào mối quan hệ cộng sinh nhưng đầy kịch tính giữa Machine Learning và Computer Security. Trong cuốn sách bảo mật AI chuyên sâu này, bạn sẽ làm chủ:
Mô hình hóa kẻ tấn công (Threat Modeling): Cách đánh giá khả năng, kiến thức và mục tiêu của kẻ tấn công đối với hệ thống học máy của bạn.
Tấn công trốn tránh (Evasion Attacks): Kỹ thuật tạo ra các mẫu nhiễu (Adversarial Examples) để đánh lừa bộ phân loại mà mắt thường không thể nhận ra.
Đầu độc dữ liệu (Data Poisoning): Hiểu cách kẻ tấn công tiêm dữ liệu độc hại vào quá trình huấn luyện để tạo ra các "cửa sau" (Backdoors) trong mô hình.
Lý thuyết trò chơi trong AI: Sử dụng Game Theory để dự đoán các bước đi của kẻ thù và tối ưu hóa chiến lược phòng thủ bền vững.
Kỹ thuật phòng thủ (Defensive Mechanisms): Hướng dẫn thực hành Adversarial Training, Robust Optimization và các kỹ thuật phát hiện bất thường năm 2026.
Ứng dụng thực tế: Phân tích các cuộc tấn công trong hệ thống phát hiện thư rác, phần mềm độc hại và mạng xã hội.
Về mặt học thuật, tôi đánh giá cao cách các tác giả hệ thống hóa các lỗ hổng của AI thành một khung lý thuyết vững chắc, giúp người đọc không chỉ hiểu về mã nguồn mà còn hiểu về bản chất toán học của sự thiếu ổn định trong học máy. Đối với cộng đồng an ninh mạng Việt Nam, kiến thức trong cuốn sách IT này là vũ khí để bạn bảo vệ các hạ tầng trí tuệ nhân tạo trọng yếu. Tại 89ebook, chúng tôi mang đến tri thức này để giúp AI của bạn luôn vững vàng trước mọi sóng gió.