Grok AI bị khai thác lỗ hổng prompt injection, hacker chiếm đoạt hơn 4 tỷ đồng thông qua kỹ thuật tưởng chừng lỗi thời
Grok, chatbot AI được phát triển bởi xAI của tỷ phú Elon Musk, đã trở thành mục tiêu của một cuộc tấn công khai thác lỗ hổng bảo mật nghiêm trọng. Các chuyên gia an ninh mạng phát hiện kẻ tấn công sử dụng kỹ thuật prompt injection — về bản chất là mánh khóe thao túng lời nhắc — để đánh lừa hệ thống, qua đó chiếm đoạt hàng tỷ token tiền mã hóa trị giá hơn 4 tỷ đồng. Đáng chú ý, kỹ thuật này không đòi hỏi công nghệ cao cấp mà dựa trên nguyên lý giao tiếp và thuyết phục cơ bản.
Vụ việc cho thấy dù Grok được Elon Musk ca ngợi là một trong những mô hình AI thông minh hàng đầu thế giới, nhưng nó vẫn dễ dàng bị lừa đảo bằng phương pháp mà giới chuyên gia mô tả là "công nghệ của thế kỷ 19" — tức kỹ năng thuyết phục, lừa đảo bằng ngôn từ và thao túng tâm lý con người. Không cần malware phức tạp hay zero-day exploit, chỉ cần craft một chuỗi prompt tinh vi là kẻ tấn công đã có thể khiến Grok thực hiện các lệnh trái với lập trình ban đầu.
Sự cố này đặt ra câu hỏi lớn về độ tin cậy của các mô hình AI lớn trong việc xử lý các tác vụ liên quan đến tài sản số. Giới nghiên cứu cảnh báo rằng lỗ hổng prompt injection có thể ảnh hưởng không chỉ Grok mà còn nhiều hệ thống AI khác. Áp lực đặt lên xAI trong việc vá lỗi và nâng cấp cơ chế phòng thủ đang gia tăng, trong bối cảnh cộng đồng tiền mã hóa và các nhà đầu tư theo dõi sát sao diễn biến này.