Khi thế giới ngày càng làm quen với các trợ lý AI, chúng ta đang khám phá những khả năng thú vị mà chúng mang lại, cả về mặt tích cực lẫn tiêu cực. Một ví dụ điển hình cho khía cạnh tiêu cực là một cuộc tấn công lý thuyết có thể buộc ChatGPT thực hiện tấn công từ chối dịch vụ phân tán (DDoS) vào một trang web được chọn, mặc dù đây chưa phải là mối đe dọa “thực sự” ở thời điểm hiện tại.
ChatGPT Với Khả Năng Tạo Hàng Loạt Kết Nối Hyperlink Không Giới Hạn
Theo báo cáo từ Silicon Angle, nhà nghiên cứu Benjamin Flesch đã phát hiện ra rằng ChatGPT không có giới hạn về số lượng liên kết mà nó truy cập khi tạo phản hồi. Không chỉ vậy, dịch vụ này còn không kiểm tra xem các URL mà nó đang truy cập có phải là bản sao của các trang web đã được kiểm tra trước đó hay không. Kết quả cuối cùng là một cuộc tấn công lý thuyết, nơi kẻ xấu có thể khiến ChatGPT kết nối với cùng một trang web hàng nghìn lần trong mỗi truy vấn.
Biểu tượng chatbot AI trên màn hình điện thoại thông minh, minh họa cho sự tương tác giữa người dùng và các trợ lý ảo AI, tiềm ẩn rủi ro bảo mật như lỗ hổng tấn công DDoS
Lỗ hổng này có thể bị khai thác để làm quá tải bất kỳ trang web nào mà người dùng độc hại muốn nhắm mục tiêu. Bằng cách chèn hàng nghìn siêu liên kết trong một yêu cầu duy nhất, kẻ tấn công có thể khiến các máy chủ của OpenAI tạo ra một lượng lớn các yêu cầu HTTP đến trang web của nạn nhân. Các kết nối đồng thời này có thể gây căng thẳng hoặc thậm chí vô hiệu hóa cơ sở hạ tầng của trang web mục tiêu, thực hiện một cuộc tấn công DDoS hiệu quả.
Benjamin Flesch tin rằng lỗ hổng này xuất hiện do “thực hành lập trình kém” và nếu OpenAI bổ sung một số hạn chế về cách ChatGPT thu thập dữ liệu trên internet, nó sẽ không có khả năng thực hiện một cuộc tấn công DDoS “ngẫu nhiên” vào các máy chủ.
Rủi Ro Tài Chính Và Các Hình Thức Lạm Dụng AI Khác
Elad Schulman, người sáng lập và giám đốc điều hành của công ty bảo mật AI tạo sinh Lasso Security Inc., đồng ý với kết luận của Benjamin Flesch, đồng thời bổ sung một hình thức khai thác tiềm năng khác cho các cuộc tấn công này. Elad tin rằng nếu một hacker quản lý để xâm nhập vào tài khoản OpenAI của ai đó, họ có thể “dễ dàng tiêu tốn ngân sách hàng tháng của một chatbot dựa trên mô hình ngôn ngữ lớn chỉ trong một ngày”, điều này sẽ gây thiệt hại tài chính nếu không có các biện pháp bảo vệ chống lại những hành vi đó.
Hy vọng rằng, khi AI phát triển, các công ty sẽ bổ sung các biện pháp hạn chế để ngăn chặn kẻ xấu lạm dụng dịch vụ của họ. Ví dụ, đã có nhiều cách mà hacker sử dụng AI tạo sinh trong các cuộc tấn công của mình, và đã có sự gia tăng đáng kể các cuộc gọi lừa đảo video AI khi công nghệ này ngày càng được cải thiện về chất lượng.
Tóm lại, mặc dù khả năng ChatGPT bị lợi dụng để tấn công DDoS vẫn còn là một mối đe dọa lý thuyết, nó là lời nhắc nhở quan trọng về những rủi ro bảo mật tiềm ẩn khi công nghệ AI phát triển. Các nhà phát triển AI cần ưu tiên tích hợp các “hàng rào” bảo vệ để đảm bảo các công cụ mạnh mẽ này không bị lạm dụng. Người dùng và doanh nghiệp cũng cần nâng cao cảnh giác về các hình thức lạm dụng AI mới nổi. Hãy cùng thảo luận về những biện pháp nào có thể giúp tăng cường an ninh mạng trong bối cảnh AI ngày càng phổ biến.