OpenAI: Trung Quốc, Nga, Iran đều đã thử sử dụng ChatGPT để hack máy tính

Share this post on:

Theo báo cáo chung của OpenAI và Microsoft, ít nhất năm nhóm hack do nhà nước bảo trợ đã thử nghiệm các công cụ AI để phát triển các cuộc tấn công lừa đảo, tinh chỉnh mã máy tính, v.v.

Michael Kan

Bởi Michael Kan

Ngày 14 tháng 2 năm 2024

Logo trò chuyện

(Ảnh của Nikolas Kokovlis/NurPhoto qua Getty Images)

Microsoft và OpenAI đã phát hiện năm nhóm được nhà nước bảo trợ đang cố gắng sử dụng AI tổng hợp, bao gồm cả ChatGPT, để tinh chỉnh khả năng hack của họ. 

Các nhóm này bao gồm tổ chức hacker khét tiếng của Nga Fancy Bear, cùng với các hacker từ Trung Quốc, Iran và Triều Tiên, các công ty cho biết trong nghiên cứu được công bố hôm thứ Tư. 

Các tin tặc đã cố gắng sử dụng các công cụ của OpenAI để gỡ lỗi mã máy tính, tạo chương trình máy tính và tạo nội dung, có khả năng phục vụ cho các cuộc tấn công lừa đảo . Các hacker Fancy Bear cũng sử dụng các công cụ này “để nghiên cứu nguồn mở về các giao thức liên lạc vệ tinh và công nghệ hình ảnh radar”.

Trong khi đó, nhóm hack Emerald Sleet của Bắc Triều Tiên đã khai thác công nghệ AI để giúp họ xác định các chuyên gia và tổ chức tập trung vào phòng thủ ở khu vực châu Á – Thái Bình Dương.  

AI độc hại

(Ảnh: Getty Images)

Mặc dù tin tức này có thể gióng lên hồi chuông cảnh báo, OpenAI cho biết : “Phát hiện của chúng tôi cho thấy các mô hình của chúng tôi chỉ cung cấp các khả năng hạn chế, gia tăng cho các tác vụ an ninh mạng độc hại”. Microsoft cho biết thêm rằng các công cụ AI chưa bao giờ dẫn đến “một cuộc tấn công đặc biệt mới lạ hoặc độc đáo do AI hỗ trợ”. Đúng hơn, tin tặc chỉ đơn thuần sử dụng AI tổng hợp như một “công cụ năng suất” để hợp lý hóa công việc của chúng. 

Đáp lại, cả Microsoft và OpenAI đều chấm dứt các tài khoản mà tin tặc đang sử dụng để truy cập vào các công cụ AI tổng hợp. Các công ty cũng tiếp tục giám sát các dịch vụ của họ để phát hiện bất kỳ hành vi lạm dụng tiềm ẩn nào. 

Tin tức xuất hiện khi các cơ quan tình báo ở Anh và Hàn Quốc cũng phát hiện ra các tin tặc được nhà nước bảo trợ đang khai thác AI. Mối quan tâm chính là các công cụ như ChatGPT có thể tạo nội dung, phân tích cơ sở dữ liệu và tìm lỗi phần mềm trong vòng vài giây, khiến chúng trở thành vũ khí lợi hại cho tội phạm mạng thúc đẩy âm mưu của chúng. 

ĐƯỢC ĐỀ XUẤT BỞI CÁC BIÊN TẬP VIÊN CỦA CHÚNG TÔI
biểu tượng phần mềm tống tiền

Các cuộc tấn công ransomware thu về hơn 1 tỷ USD vào năm 2023 cho kỷ lục mới

phần mềm độc hại MacOS

Phần mềm độc hại MacOS mới có thể được liên kết với các nhóm ransomware

dấu vân tay hacker trung quốc

Mỹ: Tin tặc Trung Quốc đã xâm nhập vào một số mạng quan trọng trong 5 năm

Tuy nhiên, OpenAI cho biết họ đã cài đặt các biện pháp bảo vệ trên các công cụ của mình để ngăn chặn mọi hành vi lạm dụng có mục đích xấu. Các thử nghiệm của công ty đã phát hiện ra rằng mẫu AI mới nhất của họ, GPT-4, “chỉ cung cấp các khả năng gia tăng, hạn chế cho các nhiệm vụ an ninh mạng độc hại ngoài những gì có thể đạt được bằng các công cụ không hỗ trợ AI có sẵn công khai”.

Công ty đã hợp tác với Microsoft trong việc xuất bản nghiên cứu hôm thứ Tư nhằm giúp ngành công nghiệp ngăn chặn nguy cơ lạm dụng các công cụ AI ngày nay. “Microsoft sẽ cộng tác với các bên liên quan khác để thường xuyên trao đổi thông tin về việc sử dụng AI của các tác nhân đe dọa được phát hiện,” Redmond cho biết thêm.

Theo PC Mag