AI sẽ “tấn công” người dùng internet

August 16, 2018

Trí tuệ nhân tạo (AI) đã được xem là một giải pháp tiềm năng để tự động phát hiện và chống lại phần mềm độc hại và ngăn chặn các cuộc tấn công mạng trước khi chúng ảnh hưởng đến bất kỳ tổ chức nào.

Tuy nhiên, công nghệ này có thể trở thành vũ khí bởi các nhân tố đe dọa để tạo ra một thế hệ phần mềm độc hại mới gây ảnh hưởng ngay cả các hệ thống bảo vệ an ninh mạng tốt nhất và lây nhiễm vào mạng máy tính.

 

Để minh chứng cho khả năng này, các nhà nghiên cứu bảo mật tại IBM đã phát minh ra DeepLocker– một công cụ tấn công tấn công “siêu nhạy và khó xử lí” được hỗ trợ trí thông minh nhân tạo cho phép nhắm vào một đối tượng nhất định.

Theo các nhà nghiên cứu tại IBM, DeepLocker có khả năng ngụy trang không bị phát hiện và “thực hiện các hành vi xấu khi AI phát hiện ra đối tượng thông qua nhận diện khuôn mặt, vị trí địa lí hay nhận diện giọng nói.”

Các nhà nghiên cứu cho rằng phần mềm độc hại DeepLocker này rất nguy hiểm vì nó có thể gây hại tới hàng triệu hệ thống mà không bị phát hiện.

Phần mềm độc hại được hỗ trợ trí thông minh nhân tạo này giấu “vũ khí” độc hại trong các ứng dụng an toàn (ví dụ như phần mềm họp video trực tuyến) để tránh bị phần mềm diệt virus tìm thấy cho đến khi tìm được đối tượng cần tấn công.

“Điều khác biệt ở DeepLocker là việc sử dụng trí thông minh nhân tạo làm “mồi nhử” để vô hiệu hóa các nỗ lực chặn cuộc tấn công. Phần mềm độc hại này chỉ bắt đầu tấn công khi tìm được đối tượng.”

Để minh họa cho khả năng của DeepLocker, các nhà nghiên cứu đã thiết kế trường hợp giả định, giả mạo phần mềm tống tiền WannaCry trong một ứng dụng họp video trực tuyến để không bị các công cụ bảo mật phát hiện, bao gồm cả công cụ diệt virus và phần mềm cô lập.

DeepLocker đã không thực hiện bất kì hành động xấu nào trên hệ thống cho đến khi trí thông minh nhận tạo trong phần mềm này nhận diện được khuôn mặt của đối tượng thông qua đối chiếu các hình ảnh công khai của đối tượng đó.
Nhà nghiên cứu sáng chế ra DeepLocker nói: “Tưởng tượng một ứng dụng họp video trực tuyến được hàng triệu người tải về, và viễn cảnh đó cũng không bất khả thi tại thời điểm này. Khi được mở, ứng dụng sẽ lén lút chuyển hình chụp màn hình vào kho trí thông minh nhân tạo nhúng sẵn, nhưng vẫn hoạt động bình thường với tất cả các người dùng ngoại trừ đối tượng bị nhắm tới.”

“Khi đối tượng ngồi trước máy tính và sử dụng ứng dụng, camera sẽ gửi hình ảnh của họ cho ứng dụng và phần mềm độc hại sẽ tiến hành hoạt động với chính khuôn mặt người sử dụng là chìa khóa mở.”

Do đó, DeepLocker chỉ cần hình ảnh của bạn từ bất kì mạng xã hội nào như LinkedIn, Facebook, Twitter, Google+ hay Instagram để có thể nhận dạng được bạn.

Gần đây, Trustwave cũng đã tung ra một công cụ nhận diện khuôn mặt tên là Social Mapper, sử dụng để quét đối tượng trên nhiều mạng xã hội khác nhau.

Trong sự phát triển phức tạp của trí thông minh nhân tạo như hiện nay, hãy bảo vệ thiết bị của bạn và chính bạn bằng các công cụ bảo mật như CyStack.

Nguồn: thehackernews.com