Mới đây, hai tập đoàn Microsoft và OpenAI đã phát hiện rằng hacker đang sử dụng các mô hình ngôn ngữ lớn (LLM) như ChatGPT để khiến các cuộc tấn công mạng trở nên khó lường hơn. Nghiên cứu mới của họ chỉ ra các nhóm tin tặc từ Nga, Triều Tiên, Trung Quốc và Iran sử dụng AI để nghiên cứu mục tiêu, cải thiện thuật toán và xây dựng các kỹ thuật lừa đảo phức tạp.
Nhờ ChatGPT, hacker đang ngày càng nguy hiểm hơn
Cụ thể hơn, trong một blog có tên Staying ahead of threat actors in the age of AI (tạm dịch: Đi trước các tác nhân đe doạ trong thời đại AI), Microsoft cho biết: “Các nhóm tội phạm mạng hay các tác nhân đe doạ quốc gia đang khám phá và thử nghiệm các công nghệ AI khác nhau. Điều đó giúp chúng tìm hiểu giá trị tiềm năng trong hoạt động cũng như nắm bắt được các biện pháp kiểm soát bảo mật mà chúng cần để vượt qua”.
Trong bài blog, Microsoft cũng chỉ ra các trường hợp sử dụng mô hình ngôn ngữ lớn trong việc lừa đảo. Tại Nga, nhóm Strontium đã dùng AI để tìm hiểu về các giao thức liên lạc vệ tinh hay công nghệ hình ảnh radar. Tại Triều Tiên, nhóm hacker Thallium sử dụng LLM trong việc nghiên cứu lỗ hổng được báo cáo công khai cũng như các tổ chức mục tiêu. Nhờ đó, chúng có thể viết các kịch bản, soạn thảo nội dung phục vụ chiến dịch lừa đảo.
Theo The Verge, những lo ngại trên đã xuất hiện từ lâu. Điều này càng trở nên nghiêm trọng hơn khi các công cụ AI như WormGPT hay FraudGPT ra đời, hỗ trợ việc tạo ra các email độc hại hay công cụ bẻ khoá.
Khá may mắn khi Microsoft và OpenAI chưa phát hiện vụ tấn công sử dụng AI nào gây thiệt hại lớn cho doanh nghiệp. Tuy nhiên, họ cũng cảnh báo điều này hoàn toàn có thể xảy đến trong tương lai gần. Cùng thời điểm, Microsoft đang phát triển các công nghệ AI riêng để phát hiện và chặn các cuộc tấn công có sử dụng trí tuệ nhân tạo.