Europol cảnh báo nguy cơ tội phạm lợi dụng ChatGPT để trục lợi

Cơ quan cảnh sát Châu Âu - Europol đã đưa ra cảnh báo vào ngày 27/3/2023 về nguy cơ lạm dụng trí tuệ nhân tạo chatbot ChatGPT trong các hoạt động lừa đảo, thông tin sai lệch.
Mỹ: Một số công ty thay thế nhân viên bằng ChatGPT ChatGPT – Thách thức hay cơ hội đối với các nhà báo? "Cơn sốt" ChatGPT – Viết văn thời 4.0?

Sự bùng nổ của công nghệ chatbot và mô hình ngôn ngữ lớn (LLM) như ChatGPT đã thu hút sự quan tâm đông đảo của người dùng. Tuy vậy, công nghệ này cũng dễ dàng bị các đối tượng, tổ chức tội phạm có thể tận dụng khai thác để thực hiện các hoạt động phạm tội với quy mô tinh vi mà rất khó phát giác hoặc truy vết.

Europol cảnh báo nguy cơ tội phạm lợi dụng ChatGPT để trục lợi
Trí tuệ nhân tạo đang bị lợi dụng với mục đích xấu nhằm trục lợi và hỗ trợ các hành động phạm pháp.

Trong báo cáo công nghệ đầu tiên, Europol cảnh báo về ba khả năng mà tội phạm khai thác khiến ứng dụng ChatGPT có thể gây ra tác hại.

ChatGPT có khả năng tái tạo các mẫu ngôn ngữ và bắt chước phong cách nói của các cá nhân hoặc nhóm cụ thể, từ đó có thể bị sử dụng để lừa đảo và nhắm mục tiêu vào nạn nhân.

Ngoài ra, khả năng tạo ra các văn bản âm thanh xác thực ở tốc độ và quy mô của ChatGPT cũng làm tăng nguy cơ tuyên truyền và thông tin sai lệch.

Việc sử dụng ChatGPT để sản xuất mã hack độc lan truyền cũng có thể gây ra hậu quả nghiêm trọng trên không gian mạng và đặc biệt là thông tin riêng tư của người dùng Internet.

“Nó cho phép người dùng tạo và lan truyền thông tin cụ thể mà không tốn quá nhiều công sức” - Europol nhấn mạnh trong báo cáo mới đây.

Europol cảnh báo rằng, các tội phạm có ít kiến thức kỹ thuật cũng có thể sử dụng ChatGPT để thực hiện các hoạt động phạm tội. Do đó, việc giám sát các hoạt động sử dụng trí tuệ nhân tạo là cần thiết để đảm bảo an toàn và độ tin cậy của các hệ thống mạng.

Tùng Linh
Phiên bản di động