Nở rộ hình thức lừa đảo bằng Chat GPT và công nghệ deepfake


Tháng 4 này, Chương trình Lời Cảnh Báo tập trung vào chủ đề đang được cả xã hội quan tâm chính là sự phát triển nhanh của công nghệ AI mà trong đó có Chat GPT và công nghệ deepfake. Chương trình sẽ cung cấp cho khán giả nhiều kiến thức để tránh lầm tưởng và trở thành nạn nhân của công nghệ ảo.

 Nở rộ hình thức lừa đảo bằng Chat GPT và công nghệ deepfake

Nguy cơ tiềm ẩn khi lệ thuộc vào Chat GPT

Thời gian qua, Chat GPT là chủ đề nhận được lượng người quan tâm lớn trên toàn thế giới. Tại Việt Nam, Chat GPT và OpenAI cũng lọt vào danh sách những từ khóa được tìm kiếm nhiều nhất trên Google. Sự nhạy bén của Chat GPT đang khiến người dùng toàn cầu và cũng như ở Việt Nam phấn khích, tuy nhiên, cũng ẩn chứa những nguy cơ tiềm tàng đang dần được lộ ra. Kể từ khi ra mắt công chúng, Chat GPT đã nhanh chóng trở thành một hiện tượng nhờ khả năng đọc hiểu câu hỏi về nhiều lĩnh vực khác nhau và hồi đáp nhanh chóng. Tuy phổ biến nhưng nhiều người vẫn không biết đây là AI hoạt động trên nền web, chưa có phiên bản ứng dụng di động cài trên điện thoại hay các thiết bị cá nhân. Lợi dụng điều này, không ít nhà phát triển độc lập đã “ăn theo” và tạo ra nhiều phiên bản ứng dụng sử dụng từ khóa “Chat GPT” trong tên nhằm “đánh lận con đen”, gây nhầm lẫn cho người dân.

Đối với loạt ứng dụng mạo danh trên các kho phần mềm di động, nhiều người đã thử tải về và không sử dụng được. Đặc biệt, có người còn bị yêu cầu trả phí trước khi được trải nghiệm. Đây cũng là hiện tượng lừa đảo tiền thường gặp. Theo đó, nhà phát triển sẽ dụ dỗ người dùng trả tiền thuê bao theo chu kỳ (ngày, tuần, tháng hoặc năm). Khi họ chấp nhận thanh toán, gói thuê bao sẽ xác nhận việc tự động gia hạn mà không cần thông báo tới chủ tài khoản. Bằng cách này, lập trình viên của ứng dụng có thể thu tiền trong khi nạn nhân không hay biết và cũng chẳng cần quan tâm họ có sử dụng chương trình hay không. Mọi trường hợp xóa ứng dụng mà không hủy thuê bao trước đó đều vô dụng và vẫn mất tiền theo chu kỳ. Vì vậy, việc trao đổi, mua bán này tiềm ẩn nhiều nguy cơ lừa đảo vì đây là mảnh đất màu mỡ để tội phạm lừa đảo trên không gian mạng hướng đến.Việc mua, bán tài khoản tràn lan và nhanh chóng trên các nền tảng mạng xã hội cũng tiềm ẩn nhiều rủi ro. Theo đó, kẻ xấu có thể yêu cầu người mua chuyển khoản trước mà không cung cấp tài khoản, mật khẩu. Hoặc khi nhận được tiền, đối tượng lừa đảo có thể sẽ chặn liên lạc, hoặc đưa tài khoản không sử dụng được. Có khi, kẻ xấu sẽ dẫn dụ người mua đưa thông tin email và mật khẩu, người dân có thể bị đánh mất thông tin tài khoản và dẫn đến nhiều hệ lụy khôn lường.

Cảnh giác deepfake – ghép mặt, giả giọng, lừa tiền

Hoán đổi khuôn mặt và giọng nói tưởng chừng chỉ có trên phim, giờ đây người ta đã có thể thực hiện một cách dễ dàng với các ứng dụng Deepfake. Kéo theo đó là mối lo ngại giả mạo hình ảnh, giọng nói nhằm mục đích xấu, chiếm đoạt tài sản và hàng loạt hệ lụy khác. Được xây dựng trên nền tảng Machine Learning (máy tự học) mã nguồn mở của Google, nhờ sử dụng AI, Deepfake sẽ quét các video và ảnh chân dung của một người, hợp nhất với một video riêng biệt khác rồi thay thế các chi tiết trên gương mặt như mắt, mũi, miệng… với chuyển động gương mặt sao cho giống và tự nhiên nhất có thể. Với thuật toán này, càng có nhiều video và hình ảnh gốc thì AI càng hoạt động chính xác và video giả mạo có độ chân thực càng cao. Deepfake cũng có thể sử dụng bản ghi âm giọng nói của một người để huấn luyện máy tính nói chuyện giống hệt người ấy.

Các chuyên gia của chương trình cảnh báo rằng: Do năng lực tính toán của các ứng dụng Deepfake chưa thực sự trở nên hoàn hảo nên các video sử dụng Deepfake thường có dung lượng nhỏ, thời gian ngắn, chất lượng âm thanh, hình ảnh không cao. Hình thể của nhân vật trong Deepfake ít di chuyển, đặc biệt là ít quay ngang, ngửa mặt hoặc cúi mặt so với các video thông thường, càng không có các hành động đưa tay dụi mắt hay che mặt, nháy mắt vì AI thường xử lý lỗi khi khuôn mặt bị che đi 1 phần nên sẽ có những điểm yếu tồn tại như ánh sáng phản chiếu từ 2 mắt của nhân vật không đều, đổ bóng ánh sáng không tự nhiên trên khuôn mặt, nhiều khu vực trên khuôn mặt gần như không thay đổi, dẫn tới biểu cảm khuôn mặt rất thiếu tự nhiên, cảm xúc, giọng nói không thật… Ngay khi thực hiện cuộc gọi video, người dùng có thể yêu cầu người gọi đưa tay lên mặt hoặc quay mặt sang trái, phải… để thêm những phát hiện cử chỉ. Song song đó, để nâng cao cảnh giác, cần trao đổi nhiều với đối tượng gọi để đảm bảo cuộc gọi là thật chứ không phải là đang nói chuyện với một video được ghi hình sẵn. Đặc biệt, cần chú ý đến những thông tin liên quan đến chuyển tiền, gửi thông tin vào các địa chỉ lạ, tài khoản lạ…

Và đừng bỏ lỡ những kiến thức mới được cập nhật thường xuyên trong chương trình “Lời cảnh báo” phát sóng lúc 19h50 tối thứ Hai và thứ Tư trên THVL1.

LC/Lifestyle


Các tin cùng chuyên mục