Deepfake có thể bị lợi dụng để lan truyền tin giả, lừa đảo hoặc tấn công mạng, làm tăng nguy cơ xâm nhập quyền riêng tư và thiệt hại về uy tín, gây hậu quả nghiêm trọng cho cá nhân và tổ chức. Trong bối cảnh Deepfake ngày càng trở nên tinh vi và khó phát hiện, việc hiểu rõ về công nghệ này và các phương pháp phòng, chống là vô cùng quan trọng. Phần 1 của bài báo sẽ cung cấp một cái nhìn toàn diện về công nghệ này.
Một cách dễ hiểu hơn, Deepfake được hiểu là thuật ngữ dùng để chỉ những nội dung giả mạo như hình ảnh và video được đăng tải trên các nền tảng mạng xã hội. Từ những ngày đầu xuất hiện với mục đích giải trí, Deepfake đã nhanh chóng trở thành công để thực hiện các hành vi lừa đảo tinh vi, đe dọa an ninh thông tin.
Trước đây, việc chỉnh sửa hình ảnh, video đòi hỏi phải sử dụng các phần mềm chuyên nghiệp như Adobe Photoshop, yêu cầu người dùng có kiến thức và kỹ năng cao, tốn nhiều thời gian và công sức. Ngày nay, với sự phát triển của công nghệ, bất kỳ ai cũng có thể tạo ra các sản phẩm sử dụng công nghệ Deepfake chỉ với vài thao tác đơn giản. Trong những hình ảnh và video này, khuôn mặt, giọng nói, thậm chí cả hành động của một cá nhân đều có thể được biến đổi để mô phỏng một người khác, tạo ra những nội dung giả mạo giống như thật, khiến người xem rất khó phân biệt.
Video Deepfake đầu tiên được phát hành vào năm 2017, trong đó, khuôn mặt của một người nổi tiếng được thay thế bằng khuôn mặt của một diễn viên khiêu dâm. Công nghệ Deepfake khi đó đã nhận được sự chú ý và bắt đầu trở nên phổ biến khi một người dùng có tên là “Deepfake” hướng dẫn cách có thể chỉnh sửa khuôn mặt của một người nổi tiếng, sau đó ghép hình ảnh họ vào nhân vật chính trong một đoạn video khiêu dâm (Güera và Delp 2018).
Vào năm 2023, Deepfake được xếp vào top 5 loại gian lận danh tính hàng đầu. Theo DeepMedia, một công ty khởi nghiệp phát triển các công cụ để nhận dạng phương tiện truyền thông giả mạo của Hoa Kỳ đã thống kê số lượng video Deepfake thuộc mọi chủng loại đã tăng gấp 3 lần, trong đó, số lượng giả mạo giọng nói đã tăng gấp 8 lần vào năm 2023 so với cùng kỳ năm 2022. DeepMedia ước tính rằng khoảng 500.000 video và âm thanh Deepfake được tải lên các trang mạng xã hội trên toàn thế giới vào cuối năm 2023. Bảng 1 chỉ ra quá trình phát triển của Deepfake trong 5 năm qua.
Phương tiện truyền thông Deepfake có nhiều loại khác nhau dựa trên nội dung đã bị thao túng. Các phương thức thao túng bao gồm sửa đổi về hình ảnh, âm thanh và văn bản (Hình 1 cho thấy các loại nội dung Deepfake), cụ thể:
Thứ nhất, Deepfake dạng hình ảnh. Đây là phương thức là phổ biến nhất, chủ yếu là hình ảnh và video giả mạo. Trong thời đại truyền thông số ngày nay, những hình ảnh và video giả mạo này được sử dụng trên các mạng xã hội để phát tán thông tin sai lệch về các sự kiện chưa từng xảy ra. Kẻ xấu thường sử dụng công nghệ hoán đổi khuôn mặt để ghép khuôn mặt của nạn nhân vào những tình huống giả tạo. Mặt khác, video Deepfake có thể được tạo bằng ba kỹ thuật: đồng bộ hóa môi, tổng hợp khuôn mặt và thao túng thuộc tính.
Thứ hai là Deepfake dạng văn bản. Các Deepfake dạng văn bản chủ yếu được sử dụng để tạo ra các bình luận và đánh giá giả trên các trang web thương mại điện tử hay những bài viết có nội dung sai lệch trên mạng xã hội.
Thứ ba là Deepfake âm thanh. Những Deepfake này liên quan đến việc sử dụng trí tuệ nhân tạo (AI) để tạo ra giọng nói của con người. Chúng thường được tạo ra bằng phương pháp chuyển văn bản thành giọng nói hoặc hoán đổi giọng nói.
Lợi ích của Deepfake
Deepfake được ứng dụng trong rất nhiều lĩnh vực như lồng tiếng tự động cho phim hoặc các phương tiện giáo dục bằng bất kỳ ngôn ngữ nào. Các công ty sử dụng nhân vật video kỹ thuật số có thể tạo hiệu ứng hình ảnh chất lượng cao bằng cách giả lặp lại các bản nhạc và video. Deepfake cũng được sử dụng rộng rãi trong các trò chơi. Công nghệ này giúp cho việc chuyển động miệng của nhân vật trò chơi được phối hợp với giọng nói và giúp cho giọng nói của nhân vật đó chân thật hơn.
Hệ thống hội nghị truyền hình Deepfake cũng có thể được sử dụng để vượt qua rào cản ngôn ngữ. Công nghệ này giúp tăng cường việc giao tiếp bằng mắt, khiến mọi người dường như nói cùng một ngôn ngữ trong các cuộc hội nghị truyền hình. Ngoài ra, công nghệ Deepfake còn có khả năng hỗ trợ những người mắc bệnh Alzheimer tương tác với khuôn mặt trẻ hơn mà họ có thể nhớ được. Các nhà khoa học hiện đang tìm hiểu cách sử dụng mạng đối nghịch tạo sinh (Generative Adversarial Networks - GAN) để phát hiện các bất thường trong tia X và tiềm năng tạo ra các phân tử hóa học ảo của chúng để đẩy nhanh quá trình nghiên cứu vật liệu và khám phá y tế.
Tác hại của Deepfake
Mặc dù mang lại nhiều lợi ích nhưng Deepfake có thể bị lợi dụng để sử dụng sai mục đích. Deepfake đã có tác động đáng kể đến thế giới ảo cũng như thế giới thực. Ví dụ, vốn dĩ những hình ảnh và video được sử dụng làm bằng chứng trong các phiên tòa hoặc cuộc điều tra của cảnh sát được coi là hợp pháp, nhưng công nghệ Deepfake đã khiến cho những bằng chứng này trở nên không đáng tin cậy. Deepfake gây ra những rủi ro như đánh cắp danh tính, gian lận máy tính, tống tiền, thao túng giọng nói hoặc hình ảnh trong quá trình xác thực và làm bằng chứng giả. Deepfake được dùng trên các nền tảng truyền thông xã hội, nơi các thuyết âm mưu, tin đồn và thông tin sai lệch lan truyền một cách nhanh chóng. Những tiến bộ gần đây trong Deepfake do AI hỗ trợ thậm chí còn khiến cho vấn nạn này trở nên nặng nề hơn. Hầu hết các khuôn mặt do GAN tạo ra không tồn tại trong thế giới thực, GAN có thể thực hiện các thay đổi khuôn mặt thực tế trong video, chẳng hạn như hoán đổi danh tính. Loại thông tin sai lệch này có thể dễ dàng được truyền đến hàng triệu người trên Internet thông qua khả năng tiếp cận công nghệ dễ dàng như ngày nay.
Với những tiến bộ này, khối lượng nội dung giả mạo trên Internet đang tăng lên đáng kể. Theo một cuộc khảo sát của Deeptrace (Hà Lan) vào năm 2020, có 7.964 video Deepfake trực tuyến vào đầu năm 2019, 09 tháng sau, con số đó đã tăng lên 14.678. Cuộc khảo sát cho thấy điều đáng lo ngại về việc sử dụng công nghệ Deepfake trong các chiến dịch chính trị. Vào năm 2021, Deeptrace lại tiến hành một cuộc khảo sát khác, kết quả cho thấy số lượng Deepfake trên web đã tăng vọt 330%, đạt hơn 50.000 vào lúc đỉnh điểm từ tháng 10/2019 đến tháng 6/2020. Con số này vẫn tiếp tục gia tăng kể từ đó.
Công nghệ Deepfake có thể tạo ra những video khó phân biệt thật giả đang đặt ra thách thức lớn cho việc xác thực thông tin. Ranh giới mong manh giữa thật và giả khiến Deepfake trở thành mối đe dọa nghiêm trọng đối với an ninh quốc gia, quyền riêng tư cá nhân và thậm chí nó có thể trở thành vũ khí trong chiến tranh mạng. Sự phát triển của Deepfake cũng gây hoang mang và nghi ngờ trong thế giới kỹ thuật số.
(còn tiếp)
ThS. Đồng Thị Thùy Linh, Học viện Kỹ thuật mật mã
07:00 | 17/10/2024
08:00 | 23/09/2024
07:00 | 16/09/2024
16:00 | 13/09/2024
10:00 | 16/08/2024
07:00 | 07/11/2024
07:00 | 17/10/2024
Vào tháng 3/2024, các nhà nghiên cứu tại hãng bảo mật Kaspersky đã phát hiện ra một chiến dịch tấn công mạng tinh vi nhắm vào những cá nhân ở Nga bằng phần mềm gián điệp Android có tên gọi là LianSpy, phần mềm này có khả năng ghi lại các bản ghi màn hình, trích xuất tệp của người dùng, thu thập nhật ký cuộc gọi và danh sách ứng dụng. Các tin tặc đã sử dụng nhiều chiến thuật trốn tránh, chẳng hạn như tận dụng dịch vụ đám mây của Nga là Yandex Disk, để liên lạc với máy chủ điều khiển và ra lệnh (C2). Một số tính năng này cho thấy LianSpy rất có thể được triển khai thông qua lỗ hổng bảo mật chưa được vá hoặc truy cập vật lý trực tiếp vào điện thoại mục tiêu. Bài viết này sẽ cùng khám phá và phân tích phần mềm gián điệp LianSpy dựa trên báo cáo của Kaspersky.
08:00 | 08/08/2024
Trí tuệ nhân tạo (AI) có khả năng xác định và ưu tiên các rủi ro, mang lại cho các chuyên gia IT cơ hội phát hiện ngay lập tức mã độc trong mạng của họ và phát triển chiến lược phản ứng sự cố. Hiện nay, AI đóng vai trò quan trọng trong quản lý an toàn thông tin (ATTT), đặc biệt là trong việc phản ứng với sự cố, dự đoán việc xâm phạm, kiểm soát hiệu suất và quản lý hàng tồn kho. Bài viết này giới thiệu về các ứng dụng của AI trong quản lý ATTT bằng cách xem xét những lợi ích và thách thức của nó, đồng thời đề xuất các lĩnh vực cho các nghiên cứu trong tương lai.
09:00 | 28/04/2024
Thời gian gần đây, lĩnh vực an toàn thông tin ghi nhận hình thức bảo mật Bug Bounty đang ngày càng nở rộ. Tuy nhiên, bên cạnh những số liệu khủng về giải thưởng, lỗ hổng được phát hiện, vẫn có những ý kiến trái chiều về hiệu quả thực sự mà Bug Bounty đem lại cho các tổ chức, doanh nghiệp.
10:00 | 22/04/2024
Những ngày gần đây, liên tục các kênh YouTube với lượng người theo dõi lớn như Mixigaming với 7,32 triệu người theo dõi của streamer nổi tiếng Phùng Thanh Độ (Độ Mixi) hay Quang Linh Vlogs - Cuộc sống ở Châu Phi với 3,83 triệu người theo dõi của YouTuber Quang Linh đã bị tin tặc tấn công và chiếm quyền kiểm soát.
Trong thời đại ngày nay, cùng với sự phát triển của khoa học kỹ thuật có ngày càng nhiều những cuộc tấn công vào phần cứng và gây ra nhiều hậu quả nghiêm trọng. So với các loại tấn công khác, tấn công qua kênh kề đang được nghiên cứu do khả năng khôi phục lại khóa bí mật trong khi hệ thống vẫn hoạt động bình thường mà không hề làm thay đổi phần cứng. Bài báo này sẽ trình bày một cách sơ lược về những kết quả cuộc tấn công kênh kề lên mã hóa RSA cài đặt trên điện thoại thông minh sử dụng hệ điều hành Android tại Viện Khoa học - Công nghệ mật mã. Nhóm tác giả đã tấn công khôi phục được một phần khóa bí mật của mã hóa RSA cài đặt trên điện thoại thông minh và chứng minh khả năng rò rỉ thông tin qua kênh kề.
14:00 | 11/09/2024
Cục An toàn thông tin vừa phát đi cảnh báo về chiêu trò lừa đảo mới mạo danh cơ quan an sinh xã hội, dụ người dân nhận tiền hỗ trợ, trợ cấp... Tuy nhiên, đằng sau những lời "có cánh" lại là cái bẫy tinh vi nhằm chiếm đoạt tài sản.
10:00 | 30/10/2024