Hình ảnh, clip deepfake đang phát triển thành một trào lưu hết sức nguy hại và xuất hiện thêm ngày càng các trên mạng hay các phương tiện truyền thông. Trước sự nổi lên trẻ trung và tràn đầy năng lượng của hiện tượng lạ này, liệu có cách nào để phát hiện cũng tương tự ngăn chặn mối đe dọa từ nó xuất xắc không?

circologiannibrera.com lược dịch bài viết của người sáng tác Gavin Phillips, trang Makeuseof về cách để phát hiện các nguy cơ của technology deepfake.

Bạn đang xem: Deep fake là gì

Video và hình ảnh xuất hiện hàng ngày trong cuộc sống thường ngày của con người, chúng hoàn toàn có thể tồn tại ở bất cứ đâu trường đoản cú TV, đồ vật tính, điện thoại đến những nền tảng trực đường như Youtube, Facebook… mặc dù nhiên, một công nghệ có tên là deepfake với kỹ năng "bóp méo sự thật" sẽ xuất hiện khiến thế giới ngày dần mất niềm tin vào những đoạn clip cũng như hình hình ảnh mà họ nhìn thấy. Nếu không may một ngày nào đó bạn hoặc người thân của mình trở thành nạn nhân của deepfake thì đề xuất làm như thế nào? ;

Hiện nay, Internet sẽ đưa trái đất "xích" lại ngay gần nhau, bạn dễ dàng biết được thông tin, hình ảnh, đoạn phim gần như của bất cứ ai trải qua vài thao tác dễ dàng trên các trang mạng làng hội. Cạnh bên các khả năng tuyệt đối hoàn hảo mà Internet mang về thì nó còn tồn tại ít nhiều những khủng hoảng bảo mật. Vấn đề tin tặc đánh tráo dữ liệu cá nhân người cần sử dụng hiện không còn là một chuyện vượt xa lạ, sự kiện vừa mới đây nhất là vài tháng trước lúc có hơn nửa triệu tin tức đăng nhập của người tiêu dùng Zoom bị tin tặc phân phát tán trên những web black dưới các hình thức.

Đặc biệt, sự nổi lên của deepfake trong vài năm trở lại đây đã khiến vấn đề về hình ảnh, clip trên mạng phức hợp hơn bao giờ hết. Nghiêm trọng hơn khi công nghệ này hiện giờ cũng không thể là một áp dụng quá khó để sử dụng cũng như có ngân sách ngày một rẻ hơn.

*

Deepfake là gì?

Deepfake là một trong những công nghệ cho phép người dùng hoàn toàn có thể chỉnh sửa khuôn mặt, khẩu hình của nhân vật dụng trong video hoặc một bức ảnh nào đó bằng AI và sử dụng một vài ba thuật toán mã mối cung cấp mở nhằm xử lý.

Nếu chỉ dùng deepfake với gần như mục đích thường thì như trêu ghẹo bằng hữu hay người thân thì nó là một công nghệ hoàn toàn vô hại. Nhưng bọn họ đang bàn tới các trường vừa lòng tệ nhất, deepfake đã bị dùng sai giải pháp khi đã trở thành một công cụ nhiều phần để ship hàng cho những hành vi xấu xa như chế tác ra video khiêu dâm người nổi tiếng, trả thù khiêu dâm, tin tức trả mạo…

Thuật ngữ này là tự ghép của "deep learning" và "fake" (tạm dịch: học tập sâu và giả mạo). Chính vì gọi do vậy do đó là hai yếu đuối tố đóng vai trò căn bản trong bí quyết thức hoạt động của deepfake. Trong những khi từ "fake" không quá khó nhằm hiểu được khi dùng để làm ám hiệu kim chỉ nam của deepfake là tạo thành những bức hình ảnh giả mạo với khác với ban sơ thì "deep learning" lại băn khoăn hơn. Nó liên quan đến quá trình "học" của kiến thức nhân tạo.

*

Cụ thể, mọi sản phẩm sử dụng trí tuệ nhân tạo đều trải qua hai bước chính: nạp dữ liệu đầu vào, kế tiếp dựng lên quy mô và lựa chọn 1 thuật toán để liên tục xử lý, học từ các mô hình đó. Deepfake cũng chưa phải ngoại lệ, dữ liệu đầu vào của nó chính là những video, hình ảnh, các thuật toán mã mối cung cấp mở TensorFlow hoặc Keras mọi đã gồm sẵn bên trên mạng. Sau một thời hạn "học", AI bên trên deepfake dễ dãi thực hiện tại tác vụ ghép khuôn phương diện với độ giống rất cao.

Mối nguy khốn từ deepfake

Thường ngày, bạn có thể bắt chạm mặt vô số hình ảnh, đoạn phim khi truy cập vào internet, nhất là ở các trang mạng xã hội. Tôi cho rằng phần lớn những bức hình ảnh hay đoạn phim này rất nhiều đã được chỉnh sửa khi mà lại ở thời đại bây giờ, những nền tảng như Facebook, Instagram… chẳng khác gì diện mạo của mỗi người, bởi đó, hầu như ai ai cũng muốn mọi gì mình đăng lên đều đề nghị đẹp. Nhờ sự xuất hiện thêm phổ biến của công cụ hình ảnh từ cơ bạn dạng như những ứng dụng trên điện thoại đến thời thượng như Photoshop, bạn dùng thuận tiện điều chỉnh hình ảnh hay video clip theo ý muốn, thậm chí nhiều sản phẩm "photoshop" còn chân thực đến mức ko thể phân biệt được.

Tuy nhiên, deepfake nằm tại một đẳng cấp và sang trọng hoàn toàn khác, ko nói quá khi gọi đó là bậc thầy trong câu hỏi tạo ra ảnh và video giả mạo.

Một trong những clip sử dụng deepfake khiến chấn động cho những người xem toàn nhân loại là đoạn đoạn phim giả mạo giọng nói, hình ảnh của cựu tổng thống Obama. Theo đó, người ngồi trước camera không không giống gì ông Obama dẫu vậy lại diễn đạt theo ý riêng nói của tín đồ khác, quánh biệt, khúc cuối đoạn phim vị cựu tổng thống này sẽ nói hồ hết lời giống hệt như diễn viên, đạo diễn nối tiếng fan Mỹ, Jordan Peele độc thoại vào một đoạn phim của mình.

Đoạn video giả mạo hình ảnh, giọng nói ông Obama

Mặc dù video này không có gì ô nhiễm và độc hại nhưng nó dấy lên một nỗi sợ hãi về kết quả mà technology deepfake cũng giống như AI với lại. Rào cản đối với việc áp dụng deepfake lúc đầu khá cao nhưng hiện tại nó không còn là thứ công nghệ quá cao tay khi mà tài liệu và thuật toán đều phải có sẵn trên mạng. Cấp dưỡng đó, quy trình học và cách xử lý cũng không cần đến những siêu đồ vật tính, nạm vào đó, cỗ PC với cùng 1 card bối cảnh phổ thông đã thuận tiện thực hiện quy trình trên trong khoảng vài giờ.

Phim khiêu dâm ghép mặt tín đồ nổi tiếng

Tận dụng những kỹ năng mà deepfake có lại, rất nhiều kẻ xấu đã sử dụng nó nhằm trục lợi cá nhân bằng cách tạo ra rất nhiều các sản phẩm phim khiêu dâm bằng cách ghép khía cạnh của người lừng danh như Emma Watson, Taylor Swift, Scarlett Johansson… Mỗi bộ phim truyền hình "người lớn" ra mắt với kịch bản quen thuộc dẫu vậy chỉ khác mỗi gương mặt diễn viên này sẽ thu hút tới hàng chục triệu lượt coi trên các trang phim khiêu dâm sau đó 1 hồi đăng tải. Tuy vậy cũng không có một website như thế nào có hành động gỡ vứt hay download lại đoạn clip gốc trước đó.

*

Mỹ nhân của Marvel là giữa những nạn nhân của deepfake

Giorgio Patrini, Giám đốc điều hành quản lý kiêm tại Giám đốc nghiên cứu tại Sensity, một công ty phân tích và phát hiện deepfakecho biết:"Những clip khiêu dâm người nổi tiếng sẽ vẫn còn đó nếu không tồn tại một lý do quang minh chính đại hay ràng buộc pháp lý so với các trang đăng tải. Và tiếp tục như vậy, các đoạn clip cứ cầm được cài đặt lên mà lại không gặp bất kể rào cản nào".

Hãm hại thanh nữ bằng phim với hình ảnh khiêu dâm

Không chỉ phần đông nhân trang bị nổi tiếng mà đến tất cả những người phụ nữ bình thường cũng biến nạn nhân của phim khiêu dâm. Một nghiên cứu và phân tích của Sensity đã cho là deepfake đựng một bot chuyển động trên áp dụng nhắn tin xóm hội Telegram và thiết yếu nó là người đã tạo ra hơn 100.000 hình ảnh khỏa thân bên trên deepfake. Vào đó đa số hình hình ảnh bị tiến công cắp đa phần đều có nguồn gốc từ mạng xã hội.

Bot là sự bổ sung hoàn hảo cho technology deepfake, áp dụng này giúp những người dân dùng không có kiến thức gì về deepfake vẫn rất có thể dễ dàng áp dụng nó. Cố kỉnh vào đó, người dùng chỉ việc làm một thao tác duy nhất là tải hình ảnh lên cùng bot sẽ tự động lo phần còn lại. Mặc dù nhiên, theo các nghiên cứu thì bot của deepfake trong khi chỉ bật chế độ "active" với hình ảnh của phụ nữ hoặc người dùng đăng ký kết gói deepfake cao cấp (xử lý nhiều hình ảnh hơn, có tác dụng nét ảnh mờ).

*

Công chũm bot của deepfake nhanh lẹ gây đề xuất một làn sóng phản đối gay gắt, mọi bạn lên án hành động đánh cắp hình hình ảnh từ Telegram này và cho rằng nó mang ý nghĩa chất tách lột, lân dụng và vô nhân tính. Cuộc sống thường ngày của phần nhiều người thiếu phụ rồi sẽ ra làm sao khi các khung người đó bị phát tán lên mạng? Họ vẫn phải đối mặt với bạn thân, các bạn bè, đồng nghiệp như vậy nào? không hết, kẻ xấu có thể tận dụng hầu như tấm hình phân phát tán để uy hiếp với tống tiền gia đình người bị hại hay nghiêm trọng hơn chúng ta sẽ biến nạn nhân vào các đoạn clip khiêu dâm.

Có một khúc mắc vẫn chưa xuất hiện lời giải đáp liên quan tới bài toán vì sao một bé bot với thực chất chỉ triển khai các tác vụ đơn giản và dễ dàng và có cấu trúc lặp đi lặp lạinhư vậy lại rất có thể vượt qua được hệ thống vững chắc và kiên cố của Telegram. Đây được biết điều gần như là không thể khi dịch vụ nhắn tin này rất bình an khi tất cả độ bảo mật cao cũng như có khả năng ngăn các bot khiêu dâm đột nhập vào hệ thống.

"Trêu đùa" rứa giới

Từ khi đoạn phim giả mạo hình ảnh, giọng nói của ông Obama sinh sản bởi technology deepfake được đăng tải, nhân loại ngày càng lo lắng hơn về vấn đề một viễn cảnh tương tự như như vậy sẽ xẩy ra nhưng theo hướng tiêu cực hơn. Mỹ là một trong những cường quốc đứng đầu nhân loại cho nên lời nói của tổng thống nước này hiển nhiên mệnh lệnh của ông tất cả sức nặng siêu lớn, giả dụ tội phạm deepfake sử dụng hình hình ảnh và lời nói của ông Obama để truyền đi thông điệp cuộc chiến tranh hay bội phản động, đó chắc chắn là là một thảm kịch. Thậm chí, mọi vấn đề còn có thể điên rồ hơn, độ nguy nan của deepfake trong trường hợp này là hết sức cao.

*

Sự kiện clip giả mạo ông Obama được đăng vào năm 2018 khiến cho nhiều người cảm thấy sốt ruột về deepfake

Giả sử một clip deepfake hàng fake nội dung liên quan đến việc một tập đoàn lớn lớn hay người có quyền lực cao điều hành ngân hàng nào đó tuyên bố thị phần chứng khoán đã sụp đổ. Với internet, chỉ trong tích tắc, tin tức chắc hẳn rằng sẽ lan rộng ra toàn cầu khiến nhiều người tự động hóa bán hết số cổ phiếu của mình. Mọi nỗ lực cố gắng ngăn ngăn hay gỡ bỏ video này ngay lập tức đề nghị nói là rất là khó khăn vì nó được đăng công khai minh bạch trên mạng. Đây là một trong những trong không ít những viễn ảnh tồi tệ cơ mà deepfake gây nên cho chúng ta.

Không chỉ vậy, việc deepfake ngày càng rẻ cùng dần trở nên dễ dàng để sử dụng kéo theo một trọng lượng lớn đoạn clip và hình hình ảnh giả mạo được chế tạo ra. Điều này khiến các thông điệp truyền đi không những phức tạp mà còn không thể đoán trước hơn, gồm thể video clip nói về và một người, thuộc một câu chữ nhưng bọn chúng được tạo ra bằng những tông màu, địa điểm, phong cách khác nhau…

Bẻ cong sự thật

Khi coi qua rất nhiều video, hình ảnh deepfake, bọn họ mới thấy kĩ năng làm giả của technology này tinh vi đến mức nào. Thậm chí là dù vẫn được cảnh báo đó là 1 trong video, hình hình ảnh deepfake mang mạo, đa số người xem dứt còn hoài nghi và hoài nghi là bọn chúng đã qua chỉnh sửa. Công bình mà nói, tôi nghĩ đa số chúng ta đều sẽ do đó nếu không tồn tại dòng chữ "đây là dữ liệu deepfake đưa mạo" đơn giản và dễ dàng vì hình ảnh hay video cắt ghép deepfake trông kiểu như thật tới cả không thể tưởng tượng được.

Công dụng "bóp méo sự thật" của deepfake lâu dài cả hai chiều hướng tích rất và tiêu cực, bên cạnh những hiểm họa do nó tạo ra ra, giả dụ biết dùng đúng cách dán thì chúng ta có thể tận dụng được trong tương đối nhiều tình huống. Rứa thể, ví như tội phạm bị tóm gọn và có đoạn clip ghi lại cụ thể hành vi của hắn nhưng mà tên này lại nói: "đây là minh chứng giả, đoạn phim được sinh sản từ deepfake". Cầm cố vì liên tiếp chất vấn, chúng ta hãy tạo nên ra luôn luôn các đoạn clip deepfake để chế tạo ra thêm bằng chứng khiến hắn cần thiết phủ nhận.

*

Lãnh đạo và thâu tóm tư tưởng buôn bản hội

Từng gồm một vài ba trường hợp deepfake được ghi dấn là phương tiện để tạo ra các tài liệu chứa ngôn từ dẫn dắt cũng như lãnh đạo tư tưởng của người dân bằng cách giả mạo quan chức cấp cao. Theo tin tức mà các hồ sơ bên trên Linkedln và Twitter máu lộ, loại video clip này phục vụ cho bài toán điều phối vận động trong những tổ chức triển khai chiến lược của cơ quan chính phủ và nhân vật cấp cao tại chỗ này không tồn tại cơ mà được tạo thành bằng technology deepfake.

Tuy nhiên, những nguồn tin uy tín cho biết thêm rằng hành động hàng fake trên đích thực được vận dụng ở những mạng lưới của thiết yếu phủ, tập đoàn tình báo quốc gia… cùng với mục đích thu thập thông tin, thực hiện hoạt động chính trị ngầm mà không biến thành tiết lộ danh tính. Dẫu vậy, nguy cơ deepfake đang xâm nhập và thâu tóm các video clip này vẫn không thể đoán trước trước được, bọn họ cần phải ngăn ngừa nó từ thuở ban đầu.

*

Niềm tin giữa người với những người biến mất

Trong xóm hội, giao tiếp là một điều quan trọng và diễn ra thường xuyên với tầm độ xum xuê mỗi ngày. Con người xây dựng quan hệ với nhau trải qua sự tin cẩn và bạn dạng tính trung thực của chính mình trong lời nói.

Đây chính là điểm yếu mà lại kẻ xấu có thể khai thác thông qua deepfake, chúng dễ dãi giả mạo tiếng nói của ai đó để lợi dụng tinh thần của tín đồ thân, bạn bè, đồng nghiệp của họ, tự đó, thực hiện vô số phần lớn hành vi tồi tàn như đánh tráo dữ liệu hình ảnh, clip cá nhân, khuấy rối tình dục, gây rạn nứt gia đình… câu hỏi làm vô nhân tính bởi vậy đã hoàn toàn ra mắt và khiến không ít người phải tìm đến cái bị tiêu diệt để giải thoát.

Làm cố kỉnh nào nhằm phát hiện tại và ngăn chặn deepfake

Việc các video, hình hình ảnh deepfake đang càng ngày trở yêu cầu tinh xảo và hoàn thành xong hơn đã để cho khả năng dấn diện ra bọn chúng trở buộc phải rất thấp. Trong số những ngày thứ nhất khi công nghệ này mới phát triển thì nó vẫn sống thọ một số nhược điểm như: hình hình ảnh mờ, đoạn phim bị lỗi tiếng nói và hiệu ứng… nhưng hiện thời deepfake ko còn dễ dàng như vậy.

Mặc dù không có một cách rõ ràng nào nhằm phát hiện đúng đắn được deepfake, nhưng theo tôi nếu quan tâm đến 4 vệt hiện dưới đây thì chúng ta vẫn có công dụng nhận biết video, hình hình ảnh deepfake.

Các chi tiết nhỏ: Dù công nghệ chỉnh sửa deepfake đã gồm những cải tiến đáng kể cơ mà nó thực sự chưa hoàn hảo. Đặc biệt đối với các hiệu ứng tương quan đến một loạt bỏ ra tiết bé dại trong clip chẳng hạn như hoạt động của tóc, cử rượu cồn mắt, cấu tạo phần má cùng biểu cảm gương mặt khi nói. Tất cả đều chưa đã có được độ hoàn thành và thoải mái và tự nhiên nhất định, đặc biệt là cử động của mắt. Dẫu cho deepfake đã gồm công cụ điều chỉnh tác vụ này từ thời gian mới reviews nhưng hiện phía trên vẫn là một trong những lỗ hổng phệ trên technology này.

*

Cảm xúc: Một nhược điểm khác trên video deepfake thiết yếu là xúc cảm thể hiện nay trên khuôn mặt nhân vật. Technology này chỉ có thể mô phỏng các biểu cảm như tức giận, vui vẻ, hạnh phúc… ở mức trung bình và vẫn còn sự "cứng đơ" của một cỗ máy. Các chuyên viên nói rằng để đạt mức độ sống động giống như người bình thường, deepfake còn rất lâu nữa bắt đầu làm được.

Chất lượng video:Trong thời đại technology số 4.0, con người đã có thể quay cũng như xem đoạn clip ở độ những phân giải cao như 4K, HDR 10bit… nếu như một đơn vị lãnh đạo thiết yếu trị làm sao đó mong muốn đưa ra tuyên ba thông qua video hay vạc trực tiếp, có một điều chắc chắn rằng quá trình này sẽ tiến hành quay tại một căn phòng có vừa đủ trang thiết bị thời thượng nhất. Bởi vì đó, trường hợp phần đa đoạn tuyên tía đó gặp mặt phải lỗi về mặt đường truyền, âm thanh hay hình ảnh kém quality thì kỹ năng cao đã có sự "nhúng tay" của deepfake.

Nguồn phát: yếu hèn tố cuối cùng cần thân thương là nguồn đăng tải đoạn clip deepfake. Dù các nền tảng social phổ biến luôn có kỹ năng xác minh danh tính người dùng để làm tránh ngôi trường hợp tin tức bị đánh cắp nhưng điều gì cũng hoàn toàn có thể xảy ra, khối hệ thống vẫn bao gồm khả năng chạm mặt vấn đề. Vì đó, lúc những nền tảng gốc rễ này lose trong việc ngăn ngừa phát tán đoạn clip chứa nội dung độc hại thì đây là dấu hiệu của deepfake.

Công rứa phát hiện nay và ngăn chặn deepfake

Hiện nay, rất nhiều tập đoàn technology lớn đang tham gia vào trận chiến với deepfake, mặt hàng loạt những công thay phát hiện, gốc rễ chặn deepfake vĩnh viễn đã được ra đời.

Xem thêm: Bài Tập Số Gần Đúng Và Sai Số Lớp 10 Bài 5: Số Gần Đúng, Toán 10 Bài 5: Số Gần Đúng Sai Số

Điển hình trong số đó phải kể tới Microsoft video Authenticator, lao lý phát hiện nay deepfake vì Microsoft phân phát triển có khả năng kiểm tra độ chính xác của dữ liệu clip chỉ trong vòng vài giây. Những nền tảng social đã gửi ra nhân kiệt chặn trọn vẹn mọi hình ảnh, video clip chỉnh sửa qua deepfake. Tuy nhiên Google cũng đang thử nghiệm một vận dụng chống lại việc hàng nhái âm thanh.