Что такое Deepfakes и почему они так опасны?

Deepfakes используются для смеха и по более гнусным причинам. Подробнее о концепции и о том, почему это не только развлечения и игры.

Когда-то в основном ограничиваясь порнографией, Deepfakes теперь появляются повсюду. Еще больше беспокоит то, что технология, лежащая в основе этого, становится лучше с каждым годом, что может иметь широкие последствия в ближайшие годы.

Действительно ли Марк Цукерберг признал украл данные от миллиардов людей? Звонил ли Барак Обама Дональду Трампу? Полная чушь? Каждая из этих ссылок на видео является примером Deepfakes, опасной формы искусственной технологии, которая позволяет вкладывать слова в чей-то рот или другое лицо на теле другого человека. Существуют также «скины голоса» и «клоны голоса», которые позволяют шутникам имитировать голос.

При обсуждении Deepfakes стоит ответить на два вопроса. Во-первых, что их делает, а во-вторых, почему они становятся все более эффективными. Итак, давайте посмотрим.

Deepfakes: Итак, в чем проблема?

Без сомнения, некоторые Deepfakes бывают забавными — если вы разыграете шутку. Представьте, например, что 44-й президент Соединенных Штатов действительно публично назвал 45-й плохой репутацией или что первая Чудо-женщина, Линда Картер, был как-то размещен в более поздние фильмы, в которых действительно снималась Галь Гадот.

К сожалению, по мере того, как Deepfakes становятся лучше, могут возникнуть проблемы и вызвать серьезные проблемы. Например, политические оппоненты могут создавать фейковые видеоролики, в которых их оппоненты занимают компромиссные позиции. Поступая так, они могли изменить исход выборов. В более опасном примере представьте, что нынешний президент Соединенных Штатов объявляет войну Китаю, а китайское правительство считает, что это правда.

Проблемы с Deepfakes не обязательно связаны с участием знаменитостей или государственных чиновников. Например, с помощью «скинов голоса» мошенник может убедить родителей, что их ребенок попал в беду, или поддельный агент IRS может обмануть ничего не подозревающего гражданина, чтобы тот передавал банковскую информацию.

Другими примерами Deepfakes являются фишинговые мошенничества, утечки данных, клевета на репутацию, социальная инженерия, автоматизированные атаки дезинформации и финансовое мошенничество, а также многие другие.

Дипфейки

Почему они эффективны?

В последние годы технология глубокого обучения улучшила качество Deepfakes. И все же есть и другие причины, по которым грань становится все более размытой. В соответствии с Deep Fake Now предвзятость подтверждения и ложное убеждение также мешают нашему мозгу.

Подтверждение смещения

При предвзятости подтверждения люди ищут, интерпретируют и отдают предпочтение информации таким образом, чтобы это соответствовало их убеждениям или ценностям.

Как объясняет Американская психологическая ассоциация (APA), «предвзятость подтверждения — это тенденция искать информацию, которая поддерживает, а не отвергает предвзятые мнения, обычно путем интерпретации свидетельств для подтверждения существующих убеждений, отвергая или игнорируя любые противоречивые данные».

Ложное убеждение

В психологии теория разума относится к умственной способности понимать других людей и их поведение. Ложное убеждение считается важной вехой в теории. Это понимание того, что другие люди могут верить в неправду.

Вернемся к Deep Fake Now: «Если у вас будет достаточно времени, кто-то где-то неизбежно будет использовать« альтернативные факты »для поддержки своей повестки дня. И они, вероятно, будут использовать технологию Deepfakes, чтобы «доказать» свои утверждения. Это их способ распространения сомнения и пропаганды в обществе ».

Обе концепции показывают, как Deepfakes используются как инструмент для изменения мнения.

Deepfakes: это правда или фальшивка?

Несмотря на то, что технология, лежащая в основе Deepfakes, становится все лучше, есть способы определить, когда именно видео является подделкой. На самом деле, как объясняет Нортон, существует как минимум 15 верных способов для определения подделки. Среди них:

  • Неестественное движение глаз. Движения глаз, которые выглядят неестественно, или их отсутствие, например, отсутствие моргания, являются тревожным сигналом. Трудно воспроизвести моргание так, чтобы оно выглядело естественно. Также сложно воспроизвести моменты взгляда реального человека. Это становится чьим-то взглядом, обычно следящим за человеком, с которым они разговаривают.
  • Отсутствие эмоций. Вы также можете заметить морфинг лица или сшивание изображений, если чье-то лицо, кажется, не демонстрирует эмоции, которые должны соответствовать тому, что они якобы говорят.
  • Неестественная окраска. Ненормальный оттенок кожи, обесцвечивание, странное освещение и неуместные тени — все это признаки того, что то, что вы видите, скорее всего, подделка.
  • Цифровые отпечатки пальцев. Технология блокчейн также может создавать цифровые отпечатки пальцев для видео. Хотя эта проверка на основе блокчейна не является надежной, она может помочь установить подлинность видео. Вот как это работает. Когда создается видео, контент регистрируется в бухгалтерской книге, которую нельзя изменить. Эта технология может помочь доказать подлинность видео.
  • Обратный поиск изображений. Поиск исходного изображения или обратный поиск изображения с помощью компьютера может найти похожие видео в Интернете, чтобы определить, были ли каким-либо образом изменены изображение, аудио или видео. Хотя технология обратного поиска видео еще не является общедоступной, приобретение такого инструмента может оказаться полезным.

Примеры

В сети можно найти множество примеров Deepfakes. Мои личные фавориты включают следующее:

Как видите, Deepfakes могут быть действительно забавными, веселыми. К сожалению, они также могут быть опасны при незаконном использовании технологии. Будет интересно узнать, к чему это приведет в ближайшие годы.

Похожие записи

Добавить комментарий