НА КАЛЕНДАРЕ
ЧТО ЛЮДИ ЧИТАЮТ?
2024-10-26-18-01-15
Народная артистка СССР София Ротару на своей странице в соцсети опубликовала фото с кладбища. 23 октября певица посетила могилу мужа Анатолия Евдокименко, похороненного в...
2024-10-25-18-36-10
Известная певица Таисия Повалий уже несколько лет проживает в Москве, много гастролирует по России и участвует в различных проектах.
2024-11-08-04-50-04---
Глава поселка Чернышевский в Мирнинском районе Якутии, Артем Ширшов, объяснил людям задержку в выплате зарплаты "запоем" бухгалтера.
2024-11-06-18-32-25
Юлия Барановская и Александр Гордон уже много лет работают вместе. Их по праву считают одними из лучших телеведущих на российском телевидении.
2024-10-28-04-10-18
Бывает, к сожалению, в жизни так, что дети решаются на самоубийство. И нередко потом к религиозным деятелям люди обращаются с вопросом о возможности отпевания таких...

Не верь своим глазам: в мире наступает эпоха видеофейков

16 Января 2019 г.

pens i komp

Фейковые, то есть лживые и вводящие в заблуждение новости существовали всегда. Со временем появилось искусство фотографии, которое тоже стало жертвой создателей фейков. Сейчас обман выходит на новый уровень, покоряя «живую» картинку. СМИ поведали, почему стоит опасаться видео в Интернете и как не попасться на удочку злоумышленников.

fake 24

История с видео-фейками началась с пользователя зарубежного форума Reddit по прозвищу Deepfakes, напомнила Газета.ru. Он додумался использовать возможности технологий, чтобы заменить лица порноактрис на популярных звёзд кино. Сначала всё выглядело как неэтичная шутка, но даже она вызвала немало проблем.

Разгорелся скандал с актрисой Галь Гадот, звездой фильма «Чудо-женщина». На зарубежном форуме появился порноролик, в котором модель с лицом Гадот занималась сексом. Скандал разошёлся до таких масштабов, что администрация форума была вынуждена заблокировать аккаунт Deepfakes, что, по сути, нарушало правило этого портала.

В другой раз в 2018 году политическая партия из Бельгии решила оригинально рассказать людям об экологической проблеме. Для этого энтузиасты опубликовали фейковое видео с Дональдом Трампом, который ругал Парижское климатическое соглашение.

Многие «зелёные» бельгийцы поверили в слова лже-Трампа, после чего на настоящего президента посыпались оскорбления, а сама Бельгия стала заложником политического скандала.

Технология Deepfakes и её аналоги не стали бы такой серьёзной проблемой, если бы не их реалистичность. Одно дело, когда подставные видео можно разглядеть невооружённым взглядом: в этом случае перестановка лиц так и осталась бы простым развлечением пользователей Интернета, которые уже много лет балуются чем-то подобным с фотографиями.

Но начинается совершенно другой разговор, когда лица на видео становятся неприлично похожими на реальность. Современные технологии и различные программы способны выдавать крайне правдоподобную картинку, которую с каждым годом развития таких технологий всё сложнее будет отличить от настоящего изображения.

Стоит лишь вспомнить любой современный фильм с приличным бюджетом, большим количеством спецэффектов и участием различных «монстров». В таких проектах невозможно понять, какой «нечеловеческий» персонаж сделан с помощью графики, а какой с помощью профессионального грима – настолько хороши современные технологии. То же самое можно сказать о простых людях в кино, лица которых порой создаются с помощью графики.

Но если раньше такая технология была доступна лишь высокобюджетным кинопроектам, над которыми работали самые лучшие профессионалы, то теперь ей может воспользоваться даже самый обычный школьник. Компьютерных мощностей хватает, а нужные программы легко добыть в Интернете. И чем дальше, тем доступнее и реалистичнее будут становиться подобные технологии.

Эту угрозу увидели в Агентстве перспективных исследовательских проектов в области обороны США, где решили отдать деньги на проект Media Forensics, который должен самостоятельно выискивать фейковые видео.

Американские эксперты также не стали закрывать глаза на растущую информационную бомбу. В основном они опасаются выборов президента в 2020 году, когда фальшивые ролики с кандидатами смогут создать небывалый хаос в обществе.

Контролировать и удалять подобные фейки далеко не так просто, учитывая, что пока не существует достаточно мощной технологии, которая смогла бы самостоятельно находить все фальшивые видео-новости в Интернете.

Профессор права в Университете штата Мэриленд Даниэль Цитрон заметила, что использование технологии «замены лиц» может стать серьёзнейшей угрозой не только для личной жизни людей, но и для безопасности целых стран. С помощью фальшивых видео можно будет подстроить, к примеру, гневное выступление лидера какой-нибудь партии, чтобы спровоцировать противников этого политического блока и вызвать раскол в обществе.

Но это ещё цветочки, ведь заменой лиц могут баловаться сразу же тысячи пользователей Интернета, которым просто скучно сидеть без дела. Пока не до конца ясно, как властные структуры будут справляться с подобным напором тысяч фейковых видео.

С другой стороны, слишком рано говорить о том, что мы обречены на мир лжи и обмана. Всем, включая наших читателей, стоит взять пример с активных пользователей Интернета, которые выработали у себя скептическое отношение к любым новостям и фотографиям в сети. Конечно, это не значит, что стоит обзывать фальшивкой всё вокруг – а вот проверять любую информацию никогда лишним не будет.

На данный момент отличить искусственное видео от настоящего в большинстве случаев удастся, если внимательно отнестись к просмотру. На все 100% точно и качественно вклеить лицо человека в ролик крайне непросто, это требует большого профессионализма от создателя видеофейка. Так что на фальшивом видео нередко можно различить криво вклеенные лица, серые линии по краям добавленной маски, несовпадающие и неестественные движения губ, и другие «ненормальные» и «неправильные» детали, которых точно не должно быть в настоящем ролике. Хотя, порой такие видео делают настоящие профессионалы, так что отличить его от реальности будет затруднительно. В этом случае лучше довериться не глазам, а собственному мозгу.

Недоверие к «живой» картинке должно проявляться и в работе с источниками информации. Лучше всегда иметь под рукой несколько доверенных сайтов, сомневаться в которых не приходится. Увидели где-нибудь подозрительное видео? Сразу же проверьте информацию на других источниках, чтобы убедиться в её правдивости.

Конечно же, никогда нельзя забывать о логике и рассудительности. Если вдруг вы наткнётесь на видео, в котором знаменитый политический деятель говорит о чём-то ему совершенно несвойственном, странном или даже опасном для окружающих – это повод хорошенько задуматься и должным образом проверить видеоматериал.

Стоит заметить, от излишней доверчивости страдаем не только мы, но и жители других стран. Не так давно исследователи рассказали о том, что пожилые американцы склонны делиться ложной информацией в Интернете в два раза чаще, чем люди более молодые. Так что работать над своей доверчивостью будем всем миром, чтобы не подпустить к себе фейковые новости!

  • Расскажите об этом своим друзьям!