Андрей Егоров (rovego) wrote,
Андрей Егоров
rovego

Category:

Не верьте тому, что видите

Грядут еще более "веселые" времена в плане пропаганды. Телесюжетам с прямой речью больше нельзя доверять. На данный момент на Западе финансируется сразу несколько исследовательских групп, которые работают над захватом и синтезом различных визуальных и аудио элементов человеческого поведения. Программное обеспечение, разработанное в Стэнфордском университете, так называемая технология Face2Face способнf манипулировать видеозаписями таким образом, что общественный деятель на экране в режиме реального времени повторяет то, что говорит другой человек за кадром. Face2Face захватывает выражения лица этого человека, а затем переносит эти движения непосредственно на лицо персонажа в оригинальном видео. Исследовательская группа продемонстрировала свою технологию путём видеороликов с «участием» Джорджа Буша, Владимира Путина и Дональда Трампа. Под катом можно посмотреть.



Face2Face — пока что забавная игрушка для создания мемов и развлекательных ток-шоу. Однако, с добавлением синтезированного голоса, технология становится более убедительной — цифровая марионетка не только выглядит как политик, но она также может говорить как политик. И это уже инструмент пропаганды. Для чего, собственно и создавался.

Исследовательская группа в Университете штата Алабама в Бирмингеме работает над симуляцией голоса. Имея всего 3-5 минут записи голоса жертвы — записанном в прямом эфире или вырезанном из видео на YouTube — злоумышленник может создать синтезированный голос, который может обмануть людей и биометрические системы безопасности, используемые некоторыми банками и смартфонами. Затем злоумышленник может говорить в микрофон, и программное обеспечение преобразует его слова в голос жертвы.

Канадский стартап Lyrebird разработал аналогичные возможности, которые, по его словам, могут быть использованы для превращения текста в аудиокниги, которые «прочтут» известные люди или персонажи видеоигр. Хотя данная технология может приносить пользу, голосовой морфинг может сочетаться с технологией визуального морфинга для создания убедительных поддельных выступлений общественных деятелей.



Технологии пока не идеальны. Мимика в видео может показаться немного искажённой или неестественной, а голоса могут звучать немного роботизированно. Но со временем они совершенно точно смогут точно копировать речь или внешний вид человека — до такой степени, что людям может быть очень сложно обнаружить подделку.

Учитывая уменьшение доверия к средствам массовой информации и необузданное распространение фальсификаций через социальные сети, для новостных организаций станет ещё более важным изучать контент, который выглядит и звучит как реальная запись. Теперь «реальные» видео будут снабжаться особыми знаками, позволяющими установить время и место её создания, присутствовавших людей и даже соответствие погодных условий. Люди также должны обращать внимание на освещение и тени в видео, независимо от того, являются ли все элементы, присутствующие в кадре, правильными, и отлично ли синхронизируется звук.

Поддельный контент может быть отсеян новостными агентствами, но в качестве любительской записи в социальных сетях он может разойтись очень широко и вызвать общественный, политический или дипломатический скандал. Представьте, что на такой записи Трамп объявляет войну Северной Корее, например. А Северная Корея в ответ запускает ядерные ракеты по базам США в Японии в Южной Корее...

Tags: #опасность, #пропаганда, #фейк
Subscribe

Recent Posts from This Journal

promo rovego september 28, 04:00 14
Buy for 100 tokens
Звонок в дверь. Жена открывает. Наряд полиции. - Вас пьяный муж избил?! Ошиблись квартирой. Вместо 154 позвонили в 156. Порадовался, что в полиции - вменяемые люди, и их удалось быстро убедить, что нет. Порадовался, что у жены не было шутливого настроения. "Да, мой, берите, ахаха".…
  • Post a new comment

    Error

    Anonymous comments are disabled in this journal

    default userpic
  • 9 comments