Подмена голоса и видео станет цифровым терроризмом?
Живя в эпоху постправды, мы должны быть готовы к любым неожиданностям. Информационное поле сегодня таково, что стопроцентно доверять своим глазам и ушам просто небезопасно.
Как пишут авторы телеграм-канала Темы. Главное (ГлавМедиа), история с возможностью моделирования поддельного голоса вкупе с возможностями по созданию поддельных роликов с теми или иными людьми (вспомним хотя бы вал порно с якобы голливудскими звездами) и прочие дипфей(ки)сы, ведет нас к новой опасности цифрового мира, когда к каждому видео или голосу будет требоваться верификация.
По сути, пока еще у человечества есть возможность с полной уверенностью говорить, что в данный момент человек, которого мы видим и слышим - настоящий,и говорит ровно то, что говорит. Темы такого рода любили поднимать в фантастических боевиках и шпионских фильмах, но уже сегодня полной гарантии в качестве информации и ее элементарной первичности никто не даст.
«А как это утверждать завтра? Фейсбук продемонстрировал технологию незначительных изменений внешности для записи видеообращений. Когда автор по каким-то причинам не хочет раскрывать свою истинную внешность. Кстати, по каким?» - задаются вопросом эксперты.
Фактически, завтра вместо пранкеров Вована и Лексуса какому-нибудь президенту позвонит еще какой-нибудь президент. Между ними состоится разговор, после которого вполне может начаться война. Мир получит огромное количество новых возможностей и какими будут грядущие десятилетия - предсказать сложно.
«Самый простой и неприятный пример, не такой возвышенный как про терроризм. Представьте что завтра вам по скайпу позвонит ваш родственник и своим голосом попросит у вас помощи. Вы будете смотреть ему в глаза, слышать его и конечно же сразу дадите ему денег, если считаете его слова-маркеры и вообще. А еще вас могут ввести в панику - когда обмануть еще проще», - пишут авторы канала.
Так или иначе, а жить с этим придется уже очень скоро, «потому что во вмешательстве в выборы (российские и - о, ужас - в США) будут обвинять уже всех и вся. А сказал что-то в ролике настоящий человек или нет - выяснить оперативно возможность будет не всегда и не у всех. Если, конечно, человек не будет вести прямую трансляцию своей жизни 24/7.
Впрочем, есть и другая сторона. На каждый ролик или аудио с компроматом можно будет говорить - это "ДипФейк с Верой"», - реюмировали эксперты.
Встройте "Политонлайн" в свой информационный поток, если хотите получать оперативные комментарии и новости:
Добавьте Политонлайн в свои источники в Яндекс.Новости или News.Google
Также будем рады вам в наших сообществах во ВКонтакте, Фейсбуке, Твиттере, Одноклассниках...