«Глубокие фейки»: сущность и оценка потенциального влияния на национальную безопасность
4205
361338
Контекст проблемы: эпоха постправды и фейковых новостей Бурное развитие информационных технологий в конце XX-XXI века оказало существенное влияние на изменение социальной организации, обусловив возникновение информационного общества и цифровой экономики. Формирование мировых масс-медиа, эволюция технологий компьютерной обработки информации, развитие Интернета и социальных сетей – эти и другие факты коренным образом изменили механизмы производства и распространения массовой информации, значительно расширив возможности для манипулирования индивидуальным и общественным сознанием. Сами по себе обман (дезинформация) и манипуляция общественным сознанием являются давно известными формами психологического воздействия на личность и общество. В ХХ веке началось их широкое применение в противоборстве между государствами и их коалициями. В классической работе советского периода по психологической войне отмечалось, что «дезинформация, искажение картины составляют главное содержание механизма психологической войны империализма» [3. С. 126]. Актуализация проблемы на современном этапе, лингвистически обозначенная маркерами «фальшивых новостей» (Fake News) и «эпохи постправды» (Post-truth era), во многом обусловлена новейшими изменениями медийного ландшафта. В настоящей работе мы опустим политический контекст, благодаря которому тема приобрела широкую известность (выборы президентом США Д. Трампа, выход Великобритании из Евросоюза (Brexit), «российское вмешательство» в политические процессы), поскольку он имеет второстепенное значение. Во второй половине прошлого столетия основным триггером изменений в области средств массовой информации выступало телевидение. В силу одновременного сочетания визуального и звукового сигналов транслируемый телевидением символический образ реальности получил невиданные прежде качества простоты восприятия и убедительности в сочетании с тотальностью его распространения. С учетом широкого проникновения телевизоров практически в каждую семью этот символический образ реальности постепенно приобрел все большее значение в восприятии самой реальности индивидами и обществом в целом, фокусируя внимание на отдельных ее компонентах и оттеняя другие, а иногда и создавая ложные образы, не имеющие под собой реальных оснований [12. С. 17]. Газеты, радио и телевидение, а позже – и Интернет завоевали роль основного источника получения информации для населения, причем иногда безальтернативного. По словам Н. Больца, «массмедиа – это индустрия реальности современных обществ, и нередко изображение в массмедиа само и есть то событие, о котором сообщают массмедиа... Поскольку совершенно очевидно, что у современного человека мировосприятие заняло восприятие информации, – продолжает ученый, – он уже не может самолично сравнивать предлагаемую информацию с «действительностью». Ибо где она, эта действительность, стоящая за медиа?» [2. С. 29, 38]. Следующим этапом изменения медийного ландшафта стало развитие технологий Web 2.0, прежде всего социальных сетей. Наделение самих интернет-пользователей функционалом медиа (создания и распространения контента для массовой аудитории) самым радикальным образом трансформировало информационную среду и способствовало утрате традиционными СМИ монополии на массовое распространение информации. Люди получили простые инструменты прямого донесения информации до глобальной аудитории, легко преодолевающие прежние барьеры национальных границ. Также существенно возросла скорость распространения контента в мировой сети. В течение прошлого столетия, когда печатные СМИ, радиостанции и телевидение управляли потоками общественной информации, журналистское сообщество установило строгие профессиональные стандарты для контроля качества и содержания новостей. Однако вследствие произошедшего изменения информационной среды «медиакомпании как никогда испытывают острую конкуренцию, которая, в свою очередь, заставляет их пересматривать бизнес-модель. При этом акцент все больше переносится с качества на сенсацию. Больше сенсации – больше просмотров – выше стоимость рекламы» [6]. Постоянная гонка за интернет-трафиком заставила даже серьезные новостные агентства снизить планку внутренней цензуры, дабы поспеть за своими конкурентами и блогерами как новыми акторами медийного поля. Что же касается последних, то для многих из них эмоциональный и провокативный контент стал чуть ли не основным способом расширения аудитории подписчиков. Акцент на эмоциональные доводы в ущерб или даже взамен рациональной аргументации в дискуссиях стал первой характерной чертой «эпохи постправды». Вторым ее признаком стала четко выраженная сегментация интернет-аудитории на отдельные группы, которые стремятся искать и публиковать преимущественно ту информацию, которая подтверждает и укрепляет их взгляды, игнорируя при этом конкурирующие мнения. Этому процессу во многом способствовало активное внедрение технологий анализа больших данных, создавшее возможность предоставления каждому пользователю персонализированной новостной ленты в социальных сетях, основанной на его предпочтениях и сетевой активности. Благодаря точному таргетингу и отбору подходящего контента человек оказывается в уютном «информационном пузыре», экранирующем от нарушающих гармонию его индивидуальной картины мира информационных раздражителей. Как образно сказано в одной публикации, «если вы за белых, то вам покажут мнения только белых, если за красных – только красных» [4]. В совокупности эти факторы способствуют еще большей поляризации мнений, которая сегодня и так достигла беспрецедентного уровня. Иначе говоря, мы склонны смотреть и читать то, чему готовы верить, но отказываемся воспринимать информацию, которая не отражает наших убеждений [6]. При этом пользователи не только потребляют, но активно ретранслируют понравившиеся им сведения, превращая ленты своих страниц в эхо-камеры. Здесь проявляется действие так называемых «информационных каскадов», благодаря которым люди передают информацию, распространяемую другими, без беспокойства относительно проверки ее достоверности, тем самым придавая ей большей правдоподобности в ходе данного процесса. В результате этого ложь может распространяться гораздо быстрее, чем раньше [18. С. 149-150]. Постправда стала квазисредой, контекстом, который делает возможным распространение ложных новостей. Она возникает, если люди игнорируют факты, а правда уже не играет существенной роли, уступая место популистской риторике [13. С. 46]. Да, манипулирование коллективным сознанием в массмедиа не является чем-то новым. Но новизна ситуации в том, что засоренность СМИ и особенно социальных сетей сфальсифицированными фактами превысила критический порог, что привело к появлению качественно нового феномена – искривленного информационного пространства [13. С. 54]. Эксперты выделили комплекс факторов, способствующих распространению фейков [7]:
Эксперт РСМД П. Кошкин дополняет этот перечень такими факторами, как склонность многих политиков верить в теории заговора; общественное недоверие к экспертизе, антиинтеллектуализм и популизм; переизбыток информации в Интернете; развитие журналистики, основанной на «утечках» или так называемых «эксклюзивах» [5]. Зафиксируем три важных особенности современной информационной среды:
Эти факторы в своей совокупности создают благодатную среду для распространения разного рода фейков. И именно в этот момент появляется новая беспрецедентная технология, позволяющая искусственно синтезировать человеческие изображения – «глубокие фейки» (deepfakes). Глубокие фейки обладают особенно разрушительным потенциалом, потому что они возникли во времена, когда становится все труднее отличить реальные факты от выдуманных [18. С. 149].
Понятие и особенности «глубоких фейков» Понятие «глубокие фейки» (deepfakes) образовано сочетанием терминов «глубокое машинное обучение» (deep learning) и «фейки» (fakes). Его происхождение связывается с одноименным ником пользователя интернет-платформы «Reddit», который заявил в 2017 году, что использует технологии машинного обучения для того, чтобы имплантировать изображения лиц знаменитостей в порнографические видео. Глубокие фейки являются продуктом недавних достижений в формах искусственного интеллекта, известных как «глубокое обучение» (deeplearning), в котором набор алгоритмов, называемых «нейронными сетями», обучается понимать правила и воспроизводить паттерны (модели) путем обработки больших данных (Google, например, использовала эти технологии для развития мощных алгоритмов классификации изображений для своей поисковой системы). Глубокие фейки возникают из отдельного направления машинного обучения, в котором пары алгоритмов сводят друг с другом в «генеративные соперничающие сети» (generative adversarial networks), сокращенно GANs. В таких нейронных сетях один алгоритм, называемый «генератором», создает контент, смоделированный на основе исходных данных (например, искусственные изображения кошек на основе банка данных реальных фотографий кошек), в то время, как второй алгоритм, именуемый «дискриминатором», пытается выявить искусственно созданный контент (в приведенном выше примере – выявить фейковые изображения кошек). Поскольку каждый алгоритм постоянно тренируется противостоять другому, подобное сопряжение может вести к быстрому прогрессу, позволяющему GAN создавать высокореалистичный фейковый фото- или видеоконтент [18. С. 148]. Основным материалом, который требуется для работы нейросетей (GAN), являются фото- или видеозаписи человека. Современные нейросети на основе использования технологий GAN позволяют искусственно генерировать высокореалистичные изображения людей на фото или видео либо встраивать изображения других людей в существующие видеозаписи. Например, программист компании «Uber» Филипп Ванг создал сайт thispersondoesnotexist.com, который выдает бесчисленное количество фотографий несуществующих людей на основе комбинации реальных фотографий. «Глубокие фейки» (deepfakes) – технологии искусственного синтеза человеческого изображения, основанные на использовании нейросетей и искусственного интеллекта, позволяющие создавать высокореалистичные фото- и видеоизображения людей либо производить модификацию фото-, аудио- и видеоматериалов. Хотя современные нейросети, использующие технологию глубокого обучения, могут создавать фейковые фото-, аудио- и видеозаписи, под глубокими фейками чаще всего понимаются именно искусственно синтезированные видео, содержащие динамическое изображение и голос людей. Преимущественно о них будет идти речь в настоящем докладе. Однако нужно при этом не забывать и о других возможных форматах глубоких фейков, прежде всего фотографиях. Так, например, недавно новостные интернет-ресурсы писали о созданном приложении «DeepNude», которое использует нейронные сети для удаления одежды с изображений женщин, делая их реалистично обнаженными в несколько кликов. Оно использует готовое фото человека и создает новое, но уже без одежды [15]. Обычно отправной точкой для появления глубоких фейков называется 2017 год, когда первые образцы сгенерированных нейросетями видео (в основном это были «порно со знаменитостями») начинают распространяться на известной социальной новостной платформе-агрегаторе «Reddit». Собственно, тема привлекла к себе широкое внимание после выхода статьи Саманты Кол из «Vice News», в которой рассказано о созданном Одним из наиболее известных примеров глубоких видеофейков является ролик под названием «Вы не захотите поверить тому, что Обама скажет в этом видео!» («You Won’t Believe What Obama Says In This Video!»), размещенный известным ресурсом «BuzzFeed» в апреле 2018 года в профилактических целях. В нем бывший президент США Барак Обама в первом части произносит отдельные провокационные фразы, типа «Президент Дональд Трамп – полное дерьмо». Во второй части видео показан настоящий человек Джордан Пил, который говорит эти слова, демонстрируя тем самым, что видеоизображение Обамы является искусственно созданным глубоким фейком. Роликом наглядно показана опасность данных технологий. В 2019 году в Интернете получили вирусное распространение поддельные видео с участием главы Палаты представителей Конгресса США Нэнси Пелоси, генерального директора Facebook Марка Цукерберга и персонажа сериала «Игра престолов» Джона Сноу [23]. Очевидно, что глубокие фейки завтрашнего дня будут еще более яркими и реалистичными. Несмотря на то, что они представляют собой лишь новую технологию для реализации старого метода фальсификации, уникальность и беcпрецедентный характер им придает сочетание двух свойств: 1) использование убедительного и популярного видео формата; 2) сложность обнаружения фальшивых видео, изготовленных с помощью технологии «deepfake». В отличие от фотоизображений, возможность искусственной коррекции которых широко известна и применяется многими пользователями социальных сетей, видеозаписям люди склонны доверять гораздо больше. Сам формат видео позволяет зрителям выступать непосредственными очевидцами события, избавляя их от необходимости решать, стоит ли доверять чьему-либо рассказу о нем, что повышает его убедительность. Кроме того, современные социальные сети и мессенджеры, включая новую популярную молодежную платформу «TikTok», позволяют легко делиться видеозаписями, способствуя их быстрому распространению. Поэтому при создании высококачественного вирусного deepfake-видео оно способно распространяться с огромной скоростью в глобальном масштабе, особенно в сочетании с целенаправленными усилиями по его продвижению в сети. При этом люди будут склонны ему верить, поскольку зрительно не заметят каких-то признаков подлога, а официальная реакция властей и СМИ не всегда будет в состоянии опровергнуть содержащуюся в нем информацию. В любом случае она будет приходить с задержкой, когда вирусная эпидемия глубокого фейка уже запущена. К тому же в эпоху постправды никакое опровержение не сможет переубедить определенные целевые аудитории, для которых содержащийся в фейковом виде контент подтверждает их взгляды и убеждения. Все вышеизложенное убеждает нас внимательней присмотреться к данной новой технологии и рассмотреть варианты ее возможного применения. Глубокие фейки имеют ряд полезных приложений. Модифицированные видеоизображения исторических персонажей, например, могут создаваться для целей обучения детей. Но глубокие фейки также могут использоваться для деструктивных целей. Как говорилось выше, данные технологии используются для создания «порно со знаменитостями» путем встраивания в порнографические видео изображений лиц известных актеров, политиков и прочих известных личностей. Поисковые системы выдают большое количество ресурсов и контента по запросу «deepfakeporn». Существенное значение имеет то, что подобные технологии обладают широким потенциалом распространения. Коммерческие и даже бесплатные сервисы по изготовлению глубоких фейков уже появились на открытых торговых площадках (например, приложение «FakeApp») и будут развиваться дальше. Как образно выразился исследователь искусственного интеллекта Алекс Шампандард (Alex Champandard), «это уже не ракетостроение», отметив при этом, что приличная видеокарта позволяет создавать deepfake-видео за несколько часов, используя специализированное программное обеспечение [19]. Развитие подобных сервисов встретит мало препятствий. Экспертами единственным практическим способом сдерживания процесса изготовления глубоких фейков называется ограничение им доступа к материалам для тренировки – аудио- и видеозаписям людей для моделирования – в целях совершенствования GAN [18. С. 148]. Однако очевидно, что широкое распространение социальных сетей и стремление людей активно размещать в них свои фотографии дает богатую базу для работы нейросетей. Это тем более верно в отношении публичных персон, которые постоянно находятся в фокусе фотообъективов и видеокамер. Поэтому можно сделать вывод, что в ближайшее время способность создания высококачественных подделок станет потенциально доступной для каждого, кто имеет достаточные заинтересованность и знания относительно того, куда можно обратиться за помощью. И поскольку технологии глубоких фейков распространяются, постоянно увеличивающееся число акторов будет способно убедительно манипулировать фото- и видеоконтентом способом, который ранее был доступен только для голливудских студий или наиболее обеспеченных разведывательных служб [18. С. 150]. Показательно, что этой проблемой в настоящее время уже озаботились иностранные государства. Так в сентябре 2018 года в США несколько членов Палаты представителей Конгресса обратились к директору Национальной разведки с просьбой проинформировать конгрессменов и общественность о возможностях использования новых технологий для изготовления фальшивых аудио-, видео- и фотоизображений. В июне 2019 года состоялось слушание в комитете по разведке Палаты представителей, по итогам которых было принято решение «изучить угрозы национальной безопасности, создаваемые поддельным контентом с поддержкой искусственного интеллекта, способы его обнаружения и борьбы с ним, определить роль, которую должны государственные органы, частный сектор и общество в целом, чтобы противостоять потенциально мрачному будущему "пост-правды"» [23, 25]. 12 июня 2019 году в Палату представителей был внесен законопроект по борьбе с распространением дезинформации посредством введения ограничений на технологии подделки видео с помощью глубоких фейков [16]. В этой связи возникает потребность в выявлении возможных направлений деструктивного использования технологий глубоких фейков.
Потенциальные угрозы национальной безопасности, связанные с использованием глубоких фейков Представляется, что технологии глубоких фейков будут востребованы самым широким кругом субъектов: спецслужбами иностранных государств; террористическими и экстремистскими организациями; политическими партиями, общественными и иными некоммерческими организациями; PR- и рекламными агентствами; отдельными лицами. Выделим основные потенциальные угрозы национальной безопасности, связанные с использованием глубоких фейков. Все они - направления деструктивного применения возможностей технологий искусственного синтеза человеческого изображения перечисленными выше субъектами. 1. Угроза использования глубоких фейков как инструмента межгосударственного информационного противоборства Дезинформация является одним из наиболее древних направлений информационной борьбы между государствами. По мере развития научно-технического прогресса совершенствовались средства и способы распространения подобной ложной информации, а также формы ее представления. Последние несколько лет проблема дезинформации активно обсуждалась мировым сообществом в контексте тематики фейковых новостей (fake news), отображающей задействование государствами возможностей новых медиа для манипулирования общественным сознанием. Технология глубоких фейков позволяет создавать высокореалистичные фальшивки видеозаписей, что значительно расширяет возможности оказания воздействия на индивидуальное и общественное сознание. По этой причине данная технология, несомненно, будет активно задействована государственными структурами, прежде всего, специальными службами, отвечающими за теневой сегмент информационного противоборства. В последние годы благодаря Интернету получили широкое развитие такие приемы информационной борьбы, как создание и последующее распространение в СМИ и Интернете фальшивых аудиовизуальных материалов (фотографий, видеозаписей), включая откровенные подделки (например, многочисленные фейковые фото и видео, якобы снятые участниками и гостями Сочинской Олимпиады 2014 года [14]), либо постановочные видео (известным примером такого видео является видеосюжет с участием организации «Белые каски», якобы свидетельствующий о совершении вооруженными силами Сирии атаки с применением химического оружия против мирного населения [11]). В зависимости от характера и качества таких материалов цепочка его распространения может различаться: первичным его звеном могут быть как анонимные интернет-ресурсы, так и вполне респектабельные средства массовой информации. Технология глубоких фейков позволит изготавливать правдоподобные видеозаписи, в которых высокопоставленные политические деятели, военнослужащие или сотрудники правоохранительных органов, равно как и иные лица, говорят определенные фразы либо совершают определенные действия с целью оказания нужного атакующей стороне психологического воздействия (введения в заблуждение, дискредитации, провоцирования к определенным реакциям и т.д.). В качестве возможных вариантов таких материалов в журнале «Foreign Affairs» приведены видеозаписи, изображающие премьер-министра Израиля, в частных разговорах с коллегами раскрывающего план совершения серии политических убийств в Тегеране, либо видеозапись, на которой запечатлено, как американские генералы в Афганистане сжигают Коран [18. С. 147]. Схожие варианты, учитывающие национальный контекст и текущую ситуацию, можно предположить в отношении стран СНГ. Подобные информационные вбросы при условии их дальнейшей медийной и сетевой разгонки могут создать эффект разрыва «информационной бомбы», волны которого на первых порах будет весьма непросто погасить. Даже если это удастся сделать, то все равно они могут иметь негативный эмоциональный эффект, способный влиять на взаимоотношения государств многие годы. Создание и распространение глубоких фейков может выступать эффективным способом вмешательства в избирательную кампанию в государствах-участниках СНГ. Если вбросить убедительную видеофальшивку с компрометирующим изображением одного из кандидатов на выборы на финишном этапе, то у его предвыборного штаба может просто не хватить время на ее опровержение до дня голосования («осадок» в головах избирателей останется в любом случае). Это значительно повлияет на итоги голосования и результаты выборов. Еще одним направлением выступает применение глубоких фейков для провоцирования негативных слухов в период после шоковых информационных поводов (терактов, техногенных катастроф, стихийных бедствий, крупных происшествий). События последних нескольких лет в России показали, что деструктивные силы активно «отрабатывают» посткризисные ситуации, вбрасывая фейки, направленные на опровержение официальных версий произошедшего, обвиняющие власти в бездействии и умышленном сокрытии сведений от населения, преувеличивающие масштабы трагедии и число их жертв. Очевидно, что высокореалистичное видео будет идеальным форматом фейка для подобных информационных вбросов. 2. Угроза применения глубоких фейков в террористической и экстремистской деятельности Террористические и экстремистские организации ведут активную пропаганду в информационном пространстве, прежде всего используя возможности социальных сетей и мессенджеров. Им традиционно не хватало ресурсов для изготовления и распространения фальшивых, но правдоподобных аудио-, фото- и видеоматериалов. Поэтому они, несомненно, попытаются задействовать технологии глубоких фейков в своих пропагандистских кампаниях. Прежде всего, они будут стремиться изготовить провокационные фальшивые видео, способные вызвать серьезный резонанс в нужной целевой аудитории. Это могут быть кадры расстрела мирных жителей военнослужащими, жестоких пыток в отношении лиц, подозреваемых в причастности к терроризму или экстремизму, совершения оскорбительных действий в отношении объектов религиозного культа и т.п. Вброс подобных видео будет преследовать цель стимулирования быстрой и острой общественной реакции – провоцирования массовых беспорядков, разжигания ненависти и провоцирования насилия в отношении определенных лиц или социальных групп. Вполне очевидно, что идеальной почвой для спекуляций и подстрекательской пропаганды радикалов в странах Содружества будут выступать имеющиеся межконфессиональные, межнациональные и социальные трения и конфликты общегосударственного или локального масштаба. Здесь умело сконструированное фейковое видео может сыграть роль детонатора мощного информационного и социального взрывов, локализовать последствия которых будет достаточно сложно. Свою роль здесь сыграют характерные для психологии толпы возбужденность и следование эмоциональным призывам, нежели рациональным доводам. В качестве отдельного направления возможного использования глубоких фейков экстремистами стоит выделить их применение для дискредитации деятельности правоохранительных органов. Убедительные и эмоциональные видеозаписи «беспредела», якобы творимого силовиками (например, фальшивые видео жесткого избиения полицией подростков – участников протестных акций), способны сильно всколыхнуть население либо изменить общественное мнение в отношении правоохранительных органов. Это будет особенно проявляться в моменты действий силовых структур по пресечению незаконных публичных акций или массовых беспорядков, о чем убедительно свидетельствует пример событий «Евромайдана» на Украине периода 2013-2014 годов. С самого начала протестных акций в г. Киеве против сил правопорядка была развязана массированная информационная кампания по их дискредитации в украинских и мировых СМИ и интернет-ресурсах. Ее основной целью было сформировать негативное общественное мнение о сотрудниках полицейского отряда «Беркут» и внутренних войск Украины как силовом инструменте «прогнившего и коррумпированного режима» и оправдать действия участников протестных акций, включая применение насилия в отношении сил правопорядка. Помимо провоцирования быстрых общественных реакций следует предположить возможность применения глубоких фейков и в более продолжительных пропагандистских кампаниях террористических и экстремистских организаций для продвижения своих главных нарративов. Например, они смогут производить и распространять в информационном пространстве фейковые видеозаписи выступлений ликвидированных лидеров и идеологов террористов, якобы «чудом уцелевшие и случайно обнаруженные», вложив в их уста любой нужный текст. Либо, напротив, вставлять в пропагандистские экстремистские видео фальшивые фрагменты заявлений политических деятелей, которые провоцируют негодование среди своих радикальных сторонников. 3. Угроза применения глубоких фейков в преступной деятельности Представляется, что технологии глубоких фейков могут использоваться для совершения следующих видов преступлений (далее будут приведены составы преступлений из Модельного уголовного кодекса для государств-участников СНГ от 17 февраля 1996 года):
В большинстве перечисленных составов преступлений сами фейковые видеозаписи будут выступать в качестве средства совершения данных преступлений. Например, созданный злоумышленниками глубокий фейк, изображающий человека в непристойном виде, может быть использован для вымогательства у него денежных средств. Создание и изготовление глубоких фейков может выступать способом совершения следующих преступлений: клеветы, оскорбления, незаконного распространения порнографических материалов, возбуждения национальной, расовой или религиозной вражды и других. Вопрос о потребности в возможной криминализации действий по изготовлению и (или) публичному распространению глубоких фейков в качестве самостоятельного преступления носит дискуссионный характер. Имеются аргументы как «за», так и «против» такого решения. В любом случае, полагаем, что обязательными элементами конструкции такого состава должны выступать: 1) закрепление деструктивных целей изготовления и (или) распространения глубокого фейка; 2) наступление вредоносных последствий или создание угрозы их наступления (материальный или усеченный состав преступления). По нашему мнению, в среднесрочной перспективе технология глубоких фейков получит наиболее широкое применение для совершения вымогательства, а также оскорбления и клеветы. О последних двух деяниях следует поговорить отдельно. 4. Угроза использования глубоких фейков для диффамации Создание фейковых изображений и видеозаписей будет широко использоваться для диффамации – распространения не соответствующих действительности порочащих сведений. В данном случае мы будем вести речь о тех случаях, когда дискредитация выступает конечной целью информационной атаки, а не инструментальной, как при ведении подрывной информационной кампании против государства или вымогательстве. Природа глубоких фейков подразумевает, что разрушительное действие контента может быть гарантированно, если он носит непристойный или отвратительный характер [18. С. 151]. Это обусловлено тем, что люди особенно склонны распространять негативную и новую информацию. Диффамация с использованием глубоких фейков может стать элементом грязной PR-кампании, направленной против политических деятелей, «звезд» шоу-бизнеса, известных спортсменов и прочих публичных личностей. Она также может применяться как инструмент давления или манипуляции в бизнес-сфере, например, для срыва готовящихся крупных сделок, подрыва позиций конкурентов на рынке или проведения махинаций на фондовом рынке. Более массовыми, но менее резонансными, могут быть случаи применения столь изощренного инструмента для личной мести, в частности своим бывшим женам или мужьям (как получивший широкое развитие в последнее годы феномен т.н. «порномести», состоящий в размещении в общественном доступе приватных фото- и видеоизображений). Одним из ключевых типов порочащего фейкового видео могут стать видеозаписи эротического и порнографического содержания. Собственно, выше мы упоминали, что первыми образцами глубоких фейков как раз и были порноролики со знаменитостями. В декабре 2017 года произошел громкий скандал, на популярном ресурсе «Reddit» неизвестным пользователем был размещен порноролик с израильской актрисой Галь Гадот, о чем упоминалось выше. В итоге администрация ресурса была вынуждена его удалить [26]. Однако позже в сети были размещены и другие подобные видео с известными актерами, которые и сейчас находятся в доступе, например, на тематическом сайте porndeepfakes.com, равно как и на других порноресурсах. Пока они еще сделаны в достаточно низком качестве, что без труда позволяет выявить признаки подделки. Но технологии не стоят на месте, а потому уже в ближайшее время такие видеофейки будет тяжело отличить от настоящих. Другим типом порочащих видеофейков могут стать записи, в которых публичные личности делают какие-то резонансные заявления или высказывания, провоцирующие возмущение общественности. Так, в материале сайта «Газета.ру» приводится описание случая, произошедшего в 2018 году, когда бельгийской политической партией Socialistische Partij Anders с целью привлечения внимания к экологическим проблемам было размещено фейковое видео с Дональдом Трампом, в котором политик негативно высказался о Парижском климатическом соглашении. Этот «экологический креатив» был принят большинством зрителей за чистую монету, и в Интернете на американского президента посыпались настоящие проклятия от бельгийских «зеленых». В результате в Бельгии разразился большой политический скандал [1]. В июле 2018 года было изготовлено фейковое видео интервью члена Палаты представителей Конгресса США Александрии Окасио-Кортез (Alexandria Ocasio-Cortez), в котором она выглядело нелепо и не могла ответить на многие вопросы. Его посмотрело более миллиона человека. В комментариях под размещенным видео пользователи называли парламентария «полной идиоткой» и «тупой, как коробка со змеями» [23]. Что касается простых людей, то технологии глубоких фейков будут использоваться против них их недоброжелателями или сетевыми троллями. В первом случае это могут быть обиженные друзья, завистливые одноклассники или соседи, бывшие супруги и т.д. Тролли, которые целенаправленно занимаются оскорблением пользователей сети, получают в свои руки новый мощный инструмент для интернет-травли (буллинга). Наиболее уязвимым объектом для подобного негативного психологического воздействия могут стать подростки, а также люди с повышенной ранимостью и впечатлительностью.
Обзор возможных способов противодействия угрозам, связанным с использованием глубоких фейков Рассмотрим основные возможные приемы и инструменты противодействия вредоносному применению глубоких фейков. Следует отметить, что часть из описанных ниже способов уже существуют и используются для противодействия дезинформации Р. Чесни и Д. Цитрон в своей статье выделили два основных подхода к противодействию глубоким фейкам. 1. Технологический подход – предполагает использование специальных технических средств и компьютерных криминалистических методик выявления и идентификации глубоких фейков. Первая группа технологических методов основана на применении программно-технических средств обнаружения признаков искажения видео. Например, в июне 2018 года ученые в области компьютерных технологий из Дартмутского университета и Политехнического университета SUNY в Олбани заявили, что они создали программы выявления глубоких фейков на основе наблюдения за аномальными моделями движения глазного века, когда персонаж на видео моргает [18. С. 152]. Ранее в СМИ сообщалось об инициировании Американским агентством перспективных оборонных исследований DARPA проекта «Media Forensics» в целях разработки инструментов, способных идентифицировать случаи значительного изменения видео и фото для искажения их содержания [24]. Примечательно, что проект был запущен еще в 2016 году, то есть за год до появления глубоких фейков в публичном информационном пространстве. Как отмечают многие эксперты, все имеющиеся и перспективные технологии выявления признаков подделки фото- и видеоизображений могут стать неэффективными по мере дальнейшего прогресса в развитии нейросетей. В этой связи предпринимаются попытки поиска и альтернативных путей детекции глубоких фейков. Так, в начале 2019 г. хостинговая платформа для GIF-изображений «Gfycat» заявила о запуске проекта «Ангора» («Project Angora») для борьбы с поддельными видео. В ее основе лежит технология pre-deepfakes, которая ищет в Интернете версии с более высоким разрешением любого GIF, который вы пытаетесь загрузить, в тандеме с ProjectMaru, распознающего отдельные лица в GIF и автоматически помечающего людей на них. Однако эффективность ее работы вызывает сомнения, поскольку на самой платформе обнаруживали видео глубоких фейков, не выявленные этим алгоритмом [20]. Другим возможным технологическим методом противодействия глубоким фейкам является технология маркировки контента специальным идентификационным водяным знаком до начала его распространения. На Западе такой подход именуется «концепцией цифрового происхождения» («digital provenance» solution). Компании, такие как «Труэпик» («Truepic»), развивают технологии нанесения цифрового водяного знака для аудио-, фото- и видеоконтента в момент его создания, используя метаданные, которые могут быть неизменно зарегистрированы в доступном регистре, или блокчейне. Другими словами, субъект может эффективно маркировать контент с отметкой подлинности, которая позже будет использоваться как основа для сравнения с возможным фейком [18. С. 152-153]. По словам Р. Чесни и Д. Цитрон, в теории метод фиксации цифрового происхождения представляется идеальным средством. На практике же он сталкивается с двумя большими затруднениями. Во-первых, он предполагает наличие таких программ в широком массиве устройств, которые воспроизводят контент, включая ноутбуки и смартфоны. Во-вторых, использование цифровых водяных знаков требует создания предварительных условий для загрузки контента с наиболее популярных цифровых платформ, таких как Facebook, Twitter и YouTube. И пока ни одно из этих условий не является выполнимым. Изготовители устройств при отсутствии правовых обязательств не будут внедрять новый инструмент, пока не удостоверятся, что это достижимо, пользуется спросом и не нарушит работоспособности их продуктов. Кроме того, небольшое число платформ социальных медиа захотят блокировать аккаунты людей за загрузку неаутентичного контента, особенно с учетом того, что первый, кто пойдет на такой шаг, подвергнется риску утраты доли рынка, которая может перейти к их конкурентам [18. С. 153]. И третьим, наиболее футуристичным технологическим способом противодействия является использование «сервисов проверенных алиби» («authenticated alibi services»). Под ними авторы статьи понимают программно-аппаратные средства «протоколирования жизни», то есть видеозаписи всего того, что происходит с человеком и вокруг него. Продвинутый вариант технологического исполнения подобных инструментов показан в одной из серий культового сериала «Черное зеркало» («Black Mirror») под названием «История всей твоей жизни» («The Entire History of You») [17]. В ней он представлен в виде вживленного в голову человека микрочипа, который непрерывно записывает все, что он видит и слышит вокруг. Появление таких устройств весьма вероятно в будущем. В настоящее же время существуют нательные миниатюрные видеорегистраторы, которые используют службы полиции в разных странах, включая страны СНГ. Постоянная видеозапись жизнедеятельности является весьма существенным вмешательством в личную жизнь, в связи с чем многие люди откажутся использовать подобные технологии. Однако, по мнению Чесни и Цитрон, высокопоставленные личности, такие как политики и знаменитости, для защиты себя от глубоких фейков, способных разрушить их хрупкую репутацию, могут выбрать в качестве решения применение продвинутых инструментов «протоколирования жизни» для того, чтобы при необходимости доказать, где они находились, что говорили или делали в любой момент времени [18. С. 153]. Компании начнут предлагать наборы сервисов алиби, включая носимые устройства, позволяющие сделать фиксацию своей жизни удобной, а также хранить это огромное количество данных, надежно обеспечивая при этом их подлинность. Такие сервисные комплекты даже могут включать партнерство с ведущими новостными платформами и социальными медиа, которые могут активировать быстрое подтверждение или разоблачение контента. Помимо высокопоставленных персон, которые согласятся применять такой способ для самозащиты, часть работодателей могут установить требования по обязательному его использованию для некоторых категорий работников, как это уже сделано для полиции в некоторых странах. К тому же, как мудро подмечают авторы статьи, даже если только относительно малое число людей будет использовать интенсивное протоколирование, они будут формировать огромное хранилище данных, в которых остальные из нас непреднамеренно будут зафиксированы, создавая тем самым массовую пиринговую сеть слежения для постоянной записи нашей активности [18. С. 153]. 2. Правовой подход – предполагает использование правовых средств для противодействия глубоким фейкам. Как отмечают Чесни и Цитрон, в зависимости от обстоятельств, изготовление или распространение глубоких фейков может квалифицироваться как диффамация, мошенничество или незаконное использование изображения лица в числе других гражданских или уголовных правонарушений [18. С. 154]. Мы выше рассмотрели составы преступлений по модельному законодательству СНГ, которые могут совершаться с использованием глубоких фейков. Помимо уголовно-наказуемых деяний, их применение может квалифицироваться как административное правонарушение (например, злоупотребление свободой массовой информации) или гражданско-правовой деликт (например, распространение сведений, порочащих честь, достоинство или деловую репутацию). Авторы статьи для устранения правовых пробелов предлагают осуществить специальную криминализацию (либо закрепление гражданско-правовой ответственности) отдельных действий, например, создание глубоких фейков с реальным человеком с намерением ввести в заблуждение зрителей или слушателей, или с целью причинения определенного вреда. При этом они отмечают объективные сложности, которые возникнут в рамках уголовного преследования таких преступников (трудность доказывания вины конкретного лица, сложность привлечения к ответственности злоумышленников, проживающих в другой стране). Однако они являются традиционными для киберпреступлений и вполне решаемыми. Другим правовым способом реагирования, по мнению авторов, может стать стимулирование платформ социальных медиа к дополнительным усилиям для выявления и удаления глубоких фейков или фальшивого контента. В США, согласно положениям раздела 230 Закона о соблюдении благопристойности в коммуникациях (Communications Decency Act) 1996 года, компании, выступающие собственниками упомянутых платформ, в большинстве случаев не несут ответственности за контент, который у них размещается (схожая ситуация имеет место и в странах СНГ). Конгресс может изменить данный иммунитет только путем внесения изменений в раздел 230 названного закона для установления ответственности компаний за вредоносную и фальшивую информацию, распространяемую через их платформы, за исключением тех случаев, когда они предприняли необходимые меры для ее обнаружения и удаления. Другие страны уже используют схожий подход для проблем в схожих областях. Например, в Германии в 2017 году был принят закон, налагающий большой штраф на компании-владельцы социальных медиа, которые не удалили расистский или иной разжигающий вражду контент в течение 24 часов с момента получения уведомления об этом. Такой подход, по мнению Чесни и Цитрон, несет значительные издержки, связанные с усилением цензуры, а также риски создания необоснованных конкурентных преимуществ для крупных платформ, располагающих ресурсами для отслеживания контента и оплаты судебных тяжб [18. С. 154]. На практике уже возникали ситуации, когда администрации социальных медиа были вынуждены реагировать на размещение пользователями глубоких фейков. И единства в этом вопросе среди них не наблюдалось. Так, после публикации упомянутой выше резонансной публикации в «Vice News» в 2018 году многие популярные платформы, включая Reddit, Twitter, Discord, Gfycat и Pornhub, запретили deepfakes и связанные с ними сообщества [23]. Правда, в реальности не все из них смогли выполнить свои обещания по их зачистке. В то же время администрация Facebook в мае 2019 года отказалась удалять фейковое видео, изображающее в неприглядном свете спикера Палаты представителей Конгресса США Нэнси Пелоси и набравшее свыше 2 млн. просмотров. Аналогичная позиция сохранена и при размещении в принадлежащей компании сети «Instagram» фейкового видео с участием самого Цукерберга: «Мы будем относиться к этому контенту так же, как и ко всей дезинформации в Instagram. Если сторонние проверки фактов отметят его как ложный, мы отфильтруем его из рекомендательных поверхностей Instagram, таких, как «обзор» и «хэштег»» [21]. В контексте правового подхода заслуживает внимания недавно принятый в России закон о противодействии фейковым новостям (Федеральный закон от 18.03.2019 № 31-ФЗ «О внесении изменений в статью 15.3 Федерального закона «Об информации, информационных технологиях и о защите информации»). Глубокие фейки деструктивной направленности в основной массе подпадут под определение фейковых новостей, установленное данным законом: «недостоверная общественно значимая информация, распространяемая под видом достоверных сообщений, которая создает угрозу причинения вреда жизни и (или) здоровью граждан, имуществу, угрозу массового нарушения общественного порядка и (или) общественной безопасности либо угрозу создания помех функционированию или прекращения функционирования объектов жизнеобеспечения, транспортной или социальной инфраструктуры, кредитных организаций, объектов энергетики, промышленности или связи». В качестве меры реагирования данный закон предусматривает ограничение доступа к сетевому изданию или иному информационному ресурсу в Интернете, которые его распространяют. Это один из важных правовых способов противодействия распространению глубоких фейков. В дополнение к блокировке фейковой информации Федеральным законом от 18.03.2019 № 27-ФЗ «О внесении изменений в Кодекс Российской Федерации об административных правонарушениях» внесены изменения в статью 13.15 КоАП РФ «Злоупотребления свободой массовой информации», которые установили административную ответственность за распространение таких недостоверных сведений в СМИ или в информационно-телекоммуникационных сетях, если это повлекло наступление перечисленных в норме общественно опасных последствий или создало угрозу причинения такого вреда. Субъектами данного правонарушения могут выступать как граждане, так и должностные и юридические лица. Инструменты уголовной и административной ответственности могут сыграть важную профилактическую роль в распространении глубоких фейков частными лицами и организациями. Однако вряд ли они возымеют эффект в отношении иностранных спецслужб и иных зарубежных акторов информационного противоборства. В этой связи необходимо использовать арсенал средств информационного противодействия.
Информационное противодействие глубоким фейкам Какие бы продвинутые алгоритмы выявления глубоких фейков не были созданы в ближайщие годы, они не смогут предотвратить их первичного распространения в социальных сетях и прочих Интернет-ресурсах. А гремучий коктейль убедительности и высокой скорости распространения, присущий глубоким фейкам, обеспечит быстрое оказание нужного информационно-психологического воздействия на целевую аудиторию. Поэтому на данном этапе возникает задача организации информационного реагирования на распространение глубокого фейка. Стандартные приемы опровержения ложной информации все хуже работают в эпоху постправды, поскольку помещенные в изолированные «информационные пузыри» интернет-пользователи охотно верят фальшивкам, которые подтверждают их убеждения, и с легкостью отвергают аргументы, разоблачающие их фейковый характер. Это тем более проявится в случае распространения высококачественного глубокого фейка, поскольку люди увидят такое реалистичное видео собственными глазами, а потому переубедить их будет гораздо сложнее. К тому же, находясь под глубоким эмоциональным впечатлением от его просмотра, они начнут активно делиться ими в социальных сетях и мессенджерах со своими друзьями и знакомыми, разгоняя тем самым информационную волну в эхо-камере. В ситуации информационной войны первичный информационный вброс глубокого фейка будет сразу поддержан массированной пропагандистской кампанией глобальных СМИ и новостных интернет-ресурсов, направленных на раскрутку инфоповода. На следующем этапе в дело вступят политики, которые постараются трансформировать возникший информационный резонанс в конкретные выгодные им решения, например, о начале боевых действий или введении санкций. Данная схема работы многократно использовалась западными странами за последние годы в отношении Сирии, Ирана, России и других государств. Так, например, 13 июня 2019 года в Оманском заливе произошли взрывы на двух танкерах, принадлежащих японской и норвежской транспортным компаниям. Власти США сразу же обвинили Иран в совершении нападений на данные танкеры, угрожая в ответ применением военной силы [8]. Чтобы как-то обосновать свои голословные обвинения, они привели некоторые сомнительные доказательства, в частности видеозапись, где, по их версии, иранские военные снимают неразорвавшуюся мину с пострадавшего в Оманском заливе танкера. Опубликованное черно-белое видео низкого качества показывает некий катер с людьми у борта некоего танкера, надписи и флаги неразличимы [10]. Данное «доказательство» было поставлено под сомнение многими мировыми экспертами в плане подтверждения им причастности Ирана к нападению. Представляется, что в ближайшей перспективе для изготовления таких фальшивок могут активно использоваться технологии глубоких фейков. Все изложенное предвещает сложные времена пресс-службам и иным подразделениям государственных органов, отвечающим за информационную политику. Поэтому уже сейчас требуется продумывать направления модернизации типовых алгоритмов информационного реагирования на распространение ложной информации с учетом особенностей новой угрозы. С учетом ее новизны требуется ознакомление с технологией глубоких фейков сотрудников органов безопасности и иных правоохранительных органов государств-участников СНГ (равно и как иных государственных структур), которые могут столкнуться с последствиями их применения в профессиональной деятельности. В более широком контексте встает вопрос о необходимости упредительного информирования общественности стран Содружества Независимых Государства о новых технологиях фальсификации изображений. Это позволит сформировать определенный «информационный иммунитет» населения, чтобы люди привыкли «не верить своим глазам» и допускать возможность фейкового характера внешне правдоподобной и убедительной видеозаписи. В сети в настоящее время уже имеются множество материалов о технологиях глубоких фейков. Но пока общий уровень осведомленности населения о связанных с ними угрозах чрезвычайно низок. В этой связи требуется подготовка и распространение серии тематических репортажей и публикаций, проведение пресс-конференций, научных семинаров и «круглых столов», занятий в учебных заведениях и т.д. Однако у решения о массовом информировании населения по проблеме глубоких фейков есть две существенные издержки. Первая из них состоит в том, что вследствие такой просветительской кампании знания о новых технологиях получат не только добропорядочные граждане, но и потенциальные злоумышленники. Причем речь идет преимущественно не о профессионалах (они и так быстро узнают о технологии), а об обычных людях, которых может заинтересовать функционал глубоких фейков для изготовления поддельных видео в целях личной мести, оскорблений или вымогательства. Другими словами, государство в этом случае само расширит потенциальный круг субъектов вредоносного использования глубоких фейков. Вторая издержка носит менее очевидный, но более фундаментальный характер. Р. Чесни и д. Цитрон назвали ее «эффектом выгоды для лжецов» («liar’s dividend»): по мере роста осведомленности людей относительно существования глубоких фейков публичные деятели, уличенные в недостойном поведении в настоящих записях, могут в целях своей защиты апеллировать к сомнительной подлинности доказательств против них. В более широком плане, когда общество станет более чувствительным к угрозе глубоких фейков, оно может начать утрачивать доверие к новостям в целом [18. С. 151-152]. Другими словами, начнется эра тотального недоверия к информации вообще и журналистике в частности.
Заключение Возникновение технологии глубоких фейков значительно расширяет возможности манипулирования общественным сознанием. Изготавливаемые нейросетями фейковые фото- и видеоматериалы пока имеют визуальные признаки искажения, но по мере развития технологий глубокого машинного обучения эти недостатки будут устранены, в связи с чем детекция глубоких фейков станет чрезвычайно сложной задачей. В ближайшие годы будет расти число приложений, позволяющих обычному человеку воспользоваться данной технологией, и вырастет осведомленность населения о ней. Результатом этого процесса будет нарастание волны фальшивого, но очень реалистичного фото-, аудио- и видеоконтента, готового для применения в деструктивных целях. Глубокие фейки станут привычным элементом цифровой среды, такой же, как технологии редактирования фотографий в настоящий момент. Однако для адаптации общественного сознания к данной инновации потребуется несколько лет, в период которых манипуляции с использованием фейковых изображений будут весьма эффективными. Как сурово отметили Р. Чесни и Д. Цитрон, «демократическим обществам придется принять неприятную правду: для того, чтобы выстоять в условиях угрозы глубоких фейков, они должны научиться жить в мире лжи» [18. С. 154-155]. Для противодействия вредоносному применению технологии глубоких фейков органам безопасности, правоохранительным и иным органам государств-участников СНГ необходимо уже сейчас необходимо производить адаптацию традиционных инструментов противодействиям угрозам с учетом нового вызова. В первую очередь это касается пресс-служб и структур, отвечающих за информационное противоборство.
Источники и литература
комментарии - 4205
check credit report http://creditscoresetf.com/ free credit score karma <a href="http://creditscoresetf.com/ ">annual credit report com </a> max credit score credit report free http://checkcreditscorewhj.com/ annualcreditreport com <a href="http://checkcreditscorewhj.com/ ">how to get credit report </a> credit report companies credit report scores my credit score free <a href="http://creditscorechecknw.com/ ">what is considered a good credit score </a> karma credit score annual credit report free <a href=" http://creditscorewww.com/ ">equifax credit report free annual </a> how to get a free credit report fico credit score <a href=" http://checkcreditscorewhj.com/ ">how to increase credit score </a> freecreditreport credit score range http://creditreportsww.com/ what is a perfect credit score <a href="http://creditreportsww.com/ ">what is a great credit score </a> transunion credit report phone number get my credit score good credit score range <a href=" http://creditreportsps.com/ ">freeze credit report </a> free credit report gov [url=http://creditreportsps.com/ ]how to check my credit score [/url] credit score needed for mortgage http://creditscorewww.com/ credit score range <a href="http://creditscorewww.com/ ">checking credit score </a> credit score calculator free equifax credit report request <a href=" http://creditscoresetf.com/ ">free credit check </a> free annual credit report official site credit report scores check credit score for free <a href="http://checkcreditscorewhj.com/ ">what is a good credit score number </a> free annual credit report complaints credit reporting agency how to check credit score <a href="http://creditreportchk.com/ ">free annual credit report government official </a> credit monitoring credit check free http://creditreportbms.com/ experian free credit score <a href="http://creditreportbms.com/ ">annual credit report com </a> credit score simulator credit report free get free credit report <a href="http://creditscorechecknw.com/ ">credit history </a> credit check http://creditscorewww.com/ get a free credit report freecreditreport <a href="http://creditscorewww.com/ ">free credit score </a> transunion free credit report annual average credit score <a href=" http://creditscoresetf.com/ ">social credit score </a> how to raise your credit score fast freeze credit report <a href=" http://creditreportbms.com/ ">perfect credit score </a> free annual credit report com what is a good credit score http://creditscorechecknw.com/ what is a good credit score <a href="http://creditscorechecknw.com/ ">my credit report </a> my free annual credit report com annual credit report completely free government [url=http://creditscorewww.com/ ]free annual credit report free [/url] check your credit report <a href="http://creditscorewww.com/ ">annual credit report com </a> credit report my credit report <a href=" http://creditscoresetf.com/ ">how to improve your credit score </a> credit karma credit score free Мой комментарий
|
http://creditscorewww.com/ how to get a credit score [url=http://creditscorewww.com/ ]annualcreditreport com official website [/url] <a href="http://creditscorewww.com/ ">highest credit score </a>