Дипфейк (англ. deepfake от deep learning — «глубинное обучение», fake — «подделка») — наукоемкая методика синтеза изображения или голоса, основанная на искусственном интеллекте (ИИ). Есть аудио- (голосовой) дипфейк, есть видеодипфейк. Используется в науке, кинематографе, рекламе, в музейном, мультипликационном пространстве и иных сферах.

Почему до судов не доходят уже тысячи дел, когда телефонные мошенники, подделывая голоса родных, звонят жертвам и выманивают у них деньги, а то и принуждают брать кредиты? Еще вчера сценарий мошенничества был голосовым: «Мама, я сбил человека, нужно 5 тыс. евро». Сегодня технологии нейросети изощреннее. Есть случаи, когда с помощью видеодипфейков завистники пытались уволить с работы конкурента. Или бывший муж подставил лицо бывшей жены в провокационный ролик и вымогал у нее деньги. Дипфейки эволюционировали настолько, что стать их «героем» проще, чем кажется.

Вот несколько способов защиты от цифрового шантажа:

 

  • Первое, что рекомендуют эксперты, — нигде не оставлять свои персональные данные, особенно в соцсетях. Ведь чем меньше материалов, тем сложнее создать дипфейк. А цифровая подделка низкого качества сразу бросится в глаза. По данным «Лаборатории Касперского», самыми уязвимыми в дипфейках остаются глаза и зубы. Бликов в глазах или нет, или они тусклые. А зубы или плохо прорисованы, или выглядят как белая пустота.
  • Второй совет — не паниковать. Паникер поддается на провокацию и начинает оправдываться в чатах, форумах и соцсетях в том, чего он не совершал. Но поздно: хайп, сотворенный и своими руками, оборачивается вирусным распространением дипфейка.
  •  Третий совет комплексный. Сначала надо заняться собственной цифровой гигиеной — собрать все доступные доказательства (фото, видео, документы, показания свидетелей) того, что на видео изображен кто-то другой. Потом обращаться в службу поддержки платформы, разместившей дипфейк, параллельно на горячую линию НКО, которые помогают со сбором доказательств, например, в Центр безопасного интернета, «Лабораторию Касперского» или РОЦИТ. Потом — с иском в суд. При этом администрация ресурсов при посредничестве НКО удалит ролики и заблокирует аккаунты пользователей, с которых они были опубликованы. Юристы помогут с составлением иска о защите чести и достоинства.

Создание дипфейка, само по себе, не является незаконным деянием. Эта технология успешно служит науке и культуре. Другое дело, если плагиат, шантаж или вымогательство подпадают под уголовные преступления, тогда стоит сразу обращаться в полицию. Или, например, если частные фото или видео оказались в Сети без персонального согласия и эти материалы ранее не были опубликованы, это считается нарушением неприкосновенности частной жизни, что преследуется законом.

Думаю, общество все же придет к дипфейковым ограничениям, — считает Урван Парфентьев, координатор Центра безопасного Интернета в России, ведущий аналитик РОЦИТ — Другое дело, что они не будут работать односторонне — только через законодательство. Все же в эпоху цифры без информационной грамотности и гигиены не обойтись. Все данные надо проверять, личными данными не сорить, а инструментами правовой цифровой защиты — уметь пользоваться.

Как пример, эксперты приводят долгожданного помощника — разработанную в России нейросеть «Товарищ майор». Она умеет исследовать сообщества в мессенджере и определять администраторов, владельцев пабликов, включая нелегалов и создателей самопальных дипфейков. Но мало того, что она пока не внедрена в практику и проходит тестирование, так ее еще надо осилить пользователю. Уметь пользоваться нейросетью «Товарищ майор» —  это примерно то же самое, что уметь пользоваться законом. Так, в российском праве уже есть нормы преследования создателей дипфейков — статья 159 УК («Мошенничество») и статья 152 ГК («Защита чести, достоинства и деловой репутации»). К ним примыкает закон о защите персональных данных. Вот только судебной практики нет.

Размещено в рамках информационного сотрудничества «Шахтинских известий» с «Российской газетой»