Активное распространение технологии искусственного интеллекта и, соответственно, нейросетей привело к расширению практики использования различных инструментариев для потенциальных мошеннических действий: достаточно лишь образца голоса и (или) биометрического слепка головы (фотографии) для конструирования виртуального образа человека.
Несколько примеров из практики. В 2018 году на YouTube-канале было опубликовано видео с Бараком Обамой, на котором экс-президент США достаточно жестко критиковал своего преемника Дональда Трампа. Как выяснили специалисты чуть позже, на самом деле Обама никогда не клеймил Трампа – текст произнес подражатель голоса Обманы Джордж Пил: его речь и движение губ «вклеили» в безобидное видео с бывшим президентом Соединенных Штатов.
В 2019 году у гендиректора британской энергетической компании мошенники выманили 220 тысяч евро, используя дипфейковую имитацию голоса: мужчине позвонил якобы руководитель головной структуры и предложил ему перевести деньги на определенный счет. Так как подмена была крайне натуралистичной, то о перепроверке поступившего звонка речи не шло… Потерпевший пришел в себя только тогда, когда звонивший «босс» в очередной раз попросил еще один транш.
В 2021 году в сети обнаружили два видеоролика с основателем платформы Dbrain Дмитрием Мацкевичем. «Секрет фирмы» указывает, что дипфейк Мацкевича призывал граждан вложиться в искусственный интеллект, обещая доход от 30% в месяц или 360% годовых. При этом, подчеркивает СМИ, в записях под видом официальной страницы компании фигурировал фейковый адрес.
В этом же году в сентябре журналисты нашли рекламное видео, на котором основатель Тинькофф банка Олег Тиньков обещал подарить каждому деньги: человек с лицом Тинькова предлагал вложить, например, 20 тысяч рублей, получить на счет для работы еще 30 тысяч, а если дело пойдет хорошо (при постоянной консультации с «экспертами компании») – за месяц получить до 70 тысяч рублей.
В сентябре уже этого года журналисты Forbes попытались взять интервью у известного российского бизнесмена, якобы имеющего заинтересованность в приобретении крупных предприятий. Однако Skype-интервью показалось корреспондентам некоторых СМИ достаточно странным: они посчитали, что интервьюируемый является дипфейком низкого качества (во время общения у контрагента фиксировались движение только губ и зрачков, все остальные части лица оставались без изменений.
В чем причина активного распространения дипфейков? Основное – многочисленность разнообразных приложений в маркетплейсах Google и Apple, способных конструировать подобные поделки даже в домашних условиях.
Как разоблачить дипфейк? Эксперты рекомендуют действовать по следующему правилу: если в предлагаемом видео фиксируется пикселизация, дефекты, изображение смазано или происходит дублирование отдельных элементов, у выступающего видна неестественность мимики (при движении бровей, губ, моргании и так далее), а также есть отличия от оригинала в телосложении, прическе и голосе, то это уже повод для зарождения сомнений в подлинности и объективности предлагаемых материалов.
Как еще защититься от дипфейков? Не верить тому, что предлагается. Всегда следует использовать правила элементарной логики: никто из бизнесменов во вменяемом состоянии не будет предоставлять кому-то со стороны выгоды и преференции – бесплатные курсы, дополнительный доход без трудовых вложений и так далее.
А если вам звонят от имени знакомого? Если звонит знакомый по телефонной связи или через Skype с просьбой передать ему деньги или выполнить какую-то работу, то не стесняйтесь обратиться к нему лично и оффлайн для подтверждения производимой комбинации (помните, что номер можно подменить).
И чем все это закончится? Вполне вероятно, что с развитием технологий возможности конструирования дипфейков возрастут еще больше: и тогда, например, для противодействия мошенникам потребуется уже автоматизированное программное обеспечение, «включающееся» при онлайн-звонке.