Общество
Эксперты объяснили, как распознать дипфейки мошенников с родными и знакомыми
Мошенники стали чаще применять технологии реалистичного создания изображений с помощью искусственного интеллекта - так называемые дипфейки, предупредил Банк России. Чтобы создать дипфейк, злоумышленники используют фото, видео и записи голоса, которые чаще всего получают через взлом аккаунтов россиян в социальных сетях или мессенджерах.
"Сгенерированный образ человека рассылают его друзьям или родным через мессенджеры или социальные сети. В коротком фальшивом видеоролике виртуальный клон реального человека рассказывает якобы о своей проблеме (болезнь, ДТП, увольнение) и просит перевести деньги на определенный счет. В некоторых случаях мошенники создают дипфейки работодателей, сотрудников государственных органов или известных личностей из той сферы деятельности, в которой трудится их потенциальная жертва", - сообщили в ЦБ.
Чтобы защитить себя от подобных схем, не нужно спешить переводить деньги, рекомендует Центробанк. В ответ на просьбу знакомого о финансовой помощи лучше перезвонить ему и уточнить обстоятельства. Писать текстовые сообщения не стоит - иногда для рассылки своих сообщений злоумышленники создают поддельные страницы с именем и фото человека.
"Обязательно позвоните тому, от чьего лица просят деньги, и перепроверьте информацию. Если возможности позвонить нет, то задайте в сообщении личный вопрос, ответ на который знает только ваш знакомый. Проверьте видеосообщение на предмет монотонной речи собеседника, неестественной мимики и дефектов звука - наиболее заметных признаков дипфейка", - посоветовали в ЦБ.
Неспециалисты действительно могут отличить поддельное изображение от настоящего даже без применения специальных технических средств, если будут внимательны, говорят эксперты.
"Можно постараться рассмотреть, как выстраивается картинка по краям лица: меняется ли она, есть ли на записи какие-то сдвиги, блики, неестественные перепады контраста и яркости. Еще один интересный способ "вычислить" дипфейк - обратить внимание на блики на глазах и зубы. В большинстве случаев у людей во время разговора зубы видны, а на дипфейках - далеко не всегда. Такие подсказки сложно заметить, если качество записи плохое, в том числе из-за этого дипфейк-видео часто публикуются в искусственно заниженном разрешении", - объяснил директор лаборатории FusionBrain научно-исследовательского Института искусственного интеллекта AIRI Андрей Кузнецов.
Заметные невооруженным взглядом огрехи изображения будут исчезать по мере улучшения технологий, предупреждает генеральный директор Smart Engines, доктор технических наук Владимир Арлазаров.
"Сейчас дипфейк можно вычислить по таким признакам, как чрезмерно плавные движения, дрожание и прочие аномалии. Однако есть опасения, что по мере совершенствования технологий такие признаки будут постепенно исчезать. Уже сейчас, если происходит подмена только лица, то человек без глубокого анализа светотени и других особенностей с большим трудом сможет этот дипфейк обнаружить и распознать", - отметил эксперт.
Аудио злоумышленники научились подделывать настолько хорошо, что отличить записи по техническим деталям неподготовленные люди не могут, сходятся во мнении Андрей Кузнецов и Владимир Арлазаров. Получив аудиосообщение с просьбой перечислить деньги, стоит обязательно вступить в диалог, чтобы проверить отправителя. Для этого следует задавать вопросы, ответы на которые знает только этот человек. Еще лучше постараться выйти с ним на прямую связь, например, обычным звонком.
Правда даже общение по видеосвязи в режиме реального времени больше не может служить 100% гарантией защиты от подделки. "Существуют технологии, которые позволяют генерировать видеодипфейки в реальном времени. Однако для подключения такой технологии к видеоконференцсвязи, мошенникам все равно нужно предварительно найти ролик с лицом человека, которым они хотят представиться. С помощью такого ролика создаются "маски", которые накладывают на фигуру в кадре", - рассказал Андрей Кузнецов.
Наглядно пример работы такой технологии был продемонстрирован на всю Россию в декабре 2023 года, когда студент СПбГУ записал видеообращение президенту Владимиру Путину, используя изображение и голос самого главы государства. При этом дипфейк оказался поразительно реалистичным. Это стало возможно, в том числе, благодаря большому числу загруженных в интернет видеозаписей с Путиным.
Чем больше своих фотографий, видео- и аудиозаписей человек загрузит в социальные сети и другие общедоступные интернет-ресурсы, тем легче злоумышленникам будет создать реалистичный дипфейк. "Есть огромный класс программ автопарсинга, которые могут скачивать изображения из соцсетей. Используя такие базы данных, можно создать нейросеть, которая по фотографиям человека сможет воспроизвести его внешний вид с очень высокой детализацией", - подтверждает Владимир Арлазаров.
Защититься от этого можно либо путем отказа от публичной активности, либо повысив бдительность. Надеяться на чисто технические средства защиты пока, к сожалению, не приходится, потому что алгоритмы распознавания дипфейков пока еще не превратились в "коробочные" решения для рядовых пользователей.
"Чем больше данных о человеке есть в свободном доступе - тем легче его "сымитировать". Если профессия обязывает регулярно появляется в публичном поле, то главная надежда - это хорошие способы распознавания и правильная законодательная база. Например, в Евросоюзе любое изображение, созданное с использованием искусственного интеллекта, должно быть соответственным образом помечено", - добавил Арлазаров.
rg.ru
Фото istock 2024-08-16 04:58:12 Всего просмотров: 46 Поделиться:
Ссылки по ключевым словам:
2024-11-14 10:34:35 - Эксперты назвали пять самых высокооплачиваемых профессий
2024-11-05 12:25:33 - Откройте для себя «Бриллианты Якутии» - международный конкурс ледовых и снежных скульптур 2024-10-19 10:09:30 - Приветствие Главы Республики Саха (Якутия) Айсена Сергеевича Николаева участникам и гостям ХV Международных соревнований по вольной борьбе памяти Д.П. Коркина 2024-10-18 14:25:07 - Глава Якутии Айсен Николаев встретился с народным депутатом республики Виктором Федоровым 2024-10-11 08:18:16 - Глава города Якутска призывает к бдительности: предупреждение о мошенниках 2024-10-10 09:22:37 - В Москве состоялся круглый стол с экспертным сообществом «Устойчивое технологическое развитие агропромышленного комплекса Республики Саха (Якутия)», проведённый в рамках XXVI Российской агропромышленн 2024-10-01 08:57:08 - Поздравление Главы Республики Саха (Якутия) Айсена Сергеевича Николаева с Международным днем пожилых людей 2024-09-13 09:29:48 - Мурал украсит с. Пригородный под Якутском 2024-09-03 16:47:46 - Народные депутаты Якутии поздравили учащихся с Днем знаний 2024-08-16 04:58:12 - Эксперты объяснили, как распознать дипфейки мошенников с родными и знакомыми |