Законодательство
За использование искусственного интеллекта в противоправных целях предложили сажать в тюрьму
Использование поддельных, сгенерированных с помощью искусственного интеллекта (ИИ) голоса и изображения человека при совершении преступления будет считаться отягчающим обстоятельством. А за мошенничество с использованием дипфейка можно угодить за решетку. Такие нормы содержит внесенный в Госдуму 16 сентября законопроект. Распознавать дипфейки и опровергать их смогут как сами люди, так и СМИ и соцсети, а искать создателей подделок должна полиция, рассказал «Парламентской газете» соавтор инициативы, председатель Комиссии Совета Федерации по информационной политике и взаимодействию со СМИ Алексей Пушков.
- Алексей Константинович, зачем потребовался отдельный закон о дипфейках?
- Значительная часть нашей жизни сегодня проходит в социальных сетях, где люди не только общаются, но обмениваются информацией. Если раньше все информационное пространство сводилось к радио, печатной прессе и телевидению, то теперь появилось огромное новое измерение.
Соцсети становятся объектом повышенного внимания не только специалистов по информации, но и специалистов по разным формам мошенничества и дезинформации.
Сейчас это усугубляется тем, что у них есть возможность использовать искусственный интеллект для проведения незаконных операций. Оператор call-центра может сделать в день 300-500 звонков, отрабатывая свою схему, а ИИ — от 50 до 100 тысяч. При таком охвате кратно увеличивается количество жертв мошенников.
Технологии подделки голоса и изображения сегодня — уже реальность. И эта реальность несет угрозу распространения ложной информации, например в виде создание событий, которых не было. Мошенники звонят взрослым людям и «говорят» голосом их детей, просят о помощи, и все это звучит очень реально. Создаются и видеоизображения, когда на экране смартфона или компьютера вы видите человека, который вам хорошо знаком, но на самом деле это не он, хотя мимика, жесты, голос — точь-в-точь. В связи с этим, на наш взгляд, требуется законодательное регулирование этого качественно нового явления.
- Какое определение будет дано дипфейкам и какая ответственность предусмотрена за их распространение?
- Речь в законопроекте идет о распространении информации и совершении преступлений с использованием изображения или голоса, в том числе фальсифицированных или искусственно созданных, а равно и с использованием биометрических данных. Наказание предусмотрено достаточно серьезное — до шести лет лишения свободы за мошенничество. Документ предполагает включение в ряд статей Уголовного кодекса — о клевете, мошенничестве, вымогательстве и других — дополнительного квалифицирующего признака для тех, кто совершает преступление с использованием дипфейков.
Что касается оценки действия, совершенного с использованием дипфейков, то в каждом случае этим будут заниматься следствие и суд. Мы видим, как сегодня в интернете распространяются, например, видео, имитирующие поведение Дональда Трампа при аресте. Поддельное видео, цель которого — толлинг Трампа накануне выборов. Это уже небезобидно, но от такого рода подделок до подделок с откровенно злым умыслом — один шаг. Дипфейки могут покушаться на достоинство человека, его деловую репутацию, поэтому у людей должна быть законодательная защита, на что и направлен наш законопроект.
- Существуют ли в России технологии, способные распознавать дипфейк?
- Такие разработки есть, но многое зависит от бдительности граждан. С этим мы столкнулись при разработке законопроекта о треш-стримах, когда встал вопрос, как понять, что мы имеем дело именно с таким контентном. Сигналы приходили от пользователей, они указывали на садистские и другие трансляции омерзительного содержания. С дипфейками также должны приходить заявления от граждан, которые увидели себя или знакомого им человека, который никогда не говорил и не делал того, о чем он вещает на экране или по телефону. Если речь о рабочих вопросах, нужно сигнализировать начальству. Если дело совсем серьезное, то сообщать правоохранительным органам. При этом сам человек, образ которого использовали, должен дать публичное опровержение информации, которую сообщил дипфейк.
- Не затормозится ли развитие технологий, если будет принят закон об ответственности за их использование?
- Технологию запретить невозможно. Нельзя запретить технологию создания нового вида оружия, но можно запретить или поставить под контроль его применение. Внося законопроект о дипфейках, мы не ставим задачу влиять на разработку технологий ИИ — они должны развиваться и идти вперед. А вот применение ИИ в противоправных целях — это уже нарушение закона.
Я не считаю, что дипфейки могут служить каким-то полезным целям. Их создание должно быть объявлено вне закона, как некоторые виды оружия, и не применяться.
Алексей Пушков. Фото: Пресс-служба Совета Федерации
pnp.ru
Фото: freepik.com 2024-09-16 18:42:36 Всего просмотров: 52 Поделиться:
Ссылки по ключевым словам:
2024-09-16 18:42:36 - За использование искусственного интеллекта в противоправных целях предложили сажать в тюрьму 2024-08-12 15:12:08 - В школах России с 1 сентября запретят использование смартфонов во время уроков 2024-06-27 23:12:03 - Жителей Якутска предупреждают о запрете использования беспилотных летательных аппаратов и воздушных судов малой авиации
2024-05-31 02:45:17 - Ил Тумэн Якутии предложил расширить перечень сельских территорий - РГ 2024-05-29 04:43:48 - Новая шкала НДФЛ и вычет для семей с детьми: Минфин предложил ввести налоговые поправки 2024-03-13 17:27:37 - На территории Якутии установлен запрет на использование беспилотных воздушных судов 2024-02-05 02:09:27 - В Госдуме предложили официально признать "сельский туризм" 2024-01-08 11:09:30 - Врачей предложили застраховать от риска причинения вреда здоровью пациента
2023-11-10 07:24:01 - В Якутии планируют открыть лабораторию искусственного интеллекта 2023-10-03 05:55:26 - В Госдуме предложили узаконить сокращение рабочего времени в экстремальных погодных условиях |