В России пока нет закона, который регулировал бы использование дипфейков — видео или изображений, созданных с помощью искусственного интеллекта, где заменяются лица, голоса или действия. Зачастую эту технологию применяют для обмана и манипуляций. Юрист и руководитель международной юридической компании BNLegal Наталья Бердникова рассказала «Петербург.Эксперту», как можно защитить себя в ситуации с распространением дипфейков, которые могут навредить.
Юрист отметила, что в Госдуму уже внесен законопроект, который предусматривает наказание за соответствующее деяния. Однако пока прямого закона все еще нет.
«На данный момент в России прямого закона, касающегося дипфейков, нет. Однако за их использование могут привлечь по статьям о клевете, мошенничестве или распространении ложной информации. Новый законопроект создаст более четкую правовую основу для преследования тех, кто использует дипфейки с преступными намерениями», — поясняет Бердникова.
Если говорить о контроле за дипфейками, то в современном мире это становится возможным благодаря современным технологиям анализа контента. Так, например, такие материалы могут выявлять специализированные алгоритмы, а пользователи, которые обнаружили дипфейк — подавать жалобы. Кроме того, платформа, на которой обнаружен дипфейк, будет обязана оперативно удалять его.
«С развитием технологий возрастает необходимость в новых механизмах защиты общества. Закон о дипфейках — шаг к более безопасному цифровому пространству, где манипуляции будут пресекаться на корню», — заключила эксперт.