Противодействовать дипфейкам невозможно
Автор новости / ньюсмейкер редакция «Сегмент.ру» (segment.ru)
По мнению экспертов из «Солар»

Представитель группы компаний отметил, что мошенникам достаточно дорого обходятся такие атаки и их сложно автоматизировать.
Дипфейк — это высококачественная подделка на фото, видео и аудио внешности и голосов людей, синтезированных с помощью искусственного интеллекта.
Тренд на атаки через дипфейки, которые не прекращаются в Telegram и других ресурсах, не закончится быстро, сообщил представитель группы компаний «Солар» Владимир Дрюков. И предупредил, что сейчас дипфейкам нет разумного противодействия.
Но в то же время мошенникам достаточно дорого обходятся такие атаки и их сложно автоматизировать, считает он. Впрочем, атаки продолжатся «в вялотекущем режиме» и с фокусом на известных и статусных людей, добавил эксперт.
Говоря об автоматизации, Дрюков привел в пример голосовую имитацию. По его словам, дипфейк удастся, только если хакер получит образец голоса жертвы. Поэтому массовый бум начнётся, если преступники доберутся до, к примеру, систем домофонов и смогут массово собирать голосовую информацию.
Новости
Все новости ›Фото
Все альбомы ›Видеогалерея
Все альбомы ›ErichKrause на выставке «Мир детства — 2024»
Комментарии (0)
Правила ›