В эпоху удалённой работы, онлайн-конференций и цифрового банкинга человечество сталкивается с новой угрозой — подделкой личности через технологии deepfake. Ещё недавно казавшиеся фантастикой, они сегодня становятся реальным инструментом в руках злоумышленников.
Отныне не только звонки из «службы безопасности банка» могут быть опасны — подделать можно даже «живое» лицо на экране.Фейковое лицо по ту сторону экрана
Как рассказали в интервью «Известиям» эксперты в области ИИ и кибербезопасности, участники видеосвязи всё чаще сталкиваются с подделками: псевдо-собеседник может быть не человеком, а виртуальной копией, сгенерированной алгоритмами. Дмитрий Крюков, руководитель отдела машинного обучения МТС Линк, подчёркивает: угроза растёт вместе с развитием технологий.
Технологии deepfake позволяют «вживлять» чужое лицо на видео, имитировать мимику и даже речь. Ранее подобные инструменты были доступны лишь специалистам, сегодня — они в открытом доступе, что многократно повышает риски мошенничества.
Банки на передовой: как не пустить фейк в систему
В связи с внедрением удалённой идентификации банковские учреждения всё чаще обращают внимание на технологии верификации личности по видеосвязи. Это удобно — клиенту не нужно выходить из дома, чтобы открыть счёт или получить услугу. Однако, по словам экспертов, именно здесь и кроется главная угроза — визуальная подделка личности.
Как поясняет Крюков, банки и другие финансовые организации внедряют дополнительные инструменты защиты: логирование действий, мониторинг киберугроз, шифрование данных по стандартам TLS, SRTP и AES. Но даже это не всегда спасает от хорошо сделанной фальшивки.
Как отличить фейкового собеседника: признаки и методы
К счастью, существуют определённые признаки, по которым можно заподозрить подделку. Среди них:
- Неестественные движения и мимика
- Задержки и несинхронность аудио и видео
- Странная речь, с паузами и повторениями
- «Шумы» и помехи при поворотах головы или активных движениях
- Общая «пластиковость» изображения
Также стоит насторожиться, если видео выглядит чересчур «гладким», как будто отретушированным — это может быть признаком применения генеративной нейросети.
Биометрия против дипфейков: кто победит?
Чтобы эффективно противостоять подделкам, разработчики усиливают системы биометрической идентификации. Уже существуют технологии, способные анализировать не только лицо, но и взгляд, микродвижения, поведение, силуэт, одежду и даже эмоциональные реакции.
Одно из перспективных направлений — автоматическое определение дипфейков с помощью искусственного интеллекта. Такие системы, по словам Крюкова, уже функционируют в ряде российских компаний. В перспективе — их интеграция с государственными сервисами и банковскими приложениями для комплексной верификации.
Цифровая бдительность — новая норма
Что же делать обычному пользователю? Прежде всего — сохранять цифровую бдительность. Если вы проходите видеоверификацию — постарайтесь использовать устройства с качественной камерой и стабильным соединением. Обращайте внимание на подозрительные признаки со стороны собеседника. А главное — не спешите доверять тому, кто находится «по ту сторону экрана».
В мире, где граница между реальным и виртуальным стремительно размывается, навык отличать настоящее от подделки становится не просто полезным — он может спасти деньги, репутацию, а иногда и жизнь.
Ранее на сайте «Пронедра» писали, что нейросети нужны – без умения работать с новыми технологиями на работу не возьмут
Свежие комментарии