Мошенники придумали правдоподобный способ отъема денег у самарцев с помощью нейросетей

Что делать, чтобы не попасться на удочку аферистов

2736

Фото: tvsamara.ru/Евгения Гаврилкова

Нейросети становятся «помощниками» мошенников. Искусственный интеллект может скопировать не только голос человека, но и его внешность с помощью дипфейк-технологии.

По словам IT-специалиста Артема Геллера, сегодня даже профессионалам сложно отличить, кто звонит и пишет абоненту – аферисты или представители банков. Проблему можно решить, если научить людей отличать дипфейк от оригинала. Но делать это нужно еще в детском возрасте, считает эксперт. Также есть технический момент, на который обращают не такое большое внимание.

«Потому что, конечно, подобные проблемы для банков не самые важные. И у них безопасность завязана на другие сектора и другие аспекты их работы. Они зарабатывают деньги, а не пекутся о тех, кто уже у них находится в пуле клиентов. И могли бы, конечно, их отделы безопасности создавать решения какие-то, которые помогли бы проактивно предупреждать людей о том, что происходит что-то не то», — приводит слова Артема Геллера сайт 5-tv.ru.

Артем Геллер напомнил, подделать голос человека сегодня не составляет труда. Для этого мошенникам нужно лишь небольшой фрагмент разговора, например, аудиосообщение, тем более, что сегодня люди сами выкладывают голосовые сообщения в свои социальные сети.

«Мошенничество довольно масштабное. Эти офисы, колл-центры бесконечно открываются, с новыми людьми, большим количеством. Это такой быстрый, простой заработок. Поэтому эта схема и не умирает», — заявил он.

Сложнее всего приходится пожилым людям, в то время как молодые способны отличить настоящий видеозвонок от дипфейк. На что же обращать внимание? Эксперты говорят, что мошенники часто маскируются под родственника жертвы и меняют голос, рассказывают о том, что попали в беду и просят помочь деньгами. Убедиться в правдивости можно, перезвонив знакомому или родному человеку.