Мошенники придумали правдоподобный способ отъема денег у самарцев с помощью нейросетей
Что делать, чтобы не попасться на удочку аферистов
Фото: tvsamara.ru/Евгения Гаврилкова
Нейросети становятся «помощниками» мошенников. Искусственный интеллект может скопировать не только голос человека, но и его внешность с помощью дипфейк-технологии.
По словам IT-специалиста Артема Геллера, сегодня даже профессионалам сложно отличить, кто звонит и пишет абоненту – аферисты или представители банков. Проблему можно решить, если научить людей отличать дипфейк от оригинала. Но делать это нужно еще в детском возрасте, считает эксперт. Также есть технический момент, на который обращают не такое большое внимание.
«Потому что, конечно, подобные проблемы для банков не самые важные. И у них безопасность завязана на другие сектора и другие аспекты их работы. Они зарабатывают деньги, а не пекутся о тех, кто уже у них находится в пуле клиентов. И могли бы, конечно, их отделы безопасности создавать решения какие-то, которые помогли бы проактивно предупреждать людей о том, что происходит что-то не то», — приводит слова Артема Геллера сайт 5-tv.ru.
Артем Геллер напомнил, подделать голос человека сегодня не составляет труда. Для этого мошенникам нужно лишь небольшой фрагмент разговора, например, аудиосообщение, тем более, что сегодня люди сами выкладывают голосовые сообщения в свои социальные сети.
«Мошенничество довольно масштабное. Эти офисы, колл-центры бесконечно открываются, с новыми людьми, большим количеством. Это такой быстрый, простой заработок. Поэтому эта схема и не умирает», — заявил он.
Сложнее всего приходится пожилым людям, в то время как молодые способны отличить настоящий видеозвонок от дипфейк. На что же обращать внимание? Эксперты говорят, что мошенники часто маскируются под родственника жертвы и меняют голос, рассказывают о том, что попали в беду и просят помочь деньгами. Убедиться в правдивости можно, перезвонив знакомому или родному человеку.