«Привет, это я, срочно переведи деньги — попал в беду!» Если голос звучит знакомо, но ситуация подозрительная — остановитесь
Для того чтобы сделать deepfake-аудио с голосом родственника или видео с места событий, мошенники используют ИИ. Для этого достаточно нескольких секунд аудиозаписи — например, из сторис в соцсетях, сообщает РИА Новости со ссылкой на Центральный банк России.
Собрали для вас советы по защите:
Не доверяйте звонкам с незнакомых номеров. Перезванивайте сами, если сомневаетесь.
Не переводите деньги без проверки, особенно при срочных или подозрительных звонках.
Не выкладывайте видео и аудио с голосами близких в открытый доступ.
Будьте осторожны с видео: проверяйте мимику, жесты и движения губ.
Проверяйте информацию. Используйте обратный поиск по изображению для сравнения с другими фото из события.