«Привет, это я, срочно переведи деньги — попал в беду!» Если голос звучит знакомо, но ситуация подозрительная — остановитесь

«Привет, это я, срочно переведи деньги — попал в беду!» Если голос звучит знакомо, но ситуация подозрительная — остановитесь

Для того чтобы сделать deepfake-аудио с голосом родственника или видео с места событий, мошенники используют ИИ. Для этого достаточно нескольких секунд аудиозаписи — например, из сторис в соцсетях, сообщает РИА Новости со ссылкой на Центральный банк России.

Собрали для вас советы по защите:

Не доверяйте звонкам с незнакомых номеров. Перезванивайте сами, если сомневаетесь.

Не переводите деньги без проверки, особенно при срочных или подозрительных звонках.

Не выкладывайте видео и аудио с голосами близких в открытый доступ.

Будьте осторожны с видео: проверяйте мимику, жесты и движения губ.

Проверяйте информацию. Используйте обратный поиск по изображению для сравнения с другими фото из события.

Источник: Telegram-канал "Ставропольская телега"

Это интересно

Топ

Лента новостей