Искусственный интеллект помогает мошенникам – они «говорят» голосами родственников потерпевших.
В полиции предупреждают, что злоумышленники научились использовать нейросети для совершения преступлений.
Уже знакомая многим схема под условным названием «Ваш родственник попал в беду» вышла на новый уровень. Преступники с помощью новейших технологий научились разговаривать голосом вашего родственника или знакомого.
В специальные программы загружают аудиофайлы с голосом. И чем больше – тем точнее удастся изменить голос злоумышленника. Эксперты говорят, что менять его в онлайн-формате практически невозможно, то есть мошенник не сможет поддерживать с вами диалог. Скорее всего, это будет несколько предварительно записанных и отредактированных фраз схожего содержания. Например, «нет времени объяснять, переведи деньги» или «мне очень страшно, помоги».
Всего в Алтайском крае с начала 2024 года уже зафиксировали свыше 350 случаев дистанционного мошенничества, в том числе по телефону. Но ситуаций, когда с пострадавшим разговаривали якобы его близкие, ещё не возникало.
Людмила Берсенёва, сотрудник пресс-сужбы ГУ МВД по Алтайскому краю рассказала, что злоумышленники прозванивают телефоны, используют голос из роликов, выложенных в социальные сети в открытый доступ, генерируют голоса близких людей жертвы, заставляют поверить в критическую ситуацию и отдать свои деньги. Несмотря на это, получив подобный звонок, сотрудники полиции рекомендуют вам положить трубку и самостоятельно перезвонить близкому человеку. Это позволит понять, что против вас используют искусственный интеллект и не стать жертвой мошенников.
9,834 views
12
0
5 days ago 00:14:18 1
Дональд Трамп выделит $500 миллиардов на ИИ-проект Stargate
5 days ago 00:33:05 2
За что в Литве разозлились на офис Тихановской и белорусскую оппозицию? / Новости TV3 Plus