Что такое семейное мошенничество с клонированием голоса с помощью искусственного интеллекта? Как это обнаружить

3
компьютеры и технологии 21.webp.webp

Последнее обновление 11.03.2024 — Иван Катанаев

Уже поздно вечером. Ваши родители получают от вас полное паники голосовое сообщение, в котором говорится, что у вас проблемы, ваш кошелек украден, и вы застряли в глуши. Деньги должны быть переведены вам немедленно, чтобы вы могли вернуться домой.

Голос в сообщении звучит очень реалистично и безошибочно напоминает голос их ребенка, но это не так. Это голосовой клон искусственного интеллекта, и они стали объектом мошенничества, которое настолько же передовое, насколько и пугающе эффективное.

Как работает мошенничество с клонированием голоса с помощью искусственного интеллекта?

Клонирование голоса позволяет создавать невероятно реалистичные цифровые копии голоса человека. Этот метод, обычно называемый аудиодипфейком, создается с помощью инструментов клонирования голоса AI, таких как ElevenLabs (см. пример клонирования голоса AI ниже). В сочетании с генеративным искусственным интеллектом и синтезом голоса клонированный голос может воспроизводить эмоции, нюансы, интонацию и даже страх.

По теме:  8 онлайн-инструментов для создания человеческого голоса за кадром

И для справки, вот как на самом деле звучит Кристиан Коули, выступая в The Really Useful Podcast.

Чтобы создать клон голоса ИИ, требуется лишь небольшой образец голоса — часто всего минута или меньше. Образцы голосов часто берутся из общедоступных публикаций в социальных сетях, что делает видеоблогеров и влиятельных лиц особенно уязвимыми, поскольку качество звука в их сообщениях высокое и легкодоступное.

Как только мошенники клонируют образец голоса, они используют преобразование текста в речь или даже преобразование речи в речь в реальном времени для создания поддельных вызовов и голосовых сообщений.

Получив доступ к социальным сетям жертвы и собрав ее личные данные, мошенник создает правдоподобный сценарий. Это может быть госпитализация, арест, кража, похищение людей – все, что вызывает страх. Затем клонированный голос используется, чтобы манипулировать членом семьи, заставляя его поверить в то, что у любимого человека серьезные проблемы.

Реализм голоса и эмоций в сочетании с шоком и срочностью запроса могут преодолеть скептицизм, что приведет к поспешным решениям о переводе денег или предоставлении конфиденциальной информации.

Почему мошенничество с клонированием голоса с помощью искусственного интеллекта настолько эффективно

Как и большинство мошенничеств, нацеленных на семью и друзей, мошенничество с клонированием голоса с помощью искусственного интеллекта эффективно, поскольку оно использует личные связи. Паника по поводу сигнала бедствия от близкого человека может быстро затуманить рассудок и привести к поспешным решениям. Это та же тактика, которая используется в мошенничестве с quid pro, но эффект усугубляется, если вы слышите голос близкого вам человека.

Члены семей тех, кто активно присутствует в социальных сетях, или тех, кто путешествует, подвергаются особому риску, поскольку их ситуации создают правдоподобный контекст для сфабрикованного рассказа мошенника. Мошенники часто заранее собирают и используют личные данные своих жертв из их общедоступных аккаунтов в социальных сетях, что делает истории еще более убедительными.

Ключевые признаки мошенничества с клонированием голоса с помощью искусственного интеллекта

Несмотря на свою изощренность, мошенничество с клонированием голоса с помощью искусственного интеллекта может выявить определенные тревожные сигналы:

  • Срочность: Мошенник убедит вас, что произойдет что-то ужасное, если не принять меры немедленно.
  • Факты: Мошенники не всегда знают всю историю ваших отношений с жертвой, поэтому обращайте внимание на несоответствия.
  • Необычные запросы. Распространенной тактикой являются запросы на перевод денег на зарубежные банковские счета или оплату на криптовалютный кошелек.

Учитывать эти факторы при ужасном сценарии сложно, но это может уберечь вас от мошенничества.

Что делать, если вы подозреваете мошенничество с клонированием голоса с помощью искусственного интеллекта

Если вы получили звонок или голосовое сообщение от своих близких, попавших в беду, сохраняйте спокойствие. Мошенники рассчитывают на то, что вы запаникуете и станете эмоциональными, поскольку это увеличивает вашу уязвимость к их тактике.

Если вам позвонили

Если вы хотя бы на секунду подозреваете, что звонок может быть мошенничеством с клонированием голоса, немедленно повесьте трубку. Не разглашайте никакой информации и не связывайтесь с мошенниками. Вместо этого перезвоните любимому человеку по известному номеру, чтобы подтвердить подлинность сигнала бедствия.

Дальнейшее общение с мошенниками может привести к риску, что ваш голос также будет записан и клонирован.

Если вы получили голосовое сообщение

Если мошенники оставили голосовое сообщение, немедленно сохраните аудио на телефоне или ноутбуке. Этот образец звука можно использовать в инструменте классификатора речи искусственного интеллекта, чтобы определить, является ли это человеческим голосом. Эти классификаторы речи ИИ работают так же, как детекторы письма ИИ. Просто введите аудиофайл, и классификатор отметит его как созданный человеком или искусственным интеллектом.

Отличным инструментом для проведения такой проверки является классификатор речи ElevenLabs. ElevenLabs используется на большинстве платформ клонирования искусственного интеллекта, поэтому это идеальный инструмент для определения того, был ли клонирован голос. Вот как вы можете использовать его для определения клонированного AI голоса:

  1. Перейдите к классификатору речи ElevenLabs.
  2. Загрузите образец голосового сообщения и нажмите «Определить синтезированную речь».

В приведенном ниже примере тревожное сообщение было записано человеком и загружено в классификатор. Вы можете видеть, что он помечен как имеющий 2% вероятность манипулирования.

В следующем примере то же тревожное сообщение было создано с помощью инструмента клонирования голоса искусственного интеллекта. Для человеческого уха голоса неразличимы. Однако инструмент отметил, что он с вероятностью 98% создан искусственным интеллектом.

Хотя вы не можете на 100% полагаться на этот классификатор, он может подтвердить ваши подозрения в использовании клонированного голоса. Вам также следует связаться с любимым человеком по известному номеру для подтверждения.

Профилактика — лучшая защита от мошенничества с клонированием голоса с помощью искусственного интеллекта

Иногда лучшая защита от высокотехнологичного мошенничества — это низкотехнологичное решение.

Установите автономный пароль, известный только близким, вашей семье и друзьям. В случае отчаянного звонка использование этого пароля может быть верным способом подтвердить личность звонящего.

Наконец, не допускать попадания вашей личной информации в социальные сети — это огромный шаг к тому, чтобы мошенники не смогли собрать достаточно информации для построения повествования. Помните: если вы не хотите, чтобы об этом узнали все, лучше не делиться этим в социальных сетях.