Мужчину обманула более чем на 100 миллионов долларов поддельная подруга, созданная искусственным интеллектом

Житель Шанхая потерял более 27 000 долларов (примерно 111 миллионов колумбийских песо) после того, как его обманом заставили вступить в виртуальные отношения с предполагаемым партнером, созданным с помощью искусственного интеллекта, сообщают китайские государственные СМИ.
В мошенничестве использовались поддельные изображения и видео По данным общественной телекомпании CCTV, мошенники использовали инструменты генеративного искусственного интеллекта для создания реалистичных видеороликов и фотографий несуществующей женщины.
Убежденный в подлинности их отношений, мужчина осуществил переводы на общую сумму около 200 000 юаней (около 27 580 долларов или 113 миллионов колумбийских песо) на счет, который, как он считал, принадлежал его партнерше.
Мошенники использовали этот сфальсифицированный контент, чтобы убедить его внести деньги на финансирование бизнес-проекта и покрытие медицинских расходов члена семьи. Чтобы подкрепить свою версию, они подделали медицинские документы и поддельное удостоверение личности.
Ссылаясь на расследование властей, CCTV заявило, что операция была осуществлена «группой мошенников, которые отправляли видео и фотографии, созданные с помощью искусственного интеллекта или путем объединения нескольких изображений».

Мужчина перевел более 100 миллионов долларов фиктивной девушке в Шанхае, созданной искусственным интеллектом Фото: iStock
Государственные СМИ также подчеркнули, что жертва «никогда не встречалась» с женщиной, с которой контактировала, лично. На видео, опубликованном CCTV, показаны изображения женщины в разных ситуациях, например, держащей палитру красок и идущей по городской улице.
Инструменты искусственного интеллекта, способные генерировать высокореалистичный визуальный и текстовый контент, все чаще используются в мошеннических схемах.
Ранее в этом месяце технологическая компания Meta предупредила пользователей о рисках онлайн-знакомств , заявив, что мошенничество с использованием искусственного интеллекта набирает обороты.

Мета предупредила об участившихся случаях любовного мошенничества с использованием искусственного интеллекта в интернете. Фото: iStock
Meta предупредила пользователей о росте числа случаев мошенничества в сфере интернет-романов, когда преступники создают поддельные личности, чтобы обмануть людей, ищущих партнера.
Эти тактики включают использование генеративного искусственного интеллекта для придания мистификациям большей убедительности.
Искусственный интеллект на службе любовного мошенничества «Это новый инструмент в арсенале мошенников», — заявил Дэвид Агранович, директор Meta по глобальной политике противодействия угрозам. По его словам, лица, ответственные за эти мошенничества, постоянно меняют свои стратегии, поэтому платформам необходимо обновлять свои методы обнаружения.
Такие метаприложения, как Instagram и WhatsApp, используют системы, которые выявляют подозрительное поведение, а не сосредотачиваются исключительно на изображениях , что позволяет им обнаруживать мошенническую деятельность, несмотря на уловки ИИ. «Это делает наши методы обнаружения и применения более устойчивыми к генеративному ИИ», — сказал Агранович. В качестве примера он привел недавно прекращенную операцию, которая зародилась в Камбодже и была нацелена на людей, говоривших на китайском и японском языках.
Исследователи OpenAI обнаружили, что мошенническая схема использовала инструменты компании из Сан-Франциско, занимающейся искусственным интеллектом, для создания и перевода контента, сообщает Meta.

Компания Meta удалила 408 000 аккаунтов, использовавшихся для мошенничества с целью знакомств в социальных сетях. Фото: iStock
По словам Рэйчел Тобак, генерального директора SocialProof Security, генеративный искусственный интеллект существует уже больше года, но в последние месяцы его использование мошенниками возросло. «Они также могут использовать поддельных ботов , которые позволяют вам создать персонажа или совершать телефонные звонки с помощью голосового клона без необходимости вмешательства человека», — предупредил Тобак. Он добавил: «Они называют их агентами, но они не используются для работы по обслуживанию клиентов. Их используют для мошенничества автоматизированным способом».
С приближением Дня святого Валентина, 14 февраля , и наступлением зимы в Северном полушарии мошенники видят возможность эмоционально манипулировать своими жертвами. «Мы определенно наблюдаем наплыв мошенников, пользующихся одиночеством людей в разгар зимы», — сказал Тобак.
Основная цель таких мошенничеств — получить деньги , войдя в доверие к жертве, а затем попросить ее о финансовой помощи или личной информации для доступа к банковским счетам . «Вежливая паранойя имеет большое значение, как и проверка того, что люди являются теми, за кого себя выдают», — сказал Тобак.
Мошеннические операции осуществляются на нескольких платформах, и Meta обнаруживает лишь часть из них. В 2023 году компания удалила более 408 000 аккаунтов в странах Западной Африки, которые использовались для выдачи себя за военнослужащих или бизнесменов и привлечения жертв в Австралии, Великобритании, Европе и США.
В рамках своих усилий по борьбе с этим мошенничеством компания Meta тестирует систему распознавания лиц для выявления подозрительных профилей, о которых сообщают пользователи или которые обнаруживаются ее инструментами безопасности.
Бизнесмен стал жертвой мошенничества после покупки автомобиля онлайн | Погода Больше новостей в EL TIEMPO *Этот контент был переписан с помощью искусственного интеллекта на основе информации AFP и проверен журналистом и редактором.
eltiempo