Ужасная сила: как мошенники употребляют нейросети для обмана юзеров
Искусственный ум с каждым годом развивается все стремительнее и сейчас задействуется в почти всех сферах жизни и экономики. Почти все употребляют нейросети для работы, обучения зарубежным языкам, генерации текста и изображений, а аферисты – в киберпреступлениях. Сейчас жульнические деяния при помощи AI приняли таковой оборот, что так либо по другому задели всякого второго.
В статье разберем, как конкретно мошенники употребляют нейросети для обмана юзеров и каким образом можно обезопасить свои данные в сети.
Как поменялось мошенничество при помощи нейросетей
Мошенники часто выдумывают новейшие схемы для обмана юзеров. Естественно, почти все приемы в ходу до сего времени – людям все еще звонят из «службы сохранности Сбербанка» и дают «сохранить» все средства на типо неопасном счете. В 2024 году правонарушители активировались с новейшей силой. В особенности массовыми стали последующие тенденции:
- взлом аккаунтов в Telegram. Аферисты воруют учетные записи различными методами – в качестве приманок употребляют голосования в конкурсах, бесплатные подписки, валютные призы.
Всераспространенной стала схема с подарочными подписками Telegram Premium – юзеру приходит сообщение о том, что кто-то из его перечня контактов подарил ему подписку. Жертва надавливает на клавишу, получает код активации. Опосля введения кода злоумышленники получают доступ к аккаунту. Все схемы с кражей учетных записей в Telegram соединяет воединыжды необходимость ввода собственного номера телефона и SMS-кода.
- внедрение чат-ботов. Если ранее мошенники сами общались с возможными жертвами, то на данный момент сиим все почаще занимаются чат-боты. Благодаря искусственному уму боты обучены генерировать и рассылать сообщения, вести переписку, говорить и даже флиртовать, и юзеры далековато не сходу соображают, что имеют дело не с человеком.
Что дает жуликам внедрение нейросетей:
- увеличение реалистичности и уверительности обмана. Сейчас нейросети могут подделывать даже глас, потому жуликам сделалось проще вводить юзеров в заблуждение.
- повышение масштаба жульнических злодеяний в сети. Если обыденный злодей может сразу вести переписку с 2–3 вероятными жертвами, то бот – с тыщами.
- автоматизация старенькых схем и увеличение рентабельности. В главном аферисты употребляют прежние сценарии, нейросети посодействовали создать их наиболее массовыми, а означает, еще выгоднее.
Но запрограммированные боты могут просто найти себя, если собеседник отклоняется от данного сценария в переписке. Ниже разглядим главные жульнические схемы и поведаем, на что направить внимание, чтоб распознать обман.
Как мошенники употребляют нейросети: главные сценарии и приемы
- Подделка голоса, фото и видео
Дипфейк – это хоть какой медиаконтент, сделанный нейросетью на базе имеющегося видео, изображения либо звука. Стал массивным и достаточно небезопасным инвентарем в руках злоумышленников.
Нейросеть издавна умеет копировать стиль общения человека, проанализировав его переписки в мессенджере и посты в соцсетях, но мошенники пошли далее – в крайние годы при помощи ИИ они стали интенсивно подделывать голосовые сообщения. Аферисты получают доступ к аккаунту в Telegram, закачивают сохраненные аудиосообщения и на их базе синтезируют новейшие с необходимым контекстом. Это буквально дозволяет убедительнее просить средства – сходство фактически неотличимо.
С целью вымогательства средств возможная жертва может получить фейковое видео либо фото. Мошенники употребляют самые различные рычаги давления: к примеру, посылают видео от родственника, типо попавшего в неудачу, – для решения трудности срочно требуются средства. Либо контент интимного нрава, которым начинают шантажировать. Также это быть может запись воззвания президента либо губернатора, объявляющего о новейших выплатах, для получения которых необходимо пройти по ссылке либо заплатить налог.
В особенности всераспространены дипфейки с известными личностями, потому что фото и видео с ними есть в вольном доступе, и их нередко употребляют для обучения чат-ботов. Мошенники не только лишь посылают заблаговременно сделанные аудио- и видеозаписи – нейросеть может сгенерировать цифровую копию человека для звонка либо видеосвязи в настоящем времени.
На снимке экрана ниже – некто, весьма схожий на Ларису Равнину, разговаривает с представителями кредитных организаций по поводу займа в 50 млн под залог ее дома. Позднее выяснилось, что певицу сгенерировала нейросеть.
Неподготовленному человеку быть может трудно отличить сгенерированный нейросетью контент от настоящего, но для этого есть много причин.
Как распознать обман:
- Ненатуральный глас со странноватым темпом речи, который или звучит однообразно и практически без пауз, или произносит слова с задержкой и непривычной интонацией.
- Отличительная черта голосовых сообщений, сгенерированных нейросетью, – на фоне не слышно дыхания человека и остальных сторонних звуков.
- Очень верная речь без запинок, слов-паразитов, междометий, вздохов, хохота и т. д.
- Собеседник непонятно и уклончиво отвечает на вопросцы, продолжает вести одну линию разговора.
- На видео, сделанном с помощью искусственного ума, у персонажей может наблюдаться странноватая мимика, несовпадение движения губ с речью, различия в колерах кожи на лице.
- Нехорошее свойство видео и фото, собеседник повсевременно поправляет волосы, прикрывает лицо рукою, видео зависает.
2. Подделка документов
Правонарушители и ранее делали ненастоящие документы в фотошопе, но тогда это занимало больше времени. Искусственный ум же генерирует фото паспортов, удостоверений, всех выписок и приказов за пару минут. Опасность в том, что мошенники могут употреблять копии документов для дизайна микрозаймов либо доказательства иной банковской операции, регистрации в онлайн-казино, организации подставной компании, аутентификации в личном кабинете банка либо социальной сети.
Также мошенники подделывают официальные письма и приказы от организаций, предъявляя их как доказательство при требовании перевода средств.
Как распознать обман:
- Пристально разглядеть изображение, направить внимание на свойство фото, маленькие преломления, шрифт.
- Попросить создать фотографию документа с другого ракурса, приблизить страничку.
3. Распространение вредных ссылок
Древняя схема, которая в век нейросетей получила необычный размах. С помощью рассылки писем с вредоносными ссылками мошенники завлекают юзеров на фишинговые веб-сайты, взламывают аккаунты, получают секретные сведения и средства обманным методом. На данный момент чат-боты не только лишь рассылают такие сообщения лично юзерам, да и оставляют комменты со ссылками на фишинговые веб-сайты к пользующимся популярностью постам на различных площадках. Сценарии могут быть различными – аферисты находят (к огорчению, пока удачно) различные методы действия на людей:
- Просьбы проголосовать за участника конкурса, бросить подпись – ссылка будет вести на фишинговый веб-сайт, где юзера попросят авторизоваться через мессенджер. Опосля ввода кода доказательства правонарушитель получает доступ к аккаунту – никогда не делайте так.
- Предложения «активировать» бесплатную подписку, получить валютный приз либо иной подарок.
- Письма с поддельными документами в виде вложений либо ссылок.
- Заманчивые предложения о легкой, но выгодной работе, акции распродажи продуктов по супернизким ценам и т. д.
Задачка искусственного ума в том, чтоб составить убедительное письмо, которое побудит обыденного юзера, работника компании либо даже управляющего компании перейти по ссылке. Невзирая на то, что нейросети не различаются эмпатией, они больше развиваются в воссоздании портрета личности по анализу профиля из соц сетей либо данному подробному промпту.
Как распознать обман:
- Направьте внимание на то, соответствует ли сообщение контексту, от кого пришло письмо, задайте уточняющие вопросцы, игнорируя требование о срочности.
- Прикрепленные ссылки либо файлы указывают на то, что сообщение, быстрее всего, фишинговое.
- Пристально прочтите сообщение – отсутствие пробелов меж словами и ошибки, обычно, необходимы, чтоб обойти спам-фильтры.
4. Продажа несуществующих продуктов
Маркетплейсы крепко вошли в нашу жизнь, и сейчас люди отыскивают нужные вещи не только лишь конкретно на Wildberries и Ozon, да и делятся ссылками вместе, изучают выборки продуктов в различных обзорах и блогах. Сиим интенсивно пользуются мошенники, распространяя подобные объявления:
Аферисты делают объявления о продаже продуктов, которых в реальности не существует. Завлекают покупателя прибыльными ценами, добавляют цепляющие описания и фото, которые генерируют с помощью нейросетей. Ниже – настоящая история из телеграм-канала «Жулик звонит на телефон»:
Нередко такие объявления смотрятся полностью близко к реальности, и юзеры практически не колеблются в их подлинности. Фейковые карточки продуктов публикуют прямо на маркетплейсах либо на досках объявлений, но опосля получения заказа злоумышленники требуют покупателя связаться с торговцем в мессенджере, скидывают ссылку для оплаты через посторонние сервисы, а опосля поступления средств пропадают. Потому что продукт оплачен в обход площадки, жертва просто теряет средства.
Как распознать обман:
- Оцените реалистичность фото: изображение может иметь замыленные участки или быть противоестественно высококачественным.
- Приглядитесь к деталям: нейросеть может добавлять излишние элементы, создавать снимки в неправдоподобных ракурсах, допускать недостатки в описании продукта.
- Изучите отзывы – возможно, остальные юзеры уже сетовали, что в действительности получили совсем не то, что заказывали. Если объяснений нет, выищите торговца на остальных площадках и в поисковике. Если упоминания отсутствуют, брать у такового торговца лучше не стоит.
5. Создание фейковых новостей
С возникновением нейросетей в вебе сделалось еще более недостоверной инфы. Какие-то статьи с неверными сведениями распространяют по неопытности, подготовив материал при помощи искусственного ума и не сделав фактчекинг. А некие «анонсы» выпускают специально в веселительных целях, в процессе информационной войны либо с жульническим умыслом. Нейросети учят создавать анонсы и генерировать изображения на аналогичном контенте, который уже есть в сети.
Новость на примере ниже зрительно весьма похожа на реальную – есть отсылка к официальному лицу, на изображении логотип СМИ (Средства массовой информации, масс-медиа — периодические печатные издания, радио-, теле- и видеопрограммы) и даже указан сам телеграм-канал. Правда, ссылка на него ведет фишинговая.
Как распознать обман:
- Направьте внимание на первоисточник анонсы. Если его нет, выищите, что о этом инфоповоде пишут в знатных СМИ (Средства массовой информации, масс-медиа — периодические печатные издания, радио-, теле- и видеопрограммы), в соцсетях и на официальном веб-сайте какой-нибудь компании, ведомства либо известного человека. На примере выше доказательством инфы могла бы стать ссылка на сообщение в официальных соцсетях Татьяны Ким либо WB.
- Стоит насторожиться при упоминании несуществующих явлений, шокирующих результатах исследовательских работ, неожиданных конфигураций в законодательстве и т. д. Бот нередко грешит фактическими ошибками и смысловыми несостыковками.
6. Имитация сотрудника банка либо иной службы
Как и раньше всераспространены случаи, когда мошенники звонят либо пишут жертве под видом сотрудника банка, правоохранительных органов, представителя мобильного оператора либо иной службы. Или с человеком говорит бот, или аферисты употребляют нейросети для составления сообщений, подсказок фраз и выражений, которые можно услышать от работника определенной организации.
Цель правонарушителя – получить секретные данные, доступ к личному кабинету банковского приложения либо к учетной записи на Госуслугах.
Как распознать обман:
- Задавайте уточняющие вопросцы – имя сотрудника, адресок отделения, срок деяния контракта, дату крайнего воззвания.
- Обращайте внимание на несостыковки: Центробанк не работает с физлицами, представители мобильного оператора связи не звонят по мессенджеру, сотрудники правоохранительных органов предпочитают говорить лично, а не по телефону.
- Заканчивайте разговор, если у вас запрашивают данные паспорта либо карты – истинные сотрудники не могут этого созодать.
7. Обман через флирт в сети
Участились случаи, когда мошенники выдают себя за парня либо даму с веб-сайта знакомств, или пишут юзеру сходу в WhatsApp либо Telegram. Схема снова же не новенькая, но получившая с развитием искусственного ума 2-ое дыхание. При помощи ИИ жулик может сгенерировать фотографию измышленного человека, чтоб сделать профиль на веб-сайте онлайн-знакомств.
Некие нейросети помогают жуликам флиртовать – к примеру, LoveGPT может составить сообщения, которые посодействуют завязать разговор, и ответы на высказывания собеседника. Но потому что бот разговаривает по данному сценарию, юзер может стремительно осознать, что имеет дело с жуликом:
Цели могут быть различными: предложить вложиться в вкладывательный проект, скинуть ссылку на фишинговый веб-сайт с намерением получить средства либо личные данные.
Как распознать обман:
- Не пропускайте странности в разговоре, формальные ответы, очень экзальтированные отклики и фразы невпопад. Задайте вопросец вне контекста переписки – настоящий человек изумится, а бот продолжит прежнюю линию разговора.
- Просьбы перейти по ссылке либо выслать средства прямым текстом молвят о том, что вы имеете дело с жуликом.
Как защититься от жуликов в вебе
Применение нейросетей в жульнических схемах небезопасно тем, что дозволяет аферистам употреблять несколько причин идентификации – акк знакомого человека, его документы и даже глас либо лицо. Не надо становиться параноиком, но точно стоит принять некие меры сохранности и держать в уме несколько советов на критический вариант:
- Установите надежные пароли для всех мессенджеров и аккаунтов в соцсетях. Проверьте, подключена ли в Telegram двухфакторная аутентификация, а если нет, непременно установите ее. В этом случае жуликам будет нужно к тому же пароль от вашего аккаунта, который понимаете лишь вы.
- Не сообщайте никому паспортные данные, данные карты, коды из смс – эта информация строго секретна, и никто не может запрашивать ее.
- Не паникуйте и возьмите паузу. Аферисты постоянно давят на срочность, запугивают и не дают времени помыслить. Узнайте, как ситуация обстоит по сути – позвоните в банк, свяжитесь с близким человеком, которому типо угрожает опасность либо необходимы средства в долг, лишь не делайте этого в мессенджере.
- Мыслите критически. Инспектируйте информацию либо условия контракта, решайте суровые вопросцы лишь в отделении банка либо правоохранительных органов.
- Не запамятовывайте поговорку про бесплатный сыр. Инспектируйте информацию о конкурсе, в каком вы типо что-то выиграли, сведения о продавце, который дает дорогой продукт по бросовой стоимости и т. д.
- Не перебегайте в мессенджеры при покупке продуктов, не оплачивайте заказ по ссылкам на посторонние сервисы – неважно какая коммуникация и оплата (выдача денег по какому-нибудь обязательству) обязана проходить лишь снутри маркетплейса. Если вести переписку вне площадки, техподдержка не сумеет проверить подлинность сообщений. Обращайте внимание на адреса и домены всех веб-сайтов, где вводите данные для оплаты.
- Инспектируйте информацию, до этого чем перевести средства на благотворительность, вложить в вкладывательный проект и т. д. Убедитесь, что таковой фонд либо человек вправду есть, найдите их официальные странички и сверьте данные для перевода средств.
- Не перебегайте по ссылкам для голосования в конкурсах, активации подарочной подписки и с заманчивыми предложениями. Проверьте, кто для вас пишет – спросите то, что сможете знать лишь вы и ваш собеседник.
- Не соглашайтесь на условия жуликов. Если вас шантажируют, делайте снимки экрана переписки и обращайтесь в полицию.
- Не отмахивайтесь от подозрительных деталей. Подумайте, почему друг просит перевести средства на счет в малоизвестном банке, а не по собственному номеру телефона? Не покупайте продукт, если фото кажутся непонятными.
- Установите спам-защиту от ненужных звонков, это поможет отфильтровать вызовы с подозрительных номеров.
Как нейросети борются с мошенничеством в сети
Способности искусственного ума употребляют и для того, чтоб уменьшать количество жульнических действий в вебе. Разрабатываются и внедряются программки, которые помогают биться с аферистами.
Определители номера и остальные функции с ИИ
Операторы сотовой связи не 1-ый год изучают способности нейросетей и уже ввели несколько особых программ для проверки номера по своим базам данных. Абонента предупреждают о спам-сообщениях, звонках из банков и вызовах с подозрительных номеров.
База биометрических данных
Голоса жуликов дают хранить в специальной базе данных, чтоб с помощью нейросети мобильные операторы могли распознать глас афериста, предупредить юзера и порвать соединение. Таковой законопроект подготовило Минцифры.
Эффективность идеи пока под вопросцем. Какова ее необходимость, если правонарушители меняют глас средством нейросетей? Почти все считают, что собрать такую базу навряд ли может быть. Не считая того, хоть какой метод на базе искусственного ума в 1-ое время использования выдает много ошибок и, быстрее всего, будет некорректно определять глас, тогда и в базу могут попасть голоса людей, не имеющих отношение к жуликам.
Тем не наименее, сама мысль хорошая, потому что ИИ может рассматривать остальные черты речи говорящего, что полезно для выявления манипулятивных действий.
Разработка Liveness
Это метод проверки юзера, который может отличить настоящего человека от его цифровой копии. Разработка изучает мелкие движения, реакцию на свет и даже текстуру кожи. Liveness употребляют банки и разные интернет-сервисы для обеспечения надежной защиты личных данных.
Нейробабушка Дейзи
Бот на базе искусственного ума, задачка которого – привести в ярость жулика и отнять его время. Работает это так: звонки с подозрительных номеров переводятся на бота, который отвечает голосом бабушки и специально путает числа, запамятывает, о чем гласил минутку вспять, и длительно задумывается над ответом, испытывая терпение правонарушителя. Выдумали Дейзи в Англии – хвала британскому юмору.
Заместо итогов
И все таки самым основным орудием в борьбе с сетевыми жуликами остается увеличение цифровой грамотности. Чем больше люди будут знать о самых различных схемах аферистов в вебе, тем труднее их будет одурачить. Освещение звучных случаев, распространение инфы о доступных мерах защиты и обмен опытом посодействуют сходу найти обман и не стать очередной жертвой жуликов.