Берегите деньги: FraudGPT, «злой близнец» ChatGPT
С развитием технологий мошенники совершенствуют свои схемы обмана и инструменты. Одно из новейших решений, используемых мошенниками сегодня, — это программа FraudGPT, основанная на искусственном интеллекте.
Специалист банка Luminor по борьбе с мошенничеством Вейко Кийк подробно рассказывает о том, как работает этот злой близнец популярного ChatGPT и как защитить от него свои деньги.
Искусственный интеллект (ИИ) — это система, способная выполнять задачи, которые традиционно требуют человеческого интеллекта. Она может понимать письменную и устную речь, принимать решения и учиться на опыте. Хотя искусственный интеллект облегчил людям поиск и обработку информации, а также упростил решение многих других задач, он также может быть использован в преступных целях.
FraudGPT — это чат-бот ИИ для даркнета (теневого интернета), похожий на более известное решение ChatGPT. Обе программы создают реалистичный и складный контент на основе пользовательского ввода, но разница заключается в их ограничениях.
«Если вы попросите, чтобы чат-бот создал мошеннический или криминальный контент, ChatGPT откажется, в то время как FraudGPT был специально разработан для этого. Таким образом, финансовые мошенники могут использовать вредоносное ПО для создания убедительных сообщений, которые побуждают людей делать то, что они обычно не делают», — пояснил Кийк.
По словам эксперта, вредоносный чат-бот может создавать персонализированные мошеннические электронные письма, текстовые сообщения и очень реалистичные веб-страницы, которые убеждают жертв раскрыть свою личную или финансовую информацию. FraudGPT также может помочь создать поддельные документы, счета, запросы на оплату и мошеннические уведомления. В сообщениях часто содержится ссылка или вложение, при открытии которого устройство пользователя может быть заражено вредоносным ПО.
По словам специалиста банка Luminor по борьбе с мошенничеством, первый шаг к защите себя и своих денег — это критическое мышление. «Хотя угроза FraudGPT кажется далёкой, мы, вероятно, сталкиваемся с ней чаще, чем думаем. Возьмите за привычку проверять любые неожиданные запросы на информацию или денежные переводы, даже если на первый взгляд сообщение приходит с надёжного адреса. Обязательно проверяйте информацию через официальные сайты и контакты», — подчеркнул он.
Кроме того, следует обратить внимание на грамматику и содержание текста, поскольку сгенерированный ИИ текст часто содержит ошибки или необычную структуру предложений, особенно на малораспространённых в мире языках, таких как эстонский. Они могут содержать странные словоупотребления и ошибки в переводе, поскольку ИИ ещё недостаточно развит, чтобы полностью избегать подобных неточностей.
Ещё один способ снизить риск стать жертвой мошенничества — ознакомиться с новейшими возможностями ИИ. Использование легитимных и удобных для пользователя решений в области ИИ поможет лучше понять природу ИИ и создаваемого им контента. Вейко Кийк напомнил, что важно делать это безопасно, не раскрывая свои личные данные или другую конфиденциальную информацию.
Эксперт отметил, что если вы получили подозрительное сообщение, обязательно сообщите о нём: «Никогда и никому не называйте свои пароли интернет-банка, логин или данные карты. Если вы подозреваете мошенничество или уже стали его жертвой, обязательно сообщите об этом в полицию, а в случае банковского мошенничества — в свой банк». Он добавил, что важен каждый сигнал о мошенничестве, поскольку быстрая реакция может помочь не только вам, но и другим людям.
Читайте по теме:
Осторожно: кибермошенники взяли на вооружение искусственный интеллект
За полгода жители Эстонии потеряли почти 2 миллиона евро из-за инвестиционных афер
Полиция: Делитесь идеями, как уберечь жителей Эстонии от мошенников
Комментарии закрыты.