Искусственный интеллект

Мошенничество в сфере высоких технологий: как защитить себя от обмана с помощью ИИ

Фото: Shutterstock

Еще десять лет назад фильмы о нейросети, которая контролирует буквально все сферы жизни и способна решать вопросы за человека, казались фантастикой. Если такое и будет, то очень и очень нескоро, говорили скептики. И были не правы.

Уже сейчас нейросети активно присутствуют в нашей жизни. Чат-боты ведут переписку с клиентами, решая рутинные задачи. Искусственный интеллект теперь может вести диалог, причем сразу не разобрать, звонит ли реальный человек или «бездушная машина».

Пожалуй, слово «бездушная» здесь не совсем уместно, ИИ очень быстро учится, так что простой «железякой» эту новую реальность теперь точно не назвать. С каждым днем нейросети узнают новое, они пытаются писать тексты (и с каждой попыткой у них получается все лучше), общаются на разных языках, сочиняют музыку, красиво рисуют и делают еще много чего интересного и полезного.

Но есть у такого развития, безусловно, и обратная сторона, которую имеют все блага цивилизации. Когда-то телефон и интернет облегчили жизнь человека, но они же стали инструментами в руках мошенников. Так же происходит и с ИИ. Уже сейчас киберпреступники применяют алгоритмы машинного обучения и используют нейронные сети, чтобы получить доступ к личной информации людей.

Как мошенники могут использовать ИИ:

1. С помощью искусственного интеллекта злоумышленники могут делать фальшивые документы: нейросеть способна подделать банковские выписки, нарисовать фальшивый паспорт или водительское удостоверение.

2. Мошенники могут использовать нейросети для создания фейковых новостей и рассылок. В них включаются различные ссылки на ресурсы, при переходе по которым можно оставить данные своей банковской карты или другую персональную информацию.

3. Нейросети позволяют создавать фальшивые отзывы и рейтинги.

4. Чат-боты могут придумать сценарий для телефонного звонка и облегчить работу преступникам.

5. Нейросети учатся поддерживать разговор. ИИ может взять на себя роль мнимых сотрудников контакт-центров банков и других организаций, которыми представляются мошенники для обмана свои жертв.

6. ИИ может создавать «клон» голоса человека (deepfake). С учетом развития биометрии и возможности оформить кредит по звонку (современные технологии идентифицируют человека по тембру голоса), нейросети на службе у мошенников могут доставить немало бед. Ведь deepfake будет иметь стопроцентную схожесть с оригиналом, а значит, жертва рискует остаться в должниках, ничего об этом не зная.

7. Нейросети мастерски умеют создавать картины и иллюстрации. А это значит, что подобные изображения легко используются для фейковых сборов. Так что перед тем, как отправить кому-то финансовую помощь, стоит проверить в других соцсетях и интернете «реальность» адресата.

Также злоумышленники могут использовать и другую схему мошенничества. Например, предложить «облегчить» доступ к популярной иностранной нейросети с использованием специального сервиса или приложения. В свою очередь, ссылка на сервис может вести на фишинговый ресурс, который предложит заполнить форму с данными для оплаты, либо на вредоносную программу, например, удаленного управления устройством, при установке которой злоумышленники получают полный контроль над гаджетом пользователя. В конечном итоге все это приведет к потере денежных средств.

«Успешность такой технологии зависит от того, насколько хорошо искусственный интеллект будет обучен и насколько убедительно он будет выдавать себя за человека», — говорит Дмитрий Миклухо, старший вице-президент – директор департамента информационной безопасности ПСБ. Эксперт дал советы, как защитить свои персональные данные в мошеннических схемах с использованием ИИ.

В этом вопросе, как и много лет назад, когда развивалось мошенничество в Сети, стоит руководствоваться именно здравым смыслом и перепроверять поступающую информацию.

Правило первое: нужно быть острожным при вводе личной информации на веб-сайтах и не открывать подозрительные электронные письма.

Правило второе: лично проверять всю информацию, поступающую от друзей или родственников в соцсетях и мессенджерах. То есть, если подруга вдруг попросила денег, чтобы оплатить посылку, лучше перезвонить и услышать просьбу в разговоре.

Правило третье: в социальных сетях нельзя давать никакой личной информации незнакомым людям. Это может стать ключиком для дальнейшего удачного обмана.

Правило четвертое: важно использовать антивирусное программное обеспечение и регулярно обновлять его, чтобы защитить свой компьютер от вредоносных программ.

Правило пятое: если в ходе общения в мессенджере бот или робот предлагает ввести личную финансовую информацию (коды из смс от банка, полные данные карты, ФИО, паспортные данные и т. д.) необходимо прервать общение, обратиться в отделение банка либо самостоятельно связаться с организацией по контактам, которые указаны на официальном сайте компании.

Правило шестое: если вы решите самостоятельно воспользоваться сервисом нейронной сети, убедитесь, что вы действительно находитесь на официальном ресурсе. Не переходите по подозрительной ссылке, предлагающей ввести платежные реквизиты, и не устанавливайте неизвестное приложение на свое устройство.

Источник

Добавить комментарий

Кнопка «Наверх»