Демосчет в Финам
Искусственный интеллект

Поймали в нейросети: что такое генеративный ИИ и почему он появился везде

В прошлом году генеративный искусственный интеллект перешел из нишевого сегмента в массовый, считают некоторые аналитики. Используя множество доступных программ, пользователи дают разработчикам еще больше данных для обучения нейросетей. ИИ стал справляться с задачами настолько хорошо, что департамент образования Нью-Йорка даже запретил использование популярного чат-бота в школах — ловить студентов на списывании стало сложнее. Помимо этого хакеры начали применять компьютерный разум для создания вредоносных кодов. Чем отличается генеративный интеллект от обычного ИИ и каковы его перспективы, разбирались «Известия».

Самостоятельная работа

Технологический прогресс уже давно помогает школьникам и студентам в процессе обучения, в том числе в обмане преподавателей. Появление искусственного интеллекта вывело возможности плагиата на новый уровень — определить, написана ли работа человеком или компьютером, возможно не всегда.

Преимущества Финам

При этом даже текущие генеративные сетки могут с легкостью имитировать особенности человеческого «почерка» при синтезе контента, говорит сооснователь Napoleon It Руслан Ахтямов.

Поймали в нейросети

Фото: TASS/ZUMA Press Wire

В начале января стало известно о том, что департамент образования Нью-Йорка запретил использование в школах чат-бота с искусственным интеллектом ChatGPT, разработанного компанией OpenAI. «Известия» уже общались с этой нейросетью ранее, программа поддерживала диалог на естественном языке.

Учитывая возможности машинного разума, преподаватели обеспокоены, что учащиеся начнут в массовом порядке использовать его для выполнения домашних заданий, решения математических задач и написания творческих работ.

«Хотя инструмент может дать быстрые и простые ответы на вопросы, он не развивает навыки критического мышления и решения проблем, которые необходимы для академического успеха», — сказала представительница департамента образования Нью-Йорка Дженна Лайл.

OpenAI также заявила, что не хочет, чтобы ChatGPT применялся для подобного мошенничества в образовательных учреждениях. Однако в случае запрета бота студенты всё еще смогут пользоваться им на своих компьютерах. На этот случай компания работает над созданием водяных знаков для выходных данных, чтобы люди могли видеть признаки машинного текста.

Поймали в нейросети

Фото: Global Look Press/Frank Rumpenhorst

Большой проблемы в подобном использовании ИИ нет, считает старший специалист по тестированию цифровых продуктов Центра цифровой экспертизы Роскачества Сергей Кузьменко. По его мнению, даже если нейросеть напишет основную массу текста, его всё равно придется значительно редактировать.

В борьбе с использованием ИИ в нечестных целях может помочь сам искусственный разум. Так, студент факультета компьютерных наук и журналистики Принстона Эдвард Тиан создал собственную программу GPTZero, которая может определить, написан ли текст человеком или нет.

Однако такое решение является временной мерой и использование GPTZero на постоянной основе будет требовать переобучения данной модели, которое может длиться бесконечно долго, рассуждает эксперт R&D-департамента онлайн-школы Skysmart Влад Корнышев.

Часть работников сферы образования считает, что учреждениям необходимо найти способы интегрировать нейросети в процесс обучения. «Умная» генеративная сеть, в том числе ChatGPT, может быть полезна для объяснения правил или отработки упражнений в школьных дисциплинах, считает эксперт.

Поймали в нейросети

Фото: ИЗВЕСТИЯ/Кристина Кормилицына

Например, ИИ-платформа Skyeng позволяет использовать технологию распознавания речи, когда ученик рассказывает стих наизусть, или при изучении английского, чтобы оценить, насколько грамотно говорит ученик, какое у него произношение, какие делает грамматические или стилистические ошибки, — объясняет Корнышев.

Помимо этого искусственный интеллект является удобным инструментом для генерации заданий в процессе обучения, добавляет собеседник. Ученик или учитель могут попросить нейросеть сгенерировать новые задачи, когда старые уже выполнены.

Негативная сторона использования технологии заключается в вероятности того, что студенты могут предпочесть обучение с ИИ реальному преподавателю.

— Другой вредный фактор — так называемые biases: если при обучении определенной сети использовались «грязные данные», на выходе она может выдавать либо неверную информацию, либо нецензурную лексику, либо вообще научить плохому, — предупреждает эксперт Skysmart.

Кодовое слово

Стоит учитывать, что плагиат в образовательных учреждениях далеко не самый серьезный способ обмана при помощи ИИ. В январе 2023 года компания Check Point Research обнародовала результаты исследования о создании вирусных кодов при помощи технологий нейросети. Теперь вредоносное ПО могут продвигать не только хакеры, но и люди без опыта программирования.

Поймали в нейросети

Фото: РИА Новости/Алексей Мальгавко

Так, нейросеть написала на Python код с рядом криптографических функций, который в будущем может лечь в основу программы-вымогателя. В другом случае нейросеть сформировала скрипт для кражи информации: код способен искать определенные типы файлов, копировать их во временный каталог, сжимать и отправлять на сервер злоумышленников.

ChatGPT частично фильтрует запросы на создание таких кодов и не генерирует их для определенных сайтов, рассказывает руководитель отдела перспективных технологий Positive Technologies Александра Мурзина.

— Но это было не ограничение самой технологии, так работала фильтрация запроса. И, кстати, не всегда ответы ChatGPT были технически корректными, в сети можно найти множество разборов таких кейсов, — поясняет собеседница «Известий».

Сообщается, что ChatGPT также может генерировать вредоносные коды и на других языках программирования. Это способно привести к увеличению количества фишинговых сайтов и написанию электронных писем для рассылок. Нейросети применялись для создания сценария торговой площадки, на которой можно будет продавать и покупать украденные данные и вредоносное ПО.

Поймали в нейросети

Фото: РИА Новости/Алексей Мальгавко

Киберпреступники уже активно задействуют эти механизмы в своих целях. В прошлом году мы фиксировали рост фишинговых писем, созданных при помощи ИИ. В этом году ожидаем, что направление увеличится еще на 20–30%, — комментирует генеральный директор «Стингрей Технолоджис», эксперт в области мобильной безопасности Юрий Шабалин.

Всё, что связано с использованием ИИ в части кибербезопасности, может иметь огромную угрозу для устойчивости критических систем, однако компьютеры способны научиться распознавать вирусы, созданные искусственным интеллектом, считает Сергей Кузьменко.

— Сгенерировать вирусное ПО на основе уже известной вредоносной сигнатуры нейросети смогут, однако из-за того, что сигнатура уже известна, подобная вирусная «начинка» будет сразу распознана на любой машине, — рассуждает специалист.

Влад Корнышев, напротив, считает, что атаковать при помощи вирусного кода, написанного ИИ, будет сложно:

— Разработчики моделей обычно закладывают в них определенные ограничения, например, если попробовать написать в ChatGPT какие-либо дискриминирующие лозунги, модель ответит, что она против этого.

Поймали в нейросети

Фото: РИА Новости/Владимир Трефилов

По словам эксперта, создание компьютерного вируса требует достаточной степени креативности, которая не свойственна машине.

Вездесущий разум

Несмотря на появление новых рисков, технологии и сферы применения искусственного интеллекта продолжают стремительно расширяться. В прошлом году, по мнению некоторых специалистов, произошел «генеративный бум» в области пользовательского доступа к инструментам ИИ.

Сергей Кузьменко связывает это с тем, что всё больше компаний работают над развитием нейросетей.

— Разработчики делятся своими открытиями с миром. Допустим, на сайте GitHub есть огромное количество проектов в области машинного обучения. Когда такие технологии выходят в массы, образуется множество фирм, готовых монетизировать свои, да и чужие идеи, — рассуждает специалист.

Поймали в нейросети

Фото: РИА Новости/Илья Питалев

Главный прорыв, по его словам, связан с интересом пользователей, большинство из которых видят в нейросетях забавную игрушку. Это, в свою очередь, привлекает к развитию нейросетей всё больше и больше команд разработчиков.

Сервис ChatGPT, например, является полностью бесплатным. Любой желающий может воспользоваться им на сайте chat.openai.com. Однако россиянам придется обойти ряд ограничений, чтобы опробовать нейросеть, — прямой доступ на территории страны ограничен. Для этого понадобится включить VPN и создать виртуальный номер для регистрации аккаунта. Нужно успеть зарегистрироваться на сайте до истечения срока действия виртуального номера. После этого VPN можно отключить, так как сервис продолжит работать без привязки к IP?адресу.

Однако эксперты сходятся во мнении, что широкий круг пользователей всё еще не может протестировать многие ИИ-технологии.

— Настоящий искусственный интеллект недоступен даже большей части крупного бизнеса и государств, — говорит CEO GeekBrains Александр Волчек.

Поймали в нейросети

Фото: Global Look Press/IMAGO/Alexander Limbach

В чем же особенность и достижение генеративного искусственного интеллекта? Ранее нейросети были ограничены невозможностью произвести абсолютно новый, уникальный контент. Например, процесс создания картины основывался на обработке уже имеющихся в сети изображений, а конечный результат являлся чистой комбинаторикой.

В случае с генеративным ИИ нейросеть также изучает массив данных, однако использует информацию для получения аналогичного, но собственного контента. Особенно хорошо такой метод работает с генерацией визуальных объектов, звука и текста. Его также можно использовать для продуктов с высокой степенью персонализации, например рекламных объявлений.

Появление генеративного искусственного интеллекта является большим шагом вперед, считает Александр Волчек. При этом специально создавать его не требовалось — это скорее исторический момент развития технологии.

Генеративный ИИ автоматизировал часть когнитивных способностей человека, но сказать, что эти технологии могут создавать что-то совершенно новое, нельзя, считает Александра Мурзина. Она отмечает, что все результаты — это компиляция из множества данных, на которых обучили модель, причем не всегда корректно.

Поймали в нейросети

Фото: РИА Новости/пресс-служба госкорпорации Ростех

По сути, новый тип ИИ состоит из двух компьютерных нейросетей — одна из них выдает результаты, а другая ищет ошибку и пытается отличить правильные образы от неверных. В будущем генеративный ИИ может оказать влияние на здравоохранение и науки о жизни — например, для постановки диагнозов или поиска новых лекарств от болезней.

Если его применение началось с крупных технологических или цифровых компаний, то сейчас такой ИИ проникает в традиционные сферы, а после обучения модели ее можно настроить для конкретных предметных областей с гораздо меньшим объемом данных.

— Считается, что самые мощные прорывы будут происходить не в сфере разных ИИ, а в сфере инженерного ксеногенезиса. То есть в сфере проектирования нового самоосознающего разума, — рассуждает Руслан Ахтямов.

Закон и ИИ

Распространение искусственного интеллекта порождает новые юридические и этические проблемы. В ближайшем будущем появятся новые законодательные ограничения, уверен эксперт в области мобильной безопасности Юрий Шабалин. Специалист особенно выделяет проблемы авторского права и актуальность ИИ в условиях массовости. Также правовые ограничения будут зависеть не напрямую от технологии, а от места и степени ее применения, дополняет в беседе с «Известиями» Сергей Кузьменко.

Поймали в нейросети

Фото: Global Look Press/Fabian Sommer

Вопрос правосубъектности ИИ вызывает серьезные дискуссии в мировом юридическом сообществе, рассказывает адвокат, партнер «Бизнес Развитие: адвокатура и консалтинг» Валерия Голянова.

Примеров, когда за применением ИИ может последовать наказание, много. Допустим, ответственность за ошибки ИИ. Опасность состоит в том, что если в систему заложена неточность, то она повлияет на большее количество людей, чем если ошибется один человек, — говорит эксперт.

Однако, по мнению юриста, сейчас в нашей стране законодательство направлено не на ограничение, а, напротив, на продвижение ИИ. Так, в 2019 году Владимир Путин подписал указ «О развитии искусственного интеллекта в Российской Федерации», которым утверждается национальная стратегия развития ИИ до 2030 года, а на территории Москвы с 2020-го действует специальный экспериментальный режим «правовой песочницы». Он снимает с проектов в области ИИ обязанность по исполнению некоторых норм законодательства.

— Специальных правил об ответственности ИИ в мировой практике нет. Пока нет. А вот этические нормы, ограничивающие ИИ, уже появляются, — отмечает Валерия Голянова. — В 2020 году ЕС принял стратегию развития ИИ, внедряющую правовые принципы разработки и применения. В нашей стране свой кодекс этики ИИ создал Сбербанк. Не так давно кодекс этики был также разработан и утвержден Альянсом искусственного интеллекта.

Источник: iz.ru

Источник

Добавить комментарий

Кнопка «Наверх»