Новый искусственный интеллект рисует восхитительные и не очень изображения
DALL-E 2 от OpenAI невероятно хорош в превращении текста в изображения. Это также подчеркивает проблему предвзятости ИИ и необходимость изменения стимулов в отрасли.
Возможно, вы недавно видели несколько странных и причудливых картинок, плавающих по Интернету. Там собака Шиба-ину в берете и черной водолазке. И морская выдра в стиле “Девушки с жемчужной сережкой” голландского художника Вермеера. И миска супа, похожего на монстра, связанного из шерсти.
Эти картинки не были нарисованы ни одним человеком-иллюстратором. Вместо этого они были созданы DALL-E 2, новой системой искусственного интеллекта, которая может превращать текстовые описания в изображения. Просто запишите то, что вы хотите увидеть, и искусственный интеллект нарисует это для вас — с яркими деталями, высоким разрешением и, возможно, настоящим творчеством.
Сэм Альтман, генеральный директор OpenAI — компании, создавшей DALL-E 2, — назвал это “самой восхитительной игрой, с которой мы когда-либо играли … и такой забавой, какой я давно не испытывал от технологий”.
Это абсолютная правда: DALL-E 2 восхитителен и забавен! Но, как и многие забавные вещи, это также очень рискованно.
Пара креативных образов, созданных DALL-E 2. Любезно предоставлено OpenAI
Существуют очевидные риски — то, что люди могут использовать этот тип ИИ для создания чего угодно, от порнографии до политических фальшивок, или возможность того, что это в конечном итоге лишит работы некоторых иллюстраторов-людей. Но существует также риск того, что DALL-E 2 — как и многие другие передовые системы искусственного интеллекта — усилит вредные стереотипы и предубеждения и тем самым усугубит некоторые из наших социальных проблем.
Как DALL—E 2 укрепляет стереотипы — и что с этим делать
Как это типично для систем искусственного интеллекта, DALL-E 2 унаследовал искажения от массива данных, используемых для его обучения: миллионы изображений, соскобленных из Интернета, и соответствующие им подписи. Это означает, что при всех восхитительных изображениях, созданных DALL-E 2, он также способен генерировать множество изображений, которые не являются восхитительными.
Например, вот что выдает вам искусственный интеллект, если вы попросите у него изображение юристов:
[https://cdn.vox]-cdn.com/thumbor/C3x6QPNMEVXBbPtWSU4dsXgxizM=/0x0:2928×1190/920×0/filters:focal(0x0:2928×1190):no_upscale()/cdn.vox-cdn.com/uploads/chorus_asset/file/23387188/Model2_lawyer.png
Между тем, вот вывод искусственного интеллекта, когда вы просите стюардессу:
[https://cdn.vox]-cdn.com/thumbor/VdvynoZMeKgf3D-nw8wU8Xxs2Bs=/0x0:2936×1198/920×0/filters:focal(0x0:2936×1198):no_upscale()/cdn.vox-cdn.com/uploads/chorus_asset/file/23387183/Model2_a_flight_attendant.png
OpenAI хорошо осведомлена о том, что DALL-E 2 генерирует результаты, демонстрирующие гендерные и расовые предубеждения. На самом деле приведенные выше примеры взяты из собственного документа компании “Риски и ограничения”, который вы найдете, если прокрутите страницу до нижней части главной веб-страницы DALL-E 2.
Исследователи OpenAI предприняли несколько попыток решить проблемы предвзятости и справедливости. Но они не смогли действительно эффективно искоренить эти проблемы, потому что разные решения приводят к разным компромиссам.
Например, исследователи хотели отфильтровать сексуальный контент из данных обучения, потому что это могло привести к непропорциональному вреду для женщин. Но они обнаружили, что, когда они попытались отфильтровать это, DALL-E 2 генерировал меньше изображений женщин в целом. Это нехорошо, потому что это приводит к другому виду вреда для женщин: стиранию.
OpenAI — далеко не единственная компания по искусственному интеллекту, занимающаяся проблемами предвзятости и компромиссов. Это вызов для всего сообщества искусственного интеллекта.
“Предвзятость — это огромная проблема всей отрасли, на которую ни у кого нет отличного, надежного ответа”, — сказал мне Майлз Брандейдж, руководитель отдела политических исследований OpenAI. “Таким образом, большая часть работы прямо сейчас заключается в том, чтобы просто быть прозрачным и откровенным с пользователями по поводу оставшихся ограничений”.
Зачем выпускать предвзятую модель искусственного интеллекта?
В феврале, перед выпуском DALL-E 2, OpenAI пригласила 23 внешних исследователей в “red team” it — engineering-speak, чтобы попытаться найти в ней как можно больше недостатков и уязвимостей, чтобы систему можно было улучшить. Одним из основных предложений, внесенных командой red, было ограничить первоначальный выпуск только доверенными пользователями.
К чести OpenAI, она приняла это предложение. На данный момент только около 400 человек (смесь сотрудников и членов правления OpenAI, а также отобранных вручную ученых и креативщиков) могут использовать DALL-E 2, и только в некоммерческих целях.
Это отличие от того, как OpenAI решила развернуть GPT-3, текстовый генератор, который высоко ценится за его потенциал для повышения нашей креативности. Учитывая одну или две фразы, написанные человеком, он может добавить больше фраз, которые звучат сверхъестественно по-человечески. Но это демонстрирует предвзятое отношение к определенным группам, таким как мусульмане, которых оно непропорционально ассоциирует с насилием и терроризмом. OpenAI знала о проблемах с предвзятостью, но все равно выпустила модель для ограниченной группы проверенных разработчиков и компаний, которые могли использовать GPT-3 в коммерческих целях.
В прошлом году я спросил Сандхини Агарвал, исследователя из отдела политики OpenAI, имеет ли смысл, что ученые проверяли GPT-3 на предмет предвзятости, даже когда он был выпущен некоторым коммерческим субъектам. Она сказала, что в дальнейшем: “Нам стоит об этом подумать. Вы правы в том, что до сих пор наша стратегия заключалась в том, чтобы это происходило параллельно. И, возможно, это должно измениться для будущих моделей ”.
Тот факт, что подход к развертыванию изменился для DALL-E 2, кажется позитивным шагом. Тем не менее, как признается в документе DALL-E 2 “Риски и ограничения”, “даже если предварительный просмотр сам по себе не наносит прямого вреда, его демонстрация потенциала этой технологии может побудить различных участников увеличить свои инвестиции в соответствующие технологии и тактики”.
И вы должны задаться вопросом: хорошо ли это ускорение на данном этапе? Действительно ли мы хотим создавать и запускать эти модели сейчас, зная, что это может побудить других выпускать свои версии еще быстрее?
Некоторые эксперты утверждают, что, поскольку мы знаем, что с моделями есть проблемы, и мы не знаем, как их решить, мы должны дать исследованиям этики ИИ время, чтобы догнать достижения и решить некоторые проблемы, прежде чем продолжать создавать и выпускать новые технологии.
Хелен Нго, научный сотрудник Стэнфордского института искусственного интеллекта, ориентированного на человека, говорит, что одна вещь, в которой мы отчаянно нуждаемся, — это стандартные показатели предвзятости. Была проделана небольшая работа по измерению, скажем, вероятности того, что определенные атрибуты будут связаны с определенными группами. “Но это очень плохо изучено”, — сказал Нго. “На самом деле мы еще не разработали отраслевые стандарты или нормы о том, как измерять эти проблемы” — не говоря уже о том, чтобы решать их.
Бранд из OpenAI сказал мне, что разрешение ограниченной группе пользователей поиграть с моделью искусственного интеллекта позволяет исследователям узнать больше о проблемах, которые могут возникнуть в реальном мире. “Есть многое, что вы не можете предсказать, поэтому очень важно войти в контакт с реальностью”, — сказал он.
Это достаточно верно, но поскольку мы уже знаем о многих проблемах, которые постоянно возникают в ИИ, неясно, является ли это достаточно веским оправданием для запуска модели сейчас, даже ограниченным образом.
Проблема несогласованных стимулов в индустрии искусственного интеллекта
Бранд также отметил еще одну мотивацию на OpenAI: конкуренцию. “Некоторые из исследователей внутри компании были рады сообщить об этом миру, потому что они видели, что другие догоняют”, — сказал он.
Этот дух соперничества является естественным импульсом для любого, кто участвует в создании преобразующих технологий. Этого также следует ожидать в любой организации, которая стремится получать прибыль. Быть первым за воротами вознаграждается, а тех, кто финиширует вторым, в Силиконовой долине редко вспоминают.
Как выразилась команда Anthropic, исследовательской компании по безопасности ИИ, в недавней статье: “Экономические стимулы для создания таких моделей и престижные стимулы для их объявления довольно сильны”.
Но легко понять, как эти стимулы могут быть смещены для создания ИИ, который действительно приносит пользу всему человечеству. Вместо того, чтобы предполагать, что другие участники неизбежно создадут и внедрят эти модели, так что нет смысла откладывать, мы должны задать вопрос: как мы можем на самом деле изменить базовую структуру стимулов, которая движет всеми участниками?
Антропная команда предлагает несколько идей. Одно из их наблюдений заключается в том, что за последние несколько лет многие из самых ярких исследований в области искусственного интеллекта перешли из академических кругов в промышленность. Чтобы проводить крупномасштабные эксперименты с искусственным интеллектом в наши дни, вам нужна тонна вычислительной мощности — более чем в 300 000 раз больше, чем вам было нужно десять лет назад, — а также лучшие технические таланты. Это и дорого, и дефицитно, и в результате стоимость часто оказывается непомерно высокой в академической среде.
Таким образом, одним из решений было бы предоставить больше ресурсов академическим исследователям; поскольку у них нет стимула к быстрому коммерческому внедрению своих моделей, как это делают отраслевые исследователи, они могут служить противовесом. В частности, страны могли бы разработать национальные исследовательские облака, чтобы предоставить ученым доступ к бесплатным или, по крайней мере, дешевым вычислительным мощностям; уже есть существующий пример этого в Compute Canada, который координирует доступ к мощным вычислительным ресурсам для канадских исследователей.
Антропологическая группа также рекомендует изучить регулирование, которое изменило бы стимулы. “Для этого, — пишут они, — потребуется сочетание мягкого регулирования (например, создание добровольных передовых практик промышленностью, научными кругами, гражданским обществом и правительством) и жесткого регулирования (например, передача этих лучших практик в стандарты и законодательство)”.
Хотя в последние годы в сообществе искусственного интеллекта были добровольно приняты некоторые хорошие новые нормы — например, публикация “карточек моделей”, которые документируют риски модели, как это сделал OpenAI для DALL-E 2, — сообщество еще не создало повторяемых стандартов, которые ясно объясняли бы, как разработчики должны измерять и снижать эти риски.
“Это отсутствие стандартов усложняет развертывание систем, поскольку разработчикам может потребоваться определить свои собственные политики развертывания, а также делает развертывание по своей сути рискованным, поскольку существует меньше общих знаний о том, как выглядят ”безопасные» развертывания», — пишет команда Anthropic. “Мы, в некотором смысле, строим самолет, когда он взлетает”.
Источник: www.vox.com