Пауза в разработке искусственного интеллекта
Петицию Future of Life Institute с требованием остановить разработку ИИ мощнее, чем GPT-4 подписали уже почти две тысячи человек. Среди подписантов не только Илон Макс и Стив Возняк, но и Юваль Ной Харари и Джордж Дайсон. В опровержение тех, кто опасаются эмерджентных характеристик искусственного интеллекта высказались Славой Жижек и Ноам Хомский.
Не так давно мы переводили статью Лэндона Виннера, поднимающую проблему технологического сомнамбулизма — явления, при котором общество развивает технику без необходимого уровня информированности и осознанности. И хотя ее автор утверждал, что современное состояние философии технологий заключается в отсутствии осмысленных диспутов в отношении новых форм искусственной поддержи человеческой деятельности, сегодня мы наблюдаем всплеск интереса к разработкам искусственного интеллекта, затрагивающий множество специалистов.
Майя Шестакова подготовила перевод петиции Future of Life Institute. Как вы думаете, имеет ли место такая приостановка и вовлечение в этот процесс властей?
Крупные эксперименты с ИИ необходимо поставить на паузу: открытое письмо
Мы призываем все лаборатории, занимающиеся разработкой искусственного интеллекта, немедленно приостановить как минимум на 6 месяцев обучение всех систем, более мощных, чем GPT-4.
Обширные исследования [1], признанные крупнейшими ИИ-лабораториями [2] продемонстрировали, что системы искусственного интеллекта, способные конкурировать с человеком, могут представить угрозу для всего человечества. В соответствии с асиломарскими принципами развития ИИ, получившими широкое одобрение, мы утверждаем, что развитый ИИ может существенно изменить историю жизни на Земле, потому его развитие должно контролироваться с соответствующим вниманием и осторожностью. К сожалению, мы видим, что лаборатории, замкнувшиеся в вышедшей из под контроля гонке создания все более мощных цифровых умов, не придерживаются этих стандартов. Это неизбежно приведет к тому, что появится интеллект, работу которого никто, даже его создатели, не смогут объяснить, предсказать или полностью контролировать.
Уже сегодня ИИ может потягаться с человеком в общих задачах [3]. Мы должны задаться вопросом: стоит ли нам позволить машинам наводнить наше информационное поле пропагандой, ложью? Стоит ли нам автоматизировать всякую работу, включая ту, что приносит удовлетворение? Стоит ли нам развивать нечеловеческие умы, которые в перспективе могут превзойти нас численностью, перехитрить, сделать ненужными и заменить нас? Стоит ли ставить на кон нашу цивилизацию, рисковать потерей контроля? Такие решения не могут быть делегированы неизбранным лидерам индустрии. Мощные системы искусственного интеллекта должны развиваться только тогда, когда мы будем полностью уверены в том, что риски, связанные с их разработкой, управляемы, а свойства систем — позитивны. У этой уверенности должна быть прочная основа, а возрастание потенциальных эффектов системы должно ее только усиливать. Не так давно говоря об искусственном интеллекте OpenAI заявили: «В какой-то момент, прежде чем продолжить обучение систем будущего нам будет важно получить независимую оценку. Вычислительная мощность, задействованная в передовых разработках, должна быть ограничена». Мы согласны. Этот момент настал.
Поэтому мы призываем все лаборатории немедленно приостановить разработку искусственного интеллекта, более сильного, чем GPT-4, как минимум на 6 месяцев. Пауза должна быть объявлена публично, остановиться должны все ключевые участники разработок, эту остановку должно быть возможно подтвердить. Если невозможно произвести быструю остановку, государство должно вмешаться и ввести мораторий.
Лаборатории и независимые эксперты должны использовать эту паузу для того, чтобы совместными усилиями разработать и установить ряд общих протоколов безопасности для проектирования и развития мощного ИИ. Они должны быть тщательно выверены независимыми экспертами. Эти протоколы должны обеспечить полную безопасность систем, в отношении которых вводятся такие ограничения [4]. Мы не предлагаем полностью остановить развитие ИИ, а всего лишь призываем выйти из опасной гонки создания нарастающе непредсказуемых черных ящиков с эмерджентными возможностями.
Исследователи и разработчики ИИ должны сфокусироваться на том, чтобы сделать уже созданные системы более точными, безопасными, понятными, прозрачными, надежными.
Параллельно с этим, для того, чтобы существенно ускорить развитие надежных систем управления искусственным интеллектом, разработчикам ИИ необходимо работать вместе с властями. Как минимум это означает, что нужны: новые компетентные органы, регулирующие ИИ; системы, обозревающие и ведущие учет высокопроизводительных ИИ и больших пулов вычислительных мощностей; системы провенанса и создания водяных знаков для того, чтобы отделять синтетическое от реального и отслеживать утечки моделей; надежная экосистема сертификации и аудита; юридическая ответственность за вред, нанесенный ИИ; достаточное государственное финансирование исследований безопасности ИИ; и обеспеченные ресурсами институты, которые помогут справляться с драматическими политическими и экономическими последствиями, вызванными развитием ИИ (особенно с теми, что касаются демократии).
ИИ может обеспечить человечеству светлое будущее. Сейчас, когда этап создания мощных систем искусственного интеллекта за спиной, мы входим в «лето ИИ», которое позволит пожинать плоды наших трудов, проектировать системы, которые принесут очевидную пользу для всех, и дать обществу адаптироваться к новому. До этого человечество уже останавливало развитие технологий с катастрофическим потенциалом [5]. Мы можем сделать это и сейчас. Давайте задержимся в этом лете, нам не к чему спешить без подготовки в осень.
***
[1]
Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big??. In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).
Bostrom, N. (2016). Superintelligence. Oxford University Press.
Bucknall, B. S., & Dori-Hacohen, S. (2022, July). Current and near-term AI as a potential existential risk factor. In Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129).
Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk?. arXiv preprint arXiv:2206.13353.
Christian, B. (2020). The Alignment Problem: Machine Learning and human values. Norton & Company.
Cohen, M. et al. (2022). Advanced Artificial Agents Intervene in the Provision of Reward. AI Magazine, 43(3) (pp. 282-293).
Eloundou, T., et al. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models.
Hendrycks, D., & Mazeika, M. (2022). X-risk Analysis for AI Research. arXiv preprint arXiv:2206.05862.
Ngo, R. (2022). The alignment problem from a deep learning perspective. arXiv preprint arXiv:2209.00626.
Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.
Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf.
Weidinger, L. et al (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.
[2]
Ordonez, V. et al. (2023, March 16). OpenAI CEO Sam Altman says AI will reshape society, acknowledges risks: ‘A little bit scared of this’. ABC News.
Perrigo, B. (2023, January 12). DeepMind CEO Demis Hassabis Urges Caution on AI. Time.
[3]
Bubeck, S. et al. (2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4. arXiv:2303.12712.
OpenAI (2023). GPT-4 Technical Report. arXiv:2303.08774.
[4]
Существует достаточно юридических прецедентов – к примеру, широко применяемые принципы ОЭСР в области искусственного интеллекта включают требование того, чтобы все системы ИИ «функционировали надлежащим образом и не представляли необоснованных рисков для безопасности».
[5]
Например, клонирование человека, модификация плода, исследования приобретенных мутаций и евгеника.
Источник: m.vk.com