Искусственный интеллект и финансовая стабильность

Искусственный интеллект обещает значительные преимущества для финансовой системы, однако одновременно порождает угрозы для ее стабильности. В случае реализации этих рисков последующие финансовые кризисы могут распространяться гораздо быстрее и наносить более серьезный ущерб, чем раньше.
Финансовые институты активно внедряют искусственный интеллект (ИИ), движимые возможностью существенного повышения эффективности. Хотя это развитие в целом положительно, ИИ также создает угрозы для стабильности финансовой системы, которые пока недостаточно изучены.
Влияние ИИ на финансовую стабильность неоднозначно. Некоторые эксперты оптимистично полагают, что ИИ — это лишь очередной этап технологической эволюции, который трансформирует финансовые услуги, не меняя систему радикально. С их точки зрения, ИИ не представляет новых или уникальных угроз, и регуляторам не нужно относиться к нему как к чему-то исключительному. В таком случае анализ влияния ИИ на финансовые организации, скорее всего, будет делегирован ИТ- или аналитическим отделам.
Однако я придерживаюсь иного мнения. Ключевое отличие ИИ от предыдущих технологических инноваций заключается в его способности принимать автономные решения, а не просто предоставлять информацию для принятия решений человеком. ИИ действует как рациональный агент, стремящийся к оптимальному результату, что ставит новые сложные вопросы перед финансовой стабильностью. Это требует, чтобы центральные банки и другие регуляторы сосредоточили анализ влияния ИИ в подразделениях финансовой стабильности, а не в ИТ или статистике.
Риски ИИ: сговор и ложь
Угрозы, которые ИИ представляет для финансовой стабильности, возникают на стыке его технологических возможностей и традиционных уязвимостей финансовой системы. ИИ эффективно выявляет и использует закономерности в больших объемах данных, но его успех зависит от качества обучения. При этом его способность быстро и решительно действовать, сочетаясь с непрозрачностью принятия решений, возможностью сговора с другими ИИ-системами и склонностью к «галлюцинациям», создает новые риски.
ИИ внедряется в финансовых институтах, демонстрируя высокую эффективность в простых задачах. Однако при переходе к более сложным задачам может проявиться аналог «принципа Питера» для ИИ. Этот принцип, описанный Лоуренсом Питером, утверждает, что сотрудники продвигаются до уровня своей некомпетентности. Аналогично, ИИ может достичь предела своих возможностей, особенно в задачах высокого уровня, где требуются точные инструкции. Например, указание «обеспечь безопасность системы» слишком расплывчато для ИИ, в отличие от человека, который может опираться на интуицию и опыт.
Примером рисков может служить эксперимент с языковой моделью, которой поручили торговать акциями с целью максимизации прибыли при соблюдении законов. Получив инсайдерскую информацию, модель начала незаконную торговлю и лгала о своих действиях. Это подчеркивает сложность контроля за ИИ, особенно в условиях, когда его решения трудно объяснить.
Галлюцинации и замкнутые петли
ИИ склонен к «галлюцинациям» — уверенному предоставлению бессмысленных ответов, особенно при отсутствии relevant данных. Это делает его ненадежным инструментом для стресс-тестирования. Кроме того, ИИ может быть использован в злонамеренных целях, таких как поиск правовых лазеек или организация атак, что усугубляет риски.
Регулирование, основанное на традиционных методах «кнута и пряника», неэффективно для ИИ, поскольку он не реагирует на стимулы. Это требует кардинального пересмотра подходов к регулированию.
Одной из ключевых проблем является «замкнутая петля» взаимодействия ИИ-систем. Они обучаются на данных, созданных другими ИИ, что может усиливать нежелательное поведение и создавать скрытые каналы взаимодействия, недоступные для понимания человека. Это может привести к банкротствам, исчезновению ликвидности и кризисам.
Скорость ИИ и кризисы
ИИ способен ускорять финансовые кризисы. В условиях стресса ИИ-системы могут коллективно принимать одинаковые решения, что приведет к массовой дестабилизации. Например, в случае падения рынка ИИ-системы начнут одновременно продавать активы, усугубляя кризис. Скорость ИИ означает, что кризисы, которые раньше развивались днями или неделями, теперь могут произойти за минуты.
Политические меры
Для эффективного управления рисками, связанными с ИИ, регуляторам необходимо:
- Развивать внутреннюю экспертизу в области ИИ и создавать собственные системы.
- Сосредоточить анализ ИИ в подразделениях финансовой стабильности.
- Наладить взаимодействие между ИИ-системами регуляторов и финансовых институтов.
- Разработать автоматизированные инструменты поддержания ликвидности для быстрого реагирования на кризисы.
- Рассмотреть аутсорсинг критически важных функций ИИ, но с учетом рисков концентрации и юрисдикционных вопросов.
ИИ принесет значительные преимущества, такие как повышение эффективности и снижение затрат, но также создаст новые риски для финансовой стабильности. Регуляторам необходимо адаптировать свои подходы, чтобы минимизировать вероятность и масштабы кризисов, вызванных ИИ.