Искусственный интеллект

В США рождается боевой Голем

В Пентагоне создана оперативная группа «Лима» (Task Force Lima) для изучения применения генеративного искусственного интеллекта в военных целях. «Лима» войдёт в состав Главного управления цифровых технологий и искусственного интеллекта Пентагона (CDAO), её возглавит член управления алгоритмической войны CDAO капитан Ксавьер Луго.

Как заявили в Минобороны США созданная группа «будет оценивать, синхронизировать и использовать генеративные возможности искусственного интеллекта, гарантируя, что министерство останется на переднем крае передовых технологий, одновременно обеспечивая национальную безопасность».

«Создание оперативной группы “Лима” подчёркивает непоколебимую приверженность министерства обороны лидерству в области инноваций в области искусственного интеллекта», – заявила заместитель госсекретаря Кэтлин Хикс.

«Хотя технология генеративного искусственного интеллекта не является новой, популярность генеративного искусственного интеллекта за последние несколько месяцев резко возросла в технологическом пространстве из-за его применения в таких проектах, как ChatGPT. Эта технология обучена на огромных наборах данных и может генерировать аудио, текст, изображения и другие типы контента. Сейчас министерство обороны ищет способы использования генеративного искусственного интеллекта для сбора разведывательной информации и будущих военных действий. Но хотя эта технология может предложить новые возможности для министерства обороны, министерство также должно учитывать риски, которым технология может его подвергнуть», – отмечает военный портал Breaking Defence.

В июне министр ВВС Фрэнк Кендалл объявил, что он попросил Научно-консультативный комитет ВВС изучить потенциальное влияние технологии ChatGPT. «Я прошу мой научный консультативный совет сделать с ИИ две вещи: посмотреть на методы генеративного ИИ, такие как ChatGPT, подумать об их военном применении, а затем собрать небольшую команду, чтобы сделать это быстро», — сказал Кендалл.

Генеративный ИИ относится к категории алгоритмов ИИ, которые генерируют новые результаты на основе данных, на которых они были обучены, в отличие от гораздо более простых алгоритмов машинного обучения, которые просто берут структурированные данные и выдают наиболее вероятные статистические результаты. Общедоступные инструменты для генеративного ИИ включают так называемые крупномасштабные языковые модели, такие как ChatGPT, которые могут генерировать новый текст, практически неотличимый от написанного человеком. Эти модели использовались для написания статей, бизнес-планов и даже научных статей.

«Но эти языковые модели иногда лгут или, как выражаются аналитики ИИ, галлюцинируют», – отмечает известный военный обозреватель Патрик Такер.

Объяснять, чем чреваты галлюцинации ИИ в случае его применения в военных целях, нет необходимости.

Один из пионеров этого направления Джеффри Хинтон в мае этого года уволился с работы в Google, чтобы выразить свою озабоченность по поводу рисков, связанных с генеративным искусственным интеллектом.

«В 2012 году доктор Хинтон и двое его аспирантов из университета Торонто создали технологию, которая стала интеллектуальной основой для создания искусственного интеллекта –системы, которую крупнейшие компании технологической отрасли считают ключом к их будущему. Однако… он официально присоединился к растущему хору критиков, которые говорят, что эти компании приближаются к опасной черте со своей агрессивной кампанией по созданию продуктов, основанных на генеративном искусственном интеллекте, технологии, которая лежит в основе популярных чат-ботов, таких как ChatGPT», – сообщила The New York Times.

«Трудно понять, как вы можете помешать плохим парням использовать его [генеративный ИИ] для плохих целей», – указывает Хинтон, подчёркивая, что генеративный ИИ может способствовать распространению дезинформации, сокращению рабочих мест и даже представлять угрозу человечеству в долгосрочной перспективе.

Хинтон считает, что по мере того, как системы ИИ становятся более мощными, растёт и связанный с ними риск. «Посмотрите, как это было пять лет назад и как сейчас, – отмечает он. – Возьмите разницу и распространите её в будущее. Это страшно».

Хинтон особо беспокоится о разработках автономных систем вооружений, которые сами охотятся за заданной целью и самостоятельно принимают решение о её уничтожении, и о том, что ИИ в военной сфере может превзойти человеческий интеллект. По его словам, в отличие от ядерного оружия, здесь невозможно узнать, работают ли втайне компании или страны над этой технологией.

Джеффри Хинтон рассказал, что когда его спрашивали, как может он работать над потенциально опасной технологией, он перефразировал Роберта Оппенгеймера, который возглавлял усилия США по созданию атомной бомбы: «Когда вы видите что-то технически приятное, вы идёте и делаете это».

«Он больше так не думает», – отметила The New York Times.

Между тем в США делают ставку на генеративный ИИ как на потенциальную революцию в военном деле и «мультипликатор силы».

«Генеративный ИИ обещает полностью изменить геополитику войны и сдерживания. Это будет делаться способами, которые могут даже стать экзистенциальной угрозой», – пишет колумнист Foreign Policy Майкл Хёрш.

«Программное обеспечение, управляемое искусственным интеллектом, может заставить крупные державы сократить окно принятия решений до минут, а не часов или дней. Они могут слишком сильно зависеть от стратегических и тактических оценок ИИ, даже когда дело доходит до ядерной войны. Опасность, по словам Герберта Лина из Стэнфордского университета, заключается в том, что лица, принимающие решения, могут постепенно полагаться на новый ИИ как на часть командования и контроля над вооружением, поскольку он действует на гораздо более высоких скоростях, чем люди».

Учитывая склонность ИИ к преувеличениям [то есть к упомянутым выше галлюцинациям], когда люди начинают верить, что машины думают, они с большей вероятностью будут делать сумасшедшие вещи», – отмечает Герберт Лин.

В недавно опубликованной книге «ИИ и бомба» (AI and the Bomb: Nuclear Strategy and Risk in the Digital Age) аналитик Абердинского университета Джеймс Джонсон описывает случайно возникшую ядерную войну в Восточно-Китайском море в 2025 году, спровоцированную ИИ-разведкой как с американской, так и с китайской стороны, с усилиями автономных ботов, поддержкой ИИ, дипфейками и операциями под ложным флагом».

В докладе, опубликованном Американской ассоциацией по контролю над вооружениями в начале февраля 2023 года, отмечается, что искусственный интеллект может привести к «стиранию различия между обычным и ядерным нападением». В докладе также говорится, что борьба за «использование новых технологий в военных целях ускорилась гораздо быстрее, чем попытки оценить опасности, которые они представляют, и установить ограничения на их использование».

«В январе этого года министерство обороны обновило свою директиву по системам вооружения, в которых используется искусственный интеллект, заявив, что при разработке и развертывании автономных систем вооружения необходимо использовать хотя бы некоторую человеческую оценку», – отмечает Майкл Хёрш, добавляя, что, «возможно, они идут по скользкой дорожке».

Выдающийся российский ученый профессор МГУ им. М.В. Ломоносова Сергей Павлович Расторгуев в написанной в 1965 году монографии «Цель как криптограмма. Криптоанализ синтетических целей» указал: «На сегодняшний день для мира компьютерных программ обретение самостоятельности стало свершившимся фактом». По мере усложнения программного продукта «системное программное обеспечение начинает жить своей жизнью, находя цель в себе самом», – отмечает российский ученый, сравнивая обретающие самостоятельность компьютерные комплексы со средневековым Големом, который, как известно, убил своего создателя.

Однако то, что Растогеев называет независимостью компьютерных программ, которую современные американские аналитики, ассоциирующие с генеративным искусственным интеллектом, называют «иллюзией», не утешает. Спустя почти три десятилетия стало ясно, что генеративный искусственный интеллект, особенно когда он применяется в военных целях, настолько сложен, что его предполагаемая самодостаточность отпугивает даже самых серьезных разработчиков, таких как Джеффри Хинтон.

Тем не менее, Пентагон создает еще одно «абсолютное оружие», на этот раз в области искусственного интеллекта, не обращая внимания на опасности, угрожающие всему человечеству, исходящие от компьютерных големов, созданных в недрах секретной лаборатории.

Добавить комментарий

Кнопка «Наверх»