Искусственный интеллект

ИИ ограничен в возможностях из-за математического парадокса

Как правило, люди довольно хорошо распознают, когда они делают что-то не так, а вот системы искусственного интеллекта на это не способны. Согласно новому исследованию, эти ограничения у ИИ возникают из-за математического парадокса.

Системы ИИ нередко обладают уверенностью, намного превышающей их реальные возможности. Как и самоуверенные люди, многие системы ИИ не понимают, когда делают ошибки. Иногда ИИ сложнее понять, что он ошибается, чем дать правильный результат.

Исследователи из Кембриджского университета и Университета Осло считают, что нестабильность — это ахиллесова пята современного ИИ, а математический парадокс показывает его ограничения.

Нейронные сети приблизительно имитируют связи между нейронами в мозгу человека. Исследователи продемонстрировали, что проблемы возникают, когда существуют стабильные и точные нейронные сети, но ни один алгоритм не способен создать такую сеть. Только в редких случаях алгоритмы все-таки способны формировать стабильные и точные нейронные сети.

Авторы исследования, вышедшего в Proceedings of the National Academy of Sciences, предлагают теорию классификации, описывающую, когда нейронные сети можно обучить для создания надежной системы искусственного интеллекта при определенных условиях

Глубокое обучение, ведущая технология ИИ для распознавания образов, было предметом пристального внимания ученых во всем мире. Оно подразумевает более точную диагностику заболеваний по сравнению с медиками, а также предотвращение ДТП с помощью автономного вождения. Однако многие системы глубокого обучения ненадежны и их легко обмануть. Это становится серьезной проблемой, так как они все чаще используются в областях повышенного риска,

Парадокс, обнаруженный исследователями, отсылает нас к известным математикам ХХ века: Алану Тьюрингу и Курту Гёделю. В начале ХХ века они пытались зарекомендовать математику как наименее противоречивую науку. Однако Тьюринг и Гёдель выявили парадокс, лежащий в основе математики: невозможно доказать, истинны или ложны некоторые математические утверждения, а некоторые вычислительные задачи невозможно решить с помощью алгоритмов. И всякий раз, когда математическая система достаточно богата, чтобы описать арифметику, которую мы изучаем в школе, она не способна доказать свою непротиворечивость.

Через несколько десятков лет математик Стивен Смейл составил список из 18 нерешенных математических задач ХХI века. Последняя из них как раз касалась пределов интеллекта как людей, так и машин, перекликаясь с математическим парадоксом, описанным выше. И авторы нового исследования утверждают: как существуют фундаментальные ограничения, присущие математике, так и алгоритмы ИИ не могут применяться для определенных задач из-за этого парадокса.

Невозможность вычислить заслуживающую доверия точную нейронную сеть также верна независимо от количества обучающих данных. Вне зависимости от того, к какому количеству данных может получить доступ алгоритм, он не создаст желаемую сеть. Это похоже на аргумент Тьюринга: есть вычислительные проблемы, которые невозможно решить независимо от вычислительной мощности и времени выполнения.

Авторы новой работы говорят, что не весь ИИ ошибается, но проблема связана с областями, где необходима гарантия. В некоторых ситуациях для ИИ совершенно нормально совершать ошибки, но в сферах с повышенным риском он должен понимать, где он ошибается. Однако нет никакого способа узнать, когда системы ИИ более или менее уверены в своем решении.

В настоящее время системы искусственного интеллекта все-таки иногда могут догадываться об ошибках, но для этого они должны понимать ограничения различных подходов к решению задачи. Ведь, когда человек пробует что-то, и у него не получается, он добавляет еще что-то, надеясь, что это сработает. В какой-то момент ему надоест не получать то, что он хочет, и он попробует другой метод. Однако в развитии ИИ сейчас та стадия, когда его практические успехи намного опережают теорию — поэтому нужна программа по пониманию основ вычислений ИИ.

Когда ученые ХХ века выявили парадоксы, они не прекратили изучение математики. Им просто нужно было найти новые пути, потому что они понимали, где имеются ограничения. Для ИИ аналогичным подходом может стать изменение существующих путей или разработка новых для создания систем, которые могут решать проблемы надежным способом, понимая при этом существующие ограничения.

Следующим этапом для исследователей станет объединение теории аппроксимации, численного анализа и основ вычислений, чтобы определить, какие нейронные сети можно сделать точными. Парадоксы ограничений математики и машин, выявленные Гёделем и Тьюрингом, привели к появлению богатых теорий основ, описывающих как ограничения, так и возможности математики и вычислений. Поэтому вполне вероятно, что подобная теория основ появится в сфере разработки ИИ.

Источник: zoom.cnews.ru

Источник

Добавить комментарий

Кнопка «Наверх»