(Упадок символьного ИИ.)
Символьный ИИ.
Пункт 6. Упадок символьного ИИ: границы формального.
- 16.05.26 г.
- 9772225665000 26014
Введение.
В предыдущих статьях мы проследили путь символьного искусственного интеллекта – от философских посылок Аристотеля и Лейбница до впечатляющих инженерных достижений, таких как экспертные системы. Также были рассмотрены альтернативные подходы, которые пытались бросить вызов гегемонии символьного подхода, хотя в 1960–1980-е годы они остались на обочине.
Однако к концу 1980-х годов стало очевидно: символьный ИИ, при всех его успехах, наталкивается на фундаментальные ограничения. Обещания создать «думающую машину» в обозримом будущем оказались невыполненными. Финансирование стало сокращаться, интерес общества и научного сообщества – угасать. Наступили периоды, которые позже назовут «зимами ИИ».
Ниже будет рассмотрено, почему произошел упадок символьной парадигмы. Мы рассмотрим четыре проблемы:
– проблему здравого смысла (common sense reasoning),
– проблему фрейма (frame problem),
– философскую критику Хуберта Дрейфуса,
– «Зимы ИИ» как социально-экономическое следствие этих проблем.
В заключении будут подведены итоги и показано, какие уроки извлекло сообщество исследователей – и как эти уроки подготовили почву для возрождения альтернативных подходов (нейросетей, статистического обучения, обучения с подкреплением), которые доминируют сегодня.
1.Проблема здравого смысла (common sense reasoning).
1.1. Что такое здравый смысл и почему он важен?
Здравый смысл – это огромный объем тривиальных знаний о мире, которые есть у любого взрослого человека (и даже у ребенка), но которые почти никогда не формулируются явно. Мы знаем, что вода мокрая, что огонь горячий, что если уронить стеклянный стакан на бетонный пол, он, скорее всего, разобьется, что людям не нравится, когда им больно, что если вы положили ключи в карман, то они не исчезнут сами собой.
Эти знания кажутся настолько очевидными, что мы обычно не задумываемся о них. Но для машины, которая оперирует только явно заданными правилами, эти «очевидности» вовсе не очевидны. Без них машина не может понимать простейшие тексты, отвечать на вопросы о повседневной жизни или действовать в реальном мире.
1.2. Проект Cyc: попытка формализовать здравый смысл.
В 1984 году американский исследователь Дуглас Леннат начал амбициозный проект Cyc (Cyc project, или просто Cyc; от английского «encyclopedia» – энциклопедия, но с искаженным написанием). Идея была простой и смелой: взять весь здравый смысл, который знает человек, и вручную записать его в виде формальных логических утверждений.
Команда Ленната начала с самых базовых вещей:
– «вода – это жидкость»,
– «жидкости не имеют фиксированной формы»,
– «если жидкость пролить, она растекается»,
– «мокрые вещи могут высохнуть»,
– «если уронить хрупкий предмет на твердую поверхность, он может разбиться».
К каждому такому утверждению добавлялись исключения, контексты, границы применимости. Например: «Стеклянный стакан – хрупкий. Бетонный пол – твердый. Если хрупкий предмет падает с высоты более нескольких сантиметров на твердую поверхность, он с высокой вероятностью разбивается или трескается».
Но проблема оказалась в том, что таких тривиальных утверждений – миллионы. И каждое из них требует уточнений, исключений, связей с другими утверждениями...
Проект Cyc продолжался десятилетиями. Были вложены огромные средства. Но даже спустя 40 лет проект не достиг цели. Cyc содержит миллионы утверждений, но все равно сталкивается с пробелами и противоречиями, когда его пытаются использовать в реальных приложениях.
Почему это провал не технический, а принципиальный?
Провал проекта Cyc показал не просто техническую сложность задачи. Он продемонстрировал принципиальную проблему: здравый смысл невозможно полностью формализовать в виде явных правил, потому что
а. объем знаний необозрим. Человек усваивает здравый смысл не через явное заучивание миллионов фактов, а через опыт, взаимодействие с миром, аналогии, обобщения. Мы не помним отдельное правило «если уронить стакан, он разобьется» – мы выводим его из более общих знаний о хрупкости, гравитации, твердости;
б. знания взаимосвязаны и контекстуальны. Утверждение «вода мокрая» истинно в обычных условиях, но вода может быть в виде льда (не мокрого) или пара (не ощущаемого как мокрый). Формализовать все контексты практически невозможно;
в. многие знания неявны и невербальны. Мы знаем, как держать ложку, как оценить расстояние на глаз, как понять, что человек расстроен – но мы не можем легко сформулировать эти знания в виде правил.
1.3. Проблема здравого смысла.
Сегодня проблема здравого смысла остается нерешенной. Даже самые мощные нейросети часто делают глупые ошибки именно из-за отсутствия здравого смысла.
Можно привести такие примеры из тестирования языковых моделей:
– на вопрос «У меня в холодильнике есть молоко, сливки, сахар, растворимый кофе. Что я могу приготовить?» модель может ответить «кофе со сливками» – и не заметить, что для обычного кофе нужна горячая вода, которая не упомянута;
– на вопрос «Если я положу ключи в морозилку, они упадут на пол?» модель может ответить «нет, они останутся в морозилке» – но не поймет, что вопрос абсурден.
Эти ошибки – прямое следствие отсутствия у машины того «фонового» знания о физическом мире, которым обладает любой человек. Проект Cyc показал, что простое перечисление правил не решает эту проблему.
2. Проблема фрейма (Frame Problem).
2.1. Формальная постановка: что не изменилось?
Проблема фрейма была впервые четко сформулирована в контексте символьного планирования (она упоминалась в лекции «Альтернативы символьному ИИ»). В формальной логике, если действие меняет мир, нужно указать не только то, что изменилось, но и то, что осталось неизменным. Например: действие «передвинуть куб с точки А на точку Б»; изменилось положение куба, но не изменилось положение всех остальных объектов (платформа, пандус, стены), цвет куба, его вес, температура в комнате, уровень освещения и так далее – буквально тысячи свойств.
Проблема: как аксиоматизировать то, что «все остальное осталось без изменений» без явного перечисления каждого свойства? В простых логических системах это перечисление необходимо. Для каждого действия нужно прописать все свойства мира, которые оно не меняет. Это приводит к комбинаторному взрыву.
2.2. Почему проблема фрейма оказалась принципиальной?
Проблема фрейма – это не просто техническая трудность. Она указывает на фундаментальное различие между человеческим и машинным «пониманием» мира:
– человек решает проблему фрейма легко: мы знаем, что мир стабилен, если нет причин думать иначе. Мы по умолчанию считаем, что свойства объектов сохраняются. Это знание не явное – оно часть нашего когнитивного аппарата;
– машина в рамках классической логики не может этого сделать: логика требует явных аксиом. Если мы не пропишем, что цвет куба не меняется при перемещении, машина не может быть в этом уверена.
Исследователи предложили множество технических решений (например, «аксиомы наследственности» – явное указание, что все свойства, не затронутые действием, сохраняются). Но все они либо приводили к другим логическим проблемам, либо не масштабировались на сложные миры.
2.3. Влияние проблемы фрейма на философию ИИ.
Проблема фрейма стала предметом активного обсуждения не только в ИИ, но и в философии сознания. Она показала, что формальная логика, при всей ее строгости, плохо подходит для описания динамического мира с постоянными, но неявными изменениями. Человеческое мышление не сводится к логическому выводу – оно включает мощные механизмы «умолчаний» и «контекстуальных предположений», которые трудно формализовать.
Даже сегодня, спустя десятилетия, проблема фрейма не имеет универсального логического решения. Современные подходы (вероятностное планирование, обучение с подкреплением) просто обходят ее – они не пытаются описывать мир логически, а учатся действовать в нем через пробу и ошибку.
3. Философская критика: Хуберт Дрейфус.
3.1. Кто такой Хуберт Дрейфус?
Хуберт Дрейфус (1929–2017) – американский философ, профессор Калифорнийского университета в Беркли. Он специализировался на феноменологии (философское направление, основанное Эдмундом Гуссерлем и развитое Мартином Хайдеггером и Морисом Мерло-Понти). В 1960-е годы Дрейфус получил контракт от RAND Corporation – крупного аналитического центра, финансировавшегося Пентагоном, – чтобы оценить перспективы исследований в области ИИ.
Ожидалось, что Дрейфус напишет оптимистический отчет. Вместо этого он написал критический доклад, а затем, в 1972 году, книгу «Чего не могут вычислительные машины» (переиздана в 1979 и 1992 годах с подзаголовком «Критика искусственного разума»).
3.2. Основные тезисы Дрейфуса.
Дрейфус атаковал не слабые стороны конкретных систем, а саму философскую основу символьного ИИ – гипотезу физической символьной системы. Его аргументы опирались на феноменологическую традицию.
Тезис 1. Человеческое мышление не основано на правилах.
Символьный ИИ предполагает, что интеллектуальное поведение можно воспроизвести, задав набор явных правил (как в экспертных системах). Дрейфус утверждал, что это неверное представление о человеческом познании.
Пример: как мы узнаем лицо друга? Мы не применяем правила («если расстояние между глазами такое-то, если форма носа такая-то…»). Мы просто видим лицо. Знание «как» (knowing how) не сводится к знанию «что» (knowing that) – к набору пропозициональных фактов.
Тезис 2. Интеллект укоренен в теле (embodiment).
Дрейфус, следуя Хайдеггеру и Мерло-Понти, утверждал, что интеллект не существует в виде абстрактной программы. Он всегда укоренен в теле, которое действует в физическом мире. Телесность дает интуитивное понимание пространства и времени, навыки и привычки, эмоциональное и перцептивное знание.
Тезис 3. Знание эксперта – это не набор правил.
Экспертные системы пытались получить знания от экспертов в виде правил «если–то». Дрейфус утверждал, что это неверная модель. Настоящий эксперт не применяет правила – он распознает ситуации и действует интуитивно (например, шахматист).
3.3. Значение критики Дрейфуса.
Книга Дрейфуса была встречена сообществом ИИ в штыки. Исследователи называли его «философом, который не понимает, как работают компьютеры». На протяжении 1970–1980-х годов аргументы Дрейфуса считались маргинальными. Но после упадка экспертных систем и наступления «зим ИИ» к его идеям начали прислушиваться. Сегодня многие идеи Дрейфуса стали общим местом в критике «сильного ИИ».
4. «Зимы ИИ» (AI Winters).
Что такое «зима ИИ»?
«Зимой ИИ» называют периоды резкого спада интереса к искусственному интеллекту, сопровождавшиеся сокращением финансирования, закрытием исследовательских программ и оттоком ученых в другие области. Было две основных «зимы ИИ»: первая (1974–1980) и вторая (1987–1993).
Первая зима ИИ (1974–1980).
Причины: нерешенные проблемы (здравый смысл, фрейм), невыполненные обещания 1950–1960-х годов и уничтожающий отчет Джеймса Лайтхилла (1973) в Великобритании, после которого финансирование было резко сокращено. DARPA в США также урезало поддержку многих фундаментальных проектов.
Вторая зима ИИ (1987–1993)
Причины: упадок рынка экспертных систем и Lisp-машин, а также провал японского проекта «Компьютеры пятого поколения» (1982–1992), который пытался создать новую архитектуру на основе логического программирования. Компании обанкротились, финансирование резко упало.
5. Выводы и наследие символьного ИИ.
Упадок парадигмы символьного ИИ не означал полного исчезновения всех идей и методов. Скорее, произошло переосмысление: что работает, что не работает и в каких контекстах.
Основные уроки.
а. Интеллект требует не только правил, но и данных, статистики, телесности, контекста. Символьный ИИ попытался построить интеллект «сверху вниз» – от логики к миру. Но оказалось, что без «нижних» этажей (обучение, восприятие, взаимодействие со средой) этот подход не работает.
б. Формальные методы не бесполезны – но их место в критических системах, где важна объяснимость и гарантии корректности.
в. Онтологии и семантический веб – прямое наследие символьного ИИ.
г. Гибридные системы (нейросимвольный ИИ) – перспективное направление сегодняшнего дня.
Что осталось от символьного ИИ сегодня?
Наследие символьного ИИ таково: экспертные системы используются в узких нишах, логическое программирование применяется в задачах, требующих логического вывода, онтологии активно используются в корпоративных системах, формальная верификация критически важна в авиации и медицине. Но главное наследие – это понимание границ формального.
6. Заключение: от упадка к возрождению.
Символьный ИИ был первой, по-своему грандиозной попыткой создать искусственный разум. Он дал нам мощные идеи: что мышление можно моделировать как вычисление, что знания можно представлять в виде символов и правил, что объяснимость и прозрачность – ценные свойства интеллектуальных систем.
Но он же показал и границы этого подхода. Здравый смысл не сводится к правилам. Проблема фрейма указывает на фундаментальную сложность описания динамического мира. Философская критика Дрейфуса напоминает, что разум неотделим от тела, практики и контекста. А «зимы ИИ» стали суровым напоминанием о том, что наука не может существовать только на энтузиазме – нужны реальные результаты.
Именно упадок символьной парадигмы создал пространство для возрождения того, что раньше было на обочине: статистических методов, машинного обучения, нейросетей.
Символьный ИИ проиграл битву, но выиграл войну в том смысле, что его упадок показал верный путь – путь синтеза символьного и субсимвольного, правил и данных, логики и статистики.
>> Дискуссии и конференции. AI