551 потому что производили операции над данными, не приписывая им смысла, т. е. оперировали данными, а не знаниями. Был также период, когда «понимающими» называли системы, способные осуществлять только синтаксический анализ входного предложения. Эти системы не имели моделей предметной области, не соотносили анализируемое и якобы понимаемое предложение с отображенной в нем предметной ситуацией. Устанавливая взаимно однозначные соответствия между буквами слов естественного языка и их машинными кодами, программы таких систем, по сути дела, манипулировали символами как изолированными от мира сущностями, связанными только между собой. Надо отметить, что многие современные специалисты по вычислительной технике полагают, что поскольку в языках программирования символам программ приписываются определенные произвольно выбранные значения, то тем самым программа работает с символами как с чем-то действительно означенным. Они говорят, что могут закодировать любое слово естественного языка (например, «корабль») последовательностью нулей и единиц, приписывая тем самым этой последовательности символов тот смысл, который это слово имеет для человека. Они не учитывают, что предметная отнесенность и целевая направленность возможного использования слова в речевом общении остается у них в голове, не попадая в программу. Вследствие этого, хотя кодируемое слово, безусловно, имеет смысл для программиста и выступает для него как знание, обозначающее что-то вполне определенное, для системы, не имеющей моделей действительности и целей, оно выступает в роли данных, с которыми осуществляются преобразования, заданные алгоритмами программ. Для таких программистов вообще характерна путаница в употреблении понятия «понимание» применительно к человеку и машине. Они, например, считают, что если система выполняет инженерные расчеты так, что результаты ее деятельности схожи с результатами решения расчетных задач человеком и потому понятны разработчику, то такая система понимает задачу, так как действует в соответствии с ее требованиями. Однако объективно это говорит лишь о том, что понимает динамическую структуру задачи (т. е. может найти ее предметные и целевые корреляты в своем внутреннем мире) сам разработчик, а отнюдь не компьютер. Модели предметной области стали включаться в состав систем «искусственного интеллекта» уже 20 лет назад, а создание 552 блоков целей — это характерная черта систем 80-х годов. В публикациях, по искусственному интеллекту (например, [129]), понятие «цель» чаще всего используется в контексте разработки планирующей компоненты системы — модуля построения или выведения плана (обычно речь идет о плане поведения человека, описываемого в тексте, который поступает на вход системы). Цели в них рассматриваются как вполне конкретные образования — препятствия, мешающие выполнению плана действующего субъекта. При воспроизведении в системе интерпретируемая таким способом «цель» оказывается просто одной из функций машины, имеющей мало общего с «целью» в психологии. — 455 —
|