Эта подсистема по требованию пользователя может шаг за шагом растолковывать ему как был получен предложенный вывод. Тем не менее и такая процедура очень часто не снимает недоумения пользователя. Здесь сказываются по крайней мере два фактора: разница в уровне компетентности пользователя и эксперта, послужившего прототипом для компьютерной базы знаний, и значительная длина цепочки рассуждений, осуществленных системой. Ощущение недоумения и снижение самооценки пользователю в такой ситуации гарантировано. Описываемая ситуация относится к работе так называемых консультирующих экспертных систем, которые далеко не исчерпывают всего разнообразия систем искусственного интеллекта. Так, другая их группа, предназначенная непосредственно для работы в условиях производства, самостоятельно осуществляет контроль и управление технологическими процессами, т. е. вступает в контакт с пользователем реже. В этом случае понимание пользователем принятых системой решений может быть нарушено еще в большей степени. Теперь вернемся к описанным выше различиям в позициях относительно сходства процедур работы интеллектуальных систем и человека. Нам кажется ясным, что по мере роста различий между этими процедурами, уровень понимания пользователем происходящих процессов также будет снижаться. Еще один фактор снижения понимания пользователем логики работы системы потенциально присутствует в создании класса так называемых самообучающихся интеллектуальных систем. Он должен проявиться в том случае, когда помимо полученных от эксперта знаний система будет в состоянии основываться в своих выводах на собственных полученных в работе знаниях, а также на знаниях, почерпнутых из доступных смежных баз знаний. Кроме этого в соответствии с широко известными проектами самообучающаяся система будет в состоянии использовать в диалоге с пользователем выводы, полученные в ходе взаимодействия с ним. Иначе говоря, такая система будет способна учитывать стиль деятельности пользователя, а в потенции и использовать как его сильные, так и слабые стороны. Перечисленные особенности систем искусственного интеллекта могут вести при работе с ними по крайней мере к трем вариантам психологического решения. Первый — пользователь продолжает предпринимать усилия в освоении системы. Этот выход похож на соперничество интеллектов. Второй — пользователь отказывается от использования системы, не справившись с нею. Этот вариант можно условно назвать — отказ. Третий — пользователь доверяет системе и действует в соответствии с ее рекомендациями. Это похоже на подчинение. По нашему мнению, ни один из указанных вариантов не может быть — 200 —
|