1. ВВЕДЕНИЕ
Общение, как известно, включает в себя нечто большее, чем просто ответы на изолированные запросы. Когда два индивида участвуют в информационно-поисковом диалоге, партнер, предоставляющий информацию (information-provider), существенным образом использует контекст, в котором встретился запрос, для интерпретации этого запроса, определения нужной информации и формулирования соответствующего ответа.
Контекст — это не только знания о предшествовавших запросах и ответах. Собеседник, стремящийся к действительному взаимодействию, использует информацию, циркулирующую в диалоге, и знания о предметной области для построения гипотетической модели говорящего; эта модель, исправляемая и развертываемая в ходе диалога, называется моделью пользователя.По-видимому, самым существенным компонентом модели пользователя является представление слушающего о задаче, лежащей в основе запросов пользователя и мотивирующей их, а также о частично разработанном пользователем плане решения этой задачи. Процесс вывода умозаключения о планах моделировался многими исследователями (Allen, 1980; Carberry, 1983; Grosz, 1977; Lit man, 1984; Perrault, 1980; Robinson, 1981; Sidner,
1983) , и эти модели использовались для понимания косвенных речевых актов (Perrault, 1980), для построения предупредительных (helpful) ответов (Allen, 1980), для интерпретации прагматически неправильно построенных запросов (Carberry, 1986), для восстановления интерсентенциального эллипсиса (Allen, 1980; Carberry, 1985) и для установления типа ответа, на который рассчитывает говорящий (Sidner, 1983) [30].
Однако во всех этих случаях делалось четыре весьма существенных допущения:
[1] Знания пользователя о проблемной области могут быть неполными, но не могут быть ошибочными.
[2] Запросы пользователя никогда не касаются тех аспектов задачи, которые выходят за рамки знаний системы.
Такие системы исходят из допущения о закрытости мира (Reiter, 1978).[3] Информация, поставляемая пользователем, верна и недвусмысленна.
[4] Глубинный план, который выведен системой к моменту анализа нового высказывания,— это частично конкретизированный вариант того плана, которым руководствовался пользователь.
Эти допущения исключают ситуации, когда пользователь может строить запросы, нерелевантные относительно решаемой задачи, когда он может выяснять подробности, выходящие за рамки ограниченных знаний системы, когда он невольно может сообщить неверную информацию или когда система может на базе предшествующих запросов прийти к ошибочным выводам относительно планов пользователя. В результате система исходит из того, что выведенный ею глубинный план достижения цели и план, развиваемый пользователем, всегда совпадают.
Если мы хотим иметь системы, способные к ведению естественного диалога, то интерфейсы, работающие на ествественном языке, должны справляться с ситуациями, в которых указанные допущения неверны. Проведенный нами анализ записей естественных информационно-поисковых диалогов показывает, что их участники всегда пытаются выявлять несоответствия в своих моделях и, когда возможно, исправлять эти несоответствия. Мы считаем, что системы общения на естественном языке должны вести себя так же, иначе они не смогут правильно и эффективно реагировать на реплики, характерные для естественного человеческого диалога.
В настоящей работе предлагается таксономия неадекватных (disparate) моделей планов, которая основана на том, как модель, выведенная партнером, предоставляющим информацию, отражает модель задачи, имеющуюся у партнера, запрашивающего информацию. Мы утверждаем, что процесс вывода плана должен включать в себя четырехступенчатую процедуру обработки неадекватных планов и что учет этой процедуры требует более богатой модели, чем те, которые применяются в современных системах. Мы показываем, что если делается предположение о неадекватности плана, то любые аргументы в пользу некоторого компонента как части правильной модели плана непосредственно влияют на выбор гипотезы об источнике ошибки.
В информационно-поисковом диалоге участвуют два партнера, один из которых ищет информацию, а другой стремится предоставить ему эту информацию. В основе такого диалога лежит какая-то практическая задача, которую собирается решить, обычно в недалеком будущем, партнер, запрашивающий информацию. Он задает вопросы с целью получить информацию, необходимую для построения плана решения этой практической задачи. Примерами таких задач могут служить в сфере высшей школы освоение учебной программы, в сфере медицины — лечение больного, в сфере организации досуга — проведение отпуска.
Эффективная (cooperative) система общения на естественном языке должна стремиться вывести лежащий в основе запросов пользователя план решения задачи и использовать этот план для построения эффективных предупредительных ответов (Carberry, 1983; 1985). Мы называем модель этого плана, создаваемую системой, моделью контекста. Модель контекста — это один из компонентов модели пользователя.
Здесь нас интересуют случаи, когда модель контекста, выведенная системой, неправильно отражает план, который строит пользователь. Неадекватные модели плана можно классифицировать по характеру отличия модели, выведенной системой, от той модели задачи, которая имеется у пользователя:
[1] ошибочные модели, охватывающие случаи, когда модель, выведенная системой, несовместима с моделью пользователя (если бы пользователь мог в таких случаях проверить модель системы, он нашел бы, что она содержит ошибки);
[2] чрезмерно конкретизированные модели, охватывающие случаи, когда модель, выведенная системой, уже, чем та, которую имеет в виду пользователь;
[3] чрезмерно обобщенные модели, охватывающие случаи, когда модель, выведенная системой, менее конкретна, чем та, которую имеет в виду пользователь;
[4] модели с ограниченными знаниями, охватывающие случаи, когда модель, выведенная системой, не дает верного отражения плана, который строит пользователь, из-за ограниченности знаний системы о предметной области.
Использование правил вывода умозаключений по умолчанию может привести к построению ошибочных или чрезмерно конкретизированных моделей. Ошибочные модели могут возникать также в результате неточных или вводящих в заблуждение утверждений пользователя или в тех случаях, когда система использует эвристику фокусирования для соотнесения новых высказываний с контекстом уже существующего плана. Чрезмерно обобщенные модели могут возникать в случаях, когда пользователю не удалось адекватно выразить свои намерения (или система не смогла распознать эти намерения). Модели с ограниченными знаниями могут появляться тогда, когда знания пользователя в предметной области превосходят знания системы.
Пятая категория — частичные модели — охватывает случаи, когда система вывела только часть плана пользователя; последующий диалог позволит системе расширять и уточнять эту модель контекста, по мере того как пользователь будет сообщать ей что-то новое о своих намерениях. Мы не считаем частичные модели неадекватными структурами: если бы пользователь проверил выведенный системой частичный план, он бы счел его верной моделью тех его намерений, которые он успел сообщить к данному моменту.
3.