Выводы
Выводы предшествующих подразделов основаны на анализе записей информационно-поисковых диалогов между людьми. Они показывают, что проблема неадекватности выводимого плана должна решаться на основе разграничения следующих четырех фаз:
[1] обнаружение неадекватности модели;
[2] выдвижение гипотезы о причине неадекватности;
[3] развернутая ответная реакция, часто включающая в себя диалог-переговоры с целью установления причины расхождения;
[4] модификация моделей для «выравнивания» структур планов.
Так как этот подход имитирует типичные действия участников человеческого диалога, то поведение естественноязыкового интерфейса, основанное на этой стратегии, будет восприниматься че- ловеком-пользователем как естественное.
5. РАЗВИТАЯ МОДЕЛЬ КОНТЕКСТА
Знание, полученное из диалога, и то, как оно было использовано для построения модели контекста,— это важные факторы при выявлении неадекватности моделей, реагировании на нее и ее преодолении. Участники человеческого диалога обычно используют разнообразные методы для понимания диалога и установления смысловых связей — такие, например, как стратегии фокусирования и правила умолчания,— но они, как кажется, бывают более уверены в одних аспектах результирующей модели и менее уверены в других. Системы общения на естественном языке должны использовать аналогичные механизмы, с тем чтобы их умозаключения соответствовали ожиданиям человека, а их ответы максимально его удовлетворяли. Мы считаем, что в репрезентации выводимого плана его компоненты должны дифференцироваться по типу подтверждения системой того, что данный компонент есть верная часть выведенного плана, соответствующая намерениям пользователя. В этом плане наша система аналогична системе «подтверждения истинности» Дойла (Doyle, 1979), в которой отношениям к тем или иным фактам приписываются доводы, свидетельствующие в их пользу.
Мы усматриваем четыре типа подтверждения компонентов плана:
[1] вывела ли система данный компонент непосредственно из сказанного ЗИ;
[2] вывела ли система данный компонент на основе своих собственных знаний о предметной области, в известности которых ЗИ система не может быть уверена;
[3] виды механизмов, использованных для введения каждого компонента в модель (например, правила умолчания, которые выбирают один из нескольких возможных компонентов, или эвристика, которая предполагает перемещение фокуса внимания), и основания для применения данного механизма;
[4] согласуются ли знания системы о предметной области с включением данного компонента в состав правильного общего плана, или же они противоречат такому включению, или нейтральны в этом отношении.
Первые три фактора важны при выдвижении гипотезы об источнике несоответствия между моделью системы и планом ЗИ. Если система полагает, что ЗИ стремится к тому, чтобы система узнала из его высказывания, что G есть компонент плана ЗИ, то система может ввести G в свою модель контекста и с высшей степенью уверенности считать, что это действительно компонент плана ЗИ. Следовательно, весьма маловероятно, что такие компоненты могут быть источниками несоответствия между моделью контекста, имеющейся у системы, и планом ЗИ.
Уверенность системы в компонентах, которые она сама добавляет к модели контекста на базе своих знаний о предметной области, будет сильной, но не такой, как в случае, когда ЗИ непосредственно высказывает их. Эти компоненты относятся скорее к «распознаванию через замочную скважину», нежели к «распознаванию, на которое рассчитывают» (Sidner, 1985; 1983). Поскольку ЗИ, возможно, и не имел намерения их высказать, они с большей долей вероятности могут оказаться источниками ошибки, чем компоненты, которые ЗИ предназначал для распознавания их ПИ.
Рассмотрим для примера систему консультирования студентов. Если сдача экзамена по иностранному языку требуется только для получения степени бакалавра гуманитарных наук, то запрос
Какой курс я должен прослушать, чтобы сдать экзамен по французскому языку как иностранному?
может подвести систему к умозаключению, что ЗИ стремится получить степень бакалавра гуманитарных наук.
Если защита дипломного проекта требуется только для степени бакалавра естественных наук, то следующий за вышеуказанным запросСколько нужно иметь зачетов для защиты дипломного проекта?
указывает на несоответствие планов. Либо второй запрос не соответствует общей задаче ЗИ (Pollack, 1986), либо модель контекста в системе уже содержит ошибку. Поскольку компонент Получить-Степень (ЗИ, БАКАЛАВР-ГУМНАУК) был выведен на основе знаний системы о предметной области, а не непосредственно из высказывания ЗИ; он берется на подозрение как источник ошибки.
Механизмы, используемые для введения компонента в модель контекста, оказывают влияние на степень уверенности ПИ в данном компоненте как части общего плана ЗИ. Вернемся к примеру ИСПО на рис. 1. При построении высказывания [4] ПИ исходил из предположения, сделанного по умолчанию, что ЗИ не был охвачен никакой пенсионной программой в течение указанного года (в то время правила оформления ИСПО были иными). Следующее за этим высказывание ЗИ выражает недоумение по поводу ответной реакции ПИ, тем самым сигнализируя о возможной неадекватности выведенного плана. В высказывании [6] в качестве возможного источника неадекватности ПИ выбирает компонент, введенный в модель контекста через посредство предположения, основанного на умолчании, сообщает ЗИ, что этот компонент входит в модель контекста ПИ, и пытается обосновать его введение.
Анализ естественных диалогов, таких, как на рис. 1, показывает, что в целях развертывания модели контекста и создания более детализированной и удобной в работе среды для понимания очередных высказываний и реагирования на них человек использует такие механизмы, как правила вывода умозаключений по умолчанию и эвристика фокусирования. Системы, работающие на естественном языке, должны применять сходные механизмы, чтобы вести естественный диалог с человеком, основанный на принципе сотрудничества. Однако эти правила осуществляют выбор одной из нескольких возможностей и, следовательно, выдают такие компоненты модели контекста, которые с большей долей вероятности становятся источниками ошибок, чем компоненты, вводимые на основе прямых заявлений ЗИ или получаемые из знаний системы о предметной области.
Четвертое основание для дифференциации компонентов — согласуются ли знания системы о предметной области с включением данного компонента в состав правильного общего плана, противоречат такому включению или нейтральны в этом отношении — важно для устранения несоответствия планов. Знания о предметной области ограничены даже у экспертных систем. Кроме того, в стремительно меняющемся мире знающие пользователи могут обладать более точной информацией о тех или иных аспектах данной области, чем система. Так, например, система консультирования студентов может не сразу узнать о замене преподавателя по данному курсу. Поэтому мы считаем, что модель контекста должна допускать включение компонентов, предлагаемых пользователем, независимо от того, согласуются они со знаниями системы, противоречат им или нейтральны по отношению к этим знаниям.
Например, в диалоге «Кермит», решив, что знания ЗИ о предметной области, вероятно, превосходят знания системы, система должна развернуть свою модель, включив в нее полученное знание о том, как, по мнению ЗИ, можно приобрести гибкие диски. Сконструированные таким образом компоненты плана могут вводиться в модель системы с той оговоркой, что они помечаются как компоненты, предложенные ЗИ, но не получившие полного подтверждения со стороны знаний системы. Таким путем система может ассимилировать новые высказывания, которые выходят за рамки ее знаний или противоречат им, и получать расширенную модель контекста, выступающую в качестве «знаний», на которые можно ссылаться в ходе дальнейшего общения.
6. РЕЗЮМЕ
В работе рассматривалась проблема неадекватности модели контекста, которую выводит система, работающая на естественном языке, по отношению к тому плану, который строит пользователь. Мы предложили четырехфазовую процедуру и показали, что для обработки неадекватных планов требуется усовершенствованная модель контекста. Эта модель должна допускать введение компонентов, прелагаемых пользователем, но не получающих полной поддержки со стороны знаний системы о предметной области, и должна дифференцировать свои компоненты по типу поддержки, которую они получают как кандидаты на вхождение в правильный общий план пользователя. Далее мы показали, что тип поддержки компонента влияет на формирование системой гипотезы об источнике ошибки (в тех случаях, когда система будет вынуждена сомневаться в адекватности выводимого ею плана).