<<
>>

1. ВВЕДЕНИЕ

Общение, как известно, включает в себя нечто большее, чем просто ответы на изолированные запросы. Когда два индивида участвуют в информационно-поисковом диалоге, партнер, предостав­ляющий информацию (information-provider), существенным образом использует контекст, в котором встретился запрос, для интерпрета­ции этого запроса, определения нужной информации и формули­рования соответствующего ответа.

Контекст — это не только знания о предшествовавших запросах и ответах. Собеседник, стремящийся к действительному взаимодействию, использует информацию, цир­кулирующую в диалоге, и знания о предметной области для построе­ния гипотетической модели говорящего; эта модель, исправляемая и развертываемая в ходе диалога, называется моделью пользователя.

По-видимому, самым существенным компонентом модели пользо­вателя является представление слушающего о задаче, лежащей в основе запросов пользователя и мотивирующей их, а также о ча­стично разработанном пользователем плане решения этой задачи. Процесс вывода умозаключения о планах моделировался многими исследователями (Allen, 1980; Carberry, 1983; Grosz, 1977; Lit man, 1984; Perrault, 1980; Robinson, 1981; Sidner,

1983) , и эти модели использовались для понимания косвенных речевых актов (Perrault, 1980), для построения предупреди­тельных (helpful) ответов (Allen, 1980), для интерпретации праг­матически неправильно построенных запросов (Carberry, 1986), для восстановления интерсентенциального эллипсиса (Allen, 1980; Carberry, 1985) и для установления типа ответа, на который рассчитывает говорящий (Sidner, 1983) [30].

Однако во всех этих случаях делалось четыре весьма существен­ных допущения:

[1] Знания пользователя о проблемной области могут быть непол­ными, но не могут быть ошибочными.

[2] Запросы пользователя никогда не касаются тех аспектов зада­чи, которые выходят за рамки знаний системы. Такие системы исходят из допущения о закрытости мира (Reiter, 1978).

[3] Информация, поставляемая пользователем, верна и недвусмыс­ленна.

[4] Глубинный план, который выведен системой к моменту анализа нового высказывания,— это частично конкретизированный ва­риант того плана, которым руководствовался пользователь.

Эти допущения исключают ситуации, когда пользователь может строить запросы, нерелевантные относительно решаемой задачи, когда он может выяснять подробности, выходящие за рамки огра­ниченных знаний системы, когда он невольно может сообщить неверную информацию или когда система может на базе пред­шествующих запросов прийти к ошибочным выводам относительно планов пользователя. В результате система исходит из того, что выведенный ею глубинный план достижения цели и план, разви­ваемый пользователем, всегда совпадают.

Если мы хотим иметь системы, способные к ведению естествен­ного диалога, то интерфейсы, работающие на ествественном язы­ке, должны справляться с ситуациями, в которых указанные до­пущения неверны. Проведенный нами анализ записей естествен­ных информационно-поисковых диалогов показывает, что их участ­ники всегда пытаются выявлять несоответствия в своих моделях и, когда возможно, исправлять эти несоответствия. Мы считаем, что системы общения на естественном языке должны вести себя так же, иначе они не смогут правильно и эффективно реагировать на реп­лики, характерные для естественного человеческого диалога.

В настоящей работе предлагается таксономия неадекватных (disparate) моделей планов, которая основана на том, как модель, выведенная партнером, предоставляющим информацию, отражает модель задачи, имеющуюся у партнера, запрашивающего инфор­мацию. Мы утверждаем, что процесс вывода плана должен вклю­чать в себя четырехступенчатую процедуру обработки неадекват­ных планов и что учет этой процедуры требует более богатой мо­дели, чем те, которые применяются в современных системах. Мы показываем, что если делается предположение о неадекватности пла­на, то любые аргументы в пользу некоторого компонента как части правильной модели плана непосредственно влияют на выбор гипо­тезы об источнике ошибки.

В информационно-поисковом диалоге участвуют два партнера, один из которых ищет информацию, а другой стремится предоставить ему эту информацию. В основе такого диалога лежит какая-то прак­тическая задача, которую собирается решить, обычно в недалеком будущем, партнер, запрашивающий информацию. Он задает вопросы с целью получить информацию, необходимую для построения плана решения этой практической задачи. Примерами таких задач могут служить в сфере высшей школы освоение учебной программы, в сфере медицины — лечение больного, в сфере организации досу­га — проведение отпуска.

Эффективная (cooperative) система общения на естественном языке должна стремиться вывести лежащий в основе запросов поль­зователя план решения задачи и использовать этот план для постро­ения эффективных предупредительных ответов (Carberry, 1983; 1985). Мы называем модель этого плана, создаваемую системой, моделью контекста. Модель контекста — это один из компонентов мо­дели пользователя.

Здесь нас интересуют случаи, когда модель контекста, выве­денная системой, неправильно отражает план, который строит поль­зователь. Неадекватные модели плана можно классифицировать по характеру отличия модели, выведенной системой, от той модели за­дачи, которая имеется у пользователя:

[1] ошибочные модели, охватывающие случаи, когда модель, вы­веденная системой, несовместима с моделью пользователя (ес­ли бы пользователь мог в таких случаях проверить модель сис­темы, он нашел бы, что она содержит ошибки);

[2] чрезмерно конкретизированные модели, охватывающие случаи, когда модель, выведенная системой, уже, чем та, которую име­ет в виду пользователь;

[3] чрезмерно обобщенные модели, охватывающие случаи, когда мо­дель, выведенная системой, менее конкретна, чем та, которую имеет в виду пользователь;

[4] модели с ограниченными знаниями, охватывающие случаи, когда модель, выведенная системой, не дает верного отражения плана, который строит пользователь, из-за ограниченности знаний системы о предметной области.

Использование правил вывода умозаключений по умолчанию может привести к построению ошибочных или чрезмерно конкрети­зированных моделей. Ошибочные модели могут возникать также в ре­зультате неточных или вводящих в заблуждение утверждений поль­зователя или в тех случаях, когда система использует эвристику фокусирования для соотнесения новых высказываний с контекстом уже существующего плана. Чрезмерно обобщенные модели могут возникать в случаях, когда пользователю не удалось адекватно выра­зить свои намерения (или система не смогла распознать эти намере­ния). Модели с ограниченными знаниями могут появляться тогда, когда знания пользователя в предметной области превосходят знания системы.

Пятая категория — частичные модели — охватывает случаи, ког­да система вывела только часть плана пользователя; последующий диалог позволит системе расширять и уточнять эту модель контекста, по мере того как пользователь будет сообщать ей что-то новое о своих намерениях. Мы не считаем частичные модели неадекватны­ми структурами: если бы пользователь проверил выведенный систе­мой частичный план, он бы счел его верной моделью тех его наме­рений, которые он успел сообщить к данному моменту.

3.

<< | >>
Источник: Б.Ю. Городец­кий. Новое в зарубежной лингвистике: Вып. XXIV. Компьютерная лингвистика: Пер. с англ./Сост., ред. и вступ, ст. Б. Ю. Городец­кого.— М.: Прогресс,1989.—432 с.. 1989

Еще по теме 1. ВВЕДЕНИЕ:

  1. Статья 314. Незаконное введение в организм наркотических средств, психотропных веществ или их аналогов
  2. ВВЕДЕНИЕ История нашего государства и права — одна из важнейших дисциплин в системе
  3. ВВЕДЕНИЕ
  4. Мысли об организации немецкой военной экономикиВведение
  5.   ПРЕДИСЛОВИЕ [к работе К. Маркса «К критике гегелевской философии права. Введение»] 1887  
  6. Под редакцией доктора юридических наук, профессора А.П. СЕРГЕЕВА Введение
  7. ВВЕДЕНИЕ
  8. Введение
  9. Введение
  10. ВВЕДЕНИЕ
  11. Введение
  12. Введение
  13. Введение
  14. ВВЕДЕНИЕ
  15. Введение
  16. ВВЕДЕНИЕ
  17. ВВЕДЕНИЕ
  18. ВВЕДЕНИЕ