ФОНЕТИЧЕСКИЙ звуко-буквенный разбор слов онлайн
 <<
>>

1. ВВЕДЕНИЕ

Общение, как известно, включает в себя нечто большее, чем просто ответы на изолированные запросы. Когда два индивида участвуют в информационно-поисковом диалоге, партнер, предостав­ляющий информацию (information-provider), существенным образом использует контекст, в котором встретился запрос, для интерпрета­ции этого запроса, определения нужной информации и формули­рования соответствующего ответа.

Контекст — это не только знания о предшествовавших запросах и ответах. Собеседник, стремящийся к действительному взаимодействию, использует информацию, цир­кулирующую в диалоге, и знания о предметной области для построе­ния гипотетической модели говорящего; эта модель, исправляемая и развертываемая в ходе диалога, называется моделью пользователя.

По-видимому, самым существенным компонентом модели пользо­вателя является представление слушающего о задаче, лежащей в основе запросов пользователя и мотивирующей их, а также о ча­стично разработанном пользователем плане решения этой задачи. Процесс вывода умозаключения о планах моделировался многими исследователями (Allen, 1980; Carberry, 1983; Grosz, 1977; Lit man, 1984; Perrault, 1980; Robinson, 1981; Sidner,

1983) , и эти модели использовались для понимания косвенных речевых актов (Perrault, 1980), для построения предупреди­тельных (helpful) ответов (Allen, 1980), для интерпретации праг­матически неправильно построенных запросов (Carberry, 1986), для восстановления интерсентенциального эллипсиса (Allen, 1980; Carberry, 1985) и для установления типа ответа, на который рассчитывает говорящий (Sidner, 1983) [30].

Однако во всех этих случаях делалось четыре весьма существен­ных допущения:

[1] Знания пользователя о проблемной области могут быть непол­ными, но не могут быть ошибочными.

[2] Запросы пользователя никогда не касаются тех аспектов зада­чи, которые выходят за рамки знаний системы.

Такие системы исходят из допущения о закрытости мира (Reiter, 1978).

[3] Информация, поставляемая пользователем, верна и недвусмыс­ленна.

[4] Глубинный план, который выведен системой к моменту анализа нового высказывания,— это частично конкретизированный ва­риант того плана, которым руководствовался пользователь.

Эти допущения исключают ситуации, когда пользователь может строить запросы, нерелевантные относительно решаемой задачи, когда он может выяснять подробности, выходящие за рамки огра­ниченных знаний системы, когда он невольно может сообщить неверную информацию или когда система может на базе пред­шествующих запросов прийти к ошибочным выводам относительно планов пользователя. В результате система исходит из того, что выведенный ею глубинный план достижения цели и план, разви­ваемый пользователем, всегда совпадают.

Если мы хотим иметь системы, способные к ведению естествен­ного диалога, то интерфейсы, работающие на ествественном язы­ке, должны справляться с ситуациями, в которых указанные до­пущения неверны. Проведенный нами анализ записей естествен­ных информационно-поисковых диалогов показывает, что их участ­ники всегда пытаются выявлять несоответствия в своих моделях и, когда возможно, исправлять эти несоответствия. Мы считаем, что системы общения на естественном языке должны вести себя так же, иначе они не смогут правильно и эффективно реагировать на реп­лики, характерные для естественного человеческого диалога.

В настоящей работе предлагается таксономия неадекватных (disparate) моделей планов, которая основана на том, как модель, выведенная партнером, предоставляющим информацию, отражает модель задачи, имеющуюся у партнера, запрашивающего инфор­мацию. Мы утверждаем, что процесс вывода плана должен вклю­чать в себя четырехступенчатую процедуру обработки неадекват­ных планов и что учет этой процедуры требует более богатой мо­дели, чем те, которые применяются в современных системах. Мы показываем, что если делается предположение о неадекватности пла­на, то любые аргументы в пользу некоторого компонента как части правильной модели плана непосредственно влияют на выбор гипо­тезы об источнике ошибки.

В информационно-поисковом диалоге участвуют два партнера, один из которых ищет информацию, а другой стремится предоставить ему эту информацию. В основе такого диалога лежит какая-то прак­тическая задача, которую собирается решить, обычно в недалеком будущем, партнер, запрашивающий информацию. Он задает вопросы с целью получить информацию, необходимую для построения плана решения этой практической задачи. Примерами таких задач могут служить в сфере высшей школы освоение учебной программы, в сфере медицины — лечение больного, в сфере организации досу­га — проведение отпуска.

Эффективная (cooperative) система общения на естественном языке должна стремиться вывести лежащий в основе запросов поль­зователя план решения задачи и использовать этот план для постро­ения эффективных предупредительных ответов (Carberry, 1983; 1985). Мы называем модель этого плана, создаваемую системой, моделью контекста. Модель контекста — это один из компонентов мо­дели пользователя.

Здесь нас интересуют случаи, когда модель контекста, выве­денная системой, неправильно отражает план, который строит поль­зователь. Неадекватные модели плана можно классифицировать по характеру отличия модели, выведенной системой, от той модели за­дачи, которая имеется у пользователя:

[1] ошибочные модели, охватывающие случаи, когда модель, вы­веденная системой, несовместима с моделью пользователя (ес­ли бы пользователь мог в таких случаях проверить модель сис­темы, он нашел бы, что она содержит ошибки);

[2] чрезмерно конкретизированные модели, охватывающие случаи, когда модель, выведенная системой, уже, чем та, которую име­ет в виду пользователь;

[3] чрезмерно обобщенные модели, охватывающие случаи, когда мо­дель, выведенная системой, менее конкретна, чем та, которую имеет в виду пользователь;

[4] модели с ограниченными знаниями, охватывающие случаи, когда модель, выведенная системой, не дает верного отражения плана, который строит пользователь, из-за ограниченности знаний системы о предметной области.

Использование правил вывода умозаключений по умолчанию может привести к построению ошибочных или чрезмерно конкрети­зированных моделей. Ошибочные модели могут возникать также в ре­зультате неточных или вводящих в заблуждение утверждений поль­зователя или в тех случаях, когда система использует эвристику фокусирования для соотнесения новых высказываний с контекстом уже существующего плана. Чрезмерно обобщенные модели могут возникать в случаях, когда пользователю не удалось адекватно выра­зить свои намерения (или система не смогла распознать эти намере­ния). Модели с ограниченными знаниями могут появляться тогда, когда знания пользователя в предметной области превосходят знания системы.

Пятая категория — частичные модели — охватывает случаи, ког­да система вывела только часть плана пользователя; последующий диалог позволит системе расширять и уточнять эту модель контекста, по мере того как пользователь будет сообщать ей что-то новое о своих намерениях. Мы не считаем частичные модели неадекватны­ми структурами: если бы пользователь проверил выведенный систе­мой частичный план, он бы счел его верной моделью тех его наме­рений, которые он успел сообщить к данному моменту.

3.

<< | >>
Источник: Б.Ю. Городец­кий. Новое в зарубежной лингвистике: Вып. XXIV. Компьютерная лингвистика: Пер. с англ./Сост., ред. и вступ, ст. Б. Ю. Городец­кого.— М.: Прогресс,1989.—432 с.. 1989

Еще по теме 1. ВВЕДЕНИЕ: