§ 14. Научное познание и теория информации
Развитие теоретико-информационных методов привело к попыткам построения информационных моделей процесса познания. Исторически наиболее ранними и известными являются статистические модели.
Их можно найти в работах многих специалистов в области статистической теории информации - Е. С. Вентцель, Ф. М. Вудворда, Л. Бриллюзна, С. Голдмана, Ж. Ф. Схоутена и др.Допустим, что перед нами некоторая система, называемая обычно физической системой. Большей частью понятие «физическая система» означает просто то, что система существует независимо от познающего субъекта и может отображаться им. Предполагается, что до получения сведений об изучаемой системе существует некоторая неопределенность наших знаний о системе. Эта неопределенность может быть измерена количест -
венно посредством формулы энтропии. Как отмечает Ф. М. Вуд*
ворд , энтропия в данном случае есть мера «априорного незнания», выраженная в терминах «априорных вероятностей». Употребление понятия «незнание» в данном случае неточно выражает суть вопроса. Поскольку «априорное незнание», т. е. начальная неопределенность, выражается через некоторые вероятности, то в каком-то отношении это знание. Это значит, что нам известно количество вероятностей, входящих в формулу Шеннона, а в ряде случаев и сами вероятности. Мы можем сказать, какое ожидается количество равновероятных событий, исходов опыта, характеризующих состояние исследуемой системы. Но мы не можем сказать, какой точно исход осуществится. Поэтому «априорное незнание» есть, в сущности, начальное знание, степень адекватности которого еще слишком низка. Статистическая информационная модель процесса познания обращает внимание на количе - ственный аспект перехода от менее адекватного статистического отражения к более адекватному.
Когда субъект приступает к изучению системы (объекта), то с позиций статистической теории информации он обязан выдвинуть минимум два вероятностных положения, две гипотезы, ко - торые не были бы тождественны между собой.
Практически достаточно одной гипотезы о возможном состоянии системы, ко - торую нужно подтверждать последующим экспериментом, ибо отрицание этой гипотезы и есть ее дополнение, вторая гипотеза. Итак, если у субъекта имеется минимум две гипотезы, вероятности которых одинаковы, то в результате эксперимента по проверке гипотез он может получить один бит информации.Если же никаких гипотез не будет построено, то изучение объекта с точки зрения статистической теории информации бессмысленно. Это означало бы, что субъект или ничего не знает об объекте исследования (в том числе и о его существовании), или субъект решительно «все» знает об объекте и ему просто незачем строить гипотезы и проводить эксперименты. Если же оказывается, что в процессе познания мы получили результат, который не связан с заранее сделанными предположениями, то есть не подтверждаются и не отрицаются гипотезы, то здесь методы статистической теории информации оказываются неэффективными.
Эта теория информации не в состоянии просто описывать изучаемое явление без «изобретения» гипотез.
Итак, если гипотезы подтверждаются или отрицаются, то «априорное незнание» превращается в знание. Вероятность превращается в достоверность, а энтропия (степень неопределенности) - в количество информации (степень определенности), причем количество информации увеличивается на величину снятой энтропии.
В данном случае энтропию не следует понимать в физическом смысле. Правда, Л. Бриллюэн и некоторые другие ученые полагают, что количество информации, приобретаемое при выяснении состояния некоторой физической системы, может стать равным изменению энтропии этой системы (по абсолютной величине). Однако в действительности количество информации, получаемое субъектом, измеряется не через энтропию самой физической системы, а через «энтропию» знаний об этой системе. Энтропия физической системы определяется объективно суще - ствующими вероятностями состояний ее элементов, а «энтропия» наших знаний выражается через вероятности подтверждения выдвинутых нами гипотез.
Количество вероятностей гипотез и сама их величина не относятся непосредственно к характеристике микросостояний физической системы. Поэтому возникает проблема выделения из всей полученной информации того коли - чества, которое соответствует физической системе. Если бы наши знания точно копировали действительность, то такое выделение было бы излишним. Реальный же процесс познания, как особый вид отражения, не является столь простым, пусть даже в информационном аспекте. Изменение энтропии физической системы, как правило, не всегда соответствует увеличению количе - ства информации наших знаний о системе.С позиций статистической теории информации получается, что чем больше первоначальное незнание, тем большее количе - ство информации приобретается в результате проверки гипотез.
При этом если вероятности гипотез оказываются равными, то получается наибольшее количество информации. Это количество также тем больше, чем больше гипотез строится в результате познания. Уменьшение числа гипотез или же появление неравенства вероятностей гипотез приводит к снижению получаемого в процессе познания количества информации. Но количество информации может уменьшаться и в результате появления статистической связи между событиями (гипотезами) - ведь это тоже ведет к перераспределению вероятностей, к увеличению степени тождества гипотез. Эта связь может оказаться настолько сильной, что, например, две гипотезы могут стать полностью тожде - ственными, и тогда одна из них окажется излишней. Значит, из всего количества гипотез необходимо исключить избыточную гипотезу и тем самым количество информации, которое может быть получено в результате познания, уменьшается. В более общем случае одна гипотеза лишь в какой-то мере пересекается с другой гипотезой, т. е. гипотезы будут в некоторой степени зависеть друг от друга. В этом случае гипотезы содержат информацию друг о друге, и следовательно, количество информации, получаемое в результате познания, уменьшается по сравнению с количеством информации, которое можно было бы получить, если бы гипотезы были независимы друг от друга.
Как было показано Ю. А. Шрейдером [116], предположение статистической теории информации о том, что чем меньше начальный уровень знания субъекта, тем большее количество информации он получит от сообщения, не адекватно реальным свойствам научного знания. При достаточно низком уровне начальных знаний субъект не сможет «понимать» сообщение и не извлечет из него достаточно большого количества информации. Об этом мы уже говорили в § 3, когда рассматривали семантические свойства информации. Семантический аспект знания оказывается более важным, чем статистический, поэтому методы вероятностной теории информации здесь в определенном отношении являются неадекватными.
В рамках статистической теории информации удается в какой -то степени конкретизировать положение диалектического материализма о неисчерпаемости, бесконечности процесса познания. Поскольку любой объект неисчерпаем, связан с бесконечным множеством других объектов, он содержит бесконечное количество информации. Естественно, что в результате проверки любого конечного числа гипотез нельзя познать бесконечное разнообразие объекта. Бесконечное количество информации невозможно получить ни за какой конечный промежуток времени. Количество информации в любой относительной истине всегда конечно. Это, в частности, может выражаться в том, что оно пропорционально логарифму отношения числа гипотез или соответствующей степени точности измерения величин до эксперимента и после эксперимента (ро к рЦ (см. § 10). Поскольку ро, т. е., скажем, количество гипотез до эксперимента всегда конечно и должно быть не равно нулю, то р1 также не может быть равным нулю. Ведь, как подчеркивает Л. Бриллюэн, «экспериментальные ошибки нельзя сделать сколь угодно малыми, так как они принадлежат к действительным фактам... и должны учитываться в теории» [117]. Здесь речь, в частности, идет о факте существования неопределенности в процессе познания.
Многие свои работы Л. Бриллюэн посвятил доказательству упомянутого положения.
Так, в книге «Научная неопределенность и информация», в которой рассматриваются физические теории, в основном квантовая и классическая механика, Л. Брил- люэн подробнейшим образом анализирует причины неопределенности знания, невозможность получения абсолютно точного знания о физических процессах, т. е. бесконечного количества информации. Поскольку квантовая механика применяет аппарат теории вероятностей, и пользуется соотношением неопределенностей, из которого вытекает невозможность одновременного измерения координаты и импульса микрочастицы со сколь угодно высокой точностью, то Л. Бриллюэну сравнительно легко удается показать читателю, что «в квантовой механике нельзя избавиться от неопределенности и что эта неопределенность самым непосредственным образом подтверждается прямым экспериментальным доказательством» [118] Соотношение неопределенностей отражает объективные свойства микрочастиц (в частности, связь корпускулярных и волновых их свойств, связь пространственно-временной локализации и динамических состояний и т. д.). Неточность измерения вторична, она есть следствие суще - ствования объективной неопределенности. Но Л. Бриллюэн иногда объясняет появление неточности в теории лишь взаимодействием познающего субъекта и объекта и подчас пытается подвести «научную базу» под субъективно-идеалистические положения. Эти неверные гносеологические выводы подхвачены со**временными позитивистами .
Итак, в квантовой механике невозможно избавиться от неопределенности и, следовательно, неточности. А в классической механике? Долгое время считалось, что ошибки измерения здесь «принципиального значения не имеют и их можно сделать сколь угодно малыми, изготовив точные приборы» [119]. Однако это представление не отражало реального положения вещей, оно идеализировало поведение механических объектов и возможности познающего субъекта.
Объективной основой существования неопределенности в механике Ньютона является неисчерпаемость механических объектов, их связи друг с другом и т.
п. Л. Бриллюэн приводит пример, показывающий, что даже внутренние перемещения вещества в далеких звездах вызывают неточность в измерении гравитационного поля Земли. Итак, механические объекты не изолированы, они воздействуют друг на друга, и от этих взаимодействий невозможно избавиться.Таким образом, и классическая механика внутренне обладает неопределенностью, а значит, неточностью. Поэтому в дальнейшем возникли специальная, общая теории относительности, которые уточняют классическую механику. Но и эти теории также обладают «своими» неопределенностями.
Если неопределенность существует объективно и обусловлена самой природой объектов, то следует ожидать, что познание также должно отражать эту неопределенность. Источником неопределенности в научном познании является также взаимодействие субъекта и объекта.
Для обоснования существования научной неопределенно - сти Л. Бриллюэн применяет теоретико-информационные методы, в частности, негэнтропийный принцип информации. К сожалению, этот принцип им существенно ограничивается. В частности, он дает ему статистическо-вероятностную трактовку. Негэн- тропийный принцип информации в приложении к научному познанию может быть сформулирован примерно так: получение информации всегда сопровождается противоположным процессом увеличения энтропии, другими словами, получение определенности в одном отношении неизбежно связано с неопределенностью в другом отношении.
Действительно, знание об объекте, которое мы получаем в том или ином акте познания, беднее, чем сам объект, оно содержит меньше информации. Исходя из концепции разнообразия, можно рассматривать негэнтропийный принцип информации как частный случай, как проявление той закономерности, что получение информации, определенности, разнообразия связано с однообразием, неопределенностью.
Уже отмечалось, что любой процесс познания означает ограничение разнообразия, например выделение определенного класса изучаемых объектов. При таком ограничении разнообразия данные явления становятся определенными, в то время как все остальные явления - неопределенными, тождественными. Для выявления того или иного разнообразия, различия в выделенном классе явлений приходится отвлекаться, абстрагироваться от других сторон, свойств, связей явлений. Процесс абстракции является хорошей иллюстрацией действия негэнтропийного принципа информации применительно к теоретическому познанию.
Из негэнтропийного принципа информации также следует невозможность своего рода теоретико-информационных перпетуум-мобиле (например, «демона» Лапласа). Нельзя одновременно знать все обо всем. Ведь, как подчеркивает Л. Бриллюэн, за полученную информацию приходится расплачиваться энтропией, знание в определенном отношении ведет к незнанию в другом отношении. Можно сказать, что человечество ни в какое конечное время не превратится в воображаемого лапласовского «демона», знающего все о вселенной без всяких неопределенностей. Одновременно невозможен и так называемый «демон» Максвелла [120], ибо согласно негэнтропийному принципу получение информации связано с затратой энергии.
Формулируя негэнтропииный принцип информации как принцип научного познания, важно подчеркнуть, что наличие неопределенности в некотором отношении не должно означать ограниченности познания.
Л. Бриллюэн стремится доказать, что увеличение информации в процессе познания принципиально не может превысить рост энтропии. Получается, что познание подчиняется термодинамическим закономерностям, что здесь действует второе начало термодинамики.
Применимость второго начала термодинамики оспаривается уже в отношении некоторых процессов живой природы [121]. А что касается познания, то в литературе высказываются мнения, прямо противоположные выводу Л. Бриллюэна.
Так, И. Земан пишет: «Субъект, способный создавать новую информацию, способен использовать ее и для производства упорядоченности во внешнем мире в целях активного преобразования его... Если мы считаем, что приращение информации зависит не только от количества информации, полученной извне, что информация может создаваться и внутри самим принимающим информацию субъектом (конечно, не совершенно произвольно, не без какой-либо зависимости от внешних сообщений), то возможен и случай, когда приращение информации превышает все приращение энтропии при процессе познания» [122].
Признавая наличие неопределенности в процессе познания, мы не должны ее абсолютизировать. Сам процесс познания направлен на устранение, снятие неопределенности. Движение познания можно представить как борьбу неопределенности и определенности, причем ведущей противоположностью оказывается последняя.
Абсолютизация той или иной конкретной неопределенности может легко привести к ограничению возможностей человеческого познания, к одной из форм агностицизма. Л. Бриллюэн высказывает, например, следующее предположение: мы никогда не сможем измерить длину порядка 10-50 см, ибо для этого необходимо затратить такую величину энергии, что повлекло бы катастрофу не только для лаборатории, но и всей Земли.
Однако Л. Бриллюэн здесь неправ [123]. Он исходит лишь из определенной, именно квантовой теории и игнорирует логику развития современной физики. М. Э. Омельяновский отмечает, что вряд ли мы вправе в мире взаимодействующих, превращающихся друг в друга элементарных частиц высоких энергий применять пространственные и временные (а также связанные с ними) представления, характерные для макроскопических и атомных масштабов. В ультрамалых масштабах, по-видимому, возможен пересмотр идеи метрического пространства-времени. Следовательно, абсолютизация неопределенности квантовой механики, как и вообще любой конкретной неопределенности в науке, противоречит логике развития научного познания, ведет к агностицизму. Из существования неопределенности в процессе познания не следует, что эта неопределенность ограничивает познание, препятствует стремлению к абсолютной истине.
Недостаток различных вариантов статистических информационных моделей состоит в том, что они односторонне изображают характер познания как отражения. Можно привести немало примеров, когда процесс познания, являясь процессом отражения, не сводится ни к выдвижению и проверке гипотез, ни к иным вероятностным формам научного познания. Как отмечалось выше, даже простое описание поведения какой-либо материальной системы, результатов наблюдения, опыта не обязательно связано с процессом случайного выбора, с устранением статистической неопределенности.
Все это свидетельствует о необходимости подхода к построению информационных моделей процесса познания с более общей точки зрения. Исходя из принятого здесь определения информации на основе понятия различия, можно предложить некоторый вариант общей информационной модели познания. Модель будет основываться не только на понятии информации, но и на понятии отражения, которое рассматривалось в предыдущем параграфе.
Т\ w __________________________________________________________ w __________________________________
В статистической модели познания на первый план выдвигаются вероятностные процессы отражения и вероятностные формы научного познания. В более общем случае речь должна идти не только о соответствии вероятностных форм познания отражаемым объектам, но и о соответствии всех форм (в том числе и невероятностных) этим объектам. Соответствует ли полученный образ (чувственный или логический) отражаемому объекту или нет? Как видим, ответы «да» или «нет» (подтверждение или отрицание гипотезы) можно перевести на язык кон - цепции разнообразия и тем самым наметить путь к созданию более общей информационной модели процессов познания. В результате становится более очевидной имманентная связь информации и познания как отражения. Отражение есть определенное тождество образа и объекта, и это тождество образа содержит информацию об объекте. Оно выражается через различия.
Соответствие образа и объекта достигается в результате перехода от их различия к тождеству. Это означает, что в процессе познания вначале, как правило, создаются образы, кото - рые отличаются от объекта, и в процессе устранения отличий образа от объекта достигается их определенное тождество. Получается, что устранение различий образа и объекта ведет к накоплению разнообразия образа, которое все более соответствует разнообразию объекта.
Таким образом, ответы «да» в сущности соответствуют отождествлению разнообразия образа и объекта, ответы «нет» - их различению в процессе отражения. Это позволяет рассматривать процесс познания в определенном аспекте как информационное моделирование [124]. Здесь имеется в виду, что получающиеся в результате познания формы научного познания являются как бы информационными моделями отражаемых объектов. Согласно определению В. М. Глушкова, информационное моделирование - это фиксация того или иного уровня познания объекта, позволяющая не только описывать его поведение, но и предсказывать его с той или иной точностью.
С позиций кибернетики познание можно представить в виде управления и регулирования по принципу обратной связи. Управление, регулирование связано, как известно, с разрешением противоречия между действительным и заданным состоянием кибернетической системы. В процессе познания заданным состоянием (т. е. состоянием, к которому стремится познание) является более адекватное (или просто адекватное) отображение объекта, а имеющимся (действительным) в данный момент - менее адекватное или же вообще неадекватное отображение. Сущность познания как управления в информационном аспекте сводится к уменьшению различии между имеющимся и заданным состоянием отображения. Весьма важным случаем познания является управление ошибками [125], ибо ошибки есть не что иное, как определенное различие, несовпадение отображения и объекта.
Итак, в общей информационной модели процесса познания, мышления основное внимание следует обращать на диалектику тождества и различия отображения и оригинала (объекта). Двоичному выбору в статистической модели (подтверждение или отрицание гипотезы) здесь соответствует тождество или различие объекта и отображения (ответы «да» или «нет»). Процесс отождествления отображения и объекта осуществляется через их несовпадение, различие.
Может сложиться впечатление, что если процесс познания направлен на исключение различий, то это противоречит пониманию информации как разнообразия. Однако можно показать, что ограничение разнообразия в процессе познания всегда связано с его увеличением, расширением в другом отношении, так как всякое получение информации сопровождается увеличением энтропии.
Для адекватного отражения необходимо, чтобы разнообразие отражения было бы равно разнообразию объекта (на определенном уровне, в данном отношении и т. д.). Если же окажется, что разнообразие отражения меньше (или не соответствует разнообразию объекта в каком-либо отношении), то это приводит в действие механизм управления с обратной связью, и познание осуществляется до тех пор, пока не достигается адекватное отображение. Если же иметь в виду, что количество информации объекта бесконечно, то получается информационный перепад разнообразия отражения и разнообразия объекта, который движет вперед наше познание (что обусловлено активностью субъекта). Это хорошо показано в книге И. Земана «Познание и информация».
Всякое познание всегда связано с ограничением разнообразия, поскольку мы берем в качестве предмета исследования определенные явления или их стороны. По отношению к познанию упомянутое ограничение разнообразия есть одновременно его увеличение, поскольку это приносит нам новые знания - возможность, например, отличить данное явление от других явлений действительности.
Процесс познания в информационном аспекте представляется процессом передачи объективно существующего разнообразия к познающему субъекту. Информация, заключенная в объектах, является как бы информацией «в себе» и в результате познания превращается в информацию образов - информацию «для нас». Первую часто называют потенциальной информацией, вторую актуальной. Это значит, что в объективном мире и в сознании существуют различные виды информации. Первая в результате отражения, познания перекодируется во вторую, один тип информации переходит в другой.
Этот процесс, как правило, осложнен шумами, помехами, изменяющими передаваемую информацию. Поэтому субъект практически никогда не получает информацию, которая в «чистом» виде выступает как содержание отражения. Содержание отражения всегда «осложнено», «затемнено» некоторым привходящим разнообразием помех, которое по отношению к нему выступает как энтропия, неопределенность.
В связи с этим возникает проблема выделения из общего объема информации того ее количества, которое соответствует объекту познания. Принципы такого выделения необходимо конкретизировать в рамках общей проблемы воспроизведения объекта в научном знании [126].
Указанная проблема весьма важна и потому, что количество информации, получаемое в процессе познания, зависит и от метода познания. Оно может оказаться характеристикой эффективности применяемого метода познания [127]. Информация, зависящая от метода познания, является неизбежным, но не всегда искомым компонентом процесса и результата познания.
Поясним это на следующем примере. Допустим, что в процессе познания (мы рассматриваем здесь статистическую модель) было построено некоторое большое, но конечное число гипотез. Необходимо подтвердить или опровергнуть эти гипотезы. Будем предполагать для простоты, что все гипотезы независимы друг от друга. Требование независимости гипотез равносильно их максимальному отличию друг от друга, максимальному отсутствию повторяющихся, тождественных положений. Однако полностью тождество гипотез невозможно исключить. Две гипотезы всегда оказываются в чем-то тождественными, и этим можно воспользоваться для построения наиболее эффективного (оптимального или почти оптимального) метода познания.
Ведь можно гипотезы проверять одну за другой, произвольно выбирая их из первоначальной совокупности. Выбрали гипотезу - ставим эксперимент, который может ее или опровергнуть или подтвердить. Легко увидеть, что этот статистический метод «проб и ошибок» далеко не всегда является оптимальным. Ведь не исключено, что подтвердившаяся гипотеза окажется именно последней. В этом случае количество информации, полученное в результате проверки гипотез, оказывается равным логарифму числа проверенных гипотез.
Воспользовавшись не только различием гипотез, которое абсолютизирует статистический метод, но и их тождеством, мы можем построить существенно более эффективный метод познания, характеризующийся значительно меньшим количеством информации. Для этого, если возможно, разобьем все гипотезы на равные или почти равные части по каким-либо общим признакам. Далее можно поставить эксперимент, который подтверждал бы не одну какую-либо гипотезу, а ту или иную часть гипотез. Если эксперимент подтвердил какую-либо часть гипотез (а другую соответственно опроверг), то ясно, что искомая гипотеза может быть заключена именно среди них. Для того чтобы прийти к такому же результату методом произвольного выбора гипотез, нам пришлось бы затратить значительно большее количест - во информации.
Приведем численный пример. Возьмем начальное количе - ство гипотез, равное 32. Для того чтобы опровергнуть половину из них методом произвольного выбора, мы можем получить четыре бита информации. Если же разделить гипотезы на две равные части и поставить эксперимент, позволяющий выбрать одну из этих частей, то мы получим лишь один бит информации. Итак, в одном случае четыре бита, а в другом - оптимальном - один бит. Значит, в первом случае мы получаем лишних три бита практически бесполезной информации. Но за этими тремя битами могут скрываться колоссальные ассигнования, масса усилий ученых, напрасно потраченное время.
Очевидно, что полученные биты информации характеризуют не содержание отражения (мы ведь так и не знаем, какая гипотеза верна), а лишь метод познания. При этом более эффективному методу соответствует меньшее количество информации, характеризующее сам метод познания. Естественно, что для выявления искомой гипотезы необходимо произвести следующее разделение гипотез и т. д. Приведенный пример весьма тривиален и может быть решен без применения теоретико-информационных методов. Но в более сложных случаях в ответе на вопрос, каким должен быть оптимальный метод познания, может существенную помощь оказать теория информации (в частности, теория оптимальных или почти оптимальных методов кодирования и декодирования информации).
К какому соотношению количеств информации как содержания отражения и как характеристики метода отражения следует стремиться в процессе познания? По-видимому, необходимо, чтобы на единицу количества информации как содержания отражения приходилось бы минимальное количество информации, характеризующей метод познания. В этом случае процесс познания оказался бы наиболее эффективным. Очевидно, упомянутое отношение количеств информации могло бы служить одной из важных информационных характеристик сравнения эффективности различных процессов познания. Важно также отметить, что эффективность познания можно измерять и при помощи ценности получаемой научной информации. Ведь наиболее ценную информацию мы получаем получается лишь в том случае, если максимально приближаемся к цели - адекватному отражению исследуемого объекта.