<<
>>

§ 14. Научное познание и теория информации

Развитие теоретико-информационных методов привело к попыткам построения информационных моделей процесса по­знания. Исторически наиболее ранними и известными являются статистические модели.

Их можно найти в работах многих спе­циалистов в области статистической теории информации - Е. С. Вентцель, Ф. М. Вудворда, Л. Бриллюзна, С. Голдмана, Ж. Ф. Схоутена и др.

Допустим, что перед нами некоторая система, называемая обычно физической системой. Большей частью понятие «физи­ческая система» означает просто то, что система существует не­зависимо от познающего субъекта и может отображаться им. Предполагается, что до получения сведений об изучаемой сис­теме существует некоторая неопределенность наших знаний о системе. Эта неопределенность может быть измерена количест -

венно посредством формулы энтропии. Как отмечает Ф. М. Вуд­*

ворд , энтропия в данном случае есть мера «априорного незна­ния», выраженная в терминах «априорных вероятностей». Упот­ребление понятия «незнание» в данном случае неточно выражает суть вопроса. Поскольку «априорное незнание», т. е. начальная неопределенность, выражается через некоторые вероятности, то в каком-то отношении это знание. Это значит, что нам известно количество вероятностей, входящих в формулу Шеннона, а в ря­де случаев и сами вероятности. Мы можем сказать, какое ожида­ется количество равновероятных событий, исходов опыта, харак­теризующих состояние исследуемой системы. Но мы не можем сказать, какой точно исход осуществится. Поэтому «априорное незнание» есть, в сущности, начальное знание, степень адекват­ности которого еще слишком низка. Статистическая информаци­онная модель процесса познания обращает внимание на количе - ственный аспект перехода от менее адекватного статистического отражения к более адекватному.

Когда субъект приступает к изучению системы (объекта), то с позиций статистической теории информации он обязан выдви­нуть минимум два вероятностных положения, две гипотезы, ко - торые не были бы тождественны между собой.

Практически достаточно одной гипотезы о возможном состоянии системы, ко - торую нужно подтверждать последующим экспериментом, ибо отрицание этой гипотезы и есть ее дополнение, вторая гипотеза. Итак, если у субъекта имеется минимум две гипотезы, вероятно­сти которых одинаковы, то в результате эксперимента по провер­ке гипотез он может получить один бит информации.

Если же никаких гипотез не будет построено, то изучение объекта с точки зрения статистической теории информации бес­смысленно. Это означало бы, что субъект или ничего не знает об объекте исследования (в том числе и о его существовании), или субъект решительно «все» знает об объекте и ему просто незачем строить гипотезы и проводить эксперименты. Если же оказыва­ется, что в процессе познания мы получили результат, который не связан с заранее сделанными предположениями, то есть не подтверждаются и не отрицаются гипотезы, то здесь методы ста­тистической теории информации оказываются неэффективными.

Эта теория информации не в состоянии просто описывать изу­чаемое явление без «изобретения» гипотез.

Итак, если гипотезы подтверждаются или отрицаются, то «априорное незнание» превращается в знание. Вероятность пре­вращается в достоверность, а энтропия (степень неопределенно­сти) - в количество информации (степень определенности), при­чем количество информации увеличивается на величину снятой энтропии.

В данном случае энтропию не следует понимать в физиче­ском смысле. Правда, Л. Бриллюэн и некоторые другие ученые полагают, что количество информации, приобретаемое при вы­яснении состояния некоторой физической системы, может стать равным изменению энтропии этой системы (по абсолютной ве­личине). Однако в действительности количество информации, получаемое субъектом, измеряется не через энтропию самой фи­зической системы, а через «энтропию» знаний об этой системе. Энтропия физической системы определяется объективно суще - ствующими вероятностями состояний ее элементов, а «энтро­пия» наших знаний выражается через вероятности подтвержде­ния выдвинутых нами гипотез.

Количество вероятностей гипотез и сама их величина не относятся непосредственно к характери­стике микросостояний физической системы. Поэтому возникает проблема выделения из всей полученной информации того коли - чества, которое соответствует физической системе. Если бы на­ши знания точно копировали действительность, то такое выделе­ние было бы излишним. Реальный же процесс познания, как особый вид отражения, не является столь простым, пусть даже в информационном аспекте. Изменение энтропии физической сис­темы, как правило, не всегда соответствует увеличению количе - ства информации наших знаний о системе.

С позиций статистической теории информации получается, что чем больше первоначальное незнание, тем большее количе - ство информации приобретается в результате проверки гипотез.

При этом если вероятности гипотез оказываются равными, то получается наибольшее количество информации. Это количество также тем больше, чем больше гипотез строится в результате по­знания. Уменьшение числа гипотез или же появление неравенст­ва вероятностей гипотез приводит к снижению получаемого в процессе познания количества информации. Но количество ин­формации может уменьшаться и в результате появления стати­стической связи между событиями (гипотезами) - ведь это тоже ведет к перераспределению вероятностей, к увеличению степени тождества гипотез. Эта связь может оказаться настолько силь­ной, что, например, две гипотезы могут стать полностью тожде - ственными, и тогда одна из них окажется излишней. Значит, из всего количества гипотез необходимо исключить избыточную гипотезу и тем самым количество информации, которое может быть получено в результате познания, уменьшается. В более об­щем случае одна гипотеза лишь в какой-то мере пересекается с другой гипотезой, т. е. гипотезы будут в некоторой степени зави­сеть друг от друга. В этом случае гипотезы содержат информа­цию друг о друге, и следовательно, количество информации, по­лучаемое в результате познания, уменьшается по сравнению с количеством информации, которое можно было бы получить, ес­ли бы гипотезы были независимы друг от друга.

Как было показано Ю. А. Шрейдером [116], предположение ста­тистической теории информации о том, что чем меньше началь­ный уровень знания субъекта, тем большее количество информа­ции он получит от сообщения, не адекватно реальным свойствам научного знания. При достаточно низком уровне начальных зна­ний субъект не сможет «понимать» сообщение и не извлечет из него достаточно большого количества информации. Об этом мы уже говорили в § 3, когда рассматривали семантические свойства информации. Семантический аспект знания оказывается более важным, чем статистический, поэтому методы вероятностной теории информации здесь в определенном отношении являются неадекватными.

В рамках статистической теории информации удается в ка­кой -то степени конкретизировать положение диалектического материализма о неисчерпаемости, бесконечности процесса по­знания. Поскольку любой объект неисчерпаем, связан с беско­нечным множеством других объектов, он содержит бесконечное количество информации. Естественно, что в результате проверки любого конечного числа гипотез нельзя познать бесконечное разнообразие объекта. Бесконечное количество информации не­возможно получить ни за какой конечный промежуток времени. Количество информации в любой относительной истине всегда конечно. Это, в частности, может выражаться в том, что оно про­порционально логарифму отношения числа гипотез или соответ­ствующей степени точности измерения величин до эксперимента и после эксперимента (ро к рЦ (см. § 10). Поскольку ро, т. е., ска­жем, количество гипотез до эксперимента всегда конечно и должно быть не равно нулю, то р1 также не может быть равным нулю. Ведь, как подчеркивает Л. Бриллюэн, «экспериментальные ошибки нельзя сделать сколь угодно малыми, так как они при­надлежат к действительным фактам... и должны учитываться в теории» [117]. Здесь речь, в частности, идет о факте существования неопределенности в процессе познания.

Многие свои работы Л. Бриллюэн посвятил доказательству упомянутого положения.

Так, в книге «Научная неопределен­ность и информация», в которой рассматриваются физические теории, в основном квантовая и классическая механика, Л. Брил- люэн подробнейшим образом анализирует причины неопреде­ленности знания, невозможность получения абсолютно точного знания о физических процессах, т. е. бесконечного количества информации. Поскольку квантовая механика применяет аппарат теории вероятностей, и пользуется соотношением неопределен­ностей, из которого вытекает невозможность одновременного измерения координаты и импульса микрочастицы со сколь угод­но высокой точностью, то Л. Бриллюэну сравнительно легко уда­ется показать читателю, что «в квантовой механике нельзя изба­виться от неопределенности и что эта неопределенность самым непосредственным образом подтверждается прямым экспери­ментальным доказательством» [118] Соотношение неопределенно­стей отражает объективные свойства микрочастиц (в частности, связь корпускулярных и волновых их свойств, связь пространст­венно-временной локализации и динамических состояний и т. д.). Неточность измерения вторична, она есть следствие суще - ствования объективной неопределенности. Но Л. Бриллюэн ино­гда объясняет появление неточности в теории лишь взаимодей­ствием познающего субъекта и объекта и подчас пытается под­вести «научную базу» под субъективно-идеалистические поло­жения. Эти неверные гносеологические выводы подхвачены со­**

временными позитивистами .

Итак, в квантовой механике невозможно избавиться от не­определенности и, следовательно, неточности. А в классической механике? Долгое время считалось, что ошибки измерения здесь «принципиального значения не имеют и их можно сделать сколь угодно малыми, изготовив точные приборы» [119]. Однако это пред­ставление не отражало реального положения вещей, оно идеали­зировало поведение механических объектов и возможности по­знающего субъекта.

Объективной основой существования неопределенности в механике Ньютона является неисчерпаемость механических объ­ектов, их связи друг с другом и т.

п. Л. Бриллюэн приводит при­мер, показывающий, что даже внутренние перемещения вещест­ва в далеких звездах вызывают неточность в измерении гравита­ционного поля Земли. Итак, механические объекты не изолиро­ваны, они воздействуют друг на друга, и от этих взаимодействий невозможно избавиться.

Таким образом, и классическая механика внутренне обла­дает неопределенностью, а значит, неточностью. Поэтому в дальнейшем возникли специальная, общая теории относитель­ности, которые уточняют классическую механику. Но и эти тео­рии также обладают «своими» неопределенностями.

Если неопределенность существует объективно и обуслов­лена самой природой объектов, то следует ожидать, что познание также должно отражать эту неопределенность. Источником не­определенности в научном познании является также взаимодей­ствие субъекта и объекта.

Для обоснования существования научной неопределенно - сти Л. Бриллюэн применяет теоретико-информационные методы, в частности, негэнтропийный принцип информации. К сожале­нию, этот принцип им существенно ограничивается. В частно­сти, он дает ему статистическо-вероятностную трактовку. Негэн- тропийный принцип информации в приложении к научному по­знанию может быть сформулирован примерно так: получение информации всегда сопровождается противоположным процес­сом увеличения энтропии, другими словами, получение опреде­ленности в одном отношении неизбежно связано с неопределен­ностью в другом отношении.

Действительно, знание об объекте, которое мы получаем в том или ином акте познания, беднее, чем сам объект, оно содер­жит меньше информации. Исходя из концепции разнообразия, можно рассматривать негэнтропийный принцип информации как частный случай, как проявление той закономерности, что полу­чение информации, определенности, разнообразия связано с од­нообразием, неопределенностью.

Уже отмечалось, что любой процесс познания означает ог­раничение разнообразия, например выделение определенного класса изучаемых объектов. При таком ограничении разнообразия данные явления становятся определенными, в то время как все остальные явления - неопределенными, тождественными. Для выявления того или иного разнообразия, различия в выделенном классе явлений приходится отвлекаться, абстрагироваться от дру­гих сторон, свойств, связей явлений. Процесс абстракции являет­ся хорошей иллюстрацией действия негэнтропийного принципа информации применительно к теоретическому познанию.

Из негэнтропийного принципа информации также следует невозможность своего рода теоретико-информационных перпе­туум-мобиле (например, «демона» Лапласа). Нельзя одновре­менно знать все обо всем. Ведь, как подчеркивает Л. Бриллюэн, за полученную информацию приходится расплачиваться энтро­пией, знание в определенном отношении ведет к незнанию в другом отношении. Можно сказать, что человечество ни в какое конечное время не превратится в воображаемого лапласовского «демона», знающего все о вселенной без всяких неопределенно­стей. Одновременно невозможен и так называемый «демон» Максвелла [120], ибо согласно негэнтропийному принципу получе­ние информации связано с затратой энергии.

Формулируя негэнтропииный принцип информации как принцип научного познания, важно подчеркнуть, что наличие неопределенности в некотором отношении не должно означать ограниченности познания.

Л. Бриллюэн стремится доказать, что увеличение информа­ции в процессе познания принципиально не может превысить рост энтропии. Получается, что познание подчиняется термоди­намическим закономерностям, что здесь действует второе начало термодинамики.

Применимость второго начала термодинамики оспаривает­ся уже в отношении некоторых процессов живой природы [121]. А что касается познания, то в литературе высказываются мне­ния, прямо противоположные выводу Л. Бриллюэна.

Так, И. Земан пишет: «Субъект, способный создавать новую информацию, способен использовать ее и для производства упо­рядоченности во внешнем мире в целях активного преобразова­ния его... Если мы считаем, что приращение информации зави­сит не только от количества информации, полученной извне, что информация может создаваться и внутри самим принимающим информацию субъектом (конечно, не совершенно произвольно, не без какой-либо зависимости от внешних сообщений), то воз­можен и случай, когда приращение информации превышает все приращение энтропии при процессе познания» [122].

Признавая наличие неопределенности в процессе познания, мы не должны ее абсолютизировать. Сам процесс познания на­правлен на устранение, снятие неопределенности. Движение по­знания можно представить как борьбу неопределенности и опре­деленности, причем ведущей противоположностью оказывается последняя.

Абсолютизация той или иной конкретной неопределенно­сти может легко привести к ограничению возможностей челове­ческого познания, к одной из форм агностицизма. Л. Бриллюэн высказывает, например, следующее предположение: мы никогда не сможем измерить длину порядка 10-50 см, ибо для этого необ­ходимо затратить такую величину энергии, что повлекло бы ка­тастрофу не только для лаборатории, но и всей Земли.

Однако Л. Бриллюэн здесь неправ [123]. Он исходит лишь из определенной, именно квантовой теории и игнорирует логику развития современной физики. М. Э. Омельяновский отмечает, что вряд ли мы вправе в мире взаимодействующих, превращаю­щихся друг в друга элементарных частиц высоких энергий при­менять пространственные и временные (а также связанные с ни­ми) представления, характерные для макроскопических и атом­ных масштабов. В ультрамалых масштабах, по-видимому, воз­можен пересмотр идеи метрического пространства-времени. Следовательно, абсолютизация неопределенности квантовой ме­ханики, как и вообще любой конкретной неопределенности в науке, противоречит логике развития научного познания, ведет к агностицизму. Из существования неопределенности в процессе познания не следует, что эта неопределенность ограничивает по­знание, препятствует стремлению к абсолютной истине.

Недостаток различных вариантов статистических информа­ционных моделей состоит в том, что они односторонне изобра­жают характер познания как отражения. Можно привести немало примеров, когда процесс познания, являясь процессом отраже­ния, не сводится ни к выдвижению и проверке гипотез, ни к иным вероятностным формам научного познания. Как отмеча­лось выше, даже простое описание поведения какой-либо мате­риальной системы, результатов наблюдения, опыта не обязатель­но связано с процессом случайного выбора, с устранением ста­тистической неопределенности.

Все это свидетельствует о необходимости подхода к построе­нию информационных моделей процесса познания с более общей точки зрения. Исходя из принятого здесь определения информации на основе понятия различия, можно предложить некоторый вари­ант общей информационной модели познания. Модель будет осно­вываться не только на понятии информации, но и на понятии от­ражения, которое рассматривалось в предыдущем параграфе.

Т\ w __________________________________________________________ w __________________________________

В статистической модели познания на первый план выдви­гаются вероятностные процессы отражения и вероятностные формы научного познания. В более общем случае речь должна идти не только о соответствии вероятностных форм познания отражаемым объектам, но и о соответствии всех форм (в том числе и невероятностных) этим объектам. Соответствует ли по­лученный образ (чувственный или логический) отражаемому объекту или нет? Как видим, ответы «да» или «нет» (подтвер­ждение или отрицание гипотезы) можно перевести на язык кон - цепции разнообразия и тем самым наметить путь к созданию бо­лее общей информационной модели процессов познания. В ре­зультате становится более очевидной имманентная связь инфор­мации и познания как отражения. Отражение есть определенное тождество образа и объекта, и это тождество образа содержит информацию об объекте. Оно выражается через различия.

Соответствие образа и объекта достигается в результате перехода от их различия к тождеству. Это означает, что в про­цессе познания вначале, как правило, создаются образы, кото - рые отличаются от объекта, и в процессе устранения отличий образа от объекта достигается их определенное тождество. По­лучается, что устранение различий образа и объекта ведет к на­коплению разнообразия образа, которое все более соответствует разнообразию объекта.

Таким образом, ответы «да» в сущности соответствуют отождествлению разнообразия образа и объекта, ответы «нет» - их различению в процессе отражения. Это позволяет рассматри­вать процесс познания в определенном аспекте как информаци­онное моделирование [124]. Здесь имеется в виду, что получающиеся в результате познания формы научного познания являются как бы информационными моделями отражаемых объектов. Соглас­но определению В. М. Глушкова, информационное моделирова­ние - это фиксация того или иного уровня познания объекта, по­зволяющая не только описывать его поведение, но и предсказы­вать его с той или иной точностью.

С позиций кибернетики познание можно представить в ви­де управления и регулирования по принципу обратной связи. Управление, регулирование связано, как известно, с разрешени­ем противоречия между действительным и заданным состоянием кибернетической системы. В процессе познания заданным со­стоянием (т. е. состоянием, к которому стремится познание) яв­ляется более адекватное (или просто адекватное) отображение объекта, а имеющимся (действительным) в данный момент - ме­нее адекватное или же вообще неадекватное отображение. Сущ­ность познания как управления в информационном аспекте сво­дится к уменьшению различии между имеющимся и заданным состоянием отображения. Весьма важным случаем познания яв­ляется управление ошибками [125], ибо ошибки есть не что иное, как определенное различие, несовпадение отображения и объекта.

Итак, в общей информационной модели процесса познания, мышления основное внимание следует обращать на диалектику тождества и различия отображения и оригинала (объекта). Дво­ичному выбору в статистической модели (подтверждение или отрицание гипотезы) здесь соответствует тождество или разли­чие объекта и отображения (ответы «да» или «нет»). Процесс отождествления отображения и объекта осуществляется через их несовпадение, различие.

Может сложиться впечатление, что если процесс познания направлен на исключение различий, то это противоречит пони­манию информации как разнообразия. Однако можно показать, что ограничение разнообразия в процессе познания всегда свя­зано с его увеличением, расширением в другом отношении, так как всякое получение информации сопровождается увеличени­ем энтропии.

Для адекватного отражения необходимо, чтобы разнообразие отражения было бы равно разнообразию объекта (на определен­ном уровне, в данном отношении и т. д.). Если же окажется, что разнообразие отражения меньше (или не соответствует разнообра­зию объекта в каком-либо отношении), то это приводит в действие механизм управления с обратной связью, и познание осуществля­ется до тех пор, пока не достигается адекватное отображение. Ес­ли же иметь в виду, что количество информации объекта беско­нечно, то получается информационный перепад разнообразия от­ражения и разнообразия объекта, который движет вперед наше по­знание (что обусловлено активностью субъекта). Это хорошо по­казано в книге И. Земана «Познание и информация».

Всякое познание всегда связано с ограничением разнообра­зия, поскольку мы берем в качестве предмета исследования оп­ределенные явления или их стороны. По отношению к познанию упомянутое ограничение разнообразия есть одновременно его увеличение, поскольку это приносит нам новые знания - воз­можность, например, отличить данное явление от других явле­ний действительности.

Процесс познания в информационном аспекте представля­ется процессом передачи объективно существующего разнообра­зия к познающему субъекту. Информация, заключенная в объек­тах, является как бы информацией «в себе» и в результате позна­ния превращается в информацию образов - информацию «для нас». Первую часто называют потенциальной информацией, вто­рую актуальной. Это значит, что в объективном мире и в созна­нии существуют различные виды информации. Первая в резуль­тате отражения, познания перекодируется во вторую, один тип информации переходит в другой.

Этот процесс, как правило, осложнен шумами, помехами, изменяющими передаваемую информацию. Поэтому субъект практически никогда не получает информацию, которая в «чис­том» виде выступает как содержание отражения. Содержание от­ражения всегда «осложнено», «затемнено» некоторым привхо­дящим разнообразием помех, которое по отношению к нему вы­ступает как энтропия, неопределенность.

В связи с этим возникает проблема выделения из общего объема информации того ее количества, которое соответствует объекту познания. Принципы такого выделения необходимо конкретизировать в рамках общей проблемы воспроизведения объекта в научном знании [126].

Указанная проблема весьма важна и потому, что количество информации, получаемое в процессе познания, зависит и от ме­тода познания. Оно может оказаться характеристикой эффектив­ности применяемого метода познания [127]. Информация, зависящая от метода познания, является неизбежным, но не всегда искомым компонентом процесса и результата познания.

Поясним это на следующем примере. Допустим, что в про­цессе познания (мы рассматриваем здесь статистическую мо­дель) было построено некоторое большое, но конечное число ги­потез. Необходимо подтвердить или опровергнуть эти гипотезы. Будем предполагать для простоты, что все гипотезы независимы друг от друга. Требование независимости гипотез равносильно их максимальному отличию друг от друга, максимальному от­сутствию повторяющихся, тождественных положений. Однако полностью тождество гипотез невозможно исключить. Две гипо­тезы всегда оказываются в чем-то тождественными, и этим мож­но воспользоваться для построения наиболее эффективного (оп­тимального или почти оптимального) метода познания.

Ведь можно гипотезы проверять одну за другой, произ­вольно выбирая их из первоначальной совокупности. Выбрали гипотезу - ставим эксперимент, который может ее или опроверг­нуть или подтвердить. Легко увидеть, что этот статистический метод «проб и ошибок» далеко не всегда является оптимальным. Ведь не исключено, что подтвердившаяся гипотеза окажется именно последней. В этом случае количество информации, по­лученное в результате проверки гипотез, оказывается равным ло­гарифму числа проверенных гипотез.

Воспользовавшись не только различием гипотез, которое абсолютизирует статистический метод, но и их тождеством, мы можем построить существенно более эффективный метод позна­ния, характеризующийся значительно меньшим количеством информации. Для этого, если возможно, разобьем все гипотезы на равные или почти равные части по каким-либо общим при­знакам. Далее можно поставить эксперимент, который подтвер­ждал бы не одну какую-либо гипотезу, а ту или иную часть гипо­тез. Если эксперимент подтвердил какую-либо часть гипотез (а другую соответственно опроверг), то ясно, что искомая гипотеза может быть заключена именно среди них. Для того чтобы прий­ти к такому же результату методом произвольного выбора гипо­тез, нам пришлось бы затратить значительно большее количест - во информации.

Приведем численный пример. Возьмем начальное количе - ство гипотез, равное 32. Для того чтобы опровергнуть половину из них методом произвольного выбора, мы можем получить че­тыре бита информации. Если же разделить гипотезы на две рав­ные части и поставить эксперимент, позволяющий выбрать одну из этих частей, то мы получим лишь один бит информации. Итак, в одном случае четыре бита, а в другом - оптимальном - один бит. Значит, в первом случае мы получаем лишних три бита практически бесполезной информации. Но за этими тремя бита­ми могут скрываться колоссальные ассигнования, масса усилий ученых, напрасно потраченное время.

Очевидно, что полученные биты информации характеризу­ют не содержание отражения (мы ведь так и не знаем, какая ги­потеза верна), а лишь метод познания. При этом более эффек­тивному методу соответствует меньшее количество информации, характеризующее сам метод познания. Естественно, что для вы­явления искомой гипотезы необходимо произвести следующее разделение гипотез и т. д. Приведенный пример весьма тривиа­лен и может быть решен без применения теоретико-информа­ционных методов. Но в более сложных случаях в ответе на во­прос, каким должен быть оптимальный метод познания, может существенную помощь оказать теория информации (в частности, теория оптимальных или почти оптимальных методов кодирова­ния и декодирования информации).

К какому соотношению количеств информации как содер­жания отражения и как характеристики метода отражения следу­ет стремиться в процессе познания? По-видимому, необходимо, чтобы на единицу количества информации как содержания от­ражения приходилось бы минимальное количество информации, характеризующей метод познания. В этом случае процесс позна­ния оказался бы наиболее эффективным. Очевидно, упомянутое отношение количеств информации могло бы служить одной из важных информационных характеристик сравнения эффектив­ности различных процессов познания. Важно также отметить, что эффективность познания можно измерять и при помощи ценности получаемой научной информации. Ведь наиболее цен­ную информацию мы получаем получается лишь в том случае, если максимально приближаемся к цели - адекватному отраже­нию исследуемого объекта.

<< | >>
Источник: Урсул, А. Д.. Природа информации: философский очерк /А. Д. Урсул; Челяб. гос. акад. культуры и искусств; Науч.-образоват. центр «Информационное общество»; Рос. гос. торгово-эконом. ун-т; Центр исслед. глоб. процессов и устойчивого развития. - 2-е изд. - Челя­бинск,2010. - 231 с.. 2010

Еще по теме § 14. Научное познание и теория информации: