<<
>>

§ 6. Теория систем и теория информации

В литературе, особенно естественно научной и даже фило­софской, понятия организации, структуры и системы употреб­ляются иногда как совпадающие по смыслу. Нам представляется, что здесь нет терминологической избыточности и что между этими понятиями имеются определенные различия.

На наш взгляд, понятие системы уже понятия организации. Всякая реальная система обладает организацией, но не всякая организация выступает как система. Под системой имеет смысл понимать организованное множество, образующее целостное единство. Такое определение системы в основном совпадает с теми, которые приняты в нашей философской литературе [40]. При этом понятие системы отождествляется с понятием целого [41].

Система отличается от организации своей ограниченно­стью от окружающей среды, т.е. критерием в данном случае вы­ступает различие организации системы и внешней среды.

Структура есть своего рода инвариант системы. Характе­ризуя структуру, мы учитываем не все разнообразие элементов, связей, отношений системы, а лишь нечто устойчивое, сохра­няющееся. Такая точка зрения на соотношение системы и струк­туры, к которой мы присоединяемся, развивается, например, Н. Ф. Овчинниковым [42]. Переход от понятия системы к понятию структуры связан уже не с увеличением классов разнообразия, а с его ограничением, выделением инвариантов.

По-видимому, можно говорить не только о структуре сис­темы, но и о структуре сложности (инварианте элементов), структуре упорядоченности (инвариантах элементов и отноше­ний порядка) и структуре организации (инвариантах элементов, связей и отношений).

Понятия сложности, упорядоченности, организации, систе­мы и структуры являются определенными абстракциями, ибо каждый материальный объект и сложен, и упорядочен, и органи­зован, отграничен от среды в определенных отношениях и т. п. Говоря, например, об упорядоченности того или иного объек­та, мы выделяем лишь различие элементов и их отноше­ний порядка, тогда как другие реальные различия нами игно­рируются.

Соотношение понятий сложности, упорядоченности, орга­низации, структуры и системы, рассмотренное здесь, мы можем представить в виде схемы (см. с. 97).

Итак, мы рассмотрели кратко логический генезис понятия системы, который начинается с понятия сложности как сравни­тельно простого по своему содержанию. Включение все новых классов различий увеличивает содержание каждого следующего понятия и уменьшает его объем. Такая дедуктивная схема по­строения понятия системы на основе категории различия позво­ляет сделать вывод о возможности теоретико-информационного подхода к исследованию систем. Действительно, поскольку по­нятия структуры и системы включают в себя понятия сложно­сти, упорядоченности и организации, то отсюда следует, что ме­тоды теории информации применимы и к исследованию систем и структур. Количество информации, заключенное в системе, есть ее количественная, т. е. метрическая, характеристика. Она выражается различными формулами для различных математиче­ских структур (систем). На важную роль понятия математиче­ских структур обращено внимание французской школой мате­матиков - Н. Бурбаки.

Однако структуры (системы) изучаются не только матема­тикой. Системно-структурный подход проникает во многие есте­ственные, общественные и технические науки. Создается даже

*

общая теория систем , призванная выявить общие законы, дей­ствующие в физических, химических, биологических, техниче­ских и иных системах. Определенные успехи достигнуты в об­ласти изучения биологических систем, особенно в результате ра­бот австрийского ученого Л. Берталанфи [43].

Развитие системного подхода прошло ряд этапов, прежде чем удалось выработать общее понятие системы. Наиболее ран­ние представления о системе носили в основном механический характер, ибо они были связаны с развитием механики Ньютона. Дальнейшее развитие науки привело к отказу от понимания ма­териальных систем как чисто механических. Несостоятельность такого подхода впервые наиболее четко была осознана при ис­следовании термодинамических систем, которое стало прово­диться с применением методов теории вероятностей.

Опираясь на атомистические представления, Л. Больцман предложил ста­тистическую интерпретацию энтропии как определенной харак­теристики микроструктуры газа. Следовательно, понятие энтро­пии тесно связано с развитием понятия системы.

Однако классическая физика изучала в основном закрытые системы. Закрытыми системами в теории систем считаются та­кие, которые обмениваются с окружающей средой лишь энерги­ей, но не веществом. В таких системах энтропия, согласно вто­рому закону термодинамики, могла только увеличиваться или же оставаться постоянной. Возрастание энтропии закрытой системы соответствует уменьшению упорядоченности. Последнее проис­ходит в результате выравнивания концентраций газов и жидко­стей, выравнивания температур и т. д.

В термодинамике энтропия S в ее статистической интерпре­тации выражается формулой Больцмана

S = klnp,

где к - постоянная Больцмана, р - термодинамическая вероятность.

Термодинамическую вероятность обычно связывают с чис­лом способов, которыми можно осуществить распределение мо­лекул по объему газа, заключенному в сосуде. Наиболее вероят­ное распределение молекул по объему - равномерное, так как оно достигается максимальным числом способов. Это состояние в термодинамике характеризуется максимальной энтропией. Следовательно, стремление к равномерному распределению, од­нородности газа есть процесс увеличения энтропии. Согласно второму закону термодинамики, все закрытые системы могут стремиться только к однородности, к уменьшению разнообразия.

С дальнейшим развитием термодинамики возникло понятие открытой системы. Последняя может обмениваться с окру­жающей средой не только энергией, но и веществом. Вообще в мире бесконечно много не только закрытых, но и открытых сис­тем. Открытыми системами являются любые биологические сис­темы - организмы, виды, семейства и т. д. К ним относится так­же человек, человеческое общество. В открытых системах эн­тропия может не только увеличиваться, но и уменьшаться. Уменьшение энтропии в системе возникает благодаря отводу ее во внешнюю среду.

Так происходит усложнение неживого веще­ства, например кристаллизация жидкостей, создание из неболь­ших молекул макромолекул и т. д. Подобным образом, видимо, понижается энтропия организма в результате процессов дыхания и питания.

Итак, мы видим, что переход от понятия механической сис­темы к понятию термодинамической системы привел к возник­новению понятия энтропии. Дальнейшее расширение понятия системы, рассмотрение открытых систем привело к обогащению наших знаний об изменении энтропии.

Наконец, когда научное познание перешло к изучению ши­рокого класса систем (особенно кибернетических), не связанных только с механическим или тепловым движением, возникло и стало развиваться понятие информации. И это вполне естествен­но, поскольку понятие информации относится к более широкому классу систем, чем близкое к нему понятие энтропии.

Понятие системы в истории научного знания предшествует понятиям энтропии и информации. Однако наиболее плодотвор­ный этап в развитии системных исследований наступил в связи с развитием кибернетики, которая исследует сложные динамиче­ские системы, перерабатывающие информацию.

A. Д. Урсул. Природа информации

Что такое кибернетическая система? Согласно Эшби, такого рода система обладает двумя важными особенностями: 1) она замкнута, непроницаема для информации и управления, 2) она очень сложна [44].

Замкнутость кибернетических систем для информации не означает, что эти системы закрыты для информации. Закрытость и замкнутость систем - это разные свойства. Понятие замкнуто­сти - это иное выражение устойчивости множества состояний системы. Если на систему действуют какие-либо возмущения (внешние или внутренние) и система при этом изменяется таким образом, что не порождается новых состояний, то говорят, что она устойчива, или замкнута относительно данного возмущения, преобразования. По-видимому, по типу замкнутости систем можно классифицировать типы целостности.

Замкнутая система может быть открытой, взаимодействую­щей со средой - таковы все кибернетические системы.

Но замкну­тая система может быть и закрытой - таковы некоторые физиче­ские системы, сохраняющие свою энтропию (обратимые процес­сы). Не следует думать, что система, закрытая в каком-то отноше­нии от среды, устойчива в данном отношении. Дело в том, что ис­точник возмущений - не только внешняя среда, но и внутренняя. В силу этого закрытые системы могут быть и неустойчивыми.

Из связи теории информации и кибернетики с теорией сис­тем, конечно, не следует, что эта последняя, как полагает

B. Я. Алтаев, «представляет собой скорее одно из направлений ки­бернетики, чем самостоятельную науку, включающую в себя ки­бернетику как одну из составных частей» [45]. Нам представляется, что общая теория систем в определенном аспекте шире киберне­тики, поскольку она изучает не только кибернетические системы.

Кроме определения системы, приведенного выше, сущест­вует еще и концептуальное, или логико-лингвистическое. В этом

случае система понимается как комплекс высказываний об объ­екте, построенный согласно правилам определенного языка. В сущности, это определение сводится к приведенному ранее, если под элементами понимать термины, отношения между которыми устанавливаются с помощью логических связей.

Говоря об исследовании систем, нельзя не остановиться на такой важной в методологическом отношении проблеме, как проблема упрощения. Понятия, теории и другие формы научно­го познания выступают как в известном смысле упрощенные образы объективно-реальных явлений. Вместо бесконечно­го числа свойств, связей, отношений даже одного изучаемого объекта приходится изучать их ограниченное, конечное количе - ство. Короче говоря, любой акт познания из бесконечного коли - чества информации выделяет лишь некоторое конечное количе - ство. Но упрощение объективной реальности в познании не оз­начает, что разнообразие не присуще материи, что оно объек­тивно не существует.

Мы не можем поэтому согласиться с У. Р. Эшби, полагаю­щим «что разнообразие множества не является его внутренним

свойством: бывает, что для точного определения разнообразия

*

нужно указать наблюдателя и его способность различения» .

Разнообразие материальных систем, конечно, является их внут­ренним, объективным свойством, другое дело, что наблюдатель отражает лишь часть этого разнообразия. Относительность на­ших знаний, относительность отражения отнюдь не говорит об его субъективности.

Общая теория систем делает попытку выявить некоторые общие закономерности любых систем, поэтому она должна абст­рагироваться от их несущественных различий, особенностей, упрощать эти системы. Фактически такое упрощение есть выде­ление устойчивых элементов, их связей и отношений, общих для всех систем. Поэтому теория, изучающая материальные систе­мы, в действительности оказывается теорией структур, а не сис­тем, ибо она исследует инварианты систем.

Необходимость упрощения возникает при изучении любого

*

рода систем, если они достаточно сложны. У. Р. Эшби показы­вает, например, что число различных элементов (атомов в види­мой вселенной, событий на атомном уровне, происшедших за время существования земли, и т. д.) оказывается близким к 10100. Еще большие числа получаются, если перейти к комбинациям, отношениям элементов и т. п. Поэтому системы, даже состоящие из десятков элементов, в действительности могут характеризо­ваться астрономическими цифрами. Познание таких систем не­избежно связано с их упрощением. Возникает вопрос о степени этого упрощения. Если степень упрощения окажется низкой, то теория систем эффективна лишь для узкого круга систем, ибо она будет отражать в основном их особенности. Если степень упрощения высока, то упрощение может легко перейти в сверху­прощение, и тогда общая теория систем не будет эффективной для изучения всех достаточно сложных систем. Как справедливо отмечает М. Месарович, «понятия такой теории должны распро­страняться на достаточно широкий круг систем, и в то же время они должны позволить нам прийти к выводам, содержащим дос­таточно информации для адекватного понимания рассматривае­мого частного случая» [46].

Проблема упрощения, выбора уровня абстракции общей теории систем до сих пор еще не решена удовлетворительно. Представляется, что существенную помощь в решении этой про­блемы могут оказать методы теории информации. Широко из­вестная формула Шеннона есть формула упрощения, перехода от микроданных к макроданным. А методы s-энтропии позволяют изучать даже бесконечные совокупности, что, конечно, без упро­щения совершенно невозможно. У Р. Эшби считает, что «сама по себе теория информации может рассматриваться как форма упро­щения, ибо вместо исследования каждой индивидуальной причи­ны в связи с ее индивидуальным следствием - что является клас­сическим элементом научного познания - она смешивает в общую

*

массу все причины и все следствия и связывает лишь два итога» .

В следующих главах мы покажем, что методы теории ин­формации позволяют оценивать сложность и простоту законов, теорий и основных понятий науки. Поэтому можно надеяться, что проникновение методов теории информации в системно­структурные исследования окажется весьма полезным.

<< | >>
Источник: Урсул, А. Д.. Природа информации: философский очерк /А. Д. Урсул; Челяб. гос. акад. культуры и искусств; Науч.-образоват. центр «Информационное общество»; Рос. гос. торгово-эконом. ун-т; Центр исслед. глоб. процессов и устойчивого развития. - 2-е изд. - Челя­бинск,2010. - 231 с.. 2010

Еще по теме § 6. Теория систем и теория информации: