17.05.2012 1875

Взаимосвязь между свойством и отношением в феномене информации

 

Данная проблема, во-первых, имманентна для внутренней информации, которая может интерпретироваться одновременно как отношение и как свойство. Во-вторых, между внутренней информацией как фундированным свойством - атрибутом объекта - и внешней информацией как отношением между объектами действует собственное отношение, управляемое законом сохранения информации.

Нет ли противоречия в том, что внутренняя информация как система онтологических отношений между элементами структуры объекта переопределена в его свойство? Противоречия нет, если не мыслить информацию в отрыве от движения, если рассматривать ее дуально - не только в контексте результата, но и как процессуальный феномен. Для этого есть все основания, заложенные еще аксиомами Гераклита (все в мире изменяется) и Парменида (все в мире неизменно). Все означает здесь все имеющееся, а не обязательно все существующее (если под существующим понимать то в бытии, что в нем явлено внешне). Имеющееся - это явленное и не явленное: ирреальное, фантастическое, трансцендентальное, идеальное, включая философские понятия, в том числе - понятия свойства и отношения.

Тогда свойство (атрибут), будучи самотождественно устойчивым и неизменным, в то же время и изменчиво, динамично в своем саморазвитии, процессуально. Поэтому любые свойства, состояния, сущности - фактически устойчивые, стационарные, равновесные процессы. Когда эти процессы становятся неустойчивыми, нестационарными, неравновесными, свойства приобретают черты образующих их отношений, состояния - событий, а сущности - явлений («сущности являются»), и наоборот. Свойство можно также характеризовать согласно вероятностному закону больших чисел как статистически устойчивую закономерность (вектор) поведения композиции большого числа отношений, их равнодействующая, «центр тяжести», математическое ожидание. В этом смысле внутренняя информация есть свойство, сущность, а внешняя информация - отношение, явление. В модальных категориях внутренняя информация возможна (потенциальна) в качестве внешней информации.

Образно отношение между внутренней и внешней формами информации объекта можно представить как отношение между внутренностью Солнца и солнечным протуберанцем - явленной внутренностью звезды, вырвавшейся наружу. И подобно тому, как внутренние и/или внешние физико-химические причины вызывают извержение протуберанцев, существуют похожие информационные причины генерирования объектом внешней информации, например, любознательность субъекта. И так же как Солнце и планеты имеют свои физические мантии, любой объект, включая Солнце и планеты, может иметь информационную мантию как переходную область между внутренней и внешней формами информации.

Закон сохранения информации, постулирует статическое отношение между внутренней и внешней формами информации для замкнутой субъект-объектной системы - сложного источника (X,Y). Но реальное отношение динамично, как любой метаболизм (в данном случае - информационный метаболизм), и требуется обобщенный закон сохранения информации (в его философской интерпретации) для замкнутой среды, включающей зависимую от нее открытую систему. Среда и система информационно взаимодействуют, образуя сложный источник информации «среда-система», в котором энтропия среды больше энтропии системы, ибо последняя включена в среду, а не наоборот.

Представим Универсум как замкнутую среду Х, включающую в себя зависимую от нее открытую систему Y, информационно взаимодействующую со средой. Характер этого взаимодействия достаточно сложен и зависит во многом от целей системы и среды. Если цель системы - самоорганизация, то внешняя информация, воспринятая системой из среды, имеет смысл негэнтропии и, только отображаясь в тезаурусе, приобретает смысл собственно внутренней информации, количественной мерой которой является энтропия, характеризующая потенциальную информативность тезауруса. Если цель системы - самообучение, то внешняя информация есть мера взаимного познания системы и среды.

Практически указанные цели системы не альтернативны и даже не комплементарны - они диффузионны по отношению друг к другу, между ними нет однозначной границы. Поскольку X з Y, энтропия среды больше энтропии системы: Согласно полная взаимная информация (или просто полная информация) I(X,Y) сложного источника выражается через безусловную и условную энтропии как среды Х, так и системы Y, т.е. внешняя информация взаимообратима для среды и системы.

При жесткой зависимости Y от X условная энтропия системы будет исчерпана, в то время как условная энтропия среды останется ненулевой: Это значит, что система будет полностью познана средой, а среда системой - нет.

Полное познание источника Y означает, что его потенциальная информативность, характеризуемая безусловной энтропией H(Y), без остатка превратится во внешнюю информацию, и эта информация количественно будет максимальна: Жесткая зависимость, при которой максимизируется I(X,Y), достигается, когда система полностью адаптирована к среде, полностью предсказуема. Такое состояние для сложной системы теоретически достижимо, практически же - никогда. Минимум I(X,Y)=0, достигается при полной независимости X и Y, что нереально и, кстати, не соответствует исходному условию зависимости Y от X.

Таким образом, полная информация сложного источника «среда - система» не превышает энтропии системы. Это значит, что внешняя информация передается от среды открытой системе в количестве I(X,Y), не превышающем ее потенциальных возможностей H(Y) по усваиванию информации.

С позиций синергетики это значит, что система приобретает информацию в количестве не более того, сколько может «переварить», использовать для своей самоорганизации. Очевидно, что это количество теоретически не может превысить безусловной энтропии H(Y) как меры накопленного системой разнообразия, а практически всегда меньше H(Y).

С точки зрения когнитивной психологии равенство означает: каждый познает то, что может, а если хочет познать больше, должен увеличить свои информационные возможности, т.е. потенциальную информативность своего тезауруса.

С позиций информационного монизма это значит - информационное поле открыто нам лишь в меру возможностей нашего тезауруса. Поскольку тезаурусы разных систем различны, системы получают разную внешнюю информацию I(X,Y) от среды даже в общем информационном процессе. Но и источник генерирует при этом разную для всех информацию (согласно принципу взаимной информации). Так, несколько наблюдателей могут сделать на основе одного и того же наблюдения разные выводы. Разные социумы и разные индивиды недопонимают менталитет друг друга (и до конца не поймут!), потому что, вероятно, «взрыхляют» разные (в лучшем случае частично пересекающиеся) участки информационного поля. Таким образом, информационное разнообразие систем в Универсуме обусловлено в существенной мере разнообразием системных тезаурусов, селектирующих доступную им информацию в информационном поле Универсума.

Перейдем к формулированию динамического закона сохранения информации. Для этого вначале представим статические соотношения информационного баланса между полной информацией и полной энтропией сложного источника «замкнутая среда (X) - открытая система (Y)»: Обратим внимание на уменьшение «производства» условной энтропии H(Y|X) системы относительно среды (т.е. дефицита информированности среды о системе) по мере развития системы (перехода системы от независимости к полной адаптации - жесткой зависимости от среды).

Поскольку развитие - процесс, представим информационное взаимодействие системы и среды через динамику полной информации I(X,Y) во времени. Тогда при постоянстве энтропии системы H(Y) согласно dI(X,Y) dH(Y | X)

Если полагать, что самоорганизация и самообучение системы приводят к развитию тезауруса, энтропия которого при этом возрастает (H(Y) = var), и это развитие происходит дискретно (скачкообразно), то закон остается в силе для каждого из множества My дискретных состояний развитости тезауруса системы, где i-ому состоянию соответствуют свои значения энтропий H(Yi) и H(Yi|X):

При этом ограничения информационного баланса, - закон для текущего состояния тезауруса системы. Когда в процессе информационного метаболизма система наращивает за счет среды свое разнообразие и тезаурус самообучается владению новым разнообразием до качественно нового уровня стационарного поведения в среде, она (система) переходит на этот уровень, и закон сохранения информации начинает действовать для нового аттрактора с перераспределением совместной энтропии и полной взаимной информации в рамках законов.

В результате процесс информационного метаболизма развивающейся открытой системы приобретает вид, изображенный. Сформулируем две версии закона сохранения информации: синергетическая версия: динамика количества внешней информации в открытой системе обратна динамике ее условной энтропии относительно среды при максимуме количества информации, не превышающем текущей безусловной энтропии системы; при этом сумма количества информации и совместной энтропии системы и среды постоянна и равна сумме безусловных энтропий системы и среды; гносеологическая версия: динамика внешней информации открытой системы обратна динамике дефицита информации среды о системе при максимуме внешней информации, количественно не превышающем текущей информативности тезауруса системы; при этом сумма полной взаимной информации и совместной энтропии системы и среды постоянна и равна сумме текущей информативности тезауруса системы и внутренней информации среды.

Сформулированные версии закона сохранения информации согласуются с известными синергетическими принципами поведения диссипативных систем, в частности, с принципом минимума производства энтропии И. Пригожина. Там, где действует этот принцип, справедлив и комплементарный ему принцип максимума производства информации - ведь энтропия и информация строго комплементарны. Но если асимптотический минимум энтропии известен (нуль), то соответствующий асимптотический максимум информации был не столь очевиден. Согласно предложенным версиям закона сохранения он определяется внутренней информацией системы (количественно - ее безусловной энтропией).

Перейдем от общенаучных версий закона сохранения к обобщенному философскому закону, памятуя, что энтропия - мера внутренней информации, а полная взаимная информация - мера внешней информации. Тогда феноменологический обобщенный закон сохранения информации может быть сформулирован в следующем виде: динамика внешней информации сложного источника «замкнутая среда - открытая система» обратна динамике дефицита информации при максимуме внешней информации, количественно не превышающем текущей внутренней информации системы; при этом сумма количеств взаимной информации и взаимного дефицита информации постоянна и равна текущей сумме энтропий системы и среды.

Учитывая, что любая система состоит из подсистем, такая формулировка информационного закона сохранения справедлива для любой подсистемы Универсума. В данной формулировке закон сохранения информации философски значим, т.к. он охватывает все открытые системы и любую среду. При этом отношения между ненаблюдаемой внутренней информацией, наблюдаемой внешней информацией и законом сохранения информации таковы, что возможные изменения внутренней информации объекта не обязательно сопровождаются изменением внешней информации и никогда - нарушением закона сохранения информации.

Отметим, что все приведенные версии не совпадают с предложенным в законом сохранения информации. Вся логика нашего доказательства исходит из аддитивного характера отношений между количеством информации и энтропией как логарифмическими информационными мерами разнообразий системы и среды, в то время как в это отношение мультипликативно. Последнее, возможно, было бы справедливым в комбинаторной интерпретации информационных мер, однако понятие энтропии исторически связано с логарифмированием комбинаторной меры разнообразия и поэтому ее комплементарность с информацией математически аддитивна, а не мультипликативна. Тем не менее, концептуально оба подхода сходны в том, что комплементарная суперпозиция информации и энтропии количественно есть некая константа. Эта константа определяется внутренней информацией каждого из источников - среды и системы.

А.И. Вейник предложил закон сохранения информационной энергии (информэнергии) как меры количества поведения изучаемой системы. Полагается, что поведение системы характеризует ее проявление вовне в самом широком смысле при взаимодействии с окружающей средой.

Взаимодействие, как известно, может быть вещественным, энергетическим и информационным. Энергия характеризует интенсивность взаимодействия, а информация - его разнообразие, а вместе энергия и информация с разных сторон характеризуют изменение состояния систем. Информация - не энергия, но поведенчески они во многих частностях схожи. Если по аналогии с кельвиновской градацией ценности видов энергии перейти к градации ценности видов взаимодействия, то по убыванию ценности их можно расположить в следующей последовательности: информационное энергетическое вещественное. По степени своего воздействия на объекты энергия и информация, пожалуй, не уступают друг другу. При этом энергия воздействует на объекты непосредственно в силовой форме, а информация опосредованно - через энергию, которой она (информация) управляет. Во всяком случае, это справедливо для большинства явленных процессов нашего вещного мира. Более того, в этом мире все информационные процессы энергозависимы и энергетические процессы информационно зависимы в том смысле, что перенос информации, как правило, производится материально-энергетическим носителем (сигналом), а перенос энергии обычно инициируется информацией. Поэтому введение в научно-философский обиход феноменологического понятия информэнергии, по-видимому, правомочно.

Но, как только мы переходим от феноменологии этого понятия к его физической природе, возникает проблема интерпретации: что это - смесь независимых сущностей или самодостаточная сущность, не разложимая на информационную и энергетическую компоненты? Так, если информэнергию приложить к системе «человек», то можем ли мы количественно оценить поведение человека, если вслед за Вейником будем понимать поведение «в самом широком смысле этого термина»? Задача не из легких, и приступать к ее решению следует лишь после того, как будет прояснено физическое отношение между информацией и энергией – причинно - следственное, корреляционное или независимое. Если это разные сущности, то правомочна ли физическая единица бит-ватт-секунда, вытекающая из предложенной в формулировки закона сохранения информэнергии: где dW - изменение информэнергии; dQu- изменение информационной работы, совершенной системой; П - информациал (мера «интенсивности информационного взаимодействия»); dU - изменение энергии; п., dQi- частные значения информациала и изменения работы для i-го вещества, входящего в систему (n - число веществ).

В уравнении явно не указаны параметры сохранения и налагаемые на них ограничения (свойство постоянства или значения констант). Поэтому вызывает возражение попытка назвать его законом сохранения.

Вейник утверждает, что переносится (передается) не информация, а энергия под действием разности информациалов; информация же системы, как и температура или электрический потенциал, способна лишь изменяться в процессе передачи энергии. Полагаем это суждение неубедительным, по крайней мере, для нас. Во-первых, оно элиминирует само понятие информационного процесса (информационного взаимодействия). Если быть последовательным, то согласно Вейнику в мире остаются только вещественные и энергетические взаимодействия, информационный метаболизм исключен. Но это же не так - все энергетические процессы информационны, обратное утверждение под вопросом. Энергия - мера работы, совершаемой носителем информации в этих процессах. Кто же работодатель? - информация! - этот вывод следует из всего хода предшествующих обоснований - именно информация телеологически фундирована во все взаимодействия. С другой стороны, информационный процесс принципиально может не нуждаться в известных формах энергии - быть безэнергетическим в традиционном понимании. Если под информэнергией в понимается нетрадиционная латентная для материального мира энергия «тонких миров» (по Вейнику - наномира, пикомира, фемтомира, аттомира), переносящая информацию об их состояниях, тогда нет повода для критики. Но утверждать наверняка мы этого не можем, ибо Вейник не дает убедительных обоснований на этот счет.

В связи с изложенным мы не отрицаем возможности информационной энергии как понятия, связующего воедино информацию и энергию не просто как две стороны одного процесса, а в его более глубоком онтологическом понимании. Более того, с позиций единства природы взаимодействий эта связь правдоподобна. И если мы по-своему отстаиваем ее существование, нет оснований отказать А.И. Вейнику и другим ученым в аналогичном праве. Более глубокое обоснование обобщенного информационно - энергетического закона сохранения (с привлечением экспериментальных данных) - благодарная область исследований для ученых и философов.

Согласно закону сохранения информации внешняя информация как репликация части внутренней информации источника не уменьшает его информативность, количественной мерой которой является безусловная энтропия источника. Действительно, в результате познания некоторого объекта Х его исходная энтропия уменьшается на величину I(X), которая в теории информации называется количеством информации. Означает ли это, что при бесконечной априорной энтропии H(X) непрерывного источника апостериорная энтропия H(X|Y) конечна? Нет, не означает. Количество информации как опытная мера познания не изменяет качества (природы) источника - из непрерывного он не превращается в дискретный: roconsro. Следовательно, энтропия H(X|Y) также бесконечна. Тогда в выражении для I(X) получаем неопределенность. Логически сознавая, что величина I(X) конечна, тем не менее, разрешим математически эту неопределенность относительно I(X). Для этого рассмотрим задачу определения положения точки на отрезке прямой с точностью s - задача Л. Бриллюэна.

Пусть этот отрезок длиной L разбит на конечное число (пн) малых отрезков длиной X, так что в интервал s умещается тоже целое число (пк) таких отрезков. Тогда с учетом равновероятности положения точки на интервалах L и s и асимптотической формулы получим: I(X)=log Пн - log Пк = log L/s = log L - log s При X 0 пн ю, пк ю, H(X)=log пн, H(X|Y)=log пк. Но I(X) согласно не зависит от пн, пк и остается конечным.

Данная задача может быть распространена на объект любой размерности, в том числе на мироздание, и мы это делаем. Вывод: количество информации, получаемой в опыте, акте познания, всегда конечно. Отсюда любая истина как продукт познания относительна.

Физически этот результат объясняется тем же, что и неистребимые ошибки познания, - взаимодействием субъекта и объекта познания, в результате чего субъект познает не «вещь саму по себе», а «вещь для себя», зашумленную, искаженную, приближенную, упрощенную этим взаимодействием. Стоит нам избавиться от этой помехи (шума), и процесс познания становится невозможным. Следовательно, ошибки, неточности, приближения, упрощения и в конечном счете относительность добываемых истин являются непременным спутником процесса познания. Более того, без них познание просто невозможно. Абсолютная истина и познание несовместимы.

Рассмотрим другой - динамический - аспект данной задачи. Пусть производительность источника информации (R) и пропускная способность канала связи (C) в совокупности удовлетворяют принципу надежного кодирования Шеннона R < C, где R и C измеряются в бит/сек. Тогда за Т секунд источник Х сгенерирует I(X,Y)=RT бит внешней информации, воспринимаемой потребителем Y. Но R и T реально конечны, в противном случае любой информационный процесс теряет смысл. Значит, количество информации I(X,Y) тоже конечно.

Изложенное позволяет сформулировать закон конечной информации: любая внешняя информация конечна.

Из совместного рассмотрения законов конечной информации и сохранения информации следует, что если количество взаимной информации I(X,Y) всегда конечно, а внутренняя информация системы - потребителя Y (как подсистемы- «микрокосма» Универсума Х) стремится к бесконечности, то закон конечной информации усиливает закон сохранения информации в части верхнего предела I(X,Y, а именно равенство трансформируется в неравенство: max I(X,Y) < H(Y), т. е. максимум взаимной информации между системой и средой количественно должен быть меньше стремящейся к бесконечности информационной энтропии системы.

В гносеологическом аспекте закон конечной информации постулирует относительность любой истины как продукта конечного во времени и пространстве акта познания.

 

АВТОР: Гухман В.Б.