Об определении понятия «информация»
В конце XX века люди овладели многими тайнами природы, сделали многочисленные открытия, разгадали взаимосвязь превращений вещества и энергии, сумели использовать новые знания для улучшения своей жизни. И с каждым годом все большую роль для любого человека и общества играет еще одна составляющая окружающей нас действительности - информация.
Что же такое информация? Изучение литературы по данному вопросу показывает обилие разных подходов к этому, казалось бы, общеизвестному и устоявшемуся понятию. Насколько специалисты разных отраслей далеки от окончательного понимания сущности информации, было показано Ю.Н. Столяровым на основе анализа широкого спектра взглядов [33]. Хорошо известно знаменитое высказывание «отца» кибернетики Н. Винера: «Информация есть информация, а не материя и не энергия». Тем самым Н. Винер отказался от формулирования понятия информации, считая, что оно сродни таким категориям, как движение, жизнь, сознание [15]. Академик Н.Н. Моисеев также полагал, что универсального определения информации не только нет, но и быть не может из-за широты этого понятия [29]. Вместе с тем формулировка термина «информация», хотя бы в общем виде, необходима для решения как теоретических, так и практических задач современной науки и техники.
Согласно БСЭ информация (от лат. informatio – разъяснение, изложение) первоначально понималась как сведения, передаваемые одними людьми другим людям устным, письменным или каким-либо другим способом (например, с помощью условных сигналов, с использованием технических средств и т.д.), а также сам процесс передачи или получения этих сведений. Позднее это понятие было расширено и включило обмен сведениями не только между человеком и человеком, но также между человеком и автоматом, автоматом и автоматом; обмен сигналами в животном и растительном мире. Передачу признаков от клетки к клетке и от организма к организму также стали рассматривать как передачу информации [9].
В «Словаре русского языка» С.И. Ожегов дает такое определение информации - это сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальным устройством [30]. Там же раскрывается понятие «сведения» - это познания в какой-либо области, известия, сообщения, знания, представление о чем-либо [30].
Федеральный закон «Об информации, информационных технологиях и о защите информации» [1] трактует информацию как «сведения (сообщения, данные) независимо от формы их представления».
Первоначально понятие «информация» функционировало как элемент повседневно-бытовой коммуникации. В ХIХ веке в физике (Э. Аббе) и в логико-семиотических построениях (Ч.С. Пирс) информация упоминается как специфическое средство познания [12]. В литературе по философским вопросам теории информации и кибернетики понятие «информация» очень часто связывается с работами Р. Хартли и К. Шеннона по проблемам инженерной коммуникации и связи. Вместе с тем, как утверждает ряд авторов, освоение наукой понятия «информация» началось значительно раньше в сфере социогуманитарного знания. Но если по этому вопросу нет единой точки зрения, то никто не оспаривает того, что понятие «информация» первоначально функционировало как элемент языка повседневно-бытовой коммуникации.
В отечественной литературе первые попытки систематического изучения понятия информации относятся к 20 30 годам XX века и связаны с теорией журналистики. В ней наиболее распространенным было представление информации как «описания фактов». Обсуждалась принадлежность к информации любых фактов или только новых. Была выявлена связь информации и публицистики как объяснения, комментирования фактов. На примере прессы исследовались источники информации и их классификация, взаимоотношения потребителя информации и самой информации, свойства информации (новизна и оригинальность как ценностные характеристики, партийность, достоверность, важность, полнота, убедительность, агитационная действенность и т.д.).
Значительный объем представлений о содержании понятия «информация» накоплен в философии. По мнению Р.Ф. Абдеева, в философской науке существует два различных подхода, две противостоящие друг другу концепции информации – атрибутивная и функциональная [2].
«Атрибутивисты» определяют информацию как свойство всех без исключения материальных объектов - как живых, так и неживых, т.е. как атрибут материи. В этом плане хорошо известно определение академика В.М. Глушкова: «Информация в самом общем ее понимании представляет собою меру неоднородности распределения материи и энергии в пространстве и во времени, меру изменений, которыми сопровождаются все протекающие в мире процессы. … Информацию несут в себе не только испещренные буквами листы книги или человеческая речь, но и солнечный свет, складки горного хребта, шум водопада, шелест листвы» [19]. В литературе отмечается, что «категория отражения оказалась тем ключом, который позволил открыть тайну природы информации; именно эта философская категория оказалась методологически плодотворной для проникновения в ее сущность» [38]. Познавательный процесс в этом случае представляет собой декодирование информации, которая содержится в предметах реального мира. Представляется, однако, что такой подход необоснованно расширяет содержание понятия «информация». Не отвечая на многие вопросы, связанные с появлением информации, он создает основу для возникновения новых вопросов, например, о том, как проявляется данный атрибут материи в отсутствие объектов живой природы, о механизмах обмена информацией между объектами неживой природы, а также между объектами живой и неживой природы и т.д. [35].
«Функционалисты», напротив, связывают информацию лишь с функционированием самоорганизующихся систем, считая, что информация неразрывно связана лишь с высшими видами отражения, с высокоактивными его формами, характеризующими процессы управления. Информация понимается при этом как свойство не всей, а лишь высокоорганизованной материи. Ограничительным признаком для информации (в сравнении с отражением как атрибутом всей материи) здесь служит обязательность связи с управлением, т.е. с высокоактивным отражением, необходимой предпосылкой которого является достаточно высокий уровень организации материи. При такой трактовке информация возникает вместе с жизнью и характеризует органическую природу, человеческое общество и технику, вовлеченную человеком в процессы управления. Такова позиция Г.Г. Вдовиченко, Д.И. Дубровского, Н.И. Жукова, Б.С. Украинцева, М. Янкова и других исследователей. Разделяя эту концепцию, П.В. Копнин указывал: «Информация не является атрибутом материи, она принадлежит не всем ее формам и видам. … Информация … касается отдельных сторон, моментов, видов отражения. Если рефлекс связан с мозгом, то информация - со сложнодинамической системой управления, способной приспосабливаться к изменению условий. … Информация в отличие от отражения вообще возникает на определенном уровне организации материи» [19]. Таким образом, функциональный подход предусматривает наличие в самоорганизующейся системе особого рода отражающей подсистемы – информационной системы. Важнейшей способностью самоорганизующейся системы является возможность изменяться под воздействием некоторых факторов внешнего мира, которые значимы для данной самоорганизующейся системы. Именно в этом суть выделения сигналов самоорганизующейся системой. Особым видом сигналов являются знаки, которые в отличие от сигналов естественного происхождения создаются самоорганизующимися системами и предназначаются для передачи и хранения информации [26].
Р.Ф. Абдеев предложил разделение информации на структурную и оперативную. При этом под структурной понимается информация, содержащаяся в структуре объектов, а под оперативной – структурная информация, полученная получателем информации, объектом живого мира [2]. Данная классификация представляется весьма спорной даже с позиций самого автора. Если информация является атрибутом материи, отражением ее движения, то она не может быть заключена только в структуре объекта, т.к. эта структура определяется составом элементов и связями между ними, в то время как движение объекта в большей степени связано с сущностью составляющих его элементов, определяющей особенности их развития, взаимодействия между собой и, как следствие, - развитие объекта. Если объекты «потому могут порождать процессы, что в объектах есть информация», то информация есть причина движения и, как следствие, - сущность объекта, т.к. только сущность проявляется в форме свойств. Это, в свою очередь, противоречит положению автора, что информация является атрибутом материи. Кроме того, структура объекта – не более чем абстракция, существующая в нашем сознании и призванная способствовать постижению его сущности. В зависимости от цели исследования, опыта исследователя, имеющихся знаний об объекте, любой объект может быть описан различными структурными схемами. Означает ли это, что вследствие этого изменятся свойства объекта, в том числе заключенная в структуре объекта информация? Представляется, что, по существу, предложенная концепция информации является попыткой объединения атрибутивного и функционального подходов, сохраняющей присущие им недостатки. В то же время это не исключает возможность получения полезных результатов в некоторых научных направлениях на основе рассмотрения информации как меры организации системы [35].
Важным условием уяснения сущности информации и правильного решения ряда информационно-познавательных задач является использование принципа адекватного отображения объекта отображающим его объектом. Познать механизм отображения можно лишь путем анализа философской категории движения материи, в частности, такой его формы, как взаимодействие одного материального образования с другим. Результатом их взаимодействия являются отображения, а данные, образующие их содержание, и есть информация. При такой концепции информации под данными, образующими содержание отображения, понимаются любые реальные изменения любой природы, которые наступают в результате взаимодействия объектов и воспроизводят свойства, черты одного объекта в другом [24].
Однако для комплексного решения проблемы информации одного такого подхода недостаточно, поскольку он не раскрывает в полной мере ни условия и «механизм» восприятия информации познающим субъектом, ни методологические основы процедур, связанных с ее обработкой, в том числе с помощью средств вычислительной техники. Более плодотворен для этой цели подход, получивший наименование «разнообразностной» концепции информации. В его основе лежит общенаучное понятие разнообразия, базирующееся на философских категориях различия, отражения и законе необходимого разнообразия. Пользуясь языком логики, можно сказать, что различие есть отрицание неразличимости, а сообщение, позволяющее ликвидировать состояние неразличимости, есть информация. Поэтому информацию можно трактовать как «снятую» неразличимость, как разнообразие [24]. «Информация - это разнообразие, которое один объект содержит о другом, это взаимное, относительное разнообразие. С позиций теории отражения информация может быть представлена как отраженное разнообразие, как разнообразие, которое отражающий объект содержит об отражаемом» [37]. «Информация налицо там, где имеется разнообразие, неоднородность. Информация «появляется» тогда, когда хотя бы два «элемента» в совокупности различаются, и она «исчезает», если объекты «склеиваются», «отождествляются» [8].
Отправляясь от «разнообразностной» концепции информации, можно утверждать, что процесс ее выделения состоит в установлении разнообразия объекта познания, проявляющегося в разнообразии характеризующих его признаков, а это возможно тогда, когда такое разнообразие реально имеется и отображается, воспринимается познающим субъектом. М.К. Бочаров указывал, что материя несет не информацию, а лишь содержание информации, которое должно быть извлечено и выражено в определенной форме. В этом случае содержанием информации естественно считать сведения о предметах и явлениях природы, общества и мышления, а формой существования и передачи содержания информации – любые системы знаков или сигналов [10]. К сказанному добавим, что информация об объекте познания может быть не только воспринята познающим субъектом или техническим устройством (при соответствующей ее обработке), но и как бы отделена от ее первоисточника - отображения объекта познания [24].
Возможен взгляд на проблему и под другим углом [32]. Наука об информации «выросла» из практических потребностей электро- и радиосвязи, в частности, из острой, но не решенной и в наши дни проблемы «тесноты в эфире» и повышения помехоустойчивости радиотехнических систем. Важнейшим этапом в становлении и развитии теории информации было создание В.А. Котельниковым теории потенциальной помехоустойчивости - выделения полезных сигналов из их смеси с помехами. Проблемы оптимального размещения радиостанций в определенном диапазоне волн ставили задачу упорядочения приема и передачи информации, измерения пропускной способности эфира и проводов. В.А. Котельникову удалось определить «емкость» и «плотность» информации в эфире. Таким образом, познание природы информации в дальнейшем в значительной степени переместилось в сферу технических и естественных наук. Следующий важный шаг был сделан К. Шенноном [43], который установил единицу количества информации и доказал теорему о пропускной способности канала связи: при скоростях передачи, превышающих пропускную способность, не существует таких методов кодирования и декодирования, которые обеспечивали бы восстановление передаваемого сигнала. К. Шенноном и У. Уивером были предложены вероятностные методы определения количества передаваемой информации.
Представления об информации, основанные на статистической теории передачи сигналов К. Шеннона, привели к следующему определению в Webster’s New World Dictionary of Computer Terms: «Информация - это данные, которые обрабатываются компьютером и могут быть выведены в форме, удобной для пользователя». Иными словами, между данными и информацией поставлен знак тождества. Стандарт ISO 2382/1-1984, E/F 01.01.02 определяет информацию гораздо осторожнее: «Информация (в процессах обработки данных и в офисных машинах) – это значение, которое человек присваивает данным на основе имеющихся соглашений. Данные – это представление данных и инструкций в виде, удобном для передачи и обработки человеком или машиной».
В математике и кибернетике информация является мерой устранения неопределенности (энтропии), мерой организации системы. Соотношение между понятиями «энтропия» и «информация» в известном смысле напоминает соотношение между физическими понятиями потенциала и разности потенциалов [46]. Энтропия - это количественная мера неопределенности. Уничтоженная сведениями энтропия и есть информация [18]. В этом смысле информация выступает как мера отношения, взаимосвязи между системами, явлениями, процессами, а не как показатель состояния систем. Конструктивный потенциал информации в теории информации нашел выражение в понятии «негэнтропия», которая определяется как мера порядка, упорядоченности, внутренней структуры, связанной информации [28]. Основоположниками такого подхода к понятию информации были английский нейрофизиолог У.Р. Эшби [45] и французский физик Л. Бриллюэн [11]. Они исследовали вопросы общности понятия энтропии в теории информации и термодинамике, трактуя информацию именно как отрицательную энтропию (негэнтропию). Бриллюэн и его последователи стали изучать информационные процессы под углом зрения второго начала термодинамики, рассматривая передачу информации некоторой системе как усовершенствование этой системы, ведущее к уменьшению ее энтропии.
Н. Винер предложил «информационное видение» кибернетики как науки об управлении в живых организмах и технических системах. Центральное положение понятия информации в кибернетике объясняется тем, что кибернетика, ограничивая и уточняя интуитивное представление об информации, изучает машины и живые организмы с точки зрения их способности воспринимать определенную информацию, сохранять ее в «памяти», передавать по «каналам связи» и перерабатывать в «сигналы» направляющие их деятельность в соответствующую сторону. По Винеру, «информация - это обозначение содержания, полученного из внешнего мира в процессе нашего приспособления к нему и приспособления к нему наших чувств. Процесс получения и использования информации является процессом нашего приспособления к случайностям внешней среды и нашей жизнедеятельности в этой среде» [16]. Используя в ходе исследования идеи теории информации, Н. Винер рассмотрел дезорганизующие моменты, которые возникают в результате функционирования систем, и предложил с качественных позиций рассматривать энтропию как меру дезорганизации последних. Отмечалось, что энтропия всякой системы, независимо от ее природы, тем больше, чем менее упорядочены связи между ее элементами, частями, между протекающими в ней процессами, чем более случайный характер они имеют. В этом смысле понятия организации и структуры как совокупности упорядоченных отношений между элементами данных систем противостоят энтропии, противодействуют ее возрастанию. В такой плоскости под информацией стали понимать уже не просто сведения, а только те сведения, которые являются новыми и полезными для принятия решения, обеспечивающего достижение цели управления. Однако в данном Винером определении не отражено, содержанием чего является информация, каковы ее природа и материальная основа возникновения [24]. Винер дал обширную логико-функциональную трактовку регулирования (управления), назвав его кибернетикой [14,16]. Базой послужила классическая теория регулирования с обратной связью, основы которой были заложены трудами Платона, Ампера, Вышнеградского, Ляпунова и других ученых. Вместе с тем Н. Винер не дал систематического изложения идей кибернетики [18]. Академику А.И. Бергу принадлежит известное определение кибернетики как науки об оптимальном управлении любыми сложными динамическими системами, основанной на теоретическом фундаменте логики и математики и применении средств автоматизации, информационно-логических машин. Великий русский ученый А.Н. Колмогоров создал математическую теорию об интерполировании и экстраполяции случайных последовательностей, обосновал ряд фундаментальных положений об интеллектуальных системах (результаты по применению вероятностных методов в управлении были получены Колмогоровым раньше Винера, но по соображениям секретности стали широко известными намного позже). В.М. Глушков рассматривал кибернетику как науку «об общих законах преобразования информации в сложных управляющих системах».
Интенсивно развивающимся в настоящее время научным направлением является синергетика и, в частности, специальный раздел синергетики - динамическая теория информации, в основу которой положено предположение о том, что информация есть запомненный выбор одного варианта (или нескольких) из N возможных и равноправных [22]. Методологический аппарат данной теории базируется на введении понятия меры информации, характеризующей ситуацию выбора, а также понятий цели и ценной информации, т.е. такой информации, которая помогает достижению цели [42]. Количество информации при этом равно:
;
i=1, 2, …, N,
Pi – вероятность выбора i-го варианта a priori.
В простейшем случае, когда P1=P2=…PN=1/N, .
Условие запоминания играет очень важную роль: без него невозможны ни хранение, ни обработка информации [41].
Кроме исследователей, работающих в сфере кибернетики, экономики и информатики, попытки рассмотреть структуру информационного потока предпринимают специалисты по массовой коммуникации и социальному управлению. Так, Б. Евладов [23] выделяет четыре основных вида информации: контрольно-измерительную, учетно-статистическую, научно-техническую и общественно-политическую. Достаточно убедительная модель классификации информации создана В.Г. Афанасьевым [23]. Он выделяет информацию обыденную, эмпирическую и научную, систематизированную. Далее следуют информация внешняя и внутренняя. Первая поступает в систему извне, вторая вырабатывается в ней самой. Кроме того, информация, идущая от субъекта к объекту управления, является прямой, информация же, путь которой пролегает от объекта к субъекту управления, - обратной.
Профессор В.Н. Волченко, выдвигая концепцию биоэнергоинформатики, высказал гипотезу о существовании информации в непроявленном, проявленном и отображенном виде. В соответствии с этой гипотезой [17]:
• непроявленная информация - это информация в потенциале, в закодированном виде, скрытая от человеческого сознания «до востребования». Она a priori присуща всем элементам Мира как его разворачивающийся потенциальный уровень (потенциальное Бытие). В терминах религии - это Абсолют и Тонкие миры;
• проявленной информацией предложено считать все формы материального существования - актуального Бытия. Эту информацию можно назвать статической;
• отображенная информация связана с сознанием человека. Это оперативная, динамическая информация, стимулирующая процесс творчества; ее можно назвать «творящей» информацией.
Высшую форму информации - творящую информацию - предложено рассматривать как элемент сознания в его расширенном Вселенском смысле.
В архивоведении понятие информации детально проанализировано в работах В.Н. Автократова [3,4], который выступал с позиций атрибутивного подхода. Трактуя информацию и как «структуру», и как процесс получения «сообщений» (информационный процесс) и упорядоченность объекта (системы), и как отношение «структур» и «сообщений», он не дал обоснования столь многообразного понимания информации, но отметил, что существуют два основных типа информации – «связанная» и «свободная».
«Связанная» информация трактуется В.Н. Автократовым как уровень организации объекта, как программа функционирования системы. Будучи как бы сцепленной со структурой системы, она часто отождествляется с ней, и тогда ее просто называют «структурой». В широком смысле слова связанная информация представляет собой память.
«Свободная» информация, ее называют также «относительной», понимается как отношение, или воздействие одного объекта (структуры, процесса) на другой, благодаря чему второй из них становится носителем информации о первом. Она включает знаковую социальную информацию – «оперативную» или «текущую», «информацию-сообщение», «знание» и т.п. В.Н. Автократов справедливо заметил, что особенностью «свободной информации является то, что она обнаруживается и используется только при наличии подготовленного к ее восприятию потребителя. Лишь в этом случае может происходить процесс передачи информации.
Несмотря на глубокие различия, «связанная» и «свободная» информация не могут существовать раздельно. Между ними наличествует тесная взаимосвязь и взаимодействие. Свободная информация превращается в связанную в результате научения. Процессом и результатом взаимодействия свободной и связанной информации является «актуальная» информация. Это «сообщения», поступающие в систему, необходимые ей и обеспечивающие ее жизнедеятельность. Часть «сообщений», получаемая и имеющаяся в распоряжении системы, не используется ею для текущего управления. Это «потенциальная» информация.
Проведенный В.Н. Автократовым анализ понятия «информация» имел огромное значение для развития понятийного аппарата архивоведения. В целом с его рассуждениями можно согласиться, однако вызывает возражения атрибутивный подход к информации применительно к архивоведению, архивным документам. В.Н. Автократов подчеркивает, что само понятие об информации не ставится в прямую связь с процессом восприятия, и это, по его мнению, дает возможность говорить о накоплении и хранении информации [4]. Но далее сам автор делит информацию на связанную и свободную, а выделенные им типы информации требуют для своего анализа принципиально различного подхода. Более того, архивные документы являются продуктами кибернетических систем, они созданы для хранения и передачи во времени и пространстве документной информации. Таким образом, архивная информация вряд ли может быть охарактеризована лишь с позиций атрибутивной концепции информации. Скорее, к архивам могут и должны быть применены оба концептуальных подхода [27].
Связанная (структурная, начальная, априорная) информация как целесообразно упорядоченная в пространстве инфраструктура, или, проще говоря, память в широком смысле, предполагает для своего обнаружения и изучения применение самых обычных научных приемов и не требует привлечения системных методов.
Относительная информация требует иного подхода для своего исследования и даже обнаружения, поскольку объем, а иногда и наличие такой информации оказывается зависимым от подготовки системы к ее использованию. Об относительной информации можно говорить только при условии, что известен объект, являющийся источником информации, есть потребитель, заинтересованный в информации именно об этом объекте, потребитель получает информацию для решения определенной задачи, что аргументировано обосновано в исследовании Н.И. Жукова [21].
Информация обладает некоторыми общими для всех ее видов свойствами [26].Основным свойством информации следует считать ее неразрывную связь с определенной самоорганизующейся системой. Другими важными свойствами являются структурированность и ценность.
Структурированность информации – это свойство, которое позволяет рецептивной системе выделять информацию из физических процессов или объектов, воспринимать некоторые явления внешнего мира как сигналы. В соответствии с этим свойством в любом сигнале выделяются его структурные, идентифицирующие и информативные параметры. Структурирование информации происходит параллельно с формированием модели внешнего мира.
Для самоорганизующейся системы характерно движение – стремление к цели. Все, что обеспечивает это движение, является ценным для системы. Отсюда следует, что ценными являются и вещество, и энергия, и информация. Если изолировать в информационном смысле самоорганизующуюся систему, она прекратит свое целенаправленное движение, а возможно, и существование. Ценность информации выражается в таких понятиях, как содержательность, своевременность, полнота, достоверность, оперативность.
Качественный аспект информации в системах различной природы рассматривался учеными в основном в связи с анализом сложившихся математико-теоретических и отдельных содержательных подходов, средств и методов. Так, Н.М. Амосов объясняет качественные характеристики информации в связи с кодированием и декодированием тех или иных сообщений, данных [5]. А.Д. Урсул связывает качественные проблемы информации в системах управления, прежде всего, с ее количественным определением, которое характеризуется степенью устраняемой, снятой неопределенности и носит по существу теоретико-множественную направленность [39].
Теоретико-множественный подход к информации нередко связывается также с классификацией ее видов. Так, В.Г. Афанасьев делит информацию на плановую и прогностическую (анализ с точки зрения целенаправленности, нормативности, разнообразия, оптимальности и др.), директивно-нормативную и контрольно-учетную, кодовую и естественную и т.д. [6,7]. Решение проблемы классификации информации с точки зрения качественных признаков необходимо в связи с исследованием качественного аспекта информации в правовых системах. Известно, что каждый вид правовой и иной информации, циркулирующей здесь, своеобразен, имеет индивидуальную направленность, характеризуется определенными свойствами и отношениями. Эти содержательные моменты необходимо учитывать в ходе исследования проблемы классификации информации. Наряду с этим, немаловажно иметь в виду то, что в качественном отношении множества различных видов социально-правовой информации в свою очередь требуют иногда разных средств и методов количественного (математического) измерения [31].
Ю.А. Шрейдер анализирует качественные проблемы информации с точки зрения семантического анализа объектов [44]. Используя уже имеющиеся разработки логико-содержательных основ информационного обеспечения, можно охарактеризовать модель семантической информации, смысл которой сводится к тому, что рассматриваются любые значимые сообщения с точки зрения постоянного наличия в них информации. Причем эти сведения изменяют с течением времени запас знаний приемника информации (запас знаний можно трактовать как тезаурус). Сущность модельного подхода в этом случае состоит в том, что семантический аспект информации выражает отношение между сообщениями и их передатчиками; в результате информационные процессы представляются как процессы отражения. Количество семантической информации, которое содержится в определенном сообщении, в известной мере определяется изменением тезауруса.
В количественной теории, выдвинутой в 1960 году А.А. Харкевичем [40], ценность информации определяется как приращение вероятности достижения цели в результате использования данной информации. Для измерения полезности информации может быть применена известная формула А.А. Харкевича:
, где
P1 – вероятность достижения цели после получения некоторой информации I,
P0 – вероятность достижения цели до получения информации I.
Основываясь на теоретических концепциях А.А. Харкевича, Ф.Е. Темников, В.А. Афонин и В.И. Дмитриев связывали качественный анализ информации с прагматическим исследованием информационных явлений и процессов, рассматривая, прежде всего, проблему ценности информации, которую они определяли на основе вероятностных представлений о целесообразности [36]. Ценность сведений представлялась как учетная разность индивидуальных количеств информации. Анализ показывает, что и здесь, несмотря на явно математический подход к ценностной стороне информации, все-таки в определенной мере можно выделить отдельные качественные моменты в информационном обеспечении правовых системных образований. Представляется реальным создание относительно содержательного комплекса отношений между информацией, приемником и целью, которую ставит приемник в процессе своей деятельности [31].
Обобщая имеющиеся разработки по рассмотренной так называемой невероятностной теории информации, необходимо отметить, прежде всего, ее ограниченность в сфере исследования содержательного аспекта информации. Невероятностная теория информации в этом смысле связана в большинстве случаев с характеристикой степени устраняемой, снятой неопределенности сообщений, носит формально-логическую направленность. В то же время невероятностные концепции понятия информации содержат определенные качественные, ценностные и иные характеристики [31].
Подводя итог сказанному, можно отметить, что информация как таковая представляет собой категорию идеального, она неосязаема, непотребляема и не может быть объектом правоотношений безотносительно к ее носителю и содержанию. Информацию можно рассматривать как результат интеллектуального труда или знание научного, технического, технологического, коммерческого и другого характера. Как благо нематериальное информация является особым объектом гражданских прав. Для информации не страшен физический износ, она подвержена лишь моральному старению. Кроме того, ее важной особенностью является возможность неограниченного тиражирования, распространения и преобразования. Т. Стоуньер в 1983 г. отмечал: «Важно понимать, что информация имеет некоторые специфические свойства. Если у меня есть 1000 акров земли и я отдам кому-нибудь 500 акров, у меня останется лишь половина первоначальной площади. Но если у меня есть некоторая сумма информации и ее половину я отдам другому человеку, у меня останется все, что было. Если я разрешу кому-нибудь использовать свою информацию, резонно полагать, что и он поделится со мной чем-нибудь полезным. Так что в то время как сделки по поводу материальных вещей ведут к конкуренции, информационный обмен ведет к сотрудничеству. Информация, таким образом, - это ресурс, которым можно без сожаления делиться» [34]. (Понятно, что речь здесь не идет об информации, представляющей ценность в силу ее эксклюзивности или конфиденциальности). А.Б. Венгеров специально акцентировал внимание на таких свойствах информации, как ее известная самостоятельность по отношению к своему носителю, возможность многократного использования одной и той же информации, ее неисчезаемость при потреблении, сохранение передаваемой информации у передающего субъекта и др. [13]. Эту особенность Г.Т. Артамонов называет законом «неистребимости», согласно которому «информация не исчезает при ее потреблении или использовании в качестве предмета труда и не амортизируется при ее использовании в качестве средства труда» [27]
Важно различать информацию как термин обыденной жизни и как правовую категорию. Так, например, в обыденной жизни информация - это просто сообщение о чем-либо, в научной сфере - это сведения, которые являются объектом изучения, хранения, переработки и передачи. Анализируя же информацию как предмет правоотношений, нельзя говорить о ней вообще, неконкретно. Информация и связанные с ней отношения не могут выступать в качестве объекта правового регулирования, если информация не выражена в любой объективной форме. И только по отношению к определенной форме выражения информации может быть установлен соответствующий правовой режим [20]. Предметом рассмотрения должна быть в первую очередь информация, которая находится в гражданском, административном или ином общественном обороте и по поводу которой или в связи с которой поэтому и возникают общественные отношения, подлежащие регулированию правом [25].
Информация имеет свои свойства, такие, как полезность, полнота, достоверность, новизна, ценность, которые характеризуют ее качественно. Количественно информацию можно оценить при помощи таких понятий, как объем, плотность, емкость, информативность [32].
Информация как благо нематериальное имеет множество разнообразных смысловых оттенков. Так, в зависимости от тех или иных обстоятельств, в повседневной жизни информация может быть актуальной и устаревшей, объективной и субъективной, точной и ложной, основательной и необоснованной, многоплановой и однобокой, обличающей и оправдывающей, укрепляющей и компрометирующей, наконец, просто «хорошей» или «плохой».
Совокупность информации и средств ее обработки, которыми располагают общество и государство, представляет собой информационные ресурсы.
По отношению к информации возможны различные действия: формирование информационных ресурсов (сбор, учет, регистрация, обработка, накопление, хранение, ведение, изучение, обобщение, анализ), обеспечение защиты информации, нетоварный обмен, купля-продажа, сертификация, лицензирование, гостирование, управление.
Информация связана с материальным носителем, а ее передача - с затратами энергии. Однако одну и ту же информацию можно хранить в различном материальном виде (на бумаге, в виде фотонегатива, на машиночитаемом носителе) и передавать с различными энергетическими затратами (по почте, с курьером, по каналам связи), причем последствия, в том числе и материальные, переданной информации совершенно не зависят от физических затрат на ее передачу. Именно поэтому информационные процессы не сводятся только к физическим, и информация наряду с материей и энергией является одной из фундаментальных сущностей окружающего нас мира.
Литература
1. Федеральный закон от 27 июля 2006 г. № 149-ФЗ «Об информации, информационных технологиях и о защите информации» //СЗ РФ, 2006, № 31 (часть I), ст. 3448.
2. Абдеев Р.Ф. Философия информационной цивилизации. - М.: ВЛАДОС, 1994.
3. Автократов В.Н. К проблеме вовлечения информационных категорий в архивоведение /Труды ВНИИДАД, М., 1973, т. 3 - С. 251 263.
4. Автократов В.Н. Некоторые аспекты объекта и предмета архивоведения /Труды ВНИИДАД. - М., 1976. - т. VI, ч. 1.
5. Амосов Н.М. Мышление и информация /Проблемы мышления в современной науке. - М., 1964.
6. Афанасьев В.Г. Научное управление обществом. - М., 1973.
7. Афанасьев В.Г. Системность и общество. - М., 1980.
8. Бирюков Б.В. Кибернетика и методология науки. - М., 1974.
9. Большая советская энциклопедия /Изд. 3-е. - М.: «Советская энциклопедия», 1972. - т. 10.
10. Бочаров М.К. О понятиях «информация» и «знак» //НТИ сер. 2. - 1967. - № 2 – С. 5 8.
11. Бриллюэн Л. Научная неопределенность и информация. - М., 1966.
12. Ващекин Н.П., Абрамов Ю.Ф. Информационная деятельность и мировоззрение /Иркутск: Иркутский университет, 1990.
13. Венгеров А.Б. Право и информация в условиях автоматизации управления. - М., 1978.
14. Винер Н. Кибернетика. -М., «Наука», 1983 - 341 с.
15. Винер Н. Кибернетика или Управление и связь в животном и машине /2-е изд. - М.: Советское радио, 1968 - 201 с.
16. Винер Н. Кибернетика и общество. - М.: «Иностранная литература», 1958 – 200 с.
17. Волченко В.Н. Концепция сложных систем в информационно-энергетическом пространстве //НТИ сер. 2. - 1999 - № 4.
18. Гаврилов О.А. Курс правовой информатики. Учебник для вузов /М.: Издательство НОРМА, 2000 - 432 с.
19. Готт В.С., Семенюк Э.П., Урсул А.Д. Социальная роль информатики. - М.: «Знание», 1987.
20. Дозорцев В.А. Законодательство и научно-технический прогресс. – М.: «Прогресс». - 1978.
21. Жуков Н.И. Философские основы кибернетики. - М., 1976.
22. Кастлер Г. Возникновение биологической информации. - М.: «Мир», 1967.
23. Коган В.З. Человек в потоке информации. - Новосибирск: Наука, 1981.
24. Компьютерные технологии в юридической деятельности. Учебное и практическое пособие /Под ред. проф. Н.С. Полевого, канд. юрид. наук В.В. Крылова. – Москва: Издательство БЕК, 1994.
25. Копылов В.А. Информация как объект правового регулирования //НТИ сер.1. - 1996 - № 8.
26. Куликовский Л.Ф., Мотов В.В. Теоретические основы информационных процессов. - М.: Высш. школа, 1987.
27. Ларин М.В. Управление документацией в организациях. - М.: Научная книга, 2002. - 288 с.
28. Лийв Э.Х. Инфодинамика. Обобщенная энтропия и негэнтропия. - Таллинн, 1998.
29. Моисеев Н.Н. Современный рационализм. - М.: МГВП КОКС, 1995 – 376 с.
30. Ожегов С.И. Словарь русского языка. - М.: «Русский язык», 1989.
31. Рассолов М.М. Проблемы управления и информации в области права. - М., «Юридическая литература», 1991. - 223 с.
32. Снытников А.А., Туманова Л.В. Право граждан на информацию и вопросы защиты информации. - Тверь, 1999. - 192 с.
33. Столяров Ю.Н. Сущность информации. - М.: ГПНТБ, 2000. – 120 с.
34. Стоуньер Т. Информационное богатство: профиль постиндустриальной экономики /В сборнике «Новая технократическая волна на Западе». - М.: «Прогресс», 1986 - С. 392 409.
35. Стрельцов А.А. Содержание понятия «обеспечение информационной безопасности» //«Информационное общество». – 2001. - № 4.- С. 10 16.
36. Темников Ф.Е., Афонин В.А., Дмитриев В.И. Теоретические основы информационной техники. - М., 1971.
37. Урсул А.Д. Информация. - М., 1971.
38. Урсул А.Д. Отражение и информация. - М.: «Мысль», 1973. – 231 с.
39. Урсул А.Д. Природа информации.
40. Харкевич А.А. О ценности информации //Проблемы кибернетики. – 1960. - вып. 4.
41. Чернавский Д.С. Биоинформатика //Вестник РОИВТ. – М.: ВИМИ, 1994. - вып. 1 2. - С. 31 38.
42. Чернавский Д.С. Синергетика и информация. - М.: Издательство Знание, 1990. - № 5.
43. Шеннон К.Э. Работы по теории информации и кибернетике. - М.: «Иностранная литература», 1963 – 106 с.
44. Шрейдер Ю.А. Об одной модели семантической теории информации //Проблемы кибернетики. – 1965. - , вып. 13.
45. Эшби У.Р. Введение в кибернетику. - М., 1959.
46. Яглом А.М., Яглом И.М. Вероятность и информация. - М.: «Наука», 1973.