Информация. Собственность. Интернет. Традиция и новеллы в современном праве - страница 6
Объектом права становится лишь то, что является значимым для общества, а решающим (хотя, впрочем, не единственным) критерием для наделения того или иного явления правовым статусом остается до сих пор его экономическая ценность: только то, что может стать полноправным предметом хозяйственного оборота, входит в "поле зрения" права. В век информационных технологий таким объектом становится информация и все, что с ней связано.
Легальные определения информации в лучшем случае можно рассматривать как "нейтральные", т. е. ничего существенного не проясняющие, но допускающие относительно широкое толкование и позволяющие реформировать законодательство, не затрагивая основоположений. Поэтому прежде чем перейти к анализу таких определений, обратимся вначале к истории понятия. Наверное, не требует дополнительных разъяснений или обоснований тезис о том, что понятие "информации" оказалось в центре внимания главным образом благодаря технологическому всплеску, результатом которого стала "компьютерная революция". Само слово "информация", как известно, происходит от латинского "information", что означает "разъяснение" или "осведомленность". Первые шаги в теории информации были сделаны еще в первой половине XX в.: в 1928 г. Р. Хартли впервые дал количественное определение информации, а в 1948 г. вышла знаменитая книга К. Шеннона "Математическая теория связи", где информации дается уже статистическое определение8. Поскольку кибернетическое понимание информации исходит главным образом из формулы, предложенной Шенноном, мы остановимся вкратце на идеях, лежащих в ее основании. В теории Шеннона понятие "информация" тесно связано с понятиями "энтропия" и "связь". Информацией оказываются только те передаваемые сообщения, которые уменьшают неопределенность у получателя информации. Следовательно, информация измеряется разностью энтропий системы до и после получения информации. Если целевые критерии системы-приемника информации обозначить "В", событие в системе-передатчике обозначить "А", а энтропию — "Н", то энтропией системы будет разность Н(В) — Н(В/А). Получается, что измерение энтропии системы имеет ценность постольку, поскольку позволяет оценить влияние события А на событие В через показатель количества информации. Значит, информация выступает как мера отношения, взаимосвязи между системами, явлениями, процессами, а не как показатель состояния систем9. Важно отметить и еще один момент: если информация предстает в виде отношений между сигналами (зарядами, знаками), которые имеют количественное измерение, то содержание, или семантическая сторона взаимодействия отходит на второй план, так как является, как указывает сам Шеннон во введении к своей книге, "иррелевантной в отношении инженерной проблемы"10.
Информация не только тесно связана с процессом ее передачи (трансмиссии), но в конечном итоге определяется этим процессом. Иными словами, информация представляет собой не столько совокупность сведений, сколько совокупность символов, подлежащих декодированию. Декодирование или распознавание рассматривается при этом как снятие неопределенности (энтропии) посредством выбора, осуществляемого получателем информации. Дальнейшая разработка теории информации велась в направлении расширения понятия "информации", которое включает отныне семантический и прагматический аспекты.