ИНФОРМАЦИЯ

ИНФОРМАЦИЯ (от
лат. informatio - разъяснение, изложение), первоначально - сведения, передаваемые
одними людьми другим людям устным, письменным или к.-л. другим способом
(напр., с помощью условных сигналов, с использованием технич. средств и
т. д.), а также сам процесс передачи или получения этих сведений. И. всегда
играла в жизни человечества очень важную роль. Однако в сер. 20 в. в результате
социального прогресса и бурного развития науки и техники роль И. неизмеримо
возросла. Кроме того, происходит лавинообразное нарастание массы разнообразной
И., получившее название "информационного взрыва". В связи с этим возникла
потребность в научном подходе к И., выявлении её наиболее характерных свойств,
что привело к двум принципиальным изменениям в трактовке понятия И. Во-первых,
оно было расширено и включило обмен сведениями не только между человеком
и человеком, но также между человеком и автоматом, автоматом и автоматом;
обмен сигналами в животном и растит, мире. Передачу признаков от клетки
к клетке и от организма к организму также стали рассматривать как передачу
И. (см. Генетическая информация, Кибернетика биологическая). Во-вторых,
была предложена количеств, мера И. (работы К. Шеннона, A. H. Колмогорова
и др.), что привело к созданию информации теории.


Более общий,
чем прежде, подход к понятию И., а также появление точной количеств, меры
И. пробудили огромный интерес к изучению И. С нач. 1950-х гг. предпринимаются
попытки использовать понятие И. (не имеющее пока единого определения) для
объяснения и описания самых разнообразных явлений и процессов.


Исследование
проблем, связанных с научным понятием И., идёт в трёх осн. направлениях.
Первое из них состоит в разработке матем. аппарата, отражающего осн. свойства
И. (см. Информация в кибернетике).


Второе направление
заключается в тео-ретич. разработке различных аспектов И. на базе уже имеющихся
матем. средств, в исследовании различных свойств И. Напр., уже с момента
создания теории И. возникла сложная проблема измерения ценности, полезности
И. с точки зрения её использования. В большинстве работ по теории И. это
свойство не учитывается. Однако важность его несомненна. В количеств, теории,
выдвинутой в 1960 А. А. Харке-вичем, ценность И. определяется как приращение
вероятности достижения данной цели в результате использования данной И.
Близкие по смыслу работы связаны с попытками дать строгое математич. определение
количества се-мантич. (т. е. смысловой) И. (P. Карнап и др.).


Третье направление
связано с использованием информационных методов в лингвистике, биологии,
психологии, социологии, педагогике и др. В лингвистике, напр., проводилось
измерение информативной ёмкости языков. После ста-тистич. обработки большого
числа текстов, выполненной с помощью ЭВМ, а также сопоставления длин переводов
одного и того же текста на разные языки и многочисл. экспериментов по угадыванию
букв текста выяснилось, что при равномерной нагрузке речевых единиц информацией
тексты могли бы укоротиться в 4-5 раз. Так был с этой точки зрения установлен
факт избыточности естеств. языков и довольно точно измерена её величина,
находящаяся в этих языках примерно на одном уровне. В нейрофизиологии информационные
методы помогли лучше попять механизм действия осн. закона психофизики -
закона Be-бера - Фехнера, к-рый утверждает, что ощущение пропорционально
логарифму возбуждения. Именно такая зависимость должна иметь место в случае,
если нервные волокна, передающие сигналы от акцепторов к мозгу, обладают
свойствами, присущими идеализированному каналу связи, фигурирующему в теории
И. Значит, роль информационный подход сыграл в генетике и молекулярной
биологии, позволив, в частности, глубже осознать роль молекул РНК как переносчиков
И. Ведутся также исследования по применению информационных методов в искусствоведении.


Такое разнообразное
использование понятия И. побудило нек-рых учёных придать ему общенаучное
значение. Основоположниками такого общего подхода к понятию И. были англ,
нейрофизиолог У. P. Эшби и франц. физик Л, Брил-люэн. Они исследовали вопросы
общности понятия энтропии в теории И. и термодинамике, трактуя И. как отрицательную
энтропию (негэнтропию). Бриллюэн и его последователи стали изучать информационные
процессы под углом зрения второго начала термодинамики, рассматривая передачу
И. нек-рой системе как усовершенствование этой системы, ведущее к уменьшению
её энтропии. В нек-рых филос. работах был выдвинут тезис о том, что И.
является одним из основных универсальных свойств материи. Положительная
сторона этого подхода состоит в том, что он связывает понятие И. с понятием
отражения. См. также ст. Информатика, Информация общественно-политическая,
Массовая коммуникация.


Лит.: Эшби
У. P., Введение в кибернетику, пер. с англ., JM., 1959; Xаркевич А. А.,
О ценности информации, в сб.: Проблемы кибернетики, в. 4, M., 1960; Шеннон
К. Э., Работы по теории информации и кибернетике, пер. с англ., M., 1963;
Колмогоров A. H., Три подхода к определению понятия "количество информации",
"Проблемы передачи информации", 1965, т. 1, в. 1; Бриллюэн JIНаучная неопределённость и информащгя, пер. с англ., M., 1966; Урсул А.
Д., Информация, M., 1971. В. H. Тростников.

А Б В Г Д Е Ё Ж З И Й К Л М Н О П Р С Т У Ф Х Ц Ч Ш Щ Ъ Ы Ь Э Ю Я