ИНФОРМАЦИЯ
(от лат. informatio — разъяснение,
изложение),
отражение и передача разнообразия в любых объектах и процессах живой и неживой природы.
Одно из основных понятий кибернетики,
введенное Н. Виннером (1984). По его мнению,
от степени обладания нужной информацией зависит благосостояние любой живой системы.
В экологии И. — показатель видового разнообразия экосистемы. Понятие количества И.
определяется как величина,
обратно пропорциональная степени вероятности того события,
о к-ром идет речь в сообщении. Чем более вероятно событие,
тем меньше И. несет сообщение о его наступлении,
и наоборот. В отличие от энтропии,
понятие Информации отражает степень упорядоченности системы:
где k —
константа,
Рi — вероятность события i,
т. е. участия подмножества i в образовании системы,
п — количество носителей информации,
log2 — логарифм с основанием 2. По этой причине энтропия называется также мерой отсутствия И.
в системе. См. также Уравнение Шеннона
.
|