Главная | Обратная связь | Поможем написать вашу работу!
МегаЛекции

Об основных результатах теории информации




Теория информации приводит к ряду новых понятий, описывающих информационные процессы, происходящие в любых системах, к введению новых количественных параметров, позволяющих проводить измерения и расчеты. Часть этих понятий и величин мы рассмотрели в предыдущих параграфах, некоторые другие опишем ниже. Однако главная ценность теории информации заключается в полученных ею новых результатах, в открытии ранее неизвестных свойств систем.

Чтобы познакомиться с основными из этих результатов, введем еще несколько понятий и параметров информационных процессов и систем.

ИЗБЫТОЧНОСТЬ

Одной из важнейших характеристик сигнала является содержащееся в нем количество информации. Однако по ряду причин количество информации, которое несет сигнал, обычно меньше, чем то, которое он мог бы нести по своей физической природе; информационная нагрузка на каждый элемент сигнала меньше той, которую элемент способен нести. Для описания этого свойства сигналов введено понятие избыточности и определена ее количественная мера.

Пусть сигнал длиной в n символов содержит количество информации I. Если это представление информации обладает избыточностью, то такое же количество информации I может быть представлено с помощью меньшего числа символов. Обозначим через n 0 наименьшее число символов, необходимое для представления I без потерь. На каждый символ в первом случае приходится I 1 = I / n бит информации, во втором I 1max = I / n 0 бит. Очевидно, nI 1 = n 0 I 1max = I. В качестве меры избыточности R принимается относительное удлинение сигнала, соответствующее данной избыточности:

. (1)

В дискретном случае имеются две причины избыточности: неравновероятность символов и наличие статистической связи между символами. В непрерывном случае – это неэкстремальность распределений (т.е. отклонение от распределений, обладающих максимальной энтропией), что в широком смысле сводится к отклонениям от экстремальности распределения первого порядка и от минимальности связи во времени (от равномерности спектра при его ограниченности).

Не следует думать, что избыточность – явление всегда отрицательное. При искажениях, выпадениях и вставках символов именно избыточность позволяет обнаружить и исправить ошибки.

СКОРОСТЬ ПЕРЕДАЧИ И ПРОПУСКНАЯ СПОСОБНОСТЬ

Следующим важнейшим понятием является скорость передачи информации. Так называется количество информации, передаваемое в единицу времени. Эта величина определяется по формуле

R = Н (Х) – Н (Х | Y), (2)

где указанные энтропии исчисляются на единицу времени*. В дискретном случае единицей времени удобно считать время передачи одного символа, тогда в формуле (2) фигурируют априорная и апостериорная энтропии на один символ. Для непрерывных каналов единицей времени может служить либо обычная единица (например, секунда), либо интервал между отсчетами (см. § 5.5); тогда в формулу (2) входят соответствующие дифференциальные энтропии. Для более наглядного представления о величине R укажем, что темп обычной речи соответствует скорости порядка 20 бит/с, муравьи обмениваются информацией путем касания усиками со скоростью около 1/10 бит/с.

Скорость передачи информации по каналу связи зависит от многих фак­торов – от энергии сигнала, числа символов в алфавите избыточ­ности, полосы частот, способа кодирования и декодирования. Если име­ется возможность изменять некоторые из них, то, естественно, следует де­лать это так, чтобы максимально увеличить скорость. Оказыва­ется, что обычно существует предел, выше которого увеличение скорости не­возможно. Этот предел называется пропускной способностью канала:

, (3)

где RА – скорость передачи информации при условиях А, { А } – мно­жество вариантов условий, подлежащих перебору. Так как множество { А } можно определить по-разному, то имеет смысл говорить о нескольких типах пропускных способностей. Наиболее важным является случай, когда мощность сигнала (объем алфавита) фиксирована, а варьировать можно только способ кодирования. Именно таким образом пропускную способность определил К.Шэннон [9]. С другой стороны, В.И.Сифоров показал, что целесообразно рассмотреть предел, к которому стремится шэнноновская пропускная способность С при стремлении мощности полезного сигнала к бесконечности. Оказалось, что все каналы связи разбиваются на два класса: каналы первого рода (терминология Сифорова), для которых указанный предел бесконечен, и каналы второго рода, имеющие конечную пропускную способность даже при бесконечной мощности передатчика. Этот предел называют собственной пропускной способностью. При других требованиях, предъявляемых к множеству { А }, мы придем к тем или иным условным пропускным способностям.

Для представления о порядках величин С приведем примеры. Прямыми измерениями установлено, что пропускные способности зрительного, слухового и тактильного каналов связи человека имеют порядок 50 бит/с (вопреки распространенному мнению о сильном отличии зрительного канала). Возможно, ограничивающим фактором являются не сами рецепторы, а нервные волокна, передающие возбуждения. Если включить в канал и “исполнительные” органы человека (например, предложить ему нажимать педаль или кнопку в темпе получения сигналов), то пропускная способность близка к 10 бит/с. Интересно отметить, что многие бытовые технические устройства слабо согласованы с органами чувств человека. Например, канал телевидения имеет пропускную способность в десятки миллионов бит/с.

КОДИРОВАНИЕ В ОТСУТСТВИЕ ШУМОВ

С помощью введенных понятий можно рассмотреть многие информа­ционные процессы. Начнем с дискретных систем без шумов. Здесь главное внимание привлекает проблема эффективности: важно, чтобы дан­ная информация заняла в запоминающем устройстве как можно мень­ше ячеек, при передаче желательно занимать канал связи на максимально короткий срок. В такой постановке задачи легко распознается проблема устранения всякой избыточности. Однако эта проблема не тривиальна.

Пусть алфавит системы состоит из m символов. Средствами этого алфавита требуется представить любой из M возможных сигналов { uk }, , вероятности которых { р (uk)} заданы. Обычно М > m, поэтому каждый из сигналов, подлежащих передаче, невозможно обозначить только одним символом и приходится ставить им в соответствие некоторые последовательности символов; назовем их кодовыми словами. Так как возможна последовательная передача разных кодовых слов, то они не только должны различаться для разных uk, но и не должны быть продолжением других, более коротких. Пусть сигналу uk соответствует кодовое слово длиной lk символов. При стационарной передаче сигналов с вероятностями { р (uk)} средняя длина кодового слова равна .

Возникает вопрос о том, как выбирать L и { lk }. Он не имеет смысла, пока не задан критерий выбора этих величин. Определим этот критерий так: L и { lk } должны быть минимальными величинами, такими, при которых еще не происходит потери информации. Напомним, что в отсутствие шумов среднее количество информации на один элемент uk ансамбля { uk } равно энтропии этого ансамбля, т.е. Н (U) = = , а индивидуальное количество информации в uk есть i (uk) = – log р (uk). С другой стороны, на один символ придется максимальное количество i информации, если символы равновероятны и независимы; при этом i = log m. Поскольку кодирование должно вестись без потерь информации, сразу получаем

, (4)
. (5)

Так из общих соображений находим нижние границы для L и lk. В теории информации доказываются теоремы об условиях достижимости этих границ. Мы не будем приводить эти теоремы; укажем лишь, что речь идет не только о принципиальной возможности: разработаны про­це­дуры построения кодов, обеспечивающих безызбыточное кодирование (либо в случае невозможности этого – сколь угодно близкое к нему).

КОДИРОВАНИЕ ПРИ НАЛИЧИИ ШУМОВ

Наиболее интересные и важные результаты были получены при рассмотрении передачи информации по каналам связи с шумами. В этом случае безызбыточное кодирование приведет к безвозвратным потерям информации: искаженный символ нельзя ни обнаружить, ни исправить. Для борьбы с влиянием помех необходимо ввести избыточность в сигнал. Основываясь на интуитивных соображениях (например, на опыте многократного повторения), легко прийти к выводу, что при неограниченном повышении требований к малости вероятности ошибки избыточность и при любом способе кодирования должна неограниченно возрастать, а скорость передачи – стремиться к нулю. Здесь мы имеем яркий пример того, как сильно интуиция может привести к заблуждению. Шэннон показал, что существуют такие способы введения избыточности, при которых обеспечиваются одновременно и сколь угодно малая вероятность ошибки, и конечная (отличная от нуля) скорость передачи информации, причем эта скорость может быть сколь угодно близкой к пропускной способности канала. Это замечательное открытие и привлекло столь большое внимание к теории информации.

Воспроизведем упрощенное доказательство указанного утверждения. Рассмотрим схему передачи по каналу с шумом (рис. 5.5). Будем считать, что на вход кодера сигналы поступают закодированными безызбыточно. Кодер вносит в сигналы избыточность, увеличивая длительность кодовых слов. Число возможных последовательностей сразу резко увеличивается, но избыточность и состоит в том, что к отправке предназначаются не все из них, а лишь разрешенные (отмеченные на рис. 5.5 черными кружками). Согласно фундаментальному свойству энтропии (см. формулу (8) § 5.6), число всевозможных последовательнос­тей* длины n равно 2 nH(X), а число разрешенных* к отправке равно 2 nH < 2 nH(X) (считаем, что энтропия исчисляется в битах); Н – энтропия на символ во множестве разрешенных к отправке последовательностей (“энтропия источника”, или “скорость создания информации”), Н (Х) – энтропия на символ во множестве всевозможных последовательностей. В результате воздействия шумов какие-то из символов отправленной последовательности подменяются другими и на приемный конец поступает другая, отличная от отправленной, последовательность. Поскольку р (х | у) считается известным, каждой принятой последовательности соответствует 2 nH(Х | Y) возможно отправленных*. Декодирование (т.е. принятие решения о том, какая последовательность была отправлена) можно выразить как разбиение всего множества Y принимаемых последовательностей на 2 nH подмножеств, сопоставляемых с разрешенными к отправке: если, например, принят сигнал i -й группы, то считается, что был послан i -й разрешенный сигнал, который тут же выдается в “чистом” виде получателю.

  5.5 ————— Схема передачи информации по каналу с шумами

Итак, в построенной модели проблема выбора кода (способа передачи) состоит в размещении разрешенных последовательностей среди множества всевозможных на передающем конце и в разбиении этого множества из 2 nH(Х) пос­ле­довательностей на 2 nH подмножеств на прием­ном конце. Идея Шэннона состоит не в том, что­бы указать некоторый регулярный способ ко­ди­рования со сколь угодно малой вероят­ностью ошибки, а в том, чтобы показать, что та­кой код вообще существует. Рассмотрим класс всевоз­можных кодов, которые получаются, если раз­ре­шенные последовательности размещать сре­ди всевозможных случайным образом, а в качестве декодирующего подмножества брать 2 nH(Х | Y) последовательностей высоковероятностной группы, соответствующей принятому сигналу.

GAUSSIAN гауссов (канал) REDUNDANCY избыточность CODING кодирование CAPACITY пропускная способность (канала) RATE скорость (передачи)   Для информационных процессов в отсутствие шумов главной проблемой является наиболее эффективное (безызбыточное) представление информации. Свойства таких оптимальных кодов легко определяются из эвристических соображений (хотя могут быть доказаны и строго), что иллюстрирует полезность введенных понятий (см. (5) и (6)). Пожалуй, самым важным открытием в теории информации является установленная К. Шэнноном возможность практически безошибочной передачи информации по каналу с шумом со скоростью, близкой к пропускной способности.

Вероятность ошибки при этом равна вероятности того, что среди 2 nH(Х | Y) последовательностей окажется более одной разрешенной. Так как код получается в результате случайного (равновероятностного) выбора 2 nH последовательностей среди 2 nH(Х), то вероятность того, что данная последовательность окажется разрешенной, равна 2 nH /2 nH(Х) = 2 n(H – H(Х)). Средняя вероятность того, что в декодирующем подмножестве из 2 nH(Х | Y) последовательностей имеется только одна разрешенная, выразится соотношением

; (6)

это и есть вероятность безошибочного приема. Поскольку Н < С = Н (Х) – Н (Х | Y), имеем
НН (Х) = – Н (Х | Y) – h, где h > 0. Отсюда (пренебрегая единицей по сравнению с 2 nH(Х | Y) находим

. (7)

Логарифмируя и применяя правило Лопиталя, легко показать, что , т.е. что при кодировании достаточно длинными блоками средняя вероятность ошибки может быть сделана сколь угодно малой. Доказательство завершается утверждением, что существуют коды с вероятностями ошибок меньше средней.

ПРОПУСКНАЯ СПОСОБНОСТЬ ГАУССОВА КАНАЛА СВЯЗИ

Перейдем теперь к знакомству с основными результатами для систем с непрерывными сигналами. Наиболее известным выводом теории является формула для пропускной способности гауссова канала связи, которую мы сейчас получим.

Гауссовым каналом называется канал связи, для которого выполняются следующие условия:

10) сигналы и шумы в нем непрерывны;

20) канал занимает ограниченную полосу частот шириной F;

30) шум n (t) в канале распределен нормально (“гауссов шум”);

40) спектр мощности шума равномерен в полосе частот канала и равен N единиц мощности на единицу полосы частот;

50) средняя мощность полезного сигнала х (t) фиксирована и равна Р 0;

60) сигнал и шум статистически независимы;

70) принимаемый сигнал y (t) есть сумма полезного сигнала и шума: y (t) = х (t) + n (t)(“шум аддитивен”).

Эти предположения позволяют вычислить пропускную способность гауссова канала. Во-первых, ограниченность полосы частот позволяет применить теорему отсчетов (см. § 5.5) и вести рассуждения для каждого отсчета в отдельности. Далее, аддитивность шума и его независимость от Х позволяют представить количество информации в Y об Х в виде

, (8)

где h (N) – дифференциальная энтропия шума. Следовательно, пропускная способность такова:

Согласно условиям 30 и 40, имеем

. (9)

В силу условий 40 – 70 мощность принимаемого сигнала есть

. (10)

Максимум h (Y) при условии (10) достигается в случае нормального распределения (см. упражнение 2б) к § 5.6), т.е.

(11)

Так как шум имеет равномерный спектр (см. условие 40) и спектр смеси y (t) также равномерен (вследствие независимости отсчетов), то и полезный сигнал должен иметь равномерный спектр. Вводя спектральную плотность Р = Р 0/ F и вычитая равенство (9) из (11), получаем известную формулу Шэннона – Таллера

(12)

Таким образом, мы не только определили пропускную способность, но и заодно показали, что она реализуется, если полезный сигнал закодировать так, чтобы его спектр был равномерным в представленной полосе частот, а распределение мгновенных значений – нормальным.

Дальнейшие обобщения связаны с рассмотрением “небелых” сигналов и шумов (предполагается зависимость от частоты их спектральных мощностей Р (f) и N (f)), а также с допущением случайности величины Р (например, в случае замираний радиосигналов). Решения возникающих при этом задач имеются в литературе по теории информации.

 

Подведем итог Теоремы Шзннона о кодировании в каналах без шумов и при наличии шумов, приведенные в данном параграфе, относятся к числу основных результатов теории информации. Эти теоремы сильно расширили понимание природы информационных процессов, происходящих во всех системах. Summary Shannon's theorems of coding in noiseless and in noisy channels, given in this section, are among the main findings of information theory. These theorems have greatly broadened our understanding of the nature of information processes in various systems.

 

ЗАКЛЮЧЕНИЕ

Отметим, что наиболее важные результаты теории информации – теоремы о кодировании – являются теоремами о существовании и носят асимптотический характер, т.е. не являются конструктивными. Однако уже само знание потенциальных возможностей имеет огромное значение: сравнение характеристик реальных систем с теоретическими пределами позволяет судить о достигнутом уровне и о целесообразности дальнейших затрат на его повышение. Прикладные же вопросы рассматриваются в специальном разделе теории информации – теории кодирования, которая изучает способы построения конкретных кодов и их свойства, в частности точные или граничные зависимости вероятностей ошибок от параметров кода.

  5.6 ————— Блок-схема системы передачи информации

Для напоминания об основных понятиях теории информации приведем вариант блок-схемы системы передачи информации (рис. 5.6). На этом рисунке приведено большинство введенных в данной главе понятий и обозначений.

Значение теории информации выходит далеко за рамки теории связи, так как именно ее появление привело к широкому обсуждению новых понятий, к более глубокому пониманию открытых ранее закономерностей природы (например, второго закона термодинамики) и в конечном счете к тому, что понятие информации вошло теперь в число философских категорий, расширив и углубив тем самым наше видение и понимание мира.

Вместе с тем некоторые специалисты различных отраслей науки некритически распространяли методы и конкретные результаты теории информации на любые информационные процессы в реальном мире. Уже сам Шэннон заметил эту тенденцию и настоятельно предостерегал от того, чтобы ей безоглядно следовать [8]. Дело в том, что шэнноновское количество информации является характеристикой, лишь с одной стороны описывающей информационные отношения. Именно эта сторона – соответствие состояний – играет главную роль в технических устройствах. Однако в этом соответствии не проявляют себя (и, следовательно, могут не учитываться) такие свойства информации, как смысл, доброкачественность (степень истинности), ценность, полезность, временное старение, причинно-следственная направленность и т.д. – свойства, весьма существенные для информационных отношений с участием живых организмов, людей, коллективов.

Исследование проблем использования информации ведется в различных направлениях, достигнуты и успехи (семиотика, теория полезности, теория решений и выбора и т.д.). С некоторыми из них мы познакомимся в других разделах книги.

Необходимость расширения принципов и методов исследования информационных процессов вытекает не только из внутренней логики развития науки, стремящейся ко все большим обобщениям, снятию или ослаблению ограничений, предположений и т.п. К развитию новых подходов толкает сильное “внешнее” давление общественной практики: масштабы и значение информационных потоков в современном обществе так резко возросли в последние годы, что даже возникло образное выражение “информационный взрыв” [3]. Появилась новая отрасль – “индустрия обработки данных”, затраты на которую в промышленно развитых странах превосходят затраты на энергетику. Этой общественной потребности отвечает возникновение новой отрасли науки – информатики.

Для системного анализа теория информации имеет двоякое значение. Во-первых, ее конкретные методы и результаты позволяют провести ряд количественных исследований информационных потоков в изучаемой или проектируемой системе (если в этом возникнет необходимость). Однако более важным является эвристическое значение основных понятий теории информации – неопределенности, энтропии, количества информации, избыточности, пропускной способности и пр. Их использование столь же важно для понимания системных процессов, как и использование понятий, связанных с временными, энергетическими процессами. Системный анализ неизбежно выходит на исследование ресурсов (наличных и необходимых), которые потребуются для решения анализируемой проблемы. Информационные ресурсы играют далеко не последнюю роль наряду с остальными ресурсами – материальными, энергетическими, временными, кадровыми.

ЛИТЕРАТУРА

1. Бриллюэн Л. Наука и теория информации. – М.: Физматгиз, 1960.

2. Бриллюэн Л. Научная неопределенность и информация. – М.: Сов. радио, 1970.

3. Ефимов А.Н. Информационный взрыв: проблемы реальные и мнимые. – М.: На-
ука, 1985.

4. Майер А.Г, Леонтович Е.А. Об одном неравенстве, связанном с интегралом
Фурье / ДАН СССР, 1934. Т. IV. № 7. С. 353 – 360.

5. Тарасенко Ф.П. Введение в курс теории информации. – Томск: ТГУ, 1963.

6. Финк Л.М. Сигналы. Помехи. Ошибки... – М.: Радио и связь, 1984.

7. Френкс Л. Теория сигналов. – М.: Сов. радио, 1974.

8. Шэннон К. Бандвагон. – В сб.: Работы по теории информации и кибернетике.
– М.: ИЛ, 1963.

9. Шэннон К., Уивер В. Математическая теория связи. – В сб.: Работы по теории
информации и кибернетике. – М.: ИЛ, 1963.

УПРАЖНЕНИЯ

§ 5.1

· Обсудите роль информации в парадоксе “демона Максвелла” [1, гл. 13].

· Некоторые философы считают, что информация в мозгу человека настолько сильно качественно отличается от процессов в остальной природе, что их нельзя даже ставить в один ряд с процессами мышления. Обсудите аргументы за и против такого мнения. Обсудите истоки антропоцентризма.

§ 5.2

· При каких условиях можно отнести либо к статическим, либо к динамическим дымовые сигналы, запах, голографическое изображение? Придумайте еще примеры трудно классифицируемых сигналов.

§ 5.3

· Обсудите подробнее сходство и различия между случайным процессом как моделью сигналов и реальными сигналами, приведите примеры.

§ 5.4

· Если вам интересно, попробуйте сами получить формулу для плотности распределения фазы смеси сигнала к шуму, вычислив интеграл (21).


§ 5.5

· Вычислите спектр прямоугольного импульса и убедитесь в его неограниченности по полосе частот.

· Проделайте подробно все выкладки, приводящие к ряду Котельникова (12).

§ 5.6

· Воспроизведите доказательства свойств 10 – 80 энтропии, следуя указаниям, данным в конце описания каждого свойства.

· Задача нахождения функции р (х), реализующей максимум функционала Ф0[ р (х)] при условии постоянства функционалов Ф i [ р (х)], , называется изопериметрической задачей вариационного исчисления и сводится к решению уравнения Эйлера

С помощью этого метода найдите распределения, обладающие максимальной дифференциальной энтропией при заданных условиях:

а)

Ответ: равномерное распределение, р (х) =1/(b – a).

б)



Ответ: нормальное распределение,

в)


Ответ: экспоненциальное распределение,

Вычислите дифференциальные энтропии экстремальных распределений, полученных в предыдущем упражнении.

 

§ 5.7

· Докажите справедливость свойств 10 – 50 количества информации.

· Используя формулу (15), определите оптимальный алгоритм обработки выборки наблюдений х 1,..., хN для проверки гипотезы Н 0: против альтернативы Н 1:

Ответ:

 

§ 5.8

· Пропускная способность человеческого зрения – около 50 бит/c, а пропускная способность телевизионного канала – около 50 млн. бит/с. Обсудите этот факт.

· Докажите, что предел вероятности, определенной формулой (7), равен 1 в соответствии с указанием в тексте.

 

Вопросы
для самопроверки

1.
Каково обязательное условие того, чтобы один объект содержал информацию о другом объекте?

2.
Может ли информация не иметь материального носителя?

3.
Почему заданная функция времени не может быть адекватной моделью сигнала?

4.
Какое главное свойство сигнала отображается математической моделью случайного процесса?

5.
Какие расхождения между реальным сигналом и математической моделью случайного процесса вы можете назвать?

6.
Какой смысл вы видите в дискретном представлении непрерывных сигналов?

7.
Каковы различия в свойствах энтропии дискретных случайных объектов и дифференциальной энтропии и чем объясняются эти различия?

8.
Не кажется ли вам удивительным, что доля реализаций высоковероятной группы неограниченно убывает с ростом длины реализации и в то же время именно эта группа определяет свойства случайного процесса в целом?

9.
Почему энтропию и количество информации можно измерять в одинаковых единицах?

10.
При каких условиях избыточность вредна и при каких полезна?

11.
Что такое пропускная способность канала связи?

12.
В чем вам видится ограниченность теории информации при описании реальных информационных процессов?

 

РОЛЬ ИЗМЕРЕНИЙ В СОЗдАНИИ МОДЕЛЕй СИСТЕМ Глава шестаЯ

ЭКСПЕРИМЕНТ И МОДЕЛЬ

В изначальном смысле отношение между экспериментом и моделью такое же, как и между курицей и яйцом: они находятся в одном цикле, и нельзя определить, что было “в самом начале”. Эксперимент с некоторым объектом проводится, чтобы уточнить модель этого объекта, поэтому постановка эксперимента определяется имеющейся до опыта моделью. Это полностью относится и к экспериментальному исследованию систем.

КЛАССИЧЕСКОЕ ПРЕДСТАВЛЕНИЕ ОБ ЭКСПЕРИМЕНТЕ

Природу эксперимента хорошо понимали и понимают выдающиеся естествоиспытатели древности и современности. Приведем некоторые высказывания крупных ученых по этому поводу.

Леонардо да Винчи: “...мне кажется, что пусты и полны заблуждений те науки, которые не порождены опытом, отцом всякой достоверности, и не завершаются в наглядном опыте (...). Опыт никогда не ошибается, ошибаются ваши суждения, ожидая от него такого действия, которое не является следствием ваших экспериментов (...). Мудрость есть дочь опыта” [4].

А. Розенблют и Н. Винер: “Любой эксперимент – всегда некий вопрос. Если вопрос неточен, получить точный ответ на него трудно. Глупые ответы, т.е. противоречивые, расходящиеся друг с другом или не относящиеся к делу иррелевантные результаты экспериментов, обычно указывают на то, что сам вопрос был поставлен глупо” [8].

И. Пригожин и И. Стенгерс [15]: “Природа, как на судебном заседании, подвергается с помощью экспериментирования перекрестному допросу именем априорных принципов. Ответы природы записываются с величайшей точностью, но их правильность оценивается в терминах той самой идеализации, которой физик руководствуется при постановке эксперимента (...). Экспериментальный метод есть искусство постановки интересного вопроса и перебора всех следствий, вытекающих из лежащей в основе его теоретической схемы, всех ответов, которые могла бы дать природа на выбранном экспериментатором теоретическом языке (...). Каков бы ни был ответ природы – ”да” или “нет”, – он будет выражен на том же теоретическом языке, на котором был задан вопрос. Однако язык этот не остается неизменным, он претерпевает сложный процесс исторического развития, учитывающий прошлые ответы природы и отношения с другими теоретическими языками (...). Все это приводит к сложной взаимосвязи между (...) экспериментальным методом ведения диалога с природой (...) и культурной сетью, к которой, иногда неосознанно, принадлежит ученый (...). Сколь бы отрывочно ни говорила природа в отведенных ей экспериментом рамках, высказавшись однажды, она не берет своих слов назад: природа никогда не лжет” [5].

Д.С. Котари: “Простая истина состоит в том, что ни измерение, ни эксперимент, ни наблюдение невозможны без соответствующей теоретической схемы” [5, с. 364].

QUALITATIVE качественный QUANTITATIVE количественный OBSERVATION наблюдение   Отношение между экспериментом и теоретической моделью двоякое. С одной стороны, эксперимент позволяет проверить и при необходимости уточнить модель, т.е. эксперимент является источником информации для моделирования. С другой стороны, модель диктует, какой именно эксперимент следует проводить, т.е. модель является источником информации для организации эксперимента.   Современное понимание измерений стало шире классического, предусматривающего лишь количественные и однозначные измерения: 1) измерения могут носить и качественный (а не только количественный) характер; 2) измерение может не снимать неопределенность, если она имеет расплывчатую природу; 3) измерение обычно со­провождается неизбежными погрешностями; 4) интересующая нас величина часто ненаблюдаема и поддается лишь косвенным измерениям.

Общая мысль этих высказываний ясна. Мы вернулись (правда, уже с другой стороны) к проблеме соотношения реальности и созданных нами ее моделей. Отличие от сказанного по этому поводу в § 2.6 состоит в том, что не только опыт является критерием истинности модели, но и сама постановка эксперимента диктуется моделью, так как вытекает из необходимости ее проверки или уточнения.

Рассмотрим теперь возможности опытов (т.е. практического взаимодействия) с системами. Начнем обсуждение с модели “черного ящика” (см. § 3.3), т.е. с информации о входах и выходах системы. Выбор именно этих входов и выходов и есть построение модели, которая и будет определять организацию опыта. Если мы только регистрируем события на выбранных входах и выходах, то опыт называется пассивным экспериментом (или наблюдением). Если же мы не только созерцаем (и фиксируем) происходящее на входах и выходах, но и воздействуем на некоторые из них (одни намеренно поддерживая неизменными, другие изменяя нужным образом), то опыт называется активным (или управляемым) экспериментом.

Результаты опыта регистрируются, фиксируются с помощью измерений, т.е. изображения результатов опыта в виде символов, номеров или чисел. Способы осуществления такого отображения будут рассмотрены в § 6.2. Важно, что современное понимание измерения существенно шире только количественного измерения. Не так уж давно Гейзенберг настаивал на идее, согласно которой не нужно говорить о том, что все равно нельзя измерить. Точку зрения физиков на эту идею поясняет Р. Фейнман:

“Дело в том, что об этом толкуют многие, по-настоящему не понимая смысла этого утверждения. Его можно интерпретировать следующим образом: ваши теоретические построения или открытия должны быть такими, чтобы выводы из них можно было сравнивать с результатами эксперимента, т.е. чтобы из них не получалось, что “один тук равняется трем нукам”, причем никто не знает, что такое эти самые тук и нук. Ясно, что так дело не пойдет. Но если теоретические результаты можно сравнить с экспериментом, то это все, что нам и требовалось. Это вовсе не значит, что ваши туки и нуки не могут появляться в первоначальной гипотезе. Вы можете впихнуть в вашу гипотезу сколько угодно хлама при условии, что ее следствия можно будет сравнить с результатами эксперимента. А это не всем до конца понятно” [10, с. 180, 181].

То, что Фейнман имел в виду именно количественное сравнение, видно из приводимого им примера:

“(...) Если ваша догадка сформулирована плохо или достаточно неопределенно и если метод, которым вы пользуетесь для оценки последствий, достаточно расплывчат (...), то ваша теория всем хороша – ведь ее нельзя опровергнуть. Кроме того, если ваш метод расчетов последствий достаточно нечеток, при некоторой ловкости всегда можно сделать так, чтобы результаты экспериментов были похожи на предполагаемые последствия. Возможно, вы знаете об этом по своему опыту в других областях. Некто ненавидит свою мать. Причина, конечно, в том, что она не заботилась о нем и не любила его достаточно, когда он был маленьким. Но если вы начнете раскапывать прошлое, то окажется, что на самом деле мать его очень любила и все у них было хорошо. Ну, тогда, ясно, она его слишком баловала! Как видите, расплывчатая теория позволяет получать любой результат. Поправить ее можно было бы следующим образом. Если бы вы смогли в точности и заранее определить, сколько любви недостаточно, а сколько чересчур много, то мы могли бы построить совершенно законную теорию, пригодную для экспериментальной проверки. Но стоит об этом заикнуться, как вам скажут: “Такие точные определения невозможны, когда речь идет о психологии”. Но раз так, то нельзя утверждать, что вы что-нибудь знаете” [10, с. 174].

Эти довольно пространные выдержки приведены не только как пример живого рассказа о непростых вещах, мастером которого является Фейнман, но и как иллюстрация того, насколько развилось понимание измерений за двадцать с лишним лет (книга [10] вышла в США в 1965 г.) Оставив незыблемым принцип проверки адекватности модели на опыте, современный подход позволил расширить понятие измерений по крайней мере в четырех отношениях.

СОВРЕМЕННОЕ ПОНЯТИЕ ЭКСПЕРИМЕНТА

1. Стало ясно, что есть наблюдаемые явления, в принципе не допускающие числовой меры (например, “количество материнской любви”), но которые можно фиксировать в “слабых”, “качественных” шкалах и эти результаты учитывать в моделях, получая качественные, но вполне научные выводы (см. § 6.2).

2. Расплывчатость некоторых наблюдений также признана их неотъемлемым природным свойством, которому придана строгая математическая форма, и разработан формальный аппарат “работы” с такими наблюдениями (см. § 6.3).

3. Хотя по-прежнему считается, что чем точнее измерения, тем луч­ше, теперь осознано, что погрешности измерений являются не только чем-то побочным, чуждым для измерений (сторонние помехи, результат небрежности или ошибок оператора и т.п.), но и неотъемлемым, естес­твенным и неи

Поделиться:





Воспользуйтесь поиском по сайту:



©2015 - 2024 megalektsii.ru Все авторские права принадлежат авторам лекционных материалов. Обратная связь с нами...