Биологический каталог




Игра жизни

Автор М.Эйген, Р.Винклер

альными — не столько в смысле неповторимости выбора из необозримого множества возможных5

альтернатив, сколько в смысле их оптимальной при-,

годности для выполнения соответствующей функции —

«цели». Возникновение жизни, возникновение биологической информации — это проблема макромолекуляр-ной самоорганизации. \\

Глава 2

КАК ВОЗНИКАЕТ ИНФОРМАЦИЯ?

Понятие информации имеет два аспекта, которые объединяются друг с другом только вопросом, помещенным в заглавии. Во-первых, это количественный аспект абсолютной информации, игнорирующий смысл п значение сообщения. Предполагается только, что сообщение отличается от других содержащимся в нем смыслом и что расположение символов в сообщении характерно для него. При передаче сообщения должно обеспечиваться сохранение расположения символов —? в рамках допустимых отклонений. Этим аспектом занимается теория информации, или теория связи, развитая Шенноном [7], Винером [8] и Колмогоровым [9]. Она представляет собой математическую дисциплину— это прикладная теория вероятностей.

Второй аспект связан с оценкой сообщения, т. е. с его смыслом. Его называют также семантическим аспектом. Любая семантика зависит от известных соглашений, пли, в более широком смысле, предполагает существование дополнительной информации (например, наличие определенной окружающей среды), которая локализуется вне сообщения и селективно взаимодействует4 с информацией, содержащейся в сообщении. Карл Фридрих фон Вайцзекер [10] выразил эту ситуацию посредством двух взаимно дополнительных тезисов:

1. Информацией является лишь то, что понимается.

2. Информацией является лишь то, что производит

информацию.

Обратные утверждения неверны. Например, из второго тезиса нельзя сделать вывод, что информацию можно. производить только из -информации. Сохранение

количества или непрерывность информации исключали бы любую форму эволюции.

Если мы хотим понять, как возникает информация— и особенно биологическая информация,— то нам придется более подробно рассмотреть оба аспекта понятия информации. Ибо мы должны, собственно говоря, формулировать свой вопрос следующим образом: как возникает семантика? Нас интересует не столько расположение символов само по себе (ограниченное определенным распределением вероятностей), сколько функциональное значение, инструктированное этим расположением символов.

Пра-семаптипа биологической информации основана на функциональной упорядоченности, которая обеспечивает сохранение и дальнейшее развитие состояния жизни.

Абсолютная информация характеризуется множеством символов и их распределением. Символы должны быть представляемы сигналами, которые могут передаваться физическими способами. Для этого нужен однозначный код, т. е. однозначное соответствие между множеством символов и множеством элементарных знаков, или сигналов. На рис. 8 и 9 даны два примера: генетический код и телеграфный код. Они имеют совершенно различное происхождение. Первый (рис. 8) возник на раннем этапе существования Земли в результате самоорганизации вещества, второй (рис. 9) придуман только в нашем веке. Оба они, однако, построены по очень сходным логическим принципам. Они равномерны, т. е. все комбинации символов имеют одну и ту же длину: триплеты в генетическом коде и квинтеты в телеграфном коде. Код Морзе, наоборот, неравномерен. Добиться воспроизводимого функционирования такой схемы на молекулярном уровне было бы очень трудно из-за необходимости постоянно изменять «длину кадра».

В телеграфном коде все возможности используются взаимно однозначным образом. При двоичной системе квинтетный код дает 25 = 32 комбинации. В немецком алфавите имеется 26 букв. Остаются шесть комбинаций, которые можно использовать для сигналов переключения. Генетический код состоит из 43 = 64 три-плетных комбинаций. Эта концепция была более подробно рассмотрена в первой главе. Использование в

2. Позиция

т о

У Ц А Г

У Сер Тир Цис У

ц

А . Г Сер Тир Цис

Сер ^Терм^ JTepM^

?'.'.ii.'.'.-.i...1^'-';1 Сер Три

Ц ,? У

ц

А

Г

«Гт"','и: —j.i - -а ширит

Гл н «??п«аЯа1шн>

:/;Про"^:;.: Гл н

А Тре Асн Сер У

ц

А

Тре Асы

_ Сер

Тре |:uJ!!?J!1!!:::::

Тре №?3! Г

Г ?;/Жла>'.::';" Гли У

Гли ц

А

Гли

Гли Г

Рнс. 8. Генетический код (значение штриховки см. на иис. 5). Терм—-сигнал терминации, индекс «а» — сигнал инициации, если этот символ

стоит в начале цистрона.

качестве элементарных знаков кода не двух, а четырех нуклеотидов дает богатую палитру феиотипических возможностей выражения уже на уровне генных структур. Это проявляется прежде всего в высокой динамической гибкости двухцепочечных структур во время копирования. Использование только двух элементарных знаков в генетическом алфавите сделало бы необходимым — как и в случае телеграфного кода — введение квинтетов или даже секстетов. Передача информации, зависящая от взаимодействий между отдельными нук-леотидами, происходила бы слишком медленно в случае пяти или шести центров взаимодействия (комплементарных пар нуклеотидов на один кодон). Из кинетических исследований различных комбинаций нуклеотидов с определенным составом мы знаем [11], что триплет-иый код представляет собой оптимальное решение, найденное природой, не только с точки зрения его рациональности, но и с точки зрения динамической стабильности и гибкости.

Количество абстрактной информации в данном мно-Ялвстве символов можно выразить через распределение вероятностей всех возможных расположений. Обозначим через v число элементарных знаков в данном множестве, а через X — число различных классов знаков. Тогда число всех возможных расположений (последовательностей) будет Xv. Для белковой молекулы типа дитохрома (см. пример из первой главы) это число получилось порядка 10t3°. Если бы все последовательности были равноценны, т. е. априорно равновероятны, то это число уже можно было бы использовать для задания количества информации. Действительно, в случае равномерного распределения вероятностей, чтобы встретить заданную последовательность, потребовалось бы перебрать и испытать все Ю130 возможных последовательностей. При таком просмотре мы не располагаем, конечно, никакой информацией, которая могла бы вести нас к цели. «Красный свет» вспыхивает только тогда, когда появляется совершенно правильная последовательность. Таким «красным светом» может быть, например, тест на ферментативную активность, которая оказывается положительной только в том случае, когда реализована правильная последовательность.

Вероятности имеют свойство мультипликативности. Это значит, что" вероятность одновременной реализациинескольких не зависимых друг от друга событий, ха^ рактеризующихся вероятностями р\, р2, . -pk, равна произведению р\-Р2 • ? Рь- С другой стороны, количество информации как мера множества должно иметь аддитивные свойства. Простейшая математическая функция, удовлетворяющая этим условиям,— это логарифм:

log (а • == log # -f- log Ъ.

Целесообразно — особенно при кодировании двоичными элементарными знаками — пользоваться логарифмами при основании 2. В дальнейшем мы будем обозначать их символом Id. Для простого случая, когда все расположения имеют равные априорные вероятности, получим

Н = Id (Xv) = v Id к.

Мера информации Н, согласно Шеннону, называется энтропией ). В ней выражается эквивалентность реальной и потенциальной информации (т. е. информации, которая необходима для принятия правильного решения). Она является мерой неопределенности, или мерой множества возможных альтернативных решений. Для двоичных элементарных знаков в случае, когда различные расположения равновероятны, Н просто равняется числу двоичных знаков (двоичных единиц, т. е. битов).

Состояние, для которого все возможные расположения имеют равные априорные вероятности, является состоянием с максимальной неопределенностью. Любое отклонение от такого равномерного распределения означает ограничение неопределенности. Если априорная вероятность i-vo состояния равна ри то по Шеннону [7],

п

Н — 2 Pi Id pi,

где 2 Pi — 1 и п — число всех возможных состояний

(например, Xv). Таким образом, Н — это среднее значение всех информационных вкладов Id ри Величины Pi являются одновременно весовыми множителями для этих отдельных вкладов. Если все они равны, то получается простое выражение Н = —Id р\ Н обращается в нуль, если из п возможных расположений все, кроме одного, имеют вероятность нуль. Прп этом состояние с единичной вероятностью не будет иметь альтернатив, т. е. для его идентификации не требуется более никакой информации.

Примером такой ситуации может служить молекулярная структура, которая воспроизводимо образуется из стехиометрической смеси предшественников, специфично взаимодействующих друг с другом, причем тепловые флуктуации практически не могут помешать этому процессу. Для низкомолекулярных соединений этот случай реализуется очень часто. Другой пример — это пространственная укладка полипептидной цепи или цепи рибонуклеиновой кислоты, которая во многих случаях однозначно определяется последовательностью соответствующих элементов. Такой процесс укладки поэтому не включает в себя никакого изменения информации.

Рассмотрим теперь, чем могут быть обусловлены отклонения от равномерного распределения априорных вероятностей,— мы будем называть эти отклонения избыточностью. Имеются две принципиальные причины избыточности [12].

1. Символы различного сорта могут встречаться с различной частотой. Это означает, что в суммарном множестве символов v символы различного сорта представлены не в равных количествах v/X.

2. Могут существовать предпочтительные последовательности символов. Специфичные взаимодействия между символами вызывают отклонения от случайного расположения. Эти взаимодействия не обязательно должны ограничиваться лишь ближайшими соседями. Так, например, в молекуле белка могут возникать очень сложные «условия соседства» по сравнению с линейной последовательностью (см. рис. 4—6).

Действие обоих этих факторов отче

страница 5
< К СПИСКУ КНИГ > 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17

Скачать книгу "Игра жизни" (2.07Mb)


[каталог]  [статьи]  [доска объявлений]  [обратная связь]

п»ї
Rambler's Top100 Химический каталог

Copyright © 2009
(17.10.2017)