1. история становления информатики как междисциплинарного направления во второй половине ХХ века





Название1. история становления информатики как междисциплинарного направления во второй половине ХХ века
страница3/8
Дата публикации27.06.2013
Размер1.31 Mb.
ТипУчебное пособие
100-bal.ru > Информатика > Учебное пособие
1   2   3   4   5   6   7   8

1.3.3. Третий этап - исследования в области теории информации

Быстрое развитие технических средств распространения информации -особенно телефона и радио - требовало создания теоретической базы информатики. Теоретическая и философская база информатики получила название теории информации. Существенный вклад в формирование основ теории информации внесли "ученые Советского Союза и России: М. А. Бонч-Бруевич (1888-1940), В. А. Котельников (1908-2005), А. А. Харкевич (1904- 1965), А. И. Берг (1893-1980) Н. Д. Папалекси (1880-1947) и многие другие.

Одним из важнейших вопросов создаваемой теории был вопрос о количественной мере информации. Еще в 1928 году американский исследователь Р. Хартли (R. Hartley) в работе "Передача информации" привел доводы в пользу логарифмической меры. Он указал, что из п телеграфных знаков (точек и тире) можно составить 2n возможных сообщений, но время передачи такого сообщения пропорционально его длине, т. е. двоичному логарифму от числа возможных сообщений. Число возможных сообщений N=2n возрастает экспоненциально с ростом п, что не позволяет выбрать само число N в качестве меры количества передаваемой информации, и в качестве такой меры Хартли предложил логарифм:

I = logN, (1)
где I - количество информации. Логарифм в формуле (1) можно брать по любому основанию, но удобнее его брать по основанию два, потому что тогда в простейшем сообщении, для которого возможны два значения (т. е. точка или тире, да или нет) количество информации будет равно Iog22 = 1. Эту единицу информации назвали битом.

Определение Хартли пригодно и для сообщений, состоящих из последовательности любого числа символов. Так, если сообщение передается буквенным алфавитом с числом букв 32, то число различных слов, которые можно составить из четырех букв, будет равно 324 = (25)4 = 220 = 1 048 576, а количество информации, содержащейся в одном четырехбуквенном слове: I = Iog22 = 20 битов.

В общем случае, когда алфавит состоит из т символов, то число возможных сообщений длиной п символов будет равно N = mn, а количество информации I в одном сообщении:

/ = log тn = п log т.

Количество информации можно определить и по-другому. Если число возможных сообщений равно N, то вероятность того, что придет именно данное сообщение, равна 1/N. Тогда можно определить количество информации как логарифм (с обратным знаком) вероятности сообщения, т. е.

/ = log 1/N

Это определение совпадает с предыдущим, поскольку -log 1/N = log N.

Следующий очень важный шаг в разработке основ теории информации сделал в 1948 году выдающийся американский инженер и математик Клод Шеннон (С. Shannon, род, в 1916 г.). В статье "Математическая теория связи" К. Шеннон отметил, что в сообщении - на английском, на русском, на любом другом языке - вероятности появления любой буквы не одинаковы.

Практический смысл формул Шеннона заключался в том, что они позволили разработать коды, примерно вдвое сокращавшие время передачи сообщений. Действительно, анализ частот появления различных букв в русских текстах показал, что одна буква несет с собой не пять битов информации (как это было бы в тексте, где все буквы равновероятны), а примерно в два раза меньше, что дало возможность создать экономные коды и увеличить пропускную способность каналов связи и информатики. Однако надо сразу отметить, что исследования Хартли и Шеннона относятся лишь к теории связи.

Фактически определение количества информации, данное Хартли, предполагает, что получатель информации является "идеальным приемником", для которого любая комбинация символов различима и имеет смысл. Определение количества информации, данное Шенноном, предполагает "несколько менее идеального" получателя, для которого различима и имеет смысл лишь каждая комбинация символов, отвечающая законам языка, на котором переедается сообщение, и соответствующая вероятностям появления символов и их сочетаний.

Понятно, что реальные получатели информации совсем не являются "идеальными приемниками". Это предопределило неизбежную ограниченность классической теории информации К. Шеннона, дающей как правило, очень завышенные оценки для реально получаемой информации.

А. А. Харкевич в работе "Теоретические основы радиосвязи" (1960) и М. М. Бонгард в публикации "Проблема узнавания" рассмотрели тот случай, когда передача и получение информации используются для достижения какой-либо цели, для повышения эффективности некоторой операции.

М. М. Бонгард предложил информацию, помогающую достижению цели, на­зывать полезной информацией, и ее количество оценивать по приращению целевой
функции, достигаемой вследствие получения информации. В практической жизни цели, для достижения которых используется информация, могут быть самыми
разными, и поэтому полезная информация неизбежно будет распадаться на несколько подвидов.

Выяснилось, что «полезная информация», может быть не только положительной, но и отрицательной и что она зависит от свойств приемника, в частности, от той информации, которой получатель уже располагал до прихода нового сообщения.

Таким образом, исследования М. М. Бонгарда позволили сделать крупный шаг в понимании информации и информационных процессов. К сожалению после безвременной кончины М. М. Бонгарда они не были продолжены.

Однако и понятие "полезной информации" далеко не исчерпывает всего разнообразия встречающихся на практике различных информационных процессов и различных видов информации. В частности, нередки случаи, когда получаемая информация совсем не предназначена для какой-либо определенной цели, а просто расширяет объем знаний, сведений получателя информации, причем может быть совершенно неизвестно, когда и как эта информация будет использована.

В этих случаях мы имеем дело с еще одним видом информации, отличным как от статистической информации К. Шеннона, так и от "полезной информации" М. М. Бонгарда. Изучением этого вида информации занимался Ю. А. Шрейдер, который предложил называть информацию, "запасаемую впрок", смысловой (или семантической) информацией — в переводе с греческого "семантический" как раз и означает "смысловой", - "семантический" (греч.) означает "смысловой".

Ю. А. Шрейдер обратил внимание на то, что для выживания любого живого существа в нем должен быть накоплен достаточно богатый запас соответствий между сигналами от внешней среды (запах хищника, запах добычи) управильными, целесообразными действиями в этих ситуациях (см. "Об одной схематической модели информации" (1965).

У человека, в человеческом обществе, запас таких соответствий должен был гораздо богаче. Первоначальный (и меняющийся в ходе получения смысловой информации) запас соответствий можно представить себе как некоторый обобщенный словарь или справочник, который Ю. А. Шрейдер предложил назвать "тезаурусом" (от греческого слова "тезаурос" - сокровище; в словарной практике тезаурусами называют словари, в которых даны не только значения слов, но и связи между ними). Главной характеристикой смысловой информации, ее главной особенностью является то, что она изменяет тезаурус, изменяет запас соответствий между различными понятиями, или между понятием и правильным действием.

В качестве меры количества смысловой информации естественно можно взять изменение тезауруса получателя под действием поступившей к нему информации. К сожалению, методы и формулы для вычисления количества смысловой информации оказались слишком сложными и взаимно противоречивыми. Однако качественные соображения, относящиеся к смысловой информации, уже сами по себе представляют большой интерес. Они были развиты, например, Е.С. Вентцель в публикации "К вопросу об информации" (1967). Там указывалось, что если, например, поступившее сообщение не внесло ничего нового в тезаурус получателя, то количество смысловой информации в нем естественно считать равным нулю. Из двух сообщений, одно из которых почти не меняет тезауруса, а второе существенно меняет его естественно считать, что второе несет большее количество смысловой информации. Кроме того, нужно учитывать, что для восприятия сообщения тезаурус получателя должен иметь какой-то уровень развития, как-то пересекаться с сообщением - иначе воспринятая информация будет равна нулю. Зависимость смысловой информации, содержащейся в некотором со­общении, от степени развития тезауруса получателя Е.С. Вертцель предположила изобразить кривой с максимумом и привела простой пример: учебник по высшей математике для трехлетнего ребенка несет нулевую информацию. Школьнику старших классов он уже даст кое-что. Максимальную информацию извлечет из него студент того курса, для которого учебник предназначен. По мере дальнейшего развития тезауруса информация начнет убывать: получатель будет узнавать все меньше нового.

Самой существенной особенностью смысловой и целевой информации явля­ется то, что они существенно зависят от свойств получателя. Одно и то же сообщение может нести для различных получателей самую разную информацию, и если статистическая информация теории связи, информация "по Шеннону", не зависит от свойств получателя, то это происходит лишь потому, что в определение информации, изучаемой в теории связи, неявно входит "идеальный получатель", для которого каждая комбинация кодовых символов различима и имеет смысл.

Поскольку еще в 60-х годах XX века стало явным существование различных видов и форм информации, то в работе "Информация и энтропия в кибернетике" (1989) Петрова Ю.П. было предложено определить само понятие "информация" как меру взаимодействия между материальными системами (в частном случае - между людьми). А поскольку цели и формы взаимодействия могут быть различными, то понятным становится существование статистической, целевой, смысловой информащш, которыми, конечно, количество различных видов информации не исчерпывается. Так, например, автором рассмотрены особенности и методы вычисления количества управляющей (командной) информации.

Работы Бонгарда "Проблема узнавания" и Шрейдера "Об одной модели узнавания" помогли разрешить многие парадоксы, накопившиеся при попытках использовать статистическую информацию "по Шеннону" для анализа литературы. Так, например, в работе Кондратова "Математика и поэзия" и многих других сравнивалась энтропия распространения вероятностей появления различных букв и слов в художественной прозе и в "штампованной" газетной речи того времени с ее однообразным языком, где по началу фразы можно предсказать ее конец. Поскольку непредсказуемость, а значит, и энтропия распределения вероятностей в прозе выше, чем у газетной речи, то делался вывод: информации в художественной больше, чем в равном по размеру отрывке газетной речи. Этот вывод вполне соответствует интуитивным представлениям и оценкам, что и приводило к применимости понятий классической теории связи и формул Шеннона к произведениям. Однако внимательные исследователи продолжили анализ, проведенный в частности, в работе Кондратова и ей подобных, и быстро обнаружили, что наибольшей энтропией распределения вероятностей обладает не художественная проза, а бессистемная последовательность букв. Приходилось с удивлением признать, что наибольшую информацию (на единицу длины текста) несет в себе текст, лишенный всякого смысла. Заметим, что с точки зрения теории связи этот вывод верен, передавать по каналам связи бессмысленный текст труднее, чем осмысленный, и в нем труднее исправить случайные ошибки. Но этот верный вывод лишний раз подчеркнул полную бесперспективность применения понятий теории связи к анализу языка и художественной литературы.

Действительно, вычисляя количество информации в литературном тексте по формулам Шеннона, мы фактически вычисляем меру взаимодействия между этим текстом и "идеализированным приемником", для которого любая по­следовательность букв, удовлетворяющая частотным характеристикам языка, заслуживает одинакового внимания. Совершенно очевидно, что реальный читатель совсем не является таким "идеализированным приемником" и поэтому попытки применить концепции теории связи к области литературы с самого начала не могли не быть бесплодными. Заметим, что опытный литературовед, профессор Л. И. Тимофеев (автор известной книги "Теория литературы") еще в 1963 году в публикации "Число и чувство меры в изучении поэзии" (1963) доказал бесплодность подобных попыток, но они все равно еще не раз повторялись.

На опасность расширительного, толкования "модных" понятий указывал и сам К. Шеннон еще в 1956 году в публикации "Математическая теория связи". "Теория информации, - писал он, - как модный опьяняющий напиток кружит головы всем вокруг. Для тех, кто работает в области теории информации, такая широкая популярность приятна, но она настораживает. Сознавая, что теория инфор­мации является сильным средством решения проблем связи, нельзя забывать, что она не является панацеей даже для инженера-связиста, и уж тем более - для представителей всех других специальностей. Очень редко удается открыть одновременно несколько тайн природы одним и тем же ключом".

Так что предостережений было не мало, но, тем не менее, попытки упрощен­ных решений сложных вопросов с помощью таких "модных" понятий, как "информация" и "энтропия", возникали снова и снова (особенно в 60-е и 70-е годы XX века). В этом отношении наука подобна саду - плодоносящее дерево вырастить трудно, а сорняки (как и заблуждения) вырастают сами, и далее борьба с ними не всегда приводит к успеху.

Путь к пониманию законов поэзии, законов художественного творчества открылся позже, после публикаций о смысловой информации и о взаимодействии тезаурусов. Стало ясно, что у человека может существовать (но может и не существовать!) тезаурус эстетических впечатлений, тезаурус чувств, и что поэзия, художественная литература, взаимодействуют именно с этим тезаурусом.

Еще одним важным направлением исследований, в котором переплелись интересы теории связи и теории управления, информатики и кибернетики, стало исследование случайных функций. Действительно, если записать напряжение на выходе телеграфного аппарата, то мы получим типичную "случайную функцию времени".

Случайную функцию времени называют "телеграфным сигналом", что подчеркивает ее происхождение. Напряжение в телефонном сигнале также является случайной функцией времени. Случайными функциями времени являются погрешности в измерительной информации, получаемой с разных измерительных приборов.

В задачах управления также приходится иметь дело со случайными функциями; различные возмущающие воздействия на объекты управления (на корабль, на самолет) чаще всего являются случайными, погрешности измери­тельных приборов, измеряющих положение объекта управления, также случайны.

Поэтому исследование случайных функций (и случайных процессов) шло как в интересах информатики, так и в интересах теории управления (кибернетики).

Первоначально главную роль играла задача управления (кибернетики). Первые результаты в области случайных временных рядов были изложены Норбертом Винером (N. Wiener, 1894-1964) в его известной книге "Кибернетика", вышедшей в 1948 году. В дальнейшем эти результаты, как и многие последующие, использовались и для целей информатики.

Отметим интересную особенность: информация о возмущающих воздействи­ях, используемая в системах управления, является, безусловно, целевой информацией, поскольку используется для вполне определенной цели - умень­шения отклонения объекта управления от заданной траектории движения.

Дополнительная информация о возмущающем воздействии сверх функции уже бесполезна и не может улучшить значение целевой функции. Это своеобразное обстоятельство лишний раз подчеркивает трудности использования понятия "информация" в теории управления. Отметим, что исследования по информатике и управлению долгое время шли вместе, их объединяли (часто вместе с вычисли­тельной техникой) в одну науку - кибернетику, которая в 1975 году в известной "Энциклопедии кибернетики" определялась как "наука об общих законах получения, хранения и преобразования информации в сложных управляемых системах". Кстати, и само слово "Кибернетика" было произведено от греческого "кибернетес", которое в переводе на русский язык близко по значению к слову "кормчий" (тот, кто управляет движением корабля).

Начиная с 60-х и, примерно, до 80-х годов XX века, слово "кибернетика" было модным и употреблялось очень широко. Затем "мода" переменилась, модным стало слово "информатика". В результате термин "кибернетика" постепенно стал употребляться все реже и реже, а термин "информатика" - все чаще и чаще. Однако от этого тесная связь между информатикой и управлением отнюдь не стала менее тесной (так, например, в Московском государственном техническом университете им. Н. Э. Баумана работает большой факультет "Информатика и системы управления").

1.4. Переход к использованию в информатике вычислительных машин. Синергетический подход в информатике
Использование в информатике (точнее - в обработке информации) быстродействующих электронных вычислительных машин произвело в ней решительный переворот, который начался еще в 60-х годах XX века. Если счетно-аналитические машины (перфоратор и табулятор), которые были основным__орудием информатики в первой половине XX века, позволяли обрабатывать не более 7 перфокарт в секунду, а каждая перфокарта несла (кроме служебной) не более 800 битов полезной информации, то это соответствовало скорости обработки не более 5000 битов в секунду. Понятно, что появление быстродействующих машин, способных обрабатывать миллионы битов в секунду, было подлинно революционным переворотом.

Обработка информации с помощью быстродействующих вычислительных машин стала постепенно распространяться на все новые и новые области приложений – от выполнения вычислительными машинами чертежей и всей чертежной документации до управления производством, издательского дела и т. п. Постепенно - еще с 60-х годов ХХ века - начал использоваться термин "информатика". Первоначально информатику считали всего лишь одним из разделов кибернетики, но потом она стала и быстро развивающейся научной дисциплиной, вошла в программы и средней, и высшей школы. Вышли в свет многочисленные учебники по информатике. В 1983 году в Академии наук СССР было образовано отделение информатики, вычислительной техники и автоматизации. В том же году был организован Институт проблем информатики АН СССР.

Еще раньше - в 1952 году - был организован Институт научной информации (впоследствии - ВИНИТИ). Именно среди исследователей научной информации и сформировался постепенно сам термин "информатика". Первоначально чаще использовался термин "документация". Так, в 1920 году в
Нидерландах был создан Голландский институт документации. Подобные институты создавались и в других странах, а в 1934 году образовалась Международная
федерация документации, объявившая своей задачей "сбор, хранение, распространение и использование всех видов информации". Потом термин "документация" перестал нравиться, стали искать ему замену. В 1962 году
французский специалист Ф. Дрейфус предложил использовать французское слово – informatigue.

Его предложение было быстро подхвачено. Если в 1965 году большая книга вышла под названием "Основы научной информации", то в 1966 году ее авторы предложили использовать в русском языке термин "информатика" и в 1968 году второе (дополненное) издание своей книги ее авторы назвали уже по-новому: "Основы информатики". Книга вышла большим тиражом в 25 тысяч экземпляров, и ее публикация способствовала закреплению нового термина. В книге информатика уже называлась "самостоятельной научной дисциплиной".

В то же время надо отметить, что поскольку информатика является очень быстро развивающейся дисциплиной, то даже в первом пятилетии XXI века еще не
выработалось и не закрепилось общепризнанное определение самого понятия "информатика". Если мы перелистаем учебники и учебные пособия для высшей школы, вышедшие в свет в XXI веке, то определения понятия "информатика",
приводимые в них, будут несколько отличаться одно от другого, но в целом они будут вариациями определения, выработанного еще в 1975 году авторами известной
"Энциклопедии кибернетики": "Информатика является научной дисциплиной, изучающей любые процессы коммуникаций, обмена информацией в окружающем нас мире.

Отметим, что ни в коем случае нельзя понимать "информатику" как "работу с компьютером", или как "область человеческой деятельности, связанную с преобразованием информации с помощью компьютеров".

Информатика гораздо старше компьютеров. Она имеет интересную и слав­ную историю, о которой было лишь очень коротко рассказано выше. Да, с появлением компьютеров технические средства информатики совершенно изменились, и поэтому подробный рассказ о технике, на которой основывалась информатика в XIX веке и даже в первой половине XX века не будет интересен сегодняшнему читателю. Но история развития теории, на которой основывается информатика - теории информации - а также философские вопросы информатики, представляют самый живой интерес, тем более, что развитие теории •су информации шло далеко не прямолинейно, было богато и заблуждениями, и острыми дискуссиями.

Поэтому в предшествующем изложении не очень много внимания уделялось развитию технических средств информатики, а больше - развитию ее теоре­тических и философских основ.

Именно переход к использованию в информатике быстродействующих машин вывел ее на новый виток своего развития в русле синергетического подхода.

Одним из первых идеологов новой концепции в развитии информатики был Х. Фон Феретер. Он ввел в оборот понятие «кибернетика второго порядка». Материальным воплощением «кибернетики первого порядка» являлись по мнению Феретера «тривиальные машины», работающие по заранее заданным алгоритмам у которых причины и следствия точно и жестко связаны, по принципу лаиласовского детерминизма. «Кибернетика второго порядка» ориентирована на «нетривиальные машины», более сложные устройства, операции и действия которых зависят от прошлого и в каком-то смысле непредсказуемы. Непредсказуемость определяется внутренним состоянием самих устройств. Это первая черта информатики.

Вторая ее черта – рефлексивность, т.е. замкнутость на самой себе. Это проявляется в том, сто кибернетика второго порядка изучает не только внешний мир, но и саму себя, законы, по которым развиваются сложные саморазвивающиеся устройства.

На основании подобных рассуждений Феретером делаются далеко идущие глобальные выводы, которые он изложил в работе «О самоорганизующихся системах и их окружении» (1960 г.), процесс познания окружающего мира есть процесс создания порядка из шума, хаоса. Акцентируя внимание на конструктивном, творческом характере процесса познания, он настаивал на способности нашего сознания изобретать мир. Человеческое познание при этом предстает как бесконечный процесс вычислений производимый мозгом. И этот процесс должен подвергаться изучению.

Не менее глубокими по своим философским основаниям выступает «кибернетическая концепция эволюции» Турчина В.Ф. в его работе «Феномен науки» (70-е гг.) ХХ столетия. В этой работе он развивает оригинальную теорию эволюции основываясь на одной идее «метасистемного перехода как кванта эволюции». Кибернетической системой, по Турчину, может быть клетка, организм, человек, общество и т.д. Каждая система является чрезвычайно сложной состоящей из более простых (иерархичность строения). Переход от одной системы – более «простой», к другой – более «сложной», осуществляется в результате метасистемных переходов с возникновением новых систем управления. Метасистемный переход – это и есть разномасштабный переход от системы к системе с появлением соответствующих органов управления. На уровне простейших организмов – безусловный рефлекс, высокоорганизованных – условный, человек – сознание, общество – общественное сознание.

Во всех случаях «новая» система, по отношению к «старой» выступает как метасистема. Метасистемный переход, по мнению Турчина, является творческим актом, поскольку он осуществляется под воздействием не только внутренних обстоятельств, но и внешних. «Главнейшие эволюционные сдвиги – пишет Турчин, - это крупномасштабные мегасистемные переходы, происходящие в рамках естественного отбора как проявления общего принципа проб и ошибок. Примеры: формирование редуплицирующих макромолекул, образование многоклеточных организмов, появление разума, образование человеческого общества, интеграция человечества с целью освоения космического пространства» /3, с. 288/.

Весьма конструктивными являются кибернетически-информационные идеи Чернавского Д.С., который отмечает тот факт, что в традиционной теории информации в основном занимались проблемами передачи, хранения и получения информации, а вопросы: 1) Что такое «цель»…; 2) Может ли ценность информации ценность информации меняется со временем и в каких пределах?» /46, с.40/ остались без ответа. Более того, Чернавский отмечает, что «вопрос о производстве ценной информации» выпадал из внимания /46, с.3/.

Восполняя этот пробел Чернавский попытался сформулировать понятие «ценная информация». Он пишет: «Ценной информацией считается та, которая поможет достижению цели» /46, с. 9/. Нулевой ценностью обладает информация, по мнению Чернавского, не имеющая отношения к данной цели.

Чернавский также считает, что ценность информации может меняться от нулевой до максимальной. Он твердо стоит на позиции, что проблема ценности информации никак не пересекается с проблемами передачи, хранения и получения информации. А в современной теории информации, замечает Чернавский, имеют «человеческий или по крайней мере, биологический оттенок» /46, с.9/, а должна быть внутрисистемной ценностью.

Несколько позже, Чернавский в одной из своих статей «О генерации ценной информации» рассматривает два подхода к вопросу наличия цели в неживой природе: согласно первого – природа развивается в соответствии со своими внутренними законами и не нуждается в целях, поэтому вся информация накапливаемая здесь, обладает нулевой ценностью.

Второй подход исходит из наличия в природе целей и они выступают как достижение живыми организмами и всей природой как системой равновесного (устойчивого) конечного состояния.

Совершенно очевидно, что где-то во второй половине ХХ столетия кибернетическая эпистемология в информатике приобретает все более сложный характер. Тенденция усложнения усиливается в связи с проникновением в информатику синергетических идей.

Подобный процесс, как несомненно плодотворное явление заметил еще Винер. В 1961 г. во втором издании своей знаменитой работы «Кибернетика» м в ряде более поздних работ он писал, что его исследовательский интерес переориентируется от простых линейных обратных связей, на которых основывается классическое кибернетическое исследование, к тем процессам, которые отмечены нелинейной реакцией на случайные входы, происходящие в живых организмах.

Он, в частности, вводит термин «синергетическая ценность», для характеристики устойчивого состояния организма, к которому тот стремится в результате указанных нелинейных реакций. А так же вводит в употребление понятия «энтропия», «самоорганизация».

Однако более глубокое развитие данные категории получили не в кибернетике и информатике, а в новой научной дисциплине си­нергетика, ставшей одним из важнейших направлений современной (неклассической) науки второй половины XX и начала XXI века.

Синергетика сегодня представляет собой междисциплинарное научное направление, изучающее универсальные закономерности процессов самоорганизации, эволюции и кооперации сложных сис­тем. В данной науке процесс самоорганизации является главным механизмом развития систем.

При этом механизм самоорганизации имеет следующий вид: все системы находятся в состоянии равновесия, но имеет место их постоянное нарушение, отклонение от устойчивого состояния. Одно­временно внутри системы возникают механизмы самоорганизации заставляющие систему вновь и вновь возвращаться в исходное ста­бильное состояние.

В своем эволюционном развитии каждая система проходит крити­ческие точки (состояния) - точки бифуркации, где нестабильность систе­мы максимальна. Здесь наблюдается резкое усиление флуктуации. И дальнейшая траектория, по которой пойдет развитие системы, зависит от множества обстоятельств, в том числе и случайных факторов.

При этом система, находящаяся в зоне бифуркации, с одной стороны, характеризуется принципиальной непредсказуемостью, с другой стороны, более чутка и восприимчива к воздействиям, согла­сованным с ее собственными свойствами.

В результате возможно как появление хаоса, так и систем бо­лее упорядоченных, чем предыдущие. При этом имеет место прин­цип единства и взаимопереходов порядка в хаос и наоборот. А хаос приобретает в рамках синергетической парадигмы не только разру­шительную, но и созидательную силу. Отсюда налицо разнообразие путей развития.

Разнообразие путей эволюции в синергетике основывается также и на положении, что развитие систем может иметь место не только строго поступательный характер, но возможны и циклические, волновые векторы, рост и свертывание разнообразия, ослабление и усиление связей и т.д.

Синергетический подход включает в себя ряд принципов, ко­торые имеют непосредственное отношение к информатике и кибер­нетике в смысле их непосредственного здесь использования. При этом следует отметить, что в последнее время появился ряд специ­альных работ, отслеживающих идею плодотворного сотрудничества, взаимопроникновения синергетики, кибернетики, информатики (при этом хотелось бы особенно отметить работу Тарасова В.Б. «От многоагентных систем к интеллектуальным организациям: философия, психология, информатика». М., 2002.

В данной работе, в частности, указывается на принцип несо­вместимости Л. Заде /6, с. 30/, подчеркивающий, что при росте сложности системы уменьшается возможность ее точного описания, вплоть до некоторого порога, за которым точность информации и адекватность становятся несовместимыми.

Синергетический подход в информатике исходит из понимания сложных систем как принципиально неполных, неточных и противо­речивых в смысле получаемой информации о них. Причиной такого положения является тот факт, что в современной информатике наря­ду со строгими логическими, математическими, рациональными по­нятиями существует значительный объем данных, базирующийся на индивидуальных мнениях, коллективных идеях.

При этом нестрогие, приближенные данные, нечетко семанти­ческие знания и неформальные методы по их добыванию порой ока­зываются решающими при принятии решений.

Если в классической кибернетике исходят из принципа работы мозга, в котором имеет место универсальная система формальных манипуляций с конкретными символами, которая может быть доста­точно четко зафиксирована (именно на этом принципе основана уже описанная нами машина Тьюринга), то в неклассической синергетической кибернетической парадигме наряду с представлениями о чет­ких процедурах работы мозга присутствует опора на «мягкие логики» (подробнее об этом в других параграфах), в частности интуитивные операции которые также важны в процедуре понимания законов протекания информационных процессов.

Синергетический подход в информатике также предполагает изучение процессов образования сложных структур через призму понятий «порядок» и «хаос».

В частности негоэнтропийный принцип информации позво­лил лучше понять такое физическое явление, как процесс перехода вещества от жидкого состояния к твердому (кристаллическому), где, как выяснилось, имеет место передача информации в виде «модели организации» от кристаллов к молекулам жидкости в ре­зультате внесения кристалла в раствор.

Феномен передачи информации имеет место и в явлении поля­ризации диэлектрика при взаимодействии с электрическим полем. Упорядоченное расположение в атоме электронов и их квантовых энергетических уровней является основой резонансных явлений, кото­рые можно рассматривать как простейшую информационную связь.

Непрерывное получение информации живыми организмами приводит к усложнению структуры живого организма, более четкой дифференциации функций различных его органов, а следовательно, к увеличению и сохранению получаемой информации.

Надежность живого организма как системы определяется ав­тономностью внутриорганизмических связей, возникающих не только за счет внешних воздействий, но и благодаря статистическо­му механизму внутренних мутаций: имеет место отбраковка множе­ства вариантов свойств и отбор наиболее удачных, случайно воз­никших признаков, на основе их сопоставления.

В результате достигается равновесие (гомеостазис) между орга­низмом и окружающей средой. При этом процесс количественного нако­пления информации обязательно сопровождается качественными скач­ками в виде появления у организмов новых свойств, новых видов переда­чи и накопления информации: синтез белков, обмен веществ и др.

С появлением жизни связан новый вид функционирования ин­формации: циркуляция ее по замкнутым контурам с обратной связью, с целенаправленным ее накоплением и увеличением, использованием для сохранения целостности в условиях воздействия окружающей среды.

Любая из систем развивается таким образом, что в ней всегда есть информация о ее прошлом состоянии. Любая система развивает­ся таким образом, что происходит увеличение или уменьшение ее информационной емкости. Однако, если говорить об относительно небольших отрезках времени, то можно утверждать, что есть систе­мы, которые меняют лишь параметры связей, и есть системы, спо­собные менять структуру.

В связи с этим существует следующая классификация систем:

  1. системы, способные сохранять информацию (упорядочен­ность элементов) на короткое время - газы, жидкости;

  2. системы, способные в течение длительного времени сохра­нять информацию и передавать ее другим родственным системам (магнитные или поляризующиеся среды, кристаллы и др.);

  3. системы, способные не только сохранять информацию, но и осуществлять отбор и накопление информации (живые организмы, биологические виды);

  4. системы, способные путем целенаправленного сопоставле­ния накопленной и вновь получаемой информации созидать новую информацию (мыслящий человек, социальные группы, системы «ЭВМ-человек»).

Итак, понятия «информация», «информатика», «информационный подход» являются сегодня важнейшими категориями современной науки наряду с такими категориями, как материя, сознание, общество и др.
1   2   3   4   5   6   7   8

Похожие:

1. история становления информатики как междисциплинарного направления во второй половине ХХ века iconПрограмма дисциплины «Проблемы нарушения и защиты прав человека в...
Учебная программа курса предназначена для подготовки студентов по направлению «Политология». Данный курс является интегрированным,...
1. история становления информатики как междисциплинарного направления во второй половине ХХ века iconИстория термина «Социальная сеть»
«Человеческие отношения». До этого, многие мыслители об обществе выражали мнение о важности рассмотрения общества как сложного переплетения...
1. история становления информатики как междисциплинарного направления во второй половине ХХ века iconПроблемы пятидесятилетнего противостояния СССР и США
Постараться как можно глубже изучить, проанализировать то, что творилось на арене международных отношений во второй половине XX -го...
1. история становления информатики как междисциплинарного направления во второй половине ХХ века iconРеферат на тему: «История витаминов»
Ко второй половине 19 века было выяснено, что пищевая ценность продуктов питания определяется содержанием в них в основном следующих...
1. история становления информатики как междисциплинарного направления во второй половине ХХ века iconАннотация по дисциплине б 35 «История США в первой половине XIX века»
Формирование систематизированных знаний по причинам становления и развития ранних буржуазных республик, на примере США изучение многовариантности...
1. история становления информатики как междисциплинарного направления во второй половине ХХ века iconУрок истории в 8 классе по теме: «Культура России и Узбекистана во второй половине 19 века»
...
1. история становления информатики как междисциплинарного направления во второй половине ХХ века iconКонспект урока информатики на тему
Борьба Руси с западными завоевателями. Пятый урок в теме «Русь во второй половине XII – XIII в»
1. история становления информатики как междисциплинарного направления во второй половине ХХ века iconКитай во второй половине XX начале XXI века
А. Лидер «прагматиков» в руководстве кнр, инициатор рыночных реформ в китайской экономике
1. история становления информатики как междисциплинарного направления во второй половине ХХ века iconНалоговый навигатор по важнейшим документам, обнародованным во второй...
Экономика – это наука о том, как общество использует определенные, ограниченные ресурсы для производства полезных продуктов и распределяет...
1. история становления информатики как междисциплинарного направления во второй половине ХХ века iconТемы рефератов по курсу «Конфликтология»
Особенности развития теории конфликта во второй половине XIX и первой половине XX веков
1. история становления информатики как междисциплинарного направления во второй половине ХХ века iconИсторическое краеведение в Орловской губернии и деятельность Орловской...
Историческое краеведение в Орловской губернии и деятельность Орловской ученой архивной комиссии во второй половине XIX – начале XX...
1. история становления информатики как междисциплинарного направления во второй половине ХХ века icon«ссср во второй половине 50-х первой половине 60-х гг XX в»
А прочтите фрагмент из выступления Г. М. Маленкова на Пленуме ЦК кпсс. Когда происходили эти события?
1. история становления информатики как междисциплинарного направления во второй половине ХХ века iconАннотации дисциплин основной образовательной программы
Нэп и сталинская модернизации страны. Вторая мировая война 1939-1945 гг и ее политические последствия. Ссср во второй половине 40-80-е...
1. история становления информатики как междисциплинарного направления во второй половине ХХ века icon1. Основные направления внешней политики России во второй половине XIX века
Окончание Крымской войны (1853-1856 гг.) привело к коренному изменению ситуации в Европе. Поражение крепостной России подорвало ее...
1. история становления информатики как междисциплинарного направления во второй половине ХХ века icon«Учебный проект на уроках истории в сельской школе»
Метод учебных проектов зародился во второй половине 19 века в сельскохозяйственных школах США – основоположник Джон Дьюи
1. история становления информатики как междисциплинарного направления во второй половине ХХ века iconПрограмма по формированию навыков безопасного поведения на дорогах...
Общественно-культурная обстановка в России во второй половине Х1Х века (60-е годы)


Школьные материалы


При копировании материала укажите ссылку © 2013
контакты
100-bal.ru
Поиск