Конспект лекций по системному анализу Лекция: История, предмет, цели системного анализа 2





НазваниеКонспект лекций по системному анализу Лекция: История, предмет, цели системного анализа 2
страница6/10
Дата публикации19.02.2015
Размер1.23 Mb.
ТипКонспект
100-bal.ru > История > Конспект
1   2   3   4   5   6   7   8   9   10

Рис. 5.1.  Структура познания системы

Пример. Для построения модели планирования и управления производством в рамках страны, региона или крупной отрасли, нужно решить проблемы:


  • определить структурные связи системы (как вертикальные, так и горизонтальные), уровни управления и принятия решений, ресурсы; при этом чаще используются методы наблюдения, сравнения, измерения, эксперимента, анализа и синтеза, дедукции и индукции, эвристический, исторический и логический, макетирование и др.;


  • определить гипотезы, цели, возможные проблемы планирования; наиболее используемые методы: наблюдение, сравнение, эксперимент, абстрагирование, анализ, синтез, дедукция, индукция, эвристический, исторический, логический и др.;


  • конструирование эмпирических моделей системы; наиболее используемые методы: абстрагирование, анализ, синтез, индукция, дедукция, формализация, идеализация и др.;


  • поиск решения проблемы планирования и просчет различных вариантов, директив планирования, поиск оптимального решения; используемые чаще методы: измерение, сравнение, эксперимент, анализ, синтез, индукция, дедукция, актуализация, макетирование, визуализация, виртуализация и др.


Информация, таким образом, может быть рассмотрена как кортеж А=<Х, Y, f>, где носитель X - сведения, знания о предметной области, множество Y - сообщения, отражающие эти сведения, отношение f - отношение кодирования между элементами X, Y, т.е. их актуализации.

Пример. Пусть X={супруги, дети супругов}, Y={"Иванов Петр Сидорович", "Иванова Ольга Николаевна", "Иванов Олег Петрович", "Иванова Наталья Петровна", "мать", "отец", "сын", "дочь", "родители", "дети"}, отношение f может быть задано (словесно) перечислением связей вида: "Иванов Олег Петрович - супруг Ивановой Ольги Николаевны", "Иванова Наталья Петровна - дочь Ивановой Ольги Николаевны" и т.д.

Пример. Пусть X={арифметические операции}, Y={"-(взятие противоположного числа)", "+(сложение)", "-(вычитание)", "×(умножение)", "/(деление)", " √(извлечение квадратного корня)"}, f определим как установление соответствия "унарная операция".

Таким образом, основная задача науки состоит в построении, исследовании, актуализации или хранении множеств с заданным классом X однотипных задач, Y - классом структур и ресурсов, связываемых с этими задачами, и f - процессами их сопоставления и актуализации с помощью некоторых ресурсов.

Такие задачи мы решаем в ежедневной жизни, но в то же время часто правило f нельзя отыскать или построить явно или конструктивно. В этом случае приходится заменять искомый закон f с помощью подходящих явных или конструктивных представлений f, X, Y и/или Z (см. рис. 5.2) и применять эти представления всякий раз.

http://lib.znate.ru/pars_docs/refs/1/367/367_html_4f690e10.png

Рис. 5.2.  Инвариант всех решаемых проблем науки

Правило http://lib.znate.ru/pars_docs/refs/1/367/367_html_m713d875f.pngзадает правило кодирования или интерпретации входного алфавита, правило http://lib.znate.ru/pars_docs/refs/1/367/367_html_2cd2896d.png- правило декодирования или интерпретации выходного алфавита, т.е. входной и выходной коды (правила, функции). При этом справедливы законы:

у=f(х)= http://lib.znate.ru/pars_docs/refs/1/367/367_html_2cd2896d.png(f*(http://lib.znate.ru/pars_docs/refs/1/367/367_html_m713d875f.png (х))).

Правило f* подбирают так, чтобы, в отличие от f, его можно было бы найти и/или исследовать, применить. Для каждого сообщения х из Х определена триада:

(х,у*,у): х*=http://lib.znate.ru/pars_docs/refs/1/367/367_html_m713d875f.png(х), y*=f*(x*), y=http://lib.znate.ru/pars_docs/refs/1/367/367_html_2cd2896d.png(y*).

Информация - содержание сообщения, сообщение - форма проявления или актуализации информации. Информация всегда имеет носитель, актуализация информации связана с изменением носителя, ресурсов.

Пример. Сведения о сути товара могут быть изложены в рекламе, передаваемой различными сообщениями (по телевидению, по радио, в газете и т.д.). При этом соответствие этой рекламы действительности может быть независимо от типа сообщений, т.е. имеется третья сторона информации (кроме ее абстрактной сущности, ее представления сообщениями) - соответствие сведений, заложенных в информации, с проявлениями реальной системы.

Вопросы для самоконтроля


  1. Что такое информация? Как классифицируется информация? Чем отличается информация от сообщения?


  2. Каковы основные эмпирические методы получения информации?


  3. Каковы основные теоретические методы получения информации?

Задачи и упражнения


  1. Для задачи решения квадратного уравнения указать входную, выходную, внутрисистемную информацию, их взаимосвязи.


  2. Построить тактику изучения (исследования) эпидемии гриппа в городе только эмпирическими (теоретическими, смешанными) методами?


  3. Эмпирическими (теоретическими, эмпирико-теоретическими) методами получить информацию о погоде (опишите в общих чертах подходы).

Темы для научных исследований и рефератов, интернет-листов


  1. Информация - знание, абстракция.


  2. Информация - мера порядка, организации, разнообразия в системе.


  3. Информация - структурированности и неопределенности в системе.

6. Лекция: Меры информации в системе


Рассматриваются различные способы введения меры измерения количества информации, их положительные и отрицательные стороны, связь с изменением информации в системе, примеры.

Цель лекции: введение в различные способы задания мер для измерения количества информации, их критический сравнительный анализ, основные связи информации и энтропии системы.

В предыдущей лекции было отмечено, что информация может пониматься и интерпретироваться в различных проблемах, предметных областях по-разному. Вследствие этого, имеются различные подходы к определению измерения информации и различные способы введения меры количества информации.

Количество информации - числовая величина, адекватно характеризующая актуализируемую информацию по разнообразию, сложности, структурированности (упорядоченности), определенности, выбору состояний отображаемой системы.

Если рассматривается некоторая система, которая может принимать одно из n возможных состояний, то актуальной задачей является задача оценки этого выбора, исхода. Такой оценкой может стать мера информации (события).

Мера, как было сказано выше, - непрерывная действительная неотрицательная функция, определенная на множестве событий и являющаяся аддитивной (мера суммы равна сумме мер).

Меры могут быть статические и динамические, в зависимости от того, какую информацию они позволяют оценивать: статическую (не актуализированную; на самом деле оцениваются сообщения без учета ресурсов и формы актуализации) или динамическую (актуализированную т.е. оцениваются также и затраты ресурсов для актуализации информации).

Ниже мы не всегда будем, в основном, для большей убедительности и большего содержательного понимания, проводить четкие математические границы между понятиями "количество информации" и "мера количества информации", но строгому читателю необходимо все время задавать достаточно важные вопросы: о количестве информации или о мере информации в конкретной последовательности событий идет речь? о детерминированной или стохастической информации идет речь? какова мера измерения количества информации и насколько она адекватна?

1. Мера Р. Хартли. Пусть имеется N состояний системы S или N опытов с различными, равновозможными, последовательными состояниями системы. Если каждое состояние системы закодировать, например, двоичными кодами определенной длины d, то эту длину необходимо выбрать так, чтобы число всех различных комбинаций было бы не меньше, чем N. Наименьшее число, при котором это возможно, называется мерой разнообразия множества состояний системы и задается формулой Р. Хартли: H=klogаN, где k - коэффициент пропорциональности (масштабирования, в зависимости от выбранной единицы измерения меры), а - основание системы меры.

Если измерение ведется в экспоненциальной системе, то k=1, H=lnN (нат); если измерение было произведено в двоичной системе, то k=1/ln2, H=log2N (бит); если измерение было произведено в десятичной системе, то k=1/ln10, H=lgN (дит).

Пример. Чтобы узнать положение точки в системе из двух клеток т.е. получить некоторую информацию, необходимо задать 1 вопрос ("Левая или правая клетка?"). Узнав положение точки, мы увеличиваем суммарную информацию о системе на 1 бит (I=log2 2). Для системы из четырех клеток необходимо задать 2 аналогичных вопроса, а информация равна 2 битам (I=log24). Если же система имеет n различных состояний, то максимальное количество информации будет определяться по формуле: I=log2n.

Справедливо утверждение Хартли: если в некотором множестве X={x1, x2, ..., xn} необходимо выделить произвольный элемент xi
http://lib.znate.ru/pars_docs/refs/1/367/367_html_6cf3b522.pngX, то для того, чтобы выделить (найти) его, необходимо получить не менее logan (единиц) информации.

Если N - число возможных равновероятных исходов, то величина klnN представляет собой меру нашего незнания о системе.

По Хартли, для того, чтобы мера информации имела практическую ценность, она должна быть такова, чтобы отражать количество информации пропорционально числу выборов.

Пример. Имеются 192 монеты. Известно, что одна из них - фальшивая, например, более легкая по весу. Определим, сколько взвешиваний нужно произвести, чтобы выявить ее. Если положить на весы равное количество монет, то получим 3 независимые возможности: а) левая чашка ниже; б) правая чашка ниже; в) чашки уравновешены. Таким образом, каждое взвешивание дает количество информации I=log23, следовательно, для определения фальшивой монеты нужно сделать не менее k взвешиваний, где наименьшее k удовлетворяет условию log23
khttp://lib.znate.ru/pars_docs/refs/1/367/367_html_4c0ee163.pnglog2192. Отсюда, khttp://lib.znate.ru/pars_docs/refs/1/367/367_html_4c0ee163.png5 или, k=4 (или k=5 - если считать за одно взвешивание и последнее, очевидное для определения монеты). Итак, необходимо сделать не менее 5 взвешиваний (достаточно 5).

Пример. ДНК человека можно представить себе как некоторое слово в четырехбуквенном алфавите, где каждой буквой помечается звено цепи ДНК или нуклеотид. Определим, сколько информации (в битах) содержит ДНК, если в нем содержится примерно 1,5×10
23 нуклеотидов (есть и другие оценки этого объема, но мы рассмотрим данный вариант). На один нуклеотид приходится log2(4)=2 (бит) информации. Следовательно, структура ДНК в организме человека позволяет хранить 3×1023 бит информации. Это вся информация, сюда входит и избыточная. Реально используемой - структурированной в памяти человека информации, - гораздо меньше. В связи с этим, заметим, что человек за среднюю продолжительность жизни использует около 5-6% нейронов (нервных клеток мозга - "ячеек ОЗУ человека"). Генетический код - чрезвычайно сложная и упорядоченная система записи информации. Информация, заложенная в генетическом коде (по учению Дарвина), накапливалась многие тысячелетия. Хромосомные структуры - своеобразный шифровальный код, при клеточном делении создаются копии шифра, каждая хромосома - удваивается, в каждой клетке имеется шифровальный код, при этом каждый человек получает, как правило, свой набор хромосом (код) от матери и от отца. Шифровальный код разворачивает процесс эволюции человека. Вся жизнь, как отмечал Э. Шредингер, "упорядоченное и закономерное поведение материи, основанное ... на существовании упорядоченности, которая поддерживается все время".

Формула Хартли отвлечена от семантических и качественных, индивидуальных свойств рассматриваемой системы (качества информации в проявлениях системы с помощью рассматриваемых N состояний системы). Это основная и положительная сторона формулы. Но имеется основная и отрицательная ее сторона: формула не учитывает различимость и различность рассматриваемых N состояний системы.

Уменьшение (увеличение) Н может свидетельствовать об уменьшении (увеличении) разнообразия состояний N системы. Обратное, как это следует из формулы Хартли (так как основание логарифма больше 1!), - также верно.

2. Мера К. Шеннона. Формула Шеннона дает оценку информации независимо, отвлеченно от ее смысла:

http://lib.znate.ru/pars_docs/refs/1/367/367_html_m4ab3ecce.png

где n - число состояний системы; рi - вероятность (или относительная частота) перехода системы в i-е состояние, причем сумма всех pi равна 1.

Если все состояния равновероятны (т.е. рi=1/n), то I=log2n.

К. Шенноном доказана теорема о единственности меры количества информации. Для случая равномерного закона распределения плотности вероятности мера Шеннона совпадает с мерой Хартли. Справедливость и достаточная универсальность формул Хартли и Шеннона подтверждается и данными нейропсихологии.

Пример. Время t реакции испытуемого на выбор предмета из имеющихся N предметов линейно зависит от log2N: t=200+180log2N (мс). По аналогичному закону изменяется и время передачи информации в живом организме. Один из опытов по определению психофизиологических реакций человека состоял в том, что перед испытуемым большое количество раз зажигалась одна из n лампочек, на которую он должен был указать в ходе эксперимента. Оказалось, что среднее время, необходимое для правильного ответа испытуемого, пропорционально не числу n лампочек, а именно величине I, определяемой по формуле Шеннона, где pi - вероятность зажечь лампочку номер i

Легко видеть, что в общем случае

http://lib.znate.ru/pars_docs/refs/1/367/367_html_22e12724.png


Если выбор i-го варианта предопределен заранее (выбора, собственно говоря, нет, pi=1), то I=0.

Сообщение о наступлении события с меньшей вероятностью несет в себе больше информации, чем сообщение о наступлении события с большей вероятностью. Сообщение о наступлении достоверно наступающего события несет в себе нулевую информацию (и это вполне ясно: событие всё равно произойдет когда-либо).

Пример. Если положение точки в системе известно, в частности, она - в k-ой клетке, т.е. все рi=0, кроме рk=1, то тогда I=log21=0 и мы здесь новой информации не получаем (как и следовало ожидать).

Пример. Выясним, сколько бит информации несет произвольное двузначное число со всеми значащими цифрами (отвлекаясь при этом от его конкретного числового значения, т.е. каждая из возможных цифр может появиться на данном месте, в данном разряде с одинаковой вероятностью). Так как таких чисел может быть всего 90 (10-99), то информации будет количество I=log290 или приблизительно I=6,5. Так как в таких числах значащая первая цифра имеет 9 значений (1-9), а вторая - 10 значений (0-9), то I=log290=log29+log210. Приблизительное значение log210 равно 3,32. Итак, сообщение в одну десятичную единицу несет в себе в 3,32 больше информации, чем в одну двоичную единицу (чем log22=1), а вторая цифра, например, в числе аа, несет в себе больше информации, чем первая (если цифры а обоих разрядов неизвестны; если же эти цифры а известны, то выбора нет и информация равна нулю).

Если в формуле Шеннона обозначить fi=-nlog2 pi, то получим, что I можно понимать как среднеарифметическое величин fi.

Отсюда, fi можно интерпретировать как информационное содержание символа алфавита с индексом i и величиной pi вероятности появления этого символа в сообщении, передающем информацию.

Пример. Пусть рассматривается алфавит из двух символов русского языка - "к" и "а". Относительные частоты встречаемости этих букв в частотном словаре русского языка равны соответственно p1=0.028, p2=0.062. Возьмем произвольное слово p длины N из k букв "к" и m (k+m=N) букв "а" над этим алфавитом. Число всех таких возможных слов, как это следует из комбинаторики, равно n=N!/(k! m!). Оценим количество информации в таком слове: I=log2n=lnn/ln2=log2e[lnN!-lnk!-lnm!]. Используя известную формулу Стирлинга (эта формула, как известно из математического анализа, достаточно точна при больших N, например, при N>100) - N!≈(N/e)
N), а точнее, ее важное следствие, - lnN!≈N(lnN-1), получаем оценку количества информации (в битах) на 1 символ любого слова:

I1=I/N≈(log2e/N)[(k+m)(lnN -1) - k(ln k-1) - m(ln m-1)]=

=(log2e/N)[k ln(N/k) - m ln(N/m)]=

= - log2e[(k/N) ln(k/N) + (m/N) ln(m/N)]
http://lib.znate.ru/pars_docs/refs/1/367/367_html_m1ff8ab98.png

http://lib.znate.ru/pars_docs/refs/1/367/367_html_m1ff8ab98.png-log2e [p1 ln p1+p2 ln p2]=

=-log2e[0,028 ln0,028+0,062 ln0,062]≈ 0,235.

Пример. В сообщении 4 буквы "a", 2 буквы "б", 1 буква "и", 6 букв "р". Определим количество информации в одном таком (из всех возможных) сообщений. Число N различных сообщений длиной 13 букв будет равно величине: N=13!/(4!×2!×1!×6!)=180180. Количество информации I в одном сообщении будет равно величине: I=log2(N)=log2180180≈18 (бит).

Если k - коэффициент Больцмана, известный в физике как k=1.38×10
-16 эрг/град, то выражение

http://lib.znate.ru/pars_docs/refs/1/367/367_html_4b54d026.png


в термодинамике известно как энтропия, или мера хаоса, беспорядка в системе. Сравнивая выражения I и S, видим, что I можно понимать как информационную энтропию (энтропию из-за нехватки информации о/в системе).

Л. Больцман дал статистическое определение энтропии в 1877 г. и заметил, что энтропия характеризует недостающую информацию. Спустя 70 лет, К. Шеннон сформулировал постулаты теории информации, а затем было замечено, что формула Больцмана инвариантна информационной энтропии, и была выявлена их системная связь, системность этих фундаментальных понятий.

Важно отметить следующее.

Нулевой энтропии соответствует максимальная информация. Основное соотношение между энтропией и информацией:

I+S(log2e)/k=const

или в дифференциальной форме

dI/dt= -((log2e)/k)dS/dt.

При переходе от состояния S1 с информацией I1 к состоянию S2 с информацией I2 возможны случаи:



  1. S1 < S2 (I1 >I2) - уничтожение (уменьшение) старой информации в системе;



  2. S1 = S2 (I1 = I2) - сохранение информации в системе;



  3. S1 > S2 (I1 < I2) - рождение новой (увеличение) информации в системе.



Главной положительной стороной формулы Шеннона является ее отвлеченность от семантических и качественных, индивидуальных свойств системы. В отличие от формулы Хартли, она учитывает различность, разновероятность состояний - формула имеет статистический характер (учитывает структуру сообщений), делающий эту формулу удобной для практических вычислений. Основной отрицательной стороной формулы Шеннона является то, что она не различает состояния (с одинаковой вероятностью достижения, например), не может оценивать состояния сложных и открытых систем и применима лишь для замкнутых систем, отвлекаясь от смысла информации. Теория Шеннона разработана как теория передачи данных по каналам связи, а мера Шеннона - мера количества данных и не отражает семантического смысла.

Увеличение (уменьшение) меры Шеннона свидетельствует об уменьшении (увеличении) энтропии (организованности) системы. При этом энтропия может являться мерой дезорганизации систем от полного хаоса (S=S
max) и полной информационной неопределенности (I=Imin) до полного порядка (S=Smin) и полной информационной определённости (I=Imax) в системе.

3. Термодинамическая мера. Информационно-термодинамический подход связывает величину энтропии системы с недостатком информации о внутренней структуре системы (не восполняемым принципиально, а не просто нерегистрируемым). При этом число состояний определяет, по существу, степень неполноты наших сведений о системе.

Пусть дана термодинамическая система (процесс) S, а Н0, Н1 - термодинамические энтропии системы S в начальном (равновесном) и конечном состояниях термодинамического процесса, соответственно. Тогда термодинамическая мера информации (негэнтропия) определяется формулой:

Н(Н0,Н1)=Н0 - Н1.

Эта формула универсальна для любых термодинамических систем. Уменьшение Н(Н0,Н1) свидетельствует о приближении термодинамической системы S к состоянию статического равновесия (при данных доступных ей ресурсах), а увеличение - об удалении.

Поставим некоторый вопрос о состоянии термодинамической системы. Пусть до начала процесса можно дать p1 равновероятных ответов на этот вопрос (ни один из которых не является предпочтительным другому), а после окончания процесса - p2 ответов. Изменение информации при этом:

ΔI=k ln(p1 / p2)=k (ln p1 - ln p2 ).

Если p1>p2 (ΔI>0) - идет прирост информации, т.е. сведения о системе стали более определенными, а при p1
2
(ΔI<0) - менее определенными. Универсально то, что мы не использовали явно структуру системы (механизм протекания процесса).

Пример. Предположим, что имеется развивающаяся социально-экономическая система с числом состояний 10, которая в результате эволюции развилась до системы с числом состояний 20. Нас интересует вопрос о состоянии некоторого составного элемента системы (например, предприятия). В начале мы знали ответ на вопрос и поэтому p1=1 (lnp1=0). Число ответов было пропорционально величине [ln10]. После развития мы знаем уже микроэкономическое состояние, т.е. изменение информации о состоянии системы равно ΔI = -kln(20/10) = -kln2 (нат).

Пример. Предположим, что имеется термодинамическая система - газ в объеме V , который расширяется до объема 2V (рис. 6.1).

http://lib.znate.ru/pars_docs/refs/1/367/367_html_m516ae6a2.png

1   2   3   4   5   6   7   8   9   10

Похожие:

Конспект лекций по системному анализу Лекция: История, предмет, цели системного анализа 2 iconКонспект лекций по системному анализу
Социальная геронтология: Учебная программа дисциплины / Сост. Т. В. Коробицина; сфу, 2009
Конспект лекций по системному анализу Лекция: История, предмет, цели системного анализа 2 iconКонспект лекций по курсу «операционные системы» Москва 2007 Лекция...
Существует три основных подхода к разработке ос и системного по с точки зрения инструментальных средств
Конспект лекций по системному анализу Лекция: История, предмет, цели системного анализа 2 iconЛекция I и проблема языка и сознания лекция II 31 слово и его семантическое...
Монография представляет собой изложение курса лекций, про* читанных автором на факультете психологии Московского государственного...
Конспект лекций по системному анализу Лекция: История, предмет, цели системного анализа 2 iconКонспект лекций Р. М. Гимаева Тема Предмет социальной геронтологии....
Государственное бюджетное образовательное учреждение основная общеобразовательная школа с. Покровка муниципального района Кинельский...
Конспект лекций по системному анализу Лекция: История, предмет, цели системного анализа 2 iconКонспект лекций по социальной экологии раздел Экологическое знание:...
Программа предназначена для обучающихся 2 курса по профессии «Повар, кондитер» на базе одиннадцати классов, имеющих основные знания...
Конспект лекций по системному анализу Лекция: История, предмет, цели системного анализа 2 iconД. соменков д ю. н профессор цикл лекций: подготовка аспирантов на...
Государственный научно-исследовательский институт системного анализа счётной палаты российской федерации
Конспект лекций по системному анализу Лекция: История, предмет, цели системного анализа 2 iconКонспект лекций по дисциплине введение в профессию социальная работа...
Техника безопасности – см приложение Сообщается о мерах, которые надо соблюдать по предупреждению травматизма на занятиях по гимнастике....
Конспект лекций по системному анализу Лекция: История, предмет, цели системного анализа 2 iconКонспект урока по литературе в 5 классе на тему: Картины природы...
Обучающая: формирование умений и навыков по филологическому анализу поэтического текста, обучение выразительному чтению, элементам...
Конспект лекций по системному анализу Лекция: История, предмет, цели системного анализа 2 iconПредмет и методы анализа Предмет и подходы
История детской психологии: Учебник для студ пед вузов. – М.: Гуманит изд центр владос, 1998. – 272 с
Конспект лекций по системному анализу Лекция: История, предмет, цели системного анализа 2 iconЛекция по предмету «История искусства»
Представить предмет «История искусства» как взаимосвязанную в своем развитии историю стилей с акцентом на описании
Конспект лекций по системному анализу Лекция: История, предмет, цели системного анализа 2 iconСхема системного анализа современного урока
Обучающая: учитель определяет цели урока, информи­рует учащихся о путях реализации целей на уроке
Конспект лекций по системному анализу Лекция: История, предмет, цели системного анализа 2 iconЛекция религии современных неписьменных народов: человек и его мир...
Редактор Т. Липкина Художник Л. Чинёное Корректор Г. Казакова Компьютерная верстка М. Егоровой
Конспект лекций по системному анализу Лекция: История, предмет, цели системного анализа 2 icon1. Предмет и задачи курса «История государства и права Беларуси»
Лекция Предмет «Истории государства и права Беларуси»: сущность, содержание, особенности
Конспект лекций по системному анализу Лекция: История, предмет, цели системного анализа 2 iconКонспект лекций математическое моделирование систем управления
Худенко Е. Д. Требования к планированию и анализу коррекционно- развивающих уроков. [Текст] / Е. Д. Худенко // Развитие и коррекция....
Конспект лекций по системному анализу Лекция: История, предмет, цели системного анализа 2 iconУчебно-методический комплекс по дисциплине «Основы системного анализа...
«Основы системного анализа и управления в таможенном деле» составлен в соответствии с требованиями Государственного образовательного...
Конспект лекций по системному анализу Лекция: История, предмет, цели системного анализа 2 iconРеферат по теории систем и системному анализу на тему: «Кибернетика»
Запуском первого искусственного спутника Земли и полетом первого человека в космос наша страна проложила путь к освоению космического...


Школьные материалы


При копировании материала укажите ссылку © 2013
контакты
100-bal.ru
Поиск