Общая трудоемкость дисциплины





Скачать 193.8 Kb.
НазваниеОбщая трудоемкость дисциплины
Дата публикации07.03.2015
Размер193.8 Kb.
ТипДокументы
100-bal.ru > Информатика > Документы


МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ ФЕДЕРАЦИИ

Федеральное государственное бюджетное образовательное учреждение

высшего профессионального образования

«Нижегородский государственный университет им. Н.И. Лобачевского»

Радиофизический факультет

Кафедра бионики и статистической радиофизики


УТВЕРЖДАЮ

Декан радиофизического факультета
____________________Якимов А.В.

«27» июня 2012 г.

Учебная программа
Дисциплины ЕН.Ф.05 «Теория информации»
по специальности 090106 «Информационная безопасность телекоммуникационных систем»

Нижний Новгород

2012 г.

1. Область применения

Данная дисциплина относится к общим математическим и естественнонаучным дисциплинам федерального компонента, преподается в 5 семестре.
2. Цели и задачи дисциплины

Содержание дисциплины направлено на ознакомления студентов с основными количественными характеристиками источников сообщений и каналов связи, принципами кодирования информации.
3. Требования к уровню освоения содержания дисциплины

В результате изучения дисциплины студенты должны

иметь представление:

  • о структуре построения систем связи;

знать:

  • математические модели источников сообщений;

  • основные методы кодирования информации;

уметь:

  • использовать базовые элементы теории информации для анализа поставленных задач;

  • пользоваться современной научно-технической информацией по курсу теории информации.


4.Объем дисциплины и виды учебной работы


Виды учебной работы

Всего часов

Семестры

Общая трудоемкость дисциплины

100

5

Аудиторные занятия

51

51

Лекции

34

34

Практические занятия (ПЗ)

17

17

Семинары (С)







Лабораторные работы (ЛР)







Другие виды аудиторных занятий







Самостоятельная работа

49

49

Курсовой проект (работа)







Расчетно-графическая работа







Реферат







Другие виды самостоятельной работы







Вид итогового контроля (зачет, экзамен)

экзамен

экзамен


5. Содержание дисциплины

5.1. Разделы дисциплины и виды занятий


№п/п

Раздел дисциплины

Лекции

ПЗ (или С)

ЛР

1.

Математические модели дискретных систем передачи информации.

4

2




2.

Пропускная способность дискретных каналов связи с шумами. Кодирование при наличии помех.

4

3




3.

Математические модели непрерывных систем передачи информации.

4

2




4.

Основы помехоустойчивого кодирования.

6

2




5.

Элементы теории случайных процессов

6

4




6.

Спектрально - корреляционный анализ случайных процессов.

6

2




7.

Элементы теории оптимальной обработки сигналов

4

2





5.2. Содержание разделов дисциплины
Раздел 1. Математические модели дискретных систем передачи информации.

1.1 Энтропия дискретных систем.

Энтропия как мера степени неопределенности случайной системы. Основные свойства энтропии. Теорема о максимальном значении энтропии. Энтропия сложной системы, частная и полная. Теорема сложения энтропий для зависимых подсистем.

1.2. Количество информации в дискретных системах.

Определение частной информации, доставляемой одним событием о другом. Собственная информация события. Среднее количество информации, ее связь с энтропией. Основные свойства. “Потерянная” и “шумовая” информации. Дискретный канал связи с помехами (без памяти). Зависимость количества информации, передаваемой по каналу, от величины действующих помех.

1.3. Кодирование дискретных сообщений в отсутствии помех.

Кодирование сообщений, обратимость кода. Теорема Шеннона о кодировании сообщений в отсутствии помех. Теорема Крафта. Проверка условия однозначного декодирования. Блочное кодирование. Оптимальное кодирование в отсутствии помех. Код Шеннона-Фано, код Хафмана. Модели реальных дискретных сообщений. Энтропийные характеристики случайных последовательностей. Средняя энтропия на один символ сообщения. Обобщение основной теоремы Шеннона о кодировании на стационарные случайные последовательности. Избыточность и коэффициент сжатия реальных языков и сообщений.
Раздел 2. Пропускная способность дискретных каналов связи с шумами. Кодирование при наличии помех.

Скорость создания информации. Пропускная способность каналов связи с помехами. Каналы связи симметричные по входу и выходу. Пропускная способность полностью симметричных каналов связи. Фундаментальное Е-свойство энтропии дискретных эргодических процессов, “высоковероятная” и “маловероятная” группы реализаций, следствия из Е свойства. Кодирование в каналах связи с шумами. Основная теорема Шеннона о кодировании в присутствии шумов.
Раздел 3. Математические модели непрерывных систем передачи информации.

3.1. Энтропийные характеристики непрерывных случайных величин.

Дифференциальная (относительная) энтропия. Частная и полная условные энтропии. Дифференциальная энтропия системы случайных величин. Принцип максимума энтропии. Экстремальные распределения.

3.2. Количество информации в непрерывных системах. Непрерывные каналы связи.

Непрерывные системы связи. Теорема дискретизации Котельникова. Количество информации, его выражение через дифференциальные энтропии. Количество информации, передаваемое по непрерывному каналу связи с гауссовским входом и выходом. Пропускная способность непрерывного канала связи с гауссовской аддитивной помехой. Проблемы передачи непрерывной информации с оценкой ошибок дискретизации по времени и по амплитуде. Возможности информационного подхода к оценке качества функционирования систем связи.
Раздел 4. Основы помехоустойчивого кодирования.

4.1. Основные принципы помехоустойчивого кодирования.

Простейшие помехоустойчивые коды. Значность кода, вес кодовой комбинации, вектор и кратность ошибки. Кодовое расстояние и его связь с исправляющей способностью кода. Минимальное кодовое расстояние для кодов, исправляющих ошибки. Геометрическая модель комбинаций двоичного кода.

4.2. Построение корректирующих кодов с заданной исправляющей способностью.

Показатели качества корректирующих кодов. Классификация помехоустойчивых кодов. Линейные блочные коды с проверкой на четность, систематические коды. Принципы кодировки и декодировки сообщений, порождающие и проверочные матрицы систематических кодов. Примеры линейных кодов: коды Хемминга, циклические коды, их основные свойства.
Раздел 5. Элементы теории случайных процессов.

5.1. Определение и вероятностное описание случайного процесса.

Понятие статистического ансамбля. Вероятностное описание случайного процесса с помощью многомерных плотностей вероятностей. Основные свойства многомерных плотностей вероятностей. Условные плотности вероятностей, их свойства и связь с могомерными безусловными плотностями вероятностей.

5.2. Классификация случайных процессов по их вероятностному последействию.

Совершенно случайные процессы, марковские процессы и их описание. Уравнение Смолуховского для условной плотности вероятности марковского процесса. Квазидетерминированные случайные процессы.

5.3. Многомерные характеристические, моментные и кумулянтные функции случайного процесса.

Характеристическая функция, определение и свойства. Моментные и кумулянтные функции, их взаимосвязь. Корреляционная и ковариационная функции случайного процесса. Коэффициент корреляции.

5.4. Гауссовские случайные процессы.

Многомерная характеристическая функция и плотность вероятностей гауссовского процесса. Информация необходимая для полного описания гауссовского случайного процесса. Ковариационная матрица отсчетов случайного процесса. Основные свойства гауссовских случайных процессов.

5.5. Стационарные и эргодические случайные процессы.

Понятие стационарности в узком и широком смысле.Усреднение по статистическому ансамблю и по времени. Эргодичность случайных процессов. Необходимые и достаточные условия эргодичности по отношению к среднему значению, корреляционной функции, одномерной плотности вероятности. Экспериментальное измерение основных статистических характеристик эргодических случайных процессов.

5.6. Совокупности случайных процессов.

Общее описание совокупности двух случайных процессов. Статистическая независимость случайных процессов. Взаимные корреляционные и ковариационные функции. Стационарность, эргодичность, гауссовость совокупности двух случайных процессов.
Раздел 6. Спектрально - корреляционный анализ случайных процессов.

6.1 Корреляционные функции.

Свойства корреляционных функций нестационарных и стационарных случайных процессов. Среднее значение и корреляционная функция производной и интегрального преобразования от случайного процесса.

6.2. Спектрально-корреляционный анализ сигналов 1-ой группы с конечной энергией.

Спектральная плотность энергии, функция корреляции первого рода и их свойства. Преобразование сигналов первой группы линейными системами.

6.3. Спектрально-корреляционный анализ сигналов П-ой группы с конечной мощностью.

Спектральная плотность мощности. Соотношение между спектральной плотностью мощности и корреляционной функцией для стационарных случайных процессов (формула Винера-Хинчина). Спектральная плотность мощности нестационарных сигналов П-ой группы. Функция корреляции второго рода. Ширина спектра случайного процесса, ее связь со временем корреляции. Узкополосные случайные процессы. Амплитуда и фаза случайного процесса. Представление узкополосного случайного процесса с помощью квадратурных компонент. Преобразование сигналов П-ой группы линейными системами. Приближение “белого” шума.

6.4. Совместные (взаимные) спектральные плотности энергии и мощности случайных процессов.

Взаимные функции корреляции первого и второго рода. Взаимные спектры, синфазная и квадратурная составляющие взаимных спектров. Взаимная спектральная плотность мощности входа и выхода линейной системы, выходных сигналов двух линейных систем. Основные неравенства для взаимных спектров. Функция когерентности. Применение взаимных корреляционных функций и спектров для определения источников шума и каналов его распространения.

6.5. Спектрально-корреляционный анализ нелинейных преобразованных случайных процессов.

Спектрально-корреляционный анализ нелинейных безынерционных преобразований (НБП) случайных гауссовских процессов. Выражение корреляционной функции выходного процесса в виде ряда по ковариационной функции входного процесса. Взаимная корреляционная и ковариационная функции входа и выхода НБП.
Раздел 7. Элементы теории оптимальной обработки сигналов.

7.1 Классификация задач оптимальной обработки сигналов.

Статистическая модель канала связи. Оптимальное обнаружение, различение, измерение параметров, фильтрация сигналов.

7.2. Оптимальное обнаружение сигналов при дискретных наблюдениях.

Двухальтернативная постановка задачи. Критерий идеального наблюдателя. Отношение правдоподобия. Структурная схема оптимального обнаружителя. Другие критерии оптимальности. Обнаружение детерминированного полезного сигнала на фоне гауссовских помех.

7.3. Оптимальное обнаружение сигналов при непрерывных наблюдениях.

Функционал отношения правдоподобия. Случай обнаружения детерминированного сигнала на фоне белого гауссовского шума. Корреляционный приемник. Согласованный фильтр. Отношение сигнал/шум на выходе согласованного фильтра. Анализ эффективности оптимального обнаружителя.
6. Лабораторный практикум.


№п/п

№ раздела дисциплины

Наименование лабораторных работ

1

5

Оценивание параметров случайного процесса

2

6

Измерение спектров шумов


7. Учебно-методическое обеспечение дисциплины

7.1. Рекомендуемая литература.

а) основная литература:

1. Шеннон К. Работы по теории информации и кибернетике. М.: И.Л. 1963.

2. Фано Р. Передача информации. Статистическая теория связи. М.: Мир. 1965.

3. Стратанович Р.Л. Теория информации. М.: Сов. радио, 1977.

4. КузьминИ.В., Кедрус В.А. Основы теории информации и кодирования. Киев.: Высш. шк. 1977

5. Домбровский Е.А., Иванов А.О., Ларионов А.А., Мальцев А.А. Пособие по курсу «Теория информации» ННГУ, 2003.

6. Рытов С.М. Введение в статистическую радиофизику. Часть 1. М.: Наука, 1976.

7. Тихонов В.И. Статистическая радиотехника. М.: Радио и связь, 1982.

8. Левин Б.Р. Теоретические основы статистической радиотехники. М.: Радио и связь, 1989.

9. Тихонов В.И., Харисов И.Н. Статистический анализ и синтез радиотехнических устройств и систем. М.: Радио и связь, 1991.

10. Зачепицкая Л.П., Клибанова И.М. Измерение простейших характеристик случайных процессов, Горький, ГГУ, 1986.

11. Малахов А.Н., Саичев А.И. Спектрально-корреляционный анализ случайных процессов. Горький, ГГУ, 1979.
б) дополнительная литература:

1. Прокис Дж. Цифровая связь. Пер. с англ. М.: Радио и связь , 2000.

2. Финк Л.М. Теория передачи дискретных сообщений. М.: Сов. радио, 1970.
8. Вопросы для контроля

  1. Энтропия как мера степени неопределенности дискретной случайной системы. Единицы измерения энтропии. Основные свойства энтропии.

  2. Теорема о максимальном значении энтропии для системы с двумя состояниями и произвольным числом состояний.

  3. Энтропия сложной системы. Свойство аддитивности энтропии для сложной системы, состоящей из нескольких статистически независимых подсистем.

  4. Условные энтропии, частная и полная. Свойства условных энтропий, основные неравенства для условных энтропий (теорема о средней условной энтропии).

  5. Энтропия сложной системы, состоящей из нескольких зависимых подсистем. Ее связь с условными и безусловными энтропиями, максимальное значение энтропии сложной системы.

  6. Определение частной информации, доставляемой одним событием о другом, ее свойства. Собственная частная информация события. Среднее собственное количество информации сообщения, его связь с энтропией.

  7. Количество информации, как мера снятой неопределенности.Среднее количество информации, содержащееся в принятом сообщении Y о переданном сообщении X, основные свойства, связь с энтропией. “Потерянная “ и “шумовая” информация.

  8. Двоичный симметричный канал связи. Зависимость количества информации передаваемого по этому каналу связи от вероятности ошибок.

  9. Кодирование дискретных сообщений в отсутствии помех. Постановка задачи кодирования, обратимость и экономность кода. Средняя длина кодового слова. Определение нижней границы для средней длины кодового слова на основе понятий количества информации, необходимого для однозначного определения переданного символа.

  10. Выбор длины кодовых слов на основе понятия частной информации переданного сивола. Неравенства для средней длины кодового слова. Условия оптимальности кода при побуквенном кодировании.

  11. Условия однозначного декодирования. Теорема Крафта.

  12. Теорема Шеннона о кодировании сообщений в отсутствии помех (побуквенное кодирование).

  13. Блочное кодирование. Теорема Шеннона о кодировании независимых сообщений в отсутствии помех для блочного кодирования.

  14. Оптимальное кодирование. Коды Шенона-Фано и Хафмана.

  15. Энтропийные характеристики случайных последовательностей, состоящих из зависимых символов. Средняя энтропия на один символ сообщения.

  16. Теорема о существовании предельной условной энтропии для стационарной случайной последовательности. Средняя энтропия на один символ для стационарной случайной последовательности.

  17. Обобщение основной теоремы Шеннона о кодировании в отсутствии помех на стационарные случайные последовательности состоящие из зависимых сообщений.

  18. Избыточность сообщения и коэффициент сжатия. Избыточность реальных языков.

  19. Дискретные каналы связи с помехами. Стационарные каналы связи без памяти, их описание. Пропускная способность дискретных стационарных каналов связи без памяти.

  20. Пропускная способность дискретных каналов связи симметричных по входу. Каналы связи симметричные по входу и выходу, их пропускная способность.

  21. Фундаментальное свойство энтропии дискретных эргодических процессов (Е-свойство).

  22. Следствия из Е свойства эргодической случайной последовательности: “высокове­роятная” и “маловероятная” группы реализаций, число реализаций в “высоковероят­ной” группе.

  23. Скорость создания информации. Кодирование в каналах связи с помехами. Формулировка основной теоремы Шеннона о кодировании в канале связи с помехами.

  24. Доказательство основной теоремы Шеннона о кодировании в канале связи с помехами.

  25. Неопределенность непрерывных систем. Дифференциальная (относительная) энтропия. Энтропийные характеристики системы непрерывных случайных величин.

  26. Экстремальные распределения непрерывных случайных величин.

  27. Обобщение понятия количества взаимной информации на непрерывные системы. Свойства и связь количества взаимной информации с дифференциальными энтропиями.

  28. Непрерывный канал связи с дискретным временем и аддитивным шумом. Количество информации передаваемое по такому каналу связи.

  29. Пропускная способность непрерывного канала связи с аддитивным гауссовским шумом.

  30. Определение случайного процесса. Понятие статистического ансамбля. Вероятностное описание случайного процесса с помощью многомерных плотностей вероятности. Основные свойства многомерных плотностей вероятности случайного процесса.

  31. Двумерная условная плотность вероятности случайного процесса и ее основные свойства. Зависимость условной плотности вероятности от разности времен для процесса с конечным вероятностным последействием. Многомерные условные плотности вероятности, их свойства и связь с многомерными безусловными плотностями вероятности.

  32. Классификация случайных процессов по их вероятностному последействию. Совершенно случайные процессы и марковские процессы, их описание. Уравнение Смолуховского для условной плотности вероятности марковского процесса.

  33. Детерминированные и квазидетерминированные процессы, их описание в рамках теории случайных процессов, выражения для n-мерных плотностей вероятности.

  34. Квазигармонический процесс X(t) = A0cos(0t + ) со случайной начальной фазой, равномерно распределенной в интервале [-,]. Его одномерная плотность вероятности.

  35. Многомерная характеристическая функция случайного процесса и ее основные свойства.

  36. Моментные функции случайного процесса. Среднее значение и корреляционная функция. Связь моментных функций с характеристической функцией.

  37. Кумулянтные функции случайного процесса, их связь с характеристической функцией. Связь между кумулянтными и моментными функциями (на примере функций 1-го и 2-го порядка).

  38. Ковариационная функция случайного процесса. Дисперсия. Понятия некоррелиро-ванности и статистической независимости двух значений случайного процесса. Коэффициент корреляции.

  39. Гауссовские случайные процессы, их n-мерная характеристическая функция и плотность вероятности. Информация, необходимая для полного описания гауссовского случайного процесса.

  40. Ковариационная матрица n отсчетов случайного процесса и ее основные свойства.

  41. Основные свойства гауссовских случайных процессов. Выражение n-мерных моментных функций гауссовского случайного процесса с нулевым средним значением через ковариационную функцию.

  42. Стационарные случайные процессы. Понятия стационарности в узком и широком смысле, их взаимоотношение.

  43. Стационарность квазидетерминированных случайных процессов (рассмотреть на примерах X(t) = A0cos(0t + ); X(t) = S(t +0), где  и 0 - случайные величины, S(t) - периодическая детерминированная функция).

  44. Эргодичность случайных процессов. Вывод необходимых и достаточных условий эрго-дичности по отношению к среднему значению .

  45. Привести пример стационарного, но неэргодического случайного процесса (стати-стического ансамбля) с доказательством и обсуждением причин неэргодичности.

  46. Необходимые и достаточные условия эргодичности по отношению к корреляционной функции случайного процесса (для произвольного и гауссовского процессов).

  47. Достаточное условие эргодичности случайного процесса по отношению к одномерной плотности вероятности. Экспериментальное определение одномерной плотности вероятности эргодического случайного процесса.

  48. Общее описание совокупности двух случайных процессов. Понятие статистической независимости двух случайных процессов. Взаимные корреляционная и ковариа-ционная функции. Понятие некоррелированности двух случайных процессов.

  49. Понятия стационарности, эргодичности, гауссовости совокупности двух случайных процессов. Разобрать пример двух стационарных, но нестационарно связанных случайных процессов.

  50. Свойства корреляционной функции произвольного нестационарного случайного процесса.

  51. Свойства корреляционной функции стационарного случайного процесса.

  52. Типичные примеры корреляционных функций стационарных случайных процессов. Понятие времени корреляции.

  53. Дифференцирование случайного процесса. Корреляционная функция и среднее значение производной от нестационарного случайного процесса.

  54. Производная от стационарного случайного процесса, ее среднее значение и корреляционная функция (привести примеры нахождения).

  55. Среднее значение и корреляционная функция интегрального преобразования случайного процесса.

  56. Сигналы I-ой группы. Спектральная плотность энергии детерминированного сигнала I-ой группы. Преобразование спектральной плотности энергии детерминированных сигналов I-ой группы при прохождении через линейные системы.

  57. Спектральная плотность энергии случайных сигналов I-ой группы, функция корреляции I-го рода, ее свойства.

  58. Преобразование спектральной плотности энергии и функции корреляции случайных сигналов I-ой группы при прохождении их через линейные системы.

  59. Сигналы II-ой группы. Спектральная плотность мощности. Соответствие между спектральной плотностью мощности и корреляционной функцией для стационарных случайных процессов (формула Винера-Хинчина).

  60. Спектральная плотность мощности нестационарных процессов II-ой группы. Функция корреляции II-го рода.

  61. Привести примеры стационарных сигналов II-ой группы (типичных пар: корреляционная функция - спектральная плотность мощности). Как влияет постоянное смещение на вид спектральной плотности мощности случайного процесса.

  62. Спектральная плотность мощности детерминированного гармонического сигнала, квазигармонического сигнала со случайной фазой и гармонического сигнала, модулированного по амплитуде стационарным случайным процессом.

  63. Ширина спектра случайного процесса, ее связь со временем корреляции. Узкополосные случайные процессы.

  64. Преобразование спектральной плотности мощности, функции корреляции II-го рода при прохождении случайного процесса через линейную систему.

  65. Приближение “белого шума”. Квазистатистическое приближение.

  66. Совместные функции корреляции (I и II-го рода) и спектральные плотности (энергии и мощности). Спектральная плотность мощности на выходе суммирующей цепочки.

  67. Взаимная спектральная плотность мощности и функция когерентности. Их практическое использование для решения задач технической диагностики.

  68. Формулировка задачи оптимального обнаружения сигнала на фоне шума при дискретных наблюдениях. Отношение правдоподобия. Понятие достаточной статистики.

  69. Оптимальное обнаружение детерминированного сигнала на фоне аддитивного гауссовского шума. Дискретные наблюдения.

  70. Оптимальное обнаружение детерминированного сигнала на фоне аддитивного “белого” гауссовского шума. Непрерывные наблюдения.

  71. Согласованный фильтр, его импульсная переходная характеристика и коэффициент передачи. Характеристики сигнала и отношение сигнал/шум на выходе согласованного фильтра.


9. Критерии оценок


Превосходно

Превосходная подготовка с очень незначительными погрешностями

Отлично

Подготовка, уровень которой существенно выше среднего с некоторыми ошибками

Очень хорошо

В целом хорошая подготовка с рядом заметных ошибок

Хорошо

Хорошая подготовка, но со значительными ошибками

Удовлетворительно

Подготовка, удовлетворяющая минимальным требованиям

Неудовлетворительно

Необходима дополнительная подготовка для успешного прохождения испытания

Плохо

Подготовка совершенно недостаточная


10. Примерная тематика курсовых работ и критерии их оценки

Курсовые работы не предусмотрены.

Программа составлена в соответствии с Государственным образовательным стандартом по специальности 090106 «Информационная безопасность телекоммуникационных систем».

Автор программы ____________ Мальцев А.А.

Программа рассмотрена на заседании кафедры 26 апреля 2012 г. протокол № 18

Заведующий кафедрой ___________________ Мальцев А.А.

Программа одобрена методической комиссией факультета 17 мая 2012 г.

протокол № 02/12

Председатель методической комиссии_________________ Миловский Н.Д.


Добавить документ в свой блог или на сайт

Похожие:

Общая трудоемкость дисциплины iconАннотированное содержание программы дисциплины «Общая экология» по...
Общая трудоемкость дисциплины составляет 3 зачетные единицы, 108 часов. Курс 2, семестр 4
Общая трудоемкость дисциплины iconАннотации программ дисциплин Аннотация дисциплины «Общая химическая...
Рецензент программы: д э н., проф. Орешкин В. А., профессор кафедры Международной торговли и внешней торговли РФ
Общая трудоемкость дисциплины iconОбщая трудоемкость дисциплины
Дисциплины опд. Ф. 17 «Метрология и электрорадиоизмерения в телекоммуникационных системах»
Общая трудоемкость дисциплины iconСамостоятельная работа 46 ч
Общая трудоемкость дисциплины: 100 часов, в т ч лекции – 22 ч., семинары 32 ч
Общая трудоемкость дисциплины iconТематический план изучения дисциплины «экология»
Семестр Форма промежуточной аттестации – зачет. Общая трудоемкость дисциплины составляет 2 зачетных единицы, 72 часа
Общая трудоемкость дисциплины iconАксиология
Общая трудоемкость изучения дисциплины составляет 3 зачетные единицы (108 часов)
Общая трудоемкость дисциплины iconОбщая трудоемкость дисциплины
Данная дисциплина относится к дисциплинам по выбору, преподается в 1 и 2 семестрах
Общая трудоемкость дисциплины iconОбщая трудоемкость дисциплины
Данная дисциплина относится к дисциплинам специализации, преподается в 7 семестре
Общая трудоемкость дисциплины iconОбщая трудоемкость дисциплины
Данная дисциплина относится к дисциплинам специализации, преподается в 8 семестре
Общая трудоемкость дисциплины iconРабочая программа дисциплины «Педагогика высшей школы»
Общая трудоемкость изучения дисциплины составляет 6 зет (216 часа). Форма обучения: очная и заочная
Общая трудоемкость дисциплины iconОбщая трудоемкость дисциплины
Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования
Общая трудоемкость дисциплины iconЗаконодательство по бжд
Общая трудоемкость дисциплины: 100 часов, в т ч лекции 36 ч., семинары – 18 ч., самостоятельная работа – 46 ч
Общая трудоемкость дисциплины iconАннотированное содержание программы дисциплины «факультетская хирургия,...
Общая трудоемкость изучения дисциплины составляет 5 зачетных единиц, 180 академических часов
Общая трудоемкость дисциплины iconАннотированное содержание программы дисциплины «Челюстно-лицевое...
Общая трудоемкость изучения дисциплины составляет 3 зачетные единицы, 108 академических часов
Общая трудоемкость дисциплины iconЗадачами изучения дисциплины являются
Общая трудоемкость изучения дисциплины составляет 3 зачетных единицы (108 часов)
Общая трудоемкость дисциплины iconЗадачами изучения дисциплины являются
Общая трудоемкость изучения дисциплины составляет 3 зачетных единицы (108 часов)


Школьные материалы


При копировании материала укажите ссылку © 2013
контакты
100-bal.ru
Поиск