1. ВЕРОЯТНОСТНЫЕ МЕТОДЫ МОДЕЛИРОВАНИЯ ЭКОНОМИЧЕСКИХ СИСТЕМ
Основы вероятностных методов анализа и моделирования экономических систем
Элементарные понятия о случайных величинах, событиях и функциях
В результате многократного повторения одних и тех же условий, которые носят название испытаний или опытов, можно наблюдать появление или непоявление в них некоторого события. Такое событие, которое может произойти или не произойти в результате опыта, называется случайным. Совокупность условий, в которых рассматривается данное событие, называют комплексом условий, а реализацию этого комплекса условий на практике - испытанием. В зависимости от связи между событиями и соответствующими комплексами условий различают достоверные, невозможные и случайные события.
Достоверным называется такое событие (U), которое наступает каждый раз при реализации данного комплекса условий.
Невозможным называется событие (µ §, которое никогда не наступает при реализации данного комплекса условий.
Случайным называется событие, которое может либо наступить при реализации данного комплекса условий, либо не наступить.
Элементарное событие ЁC это один из нескольких возможных, но несовместных исходов того или иного опыта (испытания). Совокупность или множество их составляют пространство элементарных событий.
В общем случае пространство элементарных событий может быть любой природы: конечным и бесконечным, дискретным и непрерывным. Пространство элементарных событий является синонимом достоверного события, так как один из его элементов непременно наступит.
Пустое множество ЁC это множество, не содержащее элементарных событий. Очевидно, что пустое множество является синонимом невозможного события.
При изучении случайных событий в ходе системного анализа и моделирования информационных процессов и систем используется группа событий, между которыми существуют определенные соотношения, позволяющие выражать одни события через другие.
Рассмотрим эти соотношения:
Событие А содержится в событии В(А µ § В). Если при каждом испытании, при котором происходит событие А, непременно происходит и событие В, то говорят, что событие А содержится в событии В или принадлежит событию В;
Тождественные события (А = В). Если событие А содержится в событии В, а событие В содержится в событии А, то говорят, что события А и В тождественны или равносильны;
Произведение событий (µ §). Произведением (или пересечением) событий А и В называется событие С, состоящее в совместном наступлении этих событий. Другими словами, множество С содержит элементы, принадлежащие множествам А и В (µ §);
Несовместные события (А * В = µ §. События А и В называются несовместными, если их совместное появление при испытании невоз-
можно;
Сумма событий (µ §) . Суммой событий А и В называется событие С, состоящее в наступлении хотя бы одного из этих событий. Множество С содержит элементы, принадлежащие хотя бы одному из множеств А или В;
Полная группа событий (µ §. События А и В составляют полную группу событий, если при реализации заданного комплекса условий непременно появится хотя бы одно из этих событий. Сумма всех таких событий есть событие достоверное;
Противоположное событие. Два события А и А (читается «не А») называются противоположными, если они составляют полную группу несовместных событий, т.е. удовлетворяют условию µ §.
При классическом определении за вероятность события А принимается отношение числа благоприятных этому событию элементарных исходов (m) к общему числу возможных исходов (n):
µ §
Вероятность и частота (µ §события тесно связаны между собой. Зная частоту, вычисленную при достаточно большом числе испытаний, есть все основания считать ее близкой к соответствующей вероятности и полагать, что
µ §
Такой способ определения вероятности события Р(А) называется статистическим.
Частота случайного события А находится в интервале [0;1]:
µ §
Частота достоверного события равна единице. Частота невозможного события равна нулю.
Свойства вероятностей событий:
Вероятность невозможного события равна нулю, т. е. µ §;
Для любого события А вероятность противоположного события В равна µ §;
Если событие А влечет за собой событие В, т. е. А В, то µ §;
Вероятность события А заключена между нулем и единицей, т.е. µ §;
Вероятность двух событий А и В равна сумме вероятностей этих событий без вероятности их произведения: µ §.
Вероятность события определяется при условии реализации некоторой совокупности условий. Если никаких ограничений, кроме упомянутых условий, при вычислении вероятности Р(А) не налагается, то такие вероятности называются безусловными. Однако в ряде случаев приходится находить вероятности событий при условии, что произошло некоторое событие B, имеющее положительную вероятность. Такие вероятности называются условными и обозначаются Р(А/В).
Событие А называется независимым от другого события В, если вероятность события А не изменяется от того, наступает событие В или нет. В противоположном случае событие А называется зависимым от события В. Следовательно, если события А и В независимые, то Р(А/В) = Р(А).
Вероятность произведения двух событий равна произведению вероятности одного из этих событий на условную вероятность другого при условии, что первое произошло:
Р(А * В) = Р(А) * Р(В/А) = Р(В) * Р{А/В}
Вероятность произведения независимых событий равна:
Р(А * В) = Р(А) * Р(В)
Вероятность произведения n случайных событий равна произведению вероятности одного из них на условные вероятности остальных, вычисленных при условии, что все предшествующие события произошли.
Правило сложения вероятностей двух событий гласит, что вероятность наступления хотя бы одного из двух событий равна сумме вероятностей этих событий без вероятности их совместного наступления:
Р(А + В) = Р(А) + Р(В) - Р(АВ)
Если события несовместны, то правило сложения вероятностей принимает вид:
Р(А + В) = Р(А) + Р(В)
Если несовместные события составляют полную группу, т. е.
А1 + А2 + ... + Ап = µ § и Аi * Аj = µ §, i Ѓ‚ j, то
µ §.
Случайные события могут быть представлены через случайные величины. Случайной называется такая величина, которая в результате испытания (реализации определенного комплекса условий) может принять то или иное значение, причем до испытания неизвестно, какое именно. Если повторять испытания, то результатом каждого будет какое-либо одно значение случайной величины из множества возможных.
Случайные величины подразделяются на дискретные и непрерывные.
Множество значений дискретной случайной величины конечно или счетно, например: количество отказов автомобилей автопредприятия в течение рабочей смены; число рабочих, пришедших в бухгалтерию завода в течение одного часа получать заработную плату, и т. д.
Множество значений непрерывной случайной величины представляет собой множество всех точек, принадлежащих какому-либо интервалу числовой оси, например: расход топлива на километр пробега; время безотказной работы автомобиля и т. д.
Кроме дискретной и непрерывной случайных величин встречаются случайные величины смешанного типа, для которых наряду с участками непрерывных значений имеются отдельные, изолированные значения.
Закон распределения случайной величины представляет собой соотношение, позволяющее определить вероятность появления случайной величины в любом интервале.
Основными формами закона распределения являются: ряд распределения, функция распределения и плотность распределения.
Ряд распределения представляет собой таблицу, в которой перечислены возможные значения случайной величины и соответствующие им вероятности:
XiX1X2X3ЎK.XnPiP1P2P3ЎK.PnВ таблице Xi - i-е значение случайной величины Х; Pi - вероятность появления i-го значения случайной величины X. При этом µ §
Эмпирический ряд распределения представляет собой таблицу, в которой перечислены наблюдаемые значения (фактические реализации) случайной величины и соответствующие им частоты:
XiX1X2X3ЎK.Xnmim1m2m3ЎK.mnВ таблице xi ЎЄ i-я фактическая (наблюдаемая) реализация случайной величины Х; mi ЎЄ количество появлений (частота) величины хi.
Ряды распределения, образованные из значений случайной величины, характеризующей качественный признак, называются атрибутивными. Ряды распределений, образованные из значений случайной величины, характеризующей количественный признак явления (события), называются вариационными.
Ряд распределения не может служить характеристикой непрерывной случайной величины, поскольку значения этой величины нельзя перечислить, так как множество их несчетно. Кроме того, вероятность отдельного значения непрерывной случайной величины равна нулю.
Для характеристики непрерывной случайной величины определяют вероятность появления значения случайной величины меньшего x, где x ЎЄ текущая переменная, т. е. определяют вероятность события X < х. Вероятность этого события зависит от x, т. е. является функцией х. Эта функция называется функцией распределения случайной величины X и обозначается F(x):
F(x) = Р(Х < х)
Таким образом, функцией распределения случайной величины X называется функция аргумента х, равная вероятности того, что случайная величина X примет любое значение, меньшее х.
Вероятность попадания случайной величины в полузамкнутый интервал [а, b) равна разности значений функции распределения в точках b и а:
µ §.
Функция распределения есть неубывающая функция, значения которой начинаются с нуля и доходят до единицы, причем в отдельных случаях функция может иметь скачки ЎЄ разрывы. Функцию распределения дискретной случайной величины можно определить, зная ее ряд распределения, по формуле:
µ §.
где суммирование распространяется на значения хi которые меньше х.
Поскольку для непрерывной случайной величины нельзя использовать в качестве характеристики вероятность появления ее отдельных значений, то определяют вероятность появления случайной величины в пределах малого интервала [х, х + Дх), примыкающего к x. Разделив эту вероятность на длину интервала Дх, находят среднюю плотность вероятности и при неограниченном уменьшении длины интервала переходят к пределу, который является плотностью распределения в точке х:
µ §.
Плотность распределения f (х) есть предел отношения вероятности попадания случайной величины на малый участок и длины этого участка при ее неограниченном уменьшении.
Вероятность попадания случайной величины на произвольный участок [a, b) равна:
µ §.
Интеграл в бесконечных пределах от плотности распределения равен единице, т. е.
µ §.
Это очевидно, так как указанный интеграл выражает вероятность достоверного события - попадания случайной величины на участок от - Ѓ‡ до Ѓ‡, а значит, равен единице.
График плотности распределения называется кривой распределения, лежащей в верхней полуплоскости. Кривая распределения совместно с осью абсцисс ограничивает площадь, равную единице (рис. 1.1).
Рис. 1.1. График плотности распределения (кривая распределения)
Вероятность попадания на участок [а, b) равна площади ограниченной кривой распределения, опирающейся на участок [а, b).
Плотность распределения есть производная функции распределения. С другой стороны:
µ §
откуда µ §.
Величину F (x) называют интегральной функцией распределения X. Величина f (x) ЁC дифференциальная функция распределения случайной величины X. Для оценки особенностей законов распределения случайных величин определяют числовые характеристики этих велчин.
Пример 1.1. В районе 100 поселков. В пяти из них находятся пункты проката сельхозтехники. Случайным образом отобраны два поселка. Какова вероятность того, что в них окажутся пункты проката?
Решение
Пусть А ЁC событие, состоящее в том, что в первом выбранном поселке находится пункт проката; В ЁC событие, состоящее в том, что во втором выбранном поселке находится пункт проката.
Вероятность события А: Р(А) = 5/100 = 0,05
Рассмотрим событие В при условии, что событие А произошло. Найдем условную вероятность: Р(В/А) = 4/99 = 0,04.
Искомая вероятность найдется как вероятность произведения двух событий: Р(АВ) = (5/100) *(4/99) = 1/495 = 0,002.