Теории обнаружения сигнала





Скачать 211.77 Kb.
НазваниеТеории обнаружения сигнала
Дата публикации07.03.2015
Размер211.77 Kb.
ТипДокументы
100-bal.ru > Математика > Документы
ОПИСАНИЕ УВЕРЕННОСТИ В СЕНСОРНЫХ РЕШЕНИЯХ НА ОСНОВЕ МОДИФИЦИРОВАННОЙ

ТЕОРИИ ОБНАРУЖЕНИЯ СИГНАЛА
Шендяпин В.М., МГППУ

тел.: 8-499-259-4281, e-mail: valshend@yandex.ru

Скотникова И.Г., к.психол.н., с.н.с., ИП РАН

тел.: 682-7238, e-mail: iris236@yandex.ru
1. ВВЕДЕНИЕ

В настоящем исследовании развивается подход к математическому моделированию процессов принятия решения с оценкой уверенности применительно к сенсорным задачам, который был представлен на втором и четвертом Коломенских семинарах по интегрированным моделям и мягким вычислениям в искусственном интеллекте [4, 5]. В более полном виде модель отражена в работе [6]. Теоретическое положение искусственного интеллекта о том, что реальное поведение человека нельзя объяснить без учета НЕ-факторов [2], встречает полное понимание у исследователей уверенности, которые уже достаточно давно изучают принятие решения в условиях неопределенности на материале сенсорных задач.

2. НЕРЕШЕННЫЕ ВОПРОСЫ МОДЕЛИРОВАНИЯ УВЕРЕННОСТИ

В данной статье рассматривается важнейший для регулярно повторяющихся видов деятельности аспект уверенности человека, отражающий такую внешнюю детерминанту уверенности как вероятность правильности принимаемых им решений. Другие возможные источники детерминации уверенности человека, например, степень его уверенности в себе, эмоционально-волевые особенности и т.п. наша модель не рассматривает. При этом мы полагаем, что информация о правильности или ошибочности стереотипно повторяющихся решений неизбежно осознается лицом принимающим решение в виде реально достигнутых результатов его деятельности. Для сенсорных задач такой тип уверенности можно исследовать, если при решении требовать от испытуемого максимальной правильности и сообщать ему о реальной правильности принятого решения.

Для теоретической разработки модели уверенности потребовалось модифицировать традиционную психофизическую теорию обнаружения сигнала (ТОС), описывающую поведение идеального наблюдателя, [1,8]. Необходимость модификации объясняется несколькими причинами. Главная состоит в том, что с момента своего возникновения и до настоящего времени традиционная ТОС оценивает вероятность правильности решений наблюдателя только интегрально, через вероятности правильного обнаружения и ложной тревоги, характеризующие правильность и ошибочность принимаемых решений в среднем для всей серии проб.

Очевидно, что при не изменяющихся в ходе эксперимента основных параметрах теории — критерии принятия решения и различимости стимулов, эти вероятности являются константами, которые не могут объяснить, почему в ходе эксперимента наблюдается изменение уверенности человека от пробы к пробе. Теоретические же формулы для вычисления вероятности правильности принятого решения в каждой отдельной пробе в ней отсутствуют, что принципиально не позволяет объяснить феномен уверенности человека в принятом решении в парадигме ТОС.

Однако ТОС имеет большой объяснительный потенциал, так как использует только хорошо определенные формальные понятия и с их помощью дает обоснованное описание идеального процесса принятия решения, включенного в сенсорную задачу. Ожидалось, что необходимые формулы для вычисления вероятности правильности ответа в каждой пробе в ТОС все-таки могут быть выведены. В результате анализа апостериорных вероятностей событий необходимые формулы действительно были нами получены, что позволило теоретически объяснить феномен уверенности человека в парадигме ТОС, описывающей идеального наблюдателя.

Еще одной причиной для модификации ТОС было желание сделать разрабатываемую модель динамической. Для этого необходимо было включить в традиционную ТОС описание процесса наблюдения во времени. Это позволило бы сравнивать полученную модель с уже существующими динамическими моделями, описывающими принятие решения и оценку уверенности при сенсорном различении стимулов (различные варианты моделей случайных блужданий, вплоть до недавних [9], и аккумуляторной модели [10,11]).

Принятие решения в традиционной ТОС происходит на основе одного отсчета случайной нормально распределенной величины, интегрирующей ощущения от предъявляемого физического стимула, которую ввел в психофизику Л. Терстон [3]. Вопрос о том, что происходит в процессе наблюдения внутри самой сенсорной системы, из каких переменных и как формируется случайная величина Терстона, до сих пор в психофизике не рассматривался. Все это не позволяло теоретически оценить время принятия решения в тех задачах, где время предъявления стимула не ограничивается и человек сам решает, когда вынести свой ответ. Между тем в радиотехнических применениях ТОС многоотсчетное описание наблюдения уже давно используются [7]. Да и в психофизической ТОС есть упоминания о том, что многоотсчетные наблюдения могут быть описаны ее математическим аппаратом [1].

3. ВВЕДЕНИЕ В ПАРАДИГМУ ТОС МНОГООТСЧЕТНОГО ОПИСАНИЯ НАБЛЮДЕНИЯ


Поскольку ТОС является одним из вариантов более общей теории статистических решений, разработанной математиками на основе теории вероятностей, то ее естественный язык – это язык событий и их вероятностей. Поэтому наиболее естественно задача принятия решения в парадигме ТОС формулируется на этом языке.
3.1. Неопределенность сенсорных событий

Неопределенность в сенсорной задаче различения двух близких по величине стимулов заключается в том, что наблюдателю достоверно не известно, какой из двух возможных стимулов он наблюдает. Предъявление стимула, порождающего на выходе сенсорной системы более слабый отклик, обозначается как событие n (noise, т.е. шум). А предъявление другого стимула, порождающего более сильный отклик, обозначается как событие sn (signal + noise, т.е. сигнал + шум).

Так как к детерминированному отклику сенсорной системы на предъявляемый стимул всегда добавляется внутренний шум самой системы, то любая величина ее реакции может быть вызвана как событием n, так и событием sn. Поэтому даже идеальный наблюдатель не может достоверно (с вероятностью правильности, равной 1) решить, какой стимул ему был предъявлен. Однако, рационально используя имеющуюся у него информацию о результатах наблюдения, он может, сравнивая последствия своих возможных ответов, принимать в каждой пробе обоснованное решение, гарантирующее в среднем наименьшие риски, возникающие из-за неизбежных в условиях неопределенности ошибок в ответах.
3.2. Априорные вероятности событий

Наблюдатель не знает, какой стимул ему был предъявлен. Однако обычно ему известна априорная вероятность появления события sn, равная P(sn). Априорная вероятность появления дополнительного к нему события n при этом равна P(n) = 1 – P(sn). Отношение априорных вероятностей появления этих событий:
l0 = P(sn)/P(n) (1)
показывает, насколько событие sn при испытаниях появляется чаще, чем событие n. Величина l0 в концентрированном виде выражает ту информацию, которую человек имеет до наблюдения. Если l0 > 1, то в каждой пробе еще до предъявления стимула ему следует прогнозировать, что, скорее всего, будет событие sn, а не событие n. И чем больше разница l0 – 1 , тем больше должна быть его уверенность в этом прогнозе. Если же l0 < 1, то, скорее всего, будет событие n. И чем больше разница 1/l0 – 1, тем больше должна быть уверенность в этом прогнозе.
3.3. Многоотсчетное описание наблюдения

Наблюдение реализуется сенсорной системой человека. Внутренний механизм работы любой сенсорной системы является очень сложным. Вместе с тем по аналогии с описанием работы радиоприемного устройства можно ввести простое описание текущего отклика сенсорной системы наблюдателя на предъявляемый физический стимул в виде стационарного непрерывного случайного процесса X(t) с шириной спектра Δf, принимающего значения x, распределенные с плотностью вероятности fn(x) при событии n либо с плотностью вероятности fsn(x) при событии sn.

Для описания динамики наблюдения в модифицированной ТОС из процесса X(t) в соответствии с теоремой Котельникова с шагом Δt = 1/Δf берется m-мерная выборка откликов (x1, x2, …, xm), за период времени T = mΔt [7]. Будем далее обозначать строку полученных дискретных отсчетов процесса X(t) вектором выборки x = (x1, x2, …, xm). Величина отношения правдоподобия полученной выборки x, равная отношению совместных плотностей вероятностей l(x) = fsn(x)/fn(x), показывает, насколько чаще данная выборка x появляется при событии sn, чем при событии n. Таким образом, если известны законы распределения fsn(x) и fn(x), то величина l(x) представляет собой новую информацию, получаемую при наблюдении.
3.4. Апостериорные вероятности событий

Апостериорная вероятность P(sn|x) есть вероятность события sn при условии, что на выходе сенсорной системы была получена выборка x. Аналогично P(n|x) – апостериорная вероятность события n. Разумеется, P(sn|x) + P(n|x) = 1. Апостериорные вероятности событий можно выразить через априорные вероятности и отношение правдоподобия.

Обозначим через g(sn,x) совместную плотность вероятности совпадения двух событий: а) попадания полученных значений выборки x = (x1, x2, …, xm) в элементарный интервал dx = dx1 dx2dxm и б) реализации события sn. Используя формулу для вероятности совпадения этих событий, получаем, что g(sn,x) = P(sn) fsn(x) = f(x) P(sn|x). При этом f(x) = P(sn) fsn(x) + P(n) fn(x) = P(sn) fsn(x) {1 +

[l(x) l0] –1}. Отсюда получаем известные формулы для апостериорных вероятностей событий [1]:
P(sn) fsn(x) P(sn) fsn(x) l(x) l0 l(x) l0

P(sn|x) = ---------------- = --------------------------- = ------------ (2)

f(x) P(sn) fsn(x)[1+l(x)l0] 1 + l(x) l0
1

P(n|x) = 1P(sn|x) = ------------ (3)

1 + l(x) l0
3.5. Вынесение ответа по критерию максимума вероятности правильности с учетом многоотсчетности наблюдения

Принятие решения начинается после получения наблюдателем выборки x случайного процесса X(t) в данной пробе. Если наблюдатель ожидает, что выборка x была получена в результате реализации сенсорного события sn, то он дает ответ «да, данная выборка x была вызвана событием sn», что обозначается как событие Y (Yes — да). Если же он имеет основания ожидать, что имело место событие n, то дает ответ «нет, данная выборка x была вызвана событием n», что обозначается как событие N (No — нет).

Для описания информации, которой владеет человек после наблюдения, вычислим с помощью соотношений (2) и (3) отношение апостериорных вероятностей:
lx(x)= P(sn|x)/P(n|x) = l(x) l0 . (4)
Если апостериорная вероятность P(sn|x) превосходит P(n|x), то событие sn более вероятно, чем событие n. Следовательно, если l(x) l0 > 1, то апостериорные вероятности говорят в пользу события sn и наблюдатель должен дать ответ Y; в противном случае он должен дать ответ N.

При многомерном описании наблюдения решающее правило для вынесения ответа разбивает пространство X (всё множество m–мерных векторов x) на три непересекающиеся множества: XY, XN и X0: X = XY + XN + X0, где XY – множество выборок, на которых должен выноситься ответ Y, XN – множество выборок, на которых должен выноситься ответ N, и X0 = XXYXN – множество выборок, на которых можно выносить любой из ответов Y и N. Таким образом, решающее правило для вынесения ответа должно выглядеть следующим образом: «если x принадлежит XY, то наблюдатель выдает ответ Y, если x принадлежит XN, то он выдает ответ N, а если x принадлежит X0, то ответ может быть произвольным».

Остается конкретизировать правило отнесения вектора выборки x, описывающего процесс наблюдения, к одному из множеств XY, XN и X0. При переходе от отношений l0, l(x) и lx(x) к их натуральным логарифмам: L0 = ln(l0), L(x) = ln[l(x)] и Lx(x) = ln[lx(x)], произведение в правой части (4) заменяется суммой:
Lx(x) = L(x) + L0 (5)
Как мы знаем, условием вынесения ответа Y является выполнение неравенства P(sn|x) > P(n|x), которое эквивалентно неравенству l(x) l0 > 1, которое в свою очередь эквивалентно неравенству L(x) + L0 > 0. Таким образом, XY — множеству выборок x, на которых должен выноситься ответ Y, ставится в соответствие множество точек на оси логарифма отношения правдоподобия L(x), задаваемое неравенством L(x) + L0 > 0. Рассуждая аналогичным образом, получаем, что XN — множеству выборок x, на которых должен выноситься ответ N, ставится в соответствие множество точек на оси логарифма отношения правдоподобия L(x), задаваемое неравенством L(x) + L0 < 0. Отсюда вытекает, что X0 — множеству выборок x, не вошедших ни в XY, ни в XN, на которых может быть вынесен любой из ответов Y и N, ставится в соответствие только одна точка на оси логарифма отношения правдоподобия L(x), задаваемая равенством L(x) = –L0.

Однако полученное решающее правило, хотя и учитывает время принятия решения в одной пробе в виде переменной m, задающей длительность времени наблюдения T = mΔt в единицах элементарных интервалов времени Δt, не содержит никакой информации о вероятности правильности решения принимаемого наблюдателем.
4. ВВЕДЕНИЕ В ПАРАДИГМУ ТОС ВЕРОЯТНОСТЕЙ ПРАВИЛЬНОСТИ И ОШИБОЧНОСТИ ЕДИНИЧНОГО РЕШЕНИЯ

4.1. Вывод формул для зависимостей апостериорных вероятностей событий от логарифма отношения правдоподобия многоотсчетной выборки

В результате перехода от отношений l0, l(x) и lx(x) к их натуральным логарифмам формулы для описания зависимостей апостериорных вероятностей (2) и (3) от вектора выборки x упрощаются:
P(sn|x)=exp [L(x)+L0] {1+exp [L(x)+L0]}–1 =0.5+0.5th{[L(x)+L0]/2} (6)
P(n|x) = 1P(sn|x) = 0.50.5 th{[L(x)+L0]/2} (7)
Простой и наглядный вид зависимостей P(sn|x) и P(n|x) от логарифма отношения правдоподобия L(x), задаваемый функцией гиперболического тангенса, получен в парадигме ТОС впервые. Различие между формулами (2), (3) и (6), (7), описывающими одни и те же апостериорные вероятности P(sn|x) и P(n|x), состоит в том, что формулы (6), (7) конкретизируют зависимость этих вероятностей от вектора выборки x. Во-первых, они указывают на то, что апостериорные вероятности P(sn|x) и P(n|x) зависят именно от L(x). Поэтому вместо P(sn|x) и P(n|x) мы далее будем писать P[sn|L(x)] и P[n|L(x)]. А во-вторых, что эта зависимость описывается хорошо изученной функцией гиперболического тангенса.

С помощью этих формул далее будут получены вероятности правильности и ошибочности принимаемого в каждой пробе решения. Вероятности P[sn|L(x)] и P[n|L(x)] определены на всей оси логарифма отношения правдоподобия L(x). При этом каждому вектору пространства X соответствует только одна точка на оси L(x), а одной точке на оси L(x) может соответствовать несколько разных векторов пространства X. Причем с ростом логарифма отношения правдоподобия L(x) апостериорная вероятность P[sn|L(x)] монотонно растет от 0 до 1, а апостериорная вероятность P[n|L(x)] монотонно убывает от 1 до 0. Для выборок x, которые удовлетворяют условию L(x) = –L0, апостериорные вероятности событий P[sn|L(x)] и P[n|L(x)] совпадают и равны 0.5.

Для выборок x, на которых L(x) обращается в ноль (т.е. для всех выборок, где l(x) = 1), отношение апостериорных вероятностей событий lx(x), согласно (4), равно отношению априорных вероятностей событий l0. Подставляя l(x) = 1 в выражения (2) и (3), получаем P[sn|L(x)] = P(sn) и P[n|L(x)] = P(n), т.е. апостериорные вероятности событий при этом равны априорным. Таким образом, наблюдения, характеризующиеся такими выборками x, не добавляют новой информации о сенсорных событиях к уже известной априорной информации.
4.2. Описание процесса принятия решения с оценкой вероятности его правильности

При описании процесса принятия решения в традиционной ТОС слова «ответ» и «решение» используются фактически как синонимы. Однако при формальном описании процесса принятия решения эти понятия пришлось уточнить.

После получения в данной пробе выборки x откликов сенсорной системы и вынесения наблюдателем ответа решение считается принятым. Однако для выяснения, было ли решение правильным или ошибочным, ему необходимо также знать, какое сенсорное событие в действительности имело место. Поэтому решение наблюдателя является двухпозиционным высказыванием {z,A} по поводу событий sn, n, Y и N. На первой позиции решения стоит неизвестное пока наблюдателю сенсорное событие z, которое может принять одно из двух возможных значений sn или n, а на второй позиции стоит уже известный наблюдателю ответ A, который может принимать одно из двух возможных значений Y или N.

Таким образом, ситуация после получения выборки x описывается двумя несовместными дополнительными событиями: (sn|x) и (n|x). В сумме они образуют достоверное событие: P[sn|L(x)] + P[n|L(x)] = 1. После появления ответа Y или N ситуация описывается уже полной группой из четырех несовместных совпадений сенсорных событий и ответов наблюдателя: (sn,Y|x), (n,Y|x), (sn,N|x), и (n,N|x). Несовместность совпадений событий и ответов означает, что в каждой пробе при данной выборке x реализуется только одно из четырех возможных совпадений. Совпадение событий (sn,Y|x) называется правильным обнаружением сигнала в данной пробе и соответствует правильному решению {sn,Y} при данной выборке x. Совпадение событий (n,Y|x) называется ложной тревогой и соответствует ошибочному решению {n,Y}. Совпадение событий (sn,N|x) называется пропуском сигнала и соответствует ошибочному решению {sn,N}. Совпадение событий (n,N|x) называется правильным отрицанием и соответствует правильному решению {n,N}.

Для многоотсчетного описания наблюдения уже было получено решающее правило вынесения ответа по критерию максимума вероятности правильности. Однако математический аппарат модифицированной ТОС позволяет получить это решающее правило одновременно с формулами для вероятности правильности и ошибочности принятого решения. Для этого проведем сначала анализ ситуации, в которой находится идеальный наблюдатель.

Так как решающее правило наблюдателя зависит только от x и не зависит от уже произошедшего события, то событие и ответ не зависят друг от друга. При этом в соответствии с теоремой для вероятности совпадения двух независимых событий вероятность совпадения события sn и ответа Y при выборке x равна P[sn,Y|L(x)] = P[sn|L(x)] P[Y|L(x)], где P[Y|L(x)] – условная вероятность ответа Y при данной выборке x. В силу детерминированности решающего правила наблюдателя условная вероятность P[Y|L(x)] может принимать на всем множестве X только два возможных значения: 0 и 1. Фактически P[Y|L(x)] играет роль функции принадлежности вектора x к множеству XY. Если xÎXY, то она равна 1, если x Î XN, то она обращается в ноль. Соответственно P[n,N|L(x)] = P[n|L(x)] P[N|L(x)], где P[N|L(x)] – условная вероятность ответа N при данной выборке x, которая равна 1 при xÎXN и равна 0 при xÎXY. Аналогично P[n,Y|L(x)] = P[n|L(x)] P[Y|L(x)] и P[sn,N|L(x)] = P[sn|L(x)] P[N|L(x)].

Таким образом, для описания процесса принятия сенсорного решения идеальным наблюдателем необходимо представить себе пространство X, образуемое множеством m–мерных векторов откликов сенсорной системы x, которому ставится в соответствие ось логарифма отношения правдоподобия L(x). Ранее мы получили, что для любого вектора пространства X наблюдатель может по формулам (6) и (7) вычислить апостериорные вероятности сенсорных событий P[sn|L(x)] и P[n|L(x)]. Для того чтобы в пространстве X существовало решающее правило для вынесения ответов Y и N, наблюдателю должны быть заданы P[Y|L(x)] и P[N|L(x)] – функции принадлежности вектора x к множествам XY и XN. В таком случае для любого полученного при моделировании вектора x он сможет вычислить значения вероятностей всех возможных сочетаний событий и ответов по формулам:
P[sn,Y|L(x)]=P[sn|L(x)]P[Y|L(x)] и P[n,Y|L(x)]=P[n|L(x)]P[Y|L(x)],

(8)

P[n,N|L(x)]=P[n|L(x)]P[N|L(x)] и P[sn,N|L(x)]=P[sn|L(x)]P[N|L(x)].
При этом P[sn,Y|L(x)] – вероятность реализации совпадения событий (sn,Y|x) есть вероятность правильности решения {z,Y}, принятого при данном x, а P[n,Y|L(x)] – вероятность реализации совпадения событий (n,Y|x) есть вероятность ошибочности этого решения. Вероятности P[sn,Y|L(x)] и P[n,Y|L(x)] как функции от x отличны от нуля только при x Î XY. Вне множества XY вероятности правильности и ошибочности решения {z,Y} обращаются в ноль, т.к. вместо ответа Y там выносится ответ N. Вероятности правильности и ошибочности решения {z,N}, принятого при данном x, соответственно равны вероятностям реализации возможных совпадений событий P[n,N|L(x)] и P[sn,N|L(x)], которые отличны от нуля только на множестве XN.

С учетом формул (8) на всем пространстве X выполняются равенства: P[sn,Y|L(x)] + P[sn,N|L(x)] = P[sn|L(x)], P[n,Y|L(x)] + P[n,N|L(x)] = P[n|L(x)] и P[sn,Y|L(x)] + P[sn,N|L(x)] + P[n,Y|L(x)] + P[n,N|L(x)] = 1. Сумма вероятностей всех возможных решений равна сумме вероятностей всех возможных совпадений событий и ответов, усредненных по всему пространству наблюдений X. Естественно, что обе эти суммы равны единице:
P{sn,Y} + P{sn,N} + P{n,Y} + P{n,N} = ∫{P[sn,Y|L(x)] + P[sn,N|L(x)] +

X

+ P[n,Y|L(x)] + P[n,N|L(x)]} f(x) dx = 1.
При этом общая вероятность получения правильных решений P(Cor) (Correct – правильный) без учета того, при какой выборке x они были получены и каким было само решение, задается суммой:
P(Cor)=P{sn,Y}+P{n,N}=∫P[sn,Y|L(x)]f(x)dx+∫P[n,N|L(x)]f(x)dx (9)

XY XN

Перейдем теперь к выводу решающего правила. Величина общей вероятности правильных решений P(Cor) зависит от того, как наблюдатель разобьет ось логарифма отношения правдоподобия L(x), а тем самым и пространство X, на два множества XY и XN, однозначно определяющие его решения в каждой отдельной пробе. Если наблюдатель хочет получить максимум этой вероятности, то из двух возможных при данной выборке x ответов Y и N он должен в каждой пробе выбирать тот, который приносит ему наибольший вклад в правую часть выражения (9). Так если при данной выборке x выполняется неравенство P[sn|L(x)] > P[n|L(x)] (что в соответствии с формулами (6), (7) означает, что L(x) + L0 > 0), то наблюдатель должен выбрать именно ответ Y, а другой возможный ответ N отвергнуть. Так как выбор одного ответа для наблюдателя означает отказ от другого ответа, этот факт можно отразить в виде символического равенства Y = N, где символ N обозначает отвергнутый ответ N. При этом получается нужный результат: P[sn,Y|L(x)] > P[n,N|L(x)] – вероятность правильности решения {z,Y}, принятого наблюдателем, больше вероятности правильности решения {z,N}, отвергнутого им. Так как Y = N, то P[n,N|L(x)] = P[n,Y|L(x)] – вероятность правильности отвергнутого решения {z,N} равна вероятности ошибочности принятого решения {z,Y}.

Аналогично, если P[sn|L(x)] < P[n|L(x)] (что в соответствии с формулами (6), (7) означает выполнение неравенства L(x) + L0 < 0), то наблюдатель должен выбрать ответ N, т.к. только тогда он получит нужный ему результат: P[sn,Y|L(x)] < P[n,N|L(x)] – вероятность правильности принятого решения {z,N} будет больше вероятности правильности отвергнутого решения {z,Y}, которая в силу равенства Y = N равна P[sn,Y|L(x)] = P[sn,N|L(x)] – вероятности ошибочности принятого решения {z,N}.

Таким образом, в предлагаемой нами модифицированной ТОС действует следующее решающее правило, которое обеспечивает наблюдателю не только максимум общей вероятности правильных решений P(Cor), но и позволяет ему оценивать вероятности правильности и ошибочности принятого решения в каждой пробе. Если в данной пробе он получил вектор выборки x, и при этом оказалось, что L(x) + L0 > 0, то x Î XY и наблюдатель должен принять решение {z,Y}, для которого вероятности правильности и ошибочности равны соответственно:
P[sn,Y|L(x)]=P[sn|L(x)]P[Y|L(x)]=0.5+0.5 th{[L(x) + L0]/2},

(10)

P[n,N|L(x)]=P[n,Y|L(x)]=P[n|L(x)]P[Y|L(x)]=0.50.5th{[L(x)+L0]/2}.
Если же оказалось, что L(x) + L0 < 0, то x Î XN и поэтому он должен принять решение {z,N}, для которого вероятности правильности и ошибочности равны соответственно:
P[n,N|L(x)]=P[n|L(x)]P[N|L(x)]=0.50.5 th{[L(x)+L0]/2},

(11)

P[sn,Y|L(x)]=P[sn,N|L(x)]=P[sn|L(x)]P[N|L(x)]=0.5+0.5th{[L(x)+L0]/2}.

Если выполняется равенство L(x) + L0 = 0 , то x Î X0 и тогда решение может быть произвольным, а вероятности его правильности и ошибочности равны 0.5.
Литература

1. Иган Дж. Теория обнаружения сигналов и анализ рабочих характеристик. – М.: Наука, 1983.

2. Тарасов В.Б. Слово редактора // Новости искусственного интеллекта. – 2004. – №2. – С. 3-6.

3. Терстон Л.Л. Психофизический анализ // Проблемы и методы психофизики / Под ред. А.Г. Асмолова, М.Б. Михалевской. –М.: Изд-во МГУ, 1974. – С. 33–55.

4. Шендяпин В.М., Скотникова И.Г. Моделирование уверенности в процессе принятия решения // Интегрированные модели и мягкие вычисления в искусственном интеллекте. Сборник научных трудов II-го Международного научно-практического семинара. – М.: Физматлит, 2003. – C. 362–368.

5. Шендяпин В.М., Скотникова И.Г. От априорной оптимальности к апостериорной адаптивности в прогнозе правильности сенсорных решений // Интегрированные модели и мягкие вычисления в искусственном интеллекте. Сборник научных трудов IV-й Международной научно-практической конференции. – М.: Физматлит, 2007. –Т.2. – C.630–639.

6. Шендяпин В.М., Скотникова И.Г., Барабанщиков В.А., Тарасов В.Б. Математическое моделирование уверенности при принятии решения в сенсорных задачах//Психологический журнал.– 2008.– Т.29. №4. – С.84–97.

7. Ширман Я.Д., Манжос В.Н. Теория и техника обработки радиолокационной информации на фоне помех. – М.: Радио и связь. 1981.

8. Green D.M., Swets J.A. Signal Detection Theory and Psychophysics. –New York:.: Wiley, 1st ed., 1966; 2nd ed., 1974.

9. Link S.W. C.S.Pierce, Confidence and Random Walk Theory// Fechner Day’2003: Proceedings of the 13th Annual Meeting of the International Society for Psychophysics. (ISP) / Ed. by B. Berglund, E. Borg. –Larnaka: Cyprus, 2003. – P. 151-156.

10. Vickers, D., Lee, M.D. Dynamic Models of Simple Judgments: I. Properties of a Self-Regulating Accumulator Model // Nonlinear Dynamics, Psychology and Life Sciences. – 1998. – Vol.2. – C.169-194.

11. Vickers D., Lee M. Dynamic Models of Simple Judgments: II. Properties of a Self-Organizing PAGAN (Parallel, Adaptive, Generalized Accumulator Network) Model for Multi- Choice Tasks // Nonlinear Dynamics, Psychology, and Life Sciences. – 2000. – Vol. 4. – P. 1-31.

Добавить документ в свой блог или на сайт

Похожие:

Теории обнаружения сигнала iconПрограмма по формированию навыков безопасного поведения на дорогах...
При включении питания до прихода первого сигнала преобразования шим сигнал должен на выходе мк отсутствовать (лог. 0). Диапазон значений...
Теории обнаружения сигнала iconДанные к расчетам: Вид модуляции – фм (фазовая модуляция) Способ...
В демодуляторе происходит преобразование принятого приемником модулированного первичного (ВЧ) сигнала во вторичный (НЧ) сигнал. Далее...
Теории обнаружения сигнала iconО цифровом телевидении
Цифровое кодирование в отличие от аналогового обеспечивает доставку сигнала с минимальными потерями, так как картинка и звук цифрового...
Теории обнаружения сигнала iconУрок №30 Тема Решение задач на кодирование звуковой информации
Временная дискретизация – процесс, при котором, во время кодирования непрерывного звукового сигнала, звуковая волна разбивается на...
Теории обнаружения сигнала iconТерагерцовые «отпечатки» для обнаружения запрещённых веществ Прорыв...
Настоящий Закон в соответствии с Конституцией Республики Татарстан учреждает государственные награды Республики Татарстан, устанавливает...
Теории обнаружения сигнала iconВпервые понятия энтропия и информация связал К. Шеннон в 1948. С...
Неполезные сигналы, с точки зрения Шеннона, это шум, помехи Если сигнал на выходе канала связи является точной копией сигнала на...
Теории обнаружения сигнала iconРеферат на тему: Системы передачи информации
Введение: в данной работе рассмотрены принципы скремблирования и дескремблирования линейного сигнала
Теории обнаружения сигнала icon2. Структура оптимальных устройств обнаружения
На практике вместо совместных вероятностей часто пользуются условными вероятностями
Теории обнаружения сигнала iconТема: экология человека
Актуальные проблемы товароведения, идентификации и обнаружения фальсификации масложировых и молочных товаров
Теории обнаружения сигнала iconРеферат на тему : “Светолучевые и электроннолучевые осциллографы”
Иногда изображение исследуемого сигнала сравнивают с калибровочным сигналом или применяют компенсационный метод измерений
Теории обнаружения сигнала iconРеферат по дисциплине «Психология менеджмента»
Эволюция теории лидерства в XX веке. Ситуационные теории лидерства. Поведенческие теории лидерства
Теории обнаружения сигнала iconТема: «Патофизиология боли»
Биологическое значение боли как сигнала опасности и повреждения. Вегетативные компоненты болевых реакций
Теории обнаружения сигнала iconВыпускная работа по «Основам информационных технологий»
Применение ит для расчета и анализа прохождения импульсного сигнала через дифференциальный измерительный трансформатор тока (Пояс...
Теории обнаружения сигнала iconПрограмма курса по Теории государства и права Тема Общая характеристика...
Саламатовой Мариной Сергеевной, канд истор наук, доцентом кафедры теории и истории государства и права
Теории обнаружения сигнала iconДипломная работа «О некоторых применениях алгебры матриц»
В данной дипломной работе рассматривается новые применения матриц в теории систем линейных уравнений, теории чисел и теории алгебраических...
Теории обнаружения сигнала iconУчебн0-методический комплекс дисциплины химия комплексных соединений
Актуальные проблемы товароведения, идентификации и обнаружения фальсификации масложировых и молочных товаров


Школьные материалы


При копировании материала укажите ссылку © 2013
контакты
100-bal.ru
Поиск