Maison / Des murs / Critère de Neumann-Pearson pour les modèles absolument continus. Procédures de reconnaissance séquentielle Procédures de reconnaissance séquentielle

Critère de Neumann-Pearson pour les modèles absolument continus. Procédures de reconnaissance séquentielle Procédures de reconnaissance séquentielle

Soit la famille paramétrique F est une famille de distributions absolument continues, et la distribution sous l'hypothèse H j , est donnée par la densité de distribution de probabilité j=0,1. Soit pour toute valeur de x, appartenant à l'ensemble valeurs possibles de la variable aléatoire observée, la condition suivante est remplie :, j=0,1 . Considérez les statistiques

Nous allons construire un critère basé sur les statistiques l(X) , appelé statistiques du rapport de vraisemblance.

La statistique l(X) peut prendre les valeurs

Où x je ? R 1 , i=1,...,n.

Du sens probabiliste de la densité de distribution, il est naturel de s'attendre à ce que de grandes valeurs des statistiques l(X) témoignent très probablement contre l'hypothèse principale H 0 . Par conséquent, il est naturel de définir la région critique sous la forme de grandes valeurs des statistiques l(X) :

Où? - la probabilité d'une erreur du 1er type.

Dénoter par probabilité. Montrons qu'avec la croissance de l'argument, la fonction ne peut que décroître, tandis que. Vraiment

De la relation obtenue (1) il s'ensuit que, donc, quand.

Pour que le critère ait une probabilité d'erreur donnée de 1ère espèce ?, la constante de frontière doit satisfaire la condition :

S'il existe une valeur = pour laquelle, alors le critère spécifié par la constante de frontière a une probabilité donnée d'erreur de 1ère espèce. Le critère construit détermine de manière unique la probabilité d'une erreur de seconde espèce ? :

L'assertion suivante tient.

Lemme de Neyman-Pearson. Parmi tous les critères de niveau de signification ?

pour tester deux hypothèses paramétriques simples H 0 et H 1

Critère de Neyman-Pearson donné par la région critique

où la constante de frontière est déterminée à partir de la relation (2),

est le plus puissant.

Preuve.

Soit - un critère arbitraire du niveau de signification pour tester les hypothèses simples H 0 et H 1, différentes de. Sa puissance sous l'alternative est égale à

Pour le test de Neyman-Pearson, la puissance de l'alternative est

Par la définition d'un ensemble extérieur à cet ensemble (l'intégrale première dans la relation (3))

et pour les éléments de l'ensemble (la seconde intégrale dans la relation (3))

Par conséquent, à partir de la relation (3), nous obtenons que

Les deux critères ont-ils le même niveau de signification ?

. (Sont-ils tous les deux égaux ?)

Cela signifie que les deux intégrales dans la relation (4) diffèrent de

du même montant

donc, ils sont égaux, donc, pour tout critère du niveau de signification ?, différent du test de Neyman-Pearson, l'inégalité a lieu

et cela signifie que le test de Neumann-Pearson est le test le plus puissant.

Les conséquences des erreurs de type I et de type II sont souvent totalement différentes. Par exemple, une personne est testée pour une certaine maladie dangereuse. La mauvaise conclusion sur la présence d'une maladie qui n'existe pas réellement conduit à la nécessité d'utiliser des médicaments nocifs pour le patient. D'un autre côté, l'incapacité à détecter une maladie existante peut avoir des conséquences tragiques.

Une autre circonstance qui influence souvent le choix du niveau de signification est notre attitude envers l'hypothèse avant l'expérience. Si nous croyons fermement en la véracité d'une hypothèse, alors des preuves convaincantes contre elle seront nécessaires pour que nous renoncions à notre certitude. En conséquence, le niveau de signification sera choisi très petit, car un niveau de signification faible conduit au fait que l'hypothèse est rejetée avec de telles combinaisons de résultats d'observation, dont la probabilité est faible, c'est-à-dire que l'apparition de ces résultats est extrêmement improbable si l'hypothèse testée est vraie. Notez que la tâche de choisir la valeur du niveau de signification du critère ? n'est pas un problème mathématique.

Le test de Neyman-Pearson est utilisé dans les systèmes binaires dans des situations où il est impossible de déterminer les probabilités a priori des messages individuels et les conséquences des erreurs différentes sortes ne sont pas les mêmes. Cette situation est typique pour le radar, où l'espace est sondé avec un faisceau radio étroit et le signal réfléchi par la cible est reçu. Dans ce cas, deux situations se présentent : 1) la présence d'une cible - l'oscillation à l'entrée du récepteur contient un signal dans un mélange additif avec du bruit (avec une probabilité a priori inconnue P(b 1)), 2) l'absence de cible - une interférence agit à l'entrée du récepteur (avec une probabilité P(b 0) = 1 –P(b une)). La tâche de la réception est de détecter un signal sur fond d'interférences. Deux types d'erreurs sont possibles lors de sa mise en œuvre :

1) manquer la cible(il y a une cible, mais le signal réfléchi n'est pas détecté) avec probabilité conditionnelle ;

2) fausse alarme(il n'y a pas de cible, mais une décision est prise quant à la présence d'un signal réfléchi) avec probabilité conditionnelle .

Évidemment, les conséquences de ces erreurs sont très variables.

Dans ce cas, il convient de s'efforcer de réduire la probabilité conditionnelle d'une erreur entraînant des conséquences particulièrement graves (objectif manqué), ce qui ne peut se faire qu'en augmentant la probabilité d'un autre type d'erreur (fausse alerte). Il est clair que cela peut être fait dans une certaine mesure, car une probabilité trop élevée de fausses alertes entraînera des pertes économiques tangibles et sapera la crédibilité du système dans son ensemble. Une solution raisonnable consiste à fixer la probabilité de fausse alarme au niveau choisi ε

, (6.8)

puis minimiser la probabilité de manquer la cible

La minimisation (6.9) pour une valeur donnée (6.8) est obtenue si la décision sur la présence d'un but est prise lorsque l'inégalité

,

où λ(ε) est le niveau de seuil déterminé par la probabilité de fausse alarme donnée.

question test

1. Formuler le problème de réception optimale des messages discrets.

2. Donner une interprétation géométrique au problème de réception optimale des messages discrets.

3. Qu'appelle-t-on la règle de décision (circuit décisif) du démodulateur ?

4. Qu'est-ce qu'un récepteur idéal (optimal) de messages discrets ?

5. Qu'entend-on par l'immunité potentielle au bruit de la réception de messages discrets ?

6. Quelle est l'essence de la théorie de l'immunité potentielle au bruit ? Quand et par qui ses fondations ont-elles été posées ?

7. Que signifie la notion de critère de qualité pour la réception de messages discrets ? Listez les critères que vous connaissez.

8. Quelle est l'essence du critère de l'observateur idéal (critère de Kotelnikov) ?

9. Indiquez les caractéristiques du critère de Kotelnikov.

10. Qu'est-ce que le test du maximum de vraisemblance ? Comment se compare-t-il au critère de Kotelnikov ?

L'un des inconvénients majeurs de la règle de détection de signal bayésienne est un grand nombre de des informations a priori sur les pertes et les probabilités de l'état de l'objet, qui doivent être à la disposition de l'observateur. Cet inconvénient se manifeste le plus clairement dans l'analyse des problèmes radar de détection d'un circuit, lorsqu'il est très difficile d'indiquer a priori des probabilités de présence d'une cible dans une région donnée de l'espace et de perte due à une fausse alarme ou à une cible manquante . Par conséquent, dans de tels problèmes, au lieu du critère bayésien, le critère de Neyman-Pearson est généralement utilisé. Selon ce critère, une telle règle de détection est sélectionnée qui fournit la valeur minimale de la probabilité de manquer un signal (la probabilité maximale de détection correcte), à ​​condition que la probabilité d'une fausse alarme ne dépasse pas une valeur donnée. Ainsi, la règle de détection optimale, au sens du critère de Neumann-Pearson, minimise

(3.12)

avec une restriction supplémentaire

. (3.13)

Pour trouver la procédure optimale de traitement des données, nous transformons le problème conditionnel extremum (3.12) sous la condition (3.13) en problème inconditionnel extremum. Pour cela, nous utilisons la méthode des multiplicateurs de Lagrange. Nous introduisons le multiplicateur de Lagrange et écrivons la fonction de Lagrange

. (3.14)

Après des transformations similaires à la dérivation de la formule (3.5), la relation (3.14) peut être réécrite comme :

.

La comparaison de l'expression résultante avec la formule (3.5) montre que le minimum de la fonction de Lagrange est atteint si l'ensemble des points satisfaisant l'inégalité

Dans ce cas, le multiplicateur , qui est la valeur seuil, doit être trouvé à partir de la condition (3.13) que la probabilité de fausse alarme est égale à la valeur donnée .

D'une comparaison de (3.15) et (3.8), nous pouvons conclure que la règle de détection optimale, au sens du critère de Neyman-Pearson, ne diffère de la règle bayésienne que par la valeur du niveau de seuil avec lequel le rapport de vraisemblance est comparé.

Comme exemple de construction d'un détecteur (3.15), considérons le problème du test de l'hypothèse :

avec l'alternative

Un tel problème se pose dans les cas où l'apparition d'un signal utile provoque une modification de la valeur moyenne du bruit normal de . Avec des lectures indépendantes processus d'entrée, le rapport de vraisemblance peut être écrit comme

Après prise du logarithme, on obtient l'algorithme de détection de signal suivant :

(3.16)

où le niveau de seuil est choisi parmi la condition

La situation dans laquelle il est pratiquement impossible de déterminer la probabilité a priori de transmettre des messages élémentaires individuels, et les conséquences des erreurs de différentes natures ne sont pas les mêmes, est typique pour le radar, lorsque le récepteur, analysant l'oscillation reçue z(t) (signal réfléchi plus interférence), doit déterminer s'il y a un objet d'observation (cible) dans une direction donnée et à une distance donnée ou non. En règle générale, la probabilité a priori de présence d'un signal réfléchi par la cible (transmission 1) n'est pas connue à l'avance. Conséquences de deux types d'erreurs - fausse alarme (le récepteur détecte que la cible existe, alors qu'en réalité elle n'existe pas) et cible manquée (le récepteur détecte l'absence de cible, alors qu'en fait il y en a une) - inégal.

Dans cette situation et dans d'autres situations similaires, le critère d'acceptation le plus couramment utilisé est connu sous le nom de test de Neyman-Pearson. Son essence réside dans le fait que le schéma de décision est considéré comme optimal si, pour une probabilité de fausse alarme donnée r LT la probabilité minimale de manquer la cible est assurée R prts . Introduisons en considération la fonction de vraisemblance de l'hypothèse d'absence de but w(z|0) et la présence d'un but w(z|1)

Il est évident qu'il est possible différentes façons diviser l'espace des oscillations reçues z( t) en deux domaines : B 0 (zone de décision sans cible) et B 1 , (à propos de la présence d'une cible) - de sorte que la probabilité d'une fausse alarme

égale à la valeur donnée. Puisqu'à l'emplacement le symbole 0 (pas de cible) est transmis par une pause, alors w(z|o) est la densité de distribution des brouillages. Par conséquent, la probabilité d'une fausse alarme est déterminée par les caractéristiques probabilistes de l'interférence et le choix de la zone B une . Mais la probabilité de détection correcte de la cible dépend également du choix de cette zone :

p prt - la probabilité de manquer la cible.

Les intégrales dans (16), (17) et d'autres formules similaires, prises sur une variable vectorielle, sont évidemment multiples.

La maximisation (17) pour une valeur donnée (16) est atteinte si la décision sur la présence d'un but est prise lorsque l'inégalité

où l est le niveau de seuil déterminé par la probabilité de fausse alarme donnée rLT.

Il existe d'autres critères de qualité de réception qui ne nécessitent pas la connaissance de probabilités symboles a priori.

Dans les technologies de communication, la règle du maximum de vraisemblance (12), (13) est principalement utilisée. Dans le cas où tous les symboles sont transmis de façon équiprobable, la règle du maximum de vraisemblance met en œuvre le critère d'un observateur idéal. Cependant, très souvent, cette règle de décision est également utilisée pour des probabilités de symboles a priori inconnues ou connues, mais non identiques. Bien sûr, cela ne fournit pas la probabilité maximale de réception correcte dans ces cas. En changeant le schéma de décision en un schéma construit selon la règle du maximum de probabilité a posteriori (6), qui met en œuvre le critère d'un observateur idéal, il serait possible de réduire la probabilité d'erreurs. Dans ce cas, évidemment, il faudrait réduire les zones de réception des symboles improbables et élargir les zones des symboles hautement probables. En conséquence, les caractères rarement transmis seraient reçus de manière moins fiable que les caractères fréquemment transmis. Mais les caractères rares contiennent plus d'informations que les caractères fréquents. Ainsi, le passage de la règle du maximum de vraisemblance à la règle du maximum de probabilité a posteriori, bien qu'il diminue la probabilité d'erreur inconditionnelle, peut conduire à une augmentation de la perte d'information lors de la démodulation. Il est facile de montrer que la règle du maximum de vraisemblance implémente le critère de risque moyen minimum (15) si l'on pose L ij = 0 à je=j Et L ij = 1/p(b je) à j¹i.

Conclusion

Le choix du critère de qualité de réception détermine l'ordre dans lequel l'espace des signaux reçus est partitionné, c'est-à-dire sélection du schéma de décision optimal du dispositif récepteur.

En ingénierie des communications, la règle du maximum de vraisemblance est principalement utilisée, dont le schéma de décision est appelé optimal.

Développé

Docteur en Sciences Militaires, Professeur

Typiquement, dans les récepteurs, le démodulateur est précédé d'amplificateurs et de convertisseurs de fréquence. Ici, tous sont considérés comme inclus dans le canal. Dans certains cas, ils sont les principales sources d'interférences de canal supplémentaires.

Par commodité, le début de ce segment est compatible avec l'origine. En principe, l'intervalle d'analyse à la réception ne coïncide pas toujours avec l'intervalle d'horloge J(cm. au dessous de). Les signaux sur un intervalle d'horloge seront souvent appelés élément de signal.

Dans la théorie mathématique de la communication, cette partition est appelée schéma de décision. A noter que dans certains cas ils utilisent un schéma de décision avec effacement, ou rejet de la solution. Cela signifie que m les zones ne couvrent pas tout l'espace du signal, et si le signal entrant ne tombe dans aucune de ces zones, alors une décision est prise d'effacer ou de déterminer le symbole transmis.

Au lieu des inégalités (12), on pourrait simplement écrire w(z| b je)> w(z| bj) La comparaison des rapports de vraisemblance au lieu de la comparaison des densités de probabilité conditionnelles est due au fait que le concept de rapport de vraisemblance peut être étendu aux signaux d'un espace de Hilbert de dimension infinie, pour lequel le concept de densités de probabilité w(z| b je,), w(z| bj) perd son sens.

Test de Neumann-Pearson

L'un des défauts du critère de Jacques-Beer est qu'il est centré sur la résolution de la question de la normalité

distributions basées uniquement sur les caractéristiques statistiques externes de l'échantillon instant taper. Sur le entraine toi L'étude de la structure interne de l'échantillon présente un intérêt considérable. Pour ça buts l'appareil de caractéristiques de fréquence est utilisé, qui comprend la définition et Analyse valeurs absolues, relatives et cumulées empirique fréquences.

L'étude de la structure interne de l'échantillon commence par la sélection de classes d'homogénéité dont le nombre peut être déterminé à l'aide de la formule de Sturges (8.4). Le nombre d'éléments d'échantillon qui entrent dans chacun des POUR classes, détermine les valeurs des fréquences empiriques absolues de V., je = 1,POUR.

Chaque classe correspond à un intervalle de valeurs d'échantillons dont la largeur (la même pour tous les intervalles) est déterminée comme suit :

où D = (x max - x min) - la plage de variation du facteur X.

limites d'intervalle)