Maison / Radiateurs / Comment évaluer la qualité de la formation du personnel. Comment évaluer l'efficacité de la formation du personnel Formules pour évaluer le niveau de formation spécialisée

Comment évaluer la qualité de la formation du personnel. Comment évaluer l'efficacité de la formation du personnel Formules pour évaluer le niveau de formation spécialisée

1

1 « Centre éducatif et scientifique militaire de l'Armée de l'Air » Académie de l'Armée de l'Air du nom du professeur N.E. Joukovski et Yu.A. Gagarine"

Une analyse des méthodes actuellement utilisées pour contrôler le niveau de formation et évaluer la qualité de l'apprentissage de la matière a été réalisée. La nécessité d'améliorer la méthodologie d'évaluation et de contrôle de la qualité de la formation spécialisée est identifiée et justifiée. Sur la base des données obtenues à la suite de l'étude, une méthodologie prometteuse pour évaluer la qualité de la formation dans les conditions d'un ensemble donné d'éléments évalués a été développée, en tenant compte du classement des éléments évalués et de l'attribution de pondérations à les valeurs du système de points traditionnel. L'application de la méthodologie proposée améliorera l'efficacité de la formation professionnelle en obtenant et en utilisant dans le processus de planification du processus éducatif et en gérant la qualité de préparation de données objectives sur la qualité de la formation des spécialistes. De plus, il est conseillé d'utiliser les résultats obtenus dans les systèmes de notation numérique pour évaluer la préparation professionnelle des diplômés.

qualité de préparation

méthodologie d'évaluation

Contrôle de qualité

processus éducatif

1. Bolotov V. A. Sur la construction d'un système panrusse d'évaluation de la qualité // Questions d'éducation. – 2005. – N° 1. – P. 5-10.

2. Bordovsky G.A. Gestion de la qualité du processus éducatif / G. A. Bordovsky, A. A. Nesterov, S. Yu. Trapitsyn. – Saint-Pétersbourg : Maison d'édition de l'Université pédagogique d'État de Russie. I.A. Herzen, 2001. – 359 p.

3. Dalinger V. A. Mesurer la qualité de la formation professionnelle d'un spécialiste à l'aide du modèle mathématique Rasch // Technologies modernes à forte intensité scientifique. – 2007. – N° 11 – P. 47-48.

4. Dresher Yu. N. Comment évaluer la qualité de la formation spécialisée // Technologies éducatives. Théorie et pratique de l'enseignement. – 2014. – N° 2. – P. 80-91.

5. Potashnik M. M. Qualité de l'éducation : problèmes et technologies de gestion. (En questions et réponses). – M. : Société pédagogique de Russie, 2002. – 352 p.

6. Sidorov P. I. Surveillance du système de l'environnement éducatif / P. I. Sidorov, E. Yu. Vasilyeva. – Arkhangelsk, 2007. – 360 p.

7. Simonov V.P. Diagnostic du degré d'apprentissage des étudiants : manuel pédagogique et de référence. – M. : MRA, 1999. – 48 p.

Dans la pratique de l'enseignement professionnel supérieur, des écarts apparaissent souvent entre la qualité de la formation supérieure, résultant du processus éducatif, et les exigences de la production et de la société. Ces écarts sont dus à des différences dans les approches d'évaluation de la qualité de la formation professionnelle d'un spécialiste dans une université et dans une entreprise cliente. De plus, dans un certain nombre de cas, les différences dans le système d'évaluation sont déterminées par les imperfections des méthodes existantes d'évaluation de la qualité de la formation.

La transition du système d'enseignement professionnel supérieur vers un niveau qualitativement nouveau nécessite une technologie adéquate pour évaluer les résultats pédagogiques, garantissant l'unité des approches pour évaluer la qualité de la formation. Actuellement, l'importance de l'évaluation systématique de la qualité de la formation des spécialistes directement au cours de leur formation augmente. Ceci est effectué afin de surveiller les indicateurs actuels de la qualité de la formation des spécialistes, de déterminer la conformité des indicateurs réels de la qualité de la formation avec les valeurs de contrôle intermédiaires et d'apporter des ajustements en temps opportun au système de planification et de gestion de la qualité de la formation applicable à chaque élève. Parallèlement, une grande variété d'approches d'évaluation des acquis d'apprentissage sont mises en œuvre : tester les connaissances résiduelles dans les disciplines des différents cycles du programme de formation spécialisée ; formulaires standards pour vérifier le niveau de connaissances, d'aptitudes, de compétences, etc. .

Former un spécialiste compétent et compétitif nécessite de résoudre la contradiction entre la nécessité d'un système de techniques de diagnostic efficaces pour évaluer la qualité de la formation spécialisée et l'insuffisance de l'appui scientifique et méthodologique pour le suivi actuel et final de l'évaluation de la qualité de la formation.

Récemment, en pédagogie, il y a eu une tendance à l'utilisation active de la catégorie « qualité » pour l'analyse et l'interprétation de divers phénomènes et aspects de la réalité pédagogique. L'un des domaines de cette analyse est la prise en compte systématique de la qualité de la formation dans tous les systèmes pédagogiques, y compris l'enseignement professionnel supérieur. La qualité de la formation s'entend généralement comme la conformité du niveau de formation d'un spécialiste avec les exigences de l'environnement professionnel dans lequel il travaillera. Conformément aux conceptions modernes, le concept de qualité est clairement lié au processus d'évaluation, qui se reflète dans la structure conceptuelle de l'éducation. Cependant, le système existant d'évaluation de la formation des spécialistes ne répond pas pleinement aux besoins formés par le marché des services. Et il existe une explication tout à fait logique à ce phénomène, qui a des racines historiques.

Avec l'introduction du système d'évaluation dit « en cinq points » en Russie en 1944, le concept d'évaluation de la qualité de l'éducation (niveau de formation), en tant que caractéristique du degré de maîtrise du matériel pédagogique en cours de développement les connaissances, compétences et aptitudes nécessaires ont été remplacées par le concept de « performance académique », c'est-à-dire le comptage du nombre de notes positives, que l'enseignant a attribuées de manière assez subjective.

En 1981, le ministère de l'Enseignement supérieur et secondaire spécialisé de l'URSS, par sa lettre n° 31 du 26 octobre 1981, « Sur le contrôle du travail académique et l'évaluation des connaissances des étudiants aux examens », a établi des critères pour une échelle de quatre points pour évaluations finales des apprentissages des élèves. Ce document reprenait en fait, à l'exclusion du « seul » point, les instructions de 1944, en préservant toutes ses lacunes.

Les critères formulés sont très éloignés de ce qui caractérise les connaissances, les compétences et les capacités, mais reprennent les mêmes dispositions générales de 1944.

Sur une échelle moderne de cinq points, mais en réalité - sur une échelle de trois points, une note de « deux » indique plutôt un non-respect total des exigences, et non le degré de maîtrise du matériel pédagogique. Cela a réduit l'échelle d'évaluation de cinq points à trois points. Bien qu’au départ, le système en cinq points impliquait d’évaluer précisément le degré de formation d’une personne (apprentissage et reproduction des connaissances). Il était presque impossible d'évaluer le degré de formation en utilisant seulement trois points positifs. C'est pourquoi les enseignants utilisaient souvent les signes « + » et « - » en conjonction avec les scores d'évaluation, ce qui permettait d'indiquer plus correctement le degré d'apprentissage, et d'évaluer qualitativement le niveau de maîtrise du matériel pédagogique, les notions de « un quatre solide", un "trois faible", etc. ont été utilisés. . De tels indicateurs indiquaient la tendance des indicateurs réels à limiter les valeurs et impliquaient la nécessité d'amener ces indicateurs à des valeurs plus « confiantes ».

Le modèle graphique présenté pour vérifier et évaluer le degré de formation d'un individu (figure) fournit une transition simplifiée vers une interprétation quantitative conditionnelle des scores.

Sur cette base, le problème de l'obtention d'une caractéristique objective de la formation (préparation, niveau de qualification, niveau de formation personnelle) est résolu avec plus de succès dans tout système de formation. L’idée générale est de s’éloigner du système traditionnel d’évaluation pour déterminer le niveau et la qualité de la formation professionnelle d’un spécialiste.

La pratique montre que l'une des raisons qui peuvent réduire considérablement l'efficacité des spécialistes de la formation peut être un biais dans l'évaluation de leur niveau de formation, en raison de l'imperfection du système d'évaluation ou du manque de méthodologie d'évaluation nécessaire selon les critères sélectionnés. Des valeurs incorrectes pour évaluer la qualité de la formation créent une fausse impression de la capacité et de la volonté du spécialiste de réaliser son potentiel, nécessitant des ajustements dans le contenu et l'orientation de la formation professionnelle continue, réduisant ainsi l'efficacité globale du système de formation.

Des valeurs inexactes et parfois carrément erronées du niveau réel de formation des spécialistes sont souvent dues au fait qu'il est nécessaire d'évaluer tout indicateur ou paramètre de formation sur plusieurs éléments, qui ont également différents degrés d'importance (impact sur le résultat final).

Modèle d'évaluation de la conformité des diplômes et niveaux de formation d'un individu

La disposition sur la nécessité d'évaluer la qualité de la formation des spécialistes dans plusieurs éléments, en tenant compte de leur importance afin d'obtenir des valeurs correctes, a constitué la base du développement d'une méthodologie spéciale prenant en compte ces conditions.

La méthodologie proposée pour évaluer la qualité de la formation (le degré de maîtrise du matériel pédagogique) des spécialistes repose sur la détermination du degré d'importance de chaque élément évalué à l'aide de la méthode des expertises et sur l'attribution de coefficients de pondération correspondant à leur importance aux évaluations standards pour chaque élément évalué.

La procédure d'évaluation de la qualité de la formation pratique pour chaque i-ème paramètre (i-ème exercice, tâche) est la suivante :

1. Une liste d'éléments évalués est déterminée (plus il y a d'éléments, plus la précision de la valeur finale est élevée, respectivement) et ils sont classés en fonction du degré d'importance, c'est-à-dire que chacun d'eux se voit attribuer un rang absolu (comme mentionné ci-dessus, le classement est effectué selon la méthode des expertises).

2. Selon la loi de distribution normale, le rang relatif de chaque élément est déterminé par le rapport :

où Ni est le numéro d'ordre (rang absolu) du critère dans la liste ordonnée ;

n est le nombre total d'éléments pris en compte.

3. Le rang normalisé R n i de chaque élément (rapport de poids entre éléments) est déterminé dans la somme totale des rangs égale à un :

4. Ensuite, des coefficients de pondération sont attribués aux évaluations. Pour obtenir les valeurs correctes des indicateurs de qualité, à partir de toutes les valeurs du système en cinq points, nous nous contentons uniquement des notes « satisfaisant », « bon » et « excellent ». La note « insatisfaisant » ne nous convient pas, puisqu'elle ne caractérise pas la qualité de la formation, mais indique seulement le non-respect des exigences, son poids spécifique sera donc nul (tableau 1).

Tableau 1

Correspondance des estimations standards avec les valeurs de leur densité

Il arrive souvent qu'il devienne nécessaire d'évaluer la conformité d'un élément particulier aux exigences sur une échelle en deux points : satisfait ou non (rempli - non rempli ; fournit - ne fournit pas). Dans ce cas, la condition acceptable est que la part de la cotisation correspondant aux lois de ce système soit la suivante (tableau 2).

De plus, dans les calculs, il est proposé qu'en cas de réponse correcte (comme la seule répondant aux exigences), d'utiliser la note « excellent », dont le poids spécifique est égal à un. En cas de réponse incorrecte, il est proposé d'utiliser la note « insatisfaisant ». Sa densité sera nulle, puisque la condition de respect des exigences ne sera pas remplie.

Tableau 2

Correspondance des appréciations du système à deux points avec les valeurs de leur poids spécifique

6. L'étape finale est le calcul de l'indicateur final de la qualité de la préparation (Total), qui est défini comme la somme des indicateurs pour le i -élément évalué :

7. Afin d'obtenir une caractéristique qualitative des indicateurs de formation qui correspond à l'évaluation reçue et à la valeur calculée de l'indicateur de qualité, vous pouvez utiliser l'échelle de correspondance de Harrington (tableau 3).

Si nécessaire, pour réaliser une analyse comparative ou suivre l'évolution des indicateurs de qualité de la formation, les valeurs des indicateurs de qualité obtenues peuvent être présentées en pourcentage. Par exemple:

Kitog* 100% = 0,87 *100 = 87% (degré de développement en pourcentage par rapport à la valeur maximale possible).

Tableau 3

Conformité aux évaluations standard des valeurs des indicateurs de qualité

Caractéristiques qualitatives des indicateurs de formation

(répond à l'évaluation standard)

Valeur de l'indicateur

qualité

Très haut

(Super)

(de manière satisfaisante)

(insatisfaisant)

Très lent

Dans ce cas (avec la valeur de l'indicateur de qualité final Kitog = 0,87), la caractéristique qualitative de la formation du spécialiste correspondra à la valeur « très élevée ».

Il est recommandé d'utiliser les valeurs numériques de la qualité de la formation (en termes décimaux et en pourcentage), en raison de la commodité du traitement des indicateurs sous cette forme, dans les systèmes de notation numérique pour évaluer la préparation professionnelle des spécialistes.

Dans le même temps, les caractéristiques qualitatives des indicateurs de qualité de la formation contribueront à former des « groupes à risque » avec des indicateurs de qualité de la formation inférieurs à la moyenne.

Il convient d'ajouter à ce qui précède qu'en fonction des résultats obtenus avec la méthodologie proposée, il est recommandé d'effectuer un contrôle qualité de la préparation avec une intensité variable (tableau 4).

Tableau 4

Intensité du contrôle qualité de la formation, compte tenu des indicateurs actuels

Caractéristiques qualitatives des indicateurs

préparation

Valeur quantitative

indicateurs de qualité

contrôle

Très haut

Périodiquement, jusqu'à ce que les indicateurs actuels diminuent

Systématiquement, jusqu'à ce que des niveaux plus élevés soient atteints

En continu jusqu'à ce que des niveaux plus élevés soient atteints

Très lent

En conclusion, il convient de noter que la méthodologie proposée pour évaluer la qualité de la formation spécialisée a été élaborée en tenant compte des lacunes des méthodes existantes. Parallèlement, il est possible d'évaluer les résultats finaux en fonction d'un nombre donné d'éléments évalués en fonction de leur rang absolu, qui détermine le degré d'importance ou d'influence sur le résultat final.

L'utilisation de la méthodologie développée pour évaluer la qualité de la formation dans le processus éducatif garantit l'obtention de valeurs quantitatives correctes et de caractéristiques qualitatives d'indicateurs de formation spécialisée, ce qui permet d'utiliser les valeurs obtenues dans les systèmes de notation des établissements d'enseignement et d'ajuster en temps opportun les contenu et volume de la formation professionnelle. De manière générale, les résultats obtenus assurent une augmentation de l'efficacité du système de formation professionnelle.

Lien bibliographique

Getman A.V. MÉTHODOLOGIE D'ÉVALUATION DE LA QUALITÉ DE LA FORMATION DES SPÉCIALISTES DANS LES CONDITIONS D'UN ENSEMBLE DONNÉ D'ÉLÉMENTS ÉVALUÉS, PRIS EN COMPTE DE LEUR CLASSEMENT PAR DEGRÉ D'IMPORTANCE // Problèmes modernes de la science et de l'éducation. – 2016. – N° 2. ;
URL : http://science-education.ru/ru/article/view?id=24179 (date d'accès : 25 novembre 2019). Nous portons à votre connaissance les magazines édités par la maison d'édition "Académie des Sciences Naturelles"

ISSN 1992-6502 (Imprimé)_

2014. T. 18, n° 3 (64). p. 203-209

QjrAQnQj

ISSN 2225-2789 (en ligne) http://journal.ugatu.ac.ru

Méthode de diagnostic complet du niveau de formation professionnelle

et qualités personnelles des spécialistes techniques

lors de la sélection et de la certification du personnel

n. Avec. Minasova 1, p. V. Tarkhov2, Yu. R. Shagieva 3

1 [email protégé], 1 [email protégé], 2 [email protégé]

1.2 Établissement d'enseignement budgétaire de l'État fédéral d'enseignement professionnel supérieur « Université technique de l'aviation d'État d'Oufa » (USATU) 3 Établissement d'enseignement budgétaire de l'État fédéral d'enseignement professionnel supérieur « Université agraire d'État de Bachkir » (BSAU)

Annotation. Une méthode de diagnostic complexe a été proposée, qui implique l'utilisation d'un ensemble variable d'outils de diagnostic lors de la gestion du processus de sélection et de certification du personnel, basée sur l'utilisation conjointe de méthodes expertes (qualitatives) et qualimétriques (quantitatives), qui permettent il est possible de déterminer les valeurs de l'indicateur intégral caractérisant le niveau de qualités professionnelles (qualification) et personnelles des spécialistes tant dans le processus de sélection des candidats aux postes vacants que dans le processus de certification des employés.

Mots clés : gestion du personnel ; évaluation de la formation spécialisée; sélection du personnel; méthodes qualimétriques; méthodes expertes.

INTRODUCTION

Dans les conditions modernes, toute organisation fonctionnant avec succès utilise les technologies de l'information dans son système de gestion du personnel. L'une des tâches importantes et complexes d'un point de vue scientifique et pratique qui est actuellement résolue dans les systèmes de gestion du personnel est la tâche de diagnostiquer les qualités professionnelles et personnelles des spécialistes techniques embauchés pour les postes vacants, ainsi que des employés de l'organisation en le processus de leur certification. La complexité et l'intensité du travail pour résoudre le problème de diagnostic sont particulièrement grandes dans les cas où des exigences élevées sont imposées à un spécialiste technique à la fois dans le domaine des connaissances, aptitudes, aptitudes et compétences spécifiques, et dans ses qualités personnelles. Dans ce domaine de recherche, il existe un certain nombre de problèmes scientifiques et techniques non résolus liés notamment au développement de méthodes et d'algorithmes de diagnostic complexe du niveau de formation professionnelle et des qualités personnelles des spécialistes techniques, qui seraient universels et tout aussi efficace lorsqu'il est utilisé à la fois dans le processus de sélection du personnel pour les emplois vacants et dans le processus de certification des employés

surnoms de l'organisation. Une méthode universelle de diagnostic complet du niveau de formation professionnelle et des qualités personnelles des spécialistes techniques constitue une base clé pour la création d'un système informationnel d'aide à la décision (IS1II1R) pour la gestion du personnel d'une organisation.

Les méthodes de diagnostic du personnel actuellement utilisées reposent, en règle générale, soit sur l'utilisation d'évaluations d'experts du niveau de formation professionnelle et des qualités personnelles de spécialistes (D. A. Ashirov, I. N. Gerchikova, E. Grove), soit sur l'utilisation de technologies de test. (G. Dessler, V. A. Dyatlov, V. R. Vesnin, V. V. Travin, etc.). Dans le même temps, une évaluation complète et objective de la formation professionnelle et des qualités personnelles des spécialistes techniques n'est possible qu'en utilisant une méthode de diagnostic complexe. La nécessité et, par conséquent, la pertinence de poursuivre les recherches scientifiques dans ce domaine s'expliquent par les principales raisons suivantes :

La grande complexité des processus d'information associée à un diagnostic complet et complet du niveau de formation professionnelle et des qualités personnelles des spécialistes techniques en tant que candidats aux postes vacants

postes de poste et employés de l'organisation en cours de certification ;

Approfondissement insuffisant des études scientifiques et des recherches pratiques sur les processus d'information pour soutenir la prise de décision dans la gestion du personnel organisationnel.

Cet article est la suite logique d'un certain nombre de travaux dans lesquels ont été développés des modèles, des méthodes et des algorithmes de diagnostic des étudiants, ainsi que des spécialistes techniques postulant à des postes vacants dans l'organisation.

Le développement d'une méthode de diagnostic complet du niveau de formation professionnelle et des qualités personnelles des spécialistes techniques permettra de créer un ISSS, qui utilisera des ressources de base de données d'informations unifiées et des algorithmes de base de connaissances intelligents utilisés dans la gestion du personnel à toutes les étapes de la le cycle de vie du spécialiste, depuis l'embauche d'un salarié jusqu'à son licenciement.

Une méthode de diagnostic complexe du niveau de formation et des qualités personnelles des spécialistes

En figue. La figure 1 illustre le principe des diagnostics complexes, qui impliquent l'intégration des données issues des expertises (méthodes qualitatives) et des résultats des diagnostics qualimétriques (méthodes quantitatives) du niveau de formation professionnelle et des qualités personnelles des spécialistes techniques (sujets).

Riz. 1. Méthodes de diagnostics complexes

Pour la mise en œuvre pratique de la méthode de diagnostic complet du niveau de formation professionnelle et des qualités personnelles des spécialistes techniques lors de la sélection et de la certification du personnel, un modèle de référence d'activité professionnelle d'un spécialiste (EMPDS) est en cours d'élaboration. Dans la description de la théorie des ensembles :

EMPDS =<ЦД, ЗД, РМ, ДО, ПЗК>, (1)

où CD est le but de l'activité ; ZD - un ensemble de tâches d'activité ; RM - de nombreuses exigences pour le lieu de travail (environnement) ; FAIRE - de nombreuses responsabilités professionnelles ; PPC est un ensemble de qualités professionnellement significatives requises d'un spécialiste, déterminées par la formule

PZK =<УО, ОР, К, ЗУН, ПД, ЛК>, (2)

où EL est le niveau d'éducation ; OU - expérience de travail ; K - compétences ; ZUN - connaissances, compétences, capacités ; PD - réalisations professionnelles ; LC - qualités personnelles.

À leur tour, les qualités personnelles du LC sont déterminées par l’ensemble des caractéristiques du spécialiste.

CL =<УИ, УЭ, УМ, УВ>, (3)

où UI est le niveau d'intelligence (compréhension des tâches et des responsabilités, connaissance des moyens pour atteindre l'objectif, prévision des activités, etc.) ; UE - niveau d'émotivité (confiance dans la réussite, sens des responsabilités, etc.) ; ESPRIT - niveau de motivation (intérêt, désir de réussite, besoin d'accomplissement de haute qualité des tâches assignées, etc.). UL - niveau de volonté (concentration sur la tâche, mobilisation des forces, distraction des interférences, dépassement des doutes).

Lors du réglage des valeurs des indicateurs EMPDS, les valeurs des indicateurs maximales et seuils requises (minimum acceptable pour une position donnée) sont définies.

Pour chaque spécialiste, un modèle d'activité professionnelle MTD est généré, stocké et traité dans le système d'information. Dans une description de la théorie des ensembles, il est représenté sous la forme

MTD =<УО" ОР, К, ЗУН", ПД ", ЛК" >, (4)

où le symbole apostrophe (« ») montre que les désignations adoptées dans la formule, correspondant à une variété de qualités professionnellement significatives d'un spécialiste (voir formule (2)), caractérisent un candidat spécifique.

Dans le cas de diagnostics en cours de certification du personnel dans une organisation, certaines caractéristiques, telles que les qualités personnelles,

Analyse, entretien, questionnaire,

documents en 1 entretien

Expert Buvable | L'ISS en produit de petits

Expert en évaluation des performances

Sujets

Test de qualification d'expert

Sujets

Méthodes qualitatives

ISPR basé sur un diagnostic complet

Méthodes quantitatives

Expert en jeux d'entreprise

Sujets

Diagnostic adaptatif

Sujets

les qualités peuvent ne pas être utilisées selon le poste occupé par le spécialiste.

Pour mettre en œuvre une aide informationnelle à la prise de décision basée sur les résultats du diagnostic, un système de production est utilisé, qui fournit au décideur des recommandations R, obtenues à la fois sur la base d'un diagnostic complet d'un spécialiste et en tenant compte de données rétrospectives sur ses activités dans l'organisation, qui sont stockés dans la base de données du système. Dans la description de la théorie des ensembles :

P =<БД, БП, Ф>,

où DB est une base de données contenant des informations sur des sujets, présentées sous forme de modèles de candidats (MA) pour le poste ; BP - base des règles de production ; F - fonctions de sélection basées sur BP à partir de la base de données de sujets dont les paramètres ne correspondent pas aux paramètres de l'EM.

Pour mesurer les valeurs des indicateurs (paramètres et indicateurs) caractérisant le niveau de formation professionnelle et les qualités personnelles des spécialistes techniques (sujets), nous utilisons des outils de diagnostic qualimétrique basés sur l'utilisation d'outils et de méthodes de contrôle des tests, qui nous permettent d'évaluer les conditions des sujets. Le test de diagnostic consiste en un ensemble interconnecté de tâches de test, dont chacune peut être mise en œuvre sous l'une des six formes suivantes. Le système de classification des tâches de test a été discuté dans l'ouvrage. La classification spécifiée avec les symboles des types de tâches de test est présentée dans la Fig. 2.

Selon le type de tâche de test, le score obtenu par le sujet à l'issue de la tâche de test peut être soit une évaluation binaire (pour les tâches de test de types A et E), soit compris entre 0 et 1 (pour les tâches de test de types B, C, D, F et G).

Lorsqu'un sujet effectue une tâche de test, quatre situations peuvent se produire :

L'option de réponse est correcte, choisie par les sujets ;

L'option de réponse est incorrecte et n'a pas été choisie par le candidat ;

L'option de réponse est correcte, non choisie par les sujets ;

L'option de réponse est incorrecte, choisie par le candidat.

Note Y7 (0< Я < 1), полученный испытуемым после выполнения тестового задания типа А или Е, может быть определен по формуле

1, à (T, th pour A) V (T, = OT pour E), (6) 0, à (T, e O™" pour A) V (T, * OG pour E),

où T est l'ensemble des réponses données au candidat lors de l'exécution de la 7ème tâche de test (dans la structure générale du test) ; - beaucoup de di-

extracteurs (réponses incorrectes) de la 7ème tâche de test ; OTgie - de nombreuses réponses correctes à la 7ème tâche de test.

Le score obtenu par le sujet après avoir terminé une tâche de test de type B, C ou B peut être déterminé par la formule

I № - N - p°sh + 2 ■ pG

à T e OT à t i par exemple

où №tv est le nombre total d'options de réponse pour la tâche de test ; NoTie - le nombre d'options de réponse correcte pour la tâche de test ; « Réponse » est le nombre total d'options de réponse choisies par le candidat ; nTie est le nombre d'options de réponse correcte choisies par le candidat.

Le score obtenu par le sujet après avoir terminé une tâche de test de type B peut être déterminé par la formule

Riz. 2. Classification des tâches de test

Au stade de la conception du test, en fonction de sa finalité (test de réussite professionnelle, test de motivation, test d'attention, etc.), une catégorie peut être établie

la complexité des tâches de test, qui est déterminée par l'analyse experte d'un testologue. En tenant compte des niveaux de difficulté de la tâche de test, le poids de la réponse du sujet de test V7 à la 7ème tâche de test est déterminé, calculé par la formule

où C7 est le niveau de difficulté de la 7ème tâche de test ; N est le nombre d’éléments de test dans la structure globale du test.

Le niveau de difficulté de la 7ème tâche de test C7, défini comme C, = φ(Kt), où Kt est la catégorie (niveau) actuelle de complexité du groupe de tâches de test, Ke Zh ; F - variable floue dont le domaine de définition dépend de l'échelle choisie ; la variable floue F peut prendre des valeurs conformément à une échelle de classement (par exemple, l'échelle de préférence de Harrington) lorsque la variable linguistique est défuzzifiée. Les valeurs de F sont calculées comme la moyenne géométrique des valeurs de la fonction d'appartenance pour la catégorie de difficulté correspondante des tâches de test. En même temps, pour créer un test, concevoir des tâches avec la catégorie de difficulté « Minimale » n'a pas de sens. Les valeurs de la variable F pour différentes catégories de complexité des tâches de test sont données dans le tableau. 1.

Tableau 1

Échelle de classement

items de test appartenant à la variable F

Élevé 0,80 - 1,00 0,89

Bon 0,64 - 0,80 0,72

Moyenne 0,37 - 0,64 0,49

Faible 0,20 - 0,37 0,27

Minimum 0,00 - 0,20 -

Outre la complexité des tâches de test dans le test, il est possible de prendre en compte des restrictions de temps pour son achèvement et, en outre, le temps de réponse du candidat à une tâche de test spécifique. Coefficient de prise en compte du temps de réponse à la 7ème tâche T = 1 à Tfakg< ТНОрМ и Г, =0 при

Tfakg > Tnorme. Chez Tnorm< Тфакт < Т™* коэффициент учета времени ответа на 7-е задание теста вычисляется по формуле

^gfact ^norme T ah _ ^giorm

où Tfact est le temps de réponse réel à la 7ème tâche de test ; t™rm - temps de réponse standard

Le temps de réponse maximum autorisé pour la 7ème tâche de test.

Le temps standard pour répondre à la 7ème tâche du test t,norm est fixé en tenant compte du fait que le candidat a la possibilité de se familiariser avec le contenu de la tâche de test et les options de réponse, de les comprendre et de choisir la bonne réponse (réponses) , à son avis. Le temps de réponse maximum autorisé pour la 7ème tâche de test peut être défini comme une constante pour toutes les tâches de test ou attribué pour chaque tâche individuelle en fonction de la catégorie de sa complexité, c'est-à-dire

Tmax = / (C,),

puisqu’il est logique de supposer qu’il faut plus de temps pour répondre à une tâche complexe qu’à une tâche simple.

La note finale que j'ai obtenue par le sujet au cours du processus de test, qui est un indicateur caractérisant le niveau de ses qualités professionnelles et/ou personnelles (selon le type de test qu'il a réalisé), en tenant compte de la complexité des tâches de test et de la délai pour leur achèvement, est déterminé par la formule

Nc t K = T cN-T K K e.

Ainsi, le résultat final du diagnostic qualimétrique permet d'obtenir à la fois la valeur de l'indicateur sous la forme d'une évaluation générale de la performance du sujet dans son ensemble, et des informations sur les réponses du sujet à chaque tâche de test, le temps qu'il a fallu pour terminer le test dans son ensemble et le temps nécessaire pour répondre à chaque tâche de test.

Pour évaluer le niveau de qualités professionnelles (qualification) et personnelles des candidats à l'aide de méthodes qualitatives (experts), nous appliquons la fonction d'appartenance et l'échelle de classement Harrington (Fig. 3), dans laquelle les valeurs réelles des indicateurs et indicateurs pertinents reçoivent une signification particulière associée à l'évaluation des sujets dans le cadre d'un diagnostic global

où E sont les valeurs de l'échelle de préférence, I sont les valeurs de l'échelle linguistique b = [-4 ; 4], avec les valeurs correspondantes des niveaux de l'échelle linguistique.

0 I I I I I I I I I l I I I I I I I I I I I I I I I I I I I I I

4-3-2-10 1 2 3 4

Riz. 3. Fonction Harrington pour l'échelle b = [-4 ; 4]

La valeur de la fonction d'appartenance Harrington E = 0 correspond à un niveau inacceptable du paramètre. La valeur de la fonction d'appartenance E = 1 (avec l'échelle linguistique sélectionnée b = [-4 ; 4], E = 0,981851073), correspond à un niveau tout à fait acceptable de l'indicateur.

Dans la mise en œuvre pratique du processus de diagnostic des sujets pour mesurer divers indicateurs et indicateurs à l'aide de méthodes d'expertise, peuvent être utilisés :

Échelle de classement linguistique à cinq niveaux avec un ensemble de termes de base : « Élevé », « Bon », « Moyen », « Faible », « Minimal » (voir tableau 1) ;

Échelle de classement linguistique élargie (tableau 2) avec un ensemble de termes de base et supplémentaires : « Élevé », « Pas assez élevé », « Bon », « Pas assez bon », « Moyen », « Au-dessus de la moyenne », « Faible », "Supérieur au minimum", "Minimum", "Supérieur au minimum minimum".

Pour mettre en œuvre la méthode de classement multicritère des candidats, nous allons créer une échelle de classement étendue dont les caractéristiques sont données dans le tableau. 2.

Considérons la formulation et la solution du problème du diagnostic de l'état des sujets à l'aide de méthodes expertes.

Pour résoudre le problème, nous définissons la fonction d'appartenance φ(x) et pour chaque A nous calculons la valeur (x). Dans le cas particulier de tous les pa-

les dimensions (x) peuvent être les mêmes. Le choix du type de fonctions d'adhésion est largement déterminé par des facteurs subjectifs, puisqu'il dépend du concepteur qui développe un système de diagnostic et d'aide à la décision.

Tableau 2 Échelle de classement étendue

Niveaux de valeurs linguistiques- Fonction Caractéristiques des indicateurs du sujet de test

échelle céleste d'affiliation

9 0,80 - 1,00 Élevé

7 0,64 - 0,80 Bon

5 0,37 - 0,64 Moyenne

3 0,20 - 0,37 Faible

1 0,00 - 0,20 Minimum

2, 4 6, 8 Valeurs intermédiaires Termes supplémentaires : « Supérieur à » ; "Pas assez"

Nous calculons les valeurs de la fonction d'appartenance agrégée pour un ensemble de paramètres et d'indicateurs caractérisant l'état du sujet (valeurs d'indicateurs professionnels et personnels), exprimées sous la forme qualitative ^qual., comme la somme des valeurs ​​de la fonction d'appartenance cg(x) pour les valeurs individuelles des paramètres et indicateurs caractérisant l'état des sujets

Si des méthodes quantitatives sont utilisées pour le diagnostic, la fonction (x) sera identique à la valeur réelle mesurée d'un paramètre spécifique sur l'échelle de mesure sélectionnée. Pour calculer l'indicateur final p pour l'ensemble des paramètres et indicateurs caractérisant l'état du sujet (valeurs des indicateurs professionnels et personnels), exprimés sous forme quantitative 3^, on calcule la somme

Р= £рг. (15)

Un indicateur complexe (intégral) caractérisant le niveau de professionnel

(qualification) des qualités professionnelles et personnelles du sujet, exprimées sous forme qualitative et quantitative, nous la définirons comme une somme et la normaliserons à l'unité, en utilisant les valeurs qualitatives et les indicateurs quantitatifs correspondants.

"" qualité "" qualité

Télécharger Ecole.

E..Etal. , X- „Etal.

La méthode de diagnostic qualimétrique, ainsi que la méthode d'expertise du niveau de formation des sujets, ont été testées par les auteurs dans différents groupes expérimentaux :

Évaluation des résultats d'apprentissage des étudiants sur la base de tests ;

Sélection du personnel pour les emplois vacants à l'aide de méthodes expertes d'évaluation du niveau de formation professionnelle des spécialistes.

CONCLUSION

Cet article présente la méthode développée pour des diagnostics complexes du niveau de formation professionnelle et des qualités personnelles des spécialistes techniques. Le diagnostic des sujets peut être réalisé à la fois par des méthodes qualitatives informelles (méthodes d'expertise, avec présentation des valeurs des indicateurs de fonction sur une échelle de mesure choisie), et par des méthodes quantitatives formelles (mesure des indicateurs avec leur présentation en termes numériques ). Au cours du processus d'analyse des résultats du diagnostic et de prise de décision, le décideur peut modifier les coefficients de pondération de l'importance des paramètres et indicateurs individuels.

La méthode envisagée de diagnostic complexe des sujets et le classement ultérieur des valeurs par ordre décroissant d'un indicateur complexe pour un groupe de sujets, caractérisant le niveau de qualités professionnelles (qualification) et personnelles, permettront au décideur (manager) choisir parmi les spécialistes ayant subi un diagnostic celui qui satisfait le plus pleinement au poste occupé.

BIBLIOGRAPHIE

1. Ashirov D.A. Gestion du personnel. M. : Perspectives, 2008. 432 p. [D. A. Ashirov, Gestion du personnel, (en russe). Moscou : Perspective. 2004.]

2. Dessler G. Gestion du personnel / Trad. à partir de la 9ème anglais publications M. : BINOM. 2004. 432 p. [G. Dessler, Gestion du personnel, (en russe). Moscou : BINOM, 2004. ]

3. Tarkhov S.V., Minasova N.S., Shagieva Yu.R. Modélisation des processus commerciaux pour la sélection des employés dans le système de gestion du personnel // Bulletin scientifique de l'Université technique d'État de l'aviation civile de Moscou. 2012. N° 181 (7). p. 114-118. [S.V. Tarkhov, N.S. Minasova, Yu. R. Shagieva, « Modélisation des processus métiers de sélection des employés dans le système de gestion du personnel » (en russe), Nauchnyi vestnik MGTU GA, n° 1. 181 (7), p. 114-118, 2012.]

4. Kabalnov Yu. S., Minasov Sh. M., Tarkhov S. V. Application de systèmes d'apprentissage en ligne multi-agents dans des environnements d'information et éducatifs hétérogènes. M. : Maison d'édition MAI, 2007. 271 p. [Yu. S. Kabalnov, Sh. M. Minasov, S. V. Tarkhov, Application de systèmes d'apprentissage en ligne basés sur des agents dans des environnements informationnels et éducatifs hétérogènes, (en russe). Moscou : AMI, 2007. ]

5. Kabalnov Yu. S., Tarkhov S. V. Minasova N. S., Algorithme de génération de modules éducatifs électroniques pour le travail indépendant des étudiants // Technologies de l'information de modélisation et de contrôle. 2006. N° 2 (27). p. 155-159. [Yu. S. Kabalnov, N. S. Minasova, S. V. Tarkhov, « L'algorithme de génération de modules d'apprentissage en ligne pour le travail indépendant des étudiants » (en russe), Informatsionnye tekhnologii modelirovaniya I upravleniya, no. 2, p. 155-159, 2006.]

6. Tarkhov S.V. E-learning adaptatif et évaluation de son efficacité // Éducation ouverte. 2005. N° 5. P. 37-47. [ S. V. Tarkhov, « L'apprentissage en ligne adaptatif et l'évaluation de son efficacité » (en russe), Otkrytoe obrazovanie, n° 1. 5, p. 37-47, 2005.]

7. Tarkhov S.V., Minasova N.S., Shagieva Yu. R. Modélisation du processus de sélection d'experts en système de gestion du personnel // CSIT"2012 : Proc. 14e Atelier sur l'informatique et les technologies de l'information (Ufa - Hambourg - Fjords norvégiens, 2012). Ufa : U^U, 2012. T. 1. P. 266-270. [S. V. Tarkhov, N. S. Minasova, Yu. R. Shagieva, « Modélisation du processus de sélection des experts en système de gestion du personnel », CSIT » 2012 : Proc. 14e Atelier sur l'informatique et les technologies de l'information, vol. 1, p. 266-270, 2012.]

8. Tarkhov S.V., Tarkhova L.M., Shagiyeva Yu. R. Aide informationnelle à la prise de décision dans le processus de gestion du recrutement du personnel basé sur des diagnostics complexes // CSIT"2013 : Proc. 15e Atelier sur l'informatique et les technologies de l'information (Vienne-Budapest-Bratislava, 2013). Ufa : U^U, 2012 T. 2. pp. 138-142 [S. V. Tarkhov, L. M. Tarkhova, Yu. R. Shagieva, « Aide informationnelle à la prise de décision dans le processus de gestion du recrutement du personnel basé sur des diagnostics complexes », CSIT » 2013 : Proc. 15e Atelier sur l'informatique et les technologies de l'information, vol. 2, p. 138-142, 2013.]

MINASOVA Natalya Sergeevna, professeur agrégée. département l'informatique. Dipl. ingénieur-s/tech. (USATU, 2003). Cand. technologie. sciences en mathématiques et prog. fourniture d'informatique machines, complexes et ordinateurs. réseaux (USATU, 2006), professeur assistant. Recherche dans la région gestion en matière sociale et économique. systèmes.

TARKHOV Sergueï Vladimirovitch, prof. département informatique UGATU. Dipl. ingénieur mécanique (AUI, 1980). Dr Tech. les sciences en exercice dans les réseaux sociaux et l'économie systèmes (USATU, 2010), prof. Recherche dans la région gestion en matière sociale et économique. systèmes.

SHAGIEVA Ioulia Raisovna, ass. département géométrie descriptive et graphiques. Dipl. professeur d'informatique (Oufa, 2010). Cand. technologie. les sciences en exercice sociale et l'économie systèmes (USATU, 2013). Recherche dans la région gestion dans les systèmes sociaux et économiques.

Titre : Méthode de diagnostic complexe du niveau de formation professionnelle et des qualités personnelles des spécialistes techniques dans la sélection et la certification du personnel. Auteurs : N.S. Minasova 1, S.V. Tarkhov 1, Yu. R. Shagiyeva2 Affiliation :

1 Université technique de l'aviation d'État d'Oufa (UGATU), Russie.

2 Université agraire d'État d'Oufa Bachkir (BSAU), Russie. Courriel : 1 [email protégé].

Langue : russe.

Source : Vestnik UGATU (revue scientifique de l'Université technique de l'aviation d'État d'Oufa), vol. 18, non. 3 (64), p. 203-209, 2014. ISSN 2225-2789 (en ligne), ISSN 1992-6502 (imprimé). Résumé : Méthode proposée de diagnostic complexe, prévoyant l'utilisation dans la gestion du processus de sélection et de certification du personnel d'une variante de diagnostic complexe, basée sur l'application conjointe de méthodes expertes (qualitatives) et qualitatives (numériques) pour déterminer la valeur de l'indicateur intégral du niveau de qualifications professionnelles et des qualités personnelles des spécialistes dans le processus de sélection des candidats aux postes vacants et dans le processus d'évaluation. Mots clés : gestion du personnel ; évaluation de la formation; sélection du personnel; méthodes qualitatives ; méthodes expertes.

MINASOVA, Natalia Sergeyevna, chargée de cours au Département. Informatique USATU. Dipl. ingénieur système (Ufa, USATU, 2003). Ph.D., professeur associé. Science : mathématiques et logiciels des ordinateurs, complexes et réseaux informatiques (USATU, 2006). Recherche dans le domaine de la gestion des systèmes sociaux et économiques. TARKHOV, Sergueï Vladimirovitch, professeur du département. Informatique USATU. Dipl. ingénieur-mécanicien (Ufa. Aim, 1980). Docteur en technologie. Sciences : gestion dans le système social et économique (USATU, 2010). Recherche dans le domaine de la gestion des systèmes sociaux et économiques. SHAGIEVA, Yulia Raisovna, assistante du Département de Lacerta sur la géométrie et le graphisme BSAU. Dipl. mathématiques de l'information pour les enseignants (Ufa, BSPU. 2010). Ph.D., Sciences : gestion dans les systèmes sociaux et économiques (USATU, 2013). Recherche dans le domaine de la gestion des systèmes sociaux et économiques.

Un élément important dans l'élaboration et la mise en œuvre du programme de formation des maîtres-chiens dans les unités des forces spéciales était le problème de la justification des critères et indicateurs permettant d'évaluer le niveau de leur formation professionnelle. Pour résoudre ce problème, l'auteur a envisagé une approche de définition de critères.

Dans la littérature scientifique, la notion de « critère » est interprétée assez largement. Il ya un certain nombre de raisons à cela. Ces raisons sont tout d’abord : premièrement, les positions des auteurs ; deuxièmement, il existe une compréhension ambiguë du concept de « critère » dans divers dictionnaires et ouvrages de référence.

Ainsi, dans le dictionnaire de langue russe S.I. Le critère d'Ozhegova est compris comme une « mesure d'évaluation du jugement ». Ozhegov S.I. Dictionnaire de la langue russe. M, 1981.S. 217. Dans la Grande Encyclopédie soviétique, un critère est considéré comme « un signe sur la base duquel une évaluation est faite, la définition ou la classification de quelque chose, une mesure de jugement d'évaluation » 2 Grande Encyclopédie Soviétique 3e édition. M, 1974. T. 13, P. 450. . La compréhension philosophique du critère est intéressante. Le dictionnaire philosophique donne la définition suivante : « Le critère de vérité est un moyen de tester la vérité ou la fausseté d'un énoncé, d'une hypothèse, d'une construction théorique, etc. » 3 Dictionnaire philosophique M., 1975. P. 193. .

N.V. Kuzmina identifie des critères internes et externes comme critères d'évaluation de la performance des systèmes pédagogiques. Les indicateurs internes comprennent : l'indicateur de concours pour l'admission dans un établissement d'enseignement ; niveau de performance académique; préservation de la population étudiante tout au long des années d’études. Critères externes : où vont les diplômés de l'établissement d'enseignement ; comment ils s'y adaptent (quel est le temps et la qualité du processus d'entrée dans le nouveau système) ; quel nombre de diplômés et dans quel délai atteint un niveau élevé d'activité dans le nouveau système ; quel pourcentage de diplômés et dans quelle mesure sont engagés dans l'auto-éducation ; dans quelle mesure le diplômé et ses superviseurs sont satisfaits de la formation reçue. Kuzmina N.V., Rean A.A. Professionnalisme des activités d'enseignement. Rybinsk G.B. Skok propose les critères suivants pour évaluer les activités d'enseignement : le résultat final (apprentissage des étudiants lorsqu'il est déterminé objectivement) ; capacité à diriger une leçon; les avis des stagiaires ; accompagnement méthodologique du cours ; l'estime de soi des enseignants ; connaissance d'une langue étrangère et capacité à y enseigner ; capacité à utiliser un ordinateur comme outil ; quelques compétences supplémentaires. Skok G.B. Certification des enseignants : préparation et mise en œuvre. Novossibirsk 1993.

3 Bespalko V.P., Tatur YG. Accompagnement systématique et méthodologique du processus pédagogique des spécialistes de la formation. M, 1989. V.P. Bespalko identifie comme indicateurs de performance des enseignants : la performance moyenne des élèves selon la note moyenne donnée, la nature scientifique de la matière étudiée ; exhaustivité de la matière académique; efficacité moyenne des séances de formation ; publications à caractère pédagogique et méthodologique; 4 Khozyainov G.I. Compétences pédagogiques de l'enseignant. M, 1998. avis des étudiants sur les activités pédagogiques et éducatives des enseignants.

G.I. Khozyainov cite les critères suivants : stimulation et motivation des activités de l'étudiant ; organisation des activités pédagogiques de l’étudiant ; maîtrise du contenu de la matière et de son organisation didactique ; construction structurelle et compositionnelle d'une leçon pédagogique.

Lors de l'examen des critères et indicateurs d'évaluation du niveau de formation des spécialistes canins et des chiens d'assistance, il est fondamental, à notre avis, de comprendre que l'efficacité des activités réalisées conformément au programme pédagogique élaboré est évaluée en premier lieu. . À cet égard, il est légitime de considérer les critères d'évaluation du niveau de formation des maîtres-chiens comme des critères d'évaluation de l'efficacité du programme de formation proposé.

Lors de la formulation d'un système de critères et d'indicateurs d'évaluation, l'auteur est parti du fait que, d'une part, il doit donner une évaluation objective du niveau de formation des maîtres-chiens et des chiens d'assistance, et d'autre part, être pratique et simple mis en œuvre dans le processus éducatif.

Comme mentionné ci-dessus, nous jugeons l'efficacité et la qualité de la formation avant tout par les changements mentaux et les nouvelles formations qui se forment au cours du processus d'activité éducative et cognitive contrôlée des étudiants (V.A. Yakunin).

Partant du fait que le succès des activités à venir d'un maître-chien est déterminé par ses connaissances, compétences et capacités dominantes dans ce domaine, le niveau de développement de qualités professionnellement importantes, pour évaluer le niveau de formation des spécialistes des maîtres-chiens et, en conséquence , l'efficacité du programme développé, l'auteur a défini des critères et des indicateurs pour évaluer le niveau de préparation des maîtres-chiens et des chiens d'assistance ; cognitif, opérationnel.

Le premier critère est caractérisé par les performances des maîtres-chiens dans les disciplines « Méthodes et techniques de dressage des chiens » et « Dressage des chiens d'assistance ».

Le deuxième critère caractérise le niveau de compétences de formation des maîtres-chiens et le niveau de formation des chiens d'assistance.

Les critères et indicateurs d'évaluation du niveau de formation des maîtres-chiens sont présentés dans le tableau 1.

Tableau 1

Critères et indicateurs d'évaluation du niveau de formation des maîtres-chiens

  • 2. Critère cognitif (K). Comme niveau inférieur de valeur de réussite, les maîtres-chiens des disciplines de dressage canin ont déterminé un pourcentage égal à 30. La réussite des activités éducatives a été évaluée :
    • - pourcentage moyen 40% - 60%. (faible niveau de réussite dans les activités éducatives).
    • - pourcentage moyen 60% - 80% ; (niveau moyen de réussite dans les activités éducatives ;
    • - pourcentage moyen 80% - 100% ; (haut niveau de réussite dans les activités éducatives).

La valeur globale du critère a été déterminée par la formule :

K = SK+MTDS. (Formule 1).

Critère opérationnel (O). Comprend la formation de compétences en pratique du dressage de chiens (DTP).

Formation de chiens d'assistance (N).

Critère et indicateur d'évaluation du niveau de formation professionnelle des maîtres-chiens :

niveau élevé - 80 % - 100 % ;

niveau moyen - 60 % - 80 % ;

niveau bas - 40% - 60%.

La valeur globale du critère a été déterminée par la formule

O = H + PDS (formule 2).

Pour déterminer le niveau de formation des maîtres-chiens, l'auteur a introduit un critère généralisé - OUpp, dont la valeur était déterminée par la formule :

OUpp = K+O(formule 3)

Les critères proposés et l'appareil mathématique pour déterminer leurs valeurs permettent, à notre avis, d'évaluer rapidement et assez objectivement le niveau de formation d'un maître-chien dans un détachement des forces spéciales.

Le niveau de formation professionnelle d’un maître-chien n’est pas une caractéristique statique. Il a un caractère dynamique. À cet égard, l’évaluation de la formation du maître-chien doit être considérée comme dynamique, évoluant au fur et à mesure qu’il franchit les étapes de formation décrites au paragraphe précédent. Sur cette base, l'évaluation a été réalisée en quatre étapes : le niveau de formation initial au cours des 2 premières semaines de formation, les niveaux intermédiaires (de base et principal) après la deuxième et avant la sixième semaine, et le niveau final de la septième et huitième semaines de formation. Cela a permis : premièrement, d'augmenter l'objectivité de l'évaluation ; deuxièmement, avoir une compréhension claire de la dynamique de développement d'un maître-chien en tant que professionnel ; troisièmement, évaluer rapidement la qualité des activités réalisées conformément au programme élaboré et, si nécessaire, apporter des ajustements à son déroulement et à son contenu. Il convient de refléter la dynamique d'évolution dans le « Journal d'évaluation du niveau de formation professionnelle d'un maître-chien » et d'en tenir compte lors de la notation des évaluations.

L'efficacité du programme de formation des maîtres-chiens dans les unités des forces spéciales est déterminée en fonction de l'augmentation des valeurs des critères au cours de sa mise en œuvre et, en général, du niveau de formation professionnelle des maîtres-chiens.

L'analyse de l'évolution du niveau de formation des maîtres-chiens a permis de constater la présence d'une dynamique positive, indiquant l'efficacité des activités réalisées conformément au programme développé.

Conclusions sur le chapitre II

  • 1. Le programme de formation des spécialistes canins dans les unités des forces spéciales des troupes intérieures du ministère de l'Intérieur de la Russie est un système de buts, d'objectifs, de méthodes, de formes et de moyens interdépendants, formant des spécialistes en tant que professionnels dans le domaine de l'activité canine, un ensemble de conditions affectant leur formation, visant à atteindre les objectifs formation d'un spécialiste cynologue.
  • 2. La formation des spécialistes canins est réalisée par le développement nécessaire d'outils pédagogiques spéciaux, qui comprennent principalement le programme « Programme de formation des spécialistes canins dans les unités des forces spéciales des troupes intérieures du ministère de l'Intérieur de la Russie ».

Le programme comprend trois disciplines interdépendantes :

Méthodes et techniques de dressage des chiens :

Pratique du dressage canin : développer les compétences en dressage canin en cours généraux et spéciaux ;

Service cynologie : tactiques d'utilisation des chiens, cynologie, gestion du service canin des troupes intérieures du ministère de l'Intérieur de la Russie.

3. Sur la base de l'analyse des sources littéraires, de la pratique des activités éducatives et professionnelles, l'auteur a identifié et justifié les critères et indicateurs suivants pour évaluer la formation des maîtres-chiens dans les unités des forces spéciales : Cognitif, opérationnel.

Le critère proposé et l'appareil mathématique pour déterminer sa valeur permettent d'évaluer rapidement et assez objectivement le niveau de formation des maîtres-chiens au cours de leur formation.

L'organisation de la formation des spécialistes canins conformément au programme développé contribue à améliorer le processus de formation des spécialistes canins dans les détachements des forces spéciales des troupes intérieures du ministère de l'Intérieur de la Russie, en tenant compte des spécificités de la mise en œuvre de la sûreté et de la sécurité. protection. Sa mise en œuvre dans le processus éducatif garantit qu'à la fin du deuxième mois de formation, les spécialistes canins atteignent un haut niveau de formation dans le domaine spécifique des activités des unités des forces spéciales, ce qui détermine le succès de leurs activités professionnelles au cours de effectuer les tâches assignées.

Dans les réalités modernes caractérisées par le rythme rapide du développement technologique, la forte concurrence et le développement dynamique des approches de gestion, une entreprise qui n'investit pas dans le développement, la formation et l'évaluation du personnel fait, à tout le moins, preuve d'une vision à courte vue. De plus, compte tenu d'un certain caractère archaïque des systèmes éducatifs : tant professionnels que supérieurs, qui sont complètement en retard sur les exigences en constante évolution du marché. Par conséquent, toute organisation cherchant à acquérir ou à conserver une position de leader accorde une attention accrue à la formation et au développement du personnel.

Cependant, la question se pose toujours de la nécessité d'évaluer l'efficacité de la formation du personnel. Les coûts de formation sont toujours importants et il est donc raisonnable d'exiger une évaluation du rapport coût-efficacité des investissements.

Aujourd'hui, de nombreuses entreprises se limitent à remplir des questionnaires d'évaluation basés sur les résultats de la formation : « Avez-vous aimé la formation/formateur ? », « Évaluer l'organisation de la formation ? », « La formation a-t-elle été utile ? utilisez-vous les compétences acquises dans votre travail quotidien ? et ainsi de suite. Cette méthode ne constitue qu'une petite partie de la méthodologie d'évaluation de l'efficacité de la formation du personnel et n'est applicable que pour le résumé initial d'un événement spécifique, d'une formation, de la satisfaction interne, ainsi que du travail de personnes spécifiques du service du personnel, mais pas l'efficacité du programme de formation dans son ensemble.

Dans la pratique internationale, plusieurs méthodes d'évaluation de l'efficacité de la formation du personnel sont utilisées avec succès.

Le plus célèbre d'entre eux est le modèle à quatre niveaux de Donald Kirkpatrick, considéré aujourd'hui comme un classique. Le modèle a été proposé en 1959 et publié dans le livre Four Levels Evaluation Program.

Modèleévaluationsefficacitéla formation du personnelD. Kirkpatrick

Réaction de l'étape 1. La réaction primaire au programme de formation est mesurée, ce qu'on appelle le « feedback » ou feedback : l'intérêt, l'utilité et la qualité du matériel, le formateur et ses compétences sont évalués, la complexité ou l'accessibilité du matériel, l'organisation de la formation événement.

Les outils utilisés: , Entretiens, Groupes de discussion.

Assimilation niveau 2. La mesure dans laquelle les participants ont acquis de nouvelles connaissances/compétences est mesurée, ainsi que la manière dont ils envisagent d'appliquer les compétences acquises sur le lieu de travail.

Les outils utilisés: Examen, tests de maîtrise, tests de compétences pratiques, planification, formation des autres employés.

Comportement de niveau 3. Il mesure la manière dont le comportement global des participants a changé et la mesure dans laquelle les participants à la formation utilisent les nouvelles connaissances et compétences sur le lieu de travail.

Les outils utilisés: Check-list d'évaluation des changements de comportement au travail (revue de poste, vérification des plans d'action - élaborés selon le principe de l'évaluation 360 0), KPI, Balanced Scorecard.

Résultats de l'étape 4. Il mesure dans quelle mesure les objectifs ont été atteints et comment les changements de comportement affectent l'organisation dans son ensemble, c'est-à-dire que les changements dans les performances commerciales de l'organisation sont identifiés et analysés. Les résultats doivent être évalués au moins trois mois après la fin de la formation afin que les effets différés puissent être observés.

Les outils utilisés: KPI (les indicateurs doivent être sélectionnés avant de démarrer le programme de formation)

Il convient de noter que lors de l'utilisation de tous les niveaux du modèle, le processus d'évaluation de l'effet d'apprentissage devient très laborieux et coûteux, et pas toujours conseillé du point de vue des coûts. Le quatrième niveau est le plus difficile à analyser, puisqu'il est nécessaire de suivre la dynamique des indicateurs commerciaux de l'organisation (augmentation de la productivité, augmentation des ventes, amélioration de la qualité, etc.). En 1975, Kirkpatrick a publié le livre "" (Evaluating Training Programs), dans lequel il décrit l'utilisation du modèle dans les nouvelles réalités et non seulement pour évaluer les résultats de la formation du personnel, mais également pour le processus de gestion du changement dans l'organisation. En outre, il a été proposé d'utiliser le modèle dans l'ordre inverse, du quatrième niveau au premier, c'est-à-dire qu'il convient d'abord de déterminer les résultats attendus, de sélectionner les méthodes et les indicateurs clés - dans ce cas, l'évaluation finale sera être moins subjectif.

Le processus d'évaluation économique de la formation du personnel

En 1991, Jack Phillips, expert RH américain et directeur du ROI Institute, a ajouté un cinquième niveau au modèle Kirkpatrick : le ROI (Return on Investments). En effet, il a introduit un indicateur quantitatif spécifique dans le système d'évaluation de la formation du personnel, comme le calcul du pourcentage de profit d'un événement de formation par rapport à ses coûts :

En outre, il a souligné que l'évaluation des performances n'est pas un programme distinct, mais une partie intégrante du système. L'évaluation doit être effectuée à toutes les étapes du processus de formation, en commençant par l'évaluation des besoins de formation et de développement du personnel, puis pendant et après la mise en œuvre du programme, et également au fil du temps lorsque les résultats sont plus évidents. Grâce à cette approche, il est devenu possible de rentabiliser la formation : évaluer le programme de formation en tant qu'outil commercial, et aussi montrer la relation directe entre l'augmentation de la productivité de l'organisation et le système de formation du personnel.

Modèle en V de J. Phillips


Un autre modèle assez connu est la taxonomie de Bloom. Benjamin Bloom a proposé ce modèle en 1956. L'idée principale du modèle est de développer le besoin d'analyse, de développement personnel, de responsabilité et d'autonomie des étudiants eux-mêmes, c'est-à-dire « apprendre aux employés à apprendre » et à appliquer les connaissances acquises dans la vie quotidienne. Dans ce cas, l'employeur est tenu de créer la base nécessaire à la formation, une atmosphère favorable à l'apprentissage et à la motivation.

Dans son système, il a divisé toutes les étapes en trois domaines : cognitif (connaissances), émotionnel (attitudes) et psychomoteur (compétences).

B. Taxonomie de Bloom


Domaine cognitif

Niveaux de pensée élevés

6.Évaluation

Capable de raisonner et d'évaluer des idées, peut présenter et défendre des opinions fondées sur la logique et les faits

5. Synthèse

Capable d'intégrer des pièces dans une structure unique, d'élaborer des plans, de générer de nouvelles idées, de tirer des conclusions, de résoudre de manière créative des problèmes problématiques

Clé : intégrer, modifier, remplacer, composer, formuler, résumer, organiser, planifier

4. Analyse

Capable d'identifier les parties d'un tout, les relations entre les éléments au sein d'une organisation, de trouver des erreurs, de voir les motivations, d'analyser les relations de cause à effet.

Clé : différencier, diviser, expliquer, connecter, classer

3. Demande

Applique les connaissances acquises dans la pratique, trouve des liens, résout des situations problématiques

Clé : Appliquer, Démontrer, Résoudre, Tester, Améliorer, Changer

Niveaux de pensée faible

2. Compréhension

Interprète les faits, règle, compare, identifie les groupes, anticipe et explique les conséquences

Clé : résumer, conclure, comparer, calculer, discuter, continuer, justifier, expliquer

1. Connaissance

Connaissance des spécificités, capacité à opérer avec la terminologie, les faits, connaissance des tendances, classifications, procédures, méthodologies, théories, structures

Clé : répertorier, définir, décrire, représenter, nommer, sélectionner, citer, qui, où, quand, etc.

Domaine émotionnel

5. Assimilation du système de valeurs

Loyauté, choix des moyens de résoudre les problèmes

Clé : prouver, écouter, suivre, vérifier

4. Organisation d'un système de valeurs personnelles

Corréler la valeur des objets et des phénomènes

Clé : proposer, raisonner, rapporter, démontrer

3. Évaluation de la valeur – compréhension et action

Comprendre et accepter les valeurs

Clé : Initier, Façonner, Partager, Suivre

2. Réaction, réponse

Attention, participation active

Clé : discuter, aider, exécuter, présenter, décrire

1. Perception et sensibilisation

Perception passive et acceptation de l'information

Clé : décrire, répondre aux questions

Domaine psychomoteur

L'évaluation de l'efficacité de la formation est une étape importante du processus de formation du personnel. Son objectif est de déterminer comment une organisation bénéficie de la formation des employés ou de déterminer si une forme de formation est plus efficace qu'une autre. Une fois l’argent dépensé pour les études, vous devez savoir exactement ce que l’organisation peut obtenir en retour.

Les informations obtenues en évaluant l’efficacité de programmes de formation spécifiques doivent être analysées et utilisées dans la préparation et la mise en œuvre de programmes similaires à l’avenir. Évaluer l'efficacité de la formation des employés d'une organisation nous permet de travailler constamment à l'amélioration de la qualité de la formation, en éliminant les programmes de formation et les formes de formation qui ne répondaient pas aux attentes.

Idéalement, l'évaluation de l'efficacité de la formation devrait être effectuée en permanence, sous une forme qualitative ou quantitative, en évaluant l'impact de la formation sur des indicateurs de performance organisationnelle tels que les ventes, la qualité des produits et services, la productivité du travail, l'attitude des employés, etc.

La principale raison pour laquelle une organisation devrait évaluer l’efficacité des programmes de formation est de déterminer dans quelle mesure les objectifs de formation ont finalement été atteints. Un programme qui n'atteint pas le niveau de performance, de compétences ou d'attitudes requis doit être modifié ou remplacé par un autre programme. Après avoir formé ses employés, une organisation n’atteint pas toujours le résultat souhaité. Dans ce cas, il est nécessaire d’identifier les raisons de l’échec. Même les bons programmes peuvent échouer pour de nombreuses raisons : des objectifs d'apprentissage irréalistes ou trop généraux peuvent être fixés, le processus d'apprentissage lui-même peut être mal organisé, des échecs peuvent survenir pour des raisons indépendantes de la volonté des spécialistes impliqués dans l'organisation de la formation (par exemple, la maladie d'un enseignant). (pannes), erreurs matérielles ou humaines), etc. Identifier les raisons de l'échec d'un programme de formation donné et les analyser permet de prendre les mesures correctives nécessaires dans le futur.

L'évaluation de l'efficacité de la formation peut être réalisée à l'aide de tests, de questionnaires remplis par les étudiants, d'examens, etc. L'efficacité de la formation peut être évaluée aussi bien par les étudiants eux-mêmes que par les managers, les spécialistes des départements de formation, les enseignants, les experts ou des groupes cibles spécialement créés.

Il existe cinq critères couramment utilisés pour évaluer l’efficacité de la formation. Les données sont présentées dans la figure 1.5.

Considérons ces critères.

Avis des étudiants. Connaître l'avis des étudiants sur le cursus dans lequel ils viennent de suivre une formation, sur son utilité et son intérêt est une pratique acceptée dans de nombreuses organisations.

Figure-Critères utilisés pour évaluer l’efficacité de la formation

Il s’agit de leur demander leur avis sur les questions suivantes :

Qualité de l'enseignement (qualification des enseignants, style d'enseignement, méthodes pédagogiques utilisées) ;

Conditions générales et environnement lors de la formation (conditions physiques, manque de distractions, etc.) ;

Le degré d'atteinte des objectifs d'apprentissage (réponse aux attentes des étudiants, volonté des étudiants d'utiliser les résultats d'apprentissage dans leur pratique professionnelle).

Lors de l'évaluation des opinions, on suppose que si les participants ont apprécié le programme de formation, celui-ci est alors suffisant. L'avis des étudiants est considéré comme une appréciation d'experts capables d'évaluer objectivement le programme selon les critères proposés (indicateurs). À la fin de la formation, les étudiants sont généralement invités à remplir des questionnaires spécialement conçus, qui peuvent contenir, par exemple, les questions suivantes :

Dans quelle mesure ce programme vous a-t-il été utile ?

La formation était-elle intéressante ?

Dans quelle mesure le sujet de la formation était-il pertinent ? et ainsi de suite.

Les réponses des étudiants peuvent fournir des informations importantes sur leur attitude à l'égard de l'apprentissage, sur la manière dont le matériel a été présenté par l'enseignant et révéler leur volonté d'utiliser les connaissances et les compétences acquises dans leur travail.

Maîtriser le matériel pédagogique.

Pour évaluer le degré de maîtrise du matériel pédagogique par les étudiants, l'enseignant ou l'organisateur de l'étude doit répondre à deux questions principales :

Que doit être capable de faire un étudiant pour démontrer qu’il maîtrise la matière ?

Que doit savoir l’étudiant ? À quelles questions doit-il pouvoir répondre ?

C'est l'exhaustivité de l'acquisition des connaissances et la solidité des compétences acquises qui sont les indicateurs sur la base desquels s'apprécie la réussite de la formation. L'exhaustivité du matériel d'apprentissage peut être évaluée à l'aide de quiz oraux, de tests, de tests, de tests et d'examens oraux ou écrits. Les tests de connaissances écrits et oraux exigent que les étudiants se voient poser diverses questions.

Malheureusement, la plupart des entreprises russes ne tentent pratiquement pas de savoir dans quelle mesure le matériel de formation a été maîtrisé par les employés qui ont suivi la formation. Souvent, vous devez faire face au fait que la procédure de « test » ou de « test », utilisée pour effrayer les étudiants, s'avère en fait être une pure formalité - tout le monde reçoit un test et les formulaires remplis avec les résultats du test sont envoyés. directement à la poubelle sans vérifier. Bien entendu, cette forme de « contrôle de l’assimilation » a le droit d’exister – dans ce cas, elle a pour fonction d’augmenter la motivation des étudiants à apprendre. Mais si vous pouvez tirer beaucoup plus de cette procédure, vous ne devriez pas la refuser.

Changements de comportement. Ce critère détermine l'évolution du comportement des salariés après avoir suivi une formation lors de leur retour au travail. Par exemple, la formation à la sécurité devrait aboutir à des niveaux plus élevés de respect des règles de manipulation des substances inflammables ou toxiques ; formation à la conduite - maîtrise des compétences de conduite, conduite sûre ; formation en communication d'entreprise - réduction du nombre de conflits dans l'organisation, niveau plus élevé de coopération entre les employés de l'organisation.

Résultats de travail.

L'efficacité d'un programme de formation peut également être évaluée par les résultats de performance de ceux qui ont suivi la formation. Si les performances d'une organisation, d'un service ou d'un employé individuel s'améliorent, c'est alors le véritable avantage que l'organisation reçoit grâce à la formation. L’incitation à commencer à former le personnel peut être due au fait que le niveau de gaspillage ou de défauts est trop élevé. Dans ce cas, l'objectif de la formation des employés sera de réduire les déchets, par exemple de 10 à 3 pour cent. Si un tel résultat est atteint, on peut considérer que la formation a été réussie. Le succès d'un cours de marketing peut être mesuré en mesurant le volume des ventes ou en mesurant la satisfaction des clients grâce à une enquête client. Vous pouvez inviter les supérieurs immédiats des employés ayant suivi la formation à évaluer dans quelle mesure ils appliquent les connaissances acquises au cours de la formation. Cette procédure d'évaluation peut être répétée après un certain temps (après 1 mois, 3 mois, 6 mois ou plus).

Rentabilité.

Les programmes de formation doivent également être évalués du point de vue de leur rapport coût-efficacité. La formation doit être bénéfique pour l'organisation, c'est-à-dire que nous devons nous efforcer de garantir que les avantages qui seront reçus à la fin de la formation dépassent les coûts de réalisation de la formation.

Par exemple, chez Honeywell, l'effet d'un programme de formation sur l'augmentation de la productivité du travail et de la qualité des produits est déterminé par la formule :

E=P x N x V x K - N x Z, (1.1)

où P est la durée du programme (en années) ; N est le nombre de travailleurs formés ; V - estimation du coût des différences de productivité du travail entre les meilleurs et les travailleurs moyens (en dollars) ; K est le coefficient d'augmentation des performances grâce à la formation : Z est le coût de formation d'un employé (en dollars).

La formation doit faire partie intégrante du travail de l'organisation, indissociable de ses principaux objectifs. La formation coûte de l'argent, mais cet investissement est rentable grâce à une productivité, une qualité et une satisfaction client accrues. De plus, les salariés apprécient grandement les opportunités que la formation leur ouvre.

Les indicateurs suivants d'efficacité de la formation et les méthodes de leur calcul peuvent être distingués (tableau 1.5) :

Tableau 1.5 - Indicateurs d'efficacité de la formation et modalités de leur calcul

Direction de l'évaluation

Indice

Méthode de calcul

Frais de formation

Part des frais de formation

Ratio des dépenses de formation sur les dépenses totales

Coûts par employé

Coûts de formation divisés par le nombre d'employés formés

Coûts de formation par heure de cours

Coûts totaux de formation divisés par la durée totale de la formation

Retour sur investissement en formation

Économies réalisées par rapport aux coûts de formation

Économies totales provenant de ressources précédemment inutilisées ou de gaspillages évités divisées par les coûts de formation

Pourcentage d'amélioration des performances de production après formation par cours

Pourcentage d'employés qui ont amélioré leurs performances de production (différence de performances avant et après la formation)

Revenu par employé par an

Revenu total ou ventes divisé par le nombre total d'employés

Bénéfice par employé et par an

Bénéfice annuel total avant impôts divisé par le nombre total d'employés

Disponibilité de spécialistes qualifiés

Nombre d'employés du service de formation pour 1000 employés de l'entreprise

Effectif du service formation divisé par le nombre total d'employés x 1000

Évaluation des performances du service formation

Satisfaction des consommateurs des services du service de formation et de développement du personnel

Le rapport entre le nombre de consommateurs des services du service de formation qui ont évalué « bon travail » ou « travail efficace » par rapport au nombre total de consommateurs qui ont rempli des fiches d'évaluation

Il est clair que pour différents types d'évaluation, les critères seront légèrement différents. Par exemple, pour évaluer la formation initiale, les critères pourraient être les suivants : connaissance des produits et services, profil de personnalité, capacités de communication dans l'interaction avec les clients ; activité dans le processus éducatif. Et pour évaluer les pratiques, le suivi et l'évaluation planifiée, des critères tels que le désir d'évolution, le respect de la culture d'entreprise, etc. peuvent également être ajoutés.

La procédure d'évaluation de l'efficacité de la formation comprend généralement quatre étapes, présentées dans la figure 1.5.

Figure - Étapes de la procédure d'évaluation de l'efficacité de la formation

1. Détermination des objectifs d'apprentissage. Le processus d'évaluation de l'efficacité de la formation commence déjà au stade de la planification de la formation, lors de la détermination de ses objectifs. Les objectifs d'apprentissage fixent les normes et les critères d'évaluation de l'efficacité des programmes de formation.