Maison / Toit / Principes de l'orthographe russe. Qu’est-ce que la sémantique ? Signification du terme et exemples Technologies sémantiques en CAO

Principes de l'orthographe russe. Qu’est-ce que la sémantique ? Signification du terme et exemples Technologies sémantiques en CAO

annotation

L'article est consacré aux problèmes d'analyse sémantique des textes. Différentes méthodes sont envisagées : diagrammes de dépendances conceptuels et réseaux sémantiques ; des approches basées sur des fonctions lexicales et des classes thématiques ; cadres et modèles ontologiques ; modèles logiques de représentation des connaissances. Chacun d'eux a ses propres avantages et inconvénients.

La création de nouvelles méthodes d'analyse sémantique des textes est pertinente pour résoudre de nombreux problèmes de linguistique informatique, tels que la traduction automatique, la synthèse automatique, la classification de textes et autres. Le développement de nouveaux outils pour automatiser l’analyse sémantique est tout aussi important.

Méthodes et systèmes d'analyse sémantique de texte

La sémantique est une branche de la linguistique qui étudie la signification sémantique des unités linguistiques. Outre la connaissance de la structure du langage, la sémantique est étroitement liée à la philosophie, à la psychologie et à d'autres sciences, car elle soulève inévitablement des questions sur l'origine du sens des mots, leur rapport à l'être et à la pensée. Lors de l’analyse sémantique, il est nécessaire de prendre en compte les caractéristiques sociales et culturelles du locuteur natif. Le processus de la pensée humaine, tout comme le langage, qui est un outil permettant d’exprimer des pensées, est très flexible et difficile à formaliser. Par conséquent, l'analyse sémantique est à juste titre considérée comme l'étape la plus difficile du traitement automatique de texte.

La création de nouvelles méthodes d'analyse sémantique des textes ouvrira de nouvelles opportunités et permettra
faire des progrès significatifs dans la résolution de nombreux problèmes de linguistique informatique, tels que la traduction automatique, la synthèse automatique, la classification de textes et autres. Non moins pertinent est le développement de nouveaux outils pour automatiser l’analyse sémantique.

À l'heure actuelle, il existe plusieurs méthodes pour représenter le sens des déclarations, mais aucune d'entre elles n'est universelle. De nombreux chercheurs ont travaillé sur la corrélation du sens du texte. Donc, I.A. Melchuk a introduit le concept de fonction lexicale, a développé les concepts de valences syntaxiques et sémantiques et les a considérés dans le contexte d'un dictionnaire explicatif-combinatoire, qui est un modèle de langage. Il a montré que les significations des mots ne sont pas directement liées
avec la réalité environnante, mais avec les idées du locuteur natif sur cette réalité.

La plupart des chercheurs sont enclins à penser que l’analyse sémantique doit être effectuée après l’analyse syntaxique. V.Sh. Rubashkin et D.G. Lahuti a introduit une hiérarchie de connexions syntaxiques pour un fonctionnement plus efficace de l'analyseur sémantique. Les plus importantes sont les connexions de rôle obligatoires, suivies par les connexions de coréférence, puis les connexions de rôle facultatives, et ensuite seulement les connexions associatives au sujet.

Le célèbre linguiste E.V. Paducheva propose de considérer des classes thématiques de mots, en particulier de verbes, puisqu'ils portent la charge sémantique principale : verbes de perception, verbes de connaissance, verbes d'émotions, verbes de prise de décision, actions de parole, mouvement, verbes de son, verbes existentiels, etc. L'idée essentielle de cette approche est l'idée de diviser les concepts linguistiques en certains groupes sémantiques, en tenant compte du fait que ces concepts ont une composante sémantique commune non triviale. Les éléments de ces groupes ont tendance à avoir le même ensemble de concepts dépendants. Cependant, le principal problème de cette approche est que l'identification de classes thématiques et la compilation de dictionnaires sémantiques sont un processus extrêmement laborieux, fortement dépendant de la perception individuelle et de l'interprétation des concepts par une personne particulière.

Un langage universel de représentation des connaissances devrait être un outil pratique pour dériver de nouvelles connaissances à partir des connaissances existantes, ce qui signifie qu'il est nécessaire de créer un appareil pour vérifier l'exactitude des déclarations. C’est là que les modèles logiques de représentation des connaissances sont utiles. Par exemple, le langage sémantique proposé par V.A. Tuzov, contient les formalismes de la logique des prédicats ; il contient des concepts « atomiques », des « fonctions » sur ces concepts et des règles d'inférence avec lesquelles de nouveaux concepts peuvent être décrits. Il est possible que la pensée scientifique évolue dans le sens de la création de tels langages sémantiques à l'avenir.

Malgré le fait que certaines idées scientifiques et techniques dans le domaine du traitement de texte se développent assez rapidement, de nombreux problèmes d'analyse sémantique restent non résolus. La plupart des chercheurs sont arrivés à la conclusion qu'un dictionnaire destiné à soutenir l'analyse sémantique doit fonctionner avec des significations et, par conséquent, décrire les propriétés et les relations des concepts, et non des mots. Mais la question se pose de savoir comment structurer et présenter correctement les informations dans de tels dictionnaires afin que la recherche dans ceux-ci soit pratique et rapide, et qu'il soit également possible de prendre en compte les changements dans le langage naturel (la disparition des anciens et l'émergence de nouveaux concepts ). Cet article tente de systématiser les réalisations connues dans le domaine de l'analyse sémantique et, dans une certaine mesure, de trouver une réponse à cette question et à d'autres.

Etude de la sémantique dans le cadre de la théorie « Sens ↔ Texte »

Lors de la création de la théorie « Sens ↔ Texte » I.A. Melchuk a introduit le concept de fonction lexicale.
D'un point de vue formel, une fonction lexicale est une fonction dont les arguments sont des mots ou des expressions d'une langue donnée, et les valeurs sont un ensemble de mots et d'expressions de la même langue. Dans le même temps, seules les fonctions lexicales qui ont des significations phraséologiquement liées présentent un intérêt substantiel et sont prises en compte - des significations possibles avec certains arguments et impossibles avec d'autres.

En d'autres termes, une fonction lexicale est une certaine relation sémantique, par exemple « égalité de sens » (Syn), « sens opposé » (Anti), etc. Soit un certain nombre d'unités lexicales - mots et phrases ; alors cette fonction lexicale attribue à chacune de ces unités un ensemble d'unités lexicales qui sont dans la relation sémantique appropriée avec l'unité d'origine.

Les significations d'une fonction lexicale à partir de différents arguments peuvent coïncider complètement ou partiellement ; Les valeurs de différentes fonctions du même argument peuvent également coïncider. Les corrélats alternatifs inclus dans la signification d'une fonction lexicale donnée à partir d'un argument donné ne doivent pas nécessairement être interchangeables toujours et dans n'importe quel contexte. Ils peuvent différer par leurs caractéristiques stylistiques, par tous types de compatibilité, par leurs conditions d'utilisation grammaticales et, enfin, même par leur sens. Il est particulièrement important de souligner ce dernier point : les différents corrélats ne doivent pas toujours être complètement synonymes ; il suffit que leurs significations aient une partie commune qui correspond à une fonction lexicale donnée, et que les différences ne dépassent pas certaines limites, c'est-à-dire qu'elles ne soient pas « trop significatives ».

En général, la fonction lexicale n’est pas déterminée pour tous les mots et expressions. Premièrement, certaines fonctions ne sont définies que pour l'une ou l'autre partie du discours : par exemple, Oper, Func et Labor ne sont concevables que pour les noms. Deuxièmement, telle ou telle fonction ne peut être définie que pour des mots d'une certaine sémantique : Magn - pour des mots dont le sens permet une gradation (« plus - moins ») ; Oper, Func et Labor sont définis uniquement pour les noms de situations.

Il convient de garder à l'esprit que même avec un argument tout à fait adapté (au niveau de ses propriétés syntaxiques et sémantiques), la fonction lexicale peut n'avoir aucun sens (dans une langue donnée). Par exemple, les synonymes sont, en principe, possibles pour tous les mots, mais seuls certains en disposent. Cela est dû à la nature phraséologique des fonctions lexicales.

Il convient de souligner une fois de plus qu'au départ, les fonctions lexicales ont été introduites spécifiquement pour décrire la compatibilité lexicale et non pour représenter le sens dans un sens général ; elles ne doivent donc pas toutes être interprétées comme des unités sémantiques. La relation entre les fonctions lexicales et le sens est loin d’être claire. Certaines fonctions lexicales peuvent revendiquer le statut d'éléments sémantiques, d'autres peuvent n'avoir aucune signification, d'autres encore peuvent recouvrir une signification très complexe.

De notre point de vue, parler des fonctions lexicales comme de fonctions « à valeurs multiples » n'est pas tout à fait correct et pratique. Il est plus pratique de parler de prédicats lexicaux. Ce qui suit est une liste de « fonctions » lexicales standards simples (elles seront présentées ici sous forme de prédicats).

1. Syn (x, y), x, y – synonymes.

2. Conv (x, y), x, y – conversions.

3. Anti (x, y), x, y – antonymes.

4. Der (x, y), y est un dérivé syntaxique de x, c'est-à-dire que y coïncide avec x dans le sens, mais appartient à une partie différente du discours :

S0 (x, y), y est un nom dérivé de x (x n'est pas un nom) ;

A0 (x, y), y – adjectif dérivé de x (x – pas un adjectif) ;

Adv0 (x, y), y – adverbe formé à partir de x (x – pas un adverbe) ;

V0 (x, y), y est un verbe formé de x (x n'est pas un verbe).

Autrement dit, "x"y (Der (x, y) « S0 (x, y) Ú A0 (x, y) Ú Adv0 (x, y) Ú V0 (x, y)).

5. Gener (x, y), y – un concept généralisant par rapport au concept désigné x (x = fraise, y = baie). Ce prédicat dépend de la compatibilité lexicale des mots dans une langue donnée : si x et m sont des mots de deux langues différentes qui ont le même sens, alors pour Gener (x, y) et Gener (m, n), respectivement, y et n peuvent ne pas avoir la même signification.

Une situation est un certain reflet lexical (dans une langue donnée) d'une partie de la réalité. Les situations désignées par des unités lexicales individuelles des langues naturelles (lexèmes) ont, en règle générale, de un à quatre composants sémantiques, ou actants sémantiques, désignés par des lettres latines majuscules A, B, C, D. En même temps, chacun un tel lexème est comparé en profondeur, les actants syntaxiques sont ses dépendants, correspondant au sujet et aux objets forts (si ce lexème est réalisé par un verbe prédicat). Les actants syntaxiques profonds sont numérotés avec des chiffres arabes : 1, 2, 3, 4.

6. Si (x, y), i = 1, …, 4, y – nom typique du i-ème actant pour x.

7. Sc (x, y), y – circonstant, c'est-à-dire le nom typique de la composante secondaire d'une situation donnée x :

Sloc (x, y), y – nom typique du lieu où se produit cette situation x ; "où..." (x = bataille, y = champ (de bataille)) ;

Sinstr (x, y), y – nom typique de l'instrument utilisé dans une situation donnée x ; « ce par quoi/par quoi… » (x = lutte, x = arme (de lutte)) ;

Smod (x, y), y – nom typique de la méthode (manière, caractère) de mise en œuvre d'une situation donnée x ; « le chemin... » (x = vie, y = image (de la vie)) ;

Sres (x, y), y – nom typique du résultat d'une situation donnée ; « ce qui sort » (x = copie, y = copie).

En d'autres termes, "x"y (Sc (x, y) « Sloc (x, y) Ú Sinstr (x, y) Ú Smod (x, y) Ú Sres (x, y)).

8. Prédicats corrélatifs Signe (x, y), y – nom typique d'un « morceau », d'un « quantum » d'un certain x ; Mult (x, y), y – nom typique d'une collection, d'un ensemble.

9. Sigur (x, y), y – métaphore de x (x = rêve, y = embrasser (rêve)).

10. Centr (x, y), y – désignation typique de la partie « centrale » d'un objet ou d'un processus.

11. Ai (x, y), i = 1, …, 4, y – définition typique du i-ème actant selon son rôle réel ; « celui qui » ; "celui qui..."

12. Ablei (x, y), i = 1, …, 4, y – définition typique du i-ème actant en fonction de son rôle potentiel dans la situation ; « celui qui peut… » ; "celui qui peut..."

13. Magn0 (x, y) et Magni (x, y), i = 1, ..., 4, y désigne le « haut degré », « l'intensité » de la situation x elle-même (Magn0) ou son i-ème Actant (Magni).

14. Ver (x, y), y – « correct », « adapté à l'usage », « comme il se doit » par rapport à x.

15. Bon (x, y), y – « bon » par rapport à x.

16. Advix (z, y), i = 1, ..., 4, x = A, B, C, D, y – le nom de la situation comme définition d'un verbe nommant une autre situation :

AdviA (z, y), i = 1, ..., 4, y – un mot formé de z, qui, remplaçant z dans le texte, nécessite de transformer le premier actant de ce z en sommet (au lieu de z) ( x = accompagner, y = ensemble Avec).

AdviB (z, y), i = 1, …, 4, y nécessite que le deuxième actant z devienne le sommet (x = faux, y = faux).

17. Loc (x, y), y – préposition de localisation typique (spatiale, temporelle ou abstraite) :

Locin (x, y), y – localisation « statique » (x = Moscou, y = in) ;

Locad (x, y), y – préposition de direction (x = Moscou, y = vers) ;

Locab (x, y), y – préposition de retrait (x = Moscou, alors y = de).

Autrement dit, "x"y (Loc (x, y) « Locin (x, y) Ú Locad (x, y) Ú Locab (x, y)).

Parfois, Loc(x,y) ne peut pas être déterminé sans ambiguïté (x = neige, y = on et y = in).

18. Copul (x, y), y – verbe de liaison « être », « apparaître » (x = attaqué, y = attaqué).

19. Oper1 (x, y), Oper2 (x, y), y – verbe reliant le nom du premier (respectivement deuxième) actant dans le rôle du sujet avec le nom de la situation dans le rôle du premier objet ( si x = support, alors y = fournir Oper1 (x, y) et y = trouver ou rencontrer Oper2 (x, y)).

20. Func0 (x, y), Func1 (x, y), Func2 (x, y), y – un verbe qui a le nom de la situation comme sujet x avec les noms des actants (le cas échéant) comme sujet objet (x = pluie, y = partir).

21. Labor12 (x, y), y – un verbe reliant le nom du premier actant dans le rôle du sujet, avec le nom du deuxième actant dans le rôle du premier objet et avec le nom de la situation dans le rôle du deuxième objet (x = ordre, y = récompense ; x = punition, y = sujet).

22. Causij (x, y), y – l'action des actants « faire pour que… », « provoquer ». Dans le cas sans indices actants Caus (x, y), x est le nom du non-participant à la situation (x = crime, y = poussée). Il n'apparaît séparément qu'avec les verbes ; dans d'autres cas, il fait partie de paramètres complexes.

23. Incep (x, y), y – « pour commencer ». Les propriétés sont les mêmes que Causij (x, y).

24. Perf (x, y), y – « perfectif », y porte l'achèvement de l'action, l'atteinte de sa limite naturelle. Perf (x, y) n'a pas d'expression indépendante distincte en russe ; En règle générale, ce prédicat est évalué comme vrai si y est sous la forme perfective (x = lu, y = lu).

25. Résultat (x, y), y – « résultat », c'est-à-dire y – « état comme résultat... » ; utilisé pour les formes imperfectives (x = s'allonger, y = s'allonger pour Perf(x, y), y = s'allonger pour Result(x, y)).

26. Fait j (x, y), y – « à réaliser », « à accomplir ». L'exposant (chiffres romains) représente, si nécessaire, le degré de mise en œuvre de l'exigence implicite, avec un indice inférieur attribué au degré inférieur (si x = piège et j = I, alors y = déclencheur ; si j = II, alors y = capture).

27. Réel j1,2(x, y), y – « réaliser », « remplir l'exigence » contenue dans x. L'indice j a la même signification que ci-dessus – le degré d'achèvement ; l'indice désigne l'actant syntaxique profond qui remplit l'exigence (x = dette (monétaire), y = reconnaître pour Real I1,2(x, y), y = rembourser pour Real II1,2(x, y)).

28. Destr (x, y), y – un nom typique pour une action « agressive » (x = guêpe, y = piqûres).

29. Cap (x, y), y – « chef » (x = professeur, y = doyen).

30. Equiper (x, y), y – « personnel » (x = population, y = état).

31. Doc (x, y), y – « document » :

Docres (x, y), y – « le document qui est le résultat » ; « incarner » (x = rapport, y = rapport) ;

Docperm (x, y), y – « document pour le droit… » (x = train, y = billet (de voyage) pour Docperm Oper2 (x, y)) ;

Doccert (x, y), y – « un document certifiant... » (x = enseignement supérieur, y = diplôme).

Autrement dit, "x"y (Doc (x, y) « Docres (x, y) Ú Docperm (x, y) Ú Doccert (x, y)).

En plus des prédicats lexicaux simples énumérés ci-dessus, leurs combinaisons - prédicats composés - peuvent être utilisées pour décrire la compatibilité lexicale :

AntiReal2 (x, y) : échouer à l'examen/échouer à l'examen ;

IncepOper2 (x, y) : gagne en popularité, tombe dans le désespoir ;

IncepOper2 (x, y) : mis en vente, sous le feu des critiques ;

CausOper2 (x, y) : mettre sous contrôle, mettre en circulation.

Comme indiqué précédemment, dans le cas général, la fonction lexicale n'est pas déterminée pour tous les mots et expressions. Une fonction ne peut être définie que pour des mots d'une certaine sémantique. Par exemple, Cap et Equip - pour les mots dont le sens implique la présence de « chef » et de « personnel », c'est-à-dire pour les noms d'institutions et d'organisations au sens le plus large ; Réel – pour les mots dont la signification inclut le composant « exiger » (« besoin »), etc.

Si les fonctions lexicales sont représentées sous forme de prédicats, aucune difficulté ne surgit.
Dans les cas où les fonctions lexicales ne sont pas définies, leurs prédicats correspondants seront faux.

Un rôle particulier dans l'étude de la sémantique dans l'approche d'I.A. Melchuk joue sur la valence des mots, c'est-à-dire la capacité des mots à entrer en connexion avec d'autres mots. Les mots qui définissent une situation ont des valences. Ce sont tous des verbes, des noms (verbaux), des adjectifs (indiquant une comparaison : plus, moins, plus haut, plus bas), des prépositions et des adverbes.

Il existe deux types de valences de mots : syntaxiques et sémantiques. Même si cette division est parfois assez arbitraire. Les valences sémantiques sont déterminées par analyse lexicale de la situation spécifiée par un mot spécifique. Donnons un exemple avec le mot loyer ou loyer. A loue C signifie que, moyennant une certaine contrepartie D, la personne A acquiert d'une autre personne B le droit d'exploiter la propriété C pendant une période de temps T. Par conséquent, essentiel à la situation de location
sont les « participants » ou actants sémantiques suivants : le sujet du bail (celui qui loue), le premier objet du bail (ce qui est loué), la contrepartie (celui chez qui ils louent), le deuxième objet (le paiement) et le terme.

Ces actants sont nécessaires, puisque l’élimination de l’un d’entre eux change le sens de la situation. Par exemple, si vous supprimez le terme, la situation de location se transforme en situation d’achat et de vente. En revanche, ces actants sont suffisants, puisque dans une situation de location il n'y a aucune obligation d'indiquer pour quelle raison, où, quand et dans quel but elle a été réalisée. Bien que les formes de mots correspondantes soient grammaticalement attachées au verbe louer.

En d’autres termes, la valence sémantique est déterminée par le nombre d’actants sémantiques. Ainsi, le verbe louer a une valence sémantique de 5, puisqu'il possède 5 actants sémantiques. Formellement, cette situation peut être écrite sous la forme d'un prédicat P (x1, x2, x3, x4, x5), où x1 est « qui », x2 est « quoi », x3 est « qui a », x4 est « paiement », x5. est « terme ».

Tous les actants sémantiques ne peuvent pas être définis dans une phrase ; certains peuvent tout simplement ne pas être mentionnés ou n’avoir aucune expression syntaxique. Les valences syntaxiques sont déterminées par le nombre d'actants syntaxiques présentés directement dans le texte (c'est-à-dire les sujets et les objets attachés au verbe) et dépendent du contexte.

Par exemple, la valence sémantique du verbe manquer est de 4, puisqu'il a 4 actants : qui (l'acteur), dans quoi/à quoi (cible), à ​​partir de quoi (arme - facultative) et avec quoi (organe, moyen). Mais dans la plupart des contextes, une seule valence est exprimée syntaxiquement, par exemple dans la phrase « Il a visé longtemps, mais il a raté ». Cependant, la phrase « Il a raté la fenêtre avec une bouteille » n'est pas tout à fait correcte.

D'un point de vue formel, nous avons la construction décrite ci-dessous. Afin de ne pas associer un prédicat distinct à chaque verbe (et autres mots), nous considérerons un prédicat dont la dimension est supérieure de 1 : P val(y, x1, x2, ..., xn), tandis que y sera le le mot lui-même, et x1, x2, ..., xn – sa valence. Pour distinguer les actants syntaxiques et sémantiques, des multi-indices peuvent être utilisés pour indiquer les actants spécifiés dans le texte. L'entrée signifie que les actants i1, i2, …, ik sont spécifiés.
En particulier, si tous les actants sont donnés, alors nous obtenons. Certaines variantes (d'ensembles multi-index) peuvent ne pas être valides dans le langage. Si l’ensemble i1, i2, …, ik est admissible, alors l’implication est vraie

De plus, s'il existe deux ensembles de multi-index valides Et , tel que (i1, i2, …, ik) Ê (i1", i2", …, is"), alors une implication similaire est vraie

Le dictionnaire combinatoire explicatif est l'une des principales inventions théoriques d'I.A. Melchuk.
En un sens, le modèle linguistique proposé par I.A. Melchuk, présente la langue comme un ensemble d'entrées de dictionnaire contenant une énorme quantité d'informations variées ; Avec un tel dictionnaire, les règles grammaticales jouent plutôt un rôle secondaire. Le dictionnaire combinatoire explicatif reflète tout d'abord la compatibilité non triviale des lexèmes. Nous pouvons considérer une langue comme un très grand modèle dans lequel sont définis des prédicats lexicaux qui fonctionnent de la manière décrite ci-dessus.

Une entrée dans un dictionnaire combinatoire explicatif contient des informations sur les valences d'un mot particulier, ce qui est vrai non seulement dans son cadre, mais également dans le cadre de la langue dans son ensemble. Valence correspond à un prédicat, où sont les actants sémantiques du mot cx, n est la valence du mot cx. Par exemple, dans la phrase Petya lit un livre, cx = lire, n = 2 : y1 = Petya, y2 = livre, c'est-à-dire que nous pouvons écrire conditionnellement P val (cx, y1, y2) = 1.

Un ensemble d'entrées dans un dictionnaire explicatif-combinatoire peut être considéré comme un certain sous-modèle du modèle original, qui est un langage. Les prédicats lexicaux, désormais définis sur un ensemble plus restreint, agiront de la même manière.

Notons F l'ensemble des phrases correctement construites du langage naturel L et j О F – une phrase de cet ensemble ; – le mot cx est inclus dans la phrase j, et cx О L. Soit cx un nom ou un adjectif. Notons par Prédicat l'ensemble des prédicats définis sur L. L'un des éléments de cet ensemble est le prédicat de valence P val (cx, y1, …, yn) introduit précédemment.

De même, on peut supposer qu’il existe d’autres prédicats :

– prédicat du genre du mot Genre, où О (g1, g2, g3), g1 = féminin ; g2 = mâle ; g3 = moyenne ;

– prédicat de la préposition Préposition, où Î (pr1, ..., prk) – un ensemble de prépositions combinées avec un mot donné ;

– cas prédicat Cas, où – cas du mot cx; pour différentes langues, le nombre de cas est différent : par exemple, dans la langue russe il y a six cas, donc Î (cas1, cas2, cas3, cas4, cas5, cas6), cas1 = im.p. ; cas2 = sexe ; cas3 = date ; case4 = vin.p.; case5 = créatif ; cas6 = clause ; en allemand, il y a quatre cas, donc Î (case1, case2, case3, case4), où case1 = Nom ; cas2 = Génération ; cas3 = Date ; cas4 = Akka.

L'entrée du dictionnaire explicatif-combinatoire contient le mot principal, les prédicats lexicaux qui lui sont associés et des informations sur la valence de ce mot. Les informations sur la valence comprennent un nombre indiquant le nombre d'actants, et pour chaque actant - une indication dans quels cas et avec quelles prépositions les mots correspondant à cet actant sont utilisés. Dans certains cas, le genre du mot peut également être indiqué.

Ce qui précède peut être représenté par un ensemble de prédicats de la forme

où xi est une variable libre correspondant au i-ième actant.

La théorie « Sens Û Texte » a été créée dès le début pour être utilisée dans les problèmes appliqués de traduction automatique. Selon I.A. Melchuk, avec son aide, contrairement aux théories traditionnelles non rigoureuses, il était nécessaire d'assurer la construction d'un modèle de langage « fonctionnel ». La théorie « Sens Û Texte » a en effet été utilisée dans certains systèmes de traduction automatique développés en Russie, notamment dans le système de traduction automatique anglais-russe ETAP, créé par un groupe dirigé par Yu.D. Apresyan. Tous ces systèmes sont expérimentaux, c’est-à-dire que leur utilisation industrielle n’est pas possible. Bien qu’ils contiennent de nombreuses informations linguistiquement utiles, dans l’ensemble, aucun d’entre eux n’a encore permis une avancée majeure en matière de qualité de traduction.

De l'avis de l'auteur, la principale idée précieuse de cette théorie est que le sens des mots n'est pas directement corrélé avec la réalité environnante, mais avec les idées du locuteur natif sur cette réalité (parfois appelées concepts). La nature des concepts dépend de la culture spécifique ; le système de concepts de chaque langue forme ce qu'on appelle « l'image naïve du monde », qui dans de nombreux détails peut différer de l'image « scientifique » du monde, qui est universelle. La tâche de l'analyse sémantique du vocabulaire dans la théorie « Sens Û Texte » est précisément de découvrir « l'image naïve du monde » et de décrire ses principales catégories. En d’autres termes, le rôle important de cette théorie est de décrire non seulement l’image objective, mais aussi subjective du monde.

Malgré cet intérêt pour la théorie d'I.A. Melchuk s'estompe, le marquage du corpus syntaxique « Corpus national de la langue russe » est effectué par le processeur linguistique ETAP-3, basé sur les principes de la théorie « Sens Û Texte ».

Comme mentionné ci-dessus, Yu.D. a participé au développement du processeur ETAP. Apresyan. Ses idées sont quelque peu différentes de celles d'I.A. Melchuk. La place centrale dans les recherches de Yu.D. Apresyan est occupé par un nouveau type de dictionnaire de synonymes. Pour ce dictionnaire, un schéma détaillé de description des séries synonymes a été développé, dans lequel chaque élément de la série a été caractérisé en termes de sémantique, de syntaxe, de compatibilité et d'autres propriétés. Le dictionnaire collecte et résume le maximum d'informations sur le comportement linguistique des synonymes russes.

Diagrammes de dépendance conceptuels

Analyse conceptuelle et de cas

Au stade de l'analyse morphologique et sémantico-syntaxique des textes, les principales unités désignant les concepts sont les mots. En règle générale, on pense que le sens des phrases et des expressions peut être exprimé à travers le sens des mots qui les constituent. Seul un nombre limité de phrases stables – les expressions idiomatiques – sont considérées comme des exceptions. Cette approche repose sur l'hypothèse que les combinaisons de mots trouvées dans une langue peuvent être divisées en « libres » et « non libres ».

Une autre approche repose sur le fait que les unités de sens les plus stables (indivisibles) sont des catégories et des concepts, constitués non pas de mots indépendants, mais de phrases. Ces catégories et concepts sont appelés concepts. Avec cette approche, les phrases « non libres » ne sont pas seulement des expressions idiomatiques, mais aussi toutes les unités phraséologiques stables du langage et de la parole (il y en a des centaines de millions dans les langues développées).

L'idée de l'analyse conceptuelle en tant que partie intégrante de l'analyse sémantique se retrouve également dans les études de V.Sh. Rubashkin et D.G. Lahuti. Cette section expose brièvement les points de vue sur la question de savoir quels problèmes devraient être résolus au moyen d'une analyse sémantique conceptuelle.

L'entrée du composant sémantique doit recevoir un texte syntaxiquement marqué. Le texte balisé doit contenir diverses informations : identifiants de concepts correspondant au mot (terme) ; indication de l'hôte syntaxique (tous les hôtes alternatifs) et du type de connexion syntaxique, etc.

Avant de passer à la composante sémantique, les termes et expressions doivent également être identifiés, la présentation des informations numériques doit être unifiée, les noms propres doivent être identifiés, etc. Dans des projets réels, tous ces problèmes sont résolus avec différents degrés d'approximation. On peut considérer que la communauté professionnelle est parvenue à un accord sur au moins les questions suivantes.

L'analyse sémantique, du point de vue des méthodes et moyens utilisés, doit comprendre deux étapes : a) l'étape d'interprétation des connexions grammaticalement exprimées (syntaxiques et anaphoriques) et b) l'étape de reconnaissance des connexions qui n'ont pas d'expression grammaticale .

Les ambiguïtés doivent être résolues par le processus d'analyse lui-même - selon le critère du degré de satisfaction sémantique du résultat obtenu dans chaque option.

Le point clé d’un système d’analyse sémantique est la prise en charge efficace d’un dictionnaire.
En ce sens, tout système d’analyse sémantique est orienté thésaurus. Les procédures d'analyse sémantique sont dans tous les cas, sans exception, basées sur la fonctionnalité du dictionnaire conceptuel. Un dictionnaire destiné à prendre en charge l’analyse sémantique doit fonctionner avec des significations et, par conséquent, décrire les propriétés et les relations des concepts, et non des mots. Ceci est un dictionnaire conceptuel. En un sens, le rôle de dictionnaire conceptuel peut être joué par les réseaux sémantiques, qui sont décrits dans la section suivante.

Dans l'interprète sémantique, il faut tout d'abord préciser les types distinguables de relations sémantiques dans le texte : rôle (relations selon la valence du prédicat), sujet-associatif (relations entre objets, processus, significatifs dans le sujet zone - faire partie, avoir un lieu, être destiné, être la capitale, etc.), etc.

Les postulats de base suivants pour l'interprétation des connexions syntaxiques sont acceptés.

1. Le type de relation sémantique établie est déterminé par les classes sémantiques et
dans certains cas, des caractéristiques sémantiques plus détaillées des syntaxes « maître » et « serviteur ».

2. Les prépositions ne sont pas considérées comme un objet d'interprétation indépendant, mais comme une caractéristique supplémentaire (sémantique-grammaticale) du lien entre le « propriétaire » syntaxique de la préposition et le mot significatif contrôlé par celle-ci.

3. Pour résoudre l'homonymie lexicale et syntaxique enregistrée par l'analyseur, l'interprète sémantique utilise un système de préférences établies empiriquement. Pour faciliter la comparaison des préférences des options d'interprétation, des classements numériques leur sont attribués. Au niveau des types de relations sémantiques, l'ordre de préférences suivant est établi (l'ordre de listage correspond à une diminution de la priorité de la relation) :

– les connexions fonctionnelles et les connexions qui établissent le fait de redondance sémantique ;

– les connexions de rôle, définies comme obligatoires, en présence d'un actant sémantiquement cohérent ;

– connexions de coréférence;

– les connexions de rôle, définies comme facultatives ;

– les liens associatifs sujet spécifiés;

– les liens associatifs sujet ne sont pas spécifiés.

Les connexions syntaxiques spécifiées sont celles que l'interprète est capable de lexicaliser avec une relation spécifique dans le domaine (installations portuaires ® structures situées dans le port) ; En conséquence, les connexions non spécifiées sont celles pour lesquelles l'interprète ne parvient pas à proposer une telle spécification et qui sont interprétées par le concept général de connecté.

Si une homonymie syntaxique des connexions de coordination est détectée, les préférences sont déterminées par le degré de cohérence des caractéristiques sémantiques des participants à la connexion syntaxique.

Les ambiguïtés lexicales et syntaxiques locales (la présence d'hôtes alternatifs pour un mot) sont traitées dans un seul mécanisme d'énumération. Les options globales pour analyser une phrase sont prises en compte dans le mécanisme d'énumération de niveau suivant. Dans ce cas, les poids d’interprétation totaux de toutes les connexions dans la phrase sont comparés.

Lors de l'établissement de différents types de relations, l'interprétation est déterminée par les dispositions suivantes.

Lors de l'établissement de relations de rôle, les caractéristiques grammaticales suivantes des participants à une connexion syntaxique sont significatives et doivent être prises en compte (par rapport à la langue russe) :

– type sémantico-syntaxique de prédicat (caractéristique du dictionnaire) ;

– forme grammaticale du prédicat ;

– cas actant, possibilité d'une forme adjectivale pour un actant selon une valence donnée ;

– la possibilité de contrôle prépositionnel de l'actant et la capacité de la préposition formant une connexion syntaxique à exprimer la relation selon une valence donnée ; des informations sur la capacité d'une préposition à servir d'indicateur de rôle pour une valence donnée sont stockées dans la description du dictionnaire de la préposition.

Sur le plan opérationnel, la procédure de détermination du rôle possible d'un actant est déterminée par la grammaire des connexions de rôles, établissant la correspondance du type

(Rf, GFP, TSEMU)® VAL,

où Rf est le nom de la connexion syntaxique ; GFP – forme grammaticale du prédicat ; TSEMU – type de prédicat sémantico-syntaxique ; VAL est le nom d'une valence possible ou une référence à la fonction de rôle de la préposition.

Ensuite, la conformité des caractéristiques sémantiques de l'actant avec la condition sémantique de remplissage de la valence du prédicat est vérifiée (la paire de concepts correspondante est vérifiée pour la compatibilité volumétrique).

Pour établir une relation de coréférence, les conditions suivantes sont nécessaires et suffisantes :

– « maître » et « serviteur » appartiennent à la catégorie sémantique Objet ;

– les concepts correspondant aux termes « maître » et « serviteur » sont dans une relation de compatibilité volumétrique ;

– dans le cas d'une connexion prépositionnelle, la capacité d'une préposition donnée à exprimer une relation de coréférence est vérifiée.

Pour établir des relations sujet-associatives spécifiées, les conditions suivantes sont nécessaires et suffisantes :

– les concepts correspondant aux termes « maître » et « serviteur » sont dans une relation d'incompatibilité volumétrique, ou (s'ils sont compatibles) ces termes sont syntaxiquement liés par une préposition qui n'est pas capable d'exprimer une relation de coréférence ;

– avec une paire de termes « maître – serviteur » une relation sujet est lexicalement associée
(<автомобиль, кузов>® ont une partie) et/ou (si la connexion est prépositionnelle) la relation sujet est associée à une préposition et un cas.

Pour établir des relations sujet-associatives non spécifiées, la vérité de la première condition et la fausseté de la seconde condition sont nécessaires et suffisantes.

L'analyse « par échantillon » (analyse préalable), basée sur l'utilisation d'un corpus de textes pré-étiquetés, prend de plus en plus d'importance. Un système d'analyse raisonnablement construit devrait assurer non seulement l'extraction de connaissances à partir d'un texte spécifique, mais également l'accumulation de résultats aux niveaux syntaxique et sémantique - pour leur utilisation ultérieure comme précédents.

L'un des projets les plus importants et les plus importants actuellement mis en œuvre est la création du Corpus national de la langue russe. Un grand groupe de linguistes de Moscou, Saint-Pétersbourg, Kazan, Voronej, Saratov et d'autres centres scientifiques de Russie y participent.

Le Corpus national de la langue russe est une collection de textes électroniques dotés de nombreuses informations linguistiques et métatextuelles. Le corpus représente toute la variété des styles, genres et variantes de la langue russe des XIXe et XXe siècles. Le Corpus national de la langue russe utilise actuellement cinq types de balisage : métatextuel, morphologique (flexionnel), syntaxique, accentuel et sémantique. Nous n'examinerons pas en détail tous les types de balisage disponibles, nous nous concentrerons uniquement sur le balisage sémantique.

Avec le marquage sémantique, la plupart des mots du texte se voient attribuer une ou plusieurs caractéristiques sémantiques et formatrices de mots, par exemple « personne », « substance », « espace », « vitesse », « mouvement », etc. automatiquement à l'aide du programme Semmarkup (auteur A.E. Polyakov) conformément au dictionnaire sémantique du corpus. Étant donné que le traitement manuel de textes sémantiquement étiquetés demande beaucoup de travail, l'homonymie sémantique dans le corpus n'est pas supprimée : plusieurs ensembles alternatifs de caractéristiques sémantiques sont attribués aux mots polysémiques.

Le balisage sémantique est basé sur le système de classification du vocabulaire russe adopté dans la base de données Lexicographe, développé depuis 1992 au Département de recherche linguistique de VINITI RAS sous la direction d'E.V. Paducheva et E.V. Rakhilina. Pour le corpus, le vocabulaire a été considérablement élargi, la composition a été élargie, la structure des classes sémantiques a été améliorée et des fonctionnalités de formation de mots ont été ajoutées.

Le vocabulaire du dictionnaire sémantique est basé sur le dictionnaire morphologique du système « Dialing » (avec un volume total d'environ 120 000 mots), qui est une extension du dictionnaire grammatical de la langue russe d'A.A. Zalizniak. La version actuelle du dictionnaire sémantique comprend des mots de parties significatives du discours : noms, adjectifs, chiffres, pronoms, verbes et adverbes.

L'information lexico-sémantique attribuée à un mot arbitraire dans le texte se compose de trois groupes de marques :

– catégorie (par exemple, nom propre, pronom réfléchi) ;

– les caractéristiques lexico-sémantiques réelles (par exemple, classe thématique du lexème, signes de causalité, évaluations) ;

– caractéristiques dérivées (formatrices de mots) (par exemple, « diminutif », « adjectif adverbe »).

Les informations lexico-sémantiques ont une structure différente selon les parties du discours. De plus, chacune des catégories de noms - noms objectifs, non objectifs et propres - a sa propre structure nominale.

Les marques lexico-sémantiques proprement dites sont regroupées dans les champs suivants :

– taxonomie (classe thématique de lexème) – pour les noms, adjectifs, verbes et adverbes ;

– méréologie (indication de la relation « partie – tout », « élément – ​​ensemble ») – pour les noms objectifs et non objectifs ;

– topologie (état topologique de l'objet désigné) – pour les noms de sujets ;

– causalité – pour les verbes ;

– statut de service – pour les verbes ;

– évaluation – ​​pour les noms, adjectifs et adverbes objectifs et non objectifs.

Classes thématiques de verbes

Les études d'E.V. sont également considérées comme une direction particulière dans l'étude de la sémantique de la langue russe. Paducheva. Les plus intéressants sont les travaux sur les classes thématiques des verbes russes. La classe thématique regroupe des mots ayant une composante sémantique commune qui est centrale dans leur structure sémantique. Il existe par exemple les verbes de phase, les verbes de perception, les verbes de connaissance, les verbes d'émotions, les verbes de prise de décision, d'actions de parole, de mouvement, les verbes de son, les verbes existentiels, etc.

Les mots d’une même classe thématique ont une composante commune non triviale dans l’interprétation. Les cours thématiques sont importants pour plusieurs raisons. Premièrement, une classe thématique a souvent des manifestations caractéristiques dans la syntaxe : par exemple, une classe a généralement un membre caractéristique.
Deuxièmement, les membres d’une même classe thématique ont tendance à avoir le même ensemble de dérivés sémantiques, c’est-à-dire les concepts qui en dépendent.

L'article fournit la liste la plus complète des significations des aspects privés des verbes imperfectifs. On distingue les types de significations suivants : réel-long terme (le processus ou l'état dure au moment de l'observation) ; processuel (c'est-à-dire simplement continu) ; constant-continu (la signification d'une propriété ou d'une relation constante) ; habituel (le sens d'habituel, c'est-à-dire une action ou un événement généralement accepté et répété) ; potentiel; multiple (mais pas habituel ou potentiel) ; factuel général illimité (le sens d'un état arrêté ou d'un processus illimité) ; général factuel efficace (l'action a atteint sa limite) ; bidirectionnel factuel général (le résultat a été obtenu, mais a été annulé par une action dirigée en sens inverse) ; généralement inefficace sur le plan factuel (on ne sait pas si l’action a atteint sa limite).

L'ouvrage analyse les noms de prédicats, c'est-à-dire les noms formés de verbes et d'adjectifs, tels que lutte, venue, désespoir, avarice. Il est ainsi possible de distinguer les processus, les événements, les états et les propriétés.

Par exemple, les noms de processus sont acceptables dans le contexte de verbes ayant le sens « procéder », « aller », c'est-à-dire « avoir lieu » (une conversation a lieu, une grève a lieu, une mise à jour a lieu lieu). Un type particulier de processus est celui des actions en cours, c'est-à-dire des processus intentionnels avec un sujet actif, comme se battre, vérifier, mais pas comme nager, fuir, se rebeller, marcher, dormir, fumer. Les noms d'action sont acceptables dans le contexte de verbes ayant le sens « produire », « conduire » : la surveillance a été effectuée par un groupe d'agents ; ils effectuent l'accueil (remplacement, sélection) ; nous enquêtons.

Tous les noms de processus sont utilisés dans le contexte de verbes de phase ayant le sens « commencer », « terminer », « continuer » : la lutte a commencé (pluie, bataille) ; la persécution des dissidents a pris fin ; Le débarquement (siège) continue. Les noms d'action sont acceptables dans le contexte des verbes de phase ayant le sens « commencer », « fin », « continuer » : entré en négociations ; fini de vérifier les cahiers ; lecture interrompue; démarré, démarré, arrêté (émission). Le contexte du verbe de phase permet de diagnostiquer les noms de processus, par opposition aux noms d'événements.

Les noms d'événements sont utilisés dans le contexte de verbes ayant le sens « arrivé », « arrivé » : un tremblement de terre s'est produit. Les événements diffèrent des processus dans la mesure où ils ont un observateur rétrospectif. L'observateur du processus est synchrone, donc si nous avons un processus, alors le verbe est imparfait, et s'il s'agit d'un événement, alors il est parfait.

Nous omettrons de nombreux autres détails concernant les différences entre les processus, les événements, les états et les propriétés, sauf pour noter que le potentiel d'application de ces études reste à découvrir.

Vous trouverez ci-dessous une liste de verbes de perception, désignés par E.V. Paducheva comme l'une des classes thématiques les plus étudiées. Il semblerait que pour établir qu'un verbe appartient à la classe thématique des perceptions, il suffit de s'assurer que sa formule sémantique inclut la composante « perception ». Pourtant, tout n’est pas si simple. Le fait est que la composante perceptuelle est facilement incluse dans la sémantique des verbes de différentes classes. La perception réelle se jette dans la perception mentale.

1. Verbes de mouvement et d'état qui présupposent un observateur :

a) verbes de mouvement observé : flash, flash, apparaître, glisser ;

b) les verbes de l'état observé : blanchir, ressortir, se tisser ; s'étaler, sortir, éclater, s'étaler, s'ouvrir, performer ;

c) verbes d'émission de lumière, d'odeur, de son : briller, scintiller, briller, sentir, puer, sonner.

2. Le verbe être entendu suggère à l'observateur (comme dans la cloche sonné), mais les verbes suivants ont également une composante perceptuelle : caler, étouffer, éclipser, se taire, se taire, s'apaiser, se taire. fusionner (comme dans la tunique et le pantalon gris presque fusionnés avec le sol).

3. Le sujet de perception (ou observateur) est un participant obligatoire aux situations exprimées par des verbes causatifs : exprimer, montrer (il m'a montré son affection) ; mettre en évidence, révéler, ombrer, surligner, capturer, obscurcir, exposer, marquer (bordures), ouvrir, marquer, afficher ; et leurs décausatifs (exprimer, révéler, ressortir, imprimer, exposer, identifier, ouvrir).

4. Il existe de nombreux verbes qui décrivent l'identification, qui nécessite la participation des sens : identifier, différencier, reconnaître, distinguer, identifier, distinguer (concerner), reconnaître, distinguer (comme dans je ne comprends pas la deuxième lettre).

5. De nombreux verbes incluent une composante perceptuelle, mais désignent une action ou une activité très spécifique, pour laquelle l'essentiel est le but, et non la participation de la perception à sa réalisation : inspecter (« effectuer une inspection »), enregistrer, rechercher , trouver, trouver, chercher, explorer, dépeindre, esquisser, pister, tracer, pister, surveiller, guetter, éclairer, cacher, dissimuler, espionner.

6. Tout verbe pour transmettre et recevoir des informations, par exemple écrire ou lire, présuppose la présence d'un signal qui doit être perçu par les sens.

7. Les verbes montrer et cacher, puisque leur interprétation inclut une composante perceptuelle, peuvent également être classés parmi les verbes de perception.

8. Les verbes de perception incluent, entre autres, aveugle - devenir aveugle (et aveugle dans l'un des sens). Ils décrivent la perte de l’organe de la vision, entraînant la perte définitive de la capacité de voir. Cependant, cela n'inclut pas le verbe se réveiller, qui dénote une perte temporaire de la capacité de percevoir avec son retour ultérieur.

9. Quelques verbes de perception stylistiquement colorés : regarder, regarder, éclore, regarder, regarder, voir, attraper, éclairer.

10. La classification thématique est guidée par le sens originel des mots. Pendant ce temps, de nombreux verbes ont une signification perceptuelle en tant que dérivé ; notamment, veiller, affronter (un problème), pénétrer (un secret), s'exprimer. Par exemple, les bâtiments blancs sont soudainement sortis de l’obscurité.

11. Autres mots similaires dans lesquels le sens de la perception est dérivé ou déterminé contextuellement, tels que lancer (regarder, regarder), se précipiter (dans les yeux), tourner (regarder, attention), traverser (yeux), éblouir (regarder) , glissez (regardez ).

12. Verbes de méthodes d'action marquées :

a) début : transparaître, devenir blanc, sonner ;

b) fifinitifs : regarder, écouter et espionner, entendre ;

c) saturant : regarder suffisamment, admirer suffisamment, écouter suffisamment ;

d) verbes d'absorption complète dans l'action : regarder - regarder, regarder - regarder ;

e) particulièrement efficace : surveiller - surveiller, traquer - traquer, pister - pister ;

f) ramollissement par intermittence : regardez, surveillez ; auto-actif : regardez.

Les verbes de perception, comme les autres classes thématiques, ont leurs propres modèles de dérivation sémantique, caractéristiques de cette classe particulière.

13. La transition sémantique est caractéristique - de la perception à la signification mentale. Le sens mental dérivé se développe, par exemple, dans les verbes voir, regarder, remarquer, considérer (à titre indicatif ; et nous considérons votre phrase), ressentir, paraître, découvrir, entendre, imaginer, rencontrer, suivre, apparaître ; présentez-vous, voyez-vous (même ambiguïté pour le nom regarder) :

a) Depuis le comptoir, il avait une vue dégagée sur le porche du club (signification visuelle) ;

b) Je le vois comme ça (sens mental).

14. Le verbe témoigner suggère étymologiquement la vision, mais dans le contexte de Ceci témoigne de son talent extraordinaire, il a une signification mentale ; faire de la lumière signifie « rendre plus clair », bien que la lumière soit nécessaire pour voir. Le verbe anticiper a généralement perdu la composante associée à la perception gustative et est devenu mental.

15. La signification mentale dérivée apparaît également dans les verbes causatifs. Ainsi, montrer est un verbe de perception, mais il peut aussi avoir le sens de « prouver », mental. Il est intéressant de noter que parmi les dérivés de voir, il y a à la fois des verbes de connaissance et des verbes d'opinion :

a) Je vois que tu es silencieux (connaissance) ;

b) il y voit un obstacle (opinion).

16. Le verbe apparaître combine le sens perceptuel (Il n'était pas là) avec le sens mental (Il s'est avéré qu'il était en bonne santé).

17. Le sens dérivé du discours développe le verbe remarquer ; il se manifeste en combinaison avec des adverbes : vous avez bien remarqué (« dit correctement »).

18. Les verbes écouter, écouter, obéir, tenir compte sont caractérisés par l'ambiguïté de « percevoir » - « soumettre ».

19. La transition sémantique look ® relate est également régulière, c'est-à-dire répétée : je le regarde simplement (je le traite simplement) ; fermer les yeux (se faire plaisir) ; malgré (indépendamment de).

20. L'ambiguïté de look ® relater est caractéristique du verbe loucher : a) (regarder de côté, de côté) ; b) (regarder de travers, traiter avec méfiance, exprimer une attitude suspecte d'un coup d'œil).

21. La transition vers voir ® avoir est représentée par des exemples de trouver, perdre.

22. Le passage de la perception au contact interpersonnel se note dans les verbes se rencontrer, se regarder (la lumière), se voir.

23. Le sens de voir peut s'effacer jusqu'à l'idée de simple contact avec un objet, c'est-à-dire d'être au même endroit (Ces murs ont vu beaucoup de choses ; la Crimée sera toujours heureuse de vous voir).

24. Les verbes apparaître et disparaître se caractérisent par l'ambiguïté d'être visible - exister. Il existe une ambiguïté similaire dans dénoter – être dénoté ; se perdre : par exemple, le Chemin s'est perdu dans les buissons (a cessé d'être visible) et la vivacité des mouvements s'est progressivement perdue (a cessé d'exister) ; la forme parfaite a un abîme (alors que la forme imparfaite disparaître signifie seulement ne pas être visible : où étais-tu ?). En langage mathématique, si X existe, alors X existe.

25. Le concept sémantique de perception coexiste souvent avec le mouvement : se heurter, trébucher, se heurter, se heurter ; me faire prendre (j'ai un champignon blanc).

La conséquence du mouvement peut au contraire être de sortir du champ de vision, comme de se cacher, de s'enfuir, de se blesser.

Il est intéressant de noter que pour les verbes exprimant les principaux types de perception - vision, ouïe, odorat, toucher, goût - il est possible d'identifier un seul paradigme de dérivés sémantiques du lexème original, et ce sera sensiblement le même pour de nombreuses langues, ce qui indique l'ancienneté de ce vocabulaire et de ces conceptions de données.

L'idée essentielle de cette approche est l'idée de diviser les concepts linguistiques en certains groupes sémantiques, en tenant compte du fait que ces concepts ont une composante sémantique commune non triviale. Les éléments de ces groupes ont tendance à avoir le même ensemble de concepts dépendants. Un dictionnaire destiné à prendre en charge l’analyse sémantique doit fonctionner avec des significations et, par conséquent, décrire les propriétés et les relations des concepts, et non des mots. La question demeure de savoir comment structurer et présenter correctement les informations dans de tels dictionnaires afin que la recherche dans ceux-ci soit pratique et rapide, et en outre, il soit possible de prendre en compte les changements dans le langage naturel (la disparition des anciens et l'émergence de nouveaux concepts ).

Lorsqu’on discute de problèmes de sémantique, le principe de compositionnalité est souvent évoqué. Il soutient que la signification d’une expression complexe est déterminée par la signification de ses éléments constitutifs et par les règles appliquées pour les combiner. Puisqu'une phrase est constituée de mots, il s'avère que sa signification peut être représentée par un ensemble de significations des mots qu'elle contient. Mais ce n'est pas si simple. Le sens d’une phrase dépend également de l’ordre des mots, de la formulation et des relations entre les mots d’une phrase, c’est-à-dire qu’elle prend en compte la syntaxe.

Comme nous pouvons le constater, les diagrammes de dépendance conceptuels suggèrent que, dans certains cas, le principe de compositionnalité est violé. C'est une erreur d'affirmer que le sens des phrases et des expressions peut être exprimé à travers le sens des mots qui les constituent. Ce n'est pas toujours vrai. Cependant, le principal problème de cette approche est que l'identification de classes thématiques et la compilation de dictionnaires sémantiques sont un processus extrêmement laborieux, fortement dépendant de la perception individuelle et de l'interprétation des concepts par une personne particulière.

Modèles de réseau de représentation des connaissances

Thésaurus, réseaux sémantiques, cadres et modèles ontologiques

Un thésaurus est une sorte de dictionnaire de vocabulaire général ou spécial, qui indique les relations sémantiques entre unités lexicales. Contrairement à un dictionnaire explicatif, un thésaurus permet d'identifier le sens non seulement à l'aide d'une définition, mais aussi en corrélant un mot avec d'autres concepts et leurs groupes, grâce à quoi il peut être utilisé pour remplir les bases de connaissances de l'intelligence artificielle. systèmes.

Les thésaurus utilisent généralement les relations sémantiques de base suivantes : synonymes, antonymes, hyponymes, hyperonymes, méronymes, holonymes et paronymes.

Les synonymes sont des mots de la même partie du discours, différents par leur son et leur orthographe, mais ayant une signification lexicale similaire (courageux - courageux, intrépide).

Les antonymes sont des mots de la même partie du discours, différents par leur sonorité et leur orthographe, ayant des significations lexicales directement opposées (bien - mal).

Un hyponyme est un concept qui exprime une entité particulière en relation avec un autre concept plus général (animal – chien – bouledogue).

L'hypernyme est un mot au sens plus large, exprimant un concept général et générique, le nom d'une classe d'objets, de propriétés ou de caractéristiques (bouledogue - chien - animal).

Un hypernyme est le résultat d’une opération de généralisation logique, tandis qu’un hyponyme est une limitation.

Meronym est un concept qui fait partie intégrante d'un autre (voiture - moteur, roue, capot).

Holonym est un concept qui se situe au-dessus des autres concepts (moteur, roue, capot - voiture).

La méronymie et l'holonymie en tant que relations sémantiques sont mutuellement inverses, tout comme l'hyponymie et l'hyperonymie.

Les paronymes sont des mots de forme similaire mais de sens différent (Indien - Indien).

Un exemple de thésaurus est WordNet. L'unité de vocabulaire de base de WordNet est une série de synonymes (synset), combinant des mots ayant des significations similaires. Les synsets sont constitués de mots appartenant à la même partie du discours que le mot original. Chaque synset est accompagné d'une petite déclaration (définition) expliquant sa signification. Les synsets sont interconnectés par diverses relations sémantiques, par exemple l'hyponymie, l'hyperonymie, etc. Un exemple avec le mot stylo (stylo) est présenté à la figure 1. On peut voir que dans le dictionnaire, il existe cinq significations différentes pour ce mot : il appartient à la catégorie des instruments d’écriture et comporte sept mots apparentés : crayon, marqueur, craie pour tableau noir, craie de cire, etc.

WordNet contient environ 155 000 lexèmes et expressions différents, organisés en 117 000 synsets. L'ensemble de la base de données est divisé en trois parties : noms, verbes et adjectifs/adverbes. Un mot ou une phrase peut appartenir à plusieurs synsets et appartenir à plusieurs parties de la catégorie du discours. Des informations plus détaillées sur le nombre de mots uniques, de synsets et de paires mot-synset dans la base de données WordNet sont données dans le tableau 1.

Les avantages de WordNet par rapport à d'autres ressources similaires sont son ouverture, son accessibilité et la présence d'un grand nombre de connexions sémantiques différentes entre les synsets. WordNet est accessible directement à l'aide d'un navigateur (local ou via Internet) ou de bibliothèques C.

Il existe des implémentations WordNet pour d'autres langues (environ 16). Par exemple, EuroWordNet a été créé pour les langues européennes, la connexion entre les différentes versions linguistiques s'effectue via un index interlingue spécial. WordNet est également en cours de développement pour la langue russe. Il convient de noter qu'il existe des méthodes de classification thématique des synsets WordNet, c'est-à-dire de détermination des domaines de connaissances dans lesquels ils sont utilisés. De telles informations peuvent ensuite servir à réduire le nombre de sens possibles de mots si le sujet du document en cours de traitement est connu, permettant ainsi de réduire la valeur de l'erreur lors de l'acceptation du mauvais sens d'un mot.

Un réseau sémantique est un modèle d'un domaine qui a la forme d'un graphe orienté, dont les sommets correspondent aux objets du domaine, et les arcs (bords) définissent les relations entre eux. Les objets peuvent être des concepts, des événements, des propriétés, des processus. Ainsi, le réseau sémantique reflète la sémantique du domaine sous forme de concepts et de relations. De plus, les concepts peuvent être soit des instances d’objets, soit des ensembles d’objets.

Les réseaux sémantiques sont apparus comme une tentative de visualiser des formules mathématiques. Derrière la représentation visuelle d'un réseau sémantique sous forme de graphe se cache un modèle mathématique dans lequel chaque sommet correspond à un élément de l'ensemble sujet, et un arc à un prédicat. La figure 2 montre un exemple de web sémantique tiré de Wikipédia.

La terminologie utilisée dans ce domaine est variée. Pour obtenir une certaine homogénéité, les nœuds reliés par des arcs sont généralement appelés graphes, et une structure où se trouve tout un nid de nœuds ou où il existe des relations de différents ordres entre graphes est appelée réseau. Outre la terminologie utilisée pour l’explication, les méthodes de représentation diffèrent également. Certains utilisent des cercles au lieu de rectangles ; certains écrivent des types de relations au-dessus ou au-dessous des arcs, en les enfermant ou non dans des ovales ; certains utilisent des abréviations comme O ou A pour désigner un agent ou un objet ; certains utilisent différents types de flèches.

Les tout premiers réseaux sémantiques ont été développés comme langage intermédiaire pour les systèmes de traduction automatique. Les dernières versions des réseaux sémantiques deviennent plus puissantes et flexibles et rivalisent avec les systèmes de trames, la programmation logique et d'autres langages de représentation des connaissances.

Malgré la terminologie différente, la variété des méthodes de représentation des quantificateurs généraux et d'existence et des opérateurs logiques, les différentes manières de manipuler les réseaux et les règles d'inférence, nous pouvons identifier des similitudes significatives inhérentes à presque tous les réseaux sémantiques :

– les nœuds des réseaux sémantiques représentent des concepts d'objets, d'événements, d'états ;

– différents nœuds d'un même concept font référence à des valeurs différentes, à moins qu'ils ne soient marqués comme appartenant au même concept ;

– les arcs de réseaux sémantiques créent des relations entre les nœuds conceptuels, les marques au-dessus des arcs indiquent le type de relation ;

– certaines relations entre concepts représentent des rôles sémantiques, tels que « agent », « objet », « destinataire » et « outil » ; d'autres signifient des relations temporelles, spatiales, logiques et des relations entre des phrases individuelles ;

– les concepts sont organisés en niveaux selon le degré de généralité, à l'instar de la hiérarchie des hyperonymes dans WordNet, par exemple entité ® créature vivante ® animal ® carnivore.

A noter que parmi les relations sémantiques utilisées pour décrire les réseaux, il peut y avoir non seulement des relations sémantiques utilisées dans les thésaurus, mais aussi d'autres types de relations : fonctionnelles (généralement définies par les verbes produit, influence, ...), quantitatives (plus que, inférieur, égal à, ... ), spatial (loin de, proche, dessous, dessus, ...), temporel (avant, plus tard, pendant, ...), attributif (avoir une propriété, avoir une valeur ), logique (ET, OU, NON), etc.

Par exemple, la sémantique de la phrase Ivanov a une BMW noire peut être représentée sous la forme d'un réseau sémantique illustré à la figure 3.

Malgré quelques différences, les réseaux sont faciles à lire et à traiter par ordinateur et constituent un moyen visuel et assez universel de représentation de la sémantique du langage naturel. Cependant, leur formalisation dans des modèles spécifiques de représentation, d'utilisation et de modification des connaissances s'avère assez laborieuse, notamment en présence de relations multiples entre ses éléments.

Prenons, par exemple, un réseau décrivant la déclaration de Nastya qui a demandé un livre à Dasha. Disons que nous pouvons attribuer des propriétés aux objets donnés : Nastya – « diligente », Dasha – « curieuse ». Il y a un lien entre ces objets (à travers le livre). Mais à côté de cela, il existe de nombreux autres liens qui existent dans le monde réel : le statut social (étudiants, copines - pas nécessairement entre elles), les relations familiales (chacun a des parents et/ou d'autres proches), etc. Il s'avère que même pour un exemple aussi simple, le réseau peut atteindre une taille importante et, par conséquent, y rechercher une sortie sera trop difficile.

Dans les réseaux sémantiques complexes, comprenant de nombreux concepts, le processus de mise à jour des nœuds et de surveillance des connexions entre eux, comme nous le voyons, complique la procédure de traitement de l'information. Le désir d'éliminer ces lacunes a conduit à l'émergence de types particuliers de réseaux sémantiques, tels que les modèles de trames.

Des modèles-cadres de représentation des connaissances ont été proposés par M. Minsky.

Un cadre est une structure permettant de décrire un concept ou une situation, constituée des caractéristiques de cette situation et de leurs significations. Un cadre peut être considéré comme un fragment d'un réseau sémantique destiné à décrire des concepts avec l'ensemble de leurs propriétés inhérentes. La particularité des modèles de cadre de représentation des connaissances est que tous les concepts décrits dans chacun des nœuds du modèle sont déterminés par un ensemble d'attributs et leurs valeurs, qui sont contenus dans les emplacements du cadre.< имя фрейма, слот 1, слот 2, …, слот N >. Graphiquement, cela ressemble au réseau sémantique, mais la différence fondamentale est que chaque nœud du modèle de trame a une structure généralisée composée de nombreux emplacements, chacun ayant un nom, un pointeur d'héritage, un pointeur de type de données et une valeur. .

Un emplacement est un attribut associé à un nœud dans un modèle basé sur une trame ; il fait partie d'une trame. Le nom de l'emplacement doit être unique dans le cadre. Le pointeur d'héritage indique quelles informations d'attribut sur les emplacements dans un cadre de niveau supérieur sont héritées par les emplacements portant le même nom dans un cadre de niveau inférieur. L'indicateur de type de données contient des informations sur le type de données incluses dans l'emplacement. Généralement, les types de données suivants sont utilisés : pointeur vers le nom du cadre de niveau supérieur, nombre réel, entier, texte, liste, tableau, procédure jointe, etc. La valeur de l'attribut peut être une instance d'attribut, un autre cadre ou facette, et doit correspondre au type de données spécifié et à l'héritage des conditions. En plus d'une valeur spécifique, un slot peut stocker des procédures et des règles qui sont appelées lorsqu'il est nécessaire de calculer cette valeur. Ainsi, un slot peut contenir non seulement une valeur spécifique, mais aussi le nom d'une procédure qui permet de la calculer à l'aide d'un algorithme donné, ainsi qu'un ou plusieurs produits à l'aide desquels cette valeur est déterminée. Un emplacement peut contenir plusieurs valeurs. Parfois, cet emplacement comprend un composant appelé facette, qui spécifie une plage ou une liste de ses valeurs possibles. La facette spécifie également les valeurs limites de remplissage d'emplacement. Le plus souvent, les procédures d'ajout et de suppression d'informations sont associées aux slots ; elles peuvent surveiller l'affectation des informations à un nœud donné et vérifier que les actions appropriées sont prises lorsque la valeur change.

Il existe des exemples de cadres (prototypes) stockés dans la base de connaissances et des cadres d'instance créés pour afficher des situations réelles basées sur les données entrantes. Les modèles de cadre sont assez universels, puisqu'ils permettent de refléter toute la diversité des connaissances sur le monde à travers des structures-cadres (pour désigner des objets et des concepts : prêt, gage, facture), des rôles-cadres (gestionnaire, caissier, client), du cadre -scénarios (faillite, assemblée d'actionnaires, fêtes de fête), situations-cadres (alarme, accident, mode de fonctionnement de l'appareil), etc. Pour représenter les connaissances sous la forme d'un réseau de cadres, il existe des langages et des logiciels particuliers : FRL (Frame Representation Language), KRL (Knowledge Representation Language), frame Kappa shell, PILOT/2 et autres.

La propriété la plus importante de la théorie des cadres est l'héritage de propriétés empruntées à la théorie des réseaux sémantiques. Dans les cadres et les réseaux sémantiques, l'héritage se produit via ISA. Un slot ISA pointe vers une trame située à un niveau supérieur de la hiérarchie, à partir de laquelle les valeurs de slots similaires sont implicitement héritées, c'est-à-dire transférées.

Le principal avantage des cadres en tant que modèle de représentation des connaissances réside dans leur conformité aux idées modernes sur l'organisation de la mémoire humaine à long terme, ainsi que dans leur flexibilité et leur clarté. Les avantages des modèles cadres de représentation des connaissances apparaissent lorsque les connexions génériques changent rarement et que le domaine connaît peu d'exceptions.

Les inconvénients des modèles de cadre incluent leur complexité relativement élevée, qui se manifeste par une diminution de la vitesse du mécanisme d'inférence et une augmentation de l'intensité du travail nécessaire pour apporter des modifications à la hiérarchie formée. Par conséquent, lors du développement de systèmes de trames, une grande attention est accordée aux méthodes d'affichage visuel et aux moyens efficaces d'édition des structures de trames.

On peut noter que l’approche orientée objet est un développement de la vue frame. Dans ce cas, le modèle de frame peut être considéré comme une classe, l'instance de frame comme un objet. Les langages de programmation orientés objet fournissent des outils pour créer des classes et des objets, ainsi que des outils pour décrire les procédures de traitement des objets (méthodes). Cependant, les modèles de cadre ne permettent pas d'organiser un mécanisme d'inférence flexible, de sorte que les systèmes de cadre sont soit des bases de données orientées objet, soit nécessitent une intégration avec d'autres outils de traitement des connaissances, par exemple des modèles logiques.

En ingénierie des connaissances, un modèle ontologique est compris comme une description détaillée d'un certain sujet ou d'un certain domaine problématique, qui est utilisée pour formuler des énoncés de nature générale. Les ontologies vous permettent de représenter des concepts sous une forme adaptée au traitement automatique.

Au centre de la plupart des ontologies se trouvent des classes qui décrivent les concepts de domaine. Les attributs décrivent les propriétés des classes et des instances. Il existe ici des analogies avec l’approche cadre de la formalisation des connaissances. De nombreux concepts et principes de mise en œuvre, ainsi que la forme graphique de représentation au stade initial de la structuration, sont similaires dans les ontologies aux réseaux sémantiques. La principale différence réside dans l'orientation des ontologies vers une utilisation directe par un ordinateur, c'est-à-dire que les structures de données ne sont pas décrites en langage naturel (comme cela est courant dans les réseaux sémantiques et les thésaurus), mais dans un langage formel spécial. Les ontologies ont également beaucoup de points communs avec les thésaurus. Mais contrairement à eux, les exigences nécessaires aux modèles ontologiques sont l'exhaustivité interne, l'interconnexion logique et la cohérence des concepts utilisés. Les thésaurus peuvent ne pas répondre à ces exigences. Des langages formels tels que RDF, OWL, KIF, CycL, OCML et autres sont utilisés pour décrire les ontologies.

En règle générale, on distingue les principaux éléments suivants des ontologies :

- copies;

– classes d'objets (concepts) ;

– attributs (décrire les propriétés des classes et des instances) ;

– fonctions (décrire les dépendances entre classes et instances) ;

– axiomes (restrictions supplémentaires).

Les ontologies spécialisées (orientées vers un domaine) sont une représentation de n'importe quel domaine de connaissance ou partie du monde réel. Une telle ontologie contient des significations spécifiques des termes pour ce domaine. Par exemple, le mot champ en agriculture signifie un morceau de terre, en physique, il désigne l'un des types de matière, en mathématiques, il désigne une classe de systèmes algébriques.

Les ontologies générales sont utilisées pour représenter des concepts communs à un grand nombre de domaines. De telles ontologies contiennent un ensemble de termes de base, un glossaire ou un thésaurus, utilisé pour décrire les termes du domaine.

Les modèles ontologiques modernes sont modulaires, c'est-à-dire qu'ils se composent de nombreuses ontologies interconnectées, chacune décrivant un domaine ou une tâche distinct. Les modèles ontologiques ne sont pas statiques ; ils sont en constante évolution.

Si un système utilisant des ontologies spécialisées évolue, alors la fusion des ontologies peut être nécessaire. Le principal inconvénient des modèles ontologiques est la difficulté de les combiner. Les ontologies de domaines, même étroitement liés, peuvent être incompatibles les unes avec les autres. La différence peut être due à la culture locale, à l’idéologie ou à l’utilisation d’un langage descriptif différent. La fusion des ontologies est effectuée à la fois manuellement et semi-automatiquement. Dans l’ensemble, il s’agit d’un processus laborieux, lent et coûteux.

Les modèles ontologiques sont largement utilisés dans les systèmes basés sur la connaissance : systèmes experts et systèmes d'aide à la décision. Une manière intéressante de représenter la connaissance du temps en tenant compte de l'incertitude dans les ontologies est décrite dans les travaux d'A.F. Touzovsky.

Actuellement, les technologies du Web sémantique sont très prometteuses et largement utilisées dans la pratique des technologies de représentation des connaissances. Le concept central du Web sémantique est l'ontologie - un modèle d'un domaine composé d'un ensemble de concepts, d'un ensemble d'instances de concepts et d'un ensemble de relations (propriétés). L'ensemble des concepts et des relations entre eux définit un schéma général de stockage des données, représenté comme un ensemble d'énoncés sur les instances de concepts, ou axiomes d'ontologie. Ces énoncés simples, appelés triplets, ont la forme « sujet-prédicat-objet ». Un ensemble de règles spécifiées par l'utilisateur est chargé dans le système d'inférence qui, sur la base des instructions contenues dans l'ontologie, crée de nouvelles instances des concepts et des relations de l'ontologie selon ces règles.

L’un des problèmes les plus importants, tant pour la représentation des connaissances dans le contexte temporel que pour la représentation des connaissances en général, est la représentation des connaissances sur le temps et sur les changements dans les connaissances au fil du temps. Cependant, la plupart des langages de description de connaissances utilisés en pratique sont basés sur une logique de prédicat de premier ordre et utilisent des relations unaires ou binaires. Ces langages, par exemple, incluent OWL et RDF. Dans ce cas, pour décrire des relations binaires prenant en compte le temps, il faut introduire dans les relations un paramètre supplémentaire correspondant au temps. Dans ce cas, les relations binaires se transforment en relations ternaires et dépassent les capacités descriptives du langage.

Une autre tâche importante consiste à décrire les connaissances sur le temps, en tenant compte du caractère éventuellement incomplet de ces connaissances. Par exemple, une description d'énoncés tels que : « l'événement A se produira dans le futur ». Ce problème est généralement résolu dans le cadre de logiques temporelles modales, telles que LTL, en utilisant certains opérateurs modaux. Mais comme le langage de description de connaissances OWL est basé sur une logique descriptive, il devient impossible d’utiliser une telle solution pour les ontologies OWL.

Dans son ouvrage A.F. Tuzovsky propose de présenter un modèle de description des connaissances sur le temps sous la forme suivante :

< TU, VU, TP, F, Rul >, Où

1) TU – ensemble d'instants du temps TU = (T È (tØ)), où T est un ensemble linéairement ordonné, ayant la puissance d'un continu, sur lequel l'opération de soustraction binaire T ´ T ® R+ est donnée, et tØ est un élément spécial correspondant au « temps indéfini » ;

2) VU – un ensemble de variables désignant les éléments de l'ensemble TU, ainsi qu'une variable spéciale tN correspondant au moment actuel ; la valeur de la variable tN change constamment, reflétant le passage du temps dans certains systèmes, pour décrire le contexte temporel dans lequel l'approche proposée est utilisée ;

3) TP – ensemble d'intervalles de temps ; l'intervalle de temps correspond au couple ordonné t =< ti1, ti2 >, où ti1 et ti2 sont des éléments de l'ensemble VU tels que ((ti1 £ ti2) Ù (ti1 ¹ tØ) Ù (ti2 ¹ tØ)) Ú (ti1 = tØ) Ú
(ti2 = tØ); Ainsi, une période de temps correspond à une certaine zone de l'échelle de temps, et sa limite peut être un certain instant dans le temps, l'instant actuel (variable tN) ou un instant indéfini tØ, tandis qu'une période de temps avec les frontières coïncidentes (ti1 = ti2) correspondent à un certain moment ;

4) F – un ensemble de prédicats décrivant les propriétés des intervalles de temps, ainsi que les relations qualitatives entre eux ;

5) Rul – un ensemble de règles de la forme (G ® H) et (G « H), décrivant les mécanismes de base de l'inférence logique, y compris les restrictions sur les valeurs des prédicats F, ainsi que la certitude des frontières d'intervalles de temps.

Le concept d'intervalle de temps est nécessaire pour décrire certains intervalles de temps dont les limites exactes sont inconnues jusqu'à ce qu'un certain état du modèle se produise. On peut dire que chaque période de temps décrit un certain intervalle de temps dont les limites exactes sont encore inconnues. Dans ce cas, des informations peuvent être disponibles sur les limites dans lesquelles cet intervalle est garanti sur l'échelle de temps, et les limites exactes de l'intervalle décrit par la période de temps peuvent être connues à l'avenir. Par conséquent, deux types de limites d’intervalles de temps sont introduits : exactes et garanties. Pour définir deux types de limites, les prédicats EL (exactleft), ER (exactright), GL (guaranteedleft) et GR (guaranteedright) sont utilisés, définissant respectivement les limites exactes gauche/droite et garanties gauche/droite de la période de temps. Par exemple, le prédicat EL (ti, ti1) correspond à l’énoncé « la limite gauche exacte de l’intervalle ti est l’instant ti1 ». Pour plus de simplicité, le type de limite d'un intervalle de temps peut être indiqué à l'aide de différentes parenthèses : un intervalle complètement défini (ses deux limites sont exactes) ; intervalle.

L'agent est l'initiateur animé et le contrôleur de l'action.

Destinataire – destinataire du message (peut être combiné avec Bénéficiaire).

Le bénéficiaire (bénéficiaire, possesseur) est un participant dont les intérêts sont indirectement affectés au cours de la situation (reçoit un avantage ou un préjudice).

Un instrument est un stimulus d'émotion ou un participant à l'aide duquel une action est réalisée.

La source est le lieu à partir duquel le mouvement se produit.

La contrepartie est une force ou un environnement résistant contre lequel une action est menée.

Un objet est un participant qui bouge ou change au cours d'un événement.

Le patient est un participant subissant des changements importants.

Le résultat est un participant qui apparaît à la suite d'un événement.

Le stimulus est une cause ou un objet externe qui provoque cet état.

Le but est le lieu vers lequel le mouvement s'effectue.

Un expérimentateur est un participant expérimentant un état interne qui n'entraîne pas de changements externes (porteur de sentiments et de perceptions).

Un effecteur est un participant inanimé, souvent une force naturelle, qui provoque un changement dans l'état du patient.

En fonction du nombre d'arguments et de leurs propriétés sémantiques, l'ensemble des lexèmes verbaux peut être divisé en classes. Par exemple, considérons les types de verbes de rôle suivants : les verbes d'influence physique (hacher, scier, couper) ; verbes de perception (voir, entendre, ressentir) ; verbes de discours (crier, murmurer, marmonner). Au sein de chaque classe, il existe une division plus précise. Parmi les verbes d'influence physique, les verbes de la forme verbe (Agent, Outil, Objet) ont une structure prédicat-argument sémantique similaire : casser - casser, plier - plier, plier - plier, briser - briser en morceaux, craquer - fendre, etc. Une autre structure prédicat-argument caractéristique des verbes de la forme verbe (Agent, Outil, Objectif) : hit - hit, slap - slap, strike - hit, bump - hit (à propos de quelque chose), coup - coup, etc.

On peut noter qu'il existe des corrélations entre les cas morphologiques, les prépositions, les rôles syntaxiques d'une part et les rôles sémantiques d'autre part, par exemple couper au couteau, travailler avec John, pulvériser de la peinture. De plus, il faut tenir compte du fait qu'un mot prédicat ne peut pas avoir deux actants ayant le même rôle sémantique. Les différences dans les ensembles de rôles affectent principalement les rôles sémantiques périphériques (Entrepreneur, Stimulant, Source) ou se résument à l'unification/fragmentation des rôles centraux (Agent contre Agent et Effecteur ; Destinataire contre Destinataire, Destinataire et Bénéficiaire ; Patient/Sujet/Objet). vs patient, sujet et résultat).

Dans son ouvrage, C. Fillmore a même proposé une règle permettant de mapper indirectement les rôles sémantiques en rôles syntaxiques : s'il y a un Agent parmi les arguments, il devient le sujet ; en l'absence d'Agent, s'il existe un Instrument, il devient le sujet ; en l'absence d'Agent et d'Instrument, le sujet devient l'Objet. De là découle naturellement une hiérarchie de rôles sémantiques. Les hiérarchies de rôles sémantiques les plus connues sont : Agent > Instrument > Patient ; Agent > Source > Cible > Instrument > Sujet > Lieu ; Agent > Bénéficiaire > Expérimentateur > Outil > Thème > Lieu et quelques autres. La hiérarchie des rôles sémantiques est construite de telle manière qu'il est possible de refléter le degré d'affiliation thématique des arguments (actualité) afin que les rôles sémantiques pragmatiquement les plus importants sont situés à l'extrémité gauche de la hiérarchie et à droite – des rôles sémantiques qui ne sont pas caractérisés par une grande actualité.

Initialement, les rôles sémantiques étaient censés être considérés comme primitifs, non soumis à une analyse plus approfondie qui pourrait révéler leur structure interne. Cependant, dans ce cas, un certain nombre de problèmes se posent. Premièrement, grâce à une analyse sémantique et syntaxique de plus en plus minutieuse, la liste des rôles augmente de manière illimitée. Deuxièmement, les listes de rôles non structurées ne nous permettent pas de faire des prédictions sur les types de rôles possibles des verbes ni d'expliquer l'absence de types non attestés. Par conséquent, la théorie sémantique des rôles a proposé de définir les rôles en termes de caractéristiques distinctives ou de proto-rôles. Par exemple, D. Doughty propose de mettre en évidence les propriétés suivantes du protorole Agent : volontairement impliqué dans un événement ou un état ; est un participant conscient et/ou perspicace ; initie un événement ou un changement d'état pour un autre participant ; se déplace (par rapport à un point de l'espace ou à un autre participant) ; existe indépendamment de l'événement désigné par le verbe.

Malheureusement, à l'heure actuelle, il n'est pas possible d'établir une correspondance biunivoque entre les rôles sémantiques et les cas, c'est-à-dire que d'un point de vue fonctionnel, la catégorie de cas est hétérogène. La situation est encore compliquée par le fait que les rôles eux-mêmes sont liés de manière non triviale les uns aux autres et que dans les langues naturelles, des techniques génératives telles que la métaphore et la métonymie sont courantes, qui donnent lieu à de nombreuses nouvelles significations et, en principe, ne peuvent pas se refléter dans un lexique statique.

Modèles logiques de représentation des connaissances

L'idée principale de l'approche lors de la construction de modèles logiques de représentation des connaissances est que toutes les informations nécessaires à la résolution de problèmes appliqués sont considérées comme un ensemble de faits et d'énoncés présentés sous forme de formules dans une certaine logique. Les connaissances sont reflétées par un ensemble de telles formules, et l'obtention de nouvelles connaissances se réduit à la mise en œuvre de procédures d'inférence logique. Les modèles logiques de représentation des connaissances reposent sur le concept de théorie formelle, défini par le tuple S =< B, F, A, R>, où B est un ensemble dénombrable de symboles de base (alphabet) ; F – ensemble appelé formules ; A – sous-ensemble sélectionné de formules vraies a priori (axiomes) ; R est un ensemble fini de relations entre formules, appelées règles d'inférence.

La principale approche de la représentation du sens en linguistique computationnelle consiste à créer une représentation du sens sous une forme formelle. Une telle représentation peut être appelée un langage de représentation du sens. Un langage représentationnel est nécessaire pour combler le fossé entre le langage naturel et la connaissance générale du monde. Et puisque ce langage est destiné à être utilisé pour le traitement automatique de texte et dans la création de systèmes d'intelligence artificielle, il est nécessaire de prendre en compte les exigences informatiques du traitement sémantique, telles que la nécessité de déterminer la véracité des déclarations, de maintenir l'ambiguïté des représentation, représenter des déclarations sous forme canonique, fournir une inférence logique et être expressif.

Les langues naturelles disposent d’une grande variété de techniques utilisées pour transmettre du sens. L’une des plus importantes est la capacité à transmettre la structure prédicat-argument. Compte tenu de ce qui précède, nous constatons que la logique des prédicats de premier ordre est bien adaptée comme outil pour représenter le sens des énoncés. D’une part, il est relativement facile à comprendre par les humains, d’autre part, il se prête bien au traitement (informatique). En utilisant la logique du premier ordre, des classes sémantiques importantes peuvent être décrites, notamment les événements, le temps et d'autres catégories. Cependant, il ne faut pas oublier que les énoncés correspondant à des concepts tels que les croyances et les désirs nécessitent des expressions incluant des opérateurs modaux.

Les réseaux et cadres sémantiques discutés dans la section précédente peuvent être considérés dans le cadre de la logique des prédicats de premier ordre. Par exemple, le sens de la phrase J'ai un livre peut être écrit de quatre manières différentes, en utilisant quatre langages différents pour représenter le sens (voir Fig. 4, la numérotation correspond à l'ordre sur la figure) : 1) dépendance conceptuelle diagramme; 2) représentation basée sur un cadre ; 3) réseau sémantique ; 4) calcul des prédicats de premier ordre.

Bien que ces quatre approches soient toutes différentes, elles représentent, à un niveau abstrait, une désignation fondamentale généralement acceptée selon laquelle la représentation du sens est constituée de structures composées de nombreux symboles. Ces structures symboliques correspondent aux objets et aux relations entre objets. Les quatre représentations sont constituées de symboles correspondant à un « locuteur », à un « livre » et à un ensemble de relations dénotant la possession de l'un par l'autre. L'important ici est que ces quatre idées permettent de relier, d'une part, les caractéristiques expressives du langage naturel et, d'autre part, la situation réelle dans le monde.

Les modèles logiques de représentation des connaissances présentent de nombreux avantages. Premièrement, l'appareil classique de la logique mathématique est utilisé ici comme « fondement », dont les méthodes sont assez bien étudiées et formellement justifiées. Deuxièmement, il existe des procédures assez efficaces pour dériver des instructions syntaxiquement correctes. Troisièmement, cette approche vous permet de stocker uniquement un ensemble d'axiomes dans des bases de connaissances, et toutes les autres connaissances (y compris les faits et informations sur les personnes, les objets, les événements et les processus) peuvent être obtenues à partir de ces axiomes selon les règles d'inférence.

Le langage de représentation du sens, comme tout langage, a sa propre syntaxe et sa propre sémantique. La figure 5 donne une description de la grammaire hors contexte pour le calcul des prédicats de premier ordre proposée dans .

Considérez la présentation de la signification des catégories, des événements, du temps, des aspects et des croyances données dans le livre.

Présentation des catégories. Une catégorie est comprise comme un groupe de mots unis par un trait commun, semblable à la façon dont il est organisé dans les thésaurus. Les mots avec une sémantique de type prédicat contiennent souvent des contraintes de sélection, qui sont généralement exprimées sous la forme de catégories sémantiques, où chaque membre de la catégorie possède un ensemble de caractéristiques pertinentes.

La manière la plus simple de représenter les catégories consiste à créer un prédicat unaire pour chaque catégorie. Cependant, il sera alors difficile de se prononcer sur les catégories elles-mêmes. Considérez l'exemple suivant. Disons qu'en utilisant le langage de la logique des prédicats de premier ordre, vous devez représenter le sens de l'énoncé : « Harry Potter » est le livre pour enfants le plus populaire. Autrement dit, vous devez trouver l'objet de catégorie le plus fréquent sous la forme MostPopular (HarryPotter, ChildrensBook). Cette formule n'est pas une véritable formule logique du premier ordre, puisque les arguments dans les prédicats, par définition, doivent être des termes et non d'autres prédicats. Pour résoudre ce problème, tous les concepts qui participent à l'énoncé peuvent être représentés comme des objets à part entière, c'est-à-dire que la catégorie ChildrensBook peut être représentée comme un objet au même titre que HarryPotter. L'appartenance à une telle catégorie sera indiquée par la relation ISA (HarryPotter, ChildrensBook). La relation ISA (est a) indique la relation entre les objets et les catégories auxquelles ces objets appartiennent. Cette technique peut être utilisée pour créer des hiérarchies de catégories. Par exemple, nous utilisons la relation AKO (ChildrensBook, Book). Ici, la relation AKO (une sorte de) dénote l'inclusion d'une catégorie dans une autre. Bien entendu, pour une plus grande fiabilité, les catégories doivent être caractérisées par un large ensemble de faits, c'est-à-dire que les catégories doivent être définies comme des ensembles.

Représentation d'événements. Pour imaginer le sens d'un événement, il suffit de le considérer comme un prédicat à partir d'un ensemble d'arguments qui remplissent certains rôles et sont nécessaires pour décrire la situation. Des exemples de tels prédicats sont donnés dans la première section (ils y sont obtenus à partir de fonctions lexicales proposées par I.A. Melchuk). Autre exemple : Réservation (Hearer, Today, 20 PM, 2). Ici, les arguments sont des objets tels que la personne, le restaurant, le jour, l'heure et le nombre de places à réserver dans le restaurant. Pour les verbes, une telle représentation peut être obtenue si l’on suppose que les arguments correspondent à des actants syntaxiques. Cette approche pose quatre problèmes :

– déterminer le nombre correct de rôles pour chaque événement ;

– représentation de faits sur les rôles associés à l'événement ;

– la nécessité de garantir que toutes les conclusions correctes puissent être tirées directement d'une telle représentation de l'événement ;

– la nécessité de s'assurer qu'aucune conclusion erronée ne puisse être tirée de la représentation de l'événement.

Par exemple, le verbe « est » peut avoir de un à quatre actants, selon la situation décrite par la phrase. Par conséquent, il n’est pas clair à l’avance quelle devrait être la localité du prédicat. Après tout, dans le calcul des prédicats du premier ordre, le nombre d’arguments doit être fixe.

Une solution consiste à supposer que de telles situations sont traitées au niveau syntaxique. Il est possible d'envisager des sous-catégories distinctes pour chacune des configurations d'arguments. L'analogue sémantique de cette méthode consiste à créer autant de prédicats que possible, chacun correspondant à des situations individuelles. Le nom du prédicat est le même, mais le nombre d'arguments est différent :
Manger1 (w) – j'ai mangé ; Manger2 (w, x) – J'ai mangé un sandwich ; Manger3 (w, x, y) – Je mange un sandwich pour le déjeuner ; Manger4 (w, x, y, z) – J'ai mangé un sandwich pour le déjeuner à la maison. Ils sont donc considérés comme différents. Cette approche permettra de contourner le problème du nombre d’arguments, mais elle n’est pas efficace. Hormis les noms proposés pour les prédicats, rien ne les unit en un seul événement, bien que leur relation logique soit évidente. Il s'avère que certaines connexions logiques ne peuvent pas être obtenues sur la base des prédicats proposés. De plus, vous devrez rechercher ces connexions logiques dans la base de connaissances.

Ce problème peut être résolu en utilisant des postulats sémantiques. Ils lient explicitement la sémantique des prédicats. Par exemple, " w, x, y, z Manger4 (w, x, y, z) Þ Manger3 (w, x, y).

Les prédicats peuvent refléter des informations morphologiques, syntaxiques et sémantiques. Des exemples de tels postulats sémantiques sont les formules contenant certains prédicats lexicaux de la première section. Des postulats sémantiques contenant des caractéristiques morphologiques et syntaxiques de la construction de mots et de phrases en langue russe sont présentés. Des exemples de postulats sémantiques porteurs d’une charge sémantique se trouvent dans la section précédente.

Notez qu'il ne faut pas confondre la sémantique d'un énoncé en langage naturel et la sémantique du prédicat que nous introduisons afin de refléter la sémantique de l'énoncé. Les postulats sémantiques reflètent la sémantique des prédicats, c'est-à-dire les connexions sémantiques entre les prédicats que nous avons introduits.

De toute évidence, cette approche pour découvrir les relations sémantiques entre prédicats est adaptée aux petits domaines et présente des problèmes d’évolutivité. Il serait plus pratique de dire que ces prédicats font référence à un seul prédicat avec des arguments manquants à certaines positions. Dans ce cas, on peut se passer de postulats sémantiques. Mais cette méthode présente aussi un inconvénient. Par exemple, si nous considérons le prédicat Manger (w, x, y, z) et supposons que l'un des mots de l'ensemble (Petit-déjeuner, Déjeuner, Dîner) doit être présent comme troisième argument, alors le quantificateur d'existence attribué à un autre variable signifiera l'existence d'un aliment spécifique associé à chaque repas, ce qui n'est pas vrai.

Regardons un exemple approprié. Écrivons trois déclarations (j'ai déjeuné, j'ai mangé à la maison et j'ai mangé un sandwich pour le déjeuner à la maison) en utilisant la logique du premier ordre :

$w, x Manger (Orateur, w, Déjeuner, x)

$w, x Manger (Haut-parleur, w, x, Maison)

$ w Manger (Haut-parleur, w, Déjeuner, Maison).

Supposons qu'il soit nécessaire d'obtenir une troisième formule à partir des deux premières formules relatives à un même événement. Les événements indépendants où j'ai déjeuné et que j'ai déjeuné à la maison ne permettent pas de conclure que j'ai déjeuné à la maison. Comme pour la représentation par catégorie, nous pouvons résoudre ce problème en traitant les événements comme des objets, afin qu'ils puissent être quantifiés et liés à d'autres objets à l'aide d'ensembles de relations spécifiées. Maintenant, selon cette approche, la représentation suivante sera obtenue.

Pour l'offre, j'ai déjeuné

$ w ISA (w, Manger) Ù Mangeur (w, Haut-parleur) Ù Mangeur (w, Déjeuner).

Pour la phrase j'ai mangé à la maison

$ w ISA (w, Manger) Ù Mangeur (w, Haut-parleur) Ù Lieu (w, Maison).

Pour la phrase j'ai mangé un sandwich pour déjeuner à la maison

$ w ISA (w, Manger) Ù Mangeur (w, Speaker) Ù Mangé (w, Sandwich) Ù MealEaten (w, Déjeuner) Ù Lieu (w, Maison)

L'approche présentée nous permet de nous débarrasser de la nécessité de spécifier un nombre fixe d'arguments dans le prédicat, quels que soient les rôles et les autres actants. Il n'y a pas d'autres rôles qui ne soient pas mentionnés dans la phrase, et les connexions logiques entre les prédicats sémantiquement liés ne nécessitent pas l'utilisation de postulats sémantiques.

Représentation du temps. La logique temporelle est utilisée pour décrire des séquences d'événements et leurs relations dans une chronologie. Dans les langues naturelles, un tel outil est le temps du verbe. Un événement peut être considéré comme en précédant un autre si l’écoulement du temps mène du premier événement au second. C’est là que surgissent nos concepts familiers de passé, de présent et de futur.

La logique temporelle utilise deux types d'opérateurs : logiques et modaux. Les opérateurs habituels de la logique du calcul propositionnel sont utilisés comme opérateurs logiques : conjonction, disjonction, négation et implication. Les opérateurs modaux sont définis comme suit.

N j – Suivant : j doit être vrai dans l’état qui suit immédiatement celui donné.

F j – Futur : j doit devenir vrai dans au moins un état dans le futur.

G j – Globalement : j doit être vrai dans tous les états futurs.

A j – All : j doit être exécuté sur toutes les branches commençant par celle-ci.

E j – Existe : il existe au moins une branche sur laquelle j est exécuté.

j U y – Jusqu'à (fort) : y doit être exécuté dans un état futur (éventuellement dans l'actuel), la propriété j doit être exécutée dans tous les états jusqu'à celui indiqué (non inclus).

j R y – Release : j libère y si y est vrai jusqu'à ce que j devienne vrai pour la première fois (ou toujours, si aucun moment de ce type ne se produit). Sinon, j doit devenir vrai au moins une fois avant que y ne devienne vrai la première fois.

Représentation des aspects. Les verbes sont utilisés pour décrire des actions dans les langues naturelles. Le philosophe américain Z. Vendler a proposé en 1957 un modèle pour diviser les verbes selon des aspects lexicaux. Il a identifié quatre classes :

– statifs (états) – verbes qui décrivent des états statiques qui n'ont pas de point final (par exemple, « savoir », « aimer ») ;

– activités (activités) – verbes décrivant des états dynamiques et sans point final (par exemple, « courir », « conduire ») ;

– réalisations (réalisations) – verbes décrivant des événements qui ont un point final et sont graduels (par exemple, « peindre un tableau », « construire une maison ») ;

– réalisations (réalisations) – verbes qui décrivent des événements qui ont un point final et se produisent instantanément (par exemple, « reconnaître », « remarquer »).

Le tableau 2 montre un tableau comparatif des classes Wendler pour les verbes anglais, tiré de .

Comme vous pouvez le constater, la poursuite de l’action est caractéristique des activités et des réalisations et est absente des actions et des réalisations. On peut dire que c'était bouillant (activité) et que j'écrivais une lettre (engagement), mais on ne peut pas dire que c'était existant (déclaration) et que je trouvais un livre (réalisation). Les réalisations ne sont pas combinées avec les circonstances de la durée. On peut dire qu'il a existé pendant deux heures (déclaration), mais on ne peut pas dire que je l'ai trouvé pendant deux heures (réalisation).

Les réalisations et les réalisations décrivent des actions ciblées ; elles sont combinées avec les circonstances de la date d'achèvement, contrairement aux déclarations et aux activités. On peut dire que j'ai écrit une lettre en deux heures (engagement), mais on ne peut pas dire que j'ai marché en deux heures (activité).

Représenter les croyances, les désirs et les intentions. Pour exprimer l'attitude du locuteur face aux informations communiquées dans des déclarations en langage naturel, des mots tels que croire, vouloir, croire, imaginer, etc. sont utilisés. De telles déclarations ne décrivent pas une image objective du monde, mais les caractéristiques de la perception personnelle du locuteur, ses idées « internes » sur le monde. Considérez la déclaration selon laquelle je crois que John lit "Harry Potter". Il est faux d'essayer de représenter sa signification en utilisant la logique des prédicats : Croire (Orateur, Lecture (John, HarryPotter). Ici, le deuxième argument doit être un terme, pas une formule. Cette erreur syntaxique entraîne une erreur sémantique. Dans la logique du premier ordre , les prédicats connectent les objets, pas les relations entre eux. La manière standard de surmonter ce problème est d'ajouter des opérateurs qui nous permettent de faire les déclarations dont nous avons besoin. Si nous introduisons l'opérateur Croit, qui prend les formules comme arguments, alors nous obtenons la représentation suivante :

Croit (Orateur, $ x ISA (x, Lecture) Ù Lecteur (x, John) Ù Lire (x, HarryPotter)).

On ne peut pas dire qu'une telle représentation soit écrite en termes de calcul des prédicats de premier ordre, mais cela confirme qu'il existe un groupe de verbes dans la langue qui joue un rôle particulier dans l'analyse sémantique. Dans les systèmes d’analyse automatisés, il est parfois nécessaire de suivre les convictions et les intentions des utilisateurs. La situation est compliquée par le fait que les croyances, les désirs et les intentions peuvent changer au cours du dialogue.

L'opérateur saisi est appelé modal. Il existe différents opérateurs modaux. La modalité temporelle a déjà été évoquée un peu plus haut à propos de la représentation du temps dans les énoncés. En plus du temporel, il existe une modalité spatiale, la logique de la connaissance (« on sait que »), la logique de la prouvabilité (« il est possible de prouver cela ») et d'autres. La logique étendue par les opérateurs modaux est appelée logique modale. Actuellement, de nombreuses questions complexes et inexplorées demeurent dans ce domaine. Comment fonctionne l’inférence en présence d’opérateurs modaux spécifiques ? A quels types de formules certains opérateurs peuvent-ils être appliqués ? Comment les opérateurs modaux interagissent-ils avec les quantificateurs et les connecteurs logiques ? Ces questions et d’autres restent à explorer. Nous ne nous y attarderons pas ici.

La dérivation d'énoncés syntaxiquement corrects dans des modèles logiques de représentation des connaissances est basée sur la règle de résolution développée par J. Robinson en 1965. Il stipule que si un groupe d’expressions formant une prémisse est vrai, alors l’application d’une règle d’inférence est garantie pour produire une expression vraie comme conclusion. Le résultat de l’application de la règle de résolution est appelé résolvant.

La méthode de résolution (ou la règle d'élimination des contradictions) permet de prouver la vérité ou la fausseté d'une hypothèse avancée par contradiction. Dans la méthode de résolution, un ensemble de propositions est généralement considéré comme un prédicat composé, qui contient plusieurs prédicats reliés par des fonctions logiques et des quantificateurs d'existence et d'universalité. Puisque les prédicats ayant le même sens peuvent avoir des formes différentes, les phrases doivent d'abord être amenées à une forme unifiée (forme normale disjonctive ou conjonctive), dans laquelle les quantificateurs d'existence, d'universalité, les symboles d'implication, d'équivalence, etc. contient une conjonction de disjonctions sur le côté gauche. Par conséquent, amener les prémisses utilisées pour la preuve sous une forme qui représente des conjonctions de disjonctions est une étape nécessaire dans presque tout algorithme qui implémente une inférence logique basée sur la méthode de résolution.
Les étapes suivantes sont suivies dans le processus d'inférence à l'aide de la règle de résolution.

1. Les opérations d'équivalence et d'implication sont éliminées :

UNE « B = (UNE ® B) Ù (B ® UNE);

A ® B = Ø A Ú B.

2. L'opération de négation se déplace à l'intérieur des formules en utilisant les lois de De Morgan :

Ø (UNE Ù B) = Ø UNE Ú Ø B;

Ø (UNE Ú B) = Ø UNE Ù Ø B.

3. Les formules logiques sont réduites à une forme disjonctive :

A Ú (B Ù C) = (A Ú B) Ù (A Ú C).

En logique des prédicats, pour appliquer la règle de résolution, il est nécessaire de procéder à une transformation plus complexe des formules logiques pour les réduire à un système de disjonctions. Cela est dû à la présence d'éléments syntaxiques supplémentaires, principalement des quantificateurs, des variables, des prédicats et des fonctions.
L'algorithme d'unification des formules logiques de prédicats comprend les étapes suivantes.

1. Élimination des opérations d'équivalence.

2. Élimination des opérations d'implication.

3. Introduction des opérations de négation dans les formules.

4. Élimination des quantificateurs d'existence. Cela peut se produire à la troisième étape en raison de l'application des lois de De Morgan, à savoir la négation de $ change en ", mais le remplacement inverse peut également se produire. Ensuite, pour éliminer $, procédez comme suit : toutes les occurrences d'une variable associée avec un quantificateur existentiel, par exemple ($ x), sont remplacés dans la formule par une nouvelle constante, par exemple a. Cette constante représente une valeur (inconnue) de la variable x pour laquelle l'énoncé écrit par cette formule est vrai. Ce qui est important, c'est que pour tous les endroits où x est présent, la même valeur de a sera substituée, même si elle est inconnue pour le moment.

5. Les quantificateurs généraux sont placés en première place dans les formules. Ce n’est pas non plus toujours une opération simple ; cela implique parfois de renommer des variables.

6. Divulgation des conjonctions prises dans les disjonctions.

Après avoir terminé toutes les étapes de l'algorithme d'unification décrit, vous pouvez appliquer la règle de résolution.

C'est la règle de résolution qui a servi de base à la création du langage de programmation Prolog.
Dans Prolog, les faits sont décrits sous forme de prédicats logiques avec des valeurs spécifiques. Les règles d'inférence sont décrites par des prédicats logiques avec la définition des règles d'inférence sous la forme d'une liste de prédicats sur les bases de connaissances et les procédures de traitement de l'information. L'interpréteur Prolog lui-même implémente une sortie similaire à celle décrite ci-dessus. Afin de lancer les calculs, une requête spéciale est exécutée sur la base de connaissances, à laquelle le système de programmation logique génère des réponses « vraies » et « fausses ».

La méthode de résolution est facile à programmer, c'est l'un de ses avantages les plus importants, mais elle n'est applicable que pour un nombre limité de cas, car pour son application la preuve ne doit pas avoir une grande profondeur et le nombre de résolutions potentielles ne doit pas être grand.

Pour rendre l'outil de calcul des prédicats de premier ordre plus flexible, il peut être étendu avec le calcul lambda. Le calcul lambda est un langage d'ordre supérieur au calcul des prédicats de premier ordre. Dans celui-ci, la fonction lambda peut fonctionner non seulement avec des variables, mais également avec des prédicats comme arguments. Cependant, l'utilisation d'expressions lambda n'augmente pas formellement le pouvoir expressif de la logique du premier ordre, puisque toute construction contenant une expression lambda peut être convertie en une forme équivalente sans elle.

Après que le langage Prolog ait gagné en popularité, le terme « ordinateurs de cinquième génération » est apparu au début des années 80 du siècle dernier. A cette époque, la création de la prochaine génération d’ordinateurs axés sur l’informatique distribuée était attendue. Dans le même temps, on pensait que la cinquième génération deviendrait la base de la création d'appareils capables d'imiter le processus de pensée humaine. Parallèlement, est née l'idée de créer un support matériel pour les bases de données relationnelles parallèles Grace et Delta et l'inférence logique parallèle (Parallel Inference Engine, PIE), basée sur les principes du langage Prolog. Chaque bloc d'inférence a signalé sa charge de travail actuelle afin que le travail puisse être transféré au bloc d'inférence avec la charge la plus faible. Mais, comme nous le savons, de telles tentatives n’ont pas permis la création d’une intelligence artificielle, mais ont seulement servi de confirmation supplémentaire du fait que la pensée humaine n’a pas encore été suffisamment étudiée.

Les modèles logiques de représentation des connaissances vous permettent de vérifier l'exactitude syntaxique d'un énoncé. Cependant, en utilisant les règles qui définissent la syntaxe d’un langage, il est impossible d’établir la vérité ou la fausseté d’une affirmation particulière. Une instruction peut être construite syntaxiquement correctement, mais s’avérer totalement dénuée de sens. De plus, les modèles logiques sont difficiles à utiliser pour prouver un raisonnement qui reflète les spécificités d'un problème particulier, en raison de leur degré élevé d'uniformité.

Systèmes avec composants d'analyse sémantique

Dans le cadre du projet Open Cognition, l'analyseur Link Grammar Parser est en cours de développement, responsable du traitement du langage naturel. Link Grammar Parser a commencé à être développé dans les années 1990. à l'Université Carnegie Mellon. Cette approche diffère de la théorie classique de la syntaxe. Le système attribue une structure syntaxique à une phrase, qui consiste en un ensemble de connexions étiquetées (connecteurs) reliant des paires de mots. Link Grammar Parser utilise des informations sur les types de connexions entre les mots.

L'analyseur dispose de dictionnaires contenant environ 60 000 formes de dictionnaire. Il vous permet d'analyser un grand nombre de structures syntaxiques, y compris de nombreuses expressions et idiomes rares. Link Grammar Parser est assez robuste, il peut sauter une partie d'une phrase qu'il ne comprend pas et déterminer une structure pour le reste de la phrase. L'analyseur est capable de travailler avec un vocabulaire inconnu et de faire des suppositions raisonnables (basées sur le contexte et l'orthographe) sur la catégorie syntaxique des mots inconnus. Il contient des données sur les noms propres, les expressions numériques et divers signes de ponctuation.

L'analyse dans le système se déroule en deux étapes.

1. Construction de plusieurs représentations syntaxiques d'une phrase. A ce stade, toutes les options de connexions entre mots sont considérées et celles qui satisfont au critère de projectivité (les connexions ne doivent pas se croiser) et au critère de connectivité minimale sont sélectionnées (le graphe résultant doit contenir le plus petit nombre de composantes connexes ; une composante connexe de un graphe est un certain ensemble de sommets de graphe tel que pour deux sommets quelconques de cet ensemble, il existe un chemin de l'un à l'autre, et il n'y a pas de chemin d'un sommet de cet ensemble à un sommet n'appartenant pas à cet ensemble).

2. Post-traitement. Conçu pour fonctionner avec des structures de phrases alternatives déjà construites.

Les diagrammes résultants sont essentiellement un analogue des arbres de subordination. Dans les arbres de subordination, vous pouvez poser une question du mot principal d'une phrase au mot secondaire. Ainsi, les mots sont disposés selon une structure arborescente. Un analyseur peut produire deux ou plusieurs schémas d'analyse pour la même phrase. Ce phénomène est appelé synonymie syntaxique.

La principale raison pour laquelle l'analyseur est appelé système sémantique est un ensemble complet et unique de connexions (environ 100 connexions principales, dont certaines ont 3-4 options).
Dans certains cas, un travail minutieux sur différents contextes a conduit les auteurs du système à s'orienter vers des classifications quasi sémantiques construites exclusivement sur des principes syntaxiques. Ainsi, on distingue les classes suivantes d'adverbes anglais : les adverbes situationnels, qui concernent la phrase entière dans son ensemble (adverbe clausal) ; adverbes de temps (adverbes de temps) ; adverbes d'introduction, situés en début de phrase et séparés par une virgule (ouvreurs) ; adverbes modifiant les adjectifs, etc.

Parmi les avantages du système, il convient de noter que l'organisation de la procédure de recherche de variantes de représentation syntaxique est très efficace. La construction ne procède pas de haut en bas (de haut en bas) ni de bas en haut (de bas en haut), mais toutes les hypothèses de relations sont considérées en parallèle : d'abord, toutes les connexions possibles sont construites à l'aide de formules de dictionnaire, puis possibles des sous-ensembles de ces connexions sont identifiés. Ceci, d'une part, conduit à l'opacité algorithmique du système, car il est très difficile de retracer toutes les relations à la fois, et d'autre part, cela ne conduit pas à une dépendance linéaire de la vitesse de l'algorithme sur le nombre de mots, mais à un exponentiel, puisque l'ensemble de toutes les variantes de structures syntaxiques dans une phrase de mots dans le pire des cas, il équivaut à l'ensemble de tous les arbres de base d'un graphe complet avec des sommets.

La dernière fonctionnalité de l'algorithme oblige les développeurs à utiliser un timer afin d'arrêter rapidement une procédure qui s'exécute depuis trop longtemps. Cependant, tous ces défauts sont plus que compensés par la transparence linguistique du système, dans lequel les valences d'un mot sont prescrites avec la même facilité, et l'ordre de collecte des valences au sein de l'algorithme n'est pas fondamentalement spécifié ; les connexions se construisent comme si en parallèle, ce qui est pleinement cohérent avec notre intuition linguistique.

Pour chaque mot, le dictionnaire enregistre les connecteurs auxquels il peut être connecté avec d'autres mots de la phrase. Un connecteur est constitué du nom du type de connexion dans lequel l'unité d'analyse en question peut entrer. Il existe à elles seules plus de 100 connexions principales, les plus importantes. Pour indiquer le sens de connexion, un signe « + » est apposé à droite du connecteur et un signe « – » à gauche. Des connecteurs gauchers et droitiers du même type forment un lien. Un mot peut se voir attribuer une formule de connecteur, composée à l'aide de certains connecteurs.

Notons également les inconvénients de Link Grammar Parser.

1. Les tests pratiques du système montrent que lors de l'analyse de phrases complexes dont la longueur dépasse 25 à 30 mots, une explosion combinatoire est possible. Dans ce cas, le résultat du travail de l’analyseur est un graphe « panique », généralement une variante aléatoire d’une structure syntaxique inadéquate d’un point de vue linguistique.

2. L'application des idées décrites ci-dessus est difficile pour les langues flexionnelles telles que le russe en raison du volume considérablement croissant de dictionnaires résultant du développement morphologique des langues flexionnelles. Chaque forme morphologique doit être décrite par une formule distincte, où l'indice du connecteur qui y est inclus doit fournir une procédure de correspondance. Cela conduit à un ensemble de connecteurs plus complexe et à une augmentation de leur nombre.

Le projet Open Cognition, au sein duquel Link Grammar Parser est développé, est ouvert et gratuit, ce qui constitue un grand avantage pour la recherche. Une description assez détaillée et le code source peuvent être trouvés sur le site Web. Open Cognition continue de se développer aujourd'hui, ce qui est également important car elle a la possibilité d'interagir avec les développeurs. Parallèlement à Link Grammar, l'analyseur RelEx est en cours de développement, qui permet d'extraire des relations de dépendance sémantique dans des instructions en langage naturel et, par conséquent, les phrases sont présentées sous forme d'arbres de dépendance. Il utilise plusieurs ensembles de règles pour reconstruire le graphe en tenant compte des relations syntaxiques entre les mots. Après chaque étape, selon un ensemble de règles de correspondance, des balises de caractéristiques structurelles et de relations entre les mots sont ajoutées au graphique résultant. Cependant, certaines règles peuvent au contraire réduire le graphique. C'est ainsi que le graphique est transformé. Ce processus d'application d'une séquence de règles ressemble à la méthode utilisée dans les grammaires de contraintes. La principale différence est que RelEx fonctionne avec une représentation graphique plutôt qu'avec de simples ensembles de balises (indiquant des relations). Cette fonctionnalité vous permet d'appliquer des transformations plus abstraites lors de l'analyse de textes. En d’autres termes, l’idée principale est d’utiliser la reconnaissance de formes pour transformer des graphiques. Contrairement à d'autres analyseurs qui s'appuient entièrement sur la structure syntaxique d'une phrase, RelEx se concentre davantage sur la représentation de la sémantique, en particulier, cela concerne les entités, les comparaisons, les questions, la résolution des anaphores et l'ambiguïté lexicale des mots.

Système de numérotation

« Dialing » est un système de traduction automatique russe-anglais développé de 1999 à 2002. dans le cadre du projet Traitement Automatique de Texte (AOT). À différents moments, 22 spécialistes ont participé aux travaux sur le système, dont la plupart étaient des linguistes de renom.
La base du système « Dialing » était le système de traduction automatique français-russe (FRAP), développé au Centre panrusse de l'éducation et des sciences en collaboration avec l'Institut pédagogique d'État de Moscou. M. Thorez en 1976-1986, et le système d'analyse des textes politiques en russe « Polytext », développé au Centre de recherche sur l'information en 1991-1997.

Le système Polytext visait à analyser les documents officiels en russe et contenait une chaîne complète d'analyseurs de texte : graphématique, morphologique, syntaxique et partiellement sémantique. Dans le système « Dialing », l'analyse graphique a été partiellement empruntée, mais adaptée aux nouveaux standards de programmation. Le programme d'analyse morphologique a été réécrit car la vitesse de travail était faible, mais l'appareil morphologique lui-même n'a pas changé.

Au niveau graphématique, les constantes sont des descripteurs graphématiques. Par exemple, LE (lexème) - attribué à des séquences constituées de caractères cyrilliques ; ILE (lexème étranger) – attribué à des séquences de caractères latins ; CC (complexe numérique) – attribué à des séquences composées de nombres ; CBC (complexe de lettres numériques) - attribué à des séquences composées de chiffres et de lettres, etc.

Au niveau morphologique, les grammèmes sont utilisés pour la notation - caractéristiques grammaticales qui relient une forme de mot à une classe morphologique spécifique. Différents grammes de la même catégorie s’excluent mutuellement et ne peuvent être exprimés en un seul mot. Par exemple, zhr - genre féminin, tv - cas instrumental, pl - pluriel, mais - inanimé, sv - forme parfaite, dst - voix active, ne - transitivité du verbe, pvl - forme impérative du verbe, nst - présent du verbe, etc. d.

L'analyse de fragmentation vise à diviser une phrase en fragments indissociables (unités syntaxiques), en phrases plus grandes ou égales (groupe syntaxique), et à établir une hiérarchie partielle sur l'ensemble de ces unités. Types de fragments possibles : propositions principales, propositions subordonnées dans le cadre d'une phrase complexe, participative, participative et autres phrases isolées. Pour chaque fragment, on sait quels fragments y sont directement emboîtés et dans lesquels il est directement emboîté.

Le système FRAP contenait une chaîne complète d'analyse de texte jusqu'à l'analyse sémantique, qui n'a été que partiellement mise en œuvre. Dans le système FRAP, un appareil sémantique a été développé et testé, sur la base duquel une méthode spéciale d'analyse sémantique a été créée dans le système «Dialing» - la méthode des options complètes. FRAP ne contenait pas de mécanismes d'évaluation structurelle de la représentation sémantique, c'est-à-dire des méthodes non seulement pour une occurrence d'un élément de texte, mais pour la structure entière dans son ensemble. L'idée de la méthode des variantes complètes est que l'analyse doit clairement séparer les variantes d'analyse qui surviennent à différentes étapes et les règles linguistiques déclaratives (modèles partiels) qui construisent et évaluent les variantes individuelles. Cette approche, auparavant utilisée uniquement pour les analyseurs pré-sémantiques, est désormais devenue possible, grâce au développement de la puissance informatique, d'être transférée à la sémantique, augmentant ainsi le niveau de séparation des parties procédurales et déclaratives du système. La partie procédurale de l’analyse sémantique se résume idéalement à des boucles qui parcourent différentes options linguistiques. Ainsi, il est devenu possible de simplifier les modèles linguistiques grâce à la vitesse accrue des ordinateurs.

Les principaux composants de l'appareil sémantique utilisé dans Dialing sont les relations sémantiques (SR) et les caractéristiques sémantiques (SC). Exemples de relations sémantiques : INSTRU – « outil », LOK – « emplacement, emplacement », PRINADL – « appartenance », REZLT – « résultat », etc. Elles sont assez universelles et présentent des similitudes avec les prédicats évoqués dans la première section et les relations sémantiques. rôles, mentionnés dans la troisième section. Les caractéristiques sémantiques vous permettent de construire des formules en utilisant des connecteurs logiques « et » et « ou ». Chaque mot se voit attribuer une certaine formule composée de caractéristiques sémantiques. Le dictionnaire sémantique de « Dialing » contient environ 40 caractéristiques sémantiques. Exemples de caractéristiques sémantiques : ABST - un nom ou un adjectif abstrait, THING - le nom d'une substance chimique ou de quelque chose qui peut être mesuré en poids ou en volume ; GEOGR – objet géographique ; MOVE – verbes de mouvement ; INTEL – actions associées à l'activité mentale ; COMMUNIK – verbes de discours ; NOSINF – supports d'information ; ORG – organisation ; SOBIR – tout ce qui désigne un ensemble d'objets du même type ; EMOC – adjectifs qui expriment des émotions, etc. Certaines caractéristiques sont composites car elles peuvent être exprimées par rapport à d’autres. Certaines caractéristiques sont des antonymes. Leur utilisation dans la même conjonction est interdite. Certaines caractéristiques sont des variations d’autres. Les caractéristiques sémantiques, ainsi que les caractéristiques grammaticales, permettent de vérifier l'accord des mots lors de l'interprétation des connexions dans le texte.

À l'heure actuelle, tous les outils développés dans le cadre du projet AOT (y compris le système de numérotation) sont des logiciels multiplateformes gratuits. Une démo et une documentation détaillée sont disponibles sur le site.

Systèmes d’extraction d’informations et de représentation des connaissances

Il existe d'autres systèmes qui contiennent des composants d'analyse sémantique. Cependant, ils présentent des inconvénients importants pour la recherche : il est difficile de trouver des descriptions qui ne sont pas gratuites et librement distribuées ou qui ne fonctionnent pas avec des textes en russe. Il s'agit notamment d'OpenCalais (http://www.opencalais.com/opencalais-api/), RCO (http://www.rco.ru/?page_id=3554), Abbyy Compreno (https://www.abbyy.com /ru-ru/isearch/compreno/), SemSin (http://www.dialog-21.ru/media/1394/
kanevsky.pdf), DictaScope (http://dictum.ru/), etc.

Il convient de mentionner le système d'extraction de données de textes non structurés Pullenti (http://semantick.ru/). Elle a remporté la première place dans les pistes T1, T2, T2-m et la deuxième place en T1-l lors de la conférence Dialog 2016 du concours FactRuEval. Sur le site Web des développeurs du système Pullenti, il existe également une version démo d'un analyseur sémantique qui permet de construire un réseau sémantique basé sur une phrase.

L'environnement d'outils DECL (http://ipiranlogos.com/) a été développé à la fin des années 90 et utilisé pour construire des systèmes experts (ES), des shells pour ES, des systèmes logiques-analytiques (LAS), des processeurs linguistiques (LP), assurant le traitement et l'extraction automatique de connaissances à partir de flux de documents non formalisés en langage naturel.

Le système de traduction automatique « ETAP-3 » est conçu pour analyser et traduire des textes en russe et en anglais. Le système utilise la transformation de textes en langage naturel en leur représentation sémantique dans le langage Universal Networking. Comme mentionné précédemment, le balisage du corpus syntaxique « Corpus national de la langue russe » est effectué par le processeur linguistique ETAP-3, basé sur les principes de la théorie « Sens Û Texte ».

Récemment, de plus en plus de systèmes de représentation de bases de connaissances sous forme de graphiques sont apparus. Étant donné que le volume d’informations augmente constamment à une vitesse incroyable, de tels systèmes doivent prendre en charge la construction et la mise à jour automatiques des bases de connaissances. La construction automatique de bases de connaissances peut être réalisée à partir de sources de données structurées.

Exemples de tels systèmes : Yago (http://www.mpi-inf.mpg.de/departments/databases-and-information-systems/research/yago-naga/yago/), DBpedia (http://wiki.dbpedia .org/), Freebase (https://developers.
google.com/freebase/), Knowledge Graph de Google (https://developers.google.com/knowledge-graph/), OpenCyc (http://www.opencic.org/). Une autre approche permet d'extraire des informations de ressources ouvertes sur Internet sans intervention humaine : ReadTheWeb (http://rtw.ml.cmu.edu/rtw/), OpenIE (http://nlp.stanford.edu/
software/openie.html), Google Knowledge Vault (https://www.cs.ubc.ca/~murphyk/Papers/kv-kdd14.pdf). De tels systèmes sont expérimentaux, chacun d'eux a ses propres caractéristiques. Par exemple, Knowledge Vault tente de prendre en compte les incertitudes : à chaque fait se voit attribuer un coefficient de confiance et l'origine de l'information. Ainsi, toutes les affirmations sont divisées entre celles qui ont une forte probabilité d’être vraies et celles qui peuvent l’être moins. La prédiction des faits et de leurs propriétés est réalisée à l'aide de méthodes d'apprentissage automatique basées sur un très grand nombre de textes et de faits existants. Le Knowledge Vault contient actuellement 1,6 milliard de faits. Le système NELL, développé dans le cadre du projet ReadTheWeb de l'Université Carnegie Mellon, contient plus de 50 millions de déclarations avec différents degrés de confiance. Environ 2,8 millions de faits ont un degré de confiance élevé. Le processus de formation NELL n’est pas non plus encore terminé.

Tirons les conclusions suivantes. Avec le développement de la technologie informatique et l'augmentation constante
volumes d'informations textuelles, les recherches dans le domaine du traitement automatique de texte se sont concentrées sur l'aspect appliqué. Les capacités de la plupart des outils se limitent à l'analyse morphologique et syntaxique en combinaison avec des méthodes issues de la théorie des probabilités et des statistiques mathématiques. Ainsi, seule une partie sélectionnée des problèmes les plus simples a été résolue. D'autres problèmes doivent encore être résolus.

Comme nous l’avons vu, les raisons sont multiples. Par exemple, il existe une opinion selon laquelle chaque règle syntaxique a son analogue en sémantique. Ce postulat est appelé l’hypothèse de règle à règle. En fait, cette correspondance n’est pas biunivoque, et c’est là la principale difficulté. En effet, chaque règle syntaxique (parse tree) peut être associée à une règle sémantique (parse tree), mais ce ne sera pas la seule. En sens inverse, à la manière d’une règle sémantique, on compare une règle syntaxique, mais pas nécessairement la seule. C'est cette ambiguïté qui conduit à des problèmes actuellement insolubles dans le domaine du traitement automatique de texte. Dans le cadre de ce raisonnement, se pose la question du choix de la comparaison souhaitée parmi un grand nombre d'options possibles.

De tout ce qui précède, une autre conclusion très importante peut être tirée. Les processus de génération et d’interprétation d’un énoncé ne doivent pas être considérés séparément ; ils sont inextricablement liés
toi-même. Lorsqu'elle exprime ses pensées, une personne se demande si son interlocuteur la comprendra. Dans le processus de génération d'une déclaration, une personne, pour ainsi dire, se « revérifie », modélisant la façon dont l'interlocuteur percevra l'information. Un mécanisme similaire est présent lors de l’interprétation d’une déclaration. Lorsque nous comprenons ce que nous avons entendu ou lu, nous « vérifions » à nouveau nos connaissances et nos idées sur le monde. Ce n'est que grâce à cela que nous parvenons à choisir le sens approprié.

Les chercheurs modernes ont tendance à penser que le choix souhaité peut être fait avec une base supplémentaire de connaissances sur le monde. Une telle base de connaissances doit contenir des informations sémantiques générales sur les concepts et les relations entre eux, de sorte que lors de l'accès, le contexte approprié de l'énoncé puisse être déterminé automatiquement. Cela aiderait à prendre en compte les connaissances accumulées sur le monde, qui ne sont pas explicitement présentes dans un énoncé particulier, mais affectent directement sa signification.

Littérature

  1. Melchuk I.A. Expérience en théorie des modèles linguistiques « Sens-Texte ». M. : Langues de la culture russe, 1999. 346 p.
  2. Lahuti D.G., Rubashkin V.Sh. Dictionnaire sémantique (conceptuel) des technologies de l'information // Informations scientifiques et techniques. 2000. N° 7. pp. 1-9.
  3. Paducheva E.V. Modèles dynamiques en sémantique du vocabulaire. M. : Langues de la culture slave, 2004. 608 p.
  4. Tuzov V.A. Sémantique informatique de la langue russe. Saint-Pétersbourg : Maison d'édition de l'Université d'État de Saint-Pétersbourg, 2003. 391 p.
  5. Corpus national de la langue russe. URL : http://www.ruscorpora.ru/ (date d'accès : 22/08/2016).
  6. Apresyan V.Yu. et autres Nouveau dictionnaire explicatif des synonymes de la langue russe. M. – Vienne : Langues de la culture slave – Almanach slave de Vienne, 2004. 1488 p.
  7. Khoroshilov A.A. Méthodes d'établissement automatique de la similarité sémantique des documents à partir de leur analyse conceptuelle // Bibliothèques électroniques : méthodes et technologies prometteuses, collections électroniques : tr. XV panrusse scientifique conf. RCDL" 2013. Yaroslavl : Maison d'édition YarSU, 2013. pp. 369-376.
  8. Roubachkine V.Sh. Représentation et analyse du sens dans les systèmes d'information intelligents. M. : Nauka, 1989. 189 p.
  9. Lahuti D.G., Rubashkin V.Sh. Moyens et procédure d'interprétation conceptuelle des messages d'entrée en langage naturel // Izv. Académie des sciences de l'URSS. Ser. Technique cybern. 1987. N° 2. P. 49-59.
  10. Roubachkine V.Sh. Composant sémantique dans les systèmes de compréhension de texte // KII-2006. Tr. 10 nationales conf. selon artificiel renseignement avec l'international partie. 2006. URL : http://www.raai.org/resurs/papers/kii-2006/#dokladi (date d'accès : 23/08/2016).
  11. Paducheva E.V. Sémantique du type et point de départ // Izv. Académie des sciences de l'URSS : Ser. allumé. et la langue 1986. T. 45. N° 5. pp.
  12. Paducheva E.V. Noms de prédicats sous l'aspect lexicographique // Scientifique et technique. inf. 1991. Sér. 2. N° 5. pp. 21-31.
  13. WordNet. Une base de données lexicale pour l'anglais. URL : http://wordnet.princeton.edu/ (consulté le 23/08/2016).
  14. Web sémantique. URL : https://ru.wikipedia.org/wiki/Semantic_net (date d'accès : 23/08/2016).
  15. Minsky M. Minsky "la théorie des systèmes de cadres // Actes de l'atelier sur les questions théoriques du traitement du langage naturel (TINLAP "75). 1975, p. 104-116.
  16. Khabarov S.P. Représenter les connaissances dans les systèmes d'information : notes de cours. URL : http://www.habarov.spb.ru/bz/bz07.htm (date d'accès : 23/08/2016).
  17. Loutsenko E.V. Représentation des connaissances dans les systèmes d'information : électronique. cahier de texte manuel pour les étudiants. Krasnodar : Maison d'édition KubGAU, 2010. 428 p.
  18. Konstantinova I.S., Mitrofanova O.A. Les ontologies comme systèmes de stockage de connaissances // Vseros. compétitif statistique de sélection. par priorité direction "Systèmes d'information et de télécommunication." 2008. 54 p.
  19. Razin V.V., Tuzovsky A.F. Représentation des connaissances sur le temps prenant en compte l'incertitude dans les ontologies du WEB Sémantique // Dokl. État de Tomsk Université des Systèmes de Contrôle et de Radioélectronique. 2013. N° 2 (28). pp. 157-162.
  20. Patel-Schneider PF, Horrocks I. et al. SWRL : Un langage de règles du Web sémantique combinant OWL et RuleML // World Wide Web Consortium (W3C). 2004. URL : http://www.w3.org/Submission/SWRL (date d'accès : 18/08/2016).
  21. Fillmore Ch. Le cas par cas. Proc. Symptôme du Texas. sur les universaux du langage, 1967, 134 p.
  22. Fillmore Ch. Le cas du cas // Nouveau en linguistique étrangère. M. : Progrès, 1981. pp. 369-495.
  23. Dowty D. Proto-rôles thématiques et sélection d'arguments // Langue, 1991, vol. 67, non. 3, p. 547-619.
  24. Norvig P., Russell S. Intelligence artificielle : une approche moderne. M. : Williams, 2007. 1408 p.
  25. Jurafsky D., Martin J. Traitement de la parole et du langage : introduction au traitement du langage naturel, à la linguistique informatique et à la reconnaissance vocale. 2008, 1024 p.
  26. Batura T.V., Murzin F.A. Méthodes logiques orientées machine pour afficher la sémantique du texte en langage naturel : monographie. Novossibirsk : Maison d'édition NSTU, 2008. 248 p.
  27. Logique temporelle. URL : https://ru.wikipedia.org/wiki/Temporal_logic (date d'accès : 23/08/2016).
  28. Vendler Z. Verbes et temps. La Revue Philosophique, 1957, vol. 66, non. 2, p. 143-160.
  29. Paducheva E.V. Aspectualité lexicale et classification des prédicats selon Maslov-Vendler // Questions de linguistique. 2009. N° 6. P. 3-21.
  30. Inférence dans les modèles logiques. Méthode de résolution. URL : http://www.aiportal.ru/articles/knowledge-models/method-resolution.html (date d'accès : 08/11/2016).
  31. Boral H., Redfield S. Morphologie des machines de base de données. Proc. 11ème stagiaire. Conf. Très grandes bases de données, 1985, p. 59-71.
  32. Fushimi S., Kitsuregawa M., Tanaka H. Un aperçu du système d'une machine de base de données relationnelle parallèle GRACE. Proc. 12ème stagiaire. Conf. Très grandes bases de données, 1986, p. 209-219.
  33. Tanaka H. Moteur d'inférence parallèle. Édition Presse IOS, 2000, 296 p.
  34. Cognition ouverte. URL : http://opencog.org/ (date d'accès : 23/08/2016).
  35. Analyseur de grammaire de lien. AbiWord, 2014. URL : http://www.abisource.com/projects/link-grammar/ (date d'accès : 20/08/2016).
  36. L'analyseur de langage naturel CMU Link Grammar. URL : https://github.com/opencog/link-grammar/ (date d'accès : 22/08/2016).
  37. Extracteur de relations de dépendance RelEx. OpenCog. URL : http://wiki.opencog.org/wikihome/index.php/Relex (date d'accès : 22/08/2016).
  38. Sokirko A.V. Dictionnaires sémantiques en traitement automatique de texte (basés sur les matériaux du système DIALING). Insulter. ...et. ceux. Sci. M. : MGPIIYA, 2001. 120 p.
  39. Traitement automatique du texte. URL : http://www.aot.ruhttp://aot.ru/ (date d'accès : 23/08/2016).
  40. Prószéky G. La traduction automatique et l'hypothèse de règle à règle. Nouvelles tendances en traductologie (En l'honneur de Kinga Klaudy). Budapest : Akademiai Kiadó, 2005, p. 207-218.

Le mot sémantique vient de la langue grecque ancienne : σημαντικός sēmantikos, qui signifie « significatif », et comme terme, il a été utilisé pour la première fois par le philologue et historien français Michel Bréal.

La sémantique est la science qui étudie le sens des mots(sémantique lexicale), de nombreuses lettres individuelles (dans les alphabets anciens), des phrases - des phrases et des textes sémantiques. Elle est proche d'autres disciplines telles que la sémiologie, la logique, la psychologie, la théorie de la communication, la stylistique, la philosophie du langage, l'anthropologie linguistique et l'anthropologie symbolique. Un ensemble de termes ayant un facteur sémantique commun est appelé champ sémantique.

En contact avec

Camarades de classe

Qu'est-ce que la sémantique

Cette science étudie signification linguistique et philosophique langage, langages de programmation, logique formelle, sémiotique et analyse de texte. Il est lié par :

  • avec des mots significatifs;
  • mots;
  • phrases;
  • panneaux;
  • les symboles et ce qu'ils signifient, leur désignation.

Le problème de la compréhension a fait l'objet de nombreuses recherches depuis longtemps, mais le sujet a été traité principalement par des psychologues plutôt que par des linguistes. Mais seulement en linguistique l'interprétation des signes ou des symboles est étudiée, utilisé dans les communautés dans certaines circonstances et contextes. Dans cette perspective, les sons, les expressions faciales, le langage corporel et les proxémiques ont un contenu sémantique (significatif), et chacun d’eux comprend plusieurs compartiments. Dans le langage écrit, des éléments tels que la structure des paragraphes et la ponctuation contiennent un contenu sémantique.

L'analyse formelle de la sémantique recoupe de nombreux autres domaines d'étude, notamment :

  • lexicologie;
  • syntaxe;
  • pragmatisme;
  • étymologie et autres.

Il va sans dire que la définition de la sémantique est aussi un domaine à part entière bien défini, doté souvent de propriétés synthétiques. En philosophie du langage, sémantique et référence sont étroitement liées. D'autres domaines connexes incluent la philologie, les communications et la sémiotique.

La sémantique s'oppose à la syntaxe, l'étude de la combinatoire des unités linguistiques (sans référence à leur signification) et à la pragmatique, l'étude des relations entre les symboles d'une langue, leur signification et les utilisateurs de la langue. Le domaine d’étude dans ce cas a également des liens significatifs avec diverses théories représentationnelles du sens, y compris les véritables théories du sens, les théories de la cohérence et les théories de la correspondance du sens. Chacun d'eux est associé à une étude philosophique générale de la réalité et à la présentation du sens.

Linguistique

En linguistique, la sémantique est sous-domaine dédié à l'étude du sens, inhérent aux niveaux de mots, d'expressions, de phrases et d'unités plus larges de discours (texte ou analyse narrative). L'étude de la sémantique est également étroitement liée aux sujets de représentation, de référence et de désignation. Les principales recherches ici se concentrent sur l'étude de la signification des signes et sur l'étude des relations entre diverses unités et composés linguistiques tels que :

  • homonymie;
  • synonymie;
  • antonymie
  • métonymie;

Le problème clé est de savoir comment donner plus de sens à de gros morceaux de texte grâce à la composition d’unités de sens plus petites.

Grammaire montagnarde

À la fin des années 1960, Richard Montague (Semantics Wikipedia) a proposé un système permettant de définir des enregistrements sémantiques en termes de calcul lambda. Montagu a montré que le sens d'un texte dans son ensemble peut être décomposé en sens de ses parties et en règles de combinaison relativement petites. Le concept de tels atomes sémantiques ou primitives est fondamental pour le langage de l'hypothèse mentale des années 1970.

Malgré son élégance, la grammaire de Montagu était limitée par la variabilité contextuelle de la signification des mots et a conduit à plusieurs tentatives d'incorporation du contexte.

Pour Montague, le langage n’est pas un ensemble d’étiquettes attachées aux choses, mais un ensemble d’outils dont l’importance des éléments réside dans leur fonctionnement et non dans leur attachement aux choses.

Un exemple spécifique de ce phénomène est l’ambiguïté sémantique : les significations ne sont pas complètes sans certains éléments de contexte. Aucun mot n’a une signification qui puisse être identifiée indépendamment de ce qui se trouve à proximité.

Sémantique formelle

Dérivé du travail de Montagu. Une théorie hautement formalisée de la sémantique du langage naturel dans laquelle les expressions se voient attribuer des étiquettes (significations), telles que des individus, des valeurs de vérité ou des fonctions de l'une à l'autre. La vérité d'une phrase et, plus intéressant encore, sa relation logique avec d'autres phrases, est ensuite évaluée par rapport au texte.

Sémantique vraie conditionnelle

Une autre théorie formalisée créée par le philosophe Donald Davidson. Le but de cette théorie est associer chaque phrase en langage naturel à une description des conditions dans lesquelles elle est vraie par exemple : « la neige est blanche » est vrai si et seulement si la neige est blanche. La tâche consiste à parvenir à de véritables conditions pour toute phrase à partir de significations fixes attribuées à des mots individuels et de règles fixes pour les combiner.

En pratique, la sémantique conditionnelle s’apparente à un modèle abstrait ; Cependant, sur le plan conceptuel, elles diffèrent en ce sens que la sémantique vraie-conditionnelle cherche à relier le langage à des énoncés sur le monde réel (sous la forme d'énoncés métalinguaux) plutôt qu'à des modèles abstraits.

Sémantique conceptuelle

Cette théorie est une tentative d'expliquer les propriétés de la structure des arguments. L’hypothèse qui sous-tend cette théorie est que les propriétés syntaxiques des phrases reflètent la signification des mots qui les précèdent.

Sémantique lexicale

Théorie linguistique qui examine le sens d'un mot. Cette théorie comprend que le sens d'un mot se reflète complètement dans son contexte. Ici, le sens d'un mot réside dans ses relations contextuelles. Autrement dit, toute partie d'une phrase qui a un sens et qui est combinée avec les significations d'autres composants est désignée comme composant sémantique.

Sémantique informatique

La sémantique computationnelle se concentre sur le traitement du sens linguistique. Des algorithmes et une architecture spécifiques sont décrits à cet effet. Dans ce cadre, les algorithmes et les architectures sont également analysés en termes de décidabilité, de complexité temps/espace, de structures de données requises et de protocoles de communication.

Pourquoi le sens intéresse les philosophes et les psychologues et pourquoi il est considéré comme une « question » controversée n’est pas difficile à comprendre. Considérez la question apparemment innocente : « Quelle est la signification du mot vache ? Bien entendu, il ne s’agit pas d’un animal en particulier. Peut-être est-ce alors toute la classe d’animaux à laquelle on donne le nom de vache ? Toutes les vaches sont différentes d’une manière ou d’une autre ; et de toute façon, personne ne connaît ou ne pourrait connaître tous les membres de la classe des vaches, mais j'aimerais quand même penser que nous connaissons la signification du mot vache, et que nous pouvons l'utiliser correctement pour désigner des animaux spécifiques que nous avons jamais vu avant . Y a-t-il une ou plusieurs propriétés qui différencient les vaches de tous les autres objets que nous appelons différemment ? En pensant ainsi, nous nous trouvons plongés dans un débat philosophique entre « nominalistes » et « réalistes » qui s’est poursuivi sous une forme ou une autre depuis l’époque de Platon jusqu’à nos jours. Les choses que nous appelons du même nom ont-elles des propriétés « essentielles » communes par lesquelles elles peuvent être identifiées (comme diraient les « réalistes »), ou n’ont-elles rien de commun entre elles, à l’exception du nom qui, selon les principes établis, n’a rien de commun entre elles ? coutume que nous avons appris à leur appliquer (comme pourrait dire un « nominaliste ») ? Et la vache n'est pas un cas particulièrement difficile. Après tout, il peut être tenu pour acquis que les vaches peuvent être définies en termes de classification biologique genre-espèce. Et le mot table ? Les tables se présentent sous différentes formes et tailles, sont fabriquées à partir de divers matériaux et sont utilisées à des fins différentes. Mais les tables sont, au moins physiquement, des objets observables et tangibles ; et pour eux, il est possible de dresser une certaine liste de caractéristiques déterminantes. Que pouvons-nous dire des mots comme vérité, beauté, bonté, gentillesse, bonne qualité, etc. ? Toutes ces choses que nous qualifions de « belles » ou de « bonnes » ont-elles une propriété commune ? Si oui, comment l’identifier et le décrire ? Peut-être faudrait-il dire que le sens de mots tels que vérité, beauté et bonté est le « concept » ou « l’idée » qui leur est associé dans « l’esprit » des locuteurs de la langue correspondante^ et, en général, ce « sens » sont des « concepts » ou des « idées » ? Dire cela signifie replonger dans les débats philosophiques et psychologiques, car de nombreux philosophes et psychologues doutent beaucoup de la possibilité de l’existence de concepts (ou même d’« esprit »). Mais même si nous laissons de côté ces difficultés ou refusons de les considérer, nous découvrirons qu'il existe d'autres questions liées au sens et de nature plus ou moins philosophique. Est-il significatif de dire que quelqu’un a utilisé un mot avec un sens différent de celui que signifie le mot « réellement » ? Existe-t-il même un sens « vrai » ou « correct » d’un mot ?

9.1.4. VALEUR "VALEURS"

Jusqu’à présent, nous n’avons parlé que de la signification des mots. Nous avons également dit des phrases qu'elles avaient un sens. Le terme « sens » est-il utilisé ici dans le même sens ? D’ailleurs, nous disons souvent que les phrases et les combinaisons de mots sont ou non « significatives », mais nous ne disons généralement pas que les mots n’ont pas de « sens ». Est-il alors possible d’indiquer une différence, et peut-être toute une série de différences, entre les concepts d’« être significatif » et d’« avoir du sens » ? Ces questions et bien d’autres connexes ont été discutées à plusieurs reprises par les philosophes et les linguistes. C’est devenu un truisme dans l’exposé de la théorie sémantique que d’attirer l’attention sur les multiples significations du « sens ».

A côté des questions philosophiques, il y a aussi celles qui relèvent directement de la compétence d'un linguiste. Les philosophes, comme la première personne qu’ils rencontrent, considèrent généralement les « mots » et les « phrases » comme des faits évidents. Un linguiste ne peut pas faire cela. Les mots et les phrases sont pour lui avant tout des unités de description grammaticale ; Parallèlement à eux, d'autres unités grammaticales sont reconnues. Le linguiste doit considérer la question générale de savoir comment les unités grammaticales de diverses sortes sont liées aux unités d'analyse sémantique. Il doit notamment examiner la question de savoir s'il convient de faire une distinction entre le sens « lexical » et le sens « grammatical ».

Personne n’a encore présenté, du moins en termes généraux, une théorie satisfaisante et raisonnable de la sémantique. Et cela devrait être clairement reconnu dans toute discussion sur les problèmes de cette discipline. Cependant, l’absence d’une théorie cohérente et complète de la sémantique ne signifie pas qu’absolument aucun progrès n’a été réalisé jusqu’à présent dans le domaine de l’étude théorique du sens. Vous trouverez ci-dessous un bref aperçu des réalisations les plus importantes réalisées ces dernières années par les linguistes et les philosophes.

Nous avons déjà tenté de définir la sémantique comme la science du sens ; et cette définition est la seule qui rassemble tous les sémanticiens. Dès que nous commençons à nous familiariser avec des œuvres sémantiques spécifiques, nous sommes confrontés à une telle variété d'approches pour définir et établir le sens qu'elle déroute le lecteur inexpérimenté. Des distinctions sont faites entre sens « émotionnel » et « conceptuel », entre « signification » et « signification », entre sens « performatif » et « descriptif », entre « sens » et « référence », entre « dénotation » et « connotation », entre « signes » et « symboles », entre « extensionnel » et « intension », entre « implication », « implication » et « présupposition », entre « analytique » et « synthétique », etc. La terminologie de la sémantique est riche et carrément déroutant, puisque l’utilisation des termes par les différents auteurs se caractérise par l’absence de cohérence et d’uniformité. Pour cette raison, les termes que nous introduisons dans ce chapitre n’auront pas nécessairement la même signification que dans d’autres travaux sur la sémantique.

Nous commençons par une brève critique de l’approche traditionnelle de la définition du sens.

9.2. SÉMANTIQUE TRADITIONNELLE

9.2.1. NOMMER LES CHOSES

La grammaire traditionnelle reposait sur l'hypothèse que le mot (au sens de « jeton » ; cf. §5.4.4) est l'unité de base de la syntaxe et de la sémantique (cf. aussi §1.2.7 et §7.1.2). Le mot était considéré comme un « signe » composé de deux parties ; nous appellerons ces deux composants forme les mots et les siens signification. (Rappelez-vous que ce n'est qu'une des significations que le terme « forme » a en linguistique ; la « forme » d'un mot en tant que « signe » ou unité lexicale doit être distinguée des « formes » spécifiques « accidentelles » ou flexionnelles dans lequel le mot apparaît dans les phrases ; cf. § 4.1.5.) Très tôt dans l'histoire de la grammaire traditionnelle s'est posée la question du rapport entre les mots et les « choses » auxquelles ils se référaient ou qu'ils « dénotaient ». Les anciens philosophes grecs de l’époque de Socrate, et après eux Platon, ont formulé cette question dans des termes qui ont depuis été couramment utilisés dans sa discussion. Pour eux, la relation sémantique qui existe entre les mots et les « choses » était celle de la « dénomination » ; puis se pose le problème suivant : celui de savoir si les « noms » que nous donnons aux « choses » sont d'origine « naturelle » ou « conventionnelle » (cf. § 1.2.2). À mesure que la grammaire traditionnelle se développait, il est devenu courant de faire la distinction entre le sens d'un mot et la ou les « choses » qui sont « nommées » par le mot. Les grammairiens médiévaux formulaient la distinction ainsi : la forme d'un mot (cette partie de la dictio qui est caractérisée comme vox) désigne des « choses » au moyen d'un « concept » associé à la forme dans l'esprit des locuteurs d'une langue donnée ; et ce concept est le sens du mot (sa signification). Nous considérerons ce concept comme la vision traditionnelle de la relation entre les mots et les « choses ». Comme déjà mentionné, cette vision, en principe, était la base de la philosophie philosophique. définition des « parties du discours » selon leur caractéristique « moyen de désignation » (cf. § 1.2.7). Sans entrer dans un exposé détaillé de la théorie traditionnelle de la « signification », notons seulement que la terminologie utilisé dans cette théorie n'excluait pas la possibilité d'un usage ambigu, ou indifférencié, du terme « signifier » ) : on pourrait dire que la forme du mot « désigne » le « concept » sous lequel les « choses » sont subsumées (par « faisant abstraction » de leurs propriétés « accidentelles ») ; on pourrait aussi dire qu'il « désigne » les « choses » elles-mêmes. Quant à la relation entre « concepts » et « choses », elle a bien entendu fait l'objet de nombreux débats. désaccord philosophique (le désaccord entre « nominalistes » et « réalistes » est particulièrement frappant ; cf. § 9.1.3) On peut ici ignorer ces différences philosophiques.

9.2.2. RÉFÉRENCE

Il est utile ici d'introduire un terme moderne pour les « choses » considérées du point de vue de leur « nomination », de leur « nomination » avec des mots. C'est le terme référent. Nous dirons que la relation qui existe entre les mots et les choses (leurs référents) est la relation les références (corrélation): mots corrélatif avec les choses (et ne les « désignez » ni ne les « nommez »). Si nous acceptons la distinction entre forme, sens et référent, nous pouvons alors donner une représentation schématique familière de la vision traditionnelle de la relation entre eux sous la forme d'un triangle (parfois appelé « triangle sémiotique ») illustré dans la Fig. 23. La ligne pointillée entre forme et référent indique que la relation entre eux est indirecte ; la forme est liée à son référent à travers une signification médiatrice (conceptuelle) qui est associée à chacun indépendamment. Le diagramme illustre clairement le point important selon lequel, dans la grammaire traditionnelle, un mot est le résultat de la combinaison d'une forme spécifique avec une signification spécifique.

Nous avons déjà évoqué les disputes philosophiques et psychologiques sur le statut des « concepts » et des « idées » dans « l'esprit » (cf. §9.1.3). La sémantique traditionnelle élève l’existence des « concepts » au rang de principe de toutes les constructions théoriques et encourage donc (presque inévitablement) la subjectivité et l’introspection dans l’exploration du sens. Comme l’écrit Haas, « la science empirique ne peut pas s’appuyer entièrement sur une méthodologie de recherche qui revient à ce que les gens fassent des observations dans leur propre esprit, chacun dans le sien. » Cette critique présuppose l'acceptation de l'idée selon laquelle la sémantique est, ou devrait être, une science empirique, opinion qu'il est souhaitable, dans la mesure du possible, de ne pas lier à des questions philosophiques et psychologiques aussi controversées que la distinction entre « le corps ». » et « esprit » ou le statut des « concepts ». Nous adhérons à ce point de vue lors de l’examen de la sémantique dans ces chapitres. Il convient cependant de souligner que le rejet méthodologique du « mentalisme » ne signifie pas l’adoption d’un « mécanisme », comme le pensent certains linguistes. La définition « mécaniste » et « positiviste » de Bloomfield du sens d'un mot comme description « scientifique » complète de son référent est plus préjudiciable au progrès en sémantique que la définition traditionnelle en termes de « concepts », puisque la définition de Bloomfield accorde une attention préférentielle à un ensemble relativement restreint de mots dans le vocabulaire des langues naturelles, des mots qui correspondent à des « choses » qui peuvent, en principe, être décrites au moyen des sciences physiques. De plus, elle repose sur deux hypothèses implicites et infondées : (i) que la description « scientifique » des référents de ces mots est liée à la manière dont ces mots sont utilisés par les locuteurs d'une langue donnée (la plupart des locuteurs n'ont que peu d'idées sur la description « scientifique ») ; (ii) que le sens de tous les mots peut finalement être décrit dans les mêmes termes. Il est vrai que l'approche de Bloomfield (que l'on retrouve également chez d'autres auteurs) peut être considérée comme dépendant d'une vision « réaliste » de la relation entre le langage et le « monde », vision qui ne diffère pas très significativement du point de vue de beaucoup de gens. « conceptualistes » ; cela implique au moins l'hypothèse que, puisqu'il existe, par exemple, le mot intelligence, alors il y a aussi quelque chose auquel il se rapporte (et ce « quelque chose » sera, suppose-t-on, éventuellement décrit de manière satisfaisante au moyen de la « science ». ); puisqu'il y a un mot amour, alors il y a aussi quelque chose à quoi correspond ce mot, etc. d) La position à laquelle le linguiste doit adhérer est une position neutre par rapport au « mentalisme » et au « mécanisme » ; c’est une position qui est cohérente avec les deux points de vue, mais ne présuppose aucun d’eux.

9.2.7. DÉFINITION « OSTENSIVE »

Le paragraphe précédent contient implicitement une autre critique de la sémantique traditionnelle (ainsi que de certaines théories modernes). Nous avons déjà vu que le terme « sens », dans son usage ordinaire, a lui-même de nombreuses « significations ». Lorsque nous posons une question à quelqu'un : « Quel est le sens du mot X? - au cours d'une conversation quotidienne (non philosophique ou hautement spécialisée), nous recevons (et cela ne nous surprend pas du tout) des réponses qui varient dans la forme, selon les circonstances et la situation dans lesquelles nous posons cette question. Si l’on s’intéresse au sens d’un mot dans une autre langue que la nôtre, la réponse à notre question est le plus souvent la traduction. (« La traduction » soulève toutes sortes de problèmes d'intérêt sémantique, mais nous n'y reviendrons pas pour l'instant ; cf. § 9.4.7.) Pour nous maintenant, une situation plus révélatrice est celle où l'on s'interroge sur le sens des mots dans notre propre langue (ou dans une autre langue que nous « connaissons », au moins « partiellement » - en général, le concept de « pleine connaissance d'une langue » est, bien entendu, une fiction). Supposons que nous voulions connaître la signification du mot vache dans la situation peu plausible (mais pratique pour nos besoins) où il y a plusieurs vaches dans un pré voisin. Ils pourraient nous dire : « Vous voyez ces animaux là-bas ? Ce sont des vaches. » Cette façon de transmettre le sens du mot vache implique un élément de ce que les philosophes appellent définition de l'ostensive. (Une définition ostensive (visuelle) est une définition qui « pointe » directement vers l'objet correspondant.) Mais une définition ostensive en elle-même n'est jamais suffisante, puisque la personne qui interprète cette « définition » doit avant tout connaître la signification du « pointage ». geste, dans un contexte donné (et aussi savoir que l'intention du locuteur est justement de donner une « définition ») et, surtout, qu'il identifie correctement l'objet auquel il est « référé ». Dans le cas de notre exemple hypothétique, les mots « ces animaux » limitent les risques de malentendus. (Ils ne l’éliminent pas entièrement ; mais nous supposerons que la « définition » du sens de vache a été interprétée de manière satisfaisante.) La signification théorique de cet exemple trop simpliste et plutôt irréaliste est double : premièrement, il montre la difficulté d’expliquer le signifiant n'importe quel mot sans l'utilisation d'autres mots afin de limiter et de rendre plus explicite le « domaine » de « l'indication » (cela confirme l'idée qu'il est probablement impossible de déterminer, et peut-être même de connaître, le sens d'un mot sans également connaître le sens d'autres mots avec lesquels il est « lié » ; par exemple, vache « vache » est liée à animal « animal »); deuxièmement, la définition ostensive ne s’applique qu’à un ensemble relativement restreint de mots. Imaginez, par exemple, la futilité de vouloir expliquer ainsi le sens des mots vrai « correct, vrai », beau « beau, beau, magnifique », etc. ! La signification de tels mots est généralement expliquée, mais pas toujours avec succès, à l'aide de synonymes (dont la signification est supposée déjà connue de la personne qui pose la question) ou à l'aide de définitions assez longues du type habituellement donné. dans les dictionnaires. Et encore une fois, l'inévitable circularité de la sémantique se manifeste ici clairement : dans le vocabulaire, il n'y a pas de point unique qui puisse être pris comme point de départ et à partir duquel le sens de tout le reste puisse être déduit. Ce problème de « circularité » sera discuté ci-dessous (cf. §9.4.7).

9.2.8. CONTEXTE

Une autre caractéristique des situations quotidiennes dans lesquelles nous nous retrouvons à nous interroger sur le sens des mots est qu’on nous dit souvent : « Cela dépend du contexte ». (« Donnez-moi le contexte dans lequel vous avez rencontré ce mot, et je vous dirai sa signification. ») Il est souvent impossible de déterminer le sens d'un mot sans « le remettre dans son contexte » ; et l’utilité des dictionnaires dépend directement du nombre et de la variété des « contextes » qui y sont donnés pour les mots. Souvent (et c'est peut-être le cas le plus courant) le sens d'un mot est expliqué ainsi : un « synonyme » est donné, indiquant les restrictions « contextuelles » régissant l'usage du mot en question (ajouté : « gâté (d'œufs )"; rance : "gâté (de beurre)" etc.). Des faits tels que la variété des manières dont nous établissons le sens des mots dans la pratique, la circularité du vocabulaire et le rôle essentiel du « contexte » ne reçoivent pas une pleine reconnaissance théorique dans la sémantique traditionnelle.

9.2.9. "SIGNIFICATION" ET "UTILISATION"

On peut citer ici le célèbre et très populaire slogan de Wittgenstein : « Ne cherchez pas le sens d’un mot, cherchez son usage ». Le terme « utilisation » en lui-même n’est pas plus clair que le terme « signification » ; mais en substituant un terme à un autre, le sémanticien abandonne la tendance traditionnelle à définir le « sens » en termes de « signification ». Les propres exemples de Wittgenstein (dans ses travaux ultérieurs) montrent qu'il croyait que les « usages » dans lesquels les mots apparaissent dans une langue sont de nature très variée. Il n'a pas avancé (et n'a pas déclaré son intention d'avancer) une théorie de « l'usage » des mots comme théorie de la sémantique. Mais nous sommes peut-être en droit d’extraire les principes suivants de l’énoncé programmatique de Wittgenstein. Le seul critère de test applicable à la recherche linguistique est « l’utilisation » d’énoncés linguistiques dans diverses situations de la vie quotidienne. Des expressions telles que « le sens d'un mot » et « le sens d'une phrase (ou d'une proposition) » risquent de nous induire en erreur dans la mesure où elles nous incitent à rechercher les « sens » qu'elles ont et à identifier leurs « sens ». » avec des entités telles que des objets physiques, des « concepts » donnés à « l'esprit » ou des « états de choses » dans le monde physique.

Nous ne disposons pas de preuves directes concernant la compréhension des énoncés, mais nous disposons plutôt de données sur leur malentendu(malentendu) - quand quelque chose est « violé » dans le processus de communication. Si, par exemple, nous disons à quelqu'un de m'apporter le livre rouge qui est sur la table à l'étage et qu'il nous apporte un livre d'une couleur différente, ou une boîte à la place d'un livre, ou qu'il descend chercher un livre, ou qu'il quelque chose de complètement inattendu, alors nous pouvons tout à fait raisonnablement dire qu'il a « mal compris » tout ou partie de notre déclaration (bien sûr, d'autres explications sont possibles). S’il fait ce qu’on attend de lui (va dans la bonne direction et revient avec le bon livre), alors on peut dire qu’il a bien compris l’énoncé. Nous tenons à souligner que (dans un cas comme celui-ci), il existe à première vue des faits « comportementaux » selon lesquels aucun malentendu ne s’est produit. Il est tout à fait possible que si nous continuions à tester de manière très persistante sa « compréhension » des mots apporter, ou rouge, ou livre, il viendrait un moment où quelque chose qu'il a fait ou dit révélerait que sa « compréhension » de ces mots est quelque peu différent des nôtres, qu'il tire des conclusions d'énoncés contenant ces mots que nous ne tirons pas (ou, à l'inverse, que nous tirons des conclusions qu'il ne tire pas), ou qu'il les utilise pour désigner une classe d'objets légèrement différente ou Actions. La communication normale repose sur l’hypothèse que nous « comprenons » tous les mots de la même manière ; cette hypothèse est violée de temps en temps, mais si cela ne se produit pas, le fait de « comprendre » est tenu pour acquis. Que nous ayons ou non les mêmes « concepts » dans notre « esprit » lorsque nous nous parlons est une question à laquelle on ne peut répondre qu’en termes de « l’utilisation » des mots dans les énoncés. L’affirmation selon laquelle tout le monde « comprend » le même mot de manière légèrement différente est probablement vraie, mais plutôt dénuée de sens. La sémantique vise à expliquer le degré d’uniformité dans « l’utilisation » du langage qui rend possible une communication normale. Une fois que nous abandonnons l'idée selon laquelle le « sens » d'un mot est ce qu'il « signifie », nous reconnaissons tout naturellement que certaines relations de diverses sortes doivent être établies pour expliquer « l'usage ». Deux des « facteurs » qu’il convient de distinguer sont référence(dont nous avons déjà parlé plus haut) et signification(sens).

9.2.10. VALEUR NON DÉTERMINISTE

Ainsi, nous proposons d'abandonner l'idée selon laquelle le « sens » d'un mot est ce qu'il « signifie », et dans le processus de communication, ce « signifié » est « transmis » (en un certain sens) par le locuteur à l'auditeur ; nous sommes plutôt prêts à admettre que la détermination (la certitude) du sens des mots n'est ni nécessaire ni souhaitable. Comme nous l'avons vu, l'usage d'une langue dans des situations normales peut s'expliquer sur la base d'une hypothèse beaucoup plus faible, à savoir qu'il existe un accord entre les locuteurs d'une langue donnée sur « l'usage » des mots (à quoi ils font référence, à quoi ils font référence). ils sous-entendent, etc.), ce qui suffit à dissiper le « malentendu ». Cette conclusion doit être gardée à l’esprit dans toute analyse du « sens » des mots et des phrases. Nous considérerons cela comme acquis tout au long des sections suivantes de ces deux chapitres sur la sémantique.

Deux autres remarques doivent être soulignées à propos des énoncés socialement prescrits, tels que Comment allez-vous ? "Bonjour!". Ils ont généralement le caractère de formations « toutes faites », c'est-à-dire qu'ils sont appris par les locuteurs natifs comme des unités entières non analysées et, bien évidemment, ne sont pas reconstruits dans chaque cas lorsqu'ils sont utilisés dans des circonstances que, à la suite de Furs, nous peut appeler « des événements typiques répétitifs dans la chaîne du processus social ». Puisqu’ils sont de cette nature, il serait possible de les expliquer dans le cadre d’une conception « behavioriste » : les énoncés en question pourraient bien être décrits comme des « réponses conditionnées » aux situations dans lesquelles ils surviennent. Ce fait ne doit pas être ignoré par le sémanticien. Une grande partie de notre utilisation quotidienne du langage peut être décrite de manière adéquate en termes « behavioristes » et peut impliquer que nous « jouions » certains « rôles » dans l’exécution de modèles de comportement « rituels » socialement prescrits. Vu du point de vue de cet aspect de l'utilisation du langage, les individus humains présentent un comportement similaire à celui de nombreux animaux, dont les « systèmes de communication » consistent en une variété d'« énoncés prêts » utilisés dans des situations spécifiques. Les aspects humains les plus typiques du comportement linguistique, qui dépendent des propriétés génératives du langage, ainsi que des concepts sémantiques de signification, de référence et de sens, ne peuvent pas être expliqués de manière plausible par l'extension des concepts « behavioristes » de « stimulus » et "réponse" à eux. Cependant, il est vrai que le langage humain comprend également une composante « comportementale ». Même si nous n’en dirons pas davantage dans ce qui suit, nous devons théoriquement reconnaître ici cette vérité.

9.3.7. "COMMUNION PHATIQUE"

À cet égard, il faut également mentionner l’aspect du comportement linguistique auquel B. Malinovsky a appliqué le terme « communication phatique ». Il a attiré l'attention sur le fait que nombre de nos énoncés sont attribués à tort comme fonction unique ou principale de transmettre ou de rechercher des informations, de donner des ordres, d'exprimer des espoirs, des besoins et des désirs, ou même de « manifester des émotions » (au sens vague dans lequel la sémantique utilisent souvent cette dernière expression) ; en fait, ils servent à établir et à maintenir un sentiment de solidarité sociale et d’auto-préservation sociale. De nombreuses déclarations « toutes faites » comme Comment allez-vous ? Le « Bonjour ! », socialement prescrit dans certains contextes, peut remplir précisément cette fonction de « communication phatique ». Cependant, il existe de nombreux autres énoncés qui sont plus ou moins librement construits par les locuteurs, mais qui en même temps véhiculent des informations et servent les objectifs de la « communication phatique ». Un exemple serait la phrase C'est un autre beau jour, prononcée (par hypothèse) comme première phrase dans une conversation entre un acheteur et un commerçant. Il est clair que la fonction principale de cette déclaration n'est pas de « transmettre » au commerçant ce que - des informations sur la météo ; c'est un exemple clair de communication "phatique". En même temps, cet énoncé a toujours un sens qui est différent de celui d'innombrables autres énoncés que l'on pourrait trouver dans ce contexte et qui pourraient également servent les objectifs de la communication « phatique » ; et la « étape » suivante dans la conversation est généralement liée à cet énoncé particulier sur la base de sa signification. Nous devons donc faire la distinction entre cet aspect de « l'utilisation » des énoncés qui peut être attribuée à la mise en œuvre de la « communication phatique » et à cette partie, qui doit être isolée comme son sens (si elle a un sens selon notre définition), mais nous reconnaissons que même lorsqu'un énoncé a ces deux aspects, la partie dominante de l'« utilisation » de l'énoncé peut être soit le premier, soit le deuxième aspect. Malinovsky exagérait clairement lorsqu’il affirmait que la transmission de l’information était l’une des « fonctions les plus périphériques et les plus hautement spécialisées » du langage.

9.3.8. EXTENSION DU CONCEPT « AVOIR SENS » À TOUTES LES UNITÉS LINGUISTIQUES

Jusqu'à présent, nous avons illustré le concept selon lequel n'avoir de sens que par rapport à des énoncés entiers, considérés comme des unités indécomposables. Nous allons maintenant continuer à considérer les énoncés plutôt que les phrases et continuer à faire appel au concept intuitif de « contexte » ; mais nous allons maintenant généraliser le concept d'avoir du sens en fonction du principe suivant : tout élément linguistique qui apparaît dans un énoncé a un sens à moins qu'il ne soit complètement déterminé (« obligatoire ») dans un contexte donné.

De toute évidence, le concept d’avoir du sens (tel que défini ici) s’applique à tous les niveaux d’analyse de l’énoncé, y compris le niveau phonologique. Par exemple, il existe de nombreux contextes dans lesquels les mots agneau « agneau » et bélier « bélier » pourraient être utilisés avec le même succès, et les énoncés correspondants peuvent différer uniquement par ces mots. Puisque ces énoncés diffèrent apparemment par leur sens (les référents des mots agneau et bélier sont différents et, d'une manière générale, les implications « contenues » dans les énoncés correspondants sont différentes), alors les phonèmes /l/ et /r/ n'ont pas seulement sens, mais ont également des significations différentes dans ces déclarations. Il existe d'autres énoncés contenant des mots autres que agneau et bélier, dans lesquels la différence de sens peut s'exprimer uniquement par l'opposition phonologique /l/ - /r/. Comme nous l'avons vu dans l'un des chapitres précédents (cf. § 3.1.3), la structure phonologique des langues spécifiques repose en définitive sur la capacité différenciatrice des phonèmes (plus précisément, sur la capacité différenciatrice de leurs « traits distinctifs »), limité par certaines limites imposées par le principe supplémentaire de similarité phonétique. Il y a donc de bonnes raisons d’appliquer le concept de sens même au niveau de l’analyse phonologique. Il convient toutefois de noter que dans le cas de sons phonétiquement distincts mais « similaires », avoir une signification implique nécessairement d’avoir une signification différente, du moins dans certains contextes. Aux niveaux « les plus élevés », ce n’est pas le cas. Quand on parle de langues dans lesquelles les sons [l] et [r] apparaissent mais ne font jamais de différence entre les énoncés, on dit que dans ces langues ces sons sont dans une relation de distribution supplémentaire ou de variation libre (en d'autres termes, qu'il s'agit de réalisations phonétiques alternatives d'une même unité phonologique ; cf. § 3.3.4). Dans des contextes où les sons de la parole, autrement distingués comme unités phonologiques distinctes, ont la même signification, ils peuvent tout à fait raisonnablement être qualifiés de synonymes. Des exemples sont les voyelles initiales dans les prononciations alternatives du mot économie (le cas opposé est la qualité différentielle des mêmes voyelles dans le temps /bi:t/ : bet /bet/, etc.) ou les schémas d'accentuation de la controverse : controverse.

Bien que le sémanticien doive théoriquement reconnaître le principe selon lequel la possession de sens s'applique au niveau phonologique, dans son travail pratique, il ne s'intéresse généralement pas à la signification des unités phonologiques. La raison en est que les unités phonologiques n'ont jamais de corrélation de sujet et n'entrent dans aucune relation sémantique, à l'exception des relations de similitude et de différence de sens. De plus, la relation d'identité de sens, lorsqu'elle se produit entre unités phonologiques (« synonymie » phonologique, comme illustré ci-dessus), est sporadique et non systématique. Il doit être décrit en termes de règles de mise en œuvre alternatives pour des mots spécifiques ; une fois ces règles obtenues, il n’en faut plus rien. D'une manière générale (il convient de mentionner spécialement le cas du « symbolisme sonore » - phénomène sémantiquement intéressant que nous ne considérerons pas ici en raison de possibilités limitées ; cf. § 1.2.2), le « sens » d'une unité phonologique donnée est simplement sa distinction par rapport à toutes les autres unités phonologiques (le cas échéant) qui pourraient apparaître dans le même contexte.

9.3.9. CONTEXTES LIMITÉS

Passons maintenant à la distinction entre énoncés et phrases (cf. §5.1.2). Il y a deux choses à garder à l’esprit. D'abord. Lorsque nous utilisons le langage pour communiquer les uns avec les autres, nous produisons non pas des phrases, mais des énoncés ; de tels énoncés sont produits dans des contextes spécifiques et ne peuvent être compris (même dans les limites fixées ci-dessus pour l'interprétation du terme « compréhension » ; cf. § 9.2.9) sans la connaissance des caractéristiques contextuelles pertinentes. De plus, au cours d'une conversation (supposons qu'il s'agisse d'une conversation), le contexte évolue constamment, dans le sens où il « absorbe » de ce qui est dit et de ce qui se passe tout ce qui est pertinent pour la production et compréhension des propos ultérieurs. Un cas extrême de contextes non « développés » dans ce sens serait ceux dans lesquels les participants à la conversation ne s'appuient pas sur une connaissance préalable les uns des autres, ni sur les « informations » contenues dans des énoncés précédemment prononcés, mais dans lesquels ils utilisent davantage les opinions générales, les coutumes et les présupposés qui prévalent dans une « sphère de raisonnement » spécifique donnée et dans une société donnée. De tels contextes - nous les appellerons contextes limités(contextes restreints) - relativement rare, puisque la compréhension de la plupart des déclarations dépend des informations contenues dans les déclarations précédentes. Il ne faut pas perdre de vue les relations entre les énoncés et les contextes concrets.

Le deuxième point est le suivant : puisque les phrases ne sont jamais produites par les locuteurs (après tout, les phrases sont des unités théoriques établies par les linguistes dans le but de décrire les contraintes distributionnelles sur l'occurrence des classes d'éléments grammaticaux), il ne peut y avoir de relation directe entre les phrases et contextes concrets. Dans le même temps, les énoncés ont une structure grammaticale qui dépend de leur « inférence » à partir de phrases, et la structure grammaticale des énoncés est ou peut être sémantiquement pertinente. Ceci est particulièrement clair dans le cas d'une « ambiguïté » syntaxique (cf. § 6.1.3). De plus (à l'exception d'expressions « toutes faites » telles que Comment allez-vous ? « Bonjour ! »), les énoncés sont produits par les locuteurs et compris par les auditeurs sur la base de régularités de construction et de transformations spécifiées pour les phrases par les règles. de la grammaire. À l'heure actuelle, ni la linguistique ni aucune des autres sciences concernées par l'étude des « mécanismes » qui sous-tendent la production des énoncés ne sont en mesure de formuler des déclarations définitives sur la façon dont la connaissance des relations abstraites qui existent entre les éléments grammaticaux dans les phrases interagit avec divers éléments grammaticaux. propriétés des contextes, aboutissant à la formation et à la compréhension d’énoncés dans lesquels se trouvent des « corrélats » de ces éléments grammaticaux. Le fait même qu’il existe une certaine interaction entre la structure grammaticale d’une langue et les caractéristiques contextuelles pertinentes semble indéniable, et nous devons en tenir compte.

Puisque, en général, nous ne pouvons identifier ni les éléments réels que le locuteur « sélectionne » dans le processus de formation des énoncés, ni toutes les caractéristiques pertinentes de contextes spécifiques, nous pouvons accepter comme décision méthodologique le principe que les linguistes suivent habituellement dans la pratique, et notamment, considérer les relations sémantiques entre les énoncés en termes de relations sémantiques qui existent entre les phrases, sur la base desquelles les énoncés sont souvent considérés comme « créés » lorsqu’ils sont produits par des locuteurs natifs dans des contextes limités. (La notion de « contexte borné » doit encore être retenue, car, comme nous le verrons plus loin, il est impossible de formuler les relations sémantiques qui existent entre les phrases sans, au moins dans une faible mesure, prendre en compte la « contextualisation » ; cf. § 10.1.2.) Les propriétés de contextes particuliers seront ensuite invoquées (sous une forme qui, du moins pour l'instant, peut être qualifiée de description ad hoc) pour rendre compte des aspects « résiduels » sémantiquement pertinents des énoncés. Ce que nous avons présenté ici comme une décision consciente et méthodologique ne doit cependant pas être considéré comme si nous voulions souligner la primauté du grammatical sur le contextuel dans les processus psychologiques de production et de compréhension de l’énoncé.

9.3.10. LES ÉLÉMENTS DE STRUCTURE PROFONDE ONT UNE SIGNIFICATION DANS LES PHRASES

On peut désormais appliquer la notion d'« avoir du sens » aux éléments grammaticaux à partir desquels les phrases sont générées au moyen de règles qui déterminent la construction et la transformation de leurs bases (cf. § 6.6.1). Puisque avoir du sens implique de « choisir », il s’ensuit qu’aucun élément introduit dans les phrases au moyen de règles obligatoires ne peut avoir de sens à notre sens. (Les éléments factices comme do (le verbe auxiliaire) dans Veux-tu y aller ? n'ont aucun sens ; cf. § 7.6.3.) De plus, si l'on suppose que toutes les « élections » s'effectuent en relation avec la sélection des éléments dans la structure « profonde » (ces éléments sont soit des « catégories », soit des « caractéristiques » ; cf. § 7.6.9), alors il apparaîtra clairement que la notion d'avoir du sens n'est liée à des unités d'aucun rang particulier. Premièrement, la distinction dans le langage d'unités telles que les morphèmes, les mots et les groupes de mots (phrases) repose dans une certaine mesure sur la structure « superficielle » (§ 6.6.1) ; et, d'autre part, il existe de nombreuses « catégories grammaticales » (temps, mode, aspect, genre, nombre, etc. ; cf. § 7.1.5), qui peuvent ou non se réaliser en morphèmes ou en mots, mais qui constituent des systèmes. des « élections » dans les propositions. La question de savoir si une distinction stricte peut ou non être faite entre sens « lexical » et « grammatical », en tenant compte exactement du sens que revêtent les éléments, sera examinée ci-dessous (cf. § 9.5.2). Il suffit ici de noter que la notion de sens s'applique également aux éléments des deux types dans la structure « profonde » des phrases. Ce concept est d’ailleurs pris en compte, explicitement ou implicitement, dans toutes les théories linguistiques récentes. Des classes d'éléments (désignées par des symboles auxiliaires ou terminaux - cf. § 6.2.2) sont établies à chaque point de « choix » dans le processus de génération des phrases.

Il résulte de ce qui a été dit qu'aucun élément d'une phrase n'a de sens s'il n'est membre d'une des classes syntaxiquement spécifiées dans la structure « profonde » de la phrase : et c'est ce fait qui justifie l'hypothèse, faite presque universellement par les linguistes, les logiciens et les philosophes, que l'ensemble des éléments, ayant une signification dans une langue spécifique, est, au moins à un très haut degré, proportionné à l'ensemble des « composants » et des « caractéristiques » terminaux de cette langue. Cependant, il ne s’ensuit pas que chaque « composant » et chaque « caractéristique » aura un sens dans chaque phrase où ils apparaissent. Ce point important est parfois ignoré par les linguistes et mérite donc un examen un peu plus approfondi.

Tout le problème se résume à la distinction entre acceptabilité grammaticale et sémantique. Comme nous l'avons vu dans l'un des chapitres précédents (cf. § 4.2.12 et suiv.), la grammaticalité est cet aspect de l'acceptabilité des énoncés qui peut s'expliquer en termes de règles de construction et de transformation qui déterminent les combinaisons admissibles de classes distributives. d'éléments (« catégories » et « signes ») dans les phrases. On pense généralement que la grammaire de toute langue produit notamment un nombre infini de phrases inacceptables à divers égards ; et il est devenu traditionnel de décrire au moins un type d’inacceptabilité en qualifiant les propositions en question de « dénuées de sens » ou de « sans substance ». Laissez les phrases suivantes être générées par la grammaire anglaise (et donc grammaticalement correctes) :

(a) Jean boit du lait (bière, vin, eau, etc.) "Jean boit du lait (bière, vin, eau, etc.)"

(b) Jean mange du fromage (poisson, viande, pain, etc.) "Jean mange du fromage (poisson, viande, pain, etc.)"

(c) Jean boit du fromage (poisson, viande, pain, etc.) "Jean boit du fromage (poisson, viande, pain, etc.)"

(d) Jean mange du lait (bière, vin, eau, etc.) "Jean mange du lait (bière, vin, eau, etc.)."

Supposons en outre que toutes ces phrases, une fois générées, sont fournies avec la même description structurelle : que les verbes boire et manger, ainsi que les noms lait, bière, vin, eau "eau", fromage "fromage", poisson" poisson", viande "viande", pain "pain", etc. ne se distinguent dans le lexique par aucune caractéristique syntaxique pertinente. Il est évident que, étant donné une certaine compréhension des termes « acceptable » et « inacceptable », les déclarations déduites de phrases regroupées en classes (a) et (b) sont acceptables, tandis que les déclarations déduites de phrases en groupes (c) et (d ) sont inacceptables (dans des circonstances « naturelles »). Faut-il décrire ce type d'acceptabilité et d'inacceptabilité à partir du critère de « significativité » (au sens de ce terme que nous proposons de mettre en évidence à travers le terme de « signification ») - nous examinerons cette question ci-dessous. Nous voulons ici souligner que les ensembles d'éléments qui peuvent apparaître et avoir la signification de verbe et d'objet dans ces phrases sont des sous-ensembles très limités de ces ensembles d'éléments dont l'occurrence est autorisée par les règles de grammaire. Encore une fois, le cas extrême ici est celui où l'occurrence d'un élément est entièrement déterminée par le contexte des autres éléments de la phrase. Un exemple de prédestination complète à ce niveau est l'apparition du mot dents dans Je l'ai mordu avec mes fausses dents. Comme nous le verrons plus loin (cf. § 9.5.3), cette phrase révèle un type de « présupposition » syntagmatique intéressant d'un point de vue sémantique, habituellement caché, mais qui peut être représenté explicitement lorsque son « reflet syntaxique » apparaît. dans la phrase " sous la forme d'une "définition" (dans cet exemple - faux "inséré"). Si le mot dents n'apparaissait jamais dans des phrases autres que celles dans lesquelles il était entièrement déterminé par son contexte, il n'aurait aucun sens en anglais, et un sémanticien n'aurait rien à dire à ce sujet.

Le but de notre discussion était de montrer exactement comment le concept d'avoir du sens peut et doit être transféré du niveau de cas plutôt « concrets » lorsqu'il s'agit, d'une part, d'énoncés entiers grammaticalement corrects et non structurés et, d'autre part. , des énoncés, qui diffèrent peu par leur structure phonologique, à un niveau plus "abstrait" auquel ils s'appliquent à la classe plus importante et beaucoup plus large de phrases générées par les règles de grammaire. La notion d'avoir un sens est étayée par le fait qu'elle reflète le principe intuitif selon lequel « le sens implique un choix » dans des contextes particuliers. Son transfert à un niveau plus « abstrait » repose sur une décision méthodologique dont la motivation comporte deux aspects : premièrement, cette décision reconnaît le fait que les caractéristiques contextuelles spécifiques influençant la production et l’interprétation des énoncés ne peuvent être décrites que de manière ad hoc ; et deuxièmement, cette approche relie de manière satisfaisante l’interprétation sémantique des phrases à leur description syntaxique. S’il est établi qu’un élément particulier a une signification au sein d’une certaine classe de phrases, alors nous pouvons nous demander quelle signification a cet élément ; et cette question peut recevoir des réponses de différentes manières, comme nous le verrons dans la section suivante.

9.3.11. "IMPORTANCE"

Il faut maintenant s'arrêter brièvement sur la notion de « signification » (cf. §9.3.1). À première vue, il est tout à fait justifié de vouloir identifier une signification avec une acceptabilité complète par rapport à des contextes spécifiques dans le cas des énoncés et par rapport à des contextes limités plus généraux dans le cas des phrases. Mais nous avons déjà vu qu'il existe de nombreuses couches d'acceptabilité (situées « au-dessus » de la couche grammaticale) qui, bien que souvent qualifiées sans qualification de « sémantique », se distinguent néanmoins de ce qu'on appelle traditionnellement « contenu » ou « signification ». (cf. § 4.2.3). Certaines déclarations peuvent être condamnées comme « blasphématoires » ou « indécentes » ; d'autres peuvent être considérés comme acceptables dans certains usages du langage (prières, mythes, contes de fées, science-fiction, etc.) mais être inacceptables dans la conversation quotidienne. Il n’est guère conseillé de tenter une définition de la « signification » qui couvrirait toutes ces différentes « dimensions » de l’acceptabilité. Pour prendre un exemple en anglais : bien que le verbe mourir soit librement utilisé en conjonction avec des noms animés, y compris des noms de personnes, il existe un tabou généralement accepté en anglais contre son utilisation en conjonction avec mon père, ma mère. ", mon frère " mon frère » et ma sœur « ma sœur » (c'est-à-dire par rapport aux membres de la famille immédiate de l'orateur) ; Ainsi, Mon père est mort la nuit dernière serait considéré comme inacceptable, mais pas Son père est mort la nuit dernière. Alors, évidemment, l'explication correcte de l'irrecevabilité de la sentence Mon père est mort hier soir doit être telle qu'on puisse dire, premièrement, qu'elle est « significative », car, si elle est utilisée contrairement au tabou, elle sera comprise (en effet on pourrait soutenir que le tabou lui-même dépend de la possibilité de comprendre cette phrase), et, deuxièmement, que la relation sémantique entre Mon père est mort la nuit dernière et Son père est mort la nuit dernière est identique à la relation entre Mon père est venu la nuit dernière et Son père est venu hier soir « Son père est venu hier soir », etc. Traditionnellement, la signification des phrases grammaticalement correctes est expliquée en termes de certains principes généraux de compatibilité des « significations » de leurs éléments constitutifs. On pourrait dire, par exemple, que les phrases Jean mange du lait et Jean boit du pain n'ont aucun sens car le verbe manger n'est compatible qu'avec les noms (en fonction objet) désignant des substances solides, propres à la consommation, et le verbe boire « boire » - avec des noms désignant des substances liquides propres à la consommation. (Notez que, de ce point de vue, la phrase John mange de la soupe pourrait être considérée comme sémantiquement anormale, n'ayant d'« acceptabilité sociale » qu'en vertu d'une convention spéciale extérieure aux règles générales d'interprétation des phrases anglaises.) Les implications sont grandes. associée au concept de signification. Néanmoins, l’explication traditionnelle de ce concept en termes de « compatibilité » semble largement raisonnable. Nous examinerons certaines des formulations les plus récentes de ce concept dans le chapitre suivant (cf. § 10.5.4).

9.4.1. RÉFÉRENCE

Le terme « référence » (« corrélation ») a été introduit précédemment pour désigner la relation qui s'établit entre les mots, d'une part, et les choses, événements, actions et qualités qu'ils « remplacent », d'autre part (cf. §9.2 .2 ). Il a été indiqué plus haut que, sous certaines conditions, la question « Quel est le sens du mot X? peut être répondu en utilisant une définition « ostensive » - en pointant ou en indiquant directement référent(ou référents) d'un mot donné (cf. § 9.2.7). Il existe des difficultés philosophiques bien connues liées à la définition précise du concept de « référence », qu’il n’est pas nécessaire d’examiner ici. Supposons que la relation de référence (parfois appelée « dénotation ») doive nécessairement être prise en compte lors de la construction de toute théorie satisfaisante de la sémantique ; en d’autres termes, dans un certain sens, on peut dire qu’au moins certaines unités de vocabulaire dans toutes les langues peuvent être mises en correspondance avec certaines « propriétés » du monde physique.

L’hypothèse que nous avons faite ne signifie pas que nous considérons la référence comme une relation sémantique à laquelle toutes les autres relations peuvent se réduire ; Cela ne signifie pas non plus que toutes les unités de vocabulaire d'une langue ont une référence. La « référence », telle qu'elle est comprise dans ce travail, est nécessairement liée aux hypothèses sous-jacentes sur « l'existence » (ou la « réalité ») qui découlent de notre perception directe des objets dans le monde physique. Lorsque nous disons qu'un mot particulier (ou une autre unité de sens) « fait référence à un objet », nous entendons que le référent du mot est un objet qui « existe » (est « réel ») dans le même sens que celui dans lequel nous disons : que des personnes, des animaux et des choses spécifiques « existent » ; cela implique également qu'en principe on pourrait donner une description des propriétés physiques de l'objet en question. Ce concept d'« existence physique » peut être considéré comme fondamental pour la définition de la relation sémantique de référence. L'application des termes « existence » et « référence » peut alors être étendue de plusieurs manières. Par exemple, bien qu'il n'existe pas d'objets tels que des brownies, des licornes ou des centaures (telle sera notre hypothèse), il serait tout à fait raisonnable de leur attribuer une « existence » fictive ou mythique dans un certain type de raisonnement ; et on peut donc dire que les mots goblin, unicorn ou centaur ont une référence en anglais (dans le raisonnement pertinent). De la même manière, nous pouvons étendre l'utilisation des termes « existence » et « référence » pour inclure des constructions théoriques de la science telles que les atomes, les gènes, etc., et même des objets complètement abstraits. Il est important de noter cependant que la source de ces extensions « analogiques » des concepts d'« existence » et de « référence » se trouve dans leur application fondamentale ou primaire aux objets physiques au cours de l'usage « quotidien » du langage. .

De cette interprétation du concept de référence, il résulte que dans le vocabulaire d'une langue, il peut y avoir de nombreuses unités qui ne sont reliées par référence à aucune entité extérieure à la langue. Par exemple, on pourrait penser qu'il n'existe pas de choses telles que l'intelligence ou la gentillesse, auxquelles les mots intelligent et bon sont associés, bien qu'un psychologue ou un philosophe puisse toujours postuler l'existence de telles entités dans le cadre d'une théorie particulière de la psychologie ou du bien. l’éthique et peuvent même prétendre que leur « réalité » peut être démontrée par une sorte de définition « ostensive ». Le fait qu’à différents niveaux de ces constructions sophistiques des désaccords puissent surgir entre leurs auteurs concernant la « réalité » de certains « objets » imaginaires ne change rien à la proposition générale selon laquelle la référence présuppose l’existence. Il serait vain d'insister sur le fait que toutes les unités lexicales doivent quelque chose corréler, si l'on garde à l'esprit que dans certains cas, il est impossible d'avancer une autre preuve de l'existence de ce « quelque chose » que le fait même de la présence d'une unité lexicale « corrélée » à ce « quelque chose ».

En lien avec la notion de référence, deux autres points peuvent être notés. Même si nous convenons que certains éléments lexicaux font référence à des objets et à des propriétés d'objets en dehors du langage, nous ne sommes pas obligés de conclure logiquement que tous les objets désignés par un mot particulier forment une « classe naturelle » (quelle que soit la « convention » », tacitement acceptée. par les membres d’un collectif de parole donné afin de subsumer ces objets « sous » un terme général) ; en d’autres termes, la position décrite ci-dessus est compatible soit avec le « nominalisme », soit avec le « réalisme » dans la sémantique philosophique. Deuxièmement, la référence à un élément lexical n'a pas besoin d'être précise et complètement définie dans le sens où il est toujours clair si un objet ou une propriété particulière entre ou non dans le champ d'application de l'élément lexical donné : nous avons déjà vu que une telle hypothèse n'est pas nécessaire pour expliquer la « compréhension » des énoncés dans le processus de communication normale (cf. § 9.2.9). Très souvent, les « frontières référentielles » des unités lexicales sont incertaines. Par exemple, il est impossible d'indiquer un point bien précis à partir duquel il faut tracer une ligne de démarcation entre les référents des mots colline et montagne, poulet poulet ; jeune coq ; poule ; viande de poulet et poule, vert « vert » et bleu « . bleu ; bleu, azur ; bleuâtre », etc. Mais cela ne veut pas dire que la notion de référence ne soit pas applicable à de tels mots. Un trait caractéristique des langues est qu'elles imposent une certaine « catégorisation » lexicale au monde réel et, pour ainsi dire, tracent des frontières « arbitraires » en divers endroits. Comme nous le verrons, c’est une des raisons pour lesquelles il est souvent impossible d’établir des équivalences lexicales entre différentes langues. Le fait que les « frontières référentielles » soient « arbitraires » et indéfinies ne conduit généralement pas à une rupture de la compréhension mutuelle, puisque la subsumation « exacte » d'un objet « sous » l'une ou l'autre unité lexicale est très rarement pertinente ; et lorsque cela s'avère pertinent, on se tourne vers d'autres systèmes d'identification ou de spécification. Par exemple, si l'on veut désigner l'une des deux personnes, dont chacune pourrait être appelée soit par le mot fille, soit par femme, on peut les distinguer l'une de l'autre par leur nom, par leur âge relatif, par la couleur de leurs cheveux, par la façon dont elles sont habillées. , etc. Bien que les référents du mot fille « se chevauchent » avec les référents du mot femme, les deux mots ne sont pas synonymes ; leur position relative sur l'échelle d'âge est fixe, et il existe de nombreux cas dans lesquels un seul d'entre eux est le mot approprié à utiliser. L’« imprécision » de référence que nous avons illustrée, loin d’être un défaut du langage (comme le pensent certains philosophes), fait du langage un moyen de communication plus efficace. La « précision » absolue est inaccessible, puisqu'il n'y a aucune limite au nombre et à la nature des distinctions qui pourraient être faites entre différents objets ; et il n’y a guère de mérite à imposer par la force plus de distinctions que ce qui est nécessaire aux fins actuelles.

9.4.2. SENS

Il faut maintenant introduire la notion de « sens ». Sous signification un mot fait référence à sa place dans le système de relations dans lequel il entre avec d'autres mots du vocabulaire de la langue. Il est clair que puisque le sens doit être défini en termes de relations qui ont lieu entre les unités du vocabulaire, il ne comporte aucune hypothèse sous-jacente sur l’existence d’objets ou de propriétés en dehors du vocabulaire de la langue en question.

Si deux éléments peuvent apparaître dans le même contexte, alors ils avoir un sens dans ce contexte; et plus encore, on peut se demander si quel est le sens ils ont. Comme nous l'avons vu, une partie, ou une composante, de la signification de certains éléments peut être décrite en fonction de leur référence. Que deux éléments aient ou non une référence, nous pouvons nous demander si, dans le contexte, ou dans les contextes dans lesquels les deux apparaissent, ils ont la même signification ou non. Puisque la même valeur est synonymie- il existe une relation qui s'établit entre deux (ou plusieurs) unités de vocabulaire ; elle est associée au sens et non à la référence. Pour des raisons que nous n'avons pas besoin d'examiner ici, il peut parfois être commode de dire que deux unités ont la même référence mais diffèrent par leur signification ; et, bien sûr, il est naturel de dire que les unités peuvent être synonymes même si elles manquent de référence. On peut supposer que (pour les unités avec référence) l’identité de référence est une condition nécessaire mais non suffisante pour la synonymie.

Les considérations théoriques sur la synonymie sont souvent inadéquates en raison de deux hypothèses injustifiées. La première est que deux éléments ne peuvent être « parfaitement synonymes » dans un contexte donné, à moins qu'ils ne soient synonymes dans tous les contextes. Cette conclusion est parfois justifiée par la référence à la distinction entre signification « conceptuelle » et « émotionnelle ». Mais cette distinction elle-même doit être justifiée. On ne peut nier que le choix d’un locuteur particulier d’une unité plutôt que d’une autre est déterminé par des « associations émotionnelles ». Cependant, cela ne signifie pas que les « associations émotionnelles » soient toujours pertinentes (même si elles sont communes à tous les membres de la communauté linguistique). Et on ne peut pas simplement considérer comme une prémisse l’affirmation selon laquelle les mots portent toujours des « associations » déduites de leur utilisation dans d’autres contextes. Nous rejetterons donc l’hypothèse selon laquelle les mots ne peuvent être synonymes dans certains contextes que s’ils le sont dans tous les contextes.

La deuxième hypothèse souvent formulée par les sémanticiens est que la synonymie est une relation d'identité entre deux (ou plusieurs) significations définies indépendamment. En d'autres termes, la question de savoir si deux mots - a et b - sont synonymes se résume à la question de savoir si a et b désignent la même essence, le même sens. Dans le cadre de l’approche sémantique que nous esquissons dans cet ouvrage, il ne sera pas nécessaire de postuler l’existence de significations définissables indépendamment. La synonymie sera définie comme suit : deux (ou plusieurs) unités sont synonymes si les phrases résultant de la substitution d'une unité par une autre ont le même sens. Cette définition repose explicitement sur la notion a priori d’« uniformité de sens » pour les phrases (et les énoncés). Nous reviendrons sur cette question plus tard. Ici, nous voulons seulement souligner l'idée que la relation de synonymie est définie comme une relation qui a lieu entre des unités lexicales, et non entre leurs significations. La synonymie des unités lexicales fait partie de leur signification. La même idée peut être formulée sous une forme plus générale : ce que nous appelons le sens d'un élément lexical représente l'ensemble relations sémantiques(y compris la synonymie) dans laquelle il entre avec d'autres unités du vocabulaire de la langue.

9.4.3. RELATIONS DE SIGNIFICATION PARADIGMATIQUES ET SYNTAGMATIQUES

En plus de la synonymie, il existe de nombreuses autres relations sémantiques. Par exemple, mari et femme ne sont pas synonymes, mais ils sont sémantiquement liés d'une manière qui n'existe pas entre mari et fromage ou hydrogène ; le bien et le mal ont des significations différentes, mais sont plus proches que le bien et le rouge ou le rond ; frapper « frapper ; frapper », bang « frapper, frapper ; applaudir ; gronder », taper « légèrement frapper, frapper » et rap « légèrement frapper ; frapper, taper » sont liés par une relation qui ne s'applique pas aux mots frapper et manger "manger, manger" ou admirer "admirer". Les relations illustrées ici sont paradigmatique(tous les membres d'ensembles de termes sémantiquement liés peuvent apparaître dans le même contexte). Les mots peuvent aussi être liés les uns aux autres syntagmatiquement; cf. : blond « blond » et poil « poil », aboiement « aboiement » et chien « chien », coup de pied « donner un coup de pied, donner un coup de pied, donner un coup de pied » et pied « jambe », etc. (Principes généraux pour distinguer les relations paradigmatiques et syntagmatiques, voir § 2.3.3.) Nous n'examinerons pas ici la question de savoir si ces relations syntagmatiques et paradigmatiques (comme le proposent certains sémanticiens) peuvent être définies en termes de leur « distance » par rapport à la synonymie sur une échelle de similitude et de différence de sens : une alternative L’approche à suivre sera décrite dans le chapitre suivant. Ici, nous faisons simplement l'hypothèse qu'au moins certains domaines du vocabulaire sont divisés en systèmes lexicaux Et alors structure sémantique Ces systèmes doivent être décrits en termes de relations sémantiques qui s'établissent entre les unités lexicales. Nous considérons cet énoncé comme une formulation affinée du principe selon lequel « le sens de chaque unité est fonction de la place qu'elle occupe dans le système correspondant » (cf. § 2.2.1, où sont comparés les termes de parenté russes et anglais). .

Ces dernières années, de nombreux travaux ont été réalisés pour étudier les systèmes lexicaux dans le vocabulaire de diverses langues, notamment en relation avec ces des champs(ou Régions), tels que la parenté, la couleur, la flore et la faune, les poids et mesures, les grades militaires, les évaluations morales et esthétiques, ainsi que divers types de connaissances, de compétences et de compréhension. Les résultats ont en outre démontré la valeur d'une approche structurelle de la sémantique et ont confirmé les prédictions de chercheurs tels que Humboldt, Saussure et Sapir selon lesquelles les vocabulaires de différentes langues (au moins dans certains domaines) non isomorphe qu'il existe des distinctions sémantiques qui sont faites dans une langue et pas dans une autre ; De plus, la catégorisation de champs spécifiques dans différentes langues peut être effectuée de différentes manières. En exprimant ce fait en termes saussuriens, on dit que chaque langue impose un langage spécifique. formulaireà priori indifférencié substance plan de contenu (cf. § 2.2.2 et § 2.2.3). Pour illustrer ce concept, nous pouvons prendre (en tant que substance) le champ de la couleur et voir comment ce concept est interprété, ou « formulé », en anglais.

Par souci de simplicité, nous considérerons d'abord uniquement la partie du champ qui est couverte par les mots rouge, orange, jaune, vert et bleu. Chacun de ces termes est référentiellement imprécis, mais leur position relative dans ce système lexical est fixe (et en général ils couvrent la majeure partie du spectre visible) : l'orange est entre le rouge et le jaune, le jaune est entre l'orange et le vert, etc. La signification de chacun de ces mots inclut une indication qu’ils appartiennent à ce système lexical particulier de la langue anglaise et que dans ce système, ils se trouvent les uns avec les autres dans une relation de contiguïté (ou, peut-être plus précisément, « d’être entre »). Il peut sembler que la notion de sens est ici superflue et que pour décrire leur sens il suffirait bien de prendre en compte la référence de chacun des termes de couleur. Considérons cependant les conditions dans lesquelles une personne peut connaître (ou être censée connaître) la référence de ces mots. Un enfant qui apprend l'anglais ne peut pas acquérir d'abord la référence du mot vert, puis, à son tour, la référence du mot bleu ou jaune, de sorte qu'à un moment donné, on pourrait dire qu'il connaît la référence d'un mot, mais ne connaît pas la référence de l'autre. (Bien sûr, par le mode de définition ostensive, il pourrait savoir que le mot vert fait référence à la couleur de l'herbe ou des feuilles d'un arbre particulier, ou à la couleur d'une des robes de sa mère : mais la référence du mot vert est plus large que n'importe quel cas particulier de son utilisation, et la connaissance de sa référence inclut également la connaissance des limites de cette référence.) Il faut supposer qu'au cours d'une certaine période de temps, l'enfant apprend progressivement la position du mot vert par rapport au mot vert. les mots bleu et jaune, et les mots jaunes par rapport aux mots vert et orange, etc. jusqu'à ce qu'il connaisse la position de chaque terme de couleur par rapport à son voisin dans un système lexical donné et l'étendue approximative des limites de la région dans le continuum d'un domaine donné couvert par chaque mot. Sa connaissance de la signification des termes de couleur inclut donc nécessairement la connaissance à la fois de leur signification et de leur référence.

Le domaine couvert par les cinq termes de couleur évoqués ci-dessus peut être considéré comme une substance indifférenciée (perceptuelle ou physique) à laquelle l'anglais impose une forme spécifique en traçant des limites à certains endroits, et aux cinq domaines ainsi obtenus il applique une certaine classification lexicale. (les appelant des mots rouge, orange, jaune, vert et bleu). On constate souvent que d'autres langues imposent une forme différente à cette substance, c'est-à-dire y reconnaissent un nombre différent de régions et tracent des limites à d'autres endroits. Concernant l'exemple ci-dessus, on peut dire que les mots russes bleu Et bleu ensemble, ils couvrent à peu près la même superficie que le mot anglais blue ; désignant des couleurs spéciales, quoique adjacentes et occupant une position égale dans le système avec les mots vert Et jaune, ils ne doivent pas être considérés comme des mots désignant différentes nuances d'une même couleur, de la même manière que cramoisi et écarlate subdivisent, avec d'autres mots, la zone couverte par le mot rouge en anglais (cf. § 2.2.3) .

La relation entre les termes de couleur et leur signification ne peut être conçue de la manière simple que nous avons fait jusqu'à présent. La différence de référence entre les mots rouge, orange, jaune, vert et bleu peut être décrite en termes de variation. tons(réflexions de lumière avec différentes longueurs d'onde). Les physiciens distinguent deux autres variables lors de l’analyse de la couleur : seigneurie, ou luminosité (reflétant plus ou moins la lumière), et saturation(degré d'absence d'impuretés blanches). Les régions de couleur désignées en anglais par les mots noir, gris et blanc se distinguent principalement par la clarté, mais la référence à certains autres termes de couleur couramment utilisés doit être donnée en tenant compte des trois dimensions selon lesquelles la couleur peut varier, par exemple : marron » marron » fait référence à la gamme de couleurs, qui se situe entre le rouge « rouge » et le jaune « jaune », qui a une luminosité et une saturation relativement faibles ; Le rose fait référence à une couleur de ton rougeâtre, d'une luminosité assez élevée et d'une très faible saturation. L'analyse de ces faits peut conduire à l'idée que la substance de la couleur des pucerons est un continuum tridimensionnel (physique ou perceptuel).

Mais cette affirmation semble aussi trop simpliste. Ce n’est pas seulement que les langues diffèrent dans le poids relatif qu’elles accordent aux dimensions – teinte, luminosité et saturation – dans l’organisation de leurs systèmes de notation des couleurs (par exemple, le latin et le grec semblent avoir valorisé la légèreté plutôt que la teinte) ; Il existe des langues dans lesquelles les distinctions de couleurs sont faites sur la base de principes complètement différents. Dans son étude classique sur ce sujet, Conklin a montré que les quatre principaux « termes de couleur » de la langue Hanunoo (une langue originaire des Philippines) sont liés à la clarté (y compris généralement le blanc et les nuances claires d'autres « couleurs anglaises »), à l'obscurité. (y compris le noir anglais, le violet, le bleu, le vert foncé et les nuances foncées d'autres couleurs), « l'humidité » (généralement associée au vert clair, au jaune et au marron clair, etc.) et la « sécheresse » (généralement associée au marron, au rouge, oranges, etc.). Que la distinction entre « mouillé » et « sec » n’est pas simplement une question de ton (« vert » contre. "red": c'est cette distinction qui peut apparaître à partir des traductions anglaises les plus courantes des deux termes en question), ressort clairement du fait que "shiny, moist, brun un morceau de bambou fraîchement coupé » est décrit par un mot habituellement utilisé pour la couleur vert clair, etc. Conklin conclut que « la couleur, au sens strict du terme, n'est pas un concept universel dans les langues d'Europe occidentale » ; que les oppositions par lesquelles la substance de la couleur est définie dans différentes langues peuvent dépendre principalement de la connexion des unités lexicales avec les propriétés des objets de l'environnement naturel d'une personne qui sont importantes pour une culture donnée. Quant à la langue Hanunbo, le système de ses définitions serait basé sur l'apparence typique de plantes fraîches, jeunes (« humides », « juteuses »). À cet égard, il convient de noter que les dictionnaires anglais définissent souvent des termes de couleur de base en relation avec les propriétés typiques de l'environnement humain (par exemple, le dictionnaire peut dire que le bleu correspond à la couleur d'un ciel clair, le rouge à la couleur de sang, etc).

9.4.6. « RELATIVITÉ » SÉMANTIQUE

Le champ de couleur a été discuté en détail car il est très souvent utilisé comme exemple pour démontrer comment même une substance peut avoir différentes formes imposées par différentes langues. Or, nous savons que même dans le cas de la désignation des couleurs, nous avons toutes les raisons de douter de la possibilité de postuler a priori l'identité de la « substance du contenu ». Les descriptions par Conklin des catégories de « couleur » dans Hanunoo devraient naturellement nous amener à penser que les définitions linguistiquement pertinentes de la substance de la couleur ne correspondent pas toujours aux dimensions choisies comme fondamentales par les sciences naturelles. Cela conduit à la conclusion générale que la langue d'une société particulière fait partie intégrante de sa culture et que les distinctions lexicales faites par chaque langue reflètent généralement des propriétés importantes (du point de vue de cette culture) des objets, des institutions et des activités. de la société dans laquelle la langue fonctionne. Cette conclusion est confirmée par un certain nombre d'études récentes portant sur divers domaines du vocabulaire de différentes langues. Compte tenu du fait que l'environnement naturel des différentes sociétés peut être très différent (sans parler de leurs institutions sociales et de leurs modèles de comportement), la possibilité même de considérer fructueusement la structure sémantique comme le résultat de la superposition de la forme sur son sous-jacent (perceptuel, physique ou conceptuelle) semble très douteuse, commune à toutes les langues. Comme l’a dit Sapir : « Les mondes dans lesquels vivent différentes sociétés sont des mondes distincts, et non le même monde auquel sont attachées différentes étiquettes. »

Même si l’on suppose que différentes sociétés vivent dans des « mondes particuliers » (et nous reviendrons sur cette question prochainement), on peut néanmoins affirmer que chaque langue impose une forme spécifique à la substance du « monde » dans lequel elle fonctionne. Cela est vrai dans une certaine mesure (comme nous l’avons vu par exemple dans le cas des termes de couleur). Il est toutefois important d’être conscient que les systèmes lexicaux ne doivent pas nécessairement être construits sur la base d’une substance « sous-jacente » prédéterminée. Soit, par exemple, les mots honnêteté « honnêteté, véracité, sincérité, franchise, chasteté, vertu, décence », sincérité « sincérité, franchise, franchise, honnêteté », chasteté « chasteté, virginité, pureté, pureté, vertu, sévérité, simplicité ». , modestie, retenue, abstinence, abstinence", fidélité "fidélité, dévouement, loyauté, exactitude, justesse", etc. tombent dans le même système lexical avec le mot vertu "vertu, moralité, chasteté, bonne qualité, trait positif, dignité". " La structure de ce système peut être décrite en termes de relations sémantiques qui s'établissent entre ses membres. De ce point de vue, la question de savoir s’il existe des corrélations « substantielles » entre des éléments lexicaux et des traits de caractère ou des comportements identifiables est sans importance. Si de telles corrélations sont observées, elles seront décrites en termes de référence plutôt qu’en termes de signification. En bref, l'applicabilité du concept de substance en sémantique est déterminée par le même postulat d'« existence » que le concept de référence (cf. § 9.4.1).

L’affirmation selon laquelle « les mondes dans lesquels vivent différentes sociétés sont des mondes particuliers » est souvent interprétée comme une proclamation du « déterminisme » linguistique. Que Sapir (ou Humboldt avant lui et Whorf après lui) croie que notre catégorisation du monde est entièrement déterminée par la structure de notre langue maternelle est une question que nous n’aborderons pas ici. La plupart des chercheurs s’accordent sur le fait que le déterminisme linguistique, entendu dans ce sens fort, est une hypothèse intenable. Cependant, la vision adoptée ci-dessus, selon laquelle les langues reflètent dans leur vocabulaire des distinctions importantes du point de vue de la culture des sociétés dans lesquelles elles fonctionnent, nous incline en partie vers une position de « relativité » linguistique et culturelle. . Par conséquent, nous devons souligner le fait incontestable que comprendre la structure des systèmes lexicaux dans des langues autres que notre langue maternelle est nécessaire et tout à fait possible à la fois lors de leur maîtrise à des fins pratiques et lors de l'étude de leur vocabulaire. De cela dépend évidemment la possibilité de traduction d’une langue à une autre.

9.4.7. Coïncidence des cultures

Les cultures (comme le terme est utilisé par les anthropologues et les sociologues) ne sont pas en correspondance directe avec les langues. Par exemple, beaucoup des institutions, coutumes, vêtements, meubles, aliments, etc., qui ont lieu en France et en Allemagne, nous les observons également en Angleterre ; d'autres s'avèrent être caractéristiques de pays particuliers ou de certaines régions ou classes sociales d'un pays. (La relation entre langue et culture est bien entendu beaucoup plus complexe que ne le suggère cette présentation simpliste : les frontières politiques ne coïncident pas avec les frontières linguistiques, même si, sans preuve, nous considérons le concept d'une communauté linguistique unifiée comme quelque peu légitime ; les similitudes culturelles peuvent être trouvés entre différents groupes sociaux dans différents pays, etc.). En général, on peut affirmer qu’entre deux sociétés, il y aura un degré plus ou moins grand de relations. chevauchement culturel; et il se peut que certaines caractéristiques soient présentes dans la culture de toutes les sociétés. L'expérience pratique de l'étude des langues étrangères (dans les conditions normales d'utilisation de ces langues) suggère d'identifier rapidement certains objets, situations et signes lorsque les cultures coïncident et d'apprendre facilement les mots et expressions qui leur sont appliqués. Le sens d'autres mots et expressions s'acquiert moins facilement, et leur emploi correct ne vient, si tant est qu'il arrive, qu'à la suite d'une longue pratique conversationnelle. L'interprétation théorique de ces faits de notre expérience peut être la suivante : l'entrée dans la structure sémantique d'une autre langue s'ouvre depuis la zone de coïncidence des cultures ; et une fois qu'on aura rompu ce cercle de sens en identifiant les unités de ce domaine (cf. § 9.4.7, sur l'inévitable caractère « circulaire » de la sémantique), on pourra progressivement améliorer et clarifier sa connaissance du reste du vocabulaire. de l'intérieur, en acquérant la référence des unités lexicales et les relations sémantiques reliant les unités dans les contextes de leur utilisation. Le véritable bilinguisme implique la maîtrise de deux cultures.

9.4.8. "APPLICATION"

Si des unités de langues différentes peuvent être mises en correspondance entre elles sur la base de l'identification de caractéristiques et de situations communes à deux cultures, on peut dire que ces unités ont les mêmes application. La raison pour laquelle on utilise ce terme au lieu de « référence » est due à deux considérations. Tout d'abord, le terme proposé désigne la relation qui s'établit entre les situations et les expressions qui surviennent dans ces situations (par exemple, la relation entre Excusez-moi « Excusez-moi », Merci « Merci », etc. et diverses situations caractéristiques dans laquelle ces déclarations se produisent); ce n'est évidemment pas une relation de référence. Deuxièmement, il faut également prendre en compte l'identification sémantique des unités lexicales qui n'ont pas de référence ; il est souhaitable de dire, par exemple, que le mot anglais sin « sin » et le mot français peche ont la même application, bien qu'il puisse être très difficile, voire impossible, d'établir ce fait d'un point de vue référentiel. Il se peut fort bien que la deuxième de ces raisons justifiant l'introduction du concept d'« application » disparaisse une fois qu'une théorie globale et satisfaisante de la culture aura été construite. Actuellement, l’interprétation d’une candidature, tout comme le processus de traduction, dépend très fondamentalement de l’intuition des locuteurs bilingues. Cela ne veut pas dire que le concept n'a pas de contenu objectif, car les locuteurs bilingues s'accordent généralement entre eux sur l'utilisation de la plupart des mots et expressions dans les langues qu'ils utilisent.

Cette section ne dit rien sur la manière dont s’établissent les relations sémantiques paradigmatiques et syntagmatiques. Avant d’aborder cette question, il faut considérer la possibilité d’étendre également les notions de référence et de sens aux unités grammaticales.

9.5. SIGNIFICATION « LEXICALE » ET SIGNIFICATION « GRAMMATICALE »

9.5.1. "VALEURS STRUCTURELLES"

En abordant la question des « catégories grammaticales », nous nous sommes référés au point de vue traditionnel « aristotélicien », selon lequel seules les parties principales du discours (noms, verbes, « adjectifs » et adverbes) ont « un sens » dans leur intégralité. sens du terme (ils « désignent » les « concepts » qui constituent la « matière » du discours), et les parties restantes du discours participent à la formation du sens total des phrases, imposant une certaine « forme » grammaticale au « contenu » » du discours (cf. § 7.1.3). Des points de vue étonnamment similaires sont défendus par de nombreux opposants à la grammaire traditionnelle.

Par exemple, Frieze fait la distinction entre les significations « lexicales » et « structurelles », et ce contraste reflète fidèlement la distinction « aristotélicienne » entre les significations « matérielles » et « formelles ». Les principales parties du discours ont un sens « lexical » ; et il est donné dans un dictionnaire associé à une grammaire particulière. Au contraire, la distinction entre sujet et objet dans une phrase, l'opposition en termes de définition, de temps et de nombre, et la distinction entre énoncés, questions et demandes sont autant de différences liées aux « significations structurelles ». (« La signification linguistique totale de tout énoncé se compose des significations lexicales de mots individuels ainsi que de ces significations structurelles... La grammaire d'une langue consiste en des moyens de signaler des significations structurelles. »)

Le concept de « signification structurelle » de Frieze comprend au moins trois types différents de fonctions sémantiques ; d'autres linguistes utilisent le terme « sens grammatical » (par opposition au « sens lexical ») dans le même sens. Les trois types de « sens » mentionnés sont : (1) le « sens » des unités grammaticales (généralement des parties auxiliaires du discours et des catégories grammaticales secondaires) ; (2) la « signification » des « fonctions » grammaticales telles que « sujet », « objet » ou « modificateur » ; (3) le « sens », associé à des concepts tels que « déclaratif », « interrogatif » ou « impératif », dans la classification de différents types de phrases. Il est important de faire la distinction entre ces types de « sens grammatical » et nous les examinerons tour à tour ci-dessous.

9.5.2. UNITÉS LEXICALES ET GRAMMAIRES

Divers critères ont été proposés pour distinguer les unités grammaticales et lexicales. La plus satisfaisante d’entre elles (et la seule que nous mentionnerons ici) a été formulée par Martinet, Halliday et d’autres en termes d’opposition paradigmatique au sein de l’un ou l’autre. fermé, ou ouvrir de nombreuses alternatives. Un ensemble fermé d'unités est un ensemble avec un nombre fixe et généralement petit de membres, par exemple l'ensemble des pronoms personnels, des temps, des genres, etc. Un ensemble ouvert est un ensemble avec un nombre illimité et indéfiniment grand de membres, par exemple une classe de noms ou de verbes dans une langue. En utilisant cette distinction, nous pouvons dire que les unités grammaticales appartiennent à des ensembles fermés et que les unités lexicales appartiennent à des ensembles ouverts. Cette définition correspond à la distinction traditionnelle entre les parties significatives du discours, d'une part, et les parties auxiliaires du discours et les catégories grammaticales secondaires, d'autre part. Contrairement à certaines autres définitions proposées, elle n'est pas liée à des langues d'un « type » morphologique (par exemple, les langues « fléchies » ; cf. § 5.3.6). Supposons pour l'instant que cette définition est correcte et que (sur la base de la distinction entre ensembles fermés et ouverts) tous les éléments introduits dans la structure profonde des phrases peuvent être classés en « grammatical » et « lexical ». La question se pose maintenant de savoir s’il existe en principe une différence entre la signification des unités grammaticales et lexicales.

Notons d’abord que les éléments lexicaux, selon la vision traditionnelle, ont à la fois un sens « lexical » et un sens « grammatical » (à la fois un sens « matériel » et un sens « formel » ; cf. §9.5.1). En utilisant la terminologie de la grammaire scolastique et « spéculative », nous pouvons dire qu'une unité lexicale spécifique, par exemple vache, ne « désigne » pas simplement un « concept » spécifique (c'est le sens « matériel » ou « lexical » de l'unité en question), mais en même temps il met en œuvre une certaine « manière de désigner » les phénomènes sous la forme, par exemple, de « substances », de « qualités », d'« actions », etc. (cf. § 1.2.7 et § 7.1.1). Bien que les linguistes s'expriment désormais rarement en ces termes, cette conception générale de la distinction entre le sens « lexical » et « grammatical » des éléments lexicaux est toujours utilisée. De plus, cela semble justifié dans une certaine mesure.

Par exemple, Lermontov a un poème bien connu qui commence par les mots : La voile solitaire est blanche... Cette phrase est difficile (et peut-être impossible) à traduire en anglais, car son effet dépend du fait qu'en russe « avoir la propriété du blanc » peut être « exprimé » au moyen d'un « verbe » (alors le même s'exprime en mots blanc, qui dans les phrases non marquées par le temps, l'aspect et la modalité est généralement utilisé sans le « verbe être » ; Épouser §7.6.3). Combinaison voile solitaire peut être traduit en anglais par « une voile solitaire » ( naviguer est un nom, et solitaire est un « adjectif »). Du point de vue traditionnel, un « verbe » représente « posséder la propriété du blanc » comme un « processus » ou une « activité », un « adjectif » comme une « qualité » ou un « état ». La spécificité du choix privilégié dans ce cas de « verbe » plutôt que d’« adjectif » ne peut être démontrée au moyen de la langue anglaise qu’à l’aide d’une paraphrase plutôt inadéquate comme « There is a lonely Sail qui se démarque (ou même brille). avant) blanc (sur fond de mer ou de ciel)..." Les problèmes de ce genre sont bien connus de ceux qui traduisent d'une langue à une autre. La question théorique qui nous intéresse ici est la suivante : peut-on dire qu’il existe une « signification grammaticale » spécifique associée à chacune des parties principales du discours ?

Nous avons déjà vu que la distinction entre « verbe » et « adjectif » dans la théorie syntaxique générale est un problème difficile : dans certaines langues, une telle distinction n'est pas faite du tout ; dans d'autres langues, de nombreux traits syntaxiques sont associés à cette distinction, et dans certains cas ils peuvent se contredire (cf. § 7.6.4). Mais le critère principal, celui qui reflète la distinction traditionnelle entre « activité » et « qualité », réside dans la distinction spécifique entre « dynamique » et « statique » (cf. § 8.4.7). En russe, cette différence de « sens grammatical » est « imposée » au « sens lexical », commun aux deux « verbe » blanchir, et pour « adjectif » blanc. Dans cette approche, la théorie traditionnelle des « moyens de notation » doit être considérée comme correcte : elle doit bien sûr être reformulée dans le cadre d'une théorie plus satisfaisante de la structure syntaxique.

En même temps, nous ne devons pas perdre de vue le principe général selon lequel « avoir un sens implique un choix ». Si le langage décrit permet le choix entre une expression « verbale » ou « adjective » (nous nous limitons à la différence illustrée dans notre exemple), alors l'utilisation de l'une ou l'autre de ces méthodes entre déjà dans le cadre de analyse sémantique de la langue. Nous pouvons en outre nous demander si les deux « modes » d’expression donnés ont le même sens ou non ; et, s’ils diffèrent dans leur signification, nous pouvons alors nous demander quelle est la différence sémantique entre eux. Si cette distinction peut être corrélée à une certaine distinction grammaticale dans la structure profonde (par exemple « dynamique » contre. "statique"), alors le terme "sens grammatical" est tout à fait approprié dans ce cas. Mais cela ne veut pas dire que le choix du « verbe » plutôt que de « l’adjectif » soit toujours associé à une différence de « sens grammatical ». Dans de nombreux cas, une « signification lexicale » particulière est associée à une partie du discours mais pas à une autre. Bref, dans ce domaine comme dans bien d’autres, la théorie linguistique doit trouver un équilibre entre grammaire « conceptuelle » et « formelle » (cf. § 7.6.1). Il ne faut pas prétendre que la « désignation d’activité » fait partie du « sens » de tout « verbe » ou que la « désignation de qualité » fait partie du « sens » de tout « adjectif ».

On croit traditionnellement que les unités lexicales ont à la fois une signification « lexicale » (« substantielle ») et « grammaticale » (« formelle »). Les unités grammaticales sont généralement considérées comme n’ayant qu’une signification « grammaticale ». Dans le chapitre précédent, nous avons vu que certaines unités, agissant comme des « verbes » dans la structure superficielle des phrases, peuvent être interprétées comme des « réalisations lexicales » de différences aspectuelles, causales et autres « grammaticales ». Nous laisserons de côté la question de savoir dans quelle mesure ces hypothèses sont fidèles à la réalité. Dans l’état actuel de la théorie syntaxique, la distinction entre unités grammaticales et lexicales est plutôt vague. La raison en est que la distinction entre les ensembles d’alternatives ouverts et fermés ne peut s’appliquer qu’à des positions de choix dans la structure profonde des phrases ; mais, comme nous l’avons vu, des points de vue très différents sont possibles sur la localisation de ces positions de « choix ».

Le point principal à souligner ici est le suivant : il ne semble pas y avoir de différence significative entre le « type de sens » associé aux unités lexicales et le « type de sens » associé aux unités grammaticales dans les cas où ces deux classes d’éléments ont un sens profond. Les structures peuvent être clairement délimitées. Les notions de « sens » et de « référence » s'appliquent aux deux types d'éléments. S'il y a une généralisation que l'on peut faire sur la signification des éléments grammaticaux (et certains éléments purement grammaticaux, on s'en souvient, n'ont aucune signification ; cf. §8.4.1), il semblerait que ce soient les « choix » grammaticaux sont associés à des concepts généraux de corrélation spatiale et temporelle, de causalité, de processus, d'individuation, etc. - des concepts du type discuté dans les chapitres 7 et 8. Cependant, nous ne pouvons pas dire à l'avance que dans la structure d'un langage particulier, tel les concepts, même s’ils sont faciles à identifier, seront nécessairement « grammaticalisés » et non « lexicalisés ».

9.5.3. « SIGNIFICATION » DES « FONCTIONS » GRAMMARIQUES

La deuxième classe de phénomènes dans la structure de l'anglais, auxquels Freese (et d'autres) a appliqué le terme « sens structurel » (ou « sens grammatical ») peut être illustrée par des concepts tels que « sujet », « objet » et « définition ». . Le livre de Frieze a été écrit avant la théorie moderne de la syntaxe transformationnelle, et il considérait exclusivement la structure de surface (dans le cadre d'un concept plutôt limité). Par conséquent, une grande partie de ce qu’il dit à propos de ces concepts « fonctionnels », bien que correct, n’est guère pertinente pour l’analyse sémantique. On peut en dire autant de la plupart des théories linguistiques modernes.

Il est clair que certaines relations grammaticales qui s'établissent au niveau de la structure profonde entre les unités lexicales et les combinaisons d'unités lexicales sont pertinentes pour l'analyse sémantique des phrases. Selon Chomsky, ce sont les concepts « fonctionnels » de « sujet », « objet direct », « prédicat » et « verbe principal » qui constituent les principales relations profondes entre unités lexicales ; Katz, Fodor et Postal ont récemment tenté de formaliser la théorie de la sémantique avec un ensemble de « règles de projection » opérant sur des éléments lexicaux liés par ces relations au sein des phrases (cf. §10.5.4). Des concepts tels que « sujet », « prédicat » et « objet » ont été abordés dans le chapitre précédent ; et nous avons vu que leur formalisation dans une théorie syntaxique générale n'est pas du tout aussi évidente que le supposait Chomsky. Il s’ensuit que le statut des « règles de projection » interprétant les phrases sur la base de ces concepts semble également douteux.

En considérant la « transitivité » et l'« ergativité », nous avons souligné que de nombreux « objets directs » des phrases anglaises pouvaient être générés par l'insertion de constructions à une place comme « prédicats » de constructions à deux places et par l'introduction d'un nouveau sujet « agent ». Mais nous avons également vu qu’il existe d’autres constructions transitionnelles à deux places qui ne peuvent être générées de manière satisfaisante par ce schéma. Ce seul fait suggère que la relation « d’objet direct » ne peut recevoir une seule interprétation dans l’analyse sémantique des phrases. La grammaire traditionnelle distinguait de nombreux types différents d'« objet direct ». L’un d’eux peut être mentionné ici car (quel que soit son statut dans la théorie de la syntaxe) il est sans aucun doute très important en sémantique. Nous entendons « objet résultat » (ou « effet »).

L'« objet résultat » peut être illustré par les deux phrases suivantes :

(1) Ce n’est pas lire un livre « Il lit un livre ».

(1) Ce n’est pas écrire un livre « Il écrit un livre ».

Le livre mentionné dans la phrase (1) existe avant et indépendamment de la lecture, mais le livre mentionné dans la phrase (2) n'existe pas encore : il naît après l'achèvement de l'activité décrite dans cette phrase. En raison de cette distinction, le livre en (1) est traditionnellement considéré comme l'objet « ordinaire » du verbe lire, tandis que le livre en (2) est décrit comme « l'objet résultat ». D'un point de vue sémantique, tout verbe qui a un « objet de résultat » avec lui peut très bien être qualifié de « causal existentiel ». Le « verbe » le plus courant en anglais entrant dans cette classe est make, et nous avons déjà souligné qu'il s'agit également d'un « verbe auxiliaire causal » (cf. §8.3.6 et §8.4.7). Ce même « verbe » agit, comme le verbe do « faire », comme un « verbe de substitution » dans les phrases interrogatives. Une question comme : Qu'est-ce que tu fais ? "Que fais-tu?" comporte moins de présupposés sur le « prédicat » de la phrase qui répond à la question (le verbe peut être transitif ou intransitif, mais il doit être un verbe « d'action » ; cf. § 7.6.4). Question Que fais-tu ? « Que faites-vous ? », au contraire, présuppose que l'« activité » correspondante soit « résultante » et ait pour but ou limite l'« existence » (« l'existence ») d'un « objet ». Dans un certain nombre de langues européennes, cette différence apparaît, mais pas aussi clairement qu'en anglais. (Par exemple, en français, Qu"est-ce que tu fais ? peut être traduit en anglais soit par « Qu'est-ce que tu fais ? » soit par « Qu'est-ce que tu fais ? »). Mais cela ne veut pas dire que pour ces langues la distinction entre objets « ordinaires » et « objets résultat » n'est pas pertinente.

L'importance du concept de « causalité existentielle » vient du fait que dans les phrases contenant une construction avec un « objet résultat », il existe souvent un degré élevé d'interdépendance entre un verbe ou une classe de verbes particulière et un nom ou une classe de verbes particulière. noms. Par exemple, il est impossible de donner une analyse sémantique satisfaisante du nom image « image » sans identifier ses connexions syntagmatiques avec des verbes tels que peindre « peindre, dessiner, écrire » et dessiner « dessiner, dessiner » ; à l'inverse, le fait que ces verbes puissent avoir pour « objet résultat » le nom image doit être pris en compte dans le cadre de leur signification.

Cette notion d'interdépendance syntagmatique, ou présupposé, joue un rôle important dans l'analyse du vocabulaire de toute langue (cf. § 9.4.3). Son applicabilité est bien plus large que ce que nos exemples peuvent indiquer. Il existe des présupposés qui surviennent entre des classes spécifiques de noms et de verbes lorsque le nom est le sujet d'un verbe (par exemple, oiseau : voler, poisson : nager) ; entre « adjectifs » et noms (blond « blond » : cheveux « cheveux », ajouté « pourri » : œuf « œuf ») ; entre verbes et objets « ordinaires » (drive « conduire » : sag « voiture ») ; entre les verbes et les noms qui ont des relations « instrumentales » avec eux (mordre « mordre » : dents, coup de pied « donner » : pied « jambe, pied »), etc. Beaucoup de ces relations se situent entre des classes spécifiques d'unités lexicales ne peuvent être formulées autrement que par un ensemble de « règles de projection » (règles ad hoc) au sein de la syntaxe transformationnelle décrite par Chomsky.

Etant donné qu’il n’existe pas encore de cadre syntaxique totalement satisfaisant dans lequel il serait possible de formuler diverses relations sémantiques servant à structurer le vocabulaire des langues, nous ne tenterons pas de formuler des ensembles de « règles de projection » qui opérer sur des relations grammaticales profondes. Dans le prochain chapitre, nous examinerons plusieurs relations paradigmatiques particulièrement importantes entre les classes d'éléments lexicaux ; leur analyse sera effectuée de manière informelle. Nous supposons que ces relations pourraient être formulées de manière plus élégante en termes d'une description plus satisfaisante des relations grammaticales au niveau de la structure profonde.

9.5.4. « SIGNIFICATION » DES « TYPES DE PHRASES »

La troisième classe de « significations » habituellement considérées comme « grammaticales » peut être illustrée par la distinction entre les phrases « déclaratives », « interrogatives » et « impératives ». Dans les travaux récents sur la théorie transformationnelle, il y a eu une tendance à introduire des éléments grammaticaux tels que le « marqueur interrogatif » et le « marqueur impératif » dans les structures profondes NS des phrases, puis à formuler les règles de la composante transformationnelle de telle manière que la présence d’un de ces « marqueurs » va « inclure » la règle de transformation correspondante. Nous ne considérons pas ici les avantages syntaxiques de cette formulation de la distinction entre différents « types de phrases » ; nous nous intéressons à son essence sémantique.

Il a été suggéré (par Katz et Postal) que ces « marqueurs » sont sémantiquement similaires aux éléments lexicaux et grammaticaux qui apparaissent comme constituants dans les noyaux de phrases. Par exemple, un « marqueur d'impératif » est inscrit dans le dictionnaire et muni d'une indication « qui le caractérise comme ayant approximativement la signification suivante : « le locuteur fait une demande (demande, exige, insiste, etc.) pour que. » Mais cette opinion repose sur une confusion dans l’usage du terme « sens ». Elle contourne les contradictions qui surgissent en relation avec les distinctions faites en sémantique entre « sens », « référence » et autres types de « significations ». Si nous continuons à utiliser le terme « signification » pour toutes sortes de fonctions sémantiques distinctes, alors nous pouvons à juste titre affirmer qu'il existe des différences de « signification » entre les énoncés, questions et commandes correspondants (qui ne sont pas nécessairement « exprimés » par des expressions déclaratives, phrases interrogatives et impératives, respectivement - mais par souci de simplicité, nous ignorons ce fait). Cependant, la question de savoir si deux éléments lexicaux ont « le même sens » ou non est généralement interprétée en relation avec le concept de synonymie - identité de sens. Il s’agit d’une relation paradigmatique, c’est-à-dire une relation qui est valable ou non entre des unités se produisant dans le même contexte, dans le même « type de phrase ». Dans le prochain chapitre nous verrons que la notion de « synonymie » entre X Et à peut être décrit en termes d'un ensemble d'implications « découlant » de deux phrases, qui ne diffèrent que par la place où il se trouve dans un cas X, dans un autre - ça vaut à. Mais ces considérations ne s'appliquent tout simplement pas aux phrases déclaratives et interrogatives (impératives) correspondantes (par exemple : Vous écrivez la lettre « Vous écrivez une lettre » contre. Est-ce que vous écrivez la lettre ? "Est-ce que tu écris une lettre?" ou Écrivez la lettre! "Écrire une lettre!"). Bien que les membres correspondants de différents « types de phrases » puissent être caractérisés comme étant différents dans leur « sens », on ne peut pas dire qu’ils diffèrent dans leur sens. Il n’est pas nécessaire de chercher à formaliser la théorie de la sémantique de telle sorte que le « sens » de la « marque interrogative » ou de la « marque impérative » puisse être décrit dans les mêmes termes que le « sens » des unités lexicales,

Mot – l'unité structurale-sémantique de base du langage, servant à nommer les objets et leurs propriétés, les phénomènes, les relations de réalité, possédant un ensemble de caractéristiques sémantiques, phonétiques et grammaticales propres à chaque langue. On distingue dans un mot les structures suivantes : phonétique (un ensemble organisé de phénomènes sonores qui forment l'enveloppe sonore d'un mot), morphologique (un ensemble de morphèmes), sémantique (un ensemble de sens d'un mot).

Structure sémantique d'un mot – un ensemble ordonné d'éléments interconnectés, formant un certain modèle généralisé dans lequel les options lexicales-sémantiques s'opposent et se caractérisent les unes par rapport aux autres.

Variante lexico-sémantique (LSV) – une unité à deux faces, dont le côté formel est la forme sonore du mot, et le côté contenu est l'un des sens du mot.

Les mots qui n'ont qu'un seul sens sont représentés dans la langue par une variante lexicale-sémantique, les mots polysémantiques - par un nombre de variantes lexicales-sémantiques correspondant au nombre de ses différents sens.

Une analyse de la signification d’un mot montre que les mots ont généralement plusieurs significations. Des mots qui n'ont qu'un seul sens, c'est-à-dire monosémantique , relativement peu. Ceux-ci incluent généralement des termes scientifiques, par exemple : hydrogène, molécule. La plupart des mots anglais sont des mots ambigus. Plus un mot est utilisé souvent, plus il a de sens. Par exemple, le mot tableau a au moins 9 significations en anglais moderne : 1) un morceau de meubles; 2) le personnes assise à le tableau; 3) chanter. La nourriture mise sur la table, les repas ; 4) un mince morceau plat de pierre, de métal, de bois, etc. ; 5) pl. dalles de pierre; 6) des mots gravés dessus ou écrits dessus (les dix tablesdix commandements); 7) un agencement ordonné des faits, des chiffres, etc. ; 8) partie d'une machine-outil sur laquelle l'ouvrage est destiné à être opéré ; 9) une zone plane, un plateau. Les mots qui ont plusieurs sens sont appelés polysémantique . Il s'ensuit que la notion de structure sémantique n'est applicable qu'aux mots polysémiques, puisque la structure sémantique est, en fait, la structure du LSV, et si un mot n'a qu'un seul LSV, il ne peut pas avoir la structure du LSV.

La structure sémantique d'un mot comprend un ensemble d'options lexico-sémantiques, organisées d'une certaine manière et formant un ensemble ordonné, une hiérarchie. Il existe différentes classifications qui reflètent la différence d'approches de la structure sémantique d'un mot et des connexions hiérarchiques de ses éléments.

Candidature approche synchronique Pour étudier la structure sémantique d’un mot, on peut distinguer les principaux types de significations suivants :

    sens principal du mot , qui révèle la plus grande fixation paradigmatique et une relative indépendance par rapport au contexte ;

    valeurs privées (secondaires, dérivées) , qui, au contraire, présentent la plus grande fixation syntagmatique et ne sont pas déterminés dans une mesure notable par des relations paradigmatiques ;

    sens nominatif , qui vise directement des objets, des phénomènes, des actions et des qualités de la réalité ;

    sens dérivé du nominatif , ce qui lui est secondaire. Par exemple, dans le mot main le sens « partie terminale du bras humain au-delà du poignet » (donnez-moi votre main) est nominatif, et les sens « une chose comme une main » (l'aiguille des heures, l'aiguille des minutes), « un employé qui travaille avec ses mains » (l'usine a embauché deux cents ouvriers supplémentaires) sont des dérivés nominatifs ;

    valeur directe (propre) , directement lié aux objets et phénomènes de la réalité matérielle, il peut être identifié en se familiarisant avec les réalités elles-mêmes, et ces dernières agissent à cet égard comme une condition indispensable et un critère objectif pour déterminer la portée sémantique d'un mot ;

    figuré (métaphorique, figuré, figuré) , qui est acquis par un mot du fait de son utilisation consciente dans le discours pour désigner un objet qui n'est pas son référent habituel ou naturel. Les sens figurés sont formés à partir du sens direct selon certains modèles de dérivation sémantique et ne sont réalisés que dans certaines conditions contextuelles. Non seulement ils nomment un objet ou un phénomène, mais ils le caractérisent également en fonction de sa similitude avec un autre objet ou phénomène. Structure sémantique du verbe mourir comprend les LSV suivants : 1. cesser de vivre, expirer (sens direct) ; 2. perdre sa force vitale, devenir faible, s'évanouir (l'espoir/l'intérêt meurt ; le bruit/la conversation meurt) ; 3. être oublié, perdu (sa renommée ne mourra jamais) ; 4. pourriture (les fleurs/plantes meurent). Les valeurs 2, 3, 4 sont portables.

Les significations sont portables 'temps' mots 'sable': Les sables s'épuisent ; signification 'gagner' en un mot 'atterrir': Elle a décroché un mari riche ; Il a décroché le premier prix.

    Selon les objets de dénomination et la finalité sociale, les significations sont divisées en conceptuelles et stylistiques. Conceptuel ces significations lexicales sont appelées , dans lequel l'orientation sujet-conceptuelle est directrice et déterminante ; stylistique (culturel-historique) sont les significations dans lesquelles la fonction de nommer et de désigner des objets et des concepts est combinée avec la fonction de caractériser les mots eux-mêmes.

    Parmi les significations lexicales conceptuelles, il y a abstrait valeurs , par exemple, témoin – 1. preuve, témoignage ; Et spécifique , par exemple, témoin – 2. une personne qui a une connaissance directe d'un événement et est prête à le décrire ; 3. une personne qui témoigne sous serment devant un tribunal ; 4. une personne qui appose sa signature sur un document ; noms communs Et propre nominatif Et pronominatif (significations pronominales). Particulièrement mis en valeur spécial significations inhérentes aux termes et aux professionnalismes.

    Significations stylistiques les significations des mots appartenant à différentes couches stylistiques du vocabulaire de la langue et des domaines d'utilisation sont reconnues. Les archaïsmes et les néologismes, les dialectismes et les exotismes ont également une signification stylistique, et non seulement les mots, mais aussi les LSV individuels peuvent être archaïques, néologiques, dialectaux et exotiques.

    Lors de l'analyse de la relation entre les mots du langage et de la parole, les concepts sont utilisés sens intensionnel (significations d'un mot en tant qu'unité de langage) et extensionnel sens (acquis par un mot dans un contexte donné de son usage vocal). Pour désigner la signification du mot « en tant que tel », en faisant abstraction de toute la variété des situations de langage imaginables liées à son utilisation, le terme est également souvent utilisé signification du dictionnaire .

D’un autre côté, les significations du « discours » sont divisées en habituel (sens établis et acceptés dans la langue, dans laquelle le mot est habituellement et naturellement utilisé, c'est-à-dire reflétant les connexions syntagmatiques caractérisant la propre sémantique du mot) et occasionnel des sens (attachés à un mot donné dans un contexte donné d'usage de la parole et représentant un certain écart par rapport aux sens habituels et généralement acceptés, c'est-à-dire des sens qui, n'étant pas le résultat d'une combinaison régulière de mots, sont exclusivement contextuels). Par exemple, le sens du verbe s'asseoir dans la phrase « Où dois-je asseoir tous ces gens ? » est habituel, dans la phrase « Elle entra dans le salon et s'assit sur le bord d'une chaise pour ne pas s'asseoir ». son bon costume en gros-grain (J. et E. Bonett) est occasionnel.

Usage approche diachronique désigne la classification des sens selon leurs caractéristiques génétiques et selon leur rôle croissant ou décroissant dans la langue et permet d'identifier les types de sens suivants :

    originale (originale) valeurs et dérivés , qui en dérivent. Par exemple, dans la sémantique du mot tuyau le sens original est « instrument de musique à vent constitué d'un seul tube », et les dérivés sont « tube de bois, de métal, etc., notamment pour le transport de l'eau, du gaz, etc. » ; ‘tube étroit d’argile, de bois, etc. avec bol à une extrémité pour aspirer la fumée du tabac», etc. De plus, avec une telle classification, il est souvent nécessaire d'isoler un sens intermédiaire, qui, diachroniquement, est l'un des liens dans le développement sémantique d'un mot entre les sens originaux et dérivés déjà établis. Par exemple, dans la structure sémantique d'un nom conseil le sens « table », étant un transfert métonymique, agit comme un lien intermédiaire entre le sens « une surface étendue de bois » (qui à son tour est intermédiaire entre « table » et le sens original - « morceau de bois long, mince, généralement étroit) ') et le sens de « comité », également associé au transfert métonymique. Ainsi, avec une approche diachronique, le sens du mot conseil peut être représenté sous la forme suivante :

morceau de bois scié long et mince, généralement étroit

une surface étendue de bois

(transfert métonymique)

(transfert métonymique)

    sens étymologique – le sens historiquement le plus ancien ;

    sens archaïque – un sens remplacé par un mot plus récent, mais conservé dans un certain nombre de combinaisons stables, par exemple : sens "voir" au mot rougir: à le d'abord rougir"à première vue"; signification du mot "esprit" fantôme: à donner en haut le fantôme"pour rendre l'âme"; signification "particule" au mot colis: partie et colis"une partie intégrale de"; en même temps, le mot existe avec un sens (des significations) différent en tant qu'élément actif du vocabulaire moderne.

    sens obsolète – un sens tombé en désuétude ;

    sens moderne – le sens, qui est le plus fréquent dans le langage moderne.

PRINCIPE SÉMANTIQUE DE CLASSIFICATION DES PARTIES DU DISCOURS

Il existe plusieurs principes pour diviser les mots à valeur réelle en catégories. L'un de ces principes est le principe sémantique. Il a été notamment pris en compte (Panov M.V. Sur les parties du discours en langue russe // Rapports scientifiques de l'école supérieure. Sciences philologiques, 1960, n° 4). Selon l'idée, les parties du discours devraient avoir un certain point commun, et ce point commun ne devrait pas être racine, mais affixal et se rapporter non pas au son des affixes (forme), mais à leur signification (contenu). En fait, les formes de mots lâche, lâche,lâche, bien qu'ils partagent un morphème racine commun, ils ne peuvent pas être classés comme une seule partie du discours. Formes de mots a écrit Et épouvantail, endormi Et pousser, glace Et grand, bien qu'ils contiennent des éléments affixaux formellement identiques -l-, -n~, -oe, appartiennent évidemment à différentes parties du discours. Par conséquent, il est nécessaire de découvrir une communauté d'affixes significative, qui devrait servir de base à la division des mots en parties du discours.

La classification repose sur un sens extrêmement général : la participation à la fonction de dénomination. Il existe plusieurs de ces fonctions. L'un d'eux - procéduralité- se voit sous n'importe quelle forme de mot verbal, quelle que soit la signification de la racine, qui peut ne pas avoir de sens procédural. Autre fonction - signe. Il vient après le processus dans la hiérarchie des fonctions. Sur la base de l'absence de fonction procédurale et de la présence de la fonction attributaire, l'adjectif se distingue en tant que partie du discours. Dans le même temps, le participe en tant que partie du discours n'est pas distingué, puisqu'il a une fonction procédurale. Cette circonstance est à la base de la classification des formes de participes comme parties du discours. La troisième fonction est la relation directe ou indirecte avec l'objet. Sur cette base, l'adjectif et le verbe s'opposent à l'adverbe. Les premiers caractérisent directement l'objet : l'adjectif est non processuel, le verbe (avec un participe !) est procédural. Un adverbe ne caractérise pas directement un objet ; il remplit la fonction d'une caractéristique de la caractéristique elle-même, c'est-à-dire un verbe ou un adjectif. La même fonction de l'attribut de l'attribut est également remplie par le gérondif. Cependant, contrairement aux adverbes, les gérondifs ont un caractère procédural.

Les formes de mots qui n'ont aucune des significations indiquées dans leur partie affixe sont des noms qui, en posant la question de cette manière, incluent des chiffres cardinaux et collectifs. Toutes les autres différences grammaticales entre les formes de mots n'affectent pas l'identification des parties du discours.

Une approche similaire - fonctionnelle-sémantique - pour identifier des parties du discours en langue russe a déjà été réalisée . Il était enclin à distinguer quatre parties indépendantes du discours en langue russe : le nom, l'adjectif, le verbe et l'adverbe. Cependant, sur la base de la considération des catégories sémantico-fonctionnelles de lexèmes qu'il a identifiées, il a été possible de découvrir une place tendue dans le système des parties du discours russe ainsi identifiées. Il regarde les phrases faire la course Et faire une course. La première phrase est naturelle tant sur le plan lexical que grammatical. La deuxième phrase est également lexicalement naturelle. Mais grammaticalement, c'est illégal : course- adverbe, c'est-à-dire le signe d'un signe, mais courir- un nom, c'est-à-dire grammaticalement pas un signe ou un processus. Collocation cours vite- cohérent à la fois lexicalement et grammaticalement. Collocation course rapide grammaticalement aussi logique, mais lexicalement - non, car lexicalement courir n'est pas quelque chose d'objectif. Ainsi, l'opposition des adjectifs et des adverbes dans l'aspect considéré s'avère quelque peu floue. De nombreux exemples peuvent être donnés lorsqu'un adverbe agit comme un signe par rapport à

à un nom directement : oeufs brouillés,cheveux coupés en ras du cou, queue ondulée etc.

Par rapport aux parties du discours traditionnellement identifiées, le schéma proposé diffère par certaines caractéristiques. Il n'y a ni pronoms ni chiffres dans ce schéma. Cependant, ces pertes sont le résultat logiquement inévitable de l’application cohérente du principe sémantico-fonctionnel de division. Conformément à ce principe, tous les pronoms traditionnellement attribués sont répartis entre noms, adjectifs et adverbes. Les chiffres partagent le même sort. Les ordinaux sont inclus dans les adjectifs, les quantitatifs et collectifs sont inclus dans les noms et les formes de mots comme deux fois, trois fois, bien qu'ils soient associés au comptage, car ils étaient traditionnellement liés aux adverbes, ils restent parmi les adverbes même avec l'approche indiquée. La classification selon le principe de la « fonction de dénomination » uniquement dans ses sens extrêmement généraux donne un schéma qui rappelle les parties traditionnelles du discours. En principe, la classification basée sur ce principe peut être détaillée. Ensuite, cela conduira à l’identification de groupes de lexèmes (ou formes de mots) qui présentent des points communs fonctionnels et sémantiques. Ainsi, par exemple, on peut distinguer au sein des verbes des groupes de verbes personnels et impersonnels ; au sein des adverbes, un groupe d'adverbes désignant un attribut caractéristique, et un groupe d'adverbes désignant un état. (J'ai froid, il n'a pas le temps), etc.

Malgré la valeur objective de la classification considérée et son importance particulière pour la sémantique et la syntaxe, elle ne peut satisfaire pleinement un spécialiste du domaine de la morphologie, car elle ne prend pas suffisamment en compte les catégories morphologiques représentées ou non dans un groupe particulier de lexèmes. ou des formes de mots. Cette dernière circonstance - les caractéristiques morphologiques réelles des mots - peut servir de base à une identification différente des parties du discours.

PRINCIPE MORPHOLOGIQUE DE CLASSIFICATION DES PARTIES DU DISCOURS

LE MÊME ENSEMBLE DE CATÉGORIES MORPHOLOGIQUES. La classification des lexèmes peut s'appuyer sur l'expression des mêmes catégories morphologiques. Dans ce cas, les lexèmes maison, animal, hiver forment un groupe, car toutes leurs formes de mots expriment les catégories morphologiques du nombre, du cas et uniquement ces catégories. En revanche, tous ces lexèmes s'opposeront aux lexèmes gentil, vieux, grand, puisque toutes les formes verbales de ces derniers expriment des catégories morphologiques telles que le genre, le nombre, la casse, la brièveté-exhaustivité.

Cependant, la classification selon le principe de « gravité du même ensemble de catégories morphologiques » ne conduit pas toujours à des résultats aussi clairs que dans le cas décrit ci-dessus de noms et d'adjectifs contrastés. Principal

Des difficultés majeures surviennent lorsque différentes formes de mots d’un même lexème expriment différents ensembles de catégories morphologiques.

La structure la plus complexe à cet égard dans la langue russe est celle des formes de mots traditionnellement incluses dans le verbe. Même les formes du présent et du passé diffèrent par l'ensemble des catégories morphologiques exprimées. Le présent exprime une catégorie de personnes disparues dans le passé. Et dans le passé s’exprime la catégorie de genre absente dans le présent. Les catégories morphologiques des verbes aux formes de l'indicatif, du subjonctif et de l'impératif ne coïncident pas. Encore plus frappantes sont les différences dans les ensembles de catégories morphologiques des formes personnelles du verbe et de l'infinitif, des formes personnelles du verbe et des participes, de l'infinitif et des participes. Avec tout cela, l'infinitif et les formes personnelles de tous les modes, ainsi que le participe et le gérondif, doivent être considérés comme des formes verbales d'un lexème, puisque les significations qui distinguent ces formes verbales peuvent être considérées comme obligatoires et régulières (en savoir plus à ce sujet dans la section « Verbe »). De cette circonstance, il s'ensuit que la classification selon le principe de « l'expression du même ensemble de catégories morphologiques » ne peut être effectuée de manière cohérente que pour les formes de mots. Pour les lexèmes, une telle classification est en principe impossible.

Une autre circonstance rend difficile l'application de ce critère. Cela réside dans le fait que parmi les lexèmes russes, nombreux sont ceux qui consistent en une seule forme de mot et n'expriment donc pas une seule catégorie morphologique. Des jetons tels que manteau, taxi, hydro, selon le principe de « l'expression des catégories morphologiques », ils s'opposent fortement à la majorité des noms russes, qui expriment dans leurs formes verbales des catégories morphologiques de nombre et de cas. Jetons de type beige, kaki, sémantiquement identiques aux adjectifs, ne possèdent aucune catégorie morphologique inhérente aux adjectifs. Par conséquent, la classification selon le principe de « l'expression des catégories morphologiques » n'est possible que pour les formes de mots formées grammaticalement.

Dans ce cas, les types de formes de mots suivants seront présentés :

1) noms (cas express et numéro) ; Cela inclut également des chiffres quantitatifs et collectifs ;

2) adjectifs (cas express, nombre, genre et brièveté/exhaustivité) ;

3) infinitifs (aspect express et voix) ;

4) participes (aspect express) ;

5) participes (cas express, nombre, genre, brièveté/exhaustivité, type, voix, temps) ;

6) les verbes du mode indicatif du présent/futur (exprimer le nombre, l'aspect, la voix, le temps, la personne, le mode) ;

7) les verbes du mode indicatif du passé (exprimer le nombre, le genre, l'aspect, la voix, le temps, le mode) ;

8) verbes au mode subjonctif (exprimer le nombre, le genre, l'aspect, la voix, le mode) ;

9) verbes impératifs (exprimer le nombre, l'aspect, la voix, la personne, l'humeur) ;

10) formes de mots grammaticalement non caractérisées : noms et adjectifs indéclinables, degré comparatif et adverbes.

C'est exactement à quoi devraient ressembler les parties indépendantes du discours de la langue russe si leur identification était basée sur une seule caractéristique : la présence de caractéristiques morphologiques communes exprimées dans la forme du mot elle-même.

En comparaison avec les parties traditionnelles du discours, cette classification s'avère plus compacte pour un nom (il n'y a pas différentes catégories de pronoms, de nombres cardinaux et ordinaux) et beaucoup moins compacte pour un verbe.

LE MÊME ENSEMBLE DE MEMBRES DU PARADIGME. Dans le cadre de l'approche morphologique d'identification des parties du discours, une autre classification est possible. Elle peut s’appuyer sur les caractéristiques structurelles du paradigme. Il est clair que dans ce cas les noms, par exemple, s'opposeraient aux adjectifs. Après tout, le paradigme de ce dernier inclut l'opposition des formes de mots selon le genre, qui est absente des noms. Certes, dans ce cas, ni les noms ni les adjectifs ne pourraient conserver leur unité. De plus, une telle fragmentation ne se produirait pas uniquement en raison de noms et d’adjectifs immuables. Parmi les noms, un grand groupe de lexèmes qui ont des formes verbales d'un seul nombre (singulier ou pluriel, cela n'a pas d'importance) devrait être comparé aux lexèmes qui ont des formes de deux nombres. (maison-maisons Et jeunesse, lait). Puis dans la catégorie des lexèmes comme jeunesse, lait Il serait nécessaire d'inclure des chiffres - collectifs et quantitatifs, ainsi que des pronoms personnels et interrogatifs. Après tout, tous ces lexèmes ont des formes verbales composées d'un seul nombre.

Les lexèmes adjectifs seraient divisés en trois parties : les lexèmes avec des formes de mots courtes et complètes. (blanc), lexèmes uniquement avec des formes de mots complètes (grand), lexèmes avec des formes de mots courtes uniquement (content).

Opposé aux noms et adjectifs par la nature même de l'ensemble des formes verbales, le verbe doit dans ce cas être divisé en plusieurs groupes en fonction de la présence ou de l'absence d'un couple aspectuel, de la forme personnelle de la voix passive, de certains participes et gérondifs. , etc.

PRINCIPE SYNTACTIQUE DE CLASSIFICATION DES PARTIES DU DISCOURS

Il ne faut pas oublier que l'approche morphologique actuelle pour identifier les parties du discours reste totalement impuissante face aux mots immuables. Ici, seules des approches sémantiques et syntaxiques sont possibles.

Appliqué à des mots immuables, c'est-à-dire à des lexèmes constitués d'une seule forme de mot, le principe syntaxique s'avère très efficace. L'essence de ce principe est de déterminer les types de lexèmes avec lesquels les mots qui nous intéressent peuvent ou non être combinés, ainsi que de comprendre les fonctions que ces mots remplissent dans une phrase. Ainsi, parmi les mots immuables, les noms se combinent avec des noms, des adjectifs et des verbes (HPP de Sibérie, Krasnoïarskcentrale hydroélectrique, construire une centrale hydroélectrique), sont sujet, prédicat, objet, définition, circonstance ; les adjectifs se combinent avec les noms (costume beige), sont une définition ou un prédicat ; les adverbes se combinent avec des verbes et des adjectifs (habillé comme l'été, chaud comme l'été), sont des circonstances de différents types.

De plus, ce principe de division nécessite la reconnaissance parmi les mots immuables comme une classe particulière de formes dites de degré comparatif, comparatif. Ces mots, contrairement aux noms, adjectifs et adverbes, ne sont combinés qu'avec des verbes et des noms. (centvieillir, le frère est plus âgé que la sœur). De plus, l'utilisation d'un critère syntaxique nécessite la sélection d'un groupe de mots qui concernent uniquement la phrase dans son ensemble. (peut-être peut-êtrenon, bien sûr, à quoi bon etc.). Ces mots sont généralement appelés mots modaux. Ainsi, l'utilisation d'un critère syntaxique permet d'identifier des parties du discours à partir de mots immuables. Il est important de noter que la sélection des noms et adjectifs parmi les mots immuables pourrait s'effectuer sur la base d'un critère sémantique. Le critère sémantique distingue facilement les adverbes des mots immuables. Cependant, seule l’application d’un critère syntaxique introduit diverses gradations parmi les adverbes.

Une tentative visant à isoler une partie particulière du discours, basée sur le principe syntaxique de classification des formes de mots, a été largement discutée dans la littérature grammaticale russe. Nous parlons de formes de mots qui ne sont pas verbales, mais qui sont utilisées comme prédicat (il a froid, on est content, tu devrais, trop paresseux pour travailler, trop paresseux pour parler etc.). Ces formes de mots ont reçu le statut d'une partie spéciale du discours, ce qu'on appelle la catégorie d'État. La combinaison de toutes ces formes de mots en une seule partie du discours prend en compte la communauté de leur fonction syntaxique et une certaine homogénéité sémantique associée à cette communauté, notée dans le nom même de « catégorie d'état ». Morphologiquement, toutes ces formes de mots sont caractérisées différemment : Froid n'exprime pas de catégories morphologiques, content, nous devrions avoir un numéro paresse, manque de temps- numéro, cas.

L'application cohérente du principe syntaxique à toutes les formes de mots conduit à des conclusions paradoxales. Ainsi, les adjectifs courts, par exemple, doivent être contrastés avec les adjectifs complets. La première peut agir à la fois comme définition et comme prédicat, tandis que la seconde ne peut agir que comme prédicat. Les fonctions syntaxiques des différentes formes verbales - personnelles, participatives, participatives - seront définies différemment. Certes, sur la base des fonctions syntaxiques, les formes verbales des chiffres cardinaux et collectifs peuvent être contrastées avec les formes verbales des noms eux-mêmes : on sait que les chiffres cardinaux et collectifs ne peuvent pas être combinés avec des adjectifs.

Peut-être que définir des fonctions syntaxiques par rapport aux lexèmes pourrait donner des résultats plus familiers ? C'est faux. Au sein d’un même lexème, coexistent des formes de mots de conception morphologique différente. De la même manière, différentes formes de mots d’un même lexème peuvent remplir différentes fonctions syntaxiques. Par conséquent, une classification basée sur le principe de « fonction syntaxique » pour les lexèmes est en principe impossible, tout comme une classification basée sur une conception morphologique homogène est impossible pour les lexèmes.

RÉSULTATS DES DIFFÉRENTES CLASSIFICATIONS

Nous pouvons tirer quelques conclusions. Le problème de l'identification des parties du discours est le problème de la classification des formes de mots.

Le critère sémantique dans ses acceptions les plus généralisées met en évidence quatre classes formes de mots avec un sens complet - nom, adjectif, verbe et adverbe.

Le critère morphologique met en évidence neuf classes formes de mots formalisées et formes de mots non formées.

Le critère syntaxique, appliqué à un groupe morphologiquement non caractérisé, permet de distinguer parmi ces derniers les noms, les adjectifs, les adverbes, le comparatif (degré comparatif), la catégorie d'état et les mots modaux. Il est en principe possible d'appliquer le critère syntaxique aux formes des mots, mais ses résultats entreront en conflit avec les résultats de l'analyse morphologique et sémantique.

PRINCIPES DE CLASSIFICATION ET ENSEIGNEMENT TRADITIONNEL SUR DES PARTIES DU DISCOURS

De ce qui précède, il ressort clairement que la doctrine traditionnelle des parties du discours est une classification a priori dont les fondements logiques sont très hétérogènes. Cependant, cette classification permet de placer n'importe quelle forme de mot ou lexème dans une catégorie appropriée. Il y a une place pour les noms, les adjectifs, les chiffres, les verbes et les adverbes. Dans le même temps, en raison d’une imperfection logique, la classification traditionnelle sépare ce qui, pour certaines raisons logiques, devrait être ensemble.

Les chiffres scolaires, par exemple, combinant des chiffres cardinaux collectifs et ordinaux sur une base sémantique, séparent ces derniers des adjectifs, malgré leurs points communs morphologiques et syntaxiques. La volonté de distinguer la catégorie d'État parmi les parties du discours russe s'explique par le fait que des unités ayant les mêmes fonctions syntaxiques existent également dans la catégorie « noms ». (manque de temps, paresse), et dans la rubrique « adjectifs » (heureux, beaucoup) et dans la section « adverbes » (ennuyeux, amusant).

C’est précisément dans la nature « a priori » que résident à la fois la force de la doctrine traditionnelle des parties du discours – la capacité vérifiée depuis des siècles à caractériser n’importe quel objet – et sa faiblesse, l’ouverture à la critique des fondements logiques qui sous-tendent la classification.

On ne peut manquer de noter un autre avantage de la classification traditionnelle des parties du discours. Certaines unités, tout en restant assez logiques, peuvent être simultanément placées dans l'une ou l'autre catégorie. C'est très pratique, car dans un certain nombre de domaines du système de parties du discours, il y a des transitions constantes (adjectifs en noms, participes en adjectifs, etc.).

Toutes ces circonstances prédéterminent la viabilité de la doctrine traditionnelle des parties du discours.

Comme déjà indiqué, la doctrine des parties du discours est importante non seulement pour la morphologie, mais également pour d'autres sections de la description de la langue russe. La doctrine traditionnelle des parties du discours ne reflète les résultats d'aucune des classifications ci-dessus (à comparer avec les critères de définition d'un mot), mais représente une sorte de compromis entre tous ces principes. Un rôle important dans la réalisation d'un tel compromis est joué par le fait que les parties du discours identifiées pour différentes raisons forment des groupes de tailles très différentes. Comparez, par exemple, les noms et ce qu'on appelle la catégorie d'état, les verbes et les mots modaux.

LITTÉRATURE SUR LE SUJET

« PARTIES DU DISCOURS COMME CLASSES DE MOTS LEXICO-GRAMMATICALES »

Zhirmunskiy V.M. Sur la nature des parties du discours et leur classification. - Dans le livre : Questions de théorie des parties du discours basées sur le matériel de langues de divers types. L., 1965.

P a n o v M. V. Sur les parties du discours en langue russe. - Rapports scientifiques de l'école supérieure. Philol. Sciences, 1960, n°4.

S t e b l i n - Kamenskiy M.I. Sur la question des parties du discours. - Vestnik de l'Université d'État de Léningrad, 1954, n° 6.

Shcherba L.V. À propos des parties du discours en langue russe - Dans le livre : Ouvrages choisis sur la langue russe. M., 1957. .-