ACCUEIL

Consignes aux
auteurs et coordonnateurs
Nos règles d'éthique
Autres revues >>

Traitement Automatique des Langues

1248-9433
Changement d'éditeur au 1er janvier 2007
 

 ARTICLE VOL 43/3 - 2002  - pp.129-154
TITLE
Stochastic Language Modelling for Recognition and Generation in Dialogue Systems

RÉSUMÉ
Un système de dialogue entre l'homme et l'ordinateur devrait être capable de gérer des phrases spontanées agrammaticales dans le stade de l'analyse et de la récognition et, en même temps, de générer des réponses grammaticalement correctes. On doit aussi résoudre le problème de n'avoir que le training matériel limité pour chaque application spécifique. Une méthode capable de gérer ces deux difficultés est présentée dans ce travail. Il s'agit d'un procès données-dirigé incrémental, fondé sur l'algorithme Viterbi, qui, donné comme input un ensemble de phrases, produit un HMM qui incorpore structure grammaticale procurée par larges dépendances de contexte et couverture de phrases spontanées agrammaticales procurées par estimations statistiques. En outre, l'algorithme généralise les données d'échantillon et réduit la quantité de training données exigée pour obtenir des modèles précis. L'ajustement des paramètres peut conduire à un modèle où les caractéristiques stochastiques déplacent la structure grammaticale et inversement. En premier cas, l'output HMM peut être utilisé comme un modèle de langage flexible et robuste dans le stade de l'analyse et de la récognition. En deuxième cas, le HMM devient approprié à générer des réponses du système valides sans avoir besoin de grammaire.


ABSTRACT
A human-computer dialogue system should be able to handle spontaneous ungrammatical sentences in the analysis-recognition stage and at the same time generate grammatically correct responses. Moreover, the constraint of not having enough domaindependent training material should be overcome. In this paper we present a method able to cope with the above phenomena. It is an incremental data-driven process based on the Viterbi algorithm, which given as input a set of sentences, produces a Hidden Markov Model (HMM) that incorporates grammatical structure provided by large context dependencies as well as coverage of ungrammatical spontaneous sentences provided by statistical estimations. Furthermore, the algorithm generalises the sample data, thereby reducing the required amount of training samples for acquiring reliable models. Adjustment of parameters may lead to a model where stochastic features supersede grammatical structure and the contrary. In the first case, the output HMM can be used as a robust flexible language model in the analysis-recognition stage. In the second case, the HMM becomes appropriate for generating valid system responses without the need of grammars.


AUTEUR(S)
Kallirroi GEORGILA, Nikos FAKOTAKIS, George KOKKINAKIS

MOTS-CLÉS
modéliser le langage, génération de langage, HMM, automates d'état fini.

KEYWORDS
language modelling, language generation, HMM, finite-state automata.

LANGUE DE L'ARTICLE
Anglais

 PRIX
• Abonné (hors accès direct) : 34.95 €
• Non abonné : 34.95 €
|
|
--> Tous les articles sont dans un format PDF protégé par tatouage 
   
ACCÉDER A L'ARTICLE COMPLET  (282 Ko)



Mot de passe oublié ?

ABONNEZ-VOUS !

CONTACTS
Comité de
rédaction
Conditions
générales de vente

 English version >> 
made by WAW Lavoisier