En général, la perplexité est une mesure de la façon dont un modèle de probabilité prédit un échantillon. Dans le contexte du traitement automatique du langage naturel, la perplexité est un moyen d'évaluer les modèles de langage.
Qu'est-ce que la perplexité PNL ?
Dans le traitement du langage naturel, la perplexité est un moyen d'évaluer les modèles de langage Un modèle de langage est une distribution de probabilité sur des phrases ou des textes entiers. … Il est souvent possible d'obtenir une plus faible perplexité sur des corpus plus spécialisés, car ils sont plus prévisibles.
Comment interprétez-vous la perplexité ?
Nous pouvons interpréter la perplexité comme le facteur de branchement pondéré. Si nous avons une perplexité de 100, cela signifie que chaque fois que le modèle essaie de deviner le mot suivant, il est aussi confus que s'il devait choisir entre 100 mots.
Quelle est l'interprétation intuitive de la perplexité ?
Wikipedia définit la perplexité comme suit: "une mesure de la capacité d'une distribution de probabilités ou d'un modèle de probabilité à prédire un échantillon." Intuitivement, la perplexité peut être comprise comme une mesure de l'incertitude La perplexité d'un modèle de langage peut être vu comme le niveau de perplexité lors de la prédiction du symbole suivant.
Est-ce qu'une grande perplexité est bonne ?
Parce que les résultats prévisibles sont préférés au hasard. C'est pourquoi les gens disent qu'une faible perplexité est bonne et qu'une forte perplexité est mauvaise puisque la perplexité est l'exponentiation de l'entropie (et vous pouvez sans risque penser au concept de perplexité en tant qu'entropie).