Benutzer:Mrzetti/BLEU-Entwurf

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

BLEU (bilingual evaluation understudy) ist ein Maß zur Bewertung der Qualität von Texten, die aus einer natürlichen Sprache in eine andere maschinell übersetzt wurden. Qualität wird als die Übereinstimmung zwischen der Ausgabe einer Maschine und der eines Menschen betrachtet: „Je näher eine maschinelle Übersetzung an einer professionellen menschlichen Übersetzung ist, desto besser ist sie“ – das ist die zentrale Idee hinter BLEU.[1] BLEU wurde 2001 bei IBM entwickelt,[2] und war eine der ersten Metriken, die eine hohe Korrelation mit menschlichen Bewertungen von Qualität beanspruchen konnte.[3][4]


Mathematische Definition

[Bearbeiten | Quelltext bearbeiten]

Der BLEU-Wert wird basiert auf zwei Grundbausteinen, ein Kandidat und eine oder mehr Referenzenübersetzungen. Die Idee dabei ist, dass BLEU beschreibt wie nah beieinander Kandidat und Referenzen liegen.

Dabei gilt, je näher der Wert bei 1 ist, desto besser ist die Übersetzung / der Kandidat.

Als Analogie ist der BLEU-Wert wie ein Lehrer, der versucht, die Qualität einer Übersetzung eines Schülers zu bewerten, indem er prüft, wie genau sie den Referenzübersetzungen des Lehrers folgt.

Gegeben ist eine Folge n-Gramme für eine natürliche Zahl . Dabei wäre ein 1-Gramm "der" oder "Lehrer" und ein 2-Gramm "der Lehrer". Dies gilt für ein beliebiges . Überlicherweise bis , da zu lange Folgen selten vorkommen und somit fast alle Übersetzungen schlecht wären. [5] [6]

Modifizierte n-Gramm-Präzision

[Bearbeiten | Quelltext bearbeiten]

Die modifizierte n-Gramm-Präzision stellt sicher, dass die maschinelle Übersetzung sowohl aus den richtigen n-Grammen, als auch der richtigen Häufigkeit derer besteht.

Definiert ist die modifizierte n-Gramm-Präzision als


Eine modifizierte n-Gramm-Präzision von 0 würde bedeuten, dass keine der n-Gramme des Kandidaten in den Referenzen vorkommt. Ein Wert von 1 würde bedeuten, dass alle n-Gramme vorkommen, beziehungsweise der Kandidat ein Teilsatz einer oder mehr Referenzen ist.

Kürzungsstrafe

[Bearbeiten | Quelltext bearbeiten]

Die modifizierte n-Gramm-Präzision gibt fälschlicherweise einen hohen Wert für Kandidaten die alle Wörter einer Referenz enthalten aber so kurz wie möglich sind. Die Strafe ist deswegen nur für kurze Sätze, da die Berechnung der modifizierte N-Gramm-Präzision bereits zu lange Sätze bestraft.

Definiert wird die Kürzungsstrafe als:


  • Wenn ist, ist die Kürzungsstrafe , was bedeutet, dass lange Kandidaten nicht bestrafen werden.
  • Wenn ist, ist die Kürzungsstrafe


Dabei ist:

  • ist die Länge des Kandidaten
  • ist die effektive Referenzlänge, das heißt, die Länge der Referenz, die am nächsten an der Länge des Kandidaten () liegt. [7]

Definition von BLEU

[Bearbeiten | Quelltext bearbeiten]

Der BLEU-Wert hängt von der Wahl der Gewichte ab. Gewichte wurden eingeführt um Übersetzungen zu bevorzugen, die mehrere gute n-Gramm-Präzisionen besitzen.

Die Formel zur Berechnung des BLEU-Scores lautet:

Dabei sind:

  • die Anzahl der N-Gramme,
  • die modifizierten n-Gram Präzisionswerte,
  • die Gewichte für die verschiedenen n-Gramme,
  • die Kürzungsstrafe.


In Worten: Es ist ein gewichtetes geometrisches Mittel aller modifizierten n-Gramm-Präzisionen, multipliziert mit der Kürzungsstrafe. Das gewichtete geometrische Mittel wird verwendet um Kandidaten zu bevorzugen, die gut gemäß mehreren n-Gramm-Präzisionen sind.

Die Gewichte, die in der Veröffentlichung empfohlen werden, sind .[8]

BLEU am Beipiel

[Bearbeiten | Quelltext bearbeiten]

Folgendes Beispiel veranschaulicht die Schritte zur Berechnung des BLEU-Wertes.

Kandidat Die die die Katze sitzt auf dem Baum.
Referenz 1 Die Katze sitzt seit heute Morgen auf dem toten Baum.
Referenz 2 Die Katze sitzt auf dem toten Baum.


1. Vorverarbeitung:

Kandidat und Referenzen werden normalisiert und tokenisiert.

Kandidat die die die katze sitzt auf dem baum
Referenz 1 die katze sitzt seit heute morgen auf dem toten baum
Referenz 2 die katze sitzt auf dem toten baum


2. n-Gramme:

Nach der Normalisierung wird der Kandidat in 1-4 Gramme zerlegt.

1-Gramme 2-Gramme 3-Gramme 4-Gramme
die die die die die die die die die katze
die die die die die katze die die katze sitzt
die die katze die katze sitzt die katze sitzt auf
katze katze sitzt katze sitzt auf katze sitzt auf dem
sitzt sitzt auf sitzt auf dem sitzt auf dem baum
auf auf dem auf dem baum
dem dem baum
baum

3. Clipping:

Clipping bedeutet, dass die Anzahl die ein n-Gramm vorkommt, auf die Maximale Anzahl in der Referenz vorkommt.

Zum Beispiel kommt 'die' 3 mal im Kandidat vor, aber nur einmal in den Referenzsätzen. Daraus folgt, dass die maximale Anzahl, die 'die' vorkommen sollte auf 1 begrenzt ist.


4. Berechnung der modifizierten n-Gramm-Genauigkeit:

Da die Anzahl der n-Gramme im folgenden gezählt wird, sind in den folgenden Tabellen nur die einzigartigen n-Gramme aufgeführt.

Für 1-Gramme des Kandidaten:

1-Gramme Anzahl im Kandidat Maximale Anzahl in Referenzen Geclippte Anzahl
die 3 1 1
katze 1 1 1
sitzt 1 1 1
auf 1 1 1
dem 1 1 1
baum 1 1 1

Für 2-Gramme des Kandidaten:

2-Gramme Anzahl im Kandidat Maximale Anzahl in Referenzen Geclippte Anzahl
die die 2 0 0
die katze 1 1 1
katze sitzt 1 1 1
sitzt auf 1 1 1
auf dem 1 1 1
dem baum 1 1 1

Für 3-Gramme des Kandidaten:

3-Gramme Anzahl im Kandidat Maximale Anzahl in Referenzen Geclippte Anzahl
die die die 1 0 0
die die katze 1 0 0
die katze sitzt 1 1 1
katze sitzt auf 1 1 1
sitzt auf dem 1 1 1
auf dem baum 1 0 0

Für 4-Gramme des Kandidaten:

4-Gramme Anzahl im Kandidat Maximale Anzahl in Referenzen Geclippte Anzahl
die die die katze 1 0 0
die die katze sitzt 1 0 0
die katze sitzt auf 1 1 1
katze sitzt auf dem 1 1 1
sitzt auf dem baum 1 0 0

Für alle n-Gramme wird nun die modifizierten n-Gramm-Genauigkeit () berechnet.

Dafür wird folgende Formel verwendet:


Für die 1-Gramme bzw Unigramme:

Für die 2-Gramme bzw Bigramme:

Für die 3-Gramme bzw Trigramme:

Für die 4-Gramme:


5. Berechnung der Kürzungsstrafe (brevity penalty):

Die Kürzungsstrafe wird nur verwendet um sehr kurze Übersetzungen zu bestrafen. Sätze die sehr lang sind, aber keinen Inhalt haben, werden jedoch nicht bestraft.

ist die Länge des Kandidaten, in diesem Beispiel also .

ist die Länge der kürzesten Referenz, in diesem Beispiel also .

  • Wenn , beträgt die Kürzungsstrafe
  • Wenn , beträgt die Kürzungsstrafe

In diesem Fall ist also beträgt die Kürzungsstrafe .


6. Zusammenführen der Ergebnisse:

Zum Schluss wird das gewichtete geometrische Mittel () über die n-Gramm Präzisionen berechnet und mit der Kürzungsstrafe () multipliziert.

Meistens werden alle vier Ergebnisse gleich gewichtet, mit .

Hierbei wird bis aus Unterpunkt 4 verwendet.

Am Schluss wird das Mittel () mit der Kürzungsstrafe () multipliziert:

Damit beträgt der BLEU-Wert für das gegebene Beispiel:


1. Vorverarbeitung:

Die Texte werden normalisiert, zum Beispiel durch Kleinschreibung. Dies stellt sicher, dass Unterschiede in der Groß- und Kleinschreibung die Bewertung nicht beeinflussen.

2. n-Gramm-Übereinstimmung:

Die n-Gramme (Wortfolgen der Länge n) in der maschinellen Übersetzung und den Referenzübersetzungen werden gezählt. Dies ermöglicht einen detaillierten Vergleich der Übersetzungsqualität auf Wortebene.

3. Clipping:

Die Zählungen der n-Gramme in der maschinellen Übersetzung werden auf das Maximum begrenzt, das in den Referenzen vorkommt. Dies verhindert, dass übermäßige Wiederholungen von Wörtern zu einer künstlich hohen Genauigkeit führen.

4. Berechnung der modifizierten n-Gramm-Genauigkeit:

Die Anzahl der geclippten n-Gramme wird durch die Gesamtanzahl der n-Gramme in der maschinellen Übersetzung geteilt. Dies gibt eine proportionale Genauigkeit der maschinellen Übersetzung im Vergleich zu den Referenzen an.

5. Berechnung der Kürzungsstrafe (brevity penalty):

Die Länge der maschinellen Übersetzung wird im Verhältnis zur nächsten Referenzlänge bestimmt. Dies stellt sicher, dass die Übersetzung nicht zu kurz und somit möglicherweise unvollständig ist.

6. Zusammenführen der Ergebnisse:

Der BLEU-Score wird durch die gewichtete geometrische Mittelung der logarithmierten modifizierten n-Gramm-Genauigkeiten und das Multiplizieren mit der Kürzungsstrafe berechnet. Dies liefert den endgültigen BLEU-Score, der die Gesamtqualität der maschinellen Übersetzung im Vergleich zu den Referenzen angibt.

Anwendungsbeispiele

[Bearbeiten | Quelltext bearbeiten]

BLEU wird häufig zur Bewertung der Qualität maschineller Übersetzungen verwendet. Hier sind einige konkrete Anwendungsfälle:

  • Maschinelle Übersetzung: Große Technologieunternehmen wie Google und Microsoft nutzen BLEU zur Evaluierung und Verbesserung ihrer Übersetzungsdienste.[10]
  • Bildbeschreibungssysteme: Systeme wie das von Microsoft Research verwenden BLEU zur Bewertung der Qualität automatisch generierter Bildbeschreibungen.[11]
  • Bewertung von Antworten großer Sprachmodelle: BLEU wird verwendet, um die Qualität der Antworten großer Sprachmodelle zu bewerten. Beispielsweise kann BLEU zur Bewertung der Zusammenfassungsfähigkeiten eines Modells verwendet werden, indem generierte Texte mit Referenztexten verglichen werden. [12]

Folgende Tabelle ist übernommen von Google Cloud und dient zur Einordnung des BLEU-Wert:

BLEU-Wert Interpretation
0 - 0.1 Fast unbrauchbar
0.1 - 0.2 Schwierig, das Wesentliche zu verstehen
0.2 - 0.3 Das Wesentliche ist verständlich, aber es gibt erhebliche Grammatikfehler
0.3 - 0.4 Verständliche bis gute Übersetzungen
0.4 - 0.5 Hochwertige Übersetzungen
0.5 - 0.6 Sehr hochwertige, adäquate und flüssige Übersetzungen
0.6 - 1.0 Qualität oft besser als menschliche Übersetzungen

Es ist wichtig zu beachten, dass ein hoher BLEU-Score nicht immer eine perfekte Übersetzung garantiert, da BLEU nur die Übereinstimmung der n-Gramme bewertet und keine semantischen oder kontextuellen Aspekte berücksichtigt. Deshalb sollte BLEU in Kombination mit anderen Metriken und menschlichen Bewertungen verwendet werden. BLEU unterscheidet nicht zwischen Inhalts- und Funktionswörtern.

BLEU wird häufig als gut mit menschlichen Urteilen korrelierend bewertet,[14][15][16] und bleibt weiterhin ein wichtiger Benchmark für die Bewertung von neuen Übersetzungstechniken. [17]

Es gibt jedoch eine Reihe von Kritikpunkten:

  • Schlechte Bewertung bei komplexeren Sprachen wie Chinesisch [18]
  • Stark abhängig von der gewählten Tokenisierung [19]
  • Kontext spielt bei BLEU keine Rolle
  • Stark abhängig von der Qualität der Referenzen
  • Synonyme werden nicht erkannt

Um die Reproduzierbarkeit und Vergleichbarkeit zu verbessern, wurde die SacreBLEU-Variante entwickelt. SacreBLEU unterscheidet sich dadurch, dass ein eigener Tokenisierer mitgelierfert wird um Unterschiede auszuschließen. [2]

Es wurde argumentiert, dass, obwohl BLEU signifikante Vorteile hat, es keine Garantie gibt, dass eine Erhöhung der BLEU-Punktzahl ein Indikator für eine verbesserte Übersetzungsqualität ist.[20]

  • Papineni, K., Roukos, S., Ward, T., Zhu, W. J.: BLEU: a method for automatic evaluation of machine translation. ACL-2002: 40th Annual meeting of the Association for Computational Linguistics, 2002, S. 311–318 (aclweb.org [PDF]).
  • Papineni, K., Roukos, S., Ward, T., Henderson, J., Reeder, F.: Corpus-based Comprehensive and Diagnostic MT Evaluation: Initial Arabic, Chinese, French, and Spanish Results. Proceedings of Human Language Technology 2002, San Diego 2002, S. 132–137 (mt-archive.info [PDF]).
  • Callison-Burch, C., Osborne, M., Koehn, P.: Re-evaluating the Role of BLEU in Machine Translation Research. 11th Conference of the European Chapter of the Association for Computational Linguistics: EACL 2006, 2006, S. 249–256 (jhu.edu [PDF]).
  • Doddington, G.: Automatic evaluation of machine translation quality using n-gram cooccurrence statistics. Proceedings of the Human Language Technology Conference (HLT), San Diego, CA 2002, S. 128–132 (nist.gov [PDF]).
  • Coughlin, D.: Correlating Automated and Human Assessments of Machine Translation Quality. MT Summit IX, New Orleans, USA 2003, S. 23–27 (mt-archive.info [PDF]).
  • Denoual, E., Lepage, Y.: BLEU in characters: towards automatic MT evaluation in languages without word delimiters. Companion Volume to the Proceedings of the Second International Joint Conference on Natural Language Processing, 2005, S. 81–86 (mt-archive.info [PDF]).
  • Lee, A., Przybocki, M.: NIST 2005 machine translation evaluation official results. 2005.
  • Lin, C., Och, F.: Automatic Evaluation of Machine Translation Quality Using Longest Common Subsequence and Skip-Bigram Statistics. Proceedings of the 42nd Annual Meeting of the Association of Computational Linguistics, 2004 (mt-archive.info [PDF]).
  • Madnani, N.: iBLEU: Interactively Scoring and Debugging Statistical Machine Translation Systems. Proceedings of the Fifth IEEE International Conference on Semantic Computing (Demos), Palo Alto, CA 2011, S. 213–214 (ieee.org).
  • Chen, X., Fang, H., Lin, T. Y., Vedantam, R., Gupta, S., Dollár, P., Zitnick, C. L.: Microsoft COCO captions: Data collection and evaluation server. 2015, arxiv:1504.00325.


Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. Papineni, K., et al. (2002)
  2. a b BLEU: A Misunderstood Metric from Another Age. 19. Juni 2024; (englisch).
  3. Papineni, K., et al. (2002)
  4. Coughlin, D. (2003)
  5. Papineni, K., et al. (2002)
  6. Zur Bewertung maschineller Übersetzungen: Der ultimative Leitfaden. 25. Juni 2024; (deutsch).
  7. Papineni, K., et al. (2002)
  8. Kishore Papineni, Salim Roukos, Todd Ward, Wei-Jing Zhu: BLEU. In: Proceedings of the 40th Annual Meeting on Association for Computational Linguistics - ACL '02. Association for Computational Linguistics, Morristown, NJ, USA 2001, S. 311, doi:10.3115/1073083.1073135 (englisch).
  9. Papineni, K., et al. (2002)
  10. Papineni, K., et al. (2002)
  11. Chen, X., et al. (2015)
  12. Evaluating Large Language Models. 19. Juni 2024; (englisch).
  13. Interpretation mittels BLEU. 19. Juni 2024; (deutsch).
  14. Papineni, K., et al. (2002)
  15. Coughlin, D. (2003)
  16. Doddington, G. (2002)
  17. Zur Bewertung maschineller Übersetzungen: Der ultimative Leitfaden. 25. Juni 2024; (deutsch).
  18. Denoual, E. and Lepage, Y. (2005)
  19. BLEU: A Misunderstood Metric from Another Age. 25. Juni 2024; (englisch).
  20. Callison-Burch, C., Osborne, M. and Koehn, P. (2006)