Skip to Main Content
Table 1 
BLEU scores obtained in experiments on the Multi30k data set. Left: Bilingual models, our baselines. Center: Models trained on {De, Fr, Cs} ↔ En, with zero-shot translations in italics. Right: Many-to-many model. Both zero-shot and mm translations improve significantly when including monolingual data. (Best results shown in bold font).
src/tgtBilingual{de, fr, cs} ↔ enmm
endecsfrendecsfrendecsfr
EN – 36.78 28.00 55.96 – 37.85 29.51 57.87 – 37.70 29.67 55.78 
DE 39.00 – 23.44 38.22 39.39 – 0.35 0.83 40.68 – 26.78 41.07 
CS 35.89 28.98 – 36.44 37.20 0.65 – 1.02 38.42 31.07 – 40.27 
FR 49.54 32.92 25.98 – 48.49 0.60 0.30 – 49.92 34.63 26.92 – 
 BILINGUAL + ATT BRIDGE{DE, FR, CS} ↔ EN + MONOLINGM ↔ M + MONOLINGUAL
ENDECSFRENDECSFRENDECSFR
EN – 35.85 27.10 53.03 – 38.92 30.27 57.87 – 38.48 30.47 57.35 
DE 38.19 – 23.97 37.40 40.17 – 19.50 26.46 41.82 – 26.90 41.49 
CS 36.41 27.28 – 36.41 37.30 22.13 – 22.80 39.58 31.51 – 40.87 
FR 48.93 31.70 25.96 – 50.41 25.96 20.09 – 50.94 35.25 28.80 – 
src/tgtBilingual{de, fr, cs} ↔ enmm
endecsfrendecsfrendecsfr
EN – 36.78 28.00 55.96 – 37.85 29.51 57.87 – 37.70 29.67 55.78 
DE 39.00 – 23.44 38.22 39.39 – 0.35 0.83 40.68 – 26.78 41.07 
CS 35.89 28.98 – 36.44 37.20 0.65 – 1.02 38.42 31.07 – 40.27 
FR 49.54 32.92 25.98 – 48.49 0.60 0.30 – 49.92 34.63 26.92 – 
 BILINGUAL + ATT BRIDGE{DE, FR, CS} ↔ EN + MONOLINGM ↔ M + MONOLINGUAL
ENDECSFRENDECSFRENDECSFR
EN – 35.85 27.10 53.03 – 38.92 30.27 57.87 – 38.48 30.47 57.35 
DE 38.19 – 23.97 37.40 40.17 – 19.50 26.46 41.82 – 26.90 41.49 
CS 36.41 27.28 – 36.41 37.30 22.13 – 22.80 39.58 31.51 – 40.87 
FR 48.93 31.70 25.96 – 50.41 25.96 20.09 – 50.94 35.25 28.80 – 
Close Modal

or Create an Account

Close Modal
Close Modal