Skip to Main Content
Table 4 
Word translation accuracy (P@1) on the En-It, En-Es, En-De, and En-Fi data sets of Dinu, Lazaridou, and Baroni (2015); Artetxe, Labaka, and Agirre (2017); All methods use CBOW embeddings. ** indicates failure to converge; ‘-’ indicates the authors did not report.
 En-ItEn-EsEn-DeEn-Fi
Supervised Baselines 
Artetxe, Labaka, and Agirre (2017) 43.8 37.2 32.4 27.2 47.4 40.7 30.8 26.2 
Artetxe, Labaka, and Agirre (2018a) 45.3 38.5 37.2 29.6 47.2 44.7 33.2 36.3 
Procrustes-CSLS 44.9 38.5 33.8 29.3 46.5 42.6 31.8 29.1 
  
Unsupervised Baselines 
Artetxe, Labaka, and Agirre (2018b) 47.9 42.3 36.9 31.6 48.3 44.1 32.9 33.5 
Hoshen and Wolf (2018) ** ** ** ** ** ** ** ** 
Conneau et al. (2018) (paper) 45.1 38.3 – – – – – – 
Conneau et al. (2018) (code) 44.9 38.7 34.7 ** ** ** ** ** 
  
Our Unsupervised Approach 
Adversarial autoencoder + 
 Conneau refinement 45.3 39.4 35.2 29.9 46.8 42.6 30.4 31.9 
 Artetxe refinement 47.9 42.6 37.5 32.1 47.9 44.1 32.9 33.0 
 Our combined refinement 47.7 42.3 38.1 32.3 48.7 44.1 32.6 33.2 
 En-ItEn-EsEn-DeEn-Fi
Supervised Baselines 
Artetxe, Labaka, and Agirre (2017) 43.8 37.2 32.4 27.2 47.4 40.7 30.8 26.2 
Artetxe, Labaka, and Agirre (2018a) 45.3 38.5 37.2 29.6 47.2 44.7 33.2 36.3 
Procrustes-CSLS 44.9 38.5 33.8 29.3 46.5 42.6 31.8 29.1 
  
Unsupervised Baselines 
Artetxe, Labaka, and Agirre (2018b) 47.9 42.3 36.9 31.6 48.3 44.1 32.9 33.5 
Hoshen and Wolf (2018) ** ** ** ** ** ** ** ** 
Conneau et al. (2018) (paper) 45.1 38.3 – – – – – – 
Conneau et al. (2018) (code) 44.9 38.7 34.7 ** ** ** ** ** 
  
Our Unsupervised Approach 
Adversarial autoencoder + 
 Conneau refinement 45.3 39.4 35.2 29.9 46.8 42.6 30.4 31.9 
 Artetxe refinement 47.9 42.6 37.5 32.1 47.9 44.1 32.9 33.0 
 Our combined refinement 47.7 42.3 38.1 32.3 48.7 44.1 32.6 33.2 
Close Modal

or Create an Account

Close Modal
Close Modal