Models | XQuAD | MLQA | ||
---|---|---|---|---|
EM↑ | F1↑ | EM↑ | F1↑ | |
URA-LLaMa 70B | 0.06 ± 0.00 | 0.30 ± 0.00 | 0.04 ± 0.00 | 0.28 ± 0.00 |
URA-LLaMa 13B | 0.00 ± 0.00 | 0.14 ± 0.00 | 0.00 ± 0.00 | 0.15 ± 0.00 |
URA-LLaMa 7B | 0.00 ± 0.00 | 0.14 ± 0.00 | 0.00 ± 0.00 | 0.16 ± 0.00 |
LLaMa-2 13B | 0.00 ± 0.00 | 0.04 ± 0.00 | 0.00 ± 0.02 | 0.05 ± 0.00 |
LLaMa-2 7B | 0.00 ± 0.00 | 0.05 ± 0.00 | 0.00 ± 0.00 | 0.06 ± 0.00 |
Vietcuna 7B | 0.00 ± 0.00 | 0.00 ± 0.00 | 0.00 ± 0.00 | 0.00 ± 0.00 |
GPT-3.5 | 0.00 ± 0.00 | 0.24 ± 0.00 | 0.00 ± 0.00 | 0.25 ± 0.00 |
GPT-4 | 0.00 ± 0.00 | 0.27 ± 0.00 | 0.00 ± 0.00 | 0.27 ± 0.00 |