论文1:CultureLLM: Incorporating Cultural Differences into Large Language Models, 论文:https://arxiv.org/abs/2402.10946 代码:https://github.com/Scarelette/CultureLLM
论文2:CulturePark: Boosting Cross-cultural Understanding in Large Language Models 论文:https://arxiv.org/abs/2405.15145 代码:https://github.com/Scarelette/CulturePark
CultureLLM
我们首先提出的模型叫做CultureLLM,其核心头脑是利用大模型对Prompt的敏感性来生成句子布局多性化、语义不变的练习样本,以对当下的练习数据举行扩充。如下图所示,我们首先从World value survey这一权威调查问卷中采样50个题目和答案,然后利用数据增强对题目举行改写、答案则保持不变。之后,我们用种子数据和生成的数据来为每个文化练习一个专有模型。为了验证CultureLLM的有效性,我们在一些文化相干的下游使命上举行验证,包括内容检察使命以及生成使命,这些数据集都是多语言数据集。