Google 翻译中降低性别表述偏差的可扩展方法

文 / 高级软件工程师 Melvin Johnson,Google Research 用于语言翻译的机器学习 (ML) 模型可能会因其训练数据中潜在的社会偏见而产生同样的偏差。性别表述偏差即是其中一例:在对区分性别的语言和不分性别的语言之间进行翻译时,翻译结果中存在性别表述偏差的情况往往更加明显。例如,Google 翻译之前会将土耳其语中的“他/她是一名医生”翻译为阳性形式,而将“他/她是一名护士
相关文章
相关标签/搜索