麻省理工学院的研究显示,尽管有客观的培训数据,但大型AI语言模型表现出左倾偏向。
麻省理工学院的研究人员发现,在诸如ChatGPT等AI应用软件中使用的大型语言模型,即使经过客观信息培训,也可以表现出左倾政治偏见。 由博士候选人Suyash Fulay和研究科学家Jad Kabbara领导的这项研究表明,尽管使用了所谓真实的数据集,但偏见依然存在,使人们对这些模型的可靠性和可能滥用表示关切。
3个月前
3 文章
延伸阅读
本月仅剩 2 篇免费文章。立即订阅,享受无限访问!
麻省理工学院的研究人员发现,在诸如ChatGPT等AI应用软件中使用的大型语言模型,即使经过客观信息培训,也可以表现出左倾政治偏见。 由博士候选人Suyash Fulay和研究科学家Jad Kabbara领导的这项研究表明,尽管使用了所谓真实的数据集,但偏见依然存在,使人们对这些模型的可靠性和可能滥用表示关切。
本月仅剩 2 篇免费文章。立即订阅,享受无限访问!