研究显示,人工智能系统缺乏对同情心和道德的培训,提出了一种将人工智能与社会价值观保持一致的新方法.

Purdue大学的研究人员发现,AI系统主要接受信息和实用价值方面的培训,往往忽略了有利于社会、福祉和公民价值。 这项研究审查了大赦国际各大公司使用的三个数据集,发现在同情、司法和人权方面缺乏培训。 该小组采用了一种称为 " 从人类反馈中强化学习 " 的方法,以帮助AI系统与社会价值观保持一致,利用经整理的数据集确保道德行为并更好地服务于社区价值观。

2个月前
3 文章