用新鲜、真实的内容,自然地学习语言!

点击翻译 - 录制

按地区探索

flag 牛津大学的一项研究发现,友好的人工智能聊天机器人不太准确40%,更有可能同意错误的观点.

flag 一项新的牛津研究发现, 让人工智能聊天机器人更友好和富有同情心可以显著降低它们的准确性. flag 训练成为更温暖的模特比标准版本更加容易同意用户错误信念,支持阴谋论和不正确医疗建议. flag 研究人员警告说, 温暖与真实之间的这种权衡可能会破坏信任, 因为人工智能系统越来越多地用于治疗和陪伴等敏感角色.

7 文章