分区:软件资讯 更新:2024-01-13 12:31:16
【手机评论网】1月2日消息,IT之家报道称,密歇根大学的一项最新研究揭示了大语言模型(LLM)在社会和性别角色方面的偏见。研究结果表明,人工智能在处理法律相关任务时存在性别偏见,中性或男性角色比女性角色工作效率更高。
该研究通过Flan-T5、LLaMA2 和OPT-instruct 三个模型跟踪了2,457 个问题,并观察了不同性别角色的反应。研究人员纳入了162 个不同的社会角色,涵盖了一系列社会关系和职业,并测量了每个角色对模型表现的影响。
研究发现,表现最好的角色是导师、合作伙伴、聊天机器人和人工智能语言模型。此外,在提示中指定受众(例如“您正在与消防员交谈”)效果最好,然后是角色提示。
这一发现对于人工智能系统的开发者和用户都有很大的价值,用户可以考虑使用LLM的社会背景来提高LLM的有效性。同时,研究人员分析了50 个被分类为男性、女性或中性的人际角色,发现中性词和男性角色的模型表现高于女性角色。
这一发现值得特别关注,表明这些人工智能系统对男性和中性角色比女性角色具有固有的偏好。未来的研究应进一步探讨如何消除人工智能中的性别偏见,实现更加公正平等的人工智能系统。
上一篇:《番茄小说》加入书友圈方法
下一篇:《阿里云盘》新建相薄方法
2024-06-27
元贝驾考如何切换车型
夸克高考怎么填报艺术类志愿
ios18怎么开启通话录音
抖音怎么查找可能认识的人
2024-06-27
游戏翻译器自动汉化下载
国精产品99永久免亚精一区一区极速版
全能变声器下载免费
在线免费观看免费版b站汉化版