lm-social-bias-源码

上传者: 42140716 | 上传时间: 2021-03-05 18:08:47 | 文件大小: 4KB | 文件类型: ZIP
测量语言模型中的社会偏见 贡献者 对应于: ( ) Wu Chiyu( ) 概括 TLDR:我们设计了一个基准套件,以测试预训练语言模型中是否存在代表性的社会偏见。 我们的指标捕获了单词和句子级别的偏见,并返回了在公平性和性能之间取得平衡的整体评分。 动机 随着机器学习方法被部署在诸如医疗保健,法律系统和社会科学等现实世界中,至关重要的是要认识到它们如何在这些敏感的决策过程中形成社会偏见和成见。 在这样的现实世界中,部署大规模的预训练语言模型(LM)可能会表现出不良的代表性偏见,而这种偏见可能是危险的-刻板印象产生的有害偏见会传播涉及性别,种族,宗教和其他社会建构的负面概括。 为了提高LM的公平性,我们在提出新的基准和度量标准之前,仔细定义了代表偏见的几种来源。 该存储库包含一组工具,用于对LM中的社会偏见进行基准测试。 相关工作 最近的工作集中于定义和评估社会偏见[1,2]以及其

文件下载

资源详情

[{"title":"( 2 个子文件 4KB ) lm-social-bias-源码","children":[{"title":"lm-social-bias-main","children":[{"title":"LICENSE <span style='color:#111;'> 1.04KB </span>","children":null,"spread":false},{"title":"README.md <span style='color:#111;'> 7.60KB </span>","children":null,"spread":false}],"spread":true}],"spread":true}]

评论信息

免责申明

【只为小站】的资源来自网友分享,仅供学习研究,请务必在下载后24小时内给予删除,不得用于其他任何用途,否则后果自负。基于互联网的特殊性,【只为小站】 无法对用户传输的作品、信息、内容的权属或合法性、合规性、真实性、科学性、完整权、有效性等进行实质审查;无论 【只为小站】 经营者是否已进行审查,用户均应自行承担因其传输的作品、信息、内容而可能或已经产生的侵权或权属纠纷等法律责任。
本站所有资源不代表本站的观点或立场,基于网友分享,根据中国法律《信息网络传播权保护条例》第二十二条之规定,若资源存在侵权或相关问题请联系本站客服人员,zhiweidada#qq.com,请把#换成@,本站将给予最大的支持与配合,做到及时反馈和处理。关于更多版权及免责申明参见 版权及免责申明