泰州房产网:从性别歧视到招聘不公,如何让AI公平待人?| 算法偏见(下)

admin 1个月前 (08-19) 科技 96 1

Sunbet

Sunbet www.lyjjhtls.com Sunbet是Sunbet的官方网站。Sunbt官网有你喜欢的Sunbet、申博APP下载、Sunbet最新网址、Sunbet管理网最新网址等。

,算法是一面镜子,映射 人类社会 许多固有的 偏见。
2014年,亚马逊的工程师着手开发一款人工智能招聘软件,利用算法和数据分析来筛选候选人,以此避免人类招聘官身上特有的“感情用事”问题。事与愿违,这款软件虽避免了“感情用事”问题,却在“偏见”上犯下更大的错误——软件编写者将人类招聘官的筛选模式写入算法,现实世界中无意识的偏见也带进了机器。 随着智能技术的不断普及,算法做决策成为趋势。避免人类社会的偏见映射到算法世界中,是当下数字化生存中的重要命题。 此前, AI&Society专栏 发布的《算法偏见:看不见的“裁决者”》 试图剖析算法偏见所带来的问题, 本文着重梳理当前针对算法偏见的一些解决方案。 在机器学习过程中,算法偏见会从三个环节中被渗透:数据集的构成缺乏代表性,工程师制定算法规则时、打标者处理非结构化素材,都有可能混入偏见。

 在对500名机器学习领域工程师调查后得出结论:如今机器学习工程师面临的最大问题之一是他们知道出了一些问题,但是不知道具体是哪里出了问题,也并不知道为什么会出现问题。”前微软公司执行副总裁沈向洋指出

由于算法偏见的不可知、不可查,让反偏见这项工作变得棘手。在现有应对体系下,无论是政策制度、技术突破还是创新型反制,都从不同的角度出发尝试解决这个已经超越技术的问题。

解决思路一:构建更公正的数据集

保险网声明:该文看法仅代表作者自己,与本平台无关。转载请注明:泰州房产网:从性别歧视到招聘不公,如何让AI公平待人?| 算法偏见(下)

网友评论

  • (*)

最新评论

  • 大发888真人 2020-08-19 00:00:05 回复

    Sunbet致力于服务,多方面拓展合作,欢迎莅临指导、合作。无聊了看这个呗

    1

相关推荐