真正的男人是不会说出“可爱”这样的字眼的:心理学家利用大数据和推特来分析成见的准确性xue8jiaer(2016/12/7 18:14:13) 点击:
265934 回复:
0 IP:
202.* * * 真正的男人是不会说出“可爱”这样的字眼的:心理学家利用大数据和推特来分析成见的准确性
“不准确的成见”指的是男性写出的带有女性特征的词汇(参照上图c),或者女性写出的带有男性特征的词汇(参照上图d)。词的大小表明性别和词汇关联性的强弱程度,词的颜色表明词汇的相对使用频率。——卡彭特等人合著的文章《真正的男人是不会说出‘可爱’这样的字眼的:心理学家利用大数据和推特来分析成见的准确性》SPPS 2016。
来源:《社会心理和性格科学》,2016
推特里都写了什么?从一个人的性别到受教育程度,社交媒体上写的东西能给人第一印象。来自宾夕法尼亚州、德国以及澳大利亚的积极心理研究中心的社会心理学家以及计算机科学家们,正通过大众使用的推特,帮助我们解析由社交媒体渠道——推特上人们所使用的词汇所形成的成见。充分利用一种人工智能形式——自然语言处理(NLP)技术,研究学者们展示了貌似很有道理的成见是如何成为一种错误的思想的。
这项研究刊登在《社会心理和性格科学》上。
在一系列的实验中,参与者被要求只基于社交媒体上发布的内容而对推文的作者进行分类。在这些实验中,人们针对作者的性别,年龄,受教育程度或者政治倾向做出判断,唯一的参考就是他们在推特上公开发布的内容。
研究人员使用NLP技术来分析并分离参与者用来对推文的作者按性别、年龄、受教育程度以及政治倾向方面进行分类的过程中所持有的成见。尽管成见和猜测经常是正确的,但有很多情况下人们的想法是错误的。
“这些不准确的成见倾向于被夸大而不是相反”,文章的第一作者乔丹·卡彭特(目前他在杜克大学任职)说,“比如说,人们抱有这样一个很有道理的想法:没有上过大学的的人要比那些拿到博士学位的人更有可能说脏话。但是如果他们认为拥有博士学位的人从不说脏话,这就是不对的了。”
社交媒体上的偏见
通过着眼于成见的不准确性,他们的研究发现了多重的成见是如何相互影响的。
“我们最有意思的一个发现就是,当人们一时难于判断某一个人的政治倾向时,他们似乎就会回到性别成见上:(通过推文上的内容)看上去是女性的,就推测是自由主义的,而看上去是男性的,就推测是保守主义的”,卡彭特说。
也有数据显示,人们相信和科技相关的语言就是一个男性作者的标志。在这个试验中,“男性比女性会发布更多关于科技的内容,的确是这样”,卡彭特说,“但是这种成见导致了错误结论的产生:几乎每一个发布科技内容的女性都被错误地认为是一个男性作者。”
在上例中,人们抱有的成见被夸大了,而且这种成见“在人们关于男性女性的评判中占据过于重要的地位”,作者写道。“在这场关于‘因为正确所以合适’的辩论中,双方都应该赞同的是,这种成见,以及我们所强调的其他一些东西,都是不恰当的,并且应该被抵制。”
人工智能和成见研究
“这项研究的一个重要方面就是它颠覆了很多成见研究过去所采取的研究方式”, Daniel Preotiuc-Pietro说,他是文章的一个合著者,也是积极心理研究中心的一名计算机科学家。
以前的做法是,给定各种不同的人群,然后询问实验的参与人员这些不同的群体对应什么样的行为,而这次不一样。研究人员先是给出一系列的行为,然后让参与人员去判断做出这些行为的人们的身份。那些实验者也“把成见看作是一个词汇网:那些用来关联一组人群的词汇就是对他们的成见”, Preotiuc-Pietro这样写道。
这样的安排使得研究团队能够利用自然语言处理(NLP)方法来说明人们的成见,而不需要通过直接提问获得他们的认同。
“这是一种关于‘人们经常拒绝公开表达自己的成见’这一问题的创新处理方式,可能是因为他们想要表现出自己是不抱有成见的这样一种形象,或者是因为他们不清楚自己都抱有哪些成见”,卡彭特说。
总结
NLP领域是涉及书面语言自动理解的人工智能的一般分支。NLP已经创造出许多运用于日常生活中的相似应用,包括拼写检查,预测文本,语音助手(像Siri),以及推荐相关的新闻报道等等。
Preotiuc-Pietro总结说:“当跨领域的研究者们越来越频繁地合作,将计算机技术和心理研究方法结合起来使用,从而对这两个领域都分别作出一定的贡献,这是很令人振奋的。”
更多内容请关注公众号:学霸联盟学术