论文: 自我繁殖的假新闻:机器人和人工智能使印度冲突地区的社会两极分化永久化
Self-Breeding Fake News: Bots and Artificial Intelligence Perpetuate Social Polarization in India's Conflict Zones
论文链接:https://jps.library.utoronto.ca/index.php/ijidi/article/download/39409/31318
摘要
研究发现,人工智能 (AI) 机器人和 cookie 在种族、宗教、性别和阶级等社会冲突领域自动发布虚假新闻。
在此背景下,本文探讨了假新闻是否随着印度特有的社会结构而自动化。该研究收集了印度 2014 年和 2019 年大选期间各政党和政客在互联网上的竞选活动,但仅限于部分 Facebook 个人资料、网站、主题标签和 Twitter 个人资料。
政治家和政党在 Twitter、Facebook 和其他网站上形成了在研究设计中收集经验数据的联系点。通过查看 #Nationwantsrammandir 等主题标签; #NaamVaapsi; #RamMandir; #反国民; #种姓;和#Hindutva,以及虚假的社交媒体帐户;讨论论坛;以及政客追随者的简介,该论文证实机器人、人工智能和网络喷子在印度冲突地区提供假新闻,一些势力正在利用它来延续基于种姓、阶级、宗教、性别和地区的社会分裂。本文认为,自动化社交媒体账户传播的虚假信息可能会使印度的社会冲突两极分化。
论文:Harass, mislead, & polarize: An analysis of Twitterpolitical bots' tactics in targeting the immigrationdebate before the 2018 U.S. midterm election
骚扰、误导和两极分化:2018 年美国中期选举前 Twitter 政治机器人针对移民辩论的策略分析
摘要
这项研究调查了选举前政治推特机器人的互动和消息传递策略。我们分析了有影响力的机器人在 2018 年美国中期选举前试图影响移民辩论的策略。我们的研究结果表明,我们数据集中的 10 个最有影响力的机器人都提出了反移民观点,并且都发布了原始推文并转发了其他机器人账户的推文,给人一种真实性和反移民共识的错误感觉。机器人的信息在很大程度上依赖于负面情绪诉求,通过传播骚扰性语言和虚假信息,可能旨在引起对移民的恐惧。这些报道还使用两极分化的语言来巩固政治团体身份并挑起党派之争。我们的研究结果有助于理解政治机器人所采用的互动和消息传递策略,并提出可用于对抗其有效性的潜在策略。
描述传播金融虚假信息的社交机器人
论文: Characterizing Social Bots Spreading Financial Disinformation
摘要
尽管存在一些关于社交机器人在传播与政治、健康、科学和教育相关的虚假信息中的特征和作用的研究,但金融社交机器人仍然是一个很大程度上未被探索的话题。
我们的目标是通过调查 Twitter 中大型社交僵尸网络的活动来阐明这个问题,这些僵尸网络参与了有关美国主要金融市场上交易的股票的讨论。我们表明,最大的讨论高峰实际上是由大量转发机器人引起的。然后,我们重点描述这些金融机器人的活动,发现它们参与了投机活动,旨在利用高价值股票的受欢迎程度来推销低价值股票。最后,我们强调了这些帐户的独特特征,包括相似的帐户创建日期、相似的屏幕名称、传记和个人资料图片。这些账户看起来是不值得信任且相当简单的机器人,可能旨在愚弄自动交易算法而不是人类投资者。我们的研究结果为开发针对金融垃圾邮件的准确检测和过滤技术铺平了道路。为了促进这个新主题的研究和实验,我们将我们的数据集公开用于研究目的。
论文: DEVELOPING A TWITTER BOT THAT CAN JOIN A DISCUSSION USING STATE-OF-THE-ART ARCHITECTURES
开发一个可以使用最先进的架构加入讨论的 Twitter 机器人
论文链接:chrome-extension://ikhdkkncnoglghljlkmcimlnlhkeamad/pdf-viewer/web/viewer.html?file=file%3A%2F%2F%2FUsers%2Fqiaoboyu%2FDownloads%2Findex.pdf#=&zoom=150
摘要
Twitter 如今主要用于分享和评论新闻 [1]。这样一来,Twitter 用户之间的互动就不可避免了。这种互动有时会导致人们将日常辩论转移到这个社交平台上。由于在这些辩论中占据主导地位至关重要,因此该过程的自动化变得非常流行 [2]。在这项工作中,我们的目标是训练一个机器人,根据语义对发布的推文进行分类,并生成有关流行讨论的逻辑推文,即本研究中的美国枪支辩论。机器人经过训练,可以在辩论中独立发表推文,也可以回复相反观点的推文。对最先进的架构进行测试以获得更准确的分类。我们应用 GloVe 嵌入模型来表示推文。不是使用手工制作的特征,而是将长短期记忆神经网络应用于这些嵌入,以获得更多信息且大小相等的特征向量。该模型经过训练,通过将推文作为嵌入序列进行编码。编码用于分类和生成任务。 LSTM 序列到序列模型用于生成推文和推文回复。将注意力机制添加到回复模型中以产生更多相关的推文。提出一个新的指标来衡量目标推文回复的相关性。此外,人类评估者根据与主题和目标推文的相关性来衡量生成的推文的质量,并进行回复。
关键词:自然语言处理、推文生成、推文分类、情感分析、循环神经网络、Twitter Bot
论文:社交警觉性和社交传播的算法过程:机器人如何在 Twitter 上传播信息
论文链接:
摘要
尽管实证关注不断增加,但有关机器人的理论以及它们如何在社交媒体上传播信息仍然知之甚少。我们的研究利用管道经纪的视角和多个案例研究的结果,开发了一种新颖的算法管道经纪框架,用于理解机器人的信息传播以及可能影响其行为的设计选择。算法管道经纪包含两个相互交织的过程。第一个过程是算法社交警觉性,它依赖于机器人活动来管理和重新配置信息。算法社交警觉性非常重要,因为它涉及到决定机器人搜索、发现和检索信息类型的动作触发器。第二个过程是算法社交传播,依靠机器人活动来修饰和分发所策划的信息。算法社交传播很重要,因为它可以通过增加可发现性和定向目标来扩大机器人传播信息的范围。我们提供的两种算法管道经纪流程是机器人所独有的,与植根于人类活动的管道经纪的原始概念不同。首先,由于机器人缺乏人类的感知能力,而是由自动化和动作触发而不是情感推动,因此算法管道经纪比人类管道经纪更加稳定和可靠。其次,自动化提高了信息管理和传输的速度和规模,使算法渠道经纪不仅更加一致,而且更快、更广泛。第三,算法管道经纪包括一组特定于机器人的新概念(例如,动作触发器和快速扩展),因此不适用于人工管道经纪。
论文:Unveiling the formation of conspiracy theory on social media: A discourse analysis
论文链接: https://journals.sagepub.com/doi/abs/10.1177/02683962231175923
摘要
社交媒体技术不仅为数字激进主义和全球解放提供了机会,而且也对民主的自由发展构成了威胁。社交媒体上阴谋论的出现和盛行源于在线政治辩论或社会运动的公共过程,这些过程退化为阴谋信仰。
这项研究将阴谋论的在线形成视为一个社会涌现的过程。我们采用社会建构主义视角,综合有关社会运动和社交媒体可供性的现有文献,对从 Twitter 收集的 2020 年美国总统选举舞弊阴谋论的话语数据进行了话语分析。通过分析,我们将阴谋论的形成分为四个阶段,并根据其动员结构、参与者、互动方式、创造的内容和可识别的集体行动来表征每个阶段。我们还确定了社交媒体的可供性,促进了阶段内和跨阶段阴谋论的形成。这项研究的结果不仅扩展了我们对社交媒体在阴谋论形成中的作用的理解,而且还帮助从业者理解阴谋论形成的形成过程,从而推进了当代对阴谋论的认识,后者构成了阴谋论形成的基础。制定适当的预防和缓解策略。