作为决策辅助或委派代理的AI:信任维度对采用AI数字代理的影响
研究问题
- 什么因素影响采用 AI 数字代理作为决策助手的意向?
- 什么因素影响采用 AI 数字代理作为委托代理的意向?
提出方法
本研究采用了偏最小二乘结构方程建模 (PLS-SEM) 和模糊集定性比较分析(fsQCA)来考察影响采纳意向的因素。
创新点
- 使用认知、情感和社会信任探索信任。
- 社会信任会影响用户的情感和认知信任。
- 人工智能(AI)服务质量对认知信任有影响。
- 数字代理的感知有用性对情感信任有影响。
- 研究使用PLS-SEM 和fsQCA 进行数据分析。
结论
PLS-SEM 的研究结果表明:
- 感知 AI 质量会影响认知信任。
- 感知有用性影响情感信任。
- 社会信任对认知和情感信任都有影响。
对于采用AI作为决策辅助的意愿:
- 情感和认知信任都是重要的因素。
对于采用AI作为委托代理的意愿:
- 社会、认知和情感信任都发挥着重要作用。
fsQCA 的研究结果表明,结合 AI 质量、感知有用性和信任(社会、认知和情感)最好解释了采用AI作为决策辅助和委托代理的意图。
原文链接
https://www.sciencedirect.com/science/article/pii/S2949882124000549
直播电商中的期望偏差与用户流失行为:探索人类与虚拟主播的互动
研究问题
- 期望违背理论如何解释人类与虚拟主播之间的互动?
- 在使用AI赋能的数字人在直播电商平台互动时,哪些因素导致用户的流失?
提出方法
该研究采用定性研究方法,通过对在线论坛讨论和定期与虚拟主播在直播电商环境中互动的用户进行访谈来进行分析。主要的方法论框架是期望违背理论(EVT),用于理解偏离预期社会规范如何影响人类行为。
创新点
- 将EVT应用于解释人类与AI赋能的数字实体之间的互动。
- 确定了具体因素,这些因素在涉及虚拟主播的直播电商平台中影响用户留存。
- 提供了由虚拟主播引发的意外事件或行为触发流失行为的心理机制见解。
结论
研究表明,期望违背在塑造人类与如虚拟主播等AI赋能数字人的互动方面起着重要作用。当用户的关于社会规范和互动的预期未被满足时,他们更有可能停止参与。导致用户流失的关键因素包括缺乏个性化服务、意外的技术故障以及偏离既定互动协议。
该研究突出了设计符合用户期望的AI系统的重要性,同时允许根据多样化的用户需求和偏好进行灵活调整。此外,它强调了对人类与AI交互的持续研究,以增强用户体验并促进数字商业环境中的长期参与。
原文链接
https://www.mdpi.com/2076-328X/14/10/920
患者指导与远程护理中的AI和AR技术应用
研究问题
如何通过人工智能(AI)和增强现实(AR)技术提升患者护理质量以及医疗专业人员的教育培训效果?
提出方法
本研究引入了一种基于AI和AR技术的机器人助手,该系统利用自然语言处理(NLP)和机器学习技术为个性化指导提供支持。具体来说,此机器人能够执行以下任务:
- 通过电视显示器展示数字人类化身实现互动性教学及患者引导功能。
- 开发沉浸式AR模拟以应用于现实世界情境中的医疗训练与实践操作。
- 提供校园内导航服务,帮助患者高效访问医疗服务设施和服务。
创新点
- 引入基于AI和AR的机器人用于医学教育。
- 利用NLP和机器学习进行个性化教学指导。
- 开发沉浸式AR模拟以应用于现实世界情境。
- 通过电视显示器集成互动患者引导功能。
- 提供校园内导航服务,帮助患者高效访问医疗设施和服务。
- 增强远程护理能力,提升监测和支持效果。
结论
本章探讨了AI和AR技术在提高患者参与度、满意度以及整体服务质量方面的重要作用。通过整合这些先进技术,未来的研究与发展将能够进一步优化医疗服务交付与培训效率,并显著改善患者的体验质量。
原文链接
https://www.igi-global.com/viewtitle.aspx?titleid=357958
超大规模预训练模型的性能优化研究
研究问题
如何在保持超大规模预训练语言模型高性能的同时,降低其计算和存储成本?具体而言,本文探讨了以下几个方面的问题:
- 如何通过参数量化技术减少模型所需的内存大小?
- 是否有方法可以加速模型推理过程而不影响准确性?
提出方法
为了优化超大规模预训练模型的性能,研究者提出了一种结合参数量化的策略。该策略包括以下步骤:
参数量化
利用混合精度的方法(例如浮点数与定点数相结合)对模型中的参数进行处理,以减少内存使用。
- 选择适当的量化比特位数。
- 对于需要高精度的部分采用更高精度的数值表示。
创新点
本文的主要创新之处在于:
- 提出了一种结合混合精度量化的优化方法,有效减少了超大规模预训练模型所需的存储资源和计算开销。这种方法通过使用较少内存的参数表示形式,并且对推理速度进行了显著提高。
- 该策略不仅适用于单个模型,还可以推广到其他类型的大规模机器学习任务中。
结论
本研究证明了混合精度量化技术在优化超大规模预训练语言模型性能方面的有效性。实验表明,在保持准确率的情况下,通过采用本文提出的方法可以大幅减少计算资源的需求,并且加速推理过程。这为实际部署这些大型模型提供了新的可能性,特别是在边缘设备上运行此类任务时尤为重要。
原文链接
https://www.sciencedirect.com/science/article/pii/S1532046424001527
支持能源政策研究的大规模语言模型:风能选址条例案例研究
研究问题
随着美国可再生能源发展的快速增长,可再生能源选址条例也出现了同步增长。这些分区法规在决定风电和太阳能资源的位置方面起着关键作用,对于实现低碳能源未来至关重要。在这种背景下,高效访问和管理选址条例数据变得十分必要。
提出方法
本文提出了一种利用大规模语言模型(LLMs)从法律文件中自动提取选址条例的方法,以确保该数据库能够及时更新准确的信息。研究的一个新颖贡献是将决策树框架与LLMs结合使用,实验结果显示这种方法的准确性在85%至90%之间,并且可以直接用于后续定量建模。
创新点
- 引入了自动化方法,利用大规模语言模型从法律文件中提取可再生能源选址条例。
- 使用由大规模语言模型驱动的决策树算法,在选址信息提取方面实现了85%到90%的准确性。
- 显著减少了维护实时更新的能源选址法规数据库所需的手动劳动。
- 在整个能源领域内,具有自动化大规模政策研究的潜力。
结论
本研究表明,通过使用LLMs解锁法律文件的提取和分析的新效率,为自动化的大型规模能源政策研究开辟了道路。这项工作展示了未来支持类似的大规模政策研究的机会,并且在不断变化的能源政策景观中保持数据库准确性和及时性的能力。
原文链接
https://www.sciencedirect.com/science/article/pii/S2666546824000971
仿效与大型语言模型
研究问题
大型语言模型(LLMs)是如何进行仿效的,这对它们的语言理解意味着什么?
提出方法
提供的摘要中没有详细说明。研究可能涉及通过实验或理论方法来分析LLM的行为。
创新点
该论文提供了对机器学习系统在不具有真正理解的情况下模仿人类互动的新颖探索,重点是大型语言模型(LLMs)。
结论
根据摘要的结论,在人类中仿效可以被视为一种理解形式,但当由机器执行时,并不一定意味着真正的理解。尽管大型语言模型可能模拟出复杂的行为,但这主要是通过模式识别和数据驱动的方法实现的,而不是真正意义上的语言或认知理解。
原文链接
https://link.springer.com/article/10.1007/s11023-024-09698-6
生成式大型语言模型解析
研究问题
生成式大型语言模型是如何工作的,它们在推进技术进步以造福人类方面的应用有哪些?
提出方法
本文概述了生成式大型语言模型的架构、训练过程及方法,并通过多个案例研究展示了这些模型的实际应用。
创新点
- 对生成式大型语言模型相关的复杂技术概念进行全面解释。
- 通过实际示例展示这些模型对技术进步的真实世界影响。
- 讨论该领域的伦理考量及未来研究方向。
结论
生成式大型语言模型在人工智能领域代表着重大进展,提供了前所未有的自然语言处理和生成能力。它们具有巨大的潜力,可以改变各行各业,通过提高人机交互的复杂性和增强基于数据的决策过程来实现这一目标。