掌上金普
掌上金普
当人工智能重构着人与世界的连接方式,一系列新的心理谜题正摆在人类面前:算法推荐如何塑造认知偏向?人机互动怎样改写情感发展规律?技术伦理背后又潜藏着哪些未被察觉的心理风险?
在北京家庭教育研究会2025年会员大会暨“AI时代的儿童发展与家庭教育”研讨会上,中国人民大学教育学院教授雷雳作《人工智能:心理学家要解决什么问题?》主题报告。
雷雳教授介绍了AI技术在交互方面的主要研究方向及ChatGPT在教育中的应用潜力,分析了生成式AI对人造成的潜在影响及社会伦理问题,并提出了相应的研究重点,以使AI更好满足人类的各方面需求。
01
技术基础
1.雾计算与边缘计算技术
雾计算与边缘计算技术已在学习分析领域得到了大量研究。有研究者探讨了这些去中心化计算技术如何通过就近数据处理机制,有效缓解集中式云存储带来的安全风险。发现雾计算与边缘计算展现出变革学习分析领域的巨大潜力。
然而,该领域仍然面临一些挑战,未来研究可以从以下方面进一步展开:
未来研究应着力构建安全可靠的架构体系与政策框架,以充分发挥雾计算与边缘计算在教育领域的应用价值。
未来研究应致力于开发综合性技术框架,系统解决教育场景中雾计算与边缘计算的技术实施与伦理规范问题。
2.对话代理技术
随着对话代理技术与研究的持续发展,学界对涉及人际关系、情感体验与自我认知等深层次心理学研究的诉求日益迫切。
据此,有研究者全面梳理了对话代理(如聊天机器人)的研究现状,揭示了当前对话代理研究面临的主要挑战,包括高质量对比研究匮乏等问题,并为未来研究指明了方向:
未来亟需多领域开展有效性验证,尤其在孤独感干预、精神症状缓解、生活质量提升及幸福感促进等方面。
未来需加强针对非临床青年群体心理健康及神经发育障碍的研究,以平衡当前过度聚焦老年群体的现状。
未来需突破自然语言处理技术瓶颈,使对话代理具备满足陪伴型机器人及娱乐代理预期的双向沟通能力。
未来需推进聊天机器人及社交辅助机器人与患者监护系统、实时评估技术、虚拟现实及增强现实的整合,开发新型辅助技术及用户体验模式。
02
交互与应用
1.交互式人工智能
研究和社会越来越关注如何让人类积极参与人工智能系统的开发、操作和应用。尽管存在这种关注,但现有研究往往忽视了更具影响力的用户与人工智能系统的交互形式。
据此,有研究者通过回顾以人为中心的人工智能研究的最新进展来弥合这一差距,深入探讨了交互式人工智能,并指出未来研究方向:
未来研究应继续致力于让人工智能围绕人类运转,而不是相反。
未来需要对生成内容背后的解释付出更多努力,可以考虑在生成式人工智能中引入交互性,并探索其可能性。
未来研究还可以探索在不同用户情境下,适合人工智能系统的交互类型的有效性。
2.chatGPT的教育潜力
ChatGPT作为一款尖端人工智能聊天机器人,其教育应用潜力引发广泛关注与争议。据此,有研究者在整合既往系统性综述提出的优势、劣势、机遇和威胁(SWOT)分析基础上,揭示了ChatGPT对学习参与度的复杂影响机制。
然而,当前研究仍存在参与指标探索不足等问题,建议未来重点聚焦于以下几个方面:
未来研究应明确标注ChatGPT在实验中的具体应用情境(如课程类型、互动形式),从而深化对其在不同学习环境中提升学生参与度机制的理解。
未来应拓展至计算机科学、商科、数学等学科领域及中小学基础教育阶段等多样化教学场景开展研究。
未来综述应聚焦长期追踪研究,系统考察ChatGPT使用时长对学生参与度的持续影响效应。
03
认知影响
1.生成式人工智能的认知影响
生成式人工智能被广泛用于减轻认知负担,帮助用户完成复杂任务。但人工智能用户可能难以准确评估自己在任务中的贡献,导致一定的认知偏差,如安慰剂效应和幽灵作者效应。
有研究探讨了生成式人工智能在教育和认知过程中的作用,以及它如何影响用户的能力认知、归因和伦理判断。未来该领域还可以从以下方面开展研究:
现有研究发现由于人工智能生成的文本难以检测,教育界面临学术诚信挑战。未来研究应探讨如何建立清晰的归因标准,例如提供更详细的贡献声明。
现有研究发现人工智能可能会导致个体对自己的能力出现认知偏差,未来研究应探讨如何减少人工智能引发的能力错觉,让用户正确评估自己的贡献和实际能力。
现有研究对人工智能对创造力的影响存在争议,未来研究应该更细致的探讨在什么条件下人工智能能够提升用户的创造力。
2.辨识人类与人工智能的神经机制
人类的存在感对社会互动至关重要,能够察觉他人的存在是生存和繁衍的必要条件。过往研究已识别出与社会认知相关的大脑网络,这些大脑网络在处理人类相关的信息时更为活跃。然而,研究尚未发现人类如何辨别人类与人工智能。
一篇综述研究对比了面对人类与人工智能时,个体社会认知和决策的大脑活动模式,揭示了人类如何在社会互动中区分人类与人工智能。未来该领域还可以从以下方面开展研究:
未来研究需要在社会知觉和决策之外的心理领域进行进一步的研究,以进一步阐明人类和人工智能存在的大脑相关性。
未来研究需要进一步探讨大脑对人工智能的反应是否会随着人类对人工智能使用经验的增加而改变。
现有研究尚不清楚从生命早期开始与人工智能交互会对个体发展产生怎样的影响,未来研究应进一步探讨如果从生命早期开始与人工智能交互,大脑是否会以同样的方式继续区分人类和人工智能。
现有研究尚不清楚人类与人工智能的区别在大脑中是如何随时间变化的,未来研究应进一步探讨人类和人工智能之间的区别是否会随着人类的不断进化而在大脑中逐渐淡化或消失?
04
社会伦理
1.对话式人工智能的隐私、安全与信任感
对话式人工智能系统(包括语音与文本助手)正快速普及并融入人们的日常生活中。尽管应用广泛,用户仍对其隐私、安全与信任问题存有顾虑。
据此,有研究者梳理了对话式人工智能系统中隐私、安全与信任感知的研究现状。然而,综合探讨三者感知关联的文献极为有限,未来研究可以从以下方面进一步展开:
未来研究可探索尚未覆盖的应用领域,例如考察公共部门或公共场所中用户对对话式人工智能系统的感知。
未来研究需在不同应用场景中开展多元化调查,以更精准地理解用户隐私、安全与信任感知的情境化特征。
未来研究可对对话式人工智能领域的多种隐私、安全及信任感知量表进行横向对比与效度检验,系统评估其适用性。
2.人工智能的道德地位
人工智能具有越来越先进的认知和社交能力。人工智能的快速发展提出了一系列重要的道德心理学问题。有研究分析了人工智能的道德心理学,探讨了人们是否将人工智能视为道德主体和道德受体,以及影响这种认知的因素。
未来该领域还可以从以下方面开展研究:
现有研究尚不清楚人工智能体验能力与代理能力之间的关系,未来研究应进一步探讨人工智能的体验能力和代理能力之间的关系,以及它们如何共同塑造人们对人工智能道德主体和道德受体的归因。
未来研究应对于人类对不同类型的人工智能(如类人机器人、机械机器人、决策算法、自动驾驶汽车等)的道德判断进行比较研究,以揭示其中的相似性和差异性。
现有研究尚不清楚惩罚对于人工智能的作用,未来研究应进一步探讨人们认为何种惩罚方式能使人工智能从错误中学习,何种惩罚在道德上是可接受的,以及惩罚能否对人工智能起到报复和威慑作用。
3.年龄数字鸿沟
全球人口老龄化与数字技术的迅速普及共同促成了技术使用中的年龄相关数字鸿沟。有研究者指出,要想真正促进改变,既需要针对老年用户本身进行干预,也需要改进产品设计,如融合人工智能与扩展现实技术的适应性技术系统。
未来研究可从以下几个方面进行拓展:
无限的资源与先进的干预方式是否能彻底消除年龄相关的数字鸿沟尚不确定,个体层面的因素(如随年龄增长而出现的学习速度下降)以及社会层面的因素(如技术扩散速度的加快)似乎都预示着这一数字鸿沟将在未来几十年内仍是重要挑战。
相关研究人员应继续整合并发展系列工具、方法与模型,以探究各年龄段个体获取现有及新兴技术的益处,这有望缩小数字鸿沟,并在老龄化世界中提升数字公平性。
人工智能还只是初步阶段,有巨大发展空间。心理学家要关注这些问题,推动技术围人转而不是人围技术转。未来已来,伦理问题必须积极应对。
Copyright©2022 Neusoft. All rights reserved.
1点击右上角···
2选择在浏览器中打开