• 全国 [切换]
  • 【八方五金网】-免费发布分类信息

    扫一扫关注

    当前位置: 首页 » 新闻 » 科技 » 正文

    AI冒充人类让聊天更走心

    放大字体  缩小字体 发布日期:2025-07-01 22:03:25    评论:0
    导读

    6月30日发表于《自然-人类行为》的一项研究指出,人类倾向于拒绝来自人工智能(AI)对话机器人的情绪支持,除非这种同理心被误认为来自人类。生成式AI对话机器人,尤其是使用大语言模型(LLM)的对话机器人,自面向公众以来,受欢迎程度日益上升。

    6月30日发表于《自然-人类行为》的一项研究指出,人类倾向于拒绝来自人工智能(AI)对话机器人的情绪支持,除非这种同理心被误认为来自人类。

    生成式AI对话机器人,尤其是使用大语言模型(LLM)的对话机器人,自面向公众以来,受欢迎程度日益上升。它们可以与用户进行社交互动并给予情绪支持。

    此前研究显示,LLM驱动的工具能确定使用者的情绪状态,而且它们的回应也被看作具有同理心和共情能力。不过,之前并不清楚来自对话机器人的支持是否和来自人类的支持具有相同的效果。

    在这项研究中,以色列希伯来大学的Anat Perry和同事发现,相比被认为来自人类的支持,AI生成的支持会被视为缺乏同理心,除非那些AI生成的回复被标记为来自人类。

    研究人员开展了9项研究,给6282名受试者看了AI生成的回复,并告知他们有些回复是人类写的,有的是AI对话机器人写的。Perry和共同作者观察到,虽然受试者评价他们收到的回复富有同理心,但对他们以为交流对象是人类的回复评价更高。

    相比来自AI的即时回应,受试者更愿意等待他们以为来自人类的回复。作者还发现,相比标记为AI生成的回复,受试者以为的来自人类的回复能唤起更多的正面感受,如慰藉、认可、幸福、被理解,以及更少的负面感受,如感到焦虑、生气、痛苦或烦恼。当受试者认为人类在构思回复时使用了AI协助,那他们对同理心、积极共鸣、正面情绪和支持的评分都更低。

    这项研究结果表明,AI对话机器人提供的支持可能存在局限性。尤其是在期待同理心或情绪支持时,人们可能更看重来自人类的回复。不过,由于研究中的交流很简短,今后需要进一步研究AI工具在长期情绪支持交流中的使用和接受度。

    相关论文信息:10.1038/s41562-025-02247-w

     
    (文/小编)
    打赏
    免责声明
    • 
    本文为小编原创作品,作者: 小编。欢迎转载,转载请注明原文出处:/news/show-694808.html 。本文仅代表作者个人观点,本站未对其内容进行核实,请读者仅做参考,如若文中涉及有违公德、触犯法律的内容,一经发现,立即删除,作者需自行承担相应责任。涉及到版权或其他问题,请及时联系我们。
    0相关评论
     

    (c)2016-2021 SOQUANMAO.COM All Rights Reserved搜全贸版权所有 浙ICP备16017970号-3

    浙ICP备16017970号-3