
有人连续熬夜与AI聊天至凌晨,最终走进了医院。有媒体报道,某地医院接诊了一名因沉迷与AI聊天而影响正常生活的患者。
患者自述,近期家庭、事业双双受挫,在与某AI模型聊天时,发现对方总能给予正反馈。此后连续多日恒正网配资,聊到凌晨3点,常常“一边哭一边打字”。后来聊天内容频繁触及平台限制,他愈发焦虑,最终选择就医求助。
“它很懂我,既能帮我分析问题,又能接住我的情绪。”如今普通人“遇事不决,先问AI”已成趋势,越来越多人习惯在做决定前向AI咨询。无论是工作事业、爱情生活,还是算命、养生等领域,都有人向AI大模型求助。
有心理咨询师表示,AI的反馈多为肯定性及正向回应,这会让人产生依赖错觉;部分模型为留存用户而设计的“谄媚倾向”,更易放大这种依赖。AI背后的庞大数据库源自互联网公共信息,给出的答案有时会超出普通人的认知,能在迷茫中提供中肯思路恒正网配资,却也容易让人产生依赖。
然而,除了依赖问题,AI还存在诸多“幻觉”问题。美国曾发生一起案例:一名60岁男子依赖ChatGPT获取养生建议,误信其用溴化钠替代食盐的说法,最终因溴中毒住院。
精神医学专家分析,当前的大型语言模型就像一面“回声镜”,会持续强化用户已有的想法。若本身持有固执理念,这种“回声效应”可能将人推向极端。换句话说,AI并非“有意害人”,但在用户缺乏质疑精神的情况下,其生成的错误信息确实可能加速一个人走向危险。
从技术层面来看,AI引发的沉迷及“幻觉”问题尚未完全解决。除了依据2025年9月实施的《人工智能生成合成内容标识办法》加强AI监管外,还应优化AI生成内容的提示机制。此外,需进一步推广医学等专业领域大模型的应用,健康养生的相关问题,应引导用户优先选择垂直领域专业模型而非通用大模型寻求答案。
此外,还需明确一个共识:涉及健康与生命安全的决策,切勿盲目依赖AI,务必听取专业意见、核查可靠证据。AI可解一时之惑,但难抵内心之困;人工智能可做实践的参考恒正网配资,不过切勿用来导航人生的主路。
恒汇证券提示:文章来自网络,不代表本站观点。