心理医生一个小时的费用是多少,晨意帮忙丨女子网上找心理咨询师3年花18万:我被诱导消费了吗?平台:签过和解协议
2017年,甘肃市民刘女士想找一位心理医生做辅导。通过“给力心理”APP上一位心理咨询师王某,到2020年通过APP一共交了18万多元咨询费。
值得一提的是,这三年刘女士从来没和王某见过面,仅通过APP保持。刘女士说,这期间王某时常称她“亲爱的宝宝”,在王某要求下,她称对方“老妈子(妈妈)”,刘女士觉得王某和她“东聊西聊,就是不做心理咨询”。
近日,刘女士通过今日头条“头条帮忙”长沙频道向晨意帮忙求助,认为自己受到诱导消费,希望平台能退还她18万咨询费。“我和我老公已经离婚了,我一个人在长沙带小孩,很辛苦。”
平台方法定代表人尹先生回应称,早在2021年,平台方和咨询师以及刘女士达成三方和解,补偿了她8000元。尹先生说:“按照我们在和解协议中的约定,刘女士现在的做法已经违约。如果她有什么地方不服,可以通过法律途径解决。”
与男性心理咨询师互称“妈妈和宝宝”?甘肃女子三年花掉18万咨询费
甘肃市民刘女士今年34岁。2017年,由于和丈夫多次争吵,感到心力憔悴的她想找一位心理医生做心理辅导。她在网上搜索时,被偶然推送的“给力心理”APP吸引并将其。
后,刘女士通过APP认识了一位心理咨询师王某。刚开始时,刘女士对王某并不感兴趣,但王某最终成功获得了刘女士的信任。刘女士说:“我没购买咨询服务时,他就一口一个宝宝,还给我发爱心,玫瑰,等带有感情暗示的表情,让我对他产生倾诉的冲动。”
刘女士说,三年下来,她和王某的互动非常频繁,且都是通过“给力心理”APP购买咨询服务进行互动。“不买咨询服务的话,他的回复很冷淡,一般就是‘哦’,‘嗯’等字眼。购买服务后,他就变得很热情,有时还会主动发一些我家乡的食品和景点照片,搞得跟他马上就要过去一样,让我有更多想和他进行交流的想法。他还跟我说,心理咨询师就像客户的妈妈,因此我喊他老妈子,他喊我宝宝。”
截止到2020年,刘女士一共在平台上花了18万余元咨询费。刘女士说,感觉3年下来王某和她“东聊西聊,就是不做心理治疗”。
2023年4月23日,刘女士告诉晨意帮忙:“我家里人知道我花了18多万元后,把我从家里赶了出来,也不给我钱了。目前我和老公也离婚了,一个人带小孩。”
平台回应:2年前曾达成和解,心理咨询师未正确处理“移情”
4月23日,晨意帮忙陪同刘女士来到给力心理APP所属的长沙给力信息技术有限公司。法定代表人尹先生表示,早在2021年,他们已经和刘女士达成了一份和解协议。
尹先生出示了一份签订于2021年3月8日的三方仲裁和解协议。在这份协议中,三方愿意达成和解,王某向刘女士做出道歉并赔偿8000元精神损失费,刘女士则不再就此事继续追究平台方和王某的任何责任。平台方同时给刘女士提供5万元优惠券等其他服务。
在这份协议中,平台方认为:王某没有正确处理好刘女士的“移情”。对此,尹先生解释说:“移情是心理咨询的一个术语,用比较通俗一点的话来解释这个事情,就是刘女士在和王某进行过交流后,产生了移情,觉得王某是自己的父母,因此她才会喊王某为老妈子。王某作为心理咨询师,和刘女士只能是客户关系,如果客户出现这种情况,王某应该及时制止。因此我们才判定王某没能正确处理好移情,而不是王某出现了和她(刘女士)在谈网恋或者是PUA她的情况。”
尹先生说,平台会对入驻的每一位心理咨询师的身份信息进行严格核查。“此前刘女士多次去有关部门投诉我们,我们把平台每一位心理咨询师的资料都打印了出来,如果有问题,我们早就停止营业了。入驻平台的心理咨询师,至少要有三年从业经验,并且提供身份证,手写字条和相关执照。如果有人盗用他人信息在平台上注册,我们发现了会将其销号,并追究法律责任,不会纵容这种行为。”
尹先生同时透露,刘女士此前在平台上的钱并不是全部都花在了王某身上。“她在平台上除了王某,还找其他几名咨询师。之前协商的时候,她也没像今天这样,将矛头对准我们平台。”
对此刘女士表示,此前她认为自己被王某所欺骗,因此找了几位其他心理咨询师。
尹先生表示,如果刘女士认为自己的权益受到侵犯,可以通过法律途径维护权益。对此刘女士表示,她准备通过法院起诉进行维权。
随后,刘女士现场拨打王某。当刘女士说出自己身份后,王某立刻将挂断。晨意帮忙表露身份尝试王某,截止发稿,未获回复。
律师:若咨询师诱导消费,平台可向其追偿
在本次事件中,存在几个焦点问题。刘女士该以怎样的名义去进行起诉,起诉主体又是谁?如果刘女士认为自己被诱导消费,需要提供怎样的证据报道据报道,近日越来越的案例中开始有患者把ChatGPT当心理师,然而专家警告将人工智能(AI)替代心理治疗存在风险。
报道称,可以说,人工智能已经站稳了脚跟。从最初的Siri、亚马逊智能家居“亚历克莎”等日常应用到最近的ChatGPT,都在表明这项技术在不断突破自我,如今已经能够执行直至不久前还只能由人类承担的任务。
专家担忧会带来风险
报道称,AI虽然在特定任务中强于人类,但在以我们的方式理解世界上仍存在困难。正因如此,一些专家对人们求助ChatGPT而非心理医生感到担忧。
这一切都发生在尚不清楚这类工具的触角将伸向何处的当下。近日,谷歌公司计算机科学家杰弗里·欣顿离开这家科技巨头,就是为了向世人警告,AI系统为人类带来了“生存风险”。
但是,有可能把ChatGPT当成一种机器人心理治疗师吗?
阿根廷精神病学家协会会长里卡多·科拉尔表示:“这是非常新的事物,正处于发展期,它的效度和准度显然还会得到大幅提高。”
对于把这类工具当作治疗手段,这位专家指出,虽然有报道称有人已经这样做,但人与人之间的直接接触在心理治疗过程中起着不小的作用。
科拉尔表示:“现在的情况是,许多人在疫情暴发和隔离措施实行后开始通过视频连线进行远程会诊,不少治疗师、精神病医生或心理医生仍采取这种工作方式。然而,很多人觉得不舒服。有一种我们称之为医患关系或者治疗关系的事物,它不容易被取代。换句话说,显然存在一个十分重要的方面,它与人际关系和关系本身有关,我们称之为移情问题。”
心理学博士弗拉维奥·卡尔沃同意科拉尔的观点,并强调说:“有两种类型的移情:情感移情和认知移情。”
“AI或许可以理解一些机制,但永远不会像人类一样体验情感”,它无法“将心比心”,而这种能力对良好的治疗效果至关重要。他接着说:“如果不是用人的灵魂去触碰另一个人的灵魂,那就不是治疗,而只是一系列冷冰冰的建议和可能性。”
专业护理的补充手段
报道称,对他而言,如果要找出AI在这方面的积极之处,那便是“这是一个可能被用来解决一个关键问题的事物,因为目前社会和社区对心理健康问题缺乏对策,所以AI对那些正遭受痛苦,且接触不到任何自然人、医生、治疗师、心理医生、精神病医生的人来说可能是救命稻草”。
包括ChatGPT、谷歌的“巴德”、微软公司的必应聊天在内,种种强大的通用聊天机器人都基于大语言模型。这种技术可以轻而易举地编造出乍听之下有理有据的信息。
然而,它们的设计初衷并非提供疗法,并且这类编程产品也不遵守人类治疗师所恪守的道德和法律准则。在目前的形式下,它们也没有办法跟踪向用户所提建议的实际执行情况。
研究情绪障碍的临床心理学家、堪萨斯大学教授斯蒂芬·伊拉尔迪说:“如果碰上病情较重的精神疾病患者,以它的能力还无法取代心理健康专业人士。”他指出,ChatGPT这种“赤脚医生”会造成“极高的风险”。虽说如此,他认为这个对话伙伴已经足够出色,许多人认可它是有用的。
伊拉尔迪提醒说,如今心理健康服务供不应求,如果具有适当保障措施,将ChatGPT改造为对专业护理的一种补充手段也未尝不可。
对于美国抱抱脸公司首席伦理科学家玛格丽特·米切尔来说,这些聊天机器人可用来帮助危机求助热线的工作人员增强应答能力。
但让她感到担忧的是,向聊天机器人寻求治疗的做法可能会导致盲目依从,从而加重自身的痛苦。她说:“即使有人觉得这项技术大有帮助,也不意味着它能把求助者引向一个好的方向。”
此外,米切尔认为,还需要注意它所涉及的隐私问题。她解释说,开放人工智能研究中心(OpenAI)会收集用户对话并将其用于训练,所以可能不太适合那些想谈论极其私密话题的人。
报道称,她说:“用户可以删除他们的账户信息,尽管这一过程可能需要4周之久。3月,在一些用户反映能够看到其他用户聊天记录的标题后,OpenAI以技术问题为由短暂关闭了ChatGPT。”
免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。