导语:
修改发表于2025年02月28号 06点 阅读 11227 评论4 点赞15 ©著作权归作者所有
AI奇闻:冒牌心理治疗师
冒牌的事,从来不鲜见,但随着科学技术的发展,特别是AI的出现和成熟,冒牌又有了新的套路和方法。利用AI聊天功能,冒牌成“心理治疗师”,就是新出炉的一款。
美国心理协会首席执行官埃文斯(Arthur C. Evans Jr.)最近披露了两起案件,两个青少年在网上咨询了人工智能的“心理学家”。即一款允许用户创建虚构的人工智能角色或与他人创建的角色聊天的应用程序。聊天机器人假扮为心理治疗师,声称拥有斯坦福大学等名校的学位,并进行过特定心理治疗的专业训练,例如认知行为疗法(CBT)或接纳与承诺疗法(ACT)。聊天以后的结果是,一名来自佛罗里达州的14岁男孩在与一个自称为执业心理治疗师的AI角色互动后选择结束自己的生命;另一名17岁的得克萨斯州患有自闭症的男孩在与AI聊天机器人沟通后,与父母疯狂敌对,以暴力相向。
英语中新出现一个尚未收入辞典的新词,叫“chatbot”,就是AI聊天机器人。这些机器人发出的声音柔和亲切,内容直指人心,这是因为“她”(以女性身份出现为多)有高端的语音模拟设备支撑和强大的后台数据支持。但问题是,目前的这些机器人,一般都被设计成不会主动挑战用户的认知,反而顺应对方真人的讲话,即俗话说的“顺着杆子往上爬”。因此,在听到对方某种想法时,“chatbot”往往会加以鼓励。这样,用户原有的不良信念和不健康心理就可能被加强,不但纠不了偏(真正的人类医师有心理纠偏的责任),还容易被引上极端。
人性的弱点就是喜欢听与自己观点相同的话,而目前这些聊天机器人“它们实际上使用的算法与训练有素的人类临床医生的做法背道而驰。”聊天机器人这样做的目的,当然是为了更好吸引和留住客户——资本盈利本性的力量在起作用。当然,有的则是因为当前AI技术还没有达到人类心理医师应有的更高程度。如果人类心理治疗师像“chatbot”这样做,发现用户的不健康心理不纠偏,对错误甚至危险的信念不纠正,发现后一定会被吊销执照,取消从业资格,甚至要对后果承担民事或刑事责任。而“chatbot”声称自己的执照和从业资质,谁去认证、监管呢?这就是社会管理中亟需解决的新问题。
当然,AI聊天机器人现在的这些问题,今后一定会完善、走上轨道的。不过,当下在使用AI时,要特别当心,尤其是渴望心理慰藉的老年人,更要避免上当受害。
参阅资料:
https://www.seattletimes.com/nation-world/human-therapists-prepare-for-battle-against-ai-pretenders/
https://fanyi.so.com/?src=onebox#American%20Psychological%20Association%20sounds%20alarm%20over%20certain%20AI%20chatbots
https://www.zaobao.com/realtime/world/story20250226-5934309
联系阅读:
请选择你想添加的收藏夹