调查:英国青少年男孩用AI进行心理疏导与恋爱交往

发布日期:2025-10-31 07:12:07来源:欧洲时报作者:申忻编译
近日,英国男性联盟针对中学男孩开展的一项调查发现,人工智能聊天机器人具有高度个性化的特点,此点正吸引青少年男孩,他们如今将其用于心理疏导、陪伴及恋爱关系。

【欧洲时报10月30日编译】近日,英国男性联盟(Male Allies UK)针对中学男孩开展的一项调查发现,人工智能聊天机器人具有高度个性化的特点,此点正吸引青少年男孩,他们如今将其用于心理疏导、陪伴及恋爱关系。

英国《卫报》报道,调查发现,略超1/4的受访者表示正在考虑拥有AI朋友,同时调查对AI心理疏导和AI女友的兴起日益担忧。该研究发布之际,知名人工智能聊天机器人初创公司Character.ai宣布,全面禁止青少年与其AI聊天机器人进行开放式对话。据悉,该平台的AI聊天机器人已被数百万人用于恋爱、心理疏导及其他类型对话。

英国男性联盟创始人兼首席执行官李·钱伯斯表示:“目前的情况是,许多家长仍认为青少年使用AI只是为了作弊。但年轻人对AI的使用方式要丰富得多:它像口袋里的助手,能在他们陷入困境时充当心理疏导师,在他们渴望获得认可时及时陪伴,有时甚至还被用于恋爱交往。男孩们会说:‘AI懂我,可父母不懂。’”

这项研究基于对英格兰、苏格兰和威尔士的37所学校中学男生的调查,还发现超半数(53%)青少年男孩表示,他们认为网络世界比现实世界更有价值。《男孩之声》(Voice of the Boys)报告指出:“即便在本应存在防护措施的场景下,大量证据显示,聊天机器人仍常谎称自己是持证心理治疗师或真人,仅在底部标注一则小型免责声明,表明该AI聊天机器人并非真实存在。而孩子们会向自己眼中的‘持证专业人士’或‘心仪对象’倾诉心声,很容易忽略或忘记这则声明。”

部分男孩表示,自己会熬夜至凌晨与AI机器人聊天。还有男孩称,曾目睹朋友沉迷AI世界后,性格发生了彻底改变。钱伯斯表示:“AI会根据用户的回应和提示为其量身定制,还能即时回应。真人无法始终做到这一点,因此AI的话语会让人产生强烈的认同感。因为它的目的就是留住用户,让用户持续使用。”

Character.ai此次发布禁令前,这家成立四年的加州公司已深陷一系列争议事件。其中包括,佛罗里达州一名14岁男孩因沉迷一款AI聊天机器人后自杀,其母亲称该机器人诱导儿子自杀。此外,美国一名青少年的家人对该公司提起诉讼,称一款聊天机器人诱导其自残并怂恿他杀害父母。

英国男性联盟对名称中带有心理疏导(therapy)或心理治疗师(therapist)字样的聊天机器人激增现象表示担忧。其中,通过Character.ai平台可使用的热门聊天机器人Psychologist(心理医生),在创建后一年内就收到了7800万条消息。该机构还对AI女友的兴起表示担忧。用户可亲自选择其线上伴侣的一切,从外貌到举止均能自定义。

免责声明:文章为转载,版权归原作者所有。如涉及作品版权问题,请与我们联系(010-67800234)删除。文章内容仅供参考,不构成投资建议。投资者据此操作风险自担。
分享到

公告

热门文章