site logo: www.epochtimes.com

ChatGPT推新功能家长监控 学者:效果有限

一名少年在与ChatGPT交谈后自杀身亡,OpenAI被指控防护机制不足。示意图。(Shutterstock)
人气: 50
【字号】    
   标签: tags: , , , ,

【大纪元2025年09月08日讯】(大纪元记者庄瑷筠台湾台北报导)近日,ChatGPT因遭控鼓励16岁青少年轻生,宣布将推出家长监控功能。对此,学者认为,效果应该有限,应该透过强化AI素养教育,帮助青少年认识哪些问题适合用AI来解决,并提供多元的心理支持管道,当有足够的求助途径,自然就不会只依赖AI。他也强调,科技可以提供解决方案,但无法取代人类的参与和监管。

ChatGPT。示意图。
ChatGPT。示意图。(宋碧龙/大纪元)

美国一名16岁青少年与ChatGPT聊天后轻生,家长因此提告,成为首起指控OpenAI过失致死的诉讼。根据《法新社》报导,OpenAI表示,将于未来一个月内推出家长监护功能,包括串联亲子账号、设定年龄限制回应规则等,当系统侦测到青少年处于极度痛苦时,也会即时通知家长。

根据国教院调查显示,台湾有七成国中生每周使用生成式AI约1到2次,主要用途包括写作业、制作图片影片、聊天等,另有6.8%学生则是每天使用。教育部虽持续推动AI教育向下扎根,但学生正值价值观与思辨能力养成的关键期,家长、教师无法全天候监管,如何让青少年健康安全使用AI成为一大挑战。

生成式AI顺其负面情绪产出

成功大学社会科学政治学系助理教授王祎梵向《大纪元时报》表示,ChatGPT生成式AI,并非为了解决特定问题如心理健康议题而设计的;其背后算法的运用原理是根据你输入的内容,去猜测使用者想要得到的答案或方向,若使用者一直表达出负向、悲伤的情绪,且没有试图寻找正向的解方,可能就导致生成式AI顺应其负面的倾向不断产出相关内容,成为恶性循环,就会导致这类悲剧的发生。

开发团队应设计阻拦机制

王祎梵强调,尽管AI可以透过训练强化学习,但要追上人类的思想复杂度还是很困难的,过去在网路或社群媒体兴起时,也曾引发青少年心理健康问题或资讯判断力不足等问题,如今换成AI。科技发展能提供解决方案,但无法取代人类的参与和监管,尤其是在涉及伦理道德问题时。他认为,开发生成式AI的团队应该要有专门处理伦理道德问题的委员会,并在算法中设计相关阻拦机制。

强化AI素养教育与支持管道

针对OpenAI推出的家长监护机制,王祎梵说,很多时候青少年就是因为不想与家长聊情绪问题,才会找AI,聪明的青少年也会想办法绕过这些机制,实质上效果应该很有限。

王祎梵提供二个建议,首先是AI素养教育,要让学生知道哪些问题适合用AI来解决,例如写作业,而生涯规划或情感困扰,还是得找师长或家长来协助;再来是建立实体支持管道,在家庭、校园中提供更多元的心理协助,当有足够的求助途径,自然就不会只依赖AI。

他并补充,家长与教育单位应亲身体验AI使用方式,理解正负面影响,再设计因应措施,这个过程不应该只着重于工具本身,而是要以解决问题为导向。

责任编辑:吕美琪

评论