AI剧情聊天在青少年中走红,专家呼吁加强引导
AI导读:
AI剧情聊天在青少年中走红,但部分软件中充斥着违背公序良俗、涉嫌违法违规的言论,危害青少年身心健康。专家建议家长和老师携手筑牢防线,加强引导,为青少年守护一方清朗的网络天地。
在人工智能技术日新月异的今天,AI已深入医疗、金融等多个领域,以其高效和精准的特点重塑行业生态。与此同时,AI聊天功能也在不断进化,各大科技公司竞相推出沉浸式、多元化的聊天体验。然而,AI剧情聊天在青少年群体中的流行却引发了一系列问题。部分软件中充斥着违背社会公德和法律法规的内容,对青少年的身心健康构成了严重威胁,这一现象亟待引起家长和老师的重视,共同为青少年构建一个清朗的网络环境。
近期,一则关于小学生沉迷AI剧情聊天的新闻引起了广泛关注。一名网友反映,自己10岁的妹妹沉迷于和AI角色进行剧情聊天,并在聊天中提出了暴力等不当要求。这一事件揭示了AI剧情聊天在青少年中可能带来的负面影响。
为了应对这一问题,中央网信办发布了《全球人工智能治理倡议》,明确提出发展人工智能要秉持“智能向善”的宗旨。同时,一些AI软件也开始实施年龄确认等安全措施,如星野AI扮演软件和国外的Grok AI聊天机器人。
AI科技博主、培训师梁音指出,AI剧情聊天软件大多利用开源大语言模型进行微调,而闭源大语言模型的安全性相对较高。他建议家长应先接触了解AI技术,成为深度使用者后才能对AI技术作出评价,并引导下一代正确使用AI。
广东冯大律师事务所律师刘丽冬表示,根据《中华人民共和国未成年人保护法》,网络平台有责任保护青少年的身心健康。她认为,网络平台应完善保护未成年人机制,学校应增加新的法制教育内容,家长则需了解新鲜事物的特点及风险,履行监管和陪伴责任。
广州白云心理医院心理咨询师李敏敏从心理学角度分析了青少年沉迷AI剧情聊天的原因,包括家长、同伴、老师陪伴需求的缺失、青少年追求成就感和自我实现、沟通成本低以及追求快感等。她认为,AI聊天是一把双刃剑,家长和老师应做好价值观层面的引导,帮助青少年正确看待和使用AI。
针对青少年沉迷AI剧情聊天的问题,李敏敏建议学校老师应开展相关主题班会或心理教育活动,培养青少年的沉迷觉察意识。家长则应填补孩子的情感需求空缺,限制孩子使用手机和AI剧情聊天的时间,并观察孩子是否遇到困难。同时,家长可以通过组织家庭会议等方式增进亲子关系,引导青少年从虚拟世界回归现实生活。
(文章来源:信息时报,图片来源于网络)
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。