AI导读:

大三学生利用AI一周完成7000字结课报告,AI应用带来生产效率提升与作品相似度上升的矛盾,高校开始探索AI应用规范,AI时代人与AI深度合作,边界问题亟待厘清。

一篇长达7000字的结课报告,在一个大三学生的笔下,借助AI的神奇力量,仅耗时一周便顺利出炉,相较于以往,这一壮举至少为他节省了半数的宝贵时间。

随着ChatGPT向广大公众敞开怀抱,拥抱AI已成为一股不可阻挡的潮流。然而,这股潮流也引发了诸多争议,诸如是否应该使用AI、在哪些领域使用以及使用的程度等。

在AI的强力辅助下,众多研究人员与高校学生纷纷开始青睐于利用各类大模型来助力他们的学术之旅,从论文的润色到分析数据的代码编写,再到图表的制作,AI都展现出了其无与伦比的实力。

然而,随着AI渗透度的日益提升,一个不容忽视的问题逐渐浮出水面。老师们开始担忧,AI的广泛应用是否会在无形中削弱学生的原创能力。同样的情况也出现在其他行业中,AI辅助带来的生产效率提升与作品相似度上升之间的矛盾愈发凸显。

面对这一现状,边界问题无疑成为了我们不得不深入探讨的话题。以复旦大学为例,国内多所高校已经率先迈出了探索AI技术应用规范的步伐。对于AI在本科毕业论文中的使用,这些高校明确提出了“六个禁止”,旨在引导学生正确、合理地使用AI。

这些规范的存在,无疑为学生们在使用AI时提供了一盏明灯,让他们能够清晰地知道哪些环节是禁止的、哪些行为可能构成学术不端以及哪些环节需要明确标注AI的使用情况。这样一来,学生们便能在享受AI带来的便利的同时,确保自己的学术诚信不受损害。

2024年,被誉为人工智能应用的元年。在这一年里,人与AI的关系在社交、游戏、教育和内容创作等多个场景中变得越来越紧密。随着ChatGPT问世已有两年时间,关于AI的技术革新和使用伦理的讨论也愈发深入。AI应用的商业化进程加速推进,资本对于这一新赛道的生产力增长充满了期待。

AI通过算法生成的文字、图片甚至影像作品,其质量之高已经越来越接近甚至满足了人们的预期。大家不约而同地意识到,“一刀切”地禁止AI的使用并不现实。因此,如何合理地利用AI、避免其带来的负面影响成为了摆在我们面前的重要课题。

和大学生一样,许多职场人士也将AI工具视为工作学习的小助手。他们利用AI来代劳一些前期准备和重复性工作,从而腾出更多精力去处理更为复杂的问题。然而,如果过度依赖AI、甚至将其视为“枪手”或“工具人”来全权代劳工作,那么就会越过合理的边界。

在AI时代,如果我们不会使用AI,那么我们的信息获取效率、知识掌握能力以及新工具的运用技能都会大打折扣。然而,过度依赖AI同样会带来一系列问题。它不仅会导致我们的原创能力下降,还会在未来的职业发展中让我们面临诸多挑战。

与教育领域一样,许多行业都将迎来人与人工智能的深度合作时代。在这个人机协同创作的新时代里,我们既能够享受到AI带来的便捷与高效,又不得不面对由此产生的诸多矛盾与问题。如何在惊喜与矛盾之间找到平衡点、探索出人机协同分工与方法的最佳路径以及厘清AI使用的边界等问题都迫在眉睫。

因此,我们需要不断地规范AI使用的边界、找到卡尺和准绳。只有这样,我们才能在具体的持续实践中与AI形成良性互动、实现共赢发展。同时,我们还需要积极探索如何突破当前AIGC内容中人工智能单一、机械的“类人”身份与边界范式的问题。让人工智能以“非人类”的智能与人类产生深度协作、成为我们科学利用AI的重要伙伴。

(文章来源:北京商报)