学生可以使用AI构建论点吗?

近年来,人工智能技术经历了巨大的繁荣,其中ChatGPT作为撰写辩论演讲的工具被广泛使用。不可否认,使用ChatGPT等AI工具构建论点的吸引力很大。它们提供了一种看似轻松的内容生成途径。关于使用ChatGPT的伦理辩论多种多样——这是作弊吗?是抄袭吗?还是只是像其他工具一样?

然而,建议在使用ChatGPT时保持谨慎的主要原因并不在于伦理,而在于实用性以及辩论真正吸引人的本质。主要问题在于AI生成内容的性质。包括ChatGPT在内的AI是基于大量数据识别最有可能的回应。例如,它阅读了数十亿字的文本,因此知道如果你说“花生酱和……”,下一个最有可能出现的词是“果冻”。它基本上在更大范围内执行这种操作,这意味着它的输出是安全、直接和常规的。这种方法虽然合乎逻辑,但往往缺乏赢得辩论所需的深度、创造力和独特视角。

例如,2022年萨格勒布EUDC辩论锦标赛。获胜的团队是反方,他们的辩题是“本院希望存在智能外星生命。”如果你让ChatGPT提出一些反方论点,它们主要会围绕外星生命对人类的危险——换句话说,这是一个完全合乎逻辑但非常基础的论点。然而,反方团队却选择了一条非传统的路径。他们使用科学数据来讨论希望存在更多有感知生命的伦理影响,这些生命不可避免地会陷入残酷的生存斗争。他们的论点不仅是一个逻辑立场,还充满了情感共鸣。这是AI在其当前状态下不太可能生成的论点,因为它固有的编程倾向于更明显、统计支持的论点。

此外,依赖AI进行辩论准备还带来了另一个重要问题:失去了个人成长和技能发展的机会。构建论点不仅仅是展示观点,而是一个智力探索、自我反思和个人成长的过程。研究、形成和完善论点的过程增强了批判性思维和创造力。它促进了对话题的更深理解,并培养了从多个角度看待问题的能力。相比之下,使用AI主要培养的是AI提示工程的技能,这虽然有用,但并没有提供同样深度的智力参与。

在辩论场上,依赖AI的实用缺点也显而易见。由于其可预测的性质和对特定词语的倾向(“至关重要”现在是一个明显的AI标志),AI生成的论点通常很容易识别,可能缺乏人类精心构建的论点的说服力。辩论的魅力在于个人带来的独特见解、经验和视角。这些元素为讨论增加了深度和真实性,使论点更具说服力和影响力。

总之,虽然在辩论课堂上使用ChatGPT存在伦理争议,但避免使用AI的主要原因并非伦理,而是实用性。AI可以轻松生成连贯的论点,但其趋向安全和可预测意味着它很少会生成获胜的论点。要成为一个优秀的辩论者,需要拥抱独立发展论点这一具有挑战性和不适感的过程。