nload="this.removeAttribute('width'); this.removeAttribute('height'); this.removeAttribute('onload');" />
“不管我的同行们是否乐于见到这种情形,多数大学生都在使用人工智能。”美国肯尼索州立大学英语教授珍妮·比阿特丽克斯·拉奥(Jeanne Beatrix Law)在一篇发布于“对话”网的文章中这样写道。与许多关注生成式人工智能输出所带来的冲击的学者不同,拉奥立足于“提示即写作”的理念,以“输入”视角为切入点在教学和研究实践中描绘着与人工智能共存共生的未来。近日,拉奥在采访中向本报记者讲述了她对人工智能未来演进轨迹的看法、人工智能议题如何与人类社会息息相关。见微知著,走近学者的个体实践为了解人工智能在当前学术界和教育界的研究与应用打开了一扇窗。
赋能于人而非取代人
《中国社会科学报》:人类用户输入的提示词是人工智能输出的基础,人工智能输出的内容又能为人类用户的学习、工作和生活提供参考。您及研究团队如何理解输入与输出的关系,以及如何影响了你们在教学研究工作中人工智能的使用?
拉奥:在肯尼索州立大学,我们开设了人工智能与写作技术研究生证书课程,旨在培养将人工智能融入研究、教学和著述中的教育工作者及写作者。各门课都可通过在线方式访问,使课程对在职人士和远程学习者同样可及。我们重点推出了“由人类掌舵的提示”,这是一个以伦理决策和修辞意向性为中心的模型,贯穿人类与人工智能合作的各个阶段。我相信,人工智能在教育领域的未来在于赋能于人而非取代人,而这始于透明的提示实践。我们已经在学校里测试和部署了这类模型。
此外,借助“修辞提示法”,我们向写作者展示了如何将提示工程(prompt engineering)作为批判性思维和体裁意识的延伸。这一方法已被纳入由大学资助的在线学习平台课程,也在师资培训方面得到了较为广泛的应用。“修辞提示法”参照了写作教学法的最佳实践,是一个有受众意识的递归过程。它既指导学生修改写作,也指导他们修改提示词,帮助他们获得表达更清晰、修辞效果更佳的输出。学生们不再依赖于初始输出内容,而是学习撰写目标导向的提示词,分析人工智能的回应,并带着意图进行迭代。在此过程中,他们的写作能力和批判性思维得到发展。
作为配套,我们还推出了一个名为“伦理提示轮”的可视化决策工具,用以评估人工智能生成的输出是否符合四项基本标准:有用性、相关性、准确性和无害性。这一框架确保了人类始终处于创作行为的中心,并对结果承担全部责任。无论是修改电子邮件、起草文章还是确立研究大纲,它都致力于训练用户成为在人工智能支持的环境下高效且具备伦理意识的写作者。
生成式人工智能可以提供草稿或灵感,但不能被视为合著者。从设定意图到审查作品的影响,人类必须保持对创作过程的控制。这也是我开发“伦理提示轮”的原因。作为一种元认知工具,它可以引导用户思考:眼前的这一输出是有用、相关、准确、无害的吗?通过这样做,它将人类的责任锚定在生成性工作的每个阶段,并确保责任落在用户而不是工具上。
目前,已有超过1万名学生参与了我于在线学习平台上开设的人工智能写作、提示工程、专业沟通等8门课程。这些课程不仅成为个人学习者的资源,也为那些寻求具备修辞基础和伦理基础的可扩展人工智能培训的组织机构提供了资源。
一种过程而非一条捷径
《中国社会科学报》:作为一名高校教师,您对人工智能的未来发展有何展望?您希望见证并参与建设一种怎样的未来?
拉奥:随着人工智能越来越深入地嵌入教育实践,我预计,我们将从泛化的辩论转向更精准细致的探讨,并在课堂上使用具有针对性的生成式人工智能应用程序。有成效的对话不能止步于思考“应不应该做”,而要向着“如何做、何时做、为谁做”迈进。这种转变将为人工智能作为修辞搭档和写作伙伴的前景开辟通道,使其能帮助写作者阐明想法、测试自己的解释并激发读者的兴趣,而不仅仅是加快任务完成速度。
人工智能公司OpenAI今年的调研数据显示,超过1/3的美国18—24岁成年人使用ChatGPT,其中超过1/4的信息与学习、辅导和学术支持相关。针对1200多名学生的调查发现,49%的学生使用人工智能工具来启动论文和项目,48%的学生用其总结长文本,45%的学生用其对创意项目进行“头脑风暴”。这些统计数据凸显了一项至关重要的任务:我们应当设身处地为学生考虑,并为他们提供能够有效且合乎伦理地使用这些工具的框架。
我在公共及学术论坛上写了许多探讨相关路径的文章。我为“对话”网写的文章聚焦于如何引导大学生利用人工智能写作并批判性地看待它,这篇文章被多家媒体转载。较高的转载量从侧面说明,在将人工智能融入教育方面,世界各地的人们都对获得兼具原则性与实用性的指导有兴趣。
我期望看到,在未来,使用人工智能写作将被视为一种过程,而不是一条捷径。教育工作者将在合适的时机帮助适配的写作者选择恰当的工具。
为此,我所在的研究团队正在产出实证数据。我们即将在犹他州立大学旗下的计算机与创作数字出版社出版著作,其中讨论了大规模学生调研的结果。结果表明,美国公立大学的学生正在转向生成式人工智能,以寻求写作支持、进行主题探索和获取修改策略,而学生们通常未经正式培训。这凸显了在高等教育领域提供基于写作教学法和伦理反思的情境化、案例驱动的人工智能应用指导的紧迫性。
人本主义框架不可或缺
《中国社会科学报》:您如何看待人工智能发展以及教育的数字化转型,与人类今天面临的其他全球性机遇和挑战之间的联系?
拉奥:教育的数字化转型并非在真空环境中发生的。它与气候问题、不断变化的劳动力需求、政治极化以及对全球层面伦理框架的需求交织在一起。作为教育工作者,我们不仅要决定是否使用人工智能,还要示范如何与人工智能共存。我本身不是可持续发展或人工智能环境影响方面的专家,但我参考了麻省理工学院今年发布的《解释:生成式人工智能对环境的影响》,并对此进行了评估。不过,我确实教授过如何通过修辞提示以及选择有助于减少碳足迹的生活方式来缓解这些影响的课程。
这就是为什么我提倡在人工智能素养教育中要注重修辞意识和认知谦逊。我的方法聚焦于理解语言是如何生成的、某一输出内容为何会出现,以及当我们在课堂或出版物创作中使用人工智能工具时,承担着哪些责任。通过关注社区学院、研究型大学、多语课堂等不同的具体情境,我们可以根据多样化的学生需求定制人工智能教学形式,而不是采用“一刀切”的方式。
要注意的是,将人工智能整合到写作教学中还揭示了潜藏于机器学习系统背后的隐形劳动和人类作者身份问题。我们必须在提升伦理透明度上保持警觉,包括承认在数据标注和模型训练中人力劳动报酬过低的现状。在人工智能领域这一复杂环境中“穿行”,我们不仅需要数字技能,还需要人本主义的框架。
我在一些学术评论文章中探讨了这种复杂性,特别是《小议机器人:继续讨论生成式人工智能》和《什么是“好提示”:作为提示工程的写作教学》这两篇文章。它们已经在美国各地举行的教师研讨会上被讨论过。我也在近期举办的2025年美国学院与大学协会数字创新论坛开幕会上进行了主旨演讲。这场开幕会号召基础教育和高等教育工作者妥善应对生成式人工智能素养问题,强调不要将生成式人工智能视作通用工具,而要将其作为一种情境实践,根据不同学生群体的情况谨慎扩展。
在Substack平台,我通过“远读”等帖子持续与世界各地的教育工作者进行对话。帖文反思了人工智能时代所体验到的作者身份和注意力的转变,以及在清晰的修辞和伦理框架的指导下,像ChatGPT这样的生成工具如何在写作过程中成为有意义的伙伴。我主张实施灵活、符合伦理且包容的策略,承认人工智能已成为学生生活组成部分的事实,并推动学生批判性、负责任地使用。
确保由人类掌握前进方向
《中国社会科学报》:在您看来,您的实践成果与心得体会能为国际学术界的广大学者提供怎样的启示?
拉奥:我想强调两点。一方面,提示工程并不是一种花招,而是一种可传授的素养。在我自己的课程中和教师培训研讨会上,我常以这句话开头:“提示即写作。”当我们这样看待问题时,或许就不必担心人工智能对使用者的读写能力构成威胁,而开始将其视作锻炼修辞思维的空间。这对有身体障碍的学生、多语学习者和家族中第一代大学生来说尤其重要,他们往往能从认知卸载、多模态反馈和实时澄清中受益。
另一方面,我认为,全球各地的教育机构都可借鉴“人类掌舵”的修辞提示原则。这不仅是一句口号,更是一个框架,强调了有意为之、通过修正加以改进以及承担责任。随着人工智能工具的使用更加丝滑并被拟人化,教育工作者不仅要教学生如何使用这些工具,还要让其学会如何批判性地评估和完善它们。人工智能可以提供辅助,但永远不应取代反思过程——正是这一过程让思考和写作成为“人类思考”和“人类写作”。
正因如此,“伦理提示轮”在我的教学法中扮演着非常重要的角色,旨在确保学生和教育工作者仍然是其作品的负责任著作者。无论是撰写研究摘要还是为个人叙事提供灵感,用户都有责任评估输出内容的相关性、真实性和社会影响。这种模式不仅是在教学生如何更好地写作,还是在教他们如何对自己使用的工具进行伦理思考。
我们不是在训练学生如何把他们的思想外包给机器,而是让他们做好与强大工具进行合作,并对其产出、发布和储存的内容承担责任的准备。从这个角度看,人工智能素养不仅关乎文本生成,更关系到当今数字中介化世界中的公共著述。
来源 : 中国社会科学报
责任编辑:王俊美
新媒体编辑:张雨楠
如需交流可联系我们