威’?孩子的自主探索、试错、甚至‘无聊’的权利,又在哪里?”
“而且,”另一位学者补充,语气忧虑,“‘烛龙’这类技术,是否会加剧教育不平等?能够负担得起高级定制化AI学伴的家庭,他们的孩子是否将获得远超普通孩子的‘增强’?这会不会导致一种新型的、基于技术获取能力的‘数字鸿沟’,甚至‘认知鸿沟’?当技术成为新的分层工具,‘教育公平’又从何谈起?”
讨论迅速滑向更深的质疑。有人质疑“萤火”收集的海量学生数据的用途和安全性,担心成为“监控”或“操纵”的工具;有人忧虑AI算法中可能隐含的设计者偏见,会固化甚至放大社会不平等;更有人尖锐地指出,“萤火”所倡导的“潜能激发”,其背后是否暗含着一种“所有人必须优秀、必须成功”的绩效主义焦虑,而这本身是否就是一种对多元价值和幸福生活的窄化定义?
韩薇坐在那里,听着这些或尖锐、或深刻、或偏激的质问,感到一种深深的无力。她无法反驳所有的质疑,因为其中许多,正是她内心也反复思忖、甚至感到恐惧的问题。技术的光明面与阴影面,从来都是一体两面。当“烛龙”的光芒照亮一些角落时,也必然会在其他地方投下更深的黑暗。而如何权衡,如何取舍,如何划定那条模糊而危险的边界,并没有简单的答案。
“各位,”她终于开口,声音有些沙哑,但努力清晰,“首先,我代表‘萤火’,为‘Leo’事件中我们未能及时发现和阻止技术滥用,深表歉意。对于孩子和家庭造成的伤害,我们负有不可推卸的责任,也将持续提供一切必要的支持。”
她停顿了一下,环视众人,目光坦诚而沉重:“其次,我承认,各位提出的许多问题,都是真实、严峻且必须面对的。技术,尤其是像‘烛龙’这样深度介入个体发展的技术,绝不是中立的工具。它承载着设计者的价值观,放大着使用者的意图,也必然在复杂的现实社会中产生难以预料的多重影响。‘萤火’在过去,或许过于专注于技术的可能性,而对其潜在的风险和伦理挑战,思考得不够深入,准备得不够充分。”
会议室安静下来,所有人都看着韩薇,等待她的“但是”。
“但是,”韩薇话锋一转,语气变得坚定,“我依然相信,技术,包括AI,可以为教育、为人类的成长带来积极的变化。问题的关键,不在于是否使用技术,而在于如何使用,由谁来决定如何使用,以及我们是否建立了足够的智慧、勇气和机制,去引导技术向善,制约其向恶。
本章未完,请点击下一页继续阅读!