当课堂因监控技术变“囚笼”,存在争议的AI使用场景该被抵制吗?
2019-09-06 09:48:47
  • 0
  • 0
  • 0
  • 0

当马云和马斯克高谈阔论AI是否会影响人类社会时,尚无“感情”的AI已在校园中“作恶”。近日,一张AI监控课堂的GIF在网上迅速刷屏。这张GIF中记录了课堂中所有学生任一举动,都被AI录制下来并进行完整的数据分析。在这一AI场景中,课堂因监控技术变为“囚笼”,并引发了一场关于道德、人道等方面的争议。

AI监控课堂,“安全”成作恶借口

小明上课表现:趴桌子3次,睡觉1次,听讲1次,阅读0次,举手0次,笑了0次,厌恶表情出现10次……当这些多达十几项的数据指标综合起来,可能会让老师下一个判断:张小明是个不知上进的“落后生”。这不是发生在热门美剧《黑镜》中AI监控人类的科幻桥段,而是以目前AI技术所构建的一个“恐怖”场景。

据了解,研发这一课堂监控系统的是,号称“AI第一股”的旷视科技。在旷视科技的描述中,这一系统看起来颇为高大上——“旷视科技将自主研发的人脸识别、行为识别、表情识别等技术,集成在考勤及行为分析摄像机MegEye-C3V-920和行为分析服务器中,通过对课堂视频数据进行实时的结构化分析,反馈学生行为、表情、专注度、前排上座率等多维度课堂数据。”

但再高深的技术,也不能掩盖课堂监控系统对青少年情感控制、抹杀和剥夺。可笑的是,当这一系统引发争议后,旷视科技发布正式声明称这只是技术场景概念演示,其专注于保护孩子在校园的安全。试问,用AI技术保护青少年的安全,需要分析他在课堂上举手、睡觉、厌恶或欢喜的表情吗?旷视科技的声明,明显是在偷换概念,甚至是把“安全”当作窥视青少年个人行为的作恶借口。

以安全之名行“监控”之实,让青少年在AI场景中被禁锢地像一只只“小绵羊”,神经随时绷紧。这将会对青少年的心理健康成长,造成多大的伤害?的确,这只是一个技术场景概念演示,但一旦技术成熟并落地,影响的将是数代年轻人!

抵制争议场景,只为避免滑向深渊

旷视科技的所作所为,正在偏离自己的初衷。旷视科技的初衷之一,是重视AI研发和应用对隐私权、伦理价值观等带来的挑战。但这一课堂监控系统的出现,显然突破了AI使用场景的底线,并饱受大众诟病。

其实,AI技术及相关场景本身没有错,错的是将它们用在毫无意义甚至不正确的用途上。而这,就是目前部分AI场景的致命软肋——存在道德争议、人道争议。这事实上也凸显出当下AI领域还存在管理方面的漏洞——AI技术及场景已在大踏步前行,但合乎道德、伦理的指导方针、政策等尚没有相匹配的进度。

而在知乎上,“如何看待旷视科技新产品监视学生上课?”这个问题受到关注。其中获得2000+赞的回答中提到,“这不是产品经理或者程序员的问题,不是一家公司的问题,甚至不是一个技术问题。这是我们社会的价值观的问题,是我们怎么看待自身权益的问题。”这段话,或许能够给大众带来更多思考。

我们现在所能做的,就是坚决抵制课堂监控系统这种存在道德争议、人道争议的AI使用场景。我们坚决不能让步,因为任何一点点的让步,都可能导致未来道德会滑向无底深渊。(科技新发现 康斯坦丁/文)

最新文章
相关阅读