9月2日起,一段人工智能监控学生在课堂上一举一动的技术展示视频,在网上引发了热议。这段视频显示,由旷视科技出品的人工智能产品,能够通过摄像头实时识别学生举手、玩手机、睡觉、听讲等具体行为。这种能够实现对学生“精准监控”的技术一经曝光,就激起了强烈的争议,而南京市某高校即将试水采用该公司人脸识别技术的消息,更是放大了相关争议。
事发后,旷视科技对媒体澄清称:网传内容仅是概念性的技术展示,并未落地应用。涉事高校也表示:在推进智慧校园建设的过程中会坚持“以生为本”的理念,尊重和保护师生隐私权和数据安全。至此,这起事件似乎仅仅是“虚惊一场”,但这起事件引发的关于技术、隐私与伦理问题的讨论与思考,却不应就此止息,而有着进一步深入的价值。
旷视科技的回应,无疑令关心此事的许多人都“松了一口气”。知道这样一项令人感到有些“可怕”的技术并未投入使用,确实是一件令人欣慰的事情。然而,尽管这项技术在目前仅仅是一种概念性的展示,但其昭示出的人工智能技术的发展方向,却依然令人难免感到些许不安。
纯粹就技术论技术,人工智能与人脸识别技术能在短短几年时间里,从连最基本的“认人”都常常出错,发展到能够实现如此精密的行为识别,自然是一项了不起的科技成就。但是,我们却必须意识到:技术的进步,并非总是能够让这个世界变得更加美好,而是常常也会给人带来意想不到的负面困扰。
在历史长河当中,技术进步就像是一柄双刃剑,可能带来光明与福祉,也可能带来黑暗与毁灭。炸药的发明让人类得以更加高效地建设工程,同时也让战争变得更加血腥与残酷;微生物方面的研究让人类克服了数不清的疾病,但也创造出了生化武器这个恐怖的噩梦;克隆技术的出现大大推进了生物学的发展,但与之相伴的克隆人争议却至今未能在全球范围内取得共识……这些例子说明:技术本身或许没有善恶,但对技术的具体应用,却有善也有恶,因此应当受到特定伦理规范的约束。
其实,各种各样的监控与识别技术,自诞生以来就伴随着巨大的争议。在某种意义上,此类技术的本质,其实就是 “以隐私换便利”。当我们默许各种各样的摄像头出现在我们的生活当中时,其实就是在出让自己的部分隐私,从而换取安全或是其他对我们更加重要的利益。但随着相关技术不断发展、迭代,这种“以隐私换便利”的交易,难免会遭遇“边际成本升高”“边际效益递减”的局面。
每当这种监控与识别技术扩张到一个新领域的时候,人们都不免要问:这究竟需要被监控者付出多少隐私,又到底能为社会带来多少好处?如果一项技术需要被监控者付出的代价过多,而给社会带来的好处又相对有限,我们恐怕很难说这项技术的存在有多少正面意义可言。
这次在网上掀起争议的“课堂监控”技术,正是将“以隐私换便利”的交易推向极端的一种表现,也正因如此,这项技术才激发了许多人的强烈反感。教室确实具有一定的公共场所属性,人们也普遍接受在教室内安装监控摄像头,确保教室内财物安全、防范学生作弊的做法。但这种将学生的每个动作、表情都作为分析对象的做法,却无疑大大突破了人们心中的“隐私底线”。这项技术倘若成真,固然可能给教学者带来一定的方便,但以如此激进的方式追求这点方便,从社会整体效益上看,显然是得不偿失的。
从这个角度上看,旷视科技及时澄清这项技术并未真正投入使用,说明作为技术开发者,他们也意识到了这项技术存在一定的伦理隐患,这一点值得肯定。对此,社会也应有强烈的警惕意识,防止这类存在伦理隐患的技术在未来的其他地方投入现实应用,如此方能给相关领域的技术发展扎紧伦理规范的“篱笆”。