成电讲堂

分享到微信 ×
打开微信“扫一扫”
即可将网页分享至朋友圈
【成电讲坛】周涛教授解读大数据和人工智能面临的伦理挑战
文:姚卓琛 孙星月 余志齐 来源:学生记者团 时间:2018-12-09 6366

  “人们用了300多万年才从树上下来学会了直立行走,那我们能否在20年的短暂时间里就准备好新的社会形态来迎接这样一个信息爆炸的时代呢?”12月3日下午,大数据研究中心主任周涛教授做客“成电讲坛”,结合自己的研究,分享了对大数据和人工智能技术带来的伦理问题的思考。

周涛 (1).jpg

  “2000年,我第一次学会收发电子邮件,那时候我一周只有四个小时的上机时间,整个大学时代一共收和发了400多封邮件。”周涛对比分析道,“不到20年的时间,我们就从一个信息极度匮乏的时代发展成了如今的“数据爆炸”时代。

  “但是,拥有海量的信息并不代表大家能够驾驭它们。”他进一步指出,“与其说我们是信息的主人,不如说是‘淘宝’、‘百度’这些信息中介选择性地把信息‘投喂’给了我们。”那么,信息中介筛选出来的数据对我们会产生什么利弊呢?

“技术中立”的观点值得怀疑

  大家普遍认为,信息技术处理的无非是一些数据,冷冰冰的数据肯定是中立的。周涛对这种观点表示质疑。他说:“在计算机的世界里,潜在的歧视一直存在,只不过,它在‘中立’的外衣下比现实社会来得更加隐秘。”

  比如美国的CBO公司开发过一个可以给潜在的求职者推荐高端职位的系统,后来却发现,这种“中立”的技术在无形之中给女性求职者套上了“枷锁”,因为这个机器学习系统会倾向于把高端职位推荐给男性,而把中低端职位推荐给女性。

  周涛也做过类似的研究。他在2007年开始做个性化推荐的算法,其中有一个大类的特征叫做“价格敏感度”,即通过数据判断一个人是有钱人还是穷人。现在的很多商品推荐算法、广告点击方案都会根据大众的消费习惯和浏览记录来推送完全不同的商品,每个人所面对的软件界面都是不同的。

  “你在学校食堂买一瓶可乐可能只需要3块钱,但是在希尔顿酒店可能就需要300块钱,他们把这个不叫‘价格歧视’,而是叫‘个性化定价’。”周涛指出,“这样的现象如今在互联网上比比皆是,反而加剧了贫富差距和社会不平等。”

互联网让“黑历史”成为永恒

  “大数据商业应用第一人”维克托•迈尔•舍恩伯格曾写过一本《大数据时代》,畅想了大数据时代的现在和未来,全球销量达400万册。而周涛教授正是这本书的中文译者之一。舍恩伯格认为,相比于信息可长期存储的性质,个人信息的使用权限不应该超过五年。

  可为什么信息应该有五年的“保质期”呢?周涛给大家举了一个现实的例子,“我曾经给世纪佳缘开发过情侣匹配的算法,如果对方通过某种手段了解到你年轻时候的不良贷款记录或者曾经做过医疗整形的历史,可能就会严重影响你在网络平台上的吸引力。”

  简单来说,互联网时代剥夺了一个人“浪子回头”的机会。人们越是接近成功,曾经的‘黑料’就越有可能被竞争者暴露在公众面前。因此,我们本身就被束缚在社会的各种条条框框的紧箍之下,大数据则是那个“天天念咒的唐僧”,让我们生活得更加谨言慎行,生活在更沉重的枷锁当中。

  “尽管我们都活在当下,但如果你今天的行为会影响到五年十年以后的你,而你又会受到五年十年以前的你的影响,你会想要这样每天都战战兢兢的生活吗?”他感叹道,“最终,我们会失去特立独行的勇气。”

大数据竟然成为网瘾推手

  很长一段时间里,大家都会被“震惊体”刷屏,有很多网络新闻的标题都很惊悚,点开一看却是平平无奇的内容,这样的新闻有很大部分是通过相应的关键词自动生成的。这是人工智能和人类需求的一种小规模冲突。

  现在,更多网页还要统计用户在新闻页面的停留时间,而不仅仅是新闻的“点击量”或“点击率”。因此,这样的“震惊体”新闻才没有了生存的空间。但真正让周涛担心的是,长期范围内人工智能的导向性可能和人类的自身利益并不契合。

  他说,现在的游戏开发商会通过大量的行为模式分析来研究用户为什么会退出游戏、怎样投放免费的装备才能延长用户的游戏时间。尽管大家都知道沉迷游戏不好,但是网络公司留住了用户,玩家也获得了“福利”,人工智能帮助双方达成了一个微妙的恶性循环。

  当然,如果能够把这种技术用于学习,将使学习的效果有大的提升。周涛的同事、计算机学院徐增林教授通过分析大量的“慕课”用户学习记录,可以在多数人觉得困难、反复回看的知识点定向地增加一些辅助练习的题目,帮助用户更加流畅地学习。

  可见,如何利用人工智能的导向性,并让它真正地造福人类,是大家需要继续思考的地方。

“真/假”难辨将带来新的困扰

  讲座中,周涛还介绍了一种微表情识别技术。比如,可以通过该技术判断要买车的人试车时的真实感受是什么,从而增加车的销量;还可以分析网络课堂上同学们上课时的微表情,判断他们对于课堂内容的喜爱程度和学习效果。

  如今,这种技术也可以用在非接触性测谎领域,通过被试者的微表情来判断他们有没有说谎。周涛对这种技术的未来充满了担忧,他说:“真相固然是社会的基石,谎言也同样是社会的基石,如果真的可以通过手机里的软件就能完美地鉴别真假,那这样的社会任谁都难以生存下去。”

  在国外,有一个名为“DeepFake”的搞笑网站,他们通过机器学习的手段在奥巴马一段批评特朗普的讲话中通过机器学习的技术插入了一句“特朗普是蠢蛋”,表情也模拟得非常相似。连奥巴马自己都觉得不可思议,表示几乎难以证明自己并没有说过这样的话。

  周涛指出,技术固然是好的,但任由它发展下去必然会摧毁真理的边界,给大家带来难以想象的后果,不仅谎言变得随处可寻,甚至就连真相都难以自证清白。不远的未来,技术的发展是否应该有边界,将成为社会讨论的一个焦点。

人类正站在历史巨变的新起点

  人工智能不仅在影响人类,更是在一步一步地挑战人类,首当其冲的结果就是“抢人饭碗”。周涛曾和《人类简史》的作者尤瓦尔·赫拉利在上海就人工智能开展了一次对话。尤瓦尔·赫拉利大胆预言:“再过50年,仅需要1%的人口和人工智能便能养活全世界,剩下的人便是无用之人,甚至要为了工作而付钱。”

  那么,什么样的人不会被大数据和人工智能时代淘汰?在周涛看来,有三个必不可少的因素——创新力、领导力、人文力。

  第一是创新力。他认为,不管前沿技术怎么发展,当你能够成为颠覆性的创新者的时候,当然不会担心被炒鱿鱼。

  第二是领导力。李世石和柯洁的逻辑和计算能力都是当世“鹤立鸡群”的存在,但是他们已经可以被AlphaGo取代,但是你一定很难想象杰出的领导人会被人工智能淘汰。

  第三是人文力。对艺术、自然、人性的感知,以及我们心里面柔软细腻的地方是计算机所难以达到的,学校也永远不会被“慕课”所替代,因为学校之所以存在,更重要的是对于学生人格潜移默化的培养。

  大数据和人工智能的不断发展,已经对现有的伦理秩序形成挑战,那更进一步,人工智能会不会在源头上影响我们对道德和伦理的界定呢?在“无人驾驶”领域,有一个常见的伦理难题:“当你在高速驾驶汽车的时候,左边是护栏、面前有横穿马路的一队青年、左边只有一个正常等待绿灯的路人,你会选择怎样转动方向盘?”

  周涛指出,正常人对这个问题做出判断,都源自他自身的道德认知,但是,如果在未来无人驾驶的时代里,现实的伦理困境都会被化作一行行代码输入到芯片中,由AI来做出决定——无人驾驶可能是我们所能预见的人工智能面临的第一个伦理挑战。

  技术的发展有没有可能带来人类这一物种的巨大“转型”甚至“毁灭”呢?周涛说,“我们现在正站在历史巨变的起点上!”

  讲座结束时,周涛寄语学子:“不管你们来自哪个专业,面对一个数据、人工智能牵引的时代,希望各位一定要有一种眼光,学会去拥抱新的科技时代,通过自己的理念的提升,把握时代的脉搏。要在时代发生重大转折的时候,站在风口,而不要退到后面。”


编辑:  / 审核:罗莎  / 发布:陈伟

"