人工智能会不会走上“邪路”?
■杨琳 整理
人工智能早已不是新鲜词。但是,未来会不会像霍金说的那样,智能机器人可能会成为人类历史上最大的灾难,或是人类文明的终结者?
日前,来自不同领域的学者在由上海市社联《探索与争鸣》 杂志社和华东政法大学政治学研究院共同主办的“人工智能与未来社会:趋势、风险与挑战”学术研讨会上,展开了一场跨学科的交流。
机器不靠谱?不,不靠谱的是人性
人工智能的深度学习,推动力究竟在于算法,还是数据?
上海交通大学电子信息学院熊红凯教授认为,数据才是最后的关键因素。现在一些大公司开源算法架构,其实只是为了占领人工智能的市场生态,这是商业策略。而人工智能发展中的不确定性和不可解释性,是最大的威胁。
一个最后的结果,它的不确定性和不可操作性来源于数据,即使面对同一个数据,不同的人操作也不一样,这就带来很大的问题——公共安全性。这也是美国大数据医疗一直进展缓慢的原因。
人工智能是把双刃剑。如果所有的机器都联网,这个力量会被用来决策我们每个人的命运。从伦理讲,人类不知道将来会有怎样的方式来决定个人命运,因为我们原来所形成的知识,是个人可认知、可掌握的。
若一切技术都是以超越人自身为推动力,“人工智能是洪水猛兽”这个说法显然是成立的。因为对数据的操控性和选择性,所有的人类能力都必须在机器的载体上发展。但这种能力的控制性完全不可靠,且它会不断演化和发展。这会给人类世界带来极大的不确定性。人们还是应当认真认识人工智能背后的机理所在。如果人工智能“控制性完全不可靠”这个问题不解决,一旦数据都被垄断在一些大公司手里,实际上每个人的命运都极可能变得不可控。这背后的真实原因倒不在于机器,而在于人性本身其实就是不可靠的。
不是自然科学,更不是社会科学
上海社会科学院哲学所副所长成素梅研究员,带来了女性专家的独特视角。
她谈到,人工智能是计算机分支学科研究出来的,但是从学科性质上来讲,人工智能不是自然科学,更不是一门社会科学。尽管人工智能研究者必须关注其成果对社会所产生的影响,但这并不是人工智能研究的主要内容。人工智能是科学与技术相互交叉的一个领域,一开始就具有跨学科性。
目前,人工智能不仅在日常生活中大显身手,在工业领域和商业领域内捷报频传,《科学》杂志刊文表明,机器人或自动程序已经能够直接参与人类的认知过程。比如,宾夕法尼亚大学积极心理学中心的心理学家可以运用算法,根据推特、脸谱等社交媒体上的话语来分析大众的情绪、预测人性、收入和意识形态,从而有可能在语言分析及其与心理学之间的联系方面带来一场革命; 普林斯顿大学的计算生物学家已可以运用人工智能工具来梳理自闭症根源的基因组,等等。这些机器人或自动程序被称为“网络科学家”。
人工智能威胁论虽然表达了人类的忧患意识,但确实为时过早。退一步讲,即使未来有这么一天到来,人类也已经在这个进程中,充分享用了人工智能带来的好处,并深刻反思了有关的人性、社会、文明等问题。政府在推动技术科学的同时,更应该加强哲学社会科学方面的研究,切实把哲学社会科学的思考,特别是伦理考量,贯穿到技术科学发展的始终。让人文关怀成为人工智能研究者的自觉意识,使科学家们在研发人工智能的过程中做出有利于发展人类文明的抉择。
历史学家不怕失业
80岁高龄的华东师范大学历史系教授王家范,将自己的微信名取为“乡下人”,他丝毫不担心历史学家会在未来失业。“世界上有一种职业,是任何再先进的机器人都无法替代的,那就是历史学家。”到今天为止,所谓用“大数据史学”做出来的成果,行业中人心知肚明,它并没有如想象中那般奇妙和高明。再大型的史料数据库,也只是史学家的辅助工具,是史学的助手,不可能成为史学的主人。
纯粹靠摆史料,靠史料“料理”历史的史学工匠,“机器人”一定能取代,效率胜过前者千百倍。而如果把史学看作一门人类理解自己的“思维工艺”,从人类已有的千万年的无穷经历里,时时咀嚼反刍,提炼出人类智慧,用以改善人类现在和未来的处境,这一类的史学工艺创造,“人工智能”就捉襟见肘,窘态毕露。
他认为,在欢呼科技进步的同时,有必要对科技忽视人文的严重后果进行认真检讨,人文主义在科学家队伍里应该占有主导地位。价值理性是第一位的,工具理性是第二位的。科学家的自身修养是如此,科学创造也应该如此。老子说“知人者智,自知者明。胜人有力,自胜者强”。科学家必须有战胜自我无边欲望的“自胜者强”的意识,及早消弭企图操控人类的各类野心,人工智能的开发才不会走邪路。
能否向“善智”方向发展
上海社会科学院互联网研究中心执行主任惠志斌,探究了人工智能应用场景中的法律问题。他认为,人工智能能够联系大量的人、物,在联网的基础上产生大量的数据,再通过一系列智能化的算法处理数据。这个算法,至少目前来看,还是由人来设计、验证、实施。在各种各样的智能网络应用场景里,在鼓励它发展的同时,如何去规避危险,如何往人类所希望见到的“善智”方向发展,都是我们需要考虑的问题。
还要考虑如何通过一些公共政策,如何通过法律,把那些可能带来危害的风险点找到,进行规避。他认为,人工智能碰到的法律和经济问题,要在基本安全的框架内,探讨人类和机器共同协作的方式,让人工智能产品在公众的监督之下透明、开放,而不是随意设置。 (组稿:刘璐)
(责任编辑:佟胜良)