观点 | 科技,是让我们飞升,还是在制造牢笼?
2020-01-20 09:06:14
  • 0
  • 0
  • 0

来源:社会科学报

日前,科技部正式发布关于对科技创新2030—“新一代人工智能”重大项目2020年度第一批项目申报指南的征求意见,新一代人工智能发展蓝图初现。不久前,中央戏剧学院2020年将首次招收“戏剧人工智能”专业方向博士研究生的消息引发各界热议,各种版本的高中版人工智能教材也陆续问世,人工智能的发展似乎是不可阻挡的潮流。然而,技术时代也在不断制造新的焦虑,科技与人究竟应是怎样的关系?

——编者按

原文:《科技让我们飞升还是在制造牢笼?》

作者 |上海交通大学中国法与社会研究院院长 季卫东

图片 |网络

知识、科学技术是人类认识自然、驾驭自然、改造自然的手段,但它们同时存在这样或那样的风险。比如汽车让交通更方便,但也会引起交通事故和环境污染,技术不断制造和累加的风险构成对人类的威胁和挑战。进入21世纪,飞速的科技发展让人恐慌,大家开始担心机器人会不会在未来反过来支配人类。

观点 | 科技,是让我们飞升,还是在制造牢笼?

从法学的角度来看,整个人类社会的组织原理是问责机制,人工智能高度发达后的算法“不可说明”会使责任追究变得复杂甚至无法进行。

观点 | 科技,是让我们飞升,还是在制造牢笼?观点 | 科技,是让我们飞升,还是在制造牢笼?

这就有可能导致秩序的崩溃,但我们不能因噎废食,限制人工智能发展、拒绝科技的采用。现在的乱象很像16世纪的欧洲,大部分发达国家是零利率,原本有效的机制都不起作用了,经济似乎失去了驱动力。在这个时候只有科技发展能带来新的产业革命和社会模式创新。

正确判断科技与人的关系

科技的发展带来诸多疑问。科技发展是制造工具还是被工具制造?这个话题有两个层面:第一层面谈到了大数据对人的形成作用。现在很多人日常生活基本上都通过外卖解决。这种电商平台积累了个人消费行为和选择偏好的海量数据。

观点 | 科技,是让我们飞升,还是在制造牢笼?

例如,芝麻信用对个人在网络上的行为进行观察、统计、打分,根据分数判断信誉。我们所说的大数据时代的网络人就这样逐步形成。在这个意义上,我们好像在网络空间上有一个分身。这个网络人是大数据和人工智能创造出来的,却与我们每个人如影随形。

另一个层面更抽象,有些哲学意味,即科技与人的关系。法律讲文本分析,例如阿西莫夫机器人三定律,它意味着技术对人的所属关系,所以是人制造工具,而不是工具制造人。人必须对机器人进行绝对控制,所以有一个极端说法叫“机奴”,用奴隶的观点看人工智能。但是具体运用的时候,三定律自身也会发生矛盾和冲突。

观点 | 科技,是让我们飞升,还是在制造牢笼?

图灵停机问题也是因为自我指涉的系统产生悖论导致人工智能很难进一步运作下去。阿西莫夫在《机器人与帝国》继续提出“零定律”,就是要在服从人类整体利益基础上服从三定律。

但从法律解释学的角度来说,什么情况下、以什么为标准判断人类受到伤害,就非常复杂了。

观点 | 科技,是让我们飞升,还是在制造牢笼?

反过来人工智能如果有了自我意识,有了精神活动会怎样?人工智能以人类整体利益的名义来抵抗人、伤害人怎么办?这个就是我们所讲的人类对技术的“怕”,对人工智能的担忧。还有机器人造成失业的担忧。从法律上看,工作都被机器人抢走了,社会问题怎么解决?比尔·盖茨提出了向机器人征税,通过财政再分配的方式解决问题。为什么可以向机器人征税而不是向企业家征税?要不要赋予机器人人格?要不要承认它在法律上的地位?人与机器人、人与人工智能是否具有在法律面前人人平等的资格?这些问题值得我们继续思考。

观点 | 科技,是让我们飞升,还是在制造牢笼?

数据对推进人工智能成长至关重要

随着科技的发展,伦理问题也以非常突出的形式呈现出来。从法律角度看,利用现代科技来预测犯罪在美国早有尝试,芝加哥预警系统就可以根据每个人过去的行为,计算什么区域、什么人有可能犯罪,预先采取防范措施,甚至有可能提前逮捕、制裁。利用高科技预防犯罪有其合理性,但是也会带来非常大的伦理难题。现代法制有一个很重要的无罪推定原则,即没有充分证据就必须假定他无罪,不能采取措施。而人工智能用于预警系统的前提就是有罪推定,它假定黑人、穷人、游荡者可能犯罪,甚至还可以先发制人,这就带来了更多的伦理问题。

观点 | 科技,是让我们飞升,还是在制造牢笼?

从发展迅速的人工智能角度去看科技的伦理边界问题,数据对于推进人工智能迅速成长是至关重要的,那数据要如何获得?目前世界上只有两个国家真正称得上是数据大国,一个是美国,一个是中国。美国的宪法体制决定了国家对个人尊严和隐私保护的重视,所以它的数据和隐私在虚拟世界中是分割的、碎片化的,因此想要获取更多的数据就需要借助技术手段打破中间的壁垒,所以会出现这种尽可能地搜集数据、利用数据的功能设计。而在中国,公众的隐私观念非常薄弱,采集数据相对容易,出于方便,大家也很乐意提供自己的数据。

从发展人工智能的角度来看,中国的这种体制是更有利的,因为它使得大数据搜集很容易,为人工智能的发展提供了充足的养料。但另一方面,当把大家的隐私都暴露出来时,社会变得更透明,也可能变得更容易受伤害。

观点 | 科技,是让我们飞升,还是在制造牢笼?

当人工智能精密度越高,就越不可解释,也就越容易黑箱化。在这里,我们看到一对非常尖锐的矛盾:社会是透明化的,而算法是黑箱化的。根本的问题在于我们的价值取向,如果我们想推动人工智能的发展,中国现在的体制也许是更有利的。但从维护隐私的角度看,会看到欧盟通用数据条例中规定个人对于自己数据的使用有提出异议的权利,在没有充分理由的前提下,可以要求中断数据的使用与处理。这是一种非常尖锐的对立,是未来的社会治理中非常关键的一个问题。

(本文为作者在“技术时代的爱与怕:南都观察年度对话”上的发言)


 
最新文章
相关阅读