对话科学家曾毅:中国大模型水平不及GPT-4,我为何签名支持暂停巨型AI研发?

图片来源:由无界 工具生成

2023年3月29日,非营利组织未来生命研究所(Future of Life)发表一封公开信,呼吁暂停研发比更强大的人工智能系统至少6个月,包括特斯拉CEO马斯克、Stability AI的首席执行官莫斯塔克(Emad Mostaque)等在内的1000多名该领域的专家、科技人员、产业高层都在这封公开信上签了名,在这封信上, 我们也看到了一位中国科学家的名字—曾毅(中国科学院自动化研究所人工智能伦理与治理中心主任)。

这封公开信,虽无法律效力,但是引起了公众对人工智能治理的问题的空前关注,我们特别找到曾毅主任,问他是否方便谈一下为何在这封公开信上签名。他回复得很果断:“肯定可以说,而且要说清楚。”在对话中,我们也向他提了一个比较尖锐的问题:“AI领域的技术研发落后是更可怕,还是继续研发人工智能带来的潜在风险更可怕?”曾毅的观点很明确:“用一种竞争的视角来分析这个问题的时候就会使人不理性,中国目前的水平还没达到GPT-4,我赞同的是发展信息处理能力接近GPT-4的,但是在伦理安全治理方面的规制与思考要远远超越GPT-4这样的大模型的研发。”

在与曾毅的对话中,我们还请教了以下问题:

①如果用暂停六个月换取时间窗口,我们最急需解决人工智能带来的哪些负面影响?

②大模型的技术原理并没有被完全弄清楚,就被大规模推向普通用户,这是不是一种不负责任的做法?

③用大量数据“投喂”的训练方法,是否真的能让人工智能产生意识?

④通过了图灵测试,就意味着人工智能拥有了“人类智能”吗?

⑤国内大模型在两三个月内“扎堆推出”,有哪些潜在风险?

⑥应对人工智能时代的到来,孩子们应该从小就开始学习人工智能课程吗?

以下为对话内容:

暂停超过GPT-4水平的巨型人工智能研发很有必要

腾讯科技:您在暂停超过GPT-4水平的巨型人工智能研发公开信上签了名,是在公开信公布之前,就已经收到了邀约吗?

曾毅:在这个信发起之前,确实是通过了不同的渠道在向我们发出邀请。但是我真正签字也是在它发布之后。

我之所以支持这样一个倡议确实是基于我对现在人工智能的大模型快速地介入到社会服务当中的担忧。因为在GPT3.5的时候,它的隐患就已经显现了。到了GPT4发布的时候,它的能力不限于文本的交互,已经到了多模态的内容生成,曝露出来的风险会更多。

GPT系列跟以前的人工智能的发展模式非常不一样。以前的人工智能,比如我做一个人脸识别的系统,人脸的信息是什么样的,输出可能有多少类?其实相对来说都是可预期的。但是现在GPT的数据是互联网的数据,这些数据中包含“谁说过什么”都不可预期,另外一端谁去问什么问题也不可预期。问了问题之后,的反馈是什么样的,更不清楚。这样一来,就至少有三重不确定性,使得未来人工智能在服务于人类社会的时候,一旦它存在潜在的风险,它将以什么样的模式和速度去放大?这个真是非常难以预期的。

可以说它在带给我们超级能力的同时,带给我们的风险也是巨大的。所以就像公开信中提到的,我们准备好了让这样的技术替代我们原本很满意的工作吗?我们准备好让这种文本生成的技术去干扰甚至替代人类的文明吗?还有对于技术的安全伦理道德方面是不是让它做好了准备,去服务于这么广泛的用户?公开信中提到的一系列的问题,没有一个问题我们做好了准备,但是它的大规模的应用已经开始了。

所以那个时候大家说中国应不应该做?我说这个问题不用讨论,中国很快就会出来。要担心的问题是一个地方会有几套大模型出来。我们现在这个现状就是这样的。大学里可能有两三套大模型都是基础模型,科研院所甚至更多,产业更是数不胜数。倒是我从来没有发现某一个人工智能企业说我绝对不做大模型。几乎可以这样说,人工智能企业现在都在布局大模型的研究。但是,很少有人说我们如何去防范这些风险。

这是那封公开信的意义和价值。正因为我们对于可能的潜在的风险还完全没有准备好,但是已经开始过早、过于激进地尝试,所以我觉得暂停6个月是必要的,先去解决潜在的风险,我们先好好地思考一下。

能力达到GPT4这个层次的大模型已经能够满足我们很多的需求,那么我们要不要先做基于不超越GPT-4这个能力的产业化的应用,然后同步地解决它潜在的问题?但是,比它性能再高等的人工智能的大模型是不是能先暂缓?我觉得这个既是这封信的初衷,也是我签这封公开信的动机。

腾讯科技:是不是中国还没到GPT-4的水平,我们可以先继续?

曾毅:我认为是这样的。目前中国没有任何一个人工智能的大模型达到GPT-4的能力,所以我赞同的是发展信息处理能力接近GPT-4的大模型,但是在伦理安全治理方面的规制与思考远远超越GPT-4这样的大模型的研发。

腾讯科技:那为什么是6个月?如果做这些准备,6个月够吗?

曾毅:我觉得6个月是一个倡议,6个月是一个可以尝试的时段。能够取得一定的效果一定比不做准备要强很多。但是,我们在6个月之内,我们是否能够充分思考相关的风险,并做到防范?我觉得不是,这个是不够的。

这封信当中也讲了至少暂停6个月,尽可能地解决这个问题。最关键的是它里面提到了一个倡议,大家是不是能够坐下来去开发公共的人工智能安全协议,伦理道德检测的框架,以使得为未来做好准备。我觉得如果是6个月之内把我们潜在的伦理道德的问题解决了,也许可以尝试构造这样的安全协议检测的框架,解决其中现有的绝大部分的问题,我觉得还是有希望的。

腾讯科技:如果这6个月内要解决这些您认为潜在的风险问题,哪类风险我们最需要先解决?这个有没有一个产业界认可的框架?

曾毅:我觉得人工智能大模型它对于人类非常直接的伤害形态是显而易见的。第一,人工智能大模型对于整个社会的冲击最大的是对社会信任的冲击。现在你看的,眼见不为实,耳听也不为实。什么信息当你看到的时候,你的第一反应就是这是真的吗?这是人工智能生成的吧?你会有这样的认知。所以,它对社会信任本身是一个极大的挑战。就是如何去降低对社会信任的冲击?我觉得这个是最严重的问题,它将改变几代人。

另外,关乎到个人利益的部分风险要注意。既然大模型是基于互联网数据,但是互联网很多数据确实难免涉及个人隐私数据,如何避免对个人权利的侵犯?我觉得这是个很大的问题。你用别人的照片去做生成,有没有经过别人的允许?你甚至拿已故的人的数据做一些生成,这对于家庭可能的影响,对于死者是不是尊重?这些已经变成非常紧迫的问题了。

另外就是人工智能生成的技术。我觉得最需要避免的问题就是混淆人与人工智能之间的边界。比如说我能不能跟人工智能谈恋爱?有些人说未来一代,也许可能不会听老师说什么,不会听家长说什么,而只会相信类ChatGPT的产品说了什么,什么问题都去问ChatGPT类似的产品。这样的话,我会觉得问题就非常大了。

为什么?因为人类的价值观、对于世界的理解,这种传承应该是在人与人之间的,如果你混淆了人与人之间的边界,你说ChatGPT也是一种观点,甚至有些人说我做这个数字人,这是人的另外一种存在的形式。我觉得这些都是非常危险的观点。为什么?首先人工智能现在没有真正的自我,没有自我的意识,你怎么能说它是一种人的存在形式?有些人说它是数字克隆,那对于人类的克隆,难道它只是把人类一些表征的特征克隆下来就是真正意义上的人类的克隆了吗?我觉得这些都是在混淆人与人工智能之间的边界。这是一个非常大的风险。

更关键的是,未来人与人工智能之间的这种交互可能对社会道德存在潜在的冲击。我觉得这个也是非常危险的。我们要传递什么样的价值观给我们的下一代?比如我们以新闻媒体行业为例,之所以大家会去看记者写的东西,我觉得两件事情很重要:第一个是真实客观;第二个就是媒体记者通过自己的职业素养,可以去传递他对社会的认知与分析。我觉得这些东西是人工智能无法替代的,因为人工智能现在还没有真正的理解能力。

还有就是对于信息真实的程度的判断,人都有基本的判断力,会基于常识做更多的思考。但是对于机器来讲就很难了。人工智能模型会认为互联网上所说的事情99%是真的。

所以基于以上种种情况,我觉得人工智能技术每往前发展一步,它对于伦理安全方面的考虑也需要进一步。这个准备我觉得现在不是选择题,而是必答题,每一个赋能社会的人工智能技术,都需要有伦理安全道德的框架的约束。

腾讯科技:除了用法律框架和治理框架来约束人工智能的发展,还有什么技术手段可以实现和人类真正意义上的价值对齐?

曾毅:我觉得构造看似智能信息处理工具(生成式AI)的这条发展道路它会继续。但是,它不是唯一的道路。人工智能大模型未来的发展,有了伦理道德的约束、有了管理规定标准、甚至是法律,这些是不是就够了?从技术落地的层次来讲,肯定是不够的。这些东西怎么技术化?怎么把它实现在人工智能的系统当中?这有不同的选择。比如你现在可以和人工智能大模型去对话,这些隐含伦理道德风险的问题可以用评测的方式去评测它,让它去回避可能会对人类产生负面影响的答案。

另一方面就是大模型本身。即使你用测评的方式、规则的方式限制它可能回答问题的类型或者是回答问题的方式,但这并不能证明大模型本身就理解了这个内容。它既然没理解,你就很可能会绕过它防范的方式,使得它去回答你想让它回答的一些问题。现在这种尝试很多。ChatGPT不能回答什么问题,道德上规定它不要回答哪些问题,大家就换其他的途径去勾引它回答哪些问题。很多成功的例子。这就证明这种防范不是完全有效的。

所以说未来人工智能只有具备真正的道德的基础,道德的直觉,具备道德推理的能力,真正理解为什么人类采用这样的道德规范,而不是用规则灌输给它,那它才能真正地实现我们说的有道德的人工智能。

我们现在希望人工智能秉持人类的道德规范,但是我们也要知道人类的道德规范也是在不断地演化的。所以,人工智能作为人类的一面镜子去演化,能够帮助我们人类更好地看清我们人类的未来,所以,我不觉得只要满足于人类道德的约束就是人工智能道德的终点。人与人工智能的希望达到的理想的共生状态应当是人工智能的演化,也能帮助人类的进步,也使得人类的伦理道德的框架不断地演进。

腾讯科技:回到这封公开信,您在国内也做了一个调查,您觉得我们现在在AI领域的技术研发落后是更可怕,还是说继续无止境地研发更可怕?

曾毅:当人们去思考如果我不发展是不是就落后了,采用一种竞争的视角来分析这个问题的时候就会使人不理性。我们做的关于暂停人工智能大模型研究的这个调研现在大概有一千多人通过互联网参与,遍布全国各个省市。总体的观点来讲现在是挺明显的。大概有将近40%的人是同意暂停人工智能大模型研究的;大概有25%的人是不同意暂停人工智能大模型研究的;有大概5%的人认为应该暂停所有人工智能大模型的研究 ,先把它的伦理安全框架做好。还有大概百分之十几、二十的人会认为你暂停大模型也没啥用,这个问题反正也不那么容易解决。

这是一个基本的统计。但是让我看来很欣慰的是在人工智能的大模型的研究者里,有25%以上的人会认为现在暂停超越GPT-4能力的大模型的研究是很有意义的事情。他们作为利益的最相关者有将近四分之一的人是赞同的,这个是值得关注的。

另外,有很多人不是研究人工智能大模型的,但是他是人工智能的研究者,可能走的是不同的路径。这一部分人同意暂停人工智能大模型的比例显著是更多的。所以,我们也可以看到当你走出人工智能大模型的利益相关方来看,更理性地来分析这个问题,离人工智能界越远的人对于暂停人工智能大模型越认可。比如人文社科领域、认知科学与心理学领域的人,认同暂停人工智能大模型的会更多。人文社科领域的学者更关切的这些,比例显著高于人工智能的从业者。这个也对于像我这样的人工智能的从业者也提出一种警醒,就是发展技术的同时关注社会的影响。

腾讯科技:您的同行有没有跟您争论过这件事?

曾毅:有的。甚至有像我一样同时从事技术研究,但是也关注人工智能伦理的学者表示了不同意见。他们觉得暂停不能解决问题,你就尽可能地快速地通过技术治理的方式解决问题就好了,而不是说暂停下来它的研究。

但是,我的看法仍然是这样的,如果说GPT-4这样能力的信息处理工具的潜在风险已经让我们焦头烂额了,每天都出现人工智能给大家惹的麻烦,现在几乎可以这样说。那如果我们真的没有准备好,我们是不是可以先把它的已知风险解决掉再去继续?但是我想不同的人有不同的出发点,不管是不是暂停,发展人工智能技术不管它达没达到GPT-4的能力,开展伦理安全框架的研究,并且在研制的过程中就把伦理安全框架内置到这个模型当中,在提供服务之前完全地融合和充分地考虑伦理安全的风险,并完善这个伦理安全的测试,我觉得至少这样做是特别必要的,比之前只是发展它的信息处理能力要强得多。

腾讯科技:公开信的约束力有多大?它只是给人一种影响和一种倡议?

曾毅:我们可以看到签这个公开信背后的科学家们做出了非常负责任地选择。我们在公开信签名的作者当中既可以看到人工智能的图灵奖的获得者Yoshua Bengio,也可以看到老一代的人工智能的开拓者,比如说伯克利大学的Stuart Russell教授,以及关联神经网络提出者John Hopfield教授,他们都是最了解神经网络进展的人,但是为什么大家做出共同的选择?一方面我想是一个价值观的倡导。但是它的作用方面,我想通过这个公开信是团结了大家共同去研发它的安全伦理的协议和检测的平台,使得在学术和产业界当中不仅仅是通过这个事件提升公众的意识,更关键的是促成采取行动,至于这个问题本身是不是由于暂停来解决的?我觉得只要这个问题解决了,哪怕说企业界自己把这个问题解决了,假设说两个礼拜就能解决,我相信这些学者也了乐见其成。所以,我觉得它的目的是帮助我们去解决问题,它的约束力是很低的。

但是据我所知,我们已经有相关的学者在尽其所能地联络不仅仅是国内的,也有国外的企业,希望做出更负责任的共同承诺。所以我想它已经成为一个公众关注的事件,已经发挥了一定的作用,已经引起了人工智能大模型研究者的重视。我们下面希望看到的是产学研界协同采取行动。一方面是构建安全伦理框架,并实施安全伦理框架。第二个是从源头创新上提出真正能够实现有道德的人工智能的科学的进展,才是真正对人类来说负责任的创新,负责任的行为,我们才能真正憧憬人类与人工智能和谐共生的未来。

腾讯科技:未来在人工智能治理方面,公司、科研机构、和国家都分别应该承担哪些责任?

曾毅:首先人工智能的发展,特别是生成式人工智能的发展和应用确实是一个多利益相关方治理的框架。首先要开发一套人工智能的产学研方要进行治理自治的框架。先把能避免的问题尽量避免掉。第二步就是在人工智能管理的层面是一定要有规制的。所以你看到我们国家网信办在去年发布的《互联网信息深度合成管理规定》和前几天发布的《生成式人工智能管理办法意见草案征求意见稿》都是在这样的背景下诞生的,也是多部委协作的机制。

人工智能的监管是一个机制复合体,相关部门例如科技部、工信部、网信办,甚至我们的安全部门都发挥着不同的作用。我想更关键的是,来自公众的力量非常关键,人工智能的发展一旦引起了社会的问题,来自于公众的反馈,来自于媒体的反馈,这些对于人工智能的自律自治、顶层监管是一个非常必要、甚至未来有可能是主导性的互补。

面对大模型技术的“黑箱”,我们应该警惕些什么?

腾讯科技:的创始人承认并没有完全搞懂ChatGPT的运行原理,就把它推向了普通的用户、推向了大规模的应用,这是不是一种不负责任的做法?

曾毅:我觉得他们这样做的另外一个初衷是去收集大量的人类反馈来完善他们的创造。所以,你能够明白它为什么要公开?包括商机,我想这个都是明显地来自于他们的诉求。但是你讲它是不是已经做了它应该做的负责任的行为,它在2022年初就完成了ChatGPT的研发,花了几个月的时间去做测试,应该说已经做出了初步的努力,它很显然不够,因为当他们把这个技术扩散在互联网上的时候相关的隐患就已经出现了,也就证明准备还是不充分的。所以,也就证明了暂停6个月大模型的倡议的价值。

我想未来的人工智能企业确实是需要更负责任地创新。可以看到我们国内大模型的研究机构所发布的大模型几乎是在二三月份的时候开始宣布,到四月份就发布,它们经过的伦理安全检测就更少。所以我特别希望能提醒相关领域的企业和服务方,我们做的不仅仅是变革社会的工具,更关键的是赋能社会发展的平台,这个时候对于社会的责任,我们别无选择、必须承担。

腾讯科技:您认为“大力出奇迹”的人工智能大模型发展路径,是可持续的最优路径吗?

曾毅:我印象中有一次跟领域内学者的讨论,大家当时说人类处于一个转折点,我们现在甚至可以扮演上帝的角色,因为以前是上帝来设计人,现在是我们人可以设计未来的人工智能。我很难赞同这样的观点。为什么这样说?如果人工智能模拟人脑的演化过程,经历的是物竞天择、适者生存,和大自然和谐共处,基于此来延展未来的人工智能,是比较安全的。

而现在,从一个随机的神经网络开始让它跟环境交互、自主演化,最终人类犯过的错误它都可能犯一遍。如果它在一个模拟环境中,把所有犯过的错误都犯一遍,那还好。但是,如果把它放到真实的环境中跟人去交互,跟生态去交互,它犯错的过程带来的风险和隐患就直接作用于人了。

所以,我觉得以大规模数据驱动的方式构造的只能是智能信息处理的工具,再发展下去就是看上去超级智能的工具,但是,它没有自我、也不会产生意识,也很难成为所谓的人类的伙伴或者是社会准成员。

我认为人工智能发展到现在,其实跟人工智能最早的愿景已经非常不一样了,在达特茅斯会议上,关于人工智能愿景(补充英文)原文讲的是“人类智能的方方面面都能够被精确地描述,并且我们用机器能够模拟人类智能的方方面面的话,就可以认为这样的机器具有人工智能”。

但是我们现在看产业界的人工智能,其实是有大规模的数据,有所预期的输出形式,然后用一种数学优化的方式去拟合数据从输入到输出之间的关系。但是,机器中间处理的过程可以跟“人类智能”没有任何关系。

如果偏要把它叫做人工智能的话,我把它叫做data intensive的AI,就是数据智能。但是真正的人工智能首先最重要的恐怕不是数据,而是机制。人类的大脑经历了数亿年演化,它不是短期学习的结果。如果机器能在不同尺度刻画智能的方方面面,模仿它的机制,这样才是最初定义的真正意义上的人工智能。这样的模拟人脑的人工智能,拥有人类数亿年演化的经验,受这个启发构造的人工智能也能避免很多潜在风险。

腾讯科技:目前没有人能解释为什么被投喂过这么多数据之后,人工智能会出现“涌现能力”,即使这样,您也认为人工智能不能产生意识吗?

曾毅:我认为目前所谓的涌现其实还是一种误解。应该说以前的人工智能的模型从来没有基于如此大规模、如此多模态的数据进行训练,产生如此多的参数,意义是什么?其实是应对不确定性。所以只管感受,我们觉得它能回答很多复杂的问题。其实这种能力首先来自于数据本身,互联网级别的数据,基本能覆盖正常人能想到的所有问题。它利用这种统计的显著性,再加上一定的随机的变量产生的答案会让你觉得在别的地方没太看到过。这是一个基础。

至于说它表现出来的不可预期性,我总体上感觉目前大家还是有点想多了。基于统计显著性,随机生成的能力,它的表现力是非常丰富的,但是即使如此,这并不代表着模型本身真正产生了所谓的理解能力。对于ChatGPT来讲,首先刚才我们说了统计的显著性发挥了重要的作用,大规模的数据作为一个基础,人类反馈的强化学习使得它的答案不是最优,而是更接近人类的期望。

背后其实还有很多的规则。比如你让它分析问题,它总是分为两类——这个事情有正面的意义,也有反面的意义。从正面列几条原因,反面来列几条原因。这其实在背后都是有人工的模板的。所以你会觉得“ChatGPT好理性啊”。但是人的话反而并不是那样的。很多时候人会持一个明确的观点,反应出你的信念。

人与人工智能的危险关系

腾讯科技:那到底如何测量这个机器是不是真的聪明?之前我们有图灵测试,现在我们可能看到越来越多的报道说某个人工智能研发通过了图灵测试,图灵测试还有效吗?

曾毅:首先当图灵在写《Computing machinery and intelligence》这个文章的时候就讲到,测试智能的方式应该是多种多样的。对话的方式只是其中的一种方式。换句话说我并不认为ChatGPT通过了图灵测试。你让接触过ChatGPT的很多人再去看人的回答和ChatGPT的回答的时候,其实他是很容易区分出来人和ChatGPT的回答的。因为ChatGPT的回答过于接近人类的需求,看上去过于完美,使得很容易分辨这是不是来自一个“真人”的回答。

人工智能的“智能程度”未来到底用什么去衡量?首先图灵自己就不觉得“图灵测试”是唯一的方式。他文章结尾就谈到你还可以构造一个小机器人,让它学习如何认识世界的事物,可以用这种方式去衡量一个智能。所以,智能的衡量本身就不存在黄金的标准。

但是,如果说与人类的智能相类比,认知学家提出的“多元智能”的理论就讲了人类的智能是方方面面的,而且人类不擅长做所有的事情,他可能有些方面表现得是很突出的。比如有些人数学抽象思维能力很强,但是他可能艺术方面不一定很强。所以,多元智能的理论讲到了人类的智能方方面面,不需要特别完美,有些方面可能非常突出,但是某一方面的突出也不能推断出来它在其他方面也很突出。我觉得未来人工智能如果成为社会的准成员,我们期望的也并不是一个在方方面面都超越人类的社会的准成员。

我觉得“有缺点”的人工智能可能从一个自私的人类来看似乎比什么方面都比人类强的人工智能在社会的接受度上也许会更高一些。所以,我不觉得通过所谓的图灵测试是一件非常可怕的事情。它是尽早地让我们意识到了所谓的图灵测试的局限性。但是另一方面我也不觉得我们有必要去寻求这样的黄金的标准,反而是多元的智能理论它告诉我们智能的本质是在于自适应性,是在于多元的发展。我觉得这些可能会更重要。

腾讯科技:所以我们和ChatGPT谈恋爱是永远不可能做到的是吗?

曾毅:ChatGPT回答问题会说“我认为、我想”,但是,它说的这个“我”是不存在的。因为它说的这个“我”其实只是一个符号的象征。你可以认为这是程序给它的一种模式。所以,它没有真正的自我感知的能力,也很难在这个基础之上发展出来这个自我的意识。你刚才讲到我们未来是不是可以跟ChatGPT谈恋爱?它可以假装跟你谈恋爱,但是它没有自我,没有真正的感受。我会认为现在的GPT家族的技术确实是看似相当智能的信息处理,这种用户体验会越来越极致,但是,它仍然是看似智能的信息处理,仍然不是真正意义上的“理解”。

腾讯科技:未来人与人工智能应该是什么样的关系?

曾毅:如果把技术发展脉络放到更长的历史当中来看,它总是使人回归到人应当在的这个位置上,或者是把人类解放出来做更具创造性的工作。但是,现在人工智能进展的方式是蛮力的替代。在相关工作还没有完全准备好的时候,人工智能以一种试探、尝试的方式去改变社会,社会现在是一种被动的方式去应对,而不是我们所期待的主动地去迎接技术的变革,更多的人是疲于应对的。

所以,有些人会以仇视技术的方式去变革反馈,我觉得它的根源在于获得技术赋能的这些变革者如何帮助社会做出更自适应的过程,使得这个社会能够更好地接受这样的技术。我们作为技术创新者不能止步于“我做出来,让我们看看技术能给我们的社会带来什么样的改变”,你要帮助这个社会去适应,帮助这个社会去找到人类的价值。我觉得人类的价值一定不止步于未来给人工智能提供更多标注的数据,它一定是使得人类回到人类该做的工作上去。

我记得在一次访谈节目中,节目中有很多父亲母亲,当时就讲到未来人工智能会不会把大家工作都替代了?我当时就讲到一个观点,也许未来我们需要重新定义“什么叫做工作”,“我们和工作之间的关系”,“人是不是通过工作来证明自己的价值”?以前不被认为是工作的一些事情未来可能成为新的工作类型。比如说在家里照顾自己的孩子,照顾家里的老人,从事一些社会服务,可能都是未来的工作形态,这些工作需要人类的情感交互,这是人工智能最难去替代的。复杂的情感交互恐怕只有人能够胜任。而且,它使得我们人真正回到了人的本位。很多时候对于家庭成员的陪伴,对于下一代的培养,我相信就算人工智能能替代其中部分的步骤我觉得也是非常蹩脚的。

腾讯科技:应对人工智能时代的到来,现在的孩子要培养哪些能力呢?

曾毅:现在有很多家长也是非常焦虑,就觉得我的孩子是不是应该尽早地接触人工智能?我印象当中也许2017年的时候,当时在中国科技馆做了一个科普的活动,结束的时候就有教育系统的人来问我,你作为一个人工智能的学者,如果我们做中小学的人工智能教育,你的建议是什么?后来过了一两年,甚至看到有类似的书出现——《为幼儿园小朋友写的深度学习教材》,我当时觉得这样的尝试都是非常没有意义的。

为什么?人工智能是一个高速发展的学科。我们如何定义人工智能?如何理解人工智能?这些都在日新月异地变化。而传递给幼儿园、小学生的相关的,我更希望是生活的智慧,当你给小朋友们讲这就是人工智能、人工智能就是这样处理信息的,我会觉得也许我把他们未来的思考空间缩小了。所以,我当时给那个教育系统的工作人员的建议是“小朋友不要把人工智能作为一个学科来学。”

如果真的学有余力的话,就是让孩子们学一门心理学,学认知心理学,让他对人本身有更多的认识——人类的智慧到底是怎么回事?我们的内心是什么样的?人如何为人?让孩子们做更多的思考。第二,我觉得要向德国和法国学习,就是初中、高中去学习哲学。在更年轻的时候去思考这些问题比我们工作之后几十岁的时候再去反思这样的问题有价值大多了。

我们现在的教育确实是很多时候把学生慢慢地变成工具,他们甚至没有时间去思考自己未来的时候就已经被放在未来的赛道上了。所以我觉得家长真的不要那样焦虑,因为技术的发展它最后留给人类的实际上就是属于人类的空间。属于人类的空间就应该以人类的方式去开展。我很喜欢前《三联周刊》的主编舒可文老师的一本书,是讲城市的梦想的。他当时就讲人类的城市就是一半规划,一半野蛮的生长。规划那部分你用技术去改变,野蛮的生长这个部分你就让人与人之间的交流去驱动。人与人工智能的关系也是这样的。我最反感的观点叫做使人工智能无处不在。因为我觉得不管是它发展的阶段还是它本来应该在这个社会中所处的地位都应该是适度地使用,把应该留给人的空间留给人。技术可以去变革,可以去赋能的地方可以去尝试,但是我们发展技术的目的是为了人类更好地生存,更好地发展。不是用技术去为人类划一个句号。

腾讯科技:全世界有这么多国家,大家有不同的文化,那人类有没有一个共同的关于人工智能的终级梦想?

曾毅:目前在全球共识的层面比较认可的是作为工具的人工智能。所以,这个是在联合国教科文组织的《人工智能伦理建议书》当中希望去阐释的一个愿景,就是人工智能作为一种工具和赋能性的技术赋能全球的可持续的发展。但是,我们对于人工智能的愿景确实认知有不同,日本认为人工智能应该发展为社会的准成员和伙伴,西方认为人工智能只是工具,中国可能介于两者之间。但是,这些不同的愿景,不同的价值观都是塑造人工智能不同的尝试。我们未来希望探索的应当是人与人工智能共享的一个最小的伦理原则的集合。

这个最小的伦理原则的集合是不同的文化之间能够达成的共识,这是第一步。第二步,人与人工智能再次达成共识。这个作为人与人工智能共生社会的一个基石。未来的国际交往需要一个伦理的最小集。人与人工智能的伦理也需要这样的一个最小集。但是我想这不是终点。真正的终点是最大化我们应该做什么的表述。真正去促进稳健地、可持续地发展。

发表评论

您的电子邮箱地址不会被公开。 必填项已用*标注

此网站受reCAPTCHA和Google隐私权政策服务条款适用。

Scroll to Top