李国杰:有关人工智能的若干认识问题¶
原文地址 mp.weixin.qq.com
人工智能是否会再次进入严冬?深度学习是否达到了发展的天花板?AlphaFold 给我们什么启示?可解释性和通用性是不是当前最重要的研究方向?符号主义与联结主义融合的前景如何?中国如何发展人工智能技术和产业?本文将讨论以上几个理解人工智能的问题。
人工智能 (AI) 自诞生以来就众说纷纭,争议不断。近几年人工智能的高速发展也是在人们乐观与悲观情绪的交织中进行。今后几十年人工智能技术能否健康发展,取决于人们对这一 “头雁” 技术的认识。从某种意义上讲,人类的未来也取决于决策部门、科技人员对人工智能的正确理解。30 多年前,我也算是人工智能的 “弄潮儿” 之一,虽然现在已不在科研第一线,但仍然是人工智能技术和应用的 “观潮者”。我在这篇文章里讲几点 “过来人” 的观感与认识,仅供大家参考,不当之处,请批评指正。
1 人工智能会不会再次进入严冬?¶
对人工智能的发展现状的评价一直存在争议,有人说人工智能处在火热的 “夏天”,也有人认为它即将再次进入 “严冬”。近年来,斯坦福大学每年都发布 “人工智能指数报告” (The AI Index Report),2021 年的报告指出,近十年计算机视觉研究取得巨大进展,已实现产业化;自然语言处理近年来进展较快,已经出现了语言能力显著提升的人工智能系统,开始产生有意义的经济影响。斯坦福大学的报告比较中肯,基本上代表了人工智能界多数学者的看法,既肯定了人工智能最近取得的进展为企业提供了大量机遇,又强调必须注意采取措施降低使用人工智能的风险。我们在对人工智能的前景做判断时,既要看到人工智能技术的高速发展和巨大潜力,又要看到现有技术的局限性和人工智能理论取得重大突破的艰巨性。
前几年人工智能界许多人认为,深度学习在自然语言理解方面还难以取得大的突破,但近两年人工智能系统在这一领域取得较大进展,有点出人意料。不论是斯坦福大学发起的机器阅读理解比赛 SQuAD (Stanford Question Answering Dataset),还是纽约大学等单位组织的通用语言理解评估基准 (GLUE Benchmark) 比赛,机器阅读理解的成绩已超过人类平均水平。百度、阿里等国内单位多次在比赛中夺冠,反映出中国在自然语言理解方面已处于国际领先水平。但这种刷榜式的比赛成绩未必真实反映了目前的人工智能系统的理解能力。加拿大学者发起了威诺格拉德模式挑战赛 (Winograd Schema Challenge,WSC),通过对模糊指代的测试(句子中 “他” 是指谁)考验人工智能系统的常识理解水平,结果人工智能系统的得分很低。近年来 GPT-3 (Generative Pre-trained Transformer,生成性预训练变换器) 和 BERT(Bidirectional Encoder Representations from Transformers,基于转换器的双向编码表征)等模型在 WSC 测试中也取得过 84% 以上的高分,2020 年人工智能促进协会 (AAAI) 大会上一篇提出 WINOGRANDE 测试(WSC 的变种)的论文荣获了最佳论文奖,该文指出我们高估了现有模型的常识推理能力。
在 2011 年美国智力竞猜节目《危险边缘》(Jeopardy!) 中,IBM 的 Watson 计算机击败了两位顶级选手后,IBM 将医疗作为人工智能科研转化的核心,启动了 Watson Health 项目,烧掉上百亿美元,但仍然缺乏有效的逻辑推理,无法为医生提供意想不到的方案。IBM 的 Watson Health 业务年营收只有 10 亿美元左右,历经十年也没有通过 FDA(美国食品药品监督管理局)的审批,还无法有效应用于临床。据媒体报道,IBM 正在考虑出售 Watson Health 业务。IBM 放弃 Watson 智慧医疗系统给我们带来重要的启示:对正确性和安全性要求很高、环境复杂的行业,人工智能应用还有很长的路要走。
人工智能已经经历过两次严冬,会不会再度经历一个冬天?之前人工智能遭遇寒冬,是因为当时的技术还不能创造较大的经济价值。第三波人工智能的兴起不是来自学术界,而是来自企业界的驱动。本质上不是人工智能界发明了以前不知道的新技术,而是数字化的普及产生了智能化的需求。只要智能化的需求旺盛,学术界不像前两次那样盲目乐观,人工智能就不会马上进入冬天。如果能扎扎实实地在合适的应用场景推广合适的智能技术,人工智能可能会度过一段较长时间的 “秋天”。
总的来讲,人工智能诞生后的前 60 年基本上是在 “象牙塔” 内发展。2012 年国内人工智能领域融资只有 17 亿元,2018 年增长到 1311 亿元,人工智能企业数量也翻了两番。国务院的文件提出要发展 “新一代人工智能”,这是指信息化的发展催生出大量新的智能应用需求,促使人工智能成为数字经济的领头雁。传统人工智能主要是模拟一个人的智能行为,新一代人工智能要求模拟人类社会和物理世界。如果我们能去掉人工智能头上神圣的光环,放下人工智能高贵的身段,在工业制造、生物学、医学、社会科学等诸多领域甘当配角,新一代人工智能不但不会进入严冬,必将走出小舞台,奔向科学研究和数字经济的大舞台,进入飞速发展的康庄大道。
2 深度学习是否遇到了发展的天花板?¶
2020 年 5 月,OpenAI 发布了无监督的转化语言模型 GPT-3。这个模型包含 1750 亿个参数,训练数据量达到了 45 TB(1 万亿单词量),在语义搜索、文本生成、内容理解、机器翻译等方面取得重大突破。2021 年,OpenAI 的 GPT-3 又有重大改进,参数减少到 120 亿,只有 GPT-3 的 1/14,可以成功跨界,按照文字描述生成对应图片。GPT-3 证明了通过扩大参数规模可以实现性能提升,成为深度学习的标志性成果。受 GPT-3 的激励,深度学习的参数规模还在不断增长。2020 年 8 月,GShard 达到 6000 亿,2021 年 1 月,Switch-C 达到 16000 亿。最近北京智源人工智能研究院发布的 “悟道 2.0”,参数达到 1.75 万亿,成为目前全球规模最大的预训练模型。学术界开始质疑,扩大参数规模是机器学习的唯一出路吗?参数规模的增长有没有尽头?现在就下结论说机器学习的参数规模已经到头了可能为时过早,进一步增加参数可能对提高自然语言理解等应用的智能化水平还有潜力。但增加参数无疑会提高算力要求,OpenAI 用于 GPT-3 的超级计算机包含 285000 个 CPU 内核、10000 个 GPU,有媒体报道,训练 1750 亿参数一次要花费 1200 万美元。一味地增加算力显然不是人工智能发展的唯一方向。
任何技术都有局限性,深度学习肯定也有向上发展的天花板。问题是扩大参数规模和人工神经网络的层数究竟还有多大的改进空间?我们能从理论上分析和预测深度学习的天花板吗?计算机科学的复杂性理论专门研究问题和算法的时空上下界(即天花板),但深度学习希望解决的问题是对数据 “含义” 的 “理解”,传统的复杂性理论似乎用不上。深度学习的根底是数学,数学是关于形式表示的学问,只用 “真” 和 “伪” 两种含义表述逻辑、概率和统计问题,没有描述 “含义” 的方法。有些数学家认为,用计算机不可能真正解决语义理解问题。这可能是深度学习本质的天花板,我们需要创建新的数学、新的计算理论,简单地集成和优化现在的人工智能技术无济于事。
减少深度学习对数据的依赖性,已经成为人工智能研究重要的探索方向之一。深度学习并不只是监督学习,也不只是神经网络。目前人工智能算法的主要特点是实现 “大数据、小任务”。探索人脑的奥妙机理,实现小数据学习和举一反三的迁移学习是更重要的研究方向。希望在只有少量数据,对任务没有严格限制的情况下,能取得 “小数据、大任务” 的成功。大脑的功耗只有 20W,实现低能耗的智能系统是更重要的努力方向。实际上,人工智能的巨大进展已体现在算法的改进上,投入人工智能算法研究可以比硬件研发收益更高。自 2012 年以来,训练一个人工智能模型在基准测试 ImageNet 图像分类任务中达到同等的分类效果,所需的算力每 16 个月就会减少 ½。目前训练神经网络达到 AlexNet 的水平所需的算力已减少到 2012 年的 1/44。
目前的机器学习是针对特定的、预先编程好的某个目的,基本上是算法、模型的优化。如何实现人造智能体的自动 “进化” 是体现智能的关键,要关注 “用人工智能创造出更好的人工智能”。我认为,人工智能的目标主要是两个:一是计算机的智能化,二是人造物理世界(主要是工业世界)的智能化。人造物理世界的智能化除了计算机视觉等感知技术外,最重要的应该是机器的自动(辅助)编程技术,或者说机器控制程序的自动进化技术。相对于深度学习,国内学者对机器自动编程几乎无动于衷,这应该是我国人工智能发展布局上的一大失误。目前的机器学习分为两个阶段,模型训练和模型应用是人为隔离的,推理模型和应用程序通过积累、分析自己的应用结果,自动进化升级的案例尚不多见。机器不一定有意识,但可以有目的。机器学习的真正难点在于保证机器的目的与人的价值观一致。人工智能面临的重要挑战不是机器能做多少事,而是知道机器做的对不对。
有些学者认为,深度神经网络是个自动调参数的 “黑箱”,只是通过不断优化拟合非线性目标函数而已。但是,深度神经网络是对人类大脑进化形成的分层视觉神经系统的模仿。数学家鄂维南指出:“从数学家的观点看,人工神经网络就是一种应对维数灾难的数学工具,通过对高维函数的拟合,数学上可以推导出两层神经网络和梯度下降法。” 麻省理工学院(MIT)的物理学家迈克斯・泰格马克 (Max Tegmark) 在《生命 3.0》(Life 3.0) 的书中指出:“我们发现人工神经网络之所以如此有效,不能仅用数学来回答,因为答案的一部分取决于物理学。如果大脑的进化是为了预测未来,那么,我们进化出的计算结构正好擅长计算那些在物理世界中十分重要的问题。” 对人类大脑的模仿、数学家应对维数灾难的求解、物理原理的适用是三个完全不同的视角,但得出的结论都是多层人工神经网络和梯度下降法等基础算法,绝不会是偶然的巧合,深度学习技术在计算机视觉和自然语言理解等领域取得成功的背后一定还有更深层次的原因。加州大学伯克利分校马毅教授最近发文,从数据压缩(和 “群不变性”)的角度提供了对深度(卷积)网络的完全 “白盒” 解释,展示了深层架构、线性算子等所有参数都可以从最大化速率缩减(具有 “群不变性”)的原则推导出来。这可能是深度学习理论的重大进展,值得高度关注。
深度学习只是人工智能长河中的一朵浪花,人工智能学科的未知领域十分巨大。美国斯坦福大学计算机科学系终身教授李飞飞表示:现在的人工智能还处在牛顿物理学之前的时代,我们还在学习现象学和工程学。杰夫・辛顿 (Geoffrey Hinton) 和吴恩达 (Andrew Ng) 等机器学习领域的领军人物都在呼吁重启人工智能。即使目前的深度学习技术有天花板,捅破天花板后一定是更广阔的发展空间。假以时日,人工智能界也许会再次出现图灵、冯・诺伊曼一样的领军人才,将人工智能推向新的高峰。
3 AlphaFold 给我们什么启示?¶
2020 年人工智能领域另一个引人关注的成果是将机器学习应用于基础研究。蛋白质结构预测是生命科学领域的重大科学问题,目前已知氨基酸顺序的蛋白质分子有 1.8 亿个,但其三维结构信息被彻底看清的还不到 0.1%。谷歌旗下的 DeepMind 公司开发的人工智能程序 AlphaFold2 在 2020 年 11 月的蛋白质结构预测大赛 CASP 14 中,对大部分蛋白质实现了原子精度的结构预测,取得了 92.4% 的高分。这是蛋白质结构预测史无前例的巨大进步。AlphaFold 在方法学和概念理论上没有大的创新,与其他的参赛队一样采用卷积神经网络 (CNN) 加上模拟退火技术 (Simulated Annealing,SA),只是用的资源比较多,“高算力出奇迹”。但 AlphaFold 是用人工智能方法做基础科学研究的成功探索,为人工智能扩展了新的研究方向。
同样在 2020 年 11 月,中国和美国的一个联合研究小组获得高性能计算的最高奖 —— 戈登・贝尔奖 (Gordon Bell Prize)。长期以来,第一性原理分子动力学只能计算数千个原子,模拟时长在皮秒量级。该团队采用基于深度学习的分子动力学模拟方法,有机地结合传统的高性能计算和机器学习,将分子动力学极限从基线提升到了 1 亿原子的惊人数量,计算速度提高至少 1000 倍,与 AlphaFold 一样,引领了科学计算从传统的计算模式朝着智能超算的方向前进。这两项成果的意义在于,深度学习融合了过去的四种科学范式,创造了一种新的科学范式,我称之为 “科学研究第五范式” 的雏形。
可能在几年之后,AlphaFold 将具备替代实验研究、直接从蛋白质氨基酸序列大批量产生蛋白质三维结构的能力。随着 AlphaFold 的成熟,人类对蛋白质分子的理解将会有一次革命性的升级。AlphaFold 的成功也给我们带来新的困惑:疑难问题的解决越来越不依赖于人类的先验知识,也越来越无法被人类理解。这意味着在人工智能时代,人类获取知识的逻辑将要发生根本的变革,对人类认知将产生巨大冲击。机器学习是一种全新的、人类也无法真正理解、但能被实践检验的认知方法论。我们是相信 “实践是检验真理的标准”,还是坚持必须给人讲明白原因才是真理,甚至必须遵循严格的演绎规则才是真理?人类将面临困难的选择。
4 可解释性和通用性是不是当前最重要的研究方向?¶
可解释性和预测精度是相互矛盾的两个维度,如同高性能和低功耗、通用性和高效率一样,难以得兼。智能应用是多种多样的,不同的应用对可解释性的要求大不相同。即使是对安全性要求很高的应用,需要解释到什么程度也是有区别的,可解释性不应是 AI 研究的首要目标。人类智能本身也是一个黑箱,相比人类大脑的不可解释,人工神经网络也许能解释更多决策的过程。至于深度神经网络的输出究竟是如何形成的,用现有的知识解释每个参数的作用无济于事,需要创立新的理论才能做出解释。实践是检验真理的标准,解释性弱的技术也会延续发展,例如中医。对于人工智能,人们最担心的可能不是对 “输出结果是如何产生的” 解释不清楚,而是不知道它什么时候会出现错误,比可解释性更重要的是人工智能的防错技术,要有科学依据地将出错率降低到可接受的范围,特别是解决攻击性环境下出错的问题。人工神经网络出现 “白痴性” 的错误与其高预测性形影相随,可能是本质性的特征,提高可解释性不一定是防止出错的唯一途径,防错研究应该成为人工智能的重要研究方向。
所谓 “防错研究” 是指准确地划定给定的智能程序的应用范围。也就是要获得达到预定目标的必要条件和保证不出错的充分条件。世界上没有包治百病的神药,每种药品上都标注了适应症。确定智能应用程序的适用范围应当比药品更严格,当然也意味着更困难。一般而言,模型的复杂度和准确性往往是正相关的关系,而越高的复杂度也意味着模型可能越无法解释。信任黑盒模型意味着不仅要信任模型的方程式,还要信任它所基于的可能有偏见的整个数据库,所以对数据的 “偏见性” 检查也需要重视。可以考虑先训练出庞大、精确的、上百层的深度神经网络,再将深度神经网络压缩成较浅的神经网络,在保证它的准确率的同时提高可解释性。大多数机器学习模型的设计没有可解释的约束条件,目前只是在静态数据集上为准确的预测变量而设计,今后有些应用可考虑增加可解释性的约束条件。可解释性也是分层次的,最严格的可解释性是数学,但要求像数学一样从几条公理出发可能会扼杀人工智能研究。
通用人工智能是人工智能研究的终极目标。这个目标何时能实现?在对全球 23 位顶尖人工智能学者的一次调查中,最乐观的专家给出的时间为 2029 年,最悲观的专家认为要到 2200 年。平均来看,时间点为 2099 年。我认为,如果要通过洞察人脑的奥秘实现像人脑一样通用的人工智能,恐怕要到 22 世纪以后。通过获取足够多的背景知识,让机器具有更丰富的常识,可以逐步提高人工智能系统的通用性,但近期内不必将追求像人脑一样的通用性作为主要研究目标。在一个领域内有足够的通用性就有很宽广的应用前景。对于人工智能研究,比最大程度的通用性更紧迫的研究目标包括:应对具体应用复杂环境的鲁棒性和自适应性,智能系统的安全性等。
今年 6 月 15 日,清华大学发布新闻,我国首个原创虚拟学生 “华智冰” 将入学清华大学计算机系,即日起开启在清华大学的学习和研究生涯。此新闻在网络上引起热议,也遭到一些批评。采用虚拟学生的形式测试检验 “悟道” 超大规模人工智能模型,通过机器学习不断提高虚拟人系统的通用智能水平,原本无可非议。但除了采用真人视频代表虚拟机器人引起误导外,关键是清华大学准备在三年左右的时间 “培养” 出达到大学毕业生智能水平的虚拟机器人缺乏科学依据。日本东京大学的新井纪子教授花了近 10 年时间,组织上百人的研究队伍,开展 “机器人能考上东京大学吗” 的研究(这是第五代计算机以后日本最有影响的人工智能研究项目),2020 年她写了一本书《当人工智能考上名校》,明确宣布,人工智能还有很多无法超越的障碍,最大的困难是 “常识”,仅凭现有人工智能技术不可能考上东京大学。通用智能是人脑的本质特征,在对人脑机制缺乏了解的情况下,短期内对实现像人脑一样通用的人工智能不要抱过高的期望。人类也不迫切需要像人一样通用的智能产品。如果研究通用人工智能,最好制定 20~30 年研究目标,埋头做长期基础研究,闷声憋大招。短平快的研究不可能解决通用人工智能的难题。
通用性等价于强人工智能的看法已在学术界流行,现在我只能 “入乡随俗”,勉强接受已经流行的所谓 “强人工智能” 和 “弱人工智能” 的分类,但我认为这并不是一种科学合理的分类。我认为,通用性和智能化水平是两个维度,通用性有强弱,智能化水平主要反映在性能和效率上,也有强弱之分。与通用相对的是专用,我们要在扩展应用领域和提高智能化水平两个维度发力。强人工智能追求的是智能纵向的深度,通用人工智能追求的是智能横向的宽度。纵向智能、横向智能都没有尽头。新一代人工智能既要朝通用的方向发展,也要朝提高专门领域的智能化水平发展。一堆狭义智能的堆砌永远不会成为通用人工智能,“信息整合” 是人脑涌现智慧的关键,要高度重视提高机器学习通用性的 “迁移学习”。
美国国防部高级研究计划署 (DARPA) 的下一代人工智能计划部署了 90 项应用人工智能、27 项高级人工智能和 18 项前沿探索(比例为 9∶3∶2)。90 项应用如药品开发、芯片设计等都是弱人工智能,高级人工智能包括可解释性、推理论证、鲁棒性、行为准则、普遍性(通用性)和极端性能 6 项技术,前沿探索包括有限数据学习(小数据学习)等 6 个研究方向。此布局以人工智能应用为主,兼顾高端技术和前沿探索,是一种综合考虑近、中、远期需求的全面布局,值得我们借鉴。
5 符号主义与联结主义融合的前景如何?¶
能否使用符号是人和动物的本质区别。早在 19 世纪,德国哲学家恩斯特・卡西勒 (Ernst Cassirer,1874—1945) 就指出人是会使用符号的动物。从动物向智人进化的分界线是发明符号和使用符号。纽厄尔 (Newell) 和西蒙 (Simon) 提出的物理符号系统假设:对于一般智能而言,具备物理符号系统是一个充分必要的条件。所谓必要,就是任何表现出智能的系统都可以经过分析被证明是一个物理符号系统;所谓充分,就是任何足够大的物理符号系统都可以通过组织而表现出智能。物理符号系统假设是符号主义的理论基础,符号主义确实为人工智能发展做出了历史性的贡献,但这一假设没有得到人工智能界的公认,人脑是不是 “物理符号系统” 至今也说不清楚。智能系统涉及信号、亚符号和符号的处理和转化,符号处理应该不是智能处理的全部内容。经过几十亿年的进化,我们的大脑最终形成了很多不同的应对环境的机制。进化选择了生命的杂乱而非逻辑的严谨。历史已证明,只靠基于人类知识和特定规则创建人工智能,往往会失败。要真正实现基于知识的推理,需要万亿级的常识知识库支持,现在可以实现更大规模的常识知识图谱,用大规模的常识知识图谱来支撑深度学习,有可能实现更通用的人工智能。
目前基于数据驱动的机器学习不能举一反三,鲁棒性差(易受噪声的影响),不能在使用过程中自动进行学习。机器学习与人类学习的机制和方法存在巨大的差异。为了提高机器学习的水平,需要与心理学、认知科学和神经科学结合,借鉴人类的学习机制,在学习中融入常识和推理,改变目前机器学习的方法与机制。
人工智能已经两起两落,第一波的主流是逻辑推理,第二波是基于人工神经网络的机器学习。普遍认为,未来的第三波将是机器学习与逻辑推理的有机融合,追求更加通用、更鲁棒、更具有可解释性的人工智能。希望两种有互补性的技术结合起来是人们习惯的想法,但联结主义和符号主义的结合比常人想象的要困难得多。联结主义和符号主义结合的困难在于,深度神经网络中隐结点上发生的事情是不可言传的,因为隐结点可能并不表达我们使用的任何概念或概念组合,可能只有把认知过程分解成远比我们的概念体系细得多的碎片,再按另一种方式重新组合才能得到一点语义的蛛丝马迹。符号主义到联结主义再到可解释的联结主义是否定之否定螺旋式上升。简单地用符号逻辑解释深度神经网络,可能是走回头路。
人脑的智慧是感知到认知的 “涌现”(emerge),之所以用 “涌现” 这个词,是因为它过于复杂而无法用公式或任何确定的方式来表达。但理解从低层次的感知到高层次的逻辑推理,必须明白 “涌现” 如何发生。简单地互相借用另一个层次的某些思路或方法,难以实现真正的结合。涌现的特征是混沌性,理解它如何形成可能已超越目前人类的智力。人工智能的下一步发展要更加解放思想,跳出现有的符号主义和联结主义的框框,从神经科学、生物科学、人文科学等更广泛的领域获取灵感。
6 发展人工智能应有更理性的态度¶
1991 年,在第一届全国人工智能与智能计算机学术会议上,我代表国家 863 计划 “智能计算机” 主题(863-306 主题)专家组提出发展智能计算机的 “顶天立地” 战略。我认为,今天发展人工智能技术仍要坚持这个战略,采取 “弱人工智能” 和 “强人工智能” 两条腿走路的方针。“强人工智能” 还处在基础研究阶段,要解放思想,争取 “广种奇收”。要毫不犹豫地大力发展和推广 “弱人工智能” 技术,以计算机和控制设备(系统)的智能化为重点,将人工智能技术融入数字经济和智慧社会之中。人工智能要获得根本性的重大突破还要付出艰苦的努力,但每年都要争取获得几项像 GPT-3 和 GoldFold2 一样的明显进展,积小胜为大胜。
研究一项智能技术,在某个单项智能水平上超过人不是发展人工智能产业的目的。一定要时刻问自己:“如果我的研究成果是答案,那么,要解决的问题是什么?” 不能把人工智能当作 “锤子”,把所有要解决的问题都看成 “钉子”。人工智能不是万能药,必须了解目前人工智能技术究竟能解决哪些实际问题。
在机器翻译等领域,深度学习做得非常好,可以达到 90% 以上的准确率。问题是最后的 10% 的提升,可能需要完全不同的方法。在自动驾驶系统中,机器做出的决策必须非常准确,容不得一丝马虎,这样才能确保乘客的安全。所以对于最后的 1% 的提升,甚至百万分之一的提升,都需要做大量的科研攻关,也许最终还是要人机结合。
人工智能的效果不局限于自动化,不能将替代人工当成发展智能技术的唯一目标。要不要用智能技术替代现在的人工要做全面分析,应考虑整体成本和就业、稳定等社会问题。韩国是工业机器人使用密度最高的国家,考虑大量使用机器人可能增加失业率,韩国政府决定对投资工业自动化设备的企业取消税收减免,变相征收 “机器人税”。这一政策反映出政府不能不顾一切地支持发展替代人工的自动化技术。对在发展智能技术的过程中可能失业的工作人员要未雨绸缪,有计划地做新职业培训,对任意解雇劳动者的企业要有适当的约束措施。
现在大家做人工智能研发大都基于国外大企业的开发平台,如谷歌、脸书、亚马逊、微软等,这些开源程序都放在 GitHub 中(现在是微软下面的托管平台)。按照美国法律,GitHub 要受美国法律管辖,存在断供的风险。我国一定要建立自主可控的人工智能开源平台。企业牵头的人工智能开放创新平台是一条路,但企业的开发工具不一定开源,数据和模型不一定能共享。国家科研机构和大学要花更多精力打造培育人工智能开源软件和开源开发工具。
技术本身的发展和监管必须齐头并进,不能等风险已不可收拾时才想到要监管。一定要把科技关进伦理和法律的笼子里。越是先进的技术越需要监管。社会各界都十分担心人工智能的风险,要像监管核武器一样加强人工智能技术的监管。人工智能伦理和人工智能监管是我国明显的短板,应立即加强有关布局和规划。未来的智慧社会中,“智警” 和有关智能业务的 “法务工程师” 应成为重要的从业人员,从现在起,就要着手培养 “智警” 和熟悉智能业务的 “法务工程师”。
我国学术界习惯于随大流,辩论风气不浓。中国计算机学会 (CCF) 启智会已开始对人工智能的局限和未来发展趋势展开激烈辩论,希望国内人工智能界在会议和期刊中多开展辩论,弘扬百家争鸣的自由探索精神。
李国杰
CCF 名誉理事长,2004—2012 年任 CCF 理事长。CCF 会士,CCCF 前主编。中国工程院院士,中国科学院计算技术研究所首席科学家。
特别声明:中国计算机学会 (CCF) 拥有《中国计算机学会通讯》(CCCF) 所刊登内容的所有版权,未经 CCF 允许,不得转载本刊文字及照片,否则被视为侵权。对于侵权行为,CCF 将追究其法律责任