quartz/content/pages/速来学习:孙凝晖院士给正国级讲课的万字长稿《人工智能与智能计算的发展》.md
2025-03-15 21:01:48 +08:00

158 lines
41 KiB
Markdown
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

---
链接:
- "https://zhuanlan.zhihu.com/p/700203672"
作者:
- "知乎专栏"
date: 2025-03-09
概述: "今天看了下孙凝晖院士在十四届全国人大常委会专题讲座上的讲稿《人工智能与智能计算的发展》,不仅仅总结了过去 AI 的一些里程碑,也提出了一些当前国内外研究存在的问题和风险,以及一些比较重视的方向。看了之后…"
---
[[2025-03-09]] [[剪藏]] [[LATER]] [[AI]]
今天看了下孙凝晖院士在十四届全国人大常委会专题讲座上的讲稿《人工智能与[智能计算](https://zhida.zhihu.com/search?content_id=243731276&content_type=Article&match_order=1&q=%E6%99%BA%E8%83%BD%E8%AE%A1%E7%AE%97&zd_token=eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJpc3MiOiJ6aGlkYV9zZXJ2ZXIiLCJleHAiOjE3NDE2NzUzNDMsInEiOiLmmbrog73orqHnrpciLCJ6aGlkYV9zb3VyY2UiOiJlbnRpdHkiLCJjb250ZW50X2lkIjoyNDM3MzEyNzYsImNvbnRlbnRfdHlwZSI6IkFydGljbGUiLCJtYXRjaF9vcmRlciI6MSwiemRfdG9rZW4iOm51bGx9._pvCiqa1m039NYbt_paevpA6vHz3lcvkyRJ1L8Lzct0&zhida_source=entity)的发展》,不仅仅总结了过去 AI 的一些里程碑,也提出了一些当前国内外研究存在的问题和风险,以及一些比较重视的方向。看了之后深受启发。尤其是院士对一些历史发展,当前现状的总结,可以说是字字珠玑,回味无穷。喜欢看原文的可以点击原文链接查看。国家对 AI 未来的一些定位和发展,从这篇讲稿可以说写的很清晰了。对于我们以后找工作,搞事业也有很多启发。
**值得读十遍。**
笔记格式说明:
1. 【xxxx】方括号内部的是我写的笔记。
2. **xxxx** :带颜色的文字是画的重点。
下面是讲稿全文和笔记内容:
---
委员长、各位副委员长、秘书长、各位委员:
人工智能领域近年来正在迎来一场由生成式人工智能大模型引领的爆发式发展。2022年11月30日OpenAI公司推出一款人工智能对话聊天机器人ChatGPT其出色的自然语言生成能力引起了全世界范围的广泛关注2个月突破1亿用户国内外随即掀起了一场大模型浪潮Gemini、**文心一言【**百度居然是这一段落里唯一一个国内上榜**】**、Copilot、LLaMA、SAM、SORA等各种大模型如雨后春笋般涌现**2022年也被誉为大模型元年。**当前信息时代正加快进入智能计算的发展阶段,人工智能技术上的突破层出不穷,逐渐深入地赋能千行百业,推动人工智能与数据要素成为**新质生产力**的典型代表。**习近平总书记指出,把新一代人工智能作为推动科技跨越发展、产业优化升级、生产力整体跃升的驱动力量,努力实现高质量发展【**国家目前还是很重视AI的**】。**党的十八大以来,以习近平同志为核心的党中央高度重视智能经济发展,**促进人工智能和实体经济深度融合【**这个方向后续重点关注**】**,为高质量发展注入强劲动力。
**一、计算技术发展简介**
计算技术的发展历史大致可分为四个阶段,算盘的出现标志着人类进入第一代——机械计算时代,第二代——电子计算的标志是出现电子器件与电子计算机,互联网的出现使我们进入第三代——网络计算,**当前人类社会正在进入第四阶段——智能计算**。
早期的计算装置是手动辅助计算装置和半自动计算装置,**人类计算工具的历史是从公元1200年的中国算盘开始**随后出现了纳皮尔筹1612年和滚轮式加法器1642年到1672年第一台自动完成四则运算的计算装置——步进计算器诞生了。
机械计算时期已经出现了现代计算机的一些基本概念。查尔斯∙巴贝奇Charles Babbage提出了差分机1822年与分析机1834年的设计构想支持自动机械计算。这一时期编程与程序的概念基本形成编程的概念起源于雅卡尔提花机通过打孔卡片控制印花图案最终演变为通过计算指令的形式来存储所有数学计算步骤人类历史的第一个程序员是诗人拜伦之女艾达Ada她为巴贝奇差分机编写了一组求解伯努利数列的计算指令这套指令也是人类历史上第一套计算机算法程序它将硬件和软件分离第一次出现程序的概念。【总分结构这一段讲述了机械计算时代】
直到在二十世纪上半叶,出现了**布尔代数(数学)、图灵机(计算模型) 、冯诺依曼体系结构(架构) 、晶体管(器件)这四个现代计算技术的科学基础**。其中布尔代数用来描述程序和硬件如CPU的底层逻辑图灵机是一种通用的计算模型将复杂任务转化为自动计算、不需人工干预的自动化过程冯诺依曼体系结构提出了构造计算机的三个基本原则采用二进制逻辑、程序存储执行、以及计算机由运算器、控制器、存储器、输入设备、输出设备这五个基本单元组成晶体管是构成基本的逻辑电路和存储电路的半导体器件是建造现代计算机之塔的“砖块”。基于以上科学基础计算技术得以高速发展形成规模庞大的产业。【用非常简练的语言描述了计算机的结构和功能】
从1946年世界上第一台电子计算机ENIAC诞生到二十一世纪的今天已经形成了五类成功的平台型计算系统。当前各领域各种类型的应用都可以由这五类平台型计算装置支撑。第一类是**高性能计算平台,解决了国家核心部门的科学与工程计算问题**;第二类是**企业计算平台**,又称服务器,用于**企业级的数据管理、事务处理,当前像百度、阿里和腾讯这些互联网公司的计算平台都属于这一类**;第三类是**个人电脑平台**,以桌面应用的形式出现,人们通过桌面应用与个人电脑交互;第四类是**智能手机**,主要特点是移动便携,手机通过网络连接数据中心,以互联网应用为主,它们分布式地部署在数据中心和手机终端;第五类是**嵌入式计算机****嵌入到工业装备和军事设备**,通过实时的控制,保障在确定时间内完成特定任务。这五类装置几乎覆盖了我们信息社会的方方面面,长期以来**人们追求的以智能计算应用为中心的第六类平台型计算系统尚未形成**。
现代计算技术的发展大致可以划分为三个时代。IT1.0又称电子计算时代1950-1970基本特征是以“机”为中心。计算技术的基本架构形成随着集成电路工艺的进步基本计算单元的尺度快速微缩晶体管密度、计算性能和可靠性不断提升计算机在科学工程计算、企业数据处理中得到了广泛应用。【总分结构这一段讲述了电子计算时代】
IT2.0又称网络计算时代1980-2020以“人”为中心。互联网将人使用的终端与后台的数据中心连接互联网应用通过智能终端与人进行交互。以亚马逊等为代表的互联网公司提出了**云计算**的思想,将后台的算力封装成一个公共服务租借给第三方用户,形成了云计算与大数据产业。【总分结构,这一段讲述了网格计算时代,并没有展开讲。】
IT3.0又称智能计算时代始于2020年与IT2.0相比增加了“物”的概念,即物理世界的各种端侧设备,被数字化、网络化和智能化,实现“人-机-物”三元融合。智能计算时代除了互联网以外还有数据基础设施支撑各类终端通过端边云实现万物互联终端、物端、边缘、云都嵌入AI提供与ChatGPT类似的大模型智能服务最终实现有计算的地方就有AI智能。智能计算带来了巨量的数据、人工智能算法的突破和对算力的爆发性需求。【总分结构这一段讲述了智能计算时代】
**二、智能计算发展简介**
智能计算包括人工智能技术与它的计算载体,大致历经了**四个阶段**,分别为**通用计算装置、[逻辑推理专家系统](https://zhida.zhihu.com/search?content_id=243731276&content_type=Article&match_order=1&q=%E9%80%BB%E8%BE%91%E6%8E%A8%E7%90%86%E4%B8%93%E5%AE%B6%E7%B3%BB%E7%BB%9F&zd_token=eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJpc3MiOiJ6aGlkYV9zZXJ2ZXIiLCJleHAiOjE3NDE2NzUzNDMsInEiOiLpgLvovpHmjqjnkIbkuJPlrrbns7vnu58iLCJ6aGlkYV9zb3VyY2UiOiJlbnRpdHkiLCJjb250ZW50X2lkIjoyNDM3MzEyNzYsImNvbnRlbnRfdHlwZSI6IkFydGljbGUiLCJtYXRjaF9vcmRlciI6MSwiemRfdG9rZW4iOm51bGx9.MneBLwiBu8PoUgZ_kIPa2bGqoTRUqBDbRM0uvkO3Fa8&zhida_source=entity)、深度学习计算系统、[大模型计算系统](https://zhida.zhihu.com/search?content_id=243731276&content_type=Article&match_order=1&q=%E5%A4%A7%E6%A8%A1%E5%9E%8B%E8%AE%A1%E7%AE%97%E7%B3%BB%E7%BB%9F&zd_token=eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJpc3MiOiJ6aGlkYV9zZXJ2ZXIiLCJleHAiOjE3NDE2NzUzNDMsInEiOiLlpKfmqKHlnovorqHnrpfns7vnu58iLCJ6aGlkYV9zb3VyY2UiOiJlbnRpdHkiLCJjb250ZW50X2lkIjoyNDM3MzEyNzYsImNvbnRlbnRfdHlwZSI6IkFydGljbGUiLCJtYXRjaF9vcmRlciI6MSwiemRfdG9rZW4iOm51bGx9.2jONXdwsSEKW8NvqVY6onaJSvXIV9tfMtmUSEFYzs5c&zhida_source=entity)**。
智能计算的起点是通用自动计算装置1946年【这说的是人类第一台电子数字积分计算机ENIAC】。艾伦·图灵Alan Turing和冯·诺依曼John von Neumann等科学家一开始都希望能够模拟人脑处理知识的过程发明像人脑一样思考的机器虽未能实现但却解决了计算的自动化问题。通用自动计算装置的出现**也推动了1956年人工智能AI概念的诞生**,此后所有人工智能技术的发展都是建立在新一代计算设备与更强的计算能力之上的。【**这一段时间的故事我之前写过一个小总结**,见:[AI 的第一次代表大会](https://link.zhihu.com/?target=http%3A//mp.weixin.qq.com/s%3F__biz%3DMzUyOTA5OTcwMg%3D%3D%26mid%3D2247485373%26idx%3D1%26sn%3D4d5dd03c333827a238fd240f977c7844%26chksm%3Dfa677964cd10f072f7dc450f50abbac9fbcabd21fc079d3ced98fcc955708008e2b589f8d7c4%26scene%3D21%23wechat_redirect)】
智能计算发展的第二阶段是逻辑推理专家系统1990年。E.A.费根鲍姆Edward Albert Feigenbaum等**[符号智能学派](https://zhida.zhihu.com/search?content_id=243731276&content_type=Article&match_order=1&q=%E7%AC%A6%E5%8F%B7%E6%99%BA%E8%83%BD%E5%AD%A6%E6%B4%BE&zd_token=eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJpc3MiOiJ6aGlkYV9zZXJ2ZXIiLCJleHAiOjE3NDE2NzUzNDMsInEiOiLnrKblj7fmmbrog73lrabmtL4iLCJ6aGlkYV9zb3VyY2UiOiJlbnRpdHkiLCJjb250ZW50X2lkIjoyNDM3MzEyNzYsImNvbnRlbnRfdHlwZSI6IkFydGljbGUiLCJtYXRjaF9vcmRlciI6MSwiemRfdG9rZW4iOm51bGx9.NzmoO7YpV_C2oKT-7sWuFMgVzdeDvfgwXWxiZ2KR3vw&zhida_source=entity)**的科学家以逻辑和推理能力自动化为主要目标,提出了能够将知识符号进行逻辑推理的专家系统。**人的先验知识以知识符号的形式进入计算机**使计算机能够在特定领域辅助人类进行一定的逻辑判断和决策但专家系统严重依赖于手工生成的知识库或规则库。这类专家系统的典型代表是日本的五代机和我国863计划支持的306智能计算机主题日本在逻辑专家系统中采取专用计算平台和Prolog这样的知识推理语言完成应用级推理任务我国采取了与日本不同的技术路线以通用计算平台为基础将智能任务变成人工智能算法将硬件和系统软件都接入通用计算平台并催生了曙光、汉王、科大讯飞等一批骨干企业。【AI 在达特茅斯会议之后分成了两派:**符号派和连接派。**符号派的代表就是这里说的逻辑推理专家系统连接派则是神经网络。沃尔特·皮茨Walter Pitts总结时说一派人企图模拟神经系统而纽厄尔则企图模拟心智mind……但殊途同归。”】
**符号计算系统的局限性在于其爆炸的计算时空复杂度**,即符号计算系统只能解决线性增长问题,对于高维复杂空间问题是无法求解的,从而限制了能够处理问题的大小。同时因为符号计算系统是基于知识规则建立的,我们又**无法对所有的常识用穷举法来进行枚举【**不具备举一反三的能力**】**它的应用范围就受到了很大的限制。随着第二次AI寒冬的到来第一代智能计算机逐渐退出历史舞台。
直到2014年左右智能计算进阶到第三阶段——深度学习计算系统。以杰弗里·辛顿Geoffrey Hinton等为代表的**[连接智能学派](https://zhida.zhihu.com/search?content_id=243731276&content_type=Article&match_order=1&q=%E8%BF%9E%E6%8E%A5%E6%99%BA%E8%83%BD%E5%AD%A6%E6%B4%BE&zd_token=eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJpc3MiOiJ6aGlkYV9zZXJ2ZXIiLCJleHAiOjE3NDE2NzUzNDMsInEiOiLov57mjqXmmbrog73lrabmtL4iLCJ6aGlkYV9zb3VyY2UiOiJlbnRpdHkiLCJjb250ZW50X2lkIjoyNDM3MzEyNzYsImNvbnRlbnRfdHlwZSI6IkFydGljbGUiLCJtYXRjaF9vcmRlciI6MSwiemRfdG9rZW4iOm51bGx9.ka7So1SyLlUlFW_FWdCh9e2Ic5_DTk3pvwFKdJEM5T4&zhida_source=entity)**以学习能力自动化为目标发明了深度学习等新AI算法。通过深度神经元网络的自动学习大幅提升了模型统计归纳的能力在模式识别①等应用效果上取得了巨大突破某些场景的识别精度甚至超越了人类。以人脸识别为例整个神经网络的训练过程相当于一个网络参数调整的过程将大量的经过标注的人脸图片数据输入神经网络然后进行网络间参数调整让神经网络输出的结果的概率无限逼近真实结果。神经网络输出真实情况的概率越大参数就越大从而将知识和规则编码到网络参数中**这样只要数据足够多,就可以对各种大量的常识进行学习,通用性得到极大的提升**。连接智能的应用更加广泛,包括语音识别、人脸识别、自动驾驶等。在计算载体方面,**中国科学院计算技术研究所2013年提出了国际首个深度学习处理器架构**,国际知名的硬件厂商[英伟达](https://zhida.zhihu.com/search?content_id=243731276&content_type=Article&match_order=1&q=%E8%8B%B1%E4%BC%9F%E8%BE%BE&zd_token=eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJpc3MiOiJ6aGlkYV9zZXJ2ZXIiLCJleHAiOjE3NDE2NzUzNDMsInEiOiLoi7HkvJ_ovr4iLCJ6aGlkYV9zb3VyY2UiOiJlbnRpdHkiLCJjb250ZW50X2lkIjoyNDM3MzEyNzYsImNvbnRlbnRfdHlwZSI6IkFydGljbGUiLCJtYXRjaF9vcmRlciI6MSwiemRfdG9rZW4iOm51bGx9.5uHX5JhIH0ghspPPEwQeI7veUJ79BgdHgX5s0M683aU&zhida_source=entity)NVIDIA持续发布了多款性能领先的通用GPU芯片都是深度学习计算系统的典型代表。
智能计算发展的第四阶段是大模型计算系统2020年。在人工智能大模型技术的推动下智能计算迈向新的高度。**2020年AI从“小模型+判别式”转向“大模型+生成式”,**从传统的人脸识别、目标检测、文本分类升级到如今的文本生成、3D数字人生成、图像生成、语音生成、视频生成。大语言模型在对话系统领域的一个典型应用是OpenAI公司的ChatGPT它采用预训练基座大语言模型[GPT-3](https://zhida.zhihu.com/search?content_id=243731276&content_type=Article&match_order=1&q=GPT-3&zd_token=eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJpc3MiOiJ6aGlkYV9zZXJ2ZXIiLCJleHAiOjE3NDE2NzUzNDMsInEiOiJHUFQtMyIsInpoaWRhX3NvdXJjZSI6ImVudGl0eSIsImNvbnRlbnRfaWQiOjI0MzczMTI3NiwiY29udGVudF90eXBlIjoiQXJ0aWNsZSIsIm1hdGNoX29yZGVyIjoxLCJ6ZF90b2tlbiI6bnVsbH0.7g6kOU4JIb8at0SAJJuRuIsmU_SNV6_R7cZQ5TT7EBw&zhida_source=entity)引入3000亿单词的训练语料**相当于互联网上所有英语文字的总和**。**其基本原理是:通过给它一个输入,让它预测下一个单词来训练模型,通过大量训练提升预测精确度,最终达到向它询问一个问题,大模型产生一个答案,与人即时对话【**这里说的是预训练**】**。在基座大模型的基础上,再给它一些**提示词进行有监督的指令微调**,通过人类的<指令回复>对逐渐让模型学会如何与人进行多轮对话【这里说的是指令微调SFT】最后通过**人为设计和自动生成的奖励函数来进行强化学习迭代**,逐步实现大模型与人类价值观的对齐【对齐阶段】。【关于这三个阶段,**之前写过一个简单科普,可以看**[ChatGPT背后的故事](https://link.zhihu.com/?target=http%3A//mp.weixin.qq.com/s%3F__biz%3DMzUyOTA5OTcwMg%3D%3D%26mid%3D2247484862%26idx%3D1%26sn%3Dd5d246c7b2796928f492195775512a4a%26chksm%3Dfa677b67cd10f27125ccbdbd7201436fff10e6aa424103eaca17bdc3deb8673b030bb5291e8b%26scene%3D21%23wechat_redirect)】
大模型的特点是**以“大”取胜**其中有三层含义1**参数大**GPT-3就有1700亿个参数2**训练数据大**ChatGPT大约用了3000亿个单词570GB训练数据3**算力需求大**GPT-3大约用了上万块V100 GPU进行训练。为满足大模型对智能算力爆炸式增加的需求国内外都在大规模建设耗资巨大的新型智算中心英伟达公司也推出了采用256个H100芯片150TB海量GPU内存等构成的大模型智能计算系统。【大模型+大数据+大算力】
大模型的出现带来了三个变革。一是技术上的**规模定律Scaling Law**即很多AI模型的精度在**参数规模超过某个阈值后模型能力快速提升【**用物理的例子来解释就类似水在100度就沸腾了大模型在超过一定的参数量后会多出很多泛化的能力**】**其原因在科学界还不是非常清楚有很大的争议。AI模型的性能与模型参数规模、数据集大小、算力总量三个变量成**“对数线性关系**”【提升效果的难度越来越高】因此可以通过增大模型的规模来不断提高模型的性能。目前最前沿的大模型GPT-4参数量已经达到了万亿到十万亿量级并且仍在不断增长中二是**产业上算力需求爆炸式增长**千亿参数规模大模型的训练通常需要在数千乃至数万GPU卡上训练2-3个月时间【一般的企业电费都掏不起】急剧增加的算力需求带动相关算力企业超高速发展英伟达的市值接近两万亿美元对于芯片企业以前从来没有发生过三是**社会上冲击劳动力市场**北京大学国家发展研究院与智联招聘联合发布的《AI大模型对我国劳动力市场潜在影响研究》报告指出**受影响最大的20个职业中财会、销售、文书位于前列需要与人打交道并提供服务的体力劳动型工作如人力资源、行政、后勤等反而相对更安全**。【我们打工人要锻炼身体,未雨绸缪】
人工智能的技术前沿将朝着以下四个方向发展。**第一个前沿方向为多模态大模型。**从人类视角出发,**人类智能是天然多模态的**,人拥有眼、耳、鼻、舌、身、嘴(语言)从AI视角出发视觉听觉等也都可以建模为token②的序列可采取与大语言模型相同的方法进行学习并进一步与语言中的语义进行对齐实现多模态对齐的智能能力。
**第二个前沿方向为视频生成大模型。**【专门列出视频方向】OpenAI于2024年2月15日发布文生视频模型SORA将视频生成时长从几秒钟大幅提升到一分钟且在分辨率、画面真实度、时序一致性等方面都有显著提升。**SORA的最大意义是它具备了世界模型的基本特征**,即人类观察世界并进一步预测世界的能力。世界模型是建立在理解世界的基本物理常识(如,水往低处流等)之上,然后观察并预测下一秒将要发生什么事件【但是目前应该**还不能确定SORA只是简单的模拟还是真的学习到了物理规律**如果是后者那真的很可怕】。虽然SORA要成为世界模型仍然存在很多问题但可以认为SORA学会了画面想象力和分钟级未来预测能力这是世界模型的基础特征。
**第三个前沿方向为具身智能。**具身智能**指有身体并支持与物理世界进行交互的智能体**,如机器人、无人车等,通过多模态大模型处理多种传感数据输入,由大模型生成运动指令对智能体进行驱动,替代传统基于规则或者数学公式的运动驱动方式,实现虚拟和现实的深度融合。因此,**具有具身智能的机器人,可以聚集人工智能的三大流派**:以神经网络为代表的连接主义,以知识工程为代表的符号主义和控制论相关的行为主义,三大流派可以同时作用在一个智能体,这预期会带来新的技术突破。
**第四个前沿方向是AI4R(AI for Research)成为科学发现与技术发明的主要范式。**【目前陶哲轩等数学家已经开始积极拥抱AI并且借助AI有了很多研究成果】当前科学发现主要依赖于实验和人脑智慧由人类进行大胆猜想、小心求证信息技术无论是计算和数据都只是起到一些辅助和验证的作用。相较于人类人工智能在记忆力、高维复杂、全视野、推理深度、猜想等方面具有较大优势是否能以AI为主进行一些科学发现和技术发明大幅提升人类科学发现的效率比如**主动发现物理学规律、预测蛋白质结构【**比如AlphaFold**】、设计高性能芯片、高效合成新药**等。因为**人工智能大模型具有全量数据,具备上帝视角,通过深度学习的能力,可以比人向前看更多步数**,如能实现从推断(inference)到推理(reasoning)的跃升,人工智能模型就有潜力具备爱因斯坦一样的想象力和科学猜想能力,极大提升人类科学发现的效率,打破人类的认知边界。这才是真正的颠覆所在。
最后,**通用人工智能**③Artificial General Intelligence简称AGI是一个极具挑战的话题极具争论性。曾经有一个哲学家和一个神经科学家打赌25年后即2023年科研人员是否能够揭示大脑如何实现意识当时关于意识有两个流派一个叫集成信息理论一个叫全局网络工作空间理论**前者认为意识是由大脑中特定类型神经元连接形成的“结构”,后者指出意识是当信息通过互连网络传播到大脑区域时产生的**。2023年人们通过六个独立实验室进行了对抗性实验结果与两种理论均不完全匹配哲学家赢了神经科学家输了。通过这一场赌约可以看出人们总是希望人工智能能够了解人类的认知和大脑的奥秘。从物理学的视角看物理学是对宏观世界有了透彻理解后从量子物理起步开启了对微观世界的理解。智能世界与物理世界一样都是具有巨大复杂度的研究对象AI大模型仍然是通过数据驱动等研究宏观世界的方法提高机器的智能水平对智能宏观世界理解并不够直接到神经系统微观世界寻找答案是困难的。人工智能自诞生以来一直承载着人类关于智能与意识的种种梦想与幻想也激励着人们不断探索。
**三、人工智能的安全风险**
人工智能的发展促进了当今世界科技进步的同时,**也带来了很多安全风险****要从技术与法规两方面加以应对。【**目前借助AI可以很低成本的造假Ilya他们搞超级对齐就是为了规避一些风险。在矛造出来之前先把盾造出来**】**
首先是互联网虚假信息泛滥。这里列举若干场景:**一是数字分身。**AI Yoon是首个使用 DeepFake 技术合成的官方“候选人”这个数字人以韩国国民力量党候选人尹锡悦Yoon Suk-yeol为原型借助尹锡悦 20 小时的音频和视频片段、以及其专门为研究人员录制的 3000 多个句子,由当地一家 DeepFake 技术公司创建了虚拟形象 AI Yoon并在网络上迅速走红。实际上 AI Yoon 表达的内容是由竞选团队撰写的,而不是候选人本人。
**二是伪造视频,**尤其是伪造领导人视频引起国际争端,扰乱选举秩序,或引起突发舆情事件,如伪造尼克松宣布第一次登月失败,伪造乌克兰总统泽连斯基宣布“投降”的信息,这些行为导致新闻媒体行业的社会信任衰退。
**三是伪造新闻,**主要通过虚假新闻自动生成牟取非法利益使用ChatGPT生成热点新闻赚取流量截至2023年6月30日全球生成伪造新闻网站已达277个**严重扰乱社会秩序。**
**四是换脸变声,用于诈骗**。如由于AI语音模仿了企业高管的声音一家香港国际企业因此被骗3500万美元。
**五是生成不雅图片,**特别是针对公众人物。如影视明星的色情视频制作,造成不良社会影响。因此,迫切需要发展互联网虚假信息的伪造检测技术。
其次AI大模型面临严重可信问题。这些问题包括1“一本正经胡说八道”的**事实性错误**2**以西方价值观叙事,输出政治偏见和错误言论**3**易被诱导,输出错误知识和有害内容**4**数据安全问题加重**大模型成为重要敏感数据的诱捕器ChatGPT将用户输入纳入训练数据库用于改善ChatGPT美方能够利用大模型获得公开渠道覆盖不到的中文语料掌握我们自己都可能不掌握的“中国知识”。因此迫切需要发展大模型安全监管技术与自己的可信大模型。
除了技术手段外,**人工智能安全保障需要相关立法工作**。2021年科技部发布《新一代人工智能伦理规范》2022年8月全国信息安全标准化技术委员会发布《信息安全技术 机器学习算法安全评估规范》2022-2023年中央网信办先后发布《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理办法》等。欧美国家也先后出台法规2018年5月25日欧盟出台《通用数据保护条例》2022年10月4日美国发布《人工智能权利法案蓝图》2024年3月13日欧洲议会通过了欧盟《人工智能法案》。
**我国应加快推进《人工智能法》出台**,构建人工智能治理体系,确保人工智能的发展和应用遵循人类共同价值观,促进人机和谐友好;创造有利于人工智能技术研究、开发、应用的政策环境;建立合理披露机制和审计评估机制,理解人工智能机制原理和决策过程;明确人工智能系统的安全责任和问责机制,可追溯责任主体并补救;推动形成公平合理、开放包容的国际人工智能治理规则。
**四、中国智能计算发展困境**
人工智能技术与智能计算产业处于中美科技竞争的焦点,我国在过去几年虽然取得了很大的成绩,但依然面临诸多发展困境,特别是由美国的科技打压政策带来的困难。
**困境一为美国在AI核心能力上长期处于领先地位中国处于跟踪模式。**中国在AI高端人才数量、AI基础算法创新、AI底座大模型能力大语言模型、文生图模型、文生视频模型、底座大模型训练数据、底座大模型训练算力等都与美国存在一定的差距**并且这种差距还将持续很长一段时间**。【实事求是】
**困境二为高端算力产品禁售,高端芯片工艺长期被卡。**A100H100B200等高端智算芯片对华禁售。华为、龙芯、寒武纪、曙光、海光等企业都进入实体清单它们芯片制造的先进工艺④受限**国内可满足规模量产的工艺节点落后国际先进水平2-3代核心算力芯片的性能落后国际先进水平2-3代**
**困境三为国内智能计算生态孱弱AI开发框架渗透率不足。**英伟达[CUDA](https://zhida.zhihu.com/search?content_id=243731276&content_type=Article&match_order=1&q=CUDA&zd_token=eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJpc3MiOiJ6aGlkYV9zZXJ2ZXIiLCJleHAiOjE3NDE2NzUzNDMsInEiOiJDVURBIiwiemhpZGFfc291cmNlIjoiZW50aXR5IiwiY29udGVudF9pZCI6MjQzNzMxMjc2LCJjb250ZW50X3R5cGUiOiJBcnRpY2xlIiwibWF0Y2hfb3JkZXIiOjEsInpkX3Rva2VuIjpudWxsfQ.9CetKaesc4vRybfvleP-x-IBlG_p40UQtf8qBRdOgwg&zhida_source=entity)⑤(Compute Unified Device Architecture, 通用计算设备架构)生态完备,**已形成了事实上的垄断**。国内生态孱弱,具体表现在:一是**研发人员不足**英伟达CUDA生态有近2万人开发是国内所有智能芯片公司人员总和的20倍二是**开发工具不足**CUDA有550个SDK(Software Development Kit, 软件开发工具包),是国内相关企业的上百倍;三是**资金投入不足**英伟达每年投入50亿美元是国内相关公司的几十倍四是**AI开发框架**[TensorFlow](https://zhida.zhihu.com/search?content_id=243731276&content_type=Article&match_order=1&q=TensorFlow&zd_token=eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJpc3MiOiJ6aGlkYV9zZXJ2ZXIiLCJleHAiOjE3NDE2NzUzNDMsInEiOiJUZW5zb3JGbG93IiwiemhpZGFfc291cmNlIjoiZW50aXR5IiwiY29udGVudF9pZCI6MjQzNzMxMjc2LCJjb250ZW50X3R5cGUiOiJBcnRpY2xlIiwibWF0Y2hfb3JkZXIiOjEsInpkX3Rva2VuIjpudWxsfQ.eszZU8gxw8-j7sjscSTcxqDWyMvu80BCamdMt5_8BeY&zhida_source=entity)占据工业类市场,[PyTorch](https://zhida.zhihu.com/search?content_id=243731276&content_type=Article&match_order=1&q=PyTorch&zd_token=eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJpc3MiOiJ6aGlkYV9zZXJ2ZXIiLCJleHAiOjE3NDE2NzUzNDMsInEiOiJQeVRvcmNoIiwiemhpZGFfc291cmNlIjoiZW50aXR5IiwiY29udGVudF9pZCI6MjQzNzMxMjc2LCJjb250ZW50X3R5cGUiOiJBcnRpY2xlIiwibWF0Y2hfb3JkZXIiOjEsInpkX3Rva2VuIjpudWxsfQ.R0RN6Nh_yf39D2CuTNXBMCVddiYq3P8Ml0B7DeAa2LY&zhida_source=entity)占据研究类市场,**百度飞桨等国产AI开发框架的开发人员只有国外框架的1/10**。**更为严重的是国内企业之间山头林立,无法形成合力**,从智能应用、开发框架、系统软件、智能芯片,虽然每层都有相关产品,但各层之间没有深度适配,**无法形成一个有竞争力的技术体系。【**院士一针见血的点出了国内的问题,**我之前也有分析过国内外大模型的发展状况,写的没有院士的全面,但是思路基本还是对的。感兴趣可以看**[大模型公司哪家强?\_ \_ 国 \_ \_ 找 \_ \_](https://link.zhihu.com/?target=http%3A//mp.weixin.qq.com/s%3F__biz%3DMzUyOTA5OTcwMg%3D%3D%26mid%3D2247485309%26idx%3D1%26sn%3Db41a434997274e5ee063e8a7610e434e%26chksm%3Dfa6779a4cd10f0b227f85012e2a41252838bbf6fade88e5d4630f36027cac20b3bfc0c2786ae%26scene%3D21%23wechat_redirect)**】**
**困境四为AI应用于行业时成本、门槛居高不下。**当前我国AI应用主要集中在互联网行业和一些国防领域。AI技术推广应用于各行各业时特别是从互联网行业迁移到非互联网行业需要进行大量的定制工作迁移难度大单次使用成本高。最后我国在AI领域的人才数量与实际需求相比也明显不足。【虽然说计算机就业已经有些饱和但是 AI 的高级人才还是稀缺的。】
**五、中国如何发展智能计算的道路选择**
**人工智能发展的道路选择对我国至关重要,关系到发展的可持续性与最终的国际竞争格局。**当前人工智能的使用成本十分高昂微软Copilot套件要支付每月10美元的使用费用ChatGPT每天消耗50万千瓦时的电力英伟达B200芯片价格高达3万美元以上。总体来说我国**应发展用得起、安全可信的人工智能技术**【未来发展就看这句话】,消除我国信息贫困人口、并造福“一带一路”国家;低门槛地赋能各行各业,让我国的优势产业保持竞争力,让相对落后的产业能够大幅地缩小差距。
**选择一:统一技术体系走闭源封闭,还是开源开放的道路?**支撑智能计算产业的是一个相互紧耦合的技术体系,即由一系列技术标准和知识产权将材料、器件、工艺、芯片、整机、系统软件、应用软件等密切联系在一起的技术整体。我国发展智能计算技术体系存在**三条道路:**
**一是追赶兼容美国主导的A体系。**【简单但是用别人的就会卡脖子】我国大多数互联网企业走的是GPGPU/CUDA兼容道路很多芯片领域的创业企业在生态构建上也是尽量与CUDA兼容**这条道路较为现实**。由于在算力方面美国对我国工艺和芯片带宽的限制,在算法方面国内生态林立很难形成统一,生态成熟度严重受限,在数据方面中文高质量数据匮乏,这些因素会使得追赶者与领先者的差距很难缩小,一些时候还会进一步拉大。
**二是构建专用封闭的B体系。**【安全,但是没有影响力】在军事、气象、司法等专用领域构建企业封闭生态,基于国产成熟工艺生产芯片,相对于底座大模型更加关注特定领域垂直类大模型,训练大模型更多采用领域专有高质量数据等。这条道路易于形成完整可控的技术体系与生态,我国一些大型骨干企业走的是这条道路,**它的缺点是封闭,无法凝聚国内大多数力量,也很难实现全球化。**
**三是全球共建开源开放的C体系。**【全世界人民团结起来对抗万恶的资本主义】用开源打破生态垄断降低企业拥有核心技术的门槛让每个企业都能低成本地做自己的芯片形成智能芯片的汪洋大海满足无处不在的智能需求。用开放形成统一的技术体系我国企业与全球化力量联合起来共建基于国际标准的统一智能计算软件栈。形成企业竞争前共享机制共享高质量数据库共享开源通用底座大模型。对于全球开源生态我国企业在互联网时代收益良多我国更多的是使用者是参与者在智能时代我国企业在RISC-V⑥+AI开源技术体系上**应更多地成为主力贡献者,成为全球化开放共享的主导力量。**
**选择二:拼算法模型,还是拼新型基础设施?**人工智能技术要赋能各行各业具有典型的长尾效应⑦。我国80%的中小微企业,需要的是低门槛、低价格的智能服务。因此,我国智能计算产业必须建立在新的数据空间基础设施之上,**其中关键是我国应率先实现智能要素即数据、算力、算法的全面基础设施化。**这项工作可比肩二十世纪初美国信息高速公路计划(即信息基础设施建设)对互联网产业的历史作用。
信息社会最核心的生产力是网络空间(Cyberspace)。网络空间的演进过程是:**从机器一元连接构成的计算空间,演进到人机信息二元连接构成的信息空间,再演进到人机物数据三元连接构成的数据空间。**从数据空间看,**人工智能的本质是数据的百炼成钢,大模型就是对互联网全量数据进行深度加工后的产物**。**在数字化时代,在互联网上传输的是信息流,是算力对数据进行粗加工后的结构化抽象****在智能时代,在互联网上传输的是智能流,是算力对数据进行深度加工与精炼后的模型化抽象。【**写的太好了,我匮乏的语言都无法描述这一段的精妙**】**智能计算的一个核心特征就是用数值计算、数据分析、人工智能等算法,在算力池中加工海量数据件,得到智能模型,再嵌入到信息世界、物理世界的各个过程中。
我国政府已经前瞻性地提前布局了新型基础设施,在世界各国竞争中抢占了先机。**首先,数据已成为国家战略信息资源。**数据具有资源要素与价值加工两重属性,数据的资源要素属性包括生产、获取、传输、汇聚、流通、交易、权属、资产、安全等各个环节,我国应继续加大力度建设国家数据枢纽与数据流通基础设施。
**其次AI大模型就是数据空间的一类算法基础设施。以通用大模型为基座构建大模型研发与应用的基础设施支撑广大企业研发领域专用大模型服务于机器人、无人驾驶、可穿戴设备、智能家居、智能安防等行业覆盖长尾应用。**
**最后,全国一体化算力网建设在推动算力的基础设施化上发挥了先导作用。**算力基础设施化的中国方案,应在大幅度降低算力使用成本和使用门槛的同时,为最广范围覆盖人群提供高通量、高品质的智能服务。算力基础设施的中国方案需要**具备“两低一高”**,即在供给侧,**大幅度降低**算力器件、算力设备、网络连接、数据获取、算法模型调用、电力消耗、运营维护、开发部署的**总成本**,让广大中小企业都消费得起高品质的算力服务,有积极性开发算力网应用;在消费侧,**大幅度降低广大用户的算力使用门槛**,面向大众的公共服务必须做到易获取、易使用,像水电一样即开即用,像编写网页一样轻松定制算力服务,开发算力网应用。在服务效率侧,**中国的算力服务要实现低熵高通量**,其中高通量是指在实现高并发⑧度服务的同时,端到端服务的响应时间可满足率高;低熵是指在高并发负载中出现资源无序竞争的情况下,保障系统通量不急剧下降。保障“算得多”对中国尤其重要。
**选择三AI+着重赋能虚拟经济,还是发力实体经济?**
**“AI+”的成效是人工智能价值的试金石**。次贷危机后美国制造业增加值占GDP的比重从1950年的28%降低为2021年的11%美国制造业在全行业就业人数占比从1979年的35%降低为2022年的8%,可见**美国更倾向于回报率更高的虚拟经济轻视投资成本高且经济回报率低的实体经济。中国倾向于实体经济与虚拟经济同步发展更加重视发展装备制造、新能源汽车、光伏发电、锂电池、高铁、5G等实体经济。**【以后选择什么个工作知道了么?】
相应地**美国**AI主要应用于虚拟经济和IT基础工具**AI技术也是“脱实向虚”**自2007年以来硅谷不断炒作虚拟现实Virtual RealityVR、元宇宙、区块链、Web3.0、深度学习、AI大模型等是这个趋势的反映。我国的优势在实体经济制造业全球产业门类最齐全体系最完整特点是场景多、私有数据多。**我国应精选若干行业加大投入,形成可低门槛全行业推广的范式,如选择装备制造业作为延续优势代表性行业,选择医药业作为快速缩短差距的代表性行业。**赋能实体经济的技术难点是AI算法与物理机理的融合。【AI+的范式仍然适用】
**人工智能技术成功的关键是能否让一个行业或一个产品的成本大幅下降从而将用户数与产业规模扩大10倍产生类似于蒸汽机对于纺织业智能手机对于互联网业的变革效果。**
我国应走出适合自己的人工智能赋能实体经济的高质量发展道路。
---
**主讲人系中国工程院院士,中国科学院计算技术研究所研究员、学术委员会主任**
**注释:**
①模式识别是指用计算的方法根据样本的特征将样本划分到一定的类别中去,是通过计算机用数学方法来研究模式的自动处理和判读,把环境与客体统称为“模式”。以图像处理与计算机视觉、语音语言信息处理、脑网络组、类脑智能等为主要研究方向。
②Token可翻译为词元指自然语言处理过程中用来表示单词或短语的符号。token可以是单个字符,也可以是多个字符组成的序列。
③通用人工智能是指拥有与人类相当甚至超过人类智能的人工智能类型。通用人工智能不仅能像人类一样进行感知、理解、学习和推理等基础思维能力,还能在不同领域灵活应用、快速学习和创造性思考。通用人工智能的研究目标是寻求统一的理论框架来解释各种智能现象。
④芯片制造工艺指制造CPU或GPU的制程即晶体管门电路的尺寸单位为纳米目前国际上实现量产的最先进工艺以台积电的3nm为代表。更先进的制造工艺可以使CPU与GPU内部集成更多的晶体管使处理器具有更多的功能以及更高的性能面积更小成本更低等。
⑤CUDA是英伟达公司设计研发一种并行计算平台和编程模型包含了CUDA指令集架构以及GPU内部的并行计算引擎。开发人员可以使用C语言来为CUDA架构编写程序所编写出的程序可以在支持CUDA的处理器上以超高性能运行。
⑥RISC-V发音为“risk-five”是一个由美国加州大学伯克利分校发起的开放通用指令集架构相比于其他付费指令集RISC-V允许任何人免费地使用RISC-V指令集设计、制造和销售芯片和软件。
⑦长尾效应是指那些原来不受到重视的销量小但种类多的产品或服务由于总量巨大,累积起来的总收益超过主流产品的现象。在互联网领域,长尾效应尤为显著。
⑧高并发通常指通过设计保证系统能够同时并行处理很多请求。