今年以来,人工智能(AI)爆出个超级大网红ChatGPT。它上知天文,下知地理,博古通今。它才思敏捷,吟诗作画,编程写论文,无所不能。它与其他大模型不同,开放了用户界面,普通人可以像用手机或电脑一样,直接应用。因此,它圈粉无数,短短两个月吸引上亿用户,且无广告,完全依赖用户口碑,掀起全球AI飓风,堪称史上最受欢迎的产品。在ChatGPT横空出世的几个月里,它成为许多会议的当然主题,知名度和影响力史无前例,其幕后推手Open AI也大沾其光,迅速出“圈”,被业界外的人津津乐道。如果说2016年AlphaGo战胜人类围棋最强手的影响力还局限在中国和亚洲,那么ChatGPT则是席卷全球,深入各个领域各个层次。
PC互联网呈现网景时刻,移动互联网闪亮iPhone时刻,ChatGPT的影响力堪比互联网,因此,有人称之为ChatGPT时刻。
ChatGPT究竟是何方神圣能全球吸睛?它将给AI时代带来什么?它给人类惊喜的同时,又存在哪些隐患?中国将面临怎样的机遇和挑战?在清华大学智能产业研究院(AIR),清华大学“智能科学”讲席教授、中国工程院院士张亚勤院长,娓娓道来他的人工智能观。
1978年12岁的张亚勤,从山西考入中国科大少年班,是当年全国最耀眼的一名大学生,成为20世纪七八十年代十年寒窗苦读者的集体偶像,更是家长眼里“别人家的孩子”。1985年,年仅19岁的他从中国科大研究生毕业,赴美国乔治华盛顿大学深造,1989年获得博士学位。1999年回国出任微软中国研究院首席科学家,一年后担任微软中国研究院院长。2001年微软中国研究院升格为微软亚洲研究院,张亚勤担任首任院长。2004年他擢升微软公司全球副总裁,2007年执掌微软中国公司(董事长),兼任微软亚太研发集团主席。2014年出任百度公司总裁,2019年从百度公司退休后,来清华创办AIR。
张亚勤从事AI研究数十年,是数字视频和AI领域的世界顶级科学家和企业家,拥有60多项美国专利,发表500多篇学术论文,出版11本专著。他发明的多项图像视频压缩和传输技术成为国际标准,广泛地应用于高清电视、互联网视频、多媒体检索、移动视频和图像数据库领域。
张亚勤是中国工程院院士(外籍)、美国艺术与科学院院士和澳大利亚国家工程院院士(外籍)。他也是美国国家发明院(NAI) 院士,欧亚科学院院士和中国人工智能学会会士。1997年31岁时被授予IEEE Fellow,成为历史上获得这一荣誉最年轻的科学家。
AI时代的操作系统
张亚勤认为,过去30年,IT行业最重要的变革是实现数字化。人工智能的三要素:算力、算法和数据,过去10年算力增加了10万倍,远超摩尔定律。数据是新一代AI,特别是大模型的基石。数字化经历三个发展阶段,数字化1.0是内容数字化,包括文本、音乐、图片、视频、语言,直接产物是消费者互联网;数字化2.0是企业数字化,即企业信息化,如ERP、CRM、商务智能、企业智能等,直接产物是云计算;现在是数字化3.0时代,信息、物理、生物世界的数字化,比如车、机器、城市、道路、家庭、大脑、身体器官、细胞、分子、基因都在数字化。1.0到2.0是从原子到比特,3.0是比特和原子分子的相互映射,直接产物是海量数据,数据比1.0和2.0时代大很多数量级,这是AI发展最重要的基石。
AI的鼻祖是图灵。图灵测试可验证人类是否能够分辨出交互对象是人还是机器。ChatGPT是人类第一个通过图灵测试的智能体。之前很多年所做的聊天机器人属于分析式、决策式、预测式、鉴别式AI,在专有领域如智能客服等方面表现很好,但跨领域效果一般,因为还不是通用类生成式AI。ChatGPT走向通用AI。大模型用不同的微调策略,执行不同的任务。因此,从产业方面讲,GPT+等各种大模型是AI时代的“操作系统”。
钟秀斌(下文简称钟):张院长好!好久不见,您还像当年一样精神抖擞,没什么变化。我看过您近期关于AI和大语言模型ChatGPT的一些演讲,受益匪浅。我们多数人没有AI背景知识,特别期待您这样的权威学者科普一下,如何认识ChatGPT这一现象级的新事物?
张亚勤(下文简称张):ChatGPT及其所引领的大语言模型和生成式AI,不是横空出世的,而是随着人工智能技术发展进化而来的。大基础模型 Foundation Model (FM)正在成为人工智能时代的操作系统。
说到操作系统,人们自然想到 PC时代的Windows,移动互联网时代的安卓和iOS。现在有两种操作系统,一种是在云平台上,一种是在用户终端上。GPT所代表的大模型是云平台里的操作系统。云平台有IaaS(基础设施层)、PaaS(中间层即平台层)和SaaS(软件服务层)三层。GPT可以理解为MaaS(Model as a Service),模型即服务,属于PaaS层。
云和端的说法比较形象。在端这边,是一个更小的系统,会具体到手机、机器人、无人车等物体上。这个系统较小,建立在现有的体系之上,比如手机终端建立在安卓和iOS上,或建立在机器人操作系统 Ross之上。
操作系统会撬出一个大的产业生态,包括硬件(芯片)、软件和服务体系。大语言模型是AI时代的平台级技术,将形成比移动互联网规模更大的产业生态。
移动互联网产业生态比 PC时代要大一个数量级,ChatGPT为核心的AI产业生态比移动互联网还要大一个数量级。现在的AI芯片不同了,芯片早期是 CPU x86,后来是ARM,现在AI芯片多是GPU、ASIC等。AI时代,大模型的算法也不同,整个计算架构完全变了。
冯诺依曼架构过去60年一直是计算机架构的主体, 目前需要新的计算架构。大模型需要大计算,无论GPU,还是数据中心,其内部通信功能很强而形成大连接大计算。深度学习算法需要大量的向量Tensor运算,稀疏矩阵和布尔代数逻辑。数据处理的这些变化,需要新的芯片架构、新的指令集、新的框架、新的工具链,在此之上的应用也得重写。比如从电脑到手机,手机上的APP是新的,各类平台上有APP store,商业模式同样发生变化。这是我从产业方面理解所带来的新体验与新变化。
AI三大要素算力、算法和数据变化了,基于ChatGPT或者FM上的应用和产业模式也随之改变。因此,它在成为AI时代的操作系统。
人们现在感受还没那么深。就像我们所经历的互联网发展一样,刚开始只在行业内扩散,然后走向通用,在各个垂直领域里深入融合。ChatGPT也是这么一个过程。现在为什么ChatGPT的震撼这么大,因为它有用户体系,界面有接口,用户可以直接应用它。
过去大模型基本都有API(应用程序接口,Application Programming Interface),像Windows一样呈现一个界面,用户直接用,但后台复杂的计算处理,用户不知道。
ChatGPT像Office一样,用户可以直接用。目前尚是一个最简单的接口,今后它会发展成横向通用模型,会有各种垂直模型,应用在toB(行业)的垂直领域,机会非常大。
钟:从计算机到人工智能,工具或者技术能力越来越强大。比如1998年IBM深蓝计算机打败国际象棋高手,2016年AlphaGo战胜人类围棋高手,2021年AlphaFold成功预测了人体蛋白质结构,意味着AI开始攻克生物科学和医学领域的重大难题。这些成果令人惊叹,AI在计算和逻辑方面比人更具优势。ChatGPT完全可能融会贯通人类有史以来的所有知识,它是否会突然“涌现”出一种新的能力和价值来,比如在数学、物理、化学、生物等基础研究,甚至在药物研发、蛋白质解析、基因编辑、智能驾驶等应用领域,有较人类更出色的能力,去解决人类未曾解决的难题?
张:AI生成式大模型正在朝这一方向走,这些都是未来必然的发展趋势。深度学习AI可以分成两个阶段,第一阶段是解决专用问题,比如说AlphaGo下围棋,AlphaFold解析蛋白质,已经超过人类。无人驾驶其实也已超过人类,只是大规模商用还需要点时间。语音识别、人脸识别能力AI超过人类。AI在每个专业任务的能力基本上与人类差不多,过去的5年AI发展很快,在每一个垂直领域和解决某一类问题的能力还会继续提高。
ChatGPT开始具备一定的通识能力,把人类的知识融合在一块,变成生成式AI大模型,它就可以写文章、作画、编程序。目前也能做些简单的数学题,考试和人类平均水平差不多,甚至更强。但是要在数理化领域做基础科研,它还需要更大的数据,培养更多的能力。为什么ChatGPT能写程序?是由于Open AI把Github等开源社区上10亿行代码,拿来训练后而形成的能力。今后,如把所有的数学知识(包括数学公式)都训练之后,ChatGPT数学肯定做得很好。只要有足够的物理学数据,它经训练之后,物理水平也能很高。有家公司在训练ChatGPT,尝试批阅高考试卷,据说批得还挺准的。
可能有很多公司在每一个垂直领域去做AIforScience这些事。5年之后AI数理化做题水平都会超过人类。它可以证明人类有些证明不了的数学、物理公式或猜想。它不仅可帮人类证明数学题,还可能发明新公式,它每天都在学习,会不断进步。甚至了解各种化学反应后,会推导新的化学反应式。人的精力和能力是有限的,而AI不一样,它学会了数理逻辑和各种定律后,综合能力完全可能强过人类。
当然,人类有些能力AI是没有的。如果把人的能力分成三个层次,第一层感知能力,像听说交互或图像识别,AI和人类差不多,甚至比人还强;第二层逻辑能力,AI的推理、判断能力,将来发展和人类也差不太多;第三层情感和意识能力,AI没有。人的感情和意识,AI虽然可能会学习,但是我们目前并不知道人类的情感和意识是怎么产生的。因此,人可能会对AI有情感,但它对人可能并没有情感,或者不是真正的情感。对于通用AI或者超智能体,大家可能觉得它们会有自我意识。就像好莱坞科幻电影里的机器人,最后控制了人类。我觉得这不太可能。
钟:您能肯定AI不会有情感,对人类也不会有情感?
张:我觉得有时候这是一种哲学或者是一种信仰,我也不肯定,因为这是个悖论。
人类情感和意识是怎么产生的?到底这是碳基生命的特点,还是比如说人类记忆力达到一定程度,或者推理能力达到一定程度之后就有意识了?我们并不知道。既然不知道,我们只能选择相不相信。我是选择不相信。因此,这没有对错,而是每个人的判断或者信仰问题。
像对待核武器一样重视AI风险
2019年张亚勤到清华大学创建AIR,出任掌门人。几十年来引领AI研究的他,将目光聚焦在应用研发上,致力于AI与产业融合。他给AIR立了规矩——做负责任的AI,提出3R原则,即通过Responsive(积极响应)、Resilient(适应发展)、Responsible(坚守价值)三大准则,来推动AI赋能行业发展。
如何做负责任的AI?张亚勤认为,要了解不同行业的底层基础,分析技术将产生的影响和后果,通过技术创新,国际合作和治理,广泛应用AI推进第四次工业革命。因此,AIR选择智慧交通、智慧物联、智慧生命作为主攻的三大方向,以人的生存环境、生命健康和人的价值为主题,发挥AI效能,造福人类。
张亚勤多年领导世界顶流公司和顶级研发团队,比常人更深谙技术的两面性。他热爱AI,拥抱AI,他确信AI将给人类带来无法限量的价值,是人类第四次工业革命引擎。同时,他深信AI存在尚未为人所知的不确定性风险,因此,当国际上有学者将AI风险和核战争、新冠疫情相提并论,需要引起人类高度重视时,他和老东家比尔?盖茨在第一时间回应,并在这份声明上签名,表明心迹:一定要把人的价值、价值观和责任放在技术之上。
钟:人类科技史表明,一项新技术人类使用到一定程度后越用越熟练,效用也越大。反过来,一旦失控,它也可能对人类伤害越大。比如核能技术,既能绿色应用,也能制造核武。现在的社交网络成为人们生活的标配,可网络诈骗层出不穷。基因编辑可以在医疗上造福人类,但同样也可在科学伦理不允许的地方犯错。化学造福人类满眼皆是,但也有人为了牟利,往食品添加不宜食用的化学品。
正因为AI的超能表现,令人不免想到如何使它与人类的价值观和目标对齐的问题。您如何看这一问题?
张:这一问题我20年前就开始谈了。每当AI有进展,这个问题就会回来。这也自然,任何技术能力越来越强时,它的风险也会越来越大。早期人们不太相信AI的能力,好多人觉得像是吹牛。现在看起来,当年科幻电影里的AI场景和内容,现在已越来越近了,正一步步成为现实。
人类拥有两种智慧:发明技术和控制技术走向,二者要均衡,目前后者稍微落后了些。要解决AI和人类价值观对齐问题,第一,做技术的人要把技术和研究放到对齐上面,先要让机器理解人的价值,追随人的价值。对齐(alignment)这个词很好,其实这不仅仅是伦理的问题,还有如何实现的问题。做技术和研究的人要致力于实现对齐任务,不能只开发能力,不着力对齐问题,这是相当重要的问题。现在有门新学科AI Security Research,即AI安全研究,就像航天有门学科RocketSafety Engineering,专门研究火箭安全工程。AI也需要有人专门研究安全问题。
第二,要制定和坚持一些基本原则。20世纪50年代美国科幻作家阿西莫夫定义了机器人和人类的三原则。2017年一批科学家又制定了《阿西洛马人工智能23条原则》(Asilomar AI Principles),我认为这是人和机器的基本原则。机器永远是从属体,人类是主体。不管机器、软件,或是机器人也好,它是从属的,其主体可以是人,也可以是公司,或者我们目前的实体。
因此,机器产生的任何行为,主体要负责任,并从法律层面明确主体责任。比如说无人车出车祸,用户和制造无人车软件的技术公司,加上保险公司等主体共同承担主体责任,就像现在司机出车祸,可能是司机问题,也可能是车的问题,由用户或车厂和保险公司承担事故责任。AI也一样,今后也得购买保险。总之,AI本身不能独立成为主体。
第三,AI不能有自己独立的伦理和价值系统。它服务人的系统,它的价值就是人的价值,它的伦理体系就是人的伦理体系。我们要让它服从这一体系,实现这一体系。此外AI要可信任,具备安全性和可控性,这点也非常重要。
这类问题涉及技术、伦理道德和法律层面。当前人们在这方面所做工作还不多。最近欧洲刚签署一个新规则,中国网信办起草了《生成式人工智能服务管理办法(征求意见稿)》,工信部出台《工业和信息化领域数据安全管理办法(试行)》。技术研发、道德伦理、立法监管等合力并进,才能让AI发展更健康。
我们欢迎政府立法监管,监管才能使AI方向正确。哪怕走得慢一点,也需要监管,以确保方向正确。有时政府政策法规出台相对慢些,就像互联网一样,刚开始野蛮生长,发展到一定程度,才能出台法规加以规范。因此,正如我之前所说的两种智慧要平衡,技术往前跑,监管来规范。信息社会技术发展快,人的意识形态、政策法律体系仍然按工业时代的节奏,自然会滞后些。
问:信息时代面临的互联网治理问题越来越突出。比如个人隐私信息保护,类似健康码、行程码,在特殊时期,人们为公共价值而让渡一些个人权利。但如果国家相关立法没有跟进,这类工具就可能被滥用。现在网购已成为人们日常生活的一种方式,但一些平台利用大数据算法,可把用户浏览过的一些物品,无限地推送给用户,干扰用户购物体验。
AI时代类似的问题肯定不会少。人们在享受AI带来的便利的同时,也必然会受到负面影响。正如您所说的,技术发展和风险控制要平衡,齐驱并进。如何让主导技术发展的科学家和工程师们有清醒的认识和坚定的原则,哪些是要鼓励发展的应用,哪些是要时刻警惕的技术?如何培养他们科技为善的价值观?
张:我在清华大学智能产业研究院(AIR)强调,做研究或者做技术,一定要把人的价值、价值观和责任放在技术之上。因此,AIR选择了在未来五年十年AI具有巨大影响力的三个方向,研究课题(包括与公司合作项目)都与这一理念相关。一是智慧物联,面向双碳(碳达峰碳中和)的绿色计算、小模型部署到端等,节能减排。物联网应用广泛,可以做许多东西,但AIR选择围绕双碳做文章。二是智慧交通,机器人和无人驾驶,安全第一。无人驾驶安全性增加10倍以上,现在90%交通事故都是人为事故。AI驾驶可以排除人工驾驶中的失误,大大增加安全性。同时,低碳节能减排,各种应用无缝衔接,效率高。三是智慧医疗,AI新药研发、生物技术,服务人的生命健康。
清华AIR的选题围绕人的生命健康、生存环境和人的价值,基于计算机学科基础ABCD(Artificial Intelligence, Big Data, Cloud, Device),面向世界科技前沿、经济主战场、国家重大需求和人民生命健康的方向,开展相关研究工作。这是AIR社会责任所在。我们要有这样的认识,但确实存在挑战。这一挑战不仅仅是人工智能,而是面对所有的技术。
每项技术就如核技术,如果人类有选择,也许最好不去找像铀或镭这些放射性物质。核磁共振医学应用造福人类,而核武器却可以毁灭人类。
像化学和生物,早先有生物战和化学武器。后来因为世界大国之间达成共识,立法禁止使用生物化学武器。核武器出现后,也就相应立法禁核。现在的基因编辑技术,世界各国也有明确的立法,不能用于改变物种,尤其是针对人类。
需要有一些清晰的基本规则,来规范和约束技术的发展与应用。AI,尤其现在到大语言模型程度之后,由于具备生成式能力,具有不可预测性,它能生成什么人们并不能完全预知。
过去AI工作主要帮助人做分析、决策和预测,但现在它完全可能创造出新的东西,不加控制,未必是好事。尤其是银行金融或者具有关键使命的系统,应用AI时,小心保守些为好。AI有些能力的因果关系目前人类还不清楚,比如说智能有限问题、AI怎么达到智能、黑盒子问题或者透明性问题,人们并不明晰它的因果关系。
我们有时了解what而不太清楚why,可能了解what百分之三四十就可以做,知其然不知其所以然。其实Why很重要,我们现在不清楚AIWhy的情况下,所以在应用到物理系统或关键使命体系时,更得小心保守。
问:今天处于AI时代,人们不得不面临如何确保AI与人类价值观和目标对齐的问题。您作为权威AI科学家,见过世面,禀赋异人,更能感受控制技术风险的重要性和迫切性。
张:现在越来越感受到问题的重要性,越来越多地讨论这些类问题。以达沃斯论坛为例,我十多年前参加达沃斯论坛的时候就在讨论AI对第四次工业革命或者社会变革的深刻变化和深远影响。但从2018年开始,达沃斯论坛的议题开始主要谈论AI发展所带来的风险及其管控,在刚刚闭幕的天津夏季达沃斯论坛上,80%议题都谈风险控制。
早年我参加达沃斯论坛时,大家多在探讨AI的能力,对它具有什么特别功能并不确信,认为人工智能就是个软件,所能做的事情有限,不可能对产业有什么深远影响。
之后人们越来越多地谈论AI相关话题。先是谈数据,担心掌握大数据会形成数据垄断大公司。我2019年以百度总裁的身份参加达沃斯论坛。当时有二三十家大公司CEO都在讨论大公司大责任大担当的话题。特别是当时脸书(Facebook)数据泄露和操纵选举事件发生后,人们觉得公司掌握数据越多,AI能力越强,需要承担的责任也更大。这几年大家的风险意识增强。之前国内媒体很少谈论AI风险,像你这样问我的人很少,一般都是关注AI怎么改变产业,投资机会在哪里,中国和美国企业如何竞争等等。
我们拥抱AI,希望它走得更好。但目前对于AI可能的风险问题,已经引起越来越多的人关注和担心。最近关于AI风险有两份著名的公开声明,一份由特斯拉创始人、SpaceX公司CEO埃隆?马斯克(Elon Reeve Musk)和美国未来生命研究所(Future of Life Institute)创始人、《生命3.0》作者迈克斯?泰格马克(Max Tegmark)发起的,呼吁暂停训练比GPT4更强大的AI模型至少6个月。
另一份由剑桥大学助理教授戴维?克鲁格(David Kreuger)发起,包括多伦多大学教授杰弗里?辛顿(Geoffrey Hinton)和深度学习之父、图灵奖得主、蒙特利尔大学教授约书亚?本吉奥(YoshuaBengio),比尔盖茨、OpenAICEO(主导ChatGPT)山姆?奥特尔曼、谷歌 DeepMind 首席执行官戴米斯?哈萨比斯(Demis Hassabis)等多位顶级研究人员、工程师和CEO,就AI对人类可能构成的威胁发出最新警告,超过350位相关领域人员共同签署了这份只有22个单词的声明:“减轻AI带来的灭绝风险,应该与流行病和核战争等其他社会规模的风险,一起成为全球优先事项。”把AI可能带来的风险,用了十分显眼的词——灭绝风险。AI风险等级和核武器、流行病相提并论。
第一份声明我没签名,因为我觉得科研很难停得下来。一个企业可以暂停研发,其他企业未必会暂停;或者一个国家可以暂停相关研究,但并不能阻止另一国家继续。第二份声明我签名了,我认为做人工智能研究要是没有这样的风险意识,就不会重视,如果AI研究一旦失控就会带来灾难性的风险。有了风险意识之后,政府、企业、研究院校、社会各方就会像对待核武器、新冠疫情一样,时刻警惕,强化监管,使技术走在正确的道路上,从而达到发展和风险的平衡。
AI时代的中国机会与挑战
在越来越不确定性的今天,中国发展面临着更为复杂的国内外环境。自2018年中美贸易战爆发以来,世界两大经济体展开了旷日持久的国力博弈,影响到社会经济各个领域,甚至出现“卡脖子”现象。作为中国高科技产业链上的明珠,AI也未能幸免。
张亚勤清醒地认识到现实的严酷性,但他依然一如既往地乐观。这乐观的底气来源于他经历了中国互联网从无到有、从有到强的过程,来源于他洞悉中国改革开放几十年高速发展的要素积累,来源于他对中国融入世界,世界需要中国的人类命运共同体的历史自信。他认为中国的人才积累和产业基础,已为今后AI发展铺开路,只是现在逆风跑要多比顺风跑时多费点力而已。
钟:在工业时代,通过工业革命,人类解放了手脚和体力,使人类可以扛得更重、走得更远,探索更广袤的物质世界。在信息时代,通过AI,人类逐步解放和延伸了大脑,处理更为复杂的问题,瓦解之前的许多困惑,使人类抵达更加自由的精神世界。从哲学角度看,AI让人类变得更加自由,进入更高的精神状态,这是人们可以乐观地拥抱AI,造福人类。科学家、工程师和企业家已有共识,AI风险在一定程度上是可控的。其实,AI最大的风险还在作为AI主体的人类自身。如果人类是可控的,那么AI的风险必然大大降低。就像您一样,将AIR定位在都与人的价值和福祉紧密相关的应用领域。如果人们都往人类的共同目标着力,那么结果应该增进福祉。
AI发展与人类命运紧密相联,因此它更值得人们关注。在中国当前环境下,AI发展面临怎样的机会和挑战?
张:中美关系走势影响AI产业发展,中美关系面临三种可能。一是完全解耦或脱钩。这种情况下,AI发展没什么捷径,要做芯片、光刻机,技术周期比较长,得坚持。但是我认为这种概很小,基本上不存在。美国大芯片公司想和中国做生意,一是中国的市场大,30%-50%的需求都在中国,二是产业链已经互相咬合在一起。即使一些政客讲来讲去,也不会真正脱钩的。也许一些高端芯片暂时过来慢一点,需要费点时间等待。我们自己,比如百度在做芯片,芯片可能效率稍低一点,但是可用。
中国大语言模型公司可以整合一下,集中算力资源。当芯片不够时,大家自我调整,加强合作,整合芯片资源,共同做些研究。
虽然完全脱钩的可能性不大,但是要像过去10年前那样全球化已不大可能,需要时间来修复。今后四五年我们还能拿到芯片,可能芯片会有代差,落后一两代。但我们仍能继续研究、创新、做产品。之前我们是顺风跑,现在就像逆风跑,需要克服阻力大点,要多花点劲,相对要辛苦一些,但还是能跑。
现在中国的人才积累不少,中国的产业已有基础。经过了 PC互联、移动互联之后,中国数字化程度高,数据量大,O2O线上线下连接能力,供应链体系、移动网络设施、数字支付等AI时代重要的基础设施都已建好。因此,我们没有什么借口做不好,在逆风中也是可以跑的。
早在PC时代,咱们什么都没有。经过二三十年的努力,已有了相当基础。在Windows时代,我们在应用层做了许多开发,取得不少成绩。当年国内有人致力做操作系统,其实通用操作系统既然已有,再要替代必然困难。即便在美国,也无法再做另一个操作系统。但在产业平台变更时,就有新的操作系统替代。比如移动互联时代的安卓和iOS,操作系统换了,其上的应用生态也都要改变。现在AI是个机会,人们有机会开发出新的操作系统来匹配。如果我们这一代来不及,下一代还可以继续做。
做基础研究或者应用开发也好,要瞄向未来五年十年的发展趋势。这需要有一批人,能够看到更远的方向和机会。
如果中美脱钩,有的东西就得我们自己做,比如云或者大模型,大模型是基于云上的应用。
美国有多个云,中国也有多个云。两国的云各自独立,并不直接相互竞争。云在每个地区有它的特点,不同政策、不同用户、不同习惯、不同数据,包括我们的互联网也是如此,所以我觉得机会还是挺大的。
钟:大模型的训练,需要海量数据。中文数据比英文的数据量要小,那么是否会影响大模型功能开发?
张:当年互联网刚刚开始时,基本上没什么中文数据。经过这么多年发展之后,全球中文的数据量仅次于英文的。不必担心数据不够,这不会成为咱们AI发展劣势。
首先,许多公司所用的中文数据,并没有用全。百度、阿里也一样,数据量很多却未能充分利用。
其次,咱们也能用英文数据。训练模型时可用英文数据,很多英文数据也是开放的。国外能用中文数据,我们也可用英文数据。
最后,目前大模型刚刚开始,以后多模态大模型,可以使用各种各样的数据,包括视频图像、物理数据、行车数据等等。未来这些数据很多,而每个垂直行业里,又有海量的行业数据。
当然数据选择很重要。ChatGPT有1/3时间花在数据清洗上。数据有许多问题,比如互联网数据里有大量假数据和有毒数据,许多人为制造的假数据假信息。社交网络上的评价数据,一些骂人或者暴力的内容,就是有毒数据。如果用这些数据去训练大模型,肯定会有问题。因此要筛选数据或清洗数据,确保数据尽量是真信息。
大模型训练会自动过滤一些信息。一是数据本身的质量问题,二是人类反馈强化学习,有很多人帮它和人对齐,特别是一些敏感词。
在美国,比如种族歧视、性别歧视、年龄禁忌等,十分敏感。我可以说太太开车水平差,但不能说女司机开车差,哪怕是开玩笑,这在国内人们不会太介意,但在美国肯定犯忌。不同地区不同时间不同文化,因此选择数据时要特别注意,要和人类价值观对齐。
中国AI可以做得起来,尤其是应用开发,大模型在垂直领域的机会很多。当时我在微软做过分析,操作系统每赚1元,在操作系统生态上的合作伙伴赚18元,具有很强的产业辐射效应。移动时代,无论to C或to B,Android和iOS平台上面的应用机会更多了。
钟:因为操作系统不是我们自主研发,有无可能被关掉而导致不能使用大模型?
张:我们自己做的大模型,别人关不掉。就像我们的云一样,是独立的,没人能关掉而不可用。我们现在没有引进ChatGPT,而是大家重做的大模型,百度做,阿里做,国内还有几十家公司也在做。今年3月百度发布文心一言后,现在还在测试,包括适应监管政策,估计还需要一些时间。
我们中国公司,用自有数据,做自己的模型,大模型建在云端上,外界没法关掉你的云,这点不像Windows。目前这些系统,包括服务器、芯片、云都在国内,因此,云端上的大模型不必担心脱钩的影响。即便在极端情况下,百度云、阿里云都可以用,大模型的训练方法,包括一些开源的算法,可能会受到点影响,但是大模型设施都在这里,一般应用没有问题。我认为不可能出现极端情况,基于过去40多年改革开放全球化进程的经验,我对此比较乐观。
保持好奇心,做永恒的学习者
张亚勤少年天才,青年精英,壮年成为全球企业和学界的双栖领袖。外人看来一路顺风顺水,但他却谦逊地认为自己幸运地踏在大时代的发展节点上,每一步都能听从内心的召唤。他出生在史无前例的动荡年代,父亲早逝,从小在外祖母、祖母、母亲和亲戚家之间辗转,让他一直感到不稳定——不知道下个学期要去哪座城市,能在哪里上学?直到12岁考上大学,才算稳定下来。童年罹遭厄运,所幸亲人们都很爱他,母亲的教诲令他终生不忘。他说小时候不能静心做事,浮躁而易放弃。有一次,母亲特别生气,罚他站在墙角,大声责问:“你有一技之长吗?你能自食其力吗?你靠什么生存?”振聋发聩的三问,这么多年来萦绕在心。每当遇到困难时,无论是作为学生、工程师、教授,还是总裁,这个声音总在耳边:“你的一技之长是什么?”
另一件事也令张亚勤记忆犹新。小时有一好友,一起读书,一起玩耍。有一天,他对母亲说,好友很笨,简单的题都不会做。母亲严肃地批评他:“任何时候都不能在背后说别人的坏话……要学会善待别人。”后来,这成为他做人和管理的一个原则,不在背后说别人的坏话,也不喜欢别人在背后讲别人坏话。这个原则让他学会善待别人,也避免了90%的办公室政治,让他的世界和管理方式变得简单和干净。
如今进入人生3.0阶段的张亚勤,放下职场要务,转战清华教书育人,欲将学识、经验和智慧,传承给年轻人。6月25日,他在清华大学经管学院2023届毕业典礼上致辞,提醒即将走出清华的莘莘学子,在AI时代,有些产业和工作或将消失。任何重复性和流程性的脑力和体力工作将被机器取代;任何可描述的、有固定规则的、有标准答案的问题,机器都会超过人类……他要求学子们保持对世界的好奇,做永恒的学习者。因为AI时代,机器在学习,人类更要学习!
钟:2019年您从百度退休后,为什么还来清华当教授?
张:这是我计划的人生3.0,退休后希望能做些科研和培养人才,做慈善做公益,能增强中国科技界和国外的交流, 也能更多陪伴家人,来清华纯是机缘巧合。现在比预想的要忙得多,只是没有在企业时责任那么大。在学校的好处是自己考虑问题可以更长远,包括培养学生和研究课题。其次,时间相对自由。不过,这点我没做到令自己满意,前两天我还向朋友请教怎么管理时间?怎么高效行动?这几年受疫情影响,出行走动比较麻烦。
在清华总体感觉挺好的。我现在带15个学生,每年5个博士生,3个学术博士,2个工程博士。我还带了3个硕士生,清华硕士生少,主要是国际硕士生。我平常不上课,只是给研究生开些讲座。
钟:当企业家和当教授,您更享受哪一种身份?
张:我都挺习惯的。可能不同阶段从事不同的角色,更能丰富人生。我博士刚毕业时,像现在这样做研究。之后在微软做企业研究院,后来又管研究、管技术、管产品、管市场,什么都管过。
现阶段我还是希望做现在的事。不同的人生阶段做不同的事情,我都挺用心。由于过去我在公司做事,包括中美学习工作经历和管理大团队经验,因此,我对技术的看法会有一些新视角,思维方式也可能不一样。如果过去一直学术界,一直做研究,没有产业经验,那么对产业发展的感觉就会不一样。无论做企业,还是现在做研究,我一直与技术和产业关联,从来没有远离过技术和产业。清华AIR也是围绕产业发展做研究,我们做的东西要对社会、对产业有用。做的时间可以三年五年甚至十年,但做的东西最终要应用而不是纯粹的理论研究。这是我对自己的一个定位。
无论是凭借好奇心驱动去探索,做象牙塔式的基础研究,还是以解决现实问题为导向的技术应用,都是我们社会所需要的。基础研究和应用研究都有用,无用之用方为大用。这两种研究对学术和技术发展都重要。只是我们强调所做的研究最终要成为未来看得见的应用,能够产生社会效益或者带来产业机会。
钟:您12岁考上中科大少年班,是我们一代人的偶像。从少年学霸,到企业领导,最后成为学界领袖,这是成功人生的典范。您对刚刚参加完高考的孩子有什么样人生建议?
张:我刚在清华经管学院毕业典礼做了一个演讲,谈到我上学、出国、做企业,然后又回到清华的经历。我很幸运,每一步都踏在大时代发展的节点上。AI时代我给即将毕业的学子几点建议:
要保持对世界的好奇,做永恒的学习者。因为机器在学习,人类更要学习。
要有独特的观点和伦理价值判断,不要随波逐流,不要失去个性和棱角,AI越来越强大,ChatGPT可以比任何人更圆滑和更全面,能够生成很多观点。但唯一无法生成的,就是你独特的观点。
要将伦理和人文精神放在心中,虽然技术是中立的,但创新者有使命。技术是工具,要为人类服务。要重新审视人类与AI的关系,让AI和人类价值和目标对齐,降低不确定性风险。
要培养自我选择的能力。在探索人生的过程中,要大胆尝试,找到适合自己的道路,做自己的选择。没有最好的选择,只有你的选择;没有最完美的人生,只有你的人生。
对于马上要上大学的孩子,上大学后别那么在乎分数。高考前没办法,没有好分数,上不了喜欢的大学。上大学后,要学自己有兴趣的课程,要学到再学习的能力。现在信息噪声很多,大学要着重提高信噪比,去除噪声,培养找到有效信号源的能力。孩子要有辨别对错的判断力,清楚自己的想法,找到关键点,主动学习。
(此文源于今日出版的《互联网周刊》,2023第15期,总789期,文/钟秀斌)