热门聊天机器人ChatGPT、文生视频的Sora、支持长文本处理的Kimi以及AI音乐生成软件Suno……在市场还在为文生文模式意犹未尽时,欧博allbet音频、视频等多个智能模型接连冲击而来,与AI相关的研究正在向前大步迈进。
在3月26日至29日举行的博鳌亚洲论坛2024年年会中,人工智能无疑是讨论度最高的话题之一。第一财经记者在现场观察到,多场相关主题的分论坛门口均排起了数十米的长队。而场内更是座无虚席,会场后排、工作区域等稍有空间的地方,均“见缝插针”式站满了参会人员,火热程度可见一斑。
“出来一个,才能放进去一个,里面已经满员了。”其中一位分论坛工作人员告诉记者,这种热门场次,有参会人员提前半个小时甚至一个小时就来排队。但想进去参加的人太多了,场地空间有限只能以“限流”应对。
AIGC改变世界
在各场人工智能主题的分论坛中,多位来自海内外人工智能领域的行业专家、领军企业负责人,共同围绕生成式人工智能应用快速发展带来的人类生产生活方式变革、未来趋势以及可能面临的风险等热点话题展开讨论。
“它会带来巨大的技术和范式的改变。”正如中国工程院院士、清华大学讲席教授、清华大学智能产业研究院(AIR)院长张亚勤在博鳌所说,日新月异的人工智能技术正在各个领域产生巨大的影响力。
“现在大家讨论的都是云端大模型产生的交互式AI所带来的能力,包括AI和人类的竞争,以及BtoC的应用,但是我想讲的是,AI本身带来的创新不止这些。”高通公司中国区董事长孟樸指出,生成式AI不仅将改变每个人的工作、学习和生活方式,还将对各个行业产生深远影响。
他以自身所在的通信行业为例,“在移动通信网络部署里,很多生成式人工智能的应用能够改善网络的部署、减少耗电,减少功率的输出、对电池环境的改善都有帮助。”孟樸说。
在人工智能落地应用的各大领域中,教育行业是被看好的领域之一,目前已有不少进展。在其中一个分会场,猿辅导集团副总裁、人工智能研究院院长程群称,在四川一个偏远山区的小学走访时,当地教育局局长告诉他,使用了某款人工大模型的产品后,解决了学生辍学等痛点问题。
“举个例子,学生在课堂上问什么是相对论,老师根本没法回答,但是调用大模型就用一个通俗易懂的故事回答学生。”通过这个案例,程群表示,未来大模型发展有两个方向:应用为王与以人为本。
在他看来,应用往往就是人工智能大模型未来要和大规模的应用场景相结合,才能推动技术的不断迭代。“通过人工智能技术,以更低边际成本让技术流动起来,让每个人都能享受到高质量的教育,这是人工智能需要以人为本追求的一个方向。”程群说。
“奇点”何时到来?
人工智能发展速度之快,刷新着人们对科技的想象,引爆各界新一轮关于人工智能的关注的同时,也带来了诸多猜测,如人工智能什么时候会成为变得比人更智能、更聪明的存在,即“奇点”(指颠覆点)何时到来?
在2017年的一项对人工智能科学家的问卷调查显示,大多数人预测奇点将会在2045年到2090年之间产生,其中最有可能出现在2060年。
“五年以后。”首尔大学电子与计算机工程系教授、《IEEE模式分析与机器智能汇刊》主编Kyoung Mu Lee表示,“(人工智能的)研究成果和带来的改变让人印象非常深刻,因为太巨大了,即使是作为这一领域的研究人员,我们也感到非常的惊讶。”
“每一周、每一月都能够看到一个更好版本的人工智能技术出现。”Kyoung Mu Lee说,人工智能正在以前所未有的速度发展,如果人工智能、量子计算、核聚变三项颠覆性技术相叠加,将产生很强的协同效应,并带来真正的“奇点”以及爆炸性发展。
在多位参会企业家看来,人工智能的发展和迭代速度超出想象。例如小i集团董事长兼首席执行官袁辉表示,人工智能有三个阶段,弱人工智能辅助一点人类生活、强人工智能生成视频、生成音乐甚至生成代码,目前已经面临着非常强大的人工智能。
对于人工智能会在哪个产业爆发的问题,袁辉的答案是:大模型之后随着技术的发展,人工智能已经没有行业和产业的分别之说,“现在人工智能就像空气和水一样,赋能千行百业,时间略微有差别,但不会有明确的先后”。
“今天不是讨论谁拥有人工智能最底层的技术,因为不可能有很多国家拥有。那么,如何在产业生活工作中和企业发展中领先一步呢?既然不能拥有最底层的技术,那你就比其他更多人更快使用人工智能。”在袁辉看来,在下一个阶段,人类如何快速利用AI工具,将是每一个个体、每一个企业跑赢大盘的关键。
中国科学院自动化研究所研究员、联合国人工智能高层顾问机构专家曾毅表示,现阶段的人工智能只是看似智能的信息处理系统,但并不具备真正的理解能力。
记者注意到,有部分普通消费者使用ChatGPT等人工智能软件过程中发现,ChatGPT虽然看似“上知天文下知地理”,但似乎并不能深刻理解语言背后的文化积淀、情感生成和人际关系等。在一些相关话题的讨论区,对人工智能系统是否真“智能”的讨论未曾间断。
在他看来,真正的人工智能关键在于拥有“自我”。曾毅分析称,当AI有了自我,才能真正解决思考的问题,进行自我感知,从而产生真正意义上的理解、共情能力、道德直觉和利他性。这是科学必须跨越的鸿沟。
如何实现“智能向善”
随着人工智能技术向经济社会发展各领域加速渗透,其背后蕴藏的侵犯个人隐私、泄露商业秘密、传播虚假信息、造成信息茧房等潜在风险也不容忽视,已经引起了国际社会高度关注和积极讨论。
“国际社会就人工智能治理逐步达成共识,确立了AI治理的基本原则。但关键的是,如何能够把道德规范变成统一的监管框架。”有与会嘉宾认为,首先是紧迫性,人工智能和数字的鸿沟需要填补;其次要建立全球人工智能治理的架构。
Kyoung Mu Lee也同样认为:“AI会影响整个人类,并不只是一个国家的问题,需要各国之间的合作来谈论解决方案。”在业内看来,有效地监管和国际合作,是确保人工智能技术应用和发展符合道德标准的重要保障。
记者注意到,这一方面早有相关举动。去年10月,在第三届“一带一路”国际合作高峰论坛期间,中国发布了《全球人工智能治理倡议》。
同年11月,中国、美国、英国和欧盟等在首届人工智能安全峰会上签署的《布莱切利宣言》(Bletchley Declaration),是全球第一份针对人工智能的国际性声明,各方同意通过国际合作,搭建人工智能监管架构。
可以看到,加强国际合作,共同应对人工智能带来的全球性挑战已经成为共识。那么,目前有哪些因素会影响AI治理或行业发展的政策?对此,清华大学公共管理学院院长朱旭峰表示主要有四个方面,分别是创新的能力、人口的结构、资本和劳动市场的关系以及社会规范。
以我国为例,去年8月15日,国内首次针对生成式人工智能产业发布的规范性文件《生成式人工智能服务管理暂行办法》正式施行。今年1月17日,工信部发布《国家人工智能产业综合标准化体系建设指南》(征求意见稿),则提出了人工智能产业高质量发展的标准体系。