生成式AI上演“超级星期三” 科技厂商和监管各自祭出王牌

发布日期:2024-01-08 17:43    点击次数:95


  作者: 钱童心 刘佳

  生成式人工智能又一次打破人类的认知边界,这次是谷歌出牌。

  美国时间12月6日,谷歌(Google)演示其最新出炉的多模态AI大模型Gemini。

  “我们离新一代人工智能模型的愿景越来越近了。”进行完一系列视频演示后,谷歌旗下DeepMind产品副总裁伊莱·柯林斯(Eli Collins)对包括第一财经在内的媒体说,这是谷歌迄今为止功能最强大、最通用的大模型。它能够处理视频、音频和文本等不同形式的信息,相较于此前的版本,Gemini可以进行更复杂的推理,并实现更细致的信息理解。DeepMind公司称,Gemini在32项标准性能指标中有30项超过了GPT-4——然而,它们之间的差距很小。

  6日,包括谷歌在内,美国超威半导体公司(AMD)、Meta等多家科技巨头发布了生成式AI相关产品,上演了人工智能的“超级星期三”。当地时间7日一早,谷歌在美股盘前涨近3%。

  与此同时,欧洲监管机构也就一项关于如何监管生成式AI的规则进行了长达十几个小时的谈判,并有望最终敲定一项令各方满意的协议。

  AI终端“元年”开启

  另据谷歌介绍,计划明年初将其最先进版本的Gemini融入聊天机器人Bard。该公司正在开发三个版本的Gemini,其中最强大的版本可以在数据中心运行,而最基础的版本将在移动设备上高效运行。

  在移动设备上运行大模型将成为未来的趋势。国际数据公司(IDC)报告写道,2024年将是AI终端的元年,会有更多的AI芯片被集成到终端设备系统上。IDC预测,在中国市场上,2024年搭载AI功能终端设备将超过70%。该机构还预计,到2027年,生成式AI全球市场的规模将超过百亿美元。

  谷歌还推出了面向云端AI加速的新一代TPU——Cloud TPU v5p,这也是谷歌迄今为止功能最强大且最具成本效益的TPU,用来训练AI大模型。据介绍,每个TPU v5p由多达8960个芯片互连,训练大型语言模型的速度几乎是前几代处理器的三倍。

  谷歌、微软和亚马逊等科技公司都推出了AI自研芯片,以减少对芯片厂商用于训练大模型的GPU的依赖。

  当地时间周三,AMD也推出了新一代MI300系列的两款人工智能芯片,一款专注于生成式AI应用,另一款面向超级计算机。其中,用于生成式AI的芯片版本MI300X包含可提高性能的先进高带宽内存。

  AMD预计,今年数据中心AI芯片的市场规模将达到450亿美元,这高于今年6月预测的300亿美元。

  AMD CEO苏姿丰(Lisa Su) 在新闻发布会上表示,AMD明年将拥有“供应大量AI芯片的能力”。AMD还预计,到2027年,数据中心人工智能芯片市场规模有望增长至4000亿美元左右。

  目前,英伟达仍然占据人工智能芯片约80%的市场。根据英伟达公布的数据,今年迄今为止,该公司数据中心业务收入已经接近300亿美元。

  以中国市场为例,英伟达的AI芯片占据了中国70亿美元人工智能芯片市场的超过90%份额。但分析师表示,美国对芯片出口的新限制可能会影响英伟达对中国市场AI芯片的供应。

  IDC中国副总裁周震刚对第一财经记者表示:“生成式AI正在成为人工智能的发展方向,而大模型也推动了底层计算服务范式的改变。IT基础架构的组织模式将由云计算过渡到智能计算,新的智算能力平台构成了未来人工智能的基础。”

  脸书母公司Meta周三也发布了新的生成式AI功能。Meta表示,将在未来几周内通过Meta AI聊天机器人为其“文生图”产品添加隐形水印,以提高透明度。

  Meta今年7月发布了最新的Llama 2 AI大模型,该公司还在测试20多种生成式AI产品,以改善包括Instagram和WhatsApp在内的社交媒体平台。

  为了应对生成式AI的版权难题,亚马逊云科技(AWS)也已经在上周举行的reInvent大会上发布了隐形水印工具。

  AWS生成式人工智能副总裁瓦西·菲罗明(Vasi Philomin)对第一财经记者说道:“我们从设计一开始,就想要一种方法来标记由人工智能创建的图像,并且不会干扰视觉,没有延迟,并且不能被裁剪或压缩。我们创建了一个API,人们可以通过连接API,然后提供图像来检查图像的出处。”

  欧盟有望诞生首个AIGC监管规则

  IDC报告称,生成式AI(AIGC)将在金融、政府、制造业、能源、医疗和零售等多个垂直领域拥有广阔的应用场景。

  在企业不断涌现大模型的同时,监管也成为政府迫切需要考虑的问题。6日,围绕欧盟首个监管生成式人工智能规则的谈判也迎来高潮。经过十几个小时的讨论,欧盟国家和立法者有望就如何监管ChatGPT等人工智能系统的管理规则达成一致。

  由于全球的顶尖AI专家近期警告生成式AI可能会创造出威胁人类的强大且具有高度智能的机器,尤其是在航空、教育和生物识别监控等环境中使用人工智能,被认为具有高风险。

  OpenAI近期的人事风波加剧了这种担忧,尤其是对于如何使用安全的方式来构建通用人工智能系统,业内产生了分歧。

  目前关于人工智能底层技术出现了开放和封闭两个不同阵营的观点:一派是以谷歌、微软及OpenAI为代表的封闭阵营,另一派是以Meta和IBM等公司为代表的开放阵营。

  封闭阵营采用闭源系统,支持闭源的理由是人工智能系统如果可以公开使用那就太危险了;而开源派则倡导采用“开放科学”方法进行AI开发,开放源代码且免费提供平台,以便每个人都可以为其做出贡献。

  “开放是让人工智能平台体现人类全部知识和文化的唯一途径。”支持开源系统的Meta首席人工智能科学家杨立昆(Yann LeCun)在社交媒体X平台上写道。

  而目前欧洲政府对于生成式AI的监管分歧主要在于由谁来监督大模型。一些国家希望允许大模型制造商可以自我监督,而不用通过硬性规定来强迫他们遵守,以免伤害企业的竞争力。

  清华大学国强教授、智能产业研究院首席研究员聂再清对第一财经记者表示:“大模型技术的发展比想象中快,虽然现阶段AI没有对人类造成即刻威胁,但确实需要更多关注如何保证机器能够一直服务于人,而不会反过来被坏人利用。”

  聂再清表示,相关工作和讨论应该关注大模型安全机制设计,同时关注如何在资本和商业化过程中确保这些安全机制的执行。“学界和工业界都需要开始投入部分精力到相应的工作中,最后达成某种共识且有效的方式。”他说道,“底线是确保大模型服务于人类。但他同时强调,在设计好AI的安全机制之后,继续开发AI的能力还是非常重要的。

  上海交通大学行业研究院“人工智能+”行业团队负责人史占中教授对第一财经记者表示:“生成式AI的安全性和伦理规范值得高度关注,需要建立和完善监管制度。如果相关监管制度逐步跟上,相信生成式AI会造福更多人类。”

  史占中认为,从政府的层面来讲,要加快AI相关领域的立法,特别在金融、安全、健康等领域严格监管,厘清AI的设计者、使用者、内容生成者的权责关系,完善AI决策的问责机制,保护大众合法权益;而从社会层面来讲,应加强AI技术的监管,推进AI研发者遵守伦理准则与规范AI的发展。

股市回暖,抄底炒股先开户!智能定投、条件单、个股雷达……送给你>> 海量资讯、精准解读,尽在新浪财经APP

责任编辑:周唯






Powered by 炒股配资网 @2013-2022 RSS地图 HTML地图

Copyright 站群 © 2013-2021 365建站器 版权所有

栏目分类

热点资讯

相关资讯