资质
当前位置:首页 > 资质荣誉 > 资质
谷歌大模型发布孤注一掷or绝地反击?
来源:乐鱼真人      发布时间:2024-02-04 20:59:14      


谷歌大模型发布孤注一掷or绝地反击?


  今年已经接近尾声,如果问长期资金市场上什么主题大放异彩,无疑是生成式人工智能。

  不论是在国内还是海外,科技圈的大佬们都忙着军备竞赛,从年初的ChatGPT开始,各式各样的AI大模型都横空出世,而且迭代速度远超于以往。

  而到了年底,可以说谷歌又给长期资金市场来了一个重磅炸弹,它发布了AI大模型(Gemini),谷歌也很快成了长期资金市场的香饽饽。

  作为多模态的大模型,Gemini可以同时识别和理解文本、图像、音频、视频和代码五种信息,而且理解的准确性还很高,不夸张地说,这是谷歌迄今为止构建的“顶级规模、功能最强的人工智能模型”。

  在一项专对于大模型的语言理解能力的测评中,Gemini的成绩是90%,要知道人类专家成绩也就是89.8%,GPT-4仅有86.4%,仅从测试中就能够准确的看出,Gemini的性能在多模态任务上已经对GPT实现了超越。受益于此,谷歌股价上涨也是情理之中。

  连360董事长周鸿祎也站在了谷歌这一边,长期看谷歌赶上GPT-4绰绰有余。

  而国内长期资金市场也反映剧烈,比如半年前正式推出KD-GPT大模型、目前慢慢的开始在实际项目中投入应用的苏州科达(603660),在股价沉寂很久之后迎来了涨停。但要关注的是,该玩家今年前三季度继续亏损3.24亿元,看来前期的烧钱还在继续。

  此外,百度(HK 9888)、科大讯飞(002230)也都推出了各自的大模型,像国外玩家看齐,但一个不能说的秘密是,如今大部分多模态大模型都是在大语言模型(LLM)上生长出多模态的应用,而并非从头开始训练的多模态的大模型,能有“抄作业”的基础,谁也不想浪费时间。

  其实,这次谷歌除了发布多模态大模型Gemini,还推出了新一代AI芯片TPU v5p,相较于它的上一代芯片,它高内存带宽提升了3倍,可以说能更准确的训练AI模型,训练速度有了显著的提升,一山更比一山高。

  这样一来,谷歌作为继英伟达之后的自研算力新选手,也有望为算力供需双方提供全新选项。

  简单来说,传统的光通信就是以光信号为信息载体,以光纤作为传输介质,通过电光转换,进行传输信息的系统,但因为TPU v5p的出现,直接加强了OCS光交换技术应用。

  这里说的OCS就是谷歌自研的数据中心光交换机。作为一种全光学的连接方案,这几年谷歌主要将其用于灵活配置AI算力网络,通过OCS,谷歌的超级计算机能轻松地动态重新配置芯片之间的连接,有助于防止问题并实时调整以提高性能。

  所以,谷歌的TPU和OCS,能够说是相辅相成的关系,少了谁,另一个市场或许都难以实现快速地增长。除此之外,之前英伟达发布了H200,也有望带动光模块1.6T/3.2T时代加速到来。

  从年初的OpenAI,到年末的谷歌,虽然今年的大模型风光无限,但是笔者依旧想泼盆冷水。

  对于大模型玩家来说,最大的问题还是商业化的问题,据笔者了解国内很多大模型玩家还未达到盈亏平衡,因为大模型训练需要强大的算力支撑,就以头部玩家OpenAI为例,其模型训练成本接近500万美元。

  之前OpenAI为何会出现“宫斗”的情节,就是需要在AI模型商业化和AI安全性之间求一个平衡。

  对于头部互联网玩家来说,尚可通过将大模型集成到现有产品和服务中(比如的文档助手等等),通过付费订阅实现盈利收入,但对于绝大多数初创大模型玩家来说,需要大量资金和时间投入,而回报却往往难以预测。

  此外,从供给侧来看,大模型基座方面国内玩家普遍还比较落后,而国内玩家基于大模型微调的产品,AI技术积累不足,这也有时候很难让我们消费者愿意掏出真金白银支持。

  目前,大模型已经做到了足够吸睛,但是未来如何明智的选择一条盈利的道路,是摆在每一个玩家面前需要思考的问题。

  注:本文不构成任何投资建议。股市有风险,入市需谨慎。没有买卖就没有伤害。