当前位置:首页 >休闲 >对话360创始人周鸿祎:谁是GPT的国家队? 正文

对话360创始人周鸿祎:谁是GPT的国家队?

来源:72部母息子在线观看   作者:热点   时间:2023-06-08 08:56:38

周鸿祎|360集团创始人、对话T的队董事长

在不久前落幕的创始两会中,ChatGPT再次成为了一个热门的人周350gao在线网址科技话题,科技部部长王志刚十天内提到了两次ChatGPT,鸿祎足以说明国家层面对这款软件的对话T的队重视程度。

360公司创始人、创始全国政协委员周鸿祎认为,人周以ChatGPT为代表的鸿祎人工智能大模型技术的巨大跃升将掀起一场新的工业革命,我国理应迎头赶上,对话T的队并提出了“中国要做自己的创始ChatGPT”的观点。

近日,人周民生证券副总裁、鸿祎研究院院长胡又文与周鸿祎围绕近期GPT的对话T的队热点话题展开对话。

以下为对话实录:

提问:ChatGPT中哪些上游场景很关键?

周鸿祎:算力不是创始最关键的问题,场景和数据是人周关键。我们一个账上200多亿人民币的二线队伍,还有国家的很多超算中心,都没事情做,现在发现配了GPU就可以做了。Transformer算法是谷歌发明的,实现靠的是“大力出奇迹”,几千亿参数是个工程问题。中国从1到n做得很快,OpenAI中国做得很快,谷歌和META会很尴尬。Meta开创了它的大语言模型,技术的350gao在线网址Know-How会快速传播。

关键的东西,第一是数据,有知识量的数据做训练,聊天的语料不包括知识,ChatGPT中文语料占了不到5%,大量知识在外文期刊里面只用中文训练语料是不够的。很多机构表示用了很大的参数,但是不敢拿出来展示,大概率是数据不够。还需要人类的反馈强化学习和调优,激发GPT理解人类的查询意图,这是问题的关键。

第二是场景,微软放弃了对小娜的研究,聚焦AI场景化,让大家看到人工智能有什么场景。搜索引擎一直在做NLP(自然语言处理),大家都在跟踪使用,搜索引擎在获取海量数据方面有优势。百度抓取的网页是千亿万亿的规模,需要清洗垃圾网页进行工程化索引,我们的搜索引擎要抓取英文维基百科和语料,是现成的。但初创公司可能会卡在工程化的初始阶段,这个对工程化的要求比较高。还有人工标注的调优,微软做了很多贡献,搜索引擎帮助很大。360搜索份额占比30%,百度占比60%。微软帮助OpenAI占据了很多场景,下一步可能会把Teams( 视频会议 )等TO B的场景做结合。

提问:以后会不会很多行业不存在了,机器把人替代了?

周鸿祎:我不是很认同。我认为这是个洗牌的机会,如果你不重视它,不赶上这班车就不行。我们企业内部要求每个部门都用AI提升我们的能力,用AI的大语言模型赋能,这样会成为我们手里有力的竞争武器。GPT-4的知识能力和考试能力已经超越了每一个地球人,GPT可能是用3.5和4互相训练。我们也考虑过,用BERT这种理解性的模型进行反馈和奖励。这是个生产力工具,是能给各个产业赋能的,关键是你需要找到相应的场景和场景化的能力。

提问:现在行业巨头扎堆,360的优势是?

周鸿祎:第一个问题已经讲了,第一是数据的能力,不能光用中文的数据,要有全球数据的抓取能力,要能做到对垃圾信息的判别和清洗。我们有用户上亿次搜索的数据,而且和百度有知识问答的栏目,我们用这种涉及用户真实的使用场景来进行训练。

数据我们有优势。GPT-2和BERT是开源的,真要做到上千亿上万亿的模型,几干张GPU的显卡,几个T的数据进行几个亿的训练,这个对工程化要求很高。第二,我们搜索引擎的市场份额是百度的一半。搜索引擎不具备生成性,不会编出林黛玉倒拔垂杨柳的故事,但生成式AI会无中生有,如编的结果是不对的,普通人很难验证就很麻烦。我们做泛化的知识图谱的搜索,前面的十条、二十条结果给大语言模型做提炼,这样就不会让生成式AI无中生有。我们每天搜索引擎有一个亿的DAU,大语言模型可以做及时的翻译和推荐,我们可以让用户很好地体验到人工智能的场景,形成商业化的闭环。

我在政协提交了一个提案,大家忽视的是ChatGPT真正的破圈了,之前无论是AlphaGo还是蛋白质折叠,离生活比较远,得益于微软工程化产品化的能力,一方面要打造核心技术,全方位最大化地调用公司的资源,大模型的方向已经出来了,要做到大力出奇迹,500亿到1000亿的参数训练,用有质量的语料。谷歌现在很尴尬,模型做出来了商业化的场景可能也被微软抢完了。微软专注场景和产品化的结合,OpenAI专注技术,这样能实现很好的效果。

提问:360的场景和应用?

周鸿祎:并行的。360也在做To B,也是我们很重视的机会。我们的安全大脑帮助企业抵御攻击。我们的机会是,中国企业不接受公有云希望有个私有化部署的GPT和数据。未来每个企业可能都有自己的大脑。只做垂直行业的训练肯定是不行的,我们离GPT还有24个月到36个月的差距,第一个版本能做到几百亿参数的模型时,做到GPT的六成的功力,做到企业内部是够用了。To B和To G端是有大量的机会的。面对中小企业端,我们打算推出生成式AI的办公套件和应用。OpenAI找了100家垂直的SaaS公司,会专门训练垂类的应用。我们这两年很关注SME(中小企业),对企业数字化的要求功能明确,少花钱、使用简单,SaaS更合适,我们去年面向企业的SaaS云服务,一年120万客户。我们的浏览器国内份额最大,做了个SaaS商店,我们会找合作伙伴做一些场景。To C我们有大量的使用场景,浏览器加上AI插件变成AI个人助理。To B、To SME和To C三十多个场景使用不同的能力,尽快占据用户的使用场景。

提问:360会做芯片模型全覆盖的平台吗?

周鸿祎:我们肯定不是这个方向。谷歌自己做过GPU,自己用。训练最好还是用A100和A800,框架没必要自己做,自己做个框架还要花精力和别的芯片适配。微软这么强大只做应用,OpenAI用的框架也是用的行业通用框架。我不认为产业链全都做了是好事。我们坚定地沿着Transformer框架把模型做到千亿,首先是要占据应用场景。

提问:百度内测效果不错,对于360未来应用的推广是不是更有信心了?

周鸿祎:百度搜索一哥肯定能做好的,微软的搜索份额比谷歌要小,可以放开手做创新。百度为什么做一个聊天机器人我不理解,我要做的话可能更愿意和搜索相结合。国内我不认为会和美国一样一支独大,头条和其他互联网厂商不会相互支持,会互相竞争,360、微博、B站、知乎、小红书、美团、滴滴,等等,他们也不敢用巨头的服务,肯定要自己做。还是希望在这个模型上做出几个超级应用,有应用有场景的公司加上模型会有价值。

提问:中国电信布局了企业版的ChatGPT,对这个的关注提升到了国家战略的高度,国家的重视会对行业产生什么影响?

周鸿祎:国家队做这件事不是坏事,互联网上大家都做过。从目前拥有的数据和团队能力来看,民营企业和国企都在一个起跑线上。只要牌照才能搞大语言模型,这样都有机会。GPT不是媒体一样管制,是个生产力工具,这将决定未来国际竞争当中的国运,美国人对于大语言模型也有政治正确的要求。

提问:中国和美国相比有24到36个月的时间差?

周鸿祎:不是和微软比。GPT-4验证了我们很多观点,它的参数量我觉得应该到了万亿,训练的数据比原来大了5到10倍。人类反馈强化学习不再是十万组,而是几十万组。目前来看多模态是胜过国内的能力的,国内的图像识别还是传统的图像识别,OpenAI把所有都看做序列,图像也是序列,它能把图像组成部分的关系和逻辑相关性总结出来,它在阅读文档上的能力国内做不到。它能支持5万字的输入,表示它的深度记忆能力越强,对上下文的理解越好。GPT-3.5我们认为国内和他的差距18个月,GPT-4是24个月。云谈了这么多年,企业上云的比例也还不高,这比光刻机的难度小多了。

提问:怎么看GPT-4,会不会取代操作系统成为战略级的入口?

周鸿祎:这是两个概念,需要host一个应用,需要操作系统。人工智能没有突破之前,大数据给企业不好用。GPT相当于是发电厂,这个比喻比较贴切。纯做GPT的公司有点来不及,要么是有GPT丰厚的场景。场景越大爆发性就越大,如果场景很小,就做了个虚拟人挂个GPT跟人对话,这个场景就很小。场景未来可能有多家服务提供商。

提问:场景是我们非常关注的点,特斯拉的机器人也是爆款,多模态和机器人的关系?人形机器人是终极目标吗?

周鸿祎:我不这么认为。不考虑机器人的外形,音响之类的用自然语言和人交流这关是过了,但GPT能否处理好机械手臂,寻找空间定位是个问题,除此之外,还有传统的语言识别和图像识别也有问题。人形机器人有个最大的问题是机械手臂抬起的力量,这和人工智能没有关系。如果机器人手里拿不了太重的东西,这可能会成为妨碍。自动驾驶汽车也是个机器人,只不过长了4个轮子。GPT的大语言都可以赋能,你们和智能音箱聊过天,聊两句就能知道他是个笨蛋,GPT肯定通过了图灵训练。

提问:GPT-4在物联网终端的广泛应用是大趋势了,边缘计算的需求是?

周鸿祎:这跟边缘计算有什么关系呢?构不成边缘计算的节点。真正的能力都在云端,运算都在云端。

标签:

责任编辑:休闲

全网热点