零点看书

字:
关灯 护眼
零点看书 > 重生之AI教父 > 第43章 又双叒叕突破啦

第43章 又双叒叕突破啦

第43章 又双叒叕突破啦 (第1/2页)

孟繁岐的这番话,听起来让人觉得不是那么舒服。
  
  言下之意,给人一种华国AI技术就是不如国外的感觉。
  
  这是李彦弘不大喜欢的,毕竟他这么早就关注AI技术,就是为了研发最前沿最先进的技术。
  
  孟繁岐大概猜到了他的想法,前世他也曾被早期华国大量发表的AI论文所迷惑。
  
  觉得在这个新崛起的技术上,华国已经可以和美国分庭抗礼,不落下风。
  
  虽然AlphaGO震惊了世人,但毕竟有些华而不实。
  
  直到上千亿级别的语言大模型出现,这种纯硬核实力的比拼,让孟繁岐不得不甘拜下风。
  
  实际上,并非是技术手段和算法层面上相差太远。
  
  更多的还是因为优质数据的数量不足。
  
  白度的文心一言,出图的时候甚至会将用户的中文输入翻译成英文,再去作图。
  
  很多较真的网友故意测试了中英文差异很大的词汇,比如总线(Bus),鼠标(mouse)。
  
  文心一言绘出的图像竟然是大巴车和老鼠,这从中文上是完全说不通的事情。
  
  可见即便不是全部,文心一言这个所谓的专注中文的超级大模型,也在相当程度上借助了英文基础的模型权重和技术。
  
  究竟为何要这么做,说到底还是基础不够扎实牢靠。
  
  整理数据,清洗数据,给数据打上高质量的标签。
  
  这些都是脏活累活,见效慢的工作。
  
  把别人公开的数据拿过来跑一跑训一训,多么方便快捷?
  
  以国内996大厂的内卷风气,很难容下长回报周期的基础建设。
  
  早些时候看看不出区别,只觉得国内大厂频繁在XX榜单上露面,刷榜,又是超过这个,又是超过那个。
  
  直到语言大模型阶段,基础语料数量和质量上的劣势才暴露无遗。
  
  “其实这也不能完全怪华国的大厂风气,美国的互联网起步要早,并且很多领域的文献材料归档做得特别好。”孟繁岐也曾仔细思索过这方面的问题。
  
  “像github,arxiv这样的大型公开社区,里面都是非常优质的外文代码或者论文。这些也不只是美国人自己的积累。而是通过免费公用的形式,收割了全世界的数据。”
  
  “华国人在github上贡献的代码行数也不在少数,反过来看看华国的论文社区,就比如知网,纯纯就是毒瘤。里面屯点硕博生的论文,还要论页数收费。就连下载之后的阅读器,甚至都需要专门的....”
  
  此消彼长之下,差了多少珍贵的数据啊...
  
  只是此时此刻,李彦弘应该还没有想到这么大规模的数据用于训练。因而孟繁岐也不急于一时和他讨论后面语言类的技术,以及生成式的大模型。
  
  最近一两年内,孟繁岐的重心还是在视觉图像算法这边。
  
  “李总,我个人相信AI技术的开源程度是相对的,不可以一直这样透明下去。只是最后成为壁垒的可能并不是模型本身这个纯技术范畴,更多的可能是计算能力,高质量的大规模数据,以及一些精髓的训练与反馈方式等等。”
  
  

(本章未完,请点击下一页继续阅读)
『加入书签,方便阅读』
热门推荐
大主宰 逍遥双修 都市古仙医 退下,让朕来 鬼门医尊 寒门崛起 恶魔法则 登堂入室 极品家丁 夜的命名术