导航
行业动态

智见林咏华:根底大模型是AI中的“CPU”

发布时间:2023-06-14 00:59:08 来源:bandao半岛体育

  跟着 ChatGPT 等大模型的发布,全球人工智能掀起了新一轮开展热潮,国内外大模型技能研讨与工业开展一日千里,通用人工智能进入全新开展时期。

  在2023智源大会上,大会除了约请到了图灵奖得主 Geoffrey Hinton、Yann LeCun、Joseph Sifakis、麻省理工学院未来生命研讨所创始人 Max Tegmark,OpenAI 首席执行官 Sam Altman 等200余位人工智能顶尖专家以国际视角共话通用人工智能开展面临的机会与应战外,智源研讨院发布了全面开源的“悟道3.0”系列大模型及算法,报告了在高精度生命模仿和有机大分子建模方面的最新进展。

  此次悟道3.0包含的项目有「悟道・天鹰」(Aquila)言语大模型系列、FlagEval (天秤)大模型言语评测系统以及「悟道・视界」视觉大模型系列。此外 FlagOpen 飞智也带来了开源大模型技能系统最新进展。

  作为北京智源人工智能研讨院副院长兼总工程师,林咏华谈到此次智源发布天鹰有两个重要的亮点。

  榜首个亮点是高效,首要体现在两方面:一方面经过许多对练习架构的优化,提高了练习的吞吐量;一方面经过许多对数据、数字的精细化处理和清洗,到达用少的数据量来练习出相同功用乃至功用更好的模型。

  第二个亮点是经过这次打造迭代循环的生产线和流水线,能够对模型的质量、安全性、价值观以及所短少的才能很快速的进行调整和提高。这两个亮点构成了未来大模型立异开展的杰出基座。林咏华还谈到,根底模型现已成为AI大模型年代,单一“产品”投入最大的部分。打造根底大模型,便是在打造AI中的“CPU”。根底模型很大程度上决议了后续模型才能、工业落地等要素。

  大模型评测系统树立时最中心的要素是什么?智源研讨院发布的这套评测系统跟企业会有什么样的协作,以及具体的评测流程是怎样的?国内外开源生态的距离怎样?智源“悟道”和LLaMA在开展战略上比较,有哪些共同之处?带着这些问题,网易科技与林咏华进行了深化沟通。

  发问:智源发布了一整套评测系统,您在这套评测系统树立时最中心考虑哪些方面?

  首要需求考虑的是要满意文字言语的了解才能,所以有时候评测系统里有许多了解才能的使命在里边。

  其次,现在我们的模型现已从了解变成了生成模型,所以能够应对各种使命之下的生成才能是我们第二个要去考虑的。可是它还有更往前的是它的认知才能。因而,我们会把它作为一个人类帮手进行讲究,例如它的认知才能需求哪些维度的提高,包含代码的编写、改写以及协助人类做计划乃至安排文字等等。

  最终,我们还会有安全和道德的评测在里边。现在我们是从这三个维度去考虑和施行。今日我们在“天秤”评测系统还没能做到,也是最终一个台阶,即人的心智评测。这有许多心理学的东西在里边,这是很难的一个论题。未来我们会更多跟心理学进行穿插交融,去研讨和探求怎样把类人类的心智评测也能做到。

  发问:我们这套评测系统跟企业有什么样的协作?它们大模型运用我们这个评测系统的流程是什么样的?

  林咏华:现在我们有两种方式,一个是在线,一个是离线。所谓在线评测,由于我们现已开源API和比方,它只需接入API和比方,就能够在上面请求做这样一个评测。那个模型是运转在这些企业和被评测团队自己的环境里,调用API来评测。

  第二类是离线评测,离线评测更精准、更可信。企业在我们的渠道上上传它的被评测模型,我们渠道主动拉起评测的环境,在我们渠道的算力来协助它完结整个评测,这是更细、更牢靠的评测办法。

  林咏华:我把这种结合概括成三点,我参加智源的前10年一向做小模型,参加智源之后走入大模型赛道。所以从小模型和大模型的结合,或许大模型怎样协助小模型企业开展来讲有三个维度:

  榜首个维度,关于小的AI模型来说,它能够把原有的算法进行更新,使其运用起来愈加高效,能够大大协助企业把本来的算法进行更新换代,节约产品本钱。例如在核算机视觉方面,CNN为主的卷积神经网络现已用了好久,可是transformer出来之后,根据transformer相同的视觉分类,比方我们常常听到的VIT。我做过比照试验,视觉范畴曾经我们一向用ResNet-50,别的一个是VIT,VIT是诞生于大模型年代的一个视觉模型,它要能到达相同练习后的功用只需求四分之一的显存,也便是说用VIT去练习视觉的分类。别的,上线推理的速度,它是ResNet-50的大约只要60%,这是个典型的比方,是核算机范畴的小模型。

  第二个维度,运用大模型年代新的算法和才能,能够催生曾经我们想做但受制于其时小模型年代而落地不了的计划。举个比方,CV范畴许多职业落地的场景是数数,例如我的货架上有多少瓶可乐,我的仓库里有多少瓶油。曾经这个工作一向做欠好,由于经过传统的办法,它的精度达不到,略微远一点点它就算不出来了。SAM模型能够经过大模型海量练习数据,切割键盘上的一颗颗按键,加上智源研讨院推出的切割模型SegGPT,它的才能是假如我想把一切叫“可乐”的东西都抠出来,点一下某瓶可乐,它就把一切的可乐都出来。

  当我们把这两种大模型技能结合起来时,能够做到高精度的按需来数数的才能,这个就很好的处理了曩昔这么多年传统的小模型在CV范畴没能处理的很重要的工业落地的问题。

  第三个维度,运用大模型中的小模型。我们在这次开源里放进了量化实践,能够做到4比特量化,量化之后这个模型尺度仅仅4G的尺度,这个意味着什么?现在有许多新一代边际侧小的推理芯片都现已能够做到8G的显存了,意味着这种大模型中的小尺度模型就能够放进去。这种边际侧的这些芯片或许仅仅一二十美金一片,现在现已许多呈现在许多运用范畴,这也是许多传统小模型赛道公司能够做的。这是我以为的第三个维度,把大模型里的小模型运用进去。

  林咏华:我们在我国比较介意数据质量,着重期望中文内容90%多是来历于国内互联网。由于究竟国内互联网的特征是有很好的管理办法,有互联网答应,发在互联网上的东西都是契合标准的。这是一个重要的跟LLaMA不相同的当地。

  至于开展战略,这就看主体差异了,我们与Meta开源战略不同。Meta把LLaMA研制出来,它自身有自己商用的那一套,贡献给学术界做开源敞开的研讨探求。因而它发布的对错商用的协议,期望能够驱动纯研讨的探求,而不是驱动商业的。

  首要,智源是个研讨组织,期望推进学术开展,但一同智源承当着作为国内重要的AI大模型的牵头立异体,我们期望提前看到大模型真的能够工业落地,而不是只停留在研讨界。

  其次,我们很清楚我们会持续迭代模型,不仅是不同的尺度、不同的形状,乃至是同一个尺度、同一个形状、同一个模型下,我们仍力求两周后的版别比今日的版别更优异,这也是我们协助这个工业打磨好大模型往前走的路途。

  林咏华:智源有数据研讨团队,而且是我们2019年时就现已开端树立的团队,它们一向持续的以合法的方式堆集互联网上的中文语料,便是“悟道”数据集。“悟道”数据集在我们内部一向是更新的,持续到今日,这是我们自己收集取得的一个重要来历。当然,也有一些外部揭露合法获取的数据,可是那个数据拿回来要经过清洗。

  可是相关于英文数据,我们严峻短少的是重要的高质量的数据,如中文书本类的数据、中文文献类的数据等等。在中文国际,它没有像英文国际那么敞开,英文国际现已有这些做好的数据集,可是在中文国际没有。我国的文献集聚在各大出版社或许各个文献渠道。

  由于智源是个中立的非赢利组织,所以在北京市政府及相关组织的支持下,我们也取得了一些重要的数据组织,乐意把高质量的数据给到智源让我们练习这个,由于它知道智源不是拿它挣钱,而是回馈工业。

  发问:现在是不是相似BAT这样的公司把握越多的数据,它们就一定在这个“大模型”食物链最顶层?

  林咏华:我觉得是这样的。像大的互联网公司,假如它们自己的模型是运用在它们自己的运用范畴,无疑它们具有的数据是最多的。例如小红书、字节,它们有最多的视频数据或许图文数据,是互联网这种类型的,它们开发的模型假如是服务于它们的运用范畴,无疑是最多的。可是放眼国内各个职业所需求的基座模型,光有这种数据是不行的,还需求许多常识性数据,短少的那些数据也没在它们那。相似天鹰这种最根底性、最通用性的模型,仍是需求各家力气一同,能够把数据敞开、合理运用的问题去处理。

  发问:大模型在现在运用进程中会产生一些臆造的问题,您怎样看这个问题?处理的途径是什么?

  林咏华:根据大模型有许多随机与概率作为理论的根底,所以很难百分之百消除这个工作。我们需求用不同的办法,让这样的产生尽量的削减。

  现在能够做的工作:榜首仍是数据问题。现在海量数据让模型练习时,有或许海量数据里关于某个概念或某个认知,里边一同存在两份界说,这两份界说有矛盾或许有差异。打个比方,医学名词,有专业的医学典著里的界说,也有或许呈现在某些名科上,所以自身在练习语料里或许呈现对同一个工作不同的声响。由于太海量了,所以我们一向在做过滤,特别对重要的范畴、严厉的范畴,我们需求过滤掉不正确的界说或许有误差的界说,尽量有比较官方的界说,而防止呈现我问一个问题,它看到有两个答案,也不知道答复哪个答案,所以榜首是需求从数据的视点去做答复功夫。

  第二个是处理一些事实性的问题。现在比较有用的办法是叠加外部常识的增强。打个比方,怎样经过大模型技能和检索技能的结合,把外部的数据库、外部的常识库和外部企业重要的信息系统打通,由于我们不或许把一切的常识、重要的法令等等悉数让大模型去学,而且功率或许也不行、欠好,这是个重要的研制范畴。但现在用大模型和检索技能结合,把外部的常识系统引进来,这个是切实可行的。

  第三个则是还需求在研讨中不断探索。现在有一些研讨学者在不断探求怎样修正模型里的结构,包含一些根底理论,让它能够削减不确定性。现在,第三点还在研讨里探索,没有像前面榜首步、第二步那样切实可行。

  发问:之前业界观念以为TOP模型变得越来越闭环,他们说GPT3.5很具体,可是GPT4.0一向没有发布,您怎样看TOP模型未来开源和闭源的,思维搏弈是为什么?

  林咏华:我觉得这儿没有对错,更多是主体和背面的组织的诉求。由于现在TOP模型只能是互联网大厂或许特别有实力的组织才能做。他们投入了那么昂扬的经费去做,比方千亿模型需求大几千万,这种情况下,自身它是个商业组织,它决议闭源这个战略是很正常的,由于它要考虑怎样让这个出资能够有报答,所以站在它的态度是一个很正确的决议。

  关于智源的特殊性来说,由于我们是中立的研制组织,又对错赢利的,又是在科技部和北京市支持下开展。开展进程中,智源期望对工业有更多技能影响和报答,所以这决议了智源经过开源,特别是商用可用的开源去做。

  所以这儿没有对错,而是主体自身的性质来决议。OpenAI也不是榜首天就闭源,它其时也是开源,可是当它面临跟微软达到协作,就不得不做这样一个挑选。

  林咏华:我觉得是能够的。榜首,今日国内的某些有资金实力的互联网大厂,也是根据开源持续往前去走,做它以为自己事务和运用所需求的TOP的模型。

  第二,这些年AI范畴获益于开源,假如没有开源,AI不会开展到今日,每次AI都是站在他人的膀子上往前走。我信任,根据开源去做,能够让我们走得更快。

  发问:我国现在有超越30个城市建造或许提出建造智算中心,其间近10个城市智算中心投入运营,为当地各行各业供给算力支撑,这对我国AI工业开展有怎样的效果?

  林咏华:这两年不断推进和开展智算中心,包含运用“东数西算”。我们欢喜的看到“东数西算”渐渐有些节点,由于“东数西算”不是一开端就做智算这块的,我们所界说的“智算”需求有AI加快核算才能。在曩昔两年大模型的拉动下,有越来越多“东数西算”的节点,把它在新的数据中心打造成智算中心,这对AI工业开展特别国内的工业开展很有协助。

  这儿一方面有充分的算力,更重要的是它这样做能够协助拉动我们AI算力的本钱。由于我们要知道,在AI算力方面,不管用英伟达,仍是国内新的AI芯片,这儿最终的运用本钱有很大一部分是电费。这个电费根据不同芯片的能耗比、不同区域电费的昂扬,通常会占到运用本钱的大约10%,乃至更高。可是我们国内城市电费的差异或许差好几倍,所以假如在电力动力富余的当地和电力电费更低的当地去开展智算中心,无疑会大大下降我们的算力本钱,这是很明显、很有必要和很应该做的。

  价格79.58万-92.35万元,添加实景导航功用 新款奔驰GLE上市

  美国阿拉斯加被曝不明飞行物掉落 目击者:呈现两个2米多高绿色外星生物,有闪亮大眼睛

  比亚迪要进入美国商场?李柯:不考虑!王传福:比亚迪将带领我国新动力轿车走向全球

  最薄15英寸笔记本!苹果全新MacBook Air首销:10499元起

  “身高达不到165厘米。”医师一句话, 爸爸妈妈傻眼了!一年多前,他们刚刚给12岁的儿子服下增高土方.....

  曝四川农业大学招聘10名辅导员+行政,共1300多硕士+80多博士报名

首页 产品中心 联系我们