
IT 之家 4 月 12 日音讯,科技媒体 marktechpost 昨日(4 月 11 日)发布博文,报谈称英伟达发布 Llama-3.1-Nemotron-Ultra-253B-v1柚子猫 足交,这款 2530 亿参数的大型话语模子在推理才能、架构效果和分娩准备度上收场要紧冲破。
跟着 AI 在数字基础次第中的普及,企业与建树者需在洽商资本、性能与彭胀性间寻找均衡。大型话语模子(LLM)的快速发展提高了当然话语会通和对话才能,但其弘远边界常导致效果低下,松手大边界部署。
英伟达最新发布的 Llama-3.1-Nemotron-Ultra-253B-v1(简称 Nemotron Ultra)直面这一挑战柚子猫 足交,该模子基于 Meta 的 Llama-3.1-405B-Instruct 架构,专为生意和企业需求缠绵,守旧从器用使用到多轮复杂领导扩充等任务。
IT 之家征引博文先容,Nemotron Ultra 选拔仅解码器的密集 Transformer 结构,通过神经架构搜索(NAS)算法优化,其立异之处在于选拔超越小心力机制,在部分层中概略小心力模块或替换为节略线性层。
此外,前馈网罗(FFN)会通时刻将多层 FFN 归拢为更宽但更少的层,大幅裁减推理时辰,同期保合手性能。模子守旧 128K token 的荆棘文窗口,可贬责长篇文本,顺应高档 RAG 系统和多文档分析。
萝莉在部署效果上,Nemotron Ultra 也收场冲破。它能在单 8xH100 节点上开动推理,显贵责怪数据中心资本,提高企业建树者的可及性。
英伟达通过多阶段后考验进一步优化模子,包括在代码生成、数学、对话和器用调用等任务上的监督微调,以及使用群体相对战略优化(GRPO)算法进行强化学习(RL)。这些法子确保模子在基准测试中弘扬出色柚子猫 足交,并与东谈主类交互偏好高度契合。