最快提速可达到三倍以上 字节跳动发布开源LightSeq训练加速引擎

字节跳动火山翻译团队宣布推出LightSeq训练加速引擎,并向全球开发者开源。这是业界首款完整支持Transformer模型全流程加速的训练引擎,最快可提速3倍以上,帮助从业者大幅提升模型生产效率。

Transformer是自然语言处理、计算机视觉等AI技术领域最常用的基础模型,被广泛应用在机器翻译、文本生成、文本摘要、图像处理、时间序列预测等任务中。训练和推理则是AI技术的两个主要过程,相当于学知识和解决问题。

受到硬件资源限制,一些高校实验室和中小公司无法训练大型模型,降低批处理大小等措施又会导致训练时间成倍增加。如何利用有限的资源最快训练出模型,成为计算机科研工作者和开发者们普遍关注的问题。

据悉,LightSeq训练加速引擎能够支持Transformer的完整加速,从词嵌入层、编码层、解码层,到最后的损失函数层,业内首次实现了全流程支持。而且LightSeq的训练速度极快,相比主流的序列生成库,LightSeq最快只需要三分之一的时间就能完成训练。

推荐DIY文章
联想小新Air14 2023公开部分规格:新笔电将搭载下沉式键盘
朗科新推绝影NV5000-t固态硬盘 温控技术更高 售价暂未公布
2022款iPadPro将可使用视频编辑软件达芬奇 使用软件更专业
苹果全新推出AppleTV 4K产品:流式传输可以千兆以太网进行
智己L7SnakePerformance高性能版:新车瞄准数秒级圈速提升
闪迪大师PRO-G40SSD外置固态硬盘:兼具极速传输与耐用优点
精彩新闻

超前放送