PConline 6 月 28 日消息 本日,字节跳动火山翻译团队公布推出 LightSeq 练习加速引擎, 并向全球开发者开源 。
Transformer 是自然语言处理、计算机视觉等 AI 技术领域最常用的基础模型, 被广泛应用在机器翻译、文本天生、文本摘要、图像处理、时间序列猜测等任务中 。练习和推理则是 AI 技术的两个主要过程,相当于学习知识和解决题目。
据悉, LightSeq 练习加速引擎能够支持 Transformer 的完整加速 ,从词嵌进层、编码层、解码层,到最后的损失函数层,业内首次实现了全流程支持。而且 LightSeq 的练习速度极快,相比主流的序列天生库,LightSeq 最快只需要三分之一的时间就能完成练习。
根据公然报道,字节跳动现在已经开源了机器学习平台 Klever、联邦学习平台 Fedlearner、高性能分布式练习框架 BytePS 等重磅项目。