个性化图像生成的注意力混合架构,Mixture-of-Attention (MoA)官网入口网址
Transformer-XL是一种超越固定长度上下文的注意力语言模型,支持单节点多GPU和多主机TPU训练,取得了最新的最佳结果,Transformer-XL官网入口网址
Gemma 2B模型,支持10M序列长度,优化内存使用,适用于大规模语言模型应用。Gemma-2B-10M官网入口网址
高分辨率多视角扩散模型,使用高效行注意力机制。Era3D官网入口网址
通过预训练的运动建模模块,使得用户能够轻松地创作出丰富多样的动画内容,同时保持了原有模型的风格和特性。它的跨领域应用性和易于集成的特点,极大地扩展了个性化动画的创作空间,AnimateDiff官网入口网址
FlashInfer是一个用于大型语言模型服务的高性能GPU内核库。
- 智能浏览器新标签页 -
完全免费 · 简洁大方功能丰富 · 高效舒适