TinyLlama项目旨在在3万亿令牌上预训练一个1.1B Llama模型。通过一些适当的优化,我们可以在“仅”90天内使用16个A100-40G GPU完成。训练已于2023-09-01开始。TinyLlama官网入口网址
Llama-3 70B模型的LoRA适配器,扩展上下文长度至超过524K。Llama-3 70B Gradient 524K Adapter官网入口网址
构建您自己的超现实面部应用,StableFace官网入口网址
- 智能浏览器新标签页 -
完全免费 · 简洁大方功能丰富 · 高效舒适