TinyLlama项目旨在在3万亿令牌上预训练一个1.1B Llama模型。通过一些适当的优化,我们可以在“仅”90天内使用16个A100-40G GPU完成。训练已于2023-09-01开始。TinyLlama官网入口网址
Llama-3 70B模型的LoRA适配器,扩展上下文长度至超过524K。Llama-3 70B Gradient 524K Adapter官网入口网址
构建您自己的超现实面部应用,StableFace官网入口网址
开源代码生成语言模型
代码生成与理解的大型语言模型
Qwen2.5-Coder系列的0.5B参数代码生成模型
在浏览器中直接运行先进的机器学习模型。
开源代码生成大型语言模型
Qwen2.5-Coder系列中的14B参数代码生成模型
7B参数的代码生成语言模型
Qwen2.5-Coder系列中的7B参数代码生成模型
Qwen2.5-Coder系列中的1.5B参数代码生成模型
Qwen2.5-Coder系列中的指令调优0.5B参数代码生成模型
Qwen2.5-Coder系列中的0.5B参数量指令调优模型
一个基于Llama模型的量化版本,用于对话和幻觉检测。
多语言大型语言模型,支持23种语言
Qwen团队开发的实验性研究模型,专注于提升AI推理能力。
多模态大型语言模型,支持图像与文本的交互理解。
多模态大型语言模型,融合视觉与语言理解。
EXAONE 3.5系列的7.8B参数双语生成模型
LG AI Research开发的双语文本生成模型
LG AI Research开发的多语言生成模型
70亿参数的量化文本生成模型
LG AI Research开发的双语生成模型
Qwen2.5-Coder系列中参数最多的开源代码生成模型
70亿参数的文本生成模型
- 智能浏览器新标签页 -
完全免费 · 简洁大方功能丰富 · 高效舒适