统一文本到文本转换器,Google T5官网入口网址
TinyLlama项目旨在在3万亿令牌上预训练一个1.1B Llama模型。通过一些适当的优化,我们可以在“仅”90天内使用16个A100-40G GPU完成。训练已于2023-09-01开始。TinyLlama官网入口网址
北京人工智能研究院发布了中国首个大规模预训练模型系统“无道1.0”,包含了多个具有超强处理能力和性能的模型,可应用于自然语言处理和图形处理等领域,Wu Dao 1官网入口网址
零一万物-AI2.0大模型技术和应用的全球公司(01.AI)提供卓越性能的Yi-34B预训练模型,具有高性能、成本效益和开放性,适用于自然语言处理、语音识别和图像处理等多个应用场景,零一万物-01.ai官网入口网址
MPNet是一种用于语言理解任务的预训练模型,通过解决BERT和XLNet中的问题,提高了准确性,MPNet官网入口网址
谷歌推出的开源预训练语言模型,Gemma-2b官网入口网址
「快意」大规模语言模型(KwaiYii)是快手AI团队研发的一系列大规模语言模型,包括预训练模型和对话模型,具备强大的通用技术底座能力和出色的语言理解与生成能力,适用于内容创作、信息咨询、数学逻辑、代码编写等多种应用场景,KwaiYii快意大模型官网入口网址
一个基于稀疏专家模型的大型语言模型,Mixtral-8x22B官网入口网址
封神榜(封神榜大模型)是中文最大的开源预训练模型体系,提供多模态、知识检索、代码生成等先进模型技术,适用于自然语言处理、图像处理和代码生成等应用场景,封神榜-IDEA研究院官网入口网址
BERT是一种用于自然语言处理的先进预训练模型,通过学习上下文关系,提供准确的语言表示,可应用于问答系统和情感分析等多个领域,Google BERT官网入口网址
开源多语言多模态对话模型,GLM-4系列官网入口网址
第二代多模态预训练对话模型,CogVLM2官网入口网址
一种用于图像和文本数据的先进机器学习模型,专注于数据质量和透明度。MetaCLIP官网入口网址
新一代开源预训练模型,支持多轮对话和多语言。GLM-4-9B-Chat-1M官网入口网址
基于19亿参数的对话生成模型,Index-1.9B-Chat官网入口网址
开源多模态预训练模型,具备中英双语对话能力。GLM-4V-9B官网入口网址
轻量级大语言模型,专注于文本生成。Index-1.9B-Pure官网入口网址
新一代多语言预训练模型,性能卓越。Qwen2官网入口网址
新一代多语言预训练模型,支持长文本和代码执行。GLM-4-9B-Chat官网入口网址
基于预训练的纯视觉变换器提升图像抠图,ViTMatte官网入口网址
Face-Adapter是一个功能强大的自动化工具,帮助用户简化工作流程,提高工作效率。适用于各种行业和领域,具有先进的安全功能和支持AI技术,Face Adapter官网入口网址
7.8亿参数的双语生成模型,EXAONE-3.0-7.8B-Instruct官网入口网址
- 智能浏览器新标签页 -
完全免费 · 简洁大方功能丰富 · 高效舒适