OpenBMB官网

清华大学自然语言处理实验室和智源研究院语言大模型加速技术创新中心共同支持发起

网站服务:AI训练模型,BigModelsforEveryone,BMCook,BMInf,BMTrain,CPM-Live,CPM1,CPM2,DeltaCenter,EVA,nlp,OpenBMB,OpenDelta,OpenPrompt,中文预训练对话模型,中文预训练语言模型,千元级显卡玩转大模型推理,参数高效的大模型微调,大模型“瘦身”工具库,大模型提示学习利器,大模型训练“发动机”,自然语言处理,通用中英文双语预训练语言模型,AI训练模型,BigModelsforEveryone,BMCook,BMInf,BMTrain,CPM-Live,CPM1,CPM2,DeltaCenter,EVA,nlp,OpenBMB,OpenDelta,OpenPrompt,中文预训练对话模型,中文预训练语言模型,千元级显卡玩转大模型推理,参数高效的大模型微调,大模型“瘦身”工具库,大模型提示学习利器,大模型训练“发动机”,自然语言处理,通用中英文双语预训练语言模型。

OpenBMB

OpenBMB简介

OpenBMB全称为Open Lab for Big Model Base,旨在打造大规模预训练语言模型库与相关工具, 加速百亿级以上大模型的训练、微调与推理,降低大模型使用门槛,与国内外开发者共同努力形成大模型开源社区, 推动大模型生态发展,实现大模型的标准化、普及化和实用化,让大模型飞入千家万户。

OpenBMB开源社区由清华大学自然语言处理实验室和智源研究院语言大模型加速技术创新中心共同支持发起。 发起团队拥有深厚的自然语言处理和预训练模型研究基础,近年来围绕模型预训练、提示微调、模型压缩技术等方面在顶级国际会议上发表了数十篇高水平论文。亮点成果如下:

1.曾最早提出知识指导的预训练模型ERNIE并发表在自然语言处理顶级国际会议ACL 2019上,累计被引超过600次;

2.团队依托智源研究院研发的“悟道·文源”中文大规模预训练语言模型CPM-1、CPM-2、CPM-3,参数量最高达到1980亿,在众多下游任务中取得优异性能;

3.2022年面向生物医学的预训练模型KV-PLM发表在著名综合类期刊Nature Communications上,并入选该刊亮点推荐文章;

4.团队还有丰富的自然语言处理技术的开源经验,发布了OpenKE、OpenNRE、OpenNE等一系列有世界影响力的工具包,在GitHub上累计获得超过5.8万星标,位列全球机构第148位。

5.2023年1月,OpenBMB与面壁智能公司联合研发的CPM-Bee多语言百亿大模型登顶ZeroCLUE。

相关标签

AI训练模型Big Models for Everyone BMCook BMInf BMTrain CPM-Live CPM1 CPM2 Delta Center EVA nlp OpenBMB OpenDelta OpenPrompt 中文预训练对话模型 中文预训练语言模型 千元级显卡玩转大模型推理 参数高效的大模型微调 大模型“瘦身”工具库 大模型提示学习利器 大模型训练“发动机” 自然语言处理 通用中英文双语预训练语言模型

OpenBMB官网入口网址

AI聚合大数据显示,OpenBMB官网非常受用户欢迎,请访问OpenBMB网址入口()试用。

数据统计

数据评估

OpenBMB浏览人数已经达到852,如你需要查询该站的相关权重信息,可以点击"5118数据""爱站数据""Chinaz数据"进入;以目前的网站数据参考,建议大家请以爱站数据为准,更多网站价值评估因素如:OpenBMB的访问速度、搜索引擎收录以及索引量、用户体验等;当然要评估一个站的价值,最主要还是需要根据您自身的需求以及需要,一些确切的数据则需要找OpenBMB的站长进行洽谈提供。如该站的IP、PV、跳出率等!

关于OpenBMB特别声明

本站Home提供的OpenBMB都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由Home实际控制,在2024年 4月 21日 下午3:01收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,Home不承担任何责任。

相关导航

暂无评论

暂无评论...

OpeniTab

- 智能浏览器新标签页 -

完全免费 · 简洁大方
功能丰富 · 高效舒适