收录全网大模型
ERNIE-Bot
ERNIE-Bot是百度自行研发的大语言模型,覆盖海量中文数据,具有更强的对话问答、内容创作生成等能力。
ERNIE-Bot-turbo
ERNIE-Bot-turbo是百度自行研发的大语言模型,覆盖海量中文数据,具有更强的对话问答、内容创作生成等能力,响应速度更快。
VisualGLM-6B
智谱AI与清华KEG实验室发布的多模态对话语言模型,支持图像、中文和英文。语言模型基于 ChatGLM-6B,具有 62 亿参数;图像部分通过训练 BLIP2-Qformer 构建起视觉模型与语言模型的桥梁,整体模型共78亿参数。
BLOOMZ-7B
BLOOMZ-7B是业内知名的大语言模型,由BigScience研发并开源,能够以46种语言和13种编程语言输出文本。
Llama-2
Llama-2-7b-chat
Llama-2-7b-chat由Meta AI研发并开源,在编码、推理及知识应用等场景表现优秀,Llama-2-7b-chat是高性能版本。
Llama-2-13b-chat
Llama-2-13b-chat是由Meta AI研发并开源,在编码、推理及知识应用等场景表现优秀,Llama-2-13b-chat是性能与效果均衡版本。
Llama-2-70b-chat
Llama-2-70b-chat由Meta AI研发并开源,在编码、推理及知识应用等场景表现优秀,Llama-2-70b-chat是高精度效果版本。
Embedding-V1
Embedding-V1是基于百度文心大模型技术的文本表示模型,将文本转化为用数值表示的向量形式,用于文本检索、信息推荐、知识挖掘等场景。
Linly-Chinese-LLaMA-2-7B
由深圳大学CV研究所Linly项目进行中文增强训练的7b参数版本。
Linly-Chinese-LLaMA-2-13B
由深圳大学CV研究所Linly项目进行中文增强训练的13b参数版本。
ChatGLM2-6B
智谱AI与清华KEG实验室发布的中英双语对话模型,具备强大的推理性能、效果、较低的部署门槛及更长的上下文,在MMLU、CEval等数据集上相比初代有大幅的性能提升。
RWKV-4-World
由香港大学物理系校友彭博研发并开源,结合了Transformer与RNN的优点,具备优秀的推理性能与效果。
OpenLLaMA-7B
在Meta AI研发的Llama模型基础上,OpenBuddy进行调优,涵盖了更广泛的词汇、通用字符与token嵌入,具备与Llama相当的性能与推理效果。
Falcon-7B
由TII研发、在用精选语料库增强的1500B token上进行训练。由OpenBuddy调优并开源,提升了处理复杂对话任务的能力与表现。
Dolly-12B
由Databricks训练的指令遵循大语言模型。基于pythia-12b,由InstructGPT论文的能力域中生成的约15k指令/响应微调记录训练。
MPT-7B
MPT-7B-Instruct是一种短格式指令遵循模型,由MosaicML研发,基于MPT-7B模型在Databricks Dolly-15k、HH-RLHF数据集上调优的版本,采用经过修改的仅使用解码器的transformer架构。
Stable-Diffusion-v1.5
业内知名的跨模态大模型,由StabilityAI研发并开源,有着业内领先的图像生成能力。
RWKV-4-pile-14B
由香港大学物理系校友彭博研发并开源,结合了Transformer与RNN的优点,具备优秀的推理性能与效果。
RWKV-5-World
由香港大学物理系校友彭博研发并开源,结合了Transformer与RNN的优点,具备优秀的推理性能与效果。
RWKV-Raven-14B
由香港大学物理系校友彭博研发并开源,结合了Transformer与RNN的优点,具备优秀的推理性能与效果。
Falcon-40B
由TII研发的仅使用解码器的模型,在精选语料库增强的RefinedWeb上使用1000B tokens进行训练。
MPT-30B-instruct
MPT-30M-Instruct是一种短格式指令遵循模型,由MosaicML研发,基于MPT-7B模型在更为丰富的数据集上调优的版本,采用经过修改的仅使用解码器的transformer架构。
Flan-UL2
由Google研发并开源,基于T5架构的tranformer模型,使用UL2模型相同的配置,在“Flan”数据集上进行微调,在少样本上下文学习中具有优秀的表现。
Cerebras-GPT-13B
由Cerebras研发并开源,使用 Chinchilla 公式进行训练的13B参数GPT模型,可为给定的计算预算提供最高的准确性,具备更低的训练成本与功耗。
Cerebras-GPT-6.7B
由Cerebras研发并开源,使用 Chinchilla 公式进行训练的6.7B参数GPT模型,可为给定的计算预算提供最高的准确性,具备更低的训练成本与功耗。
Pythia-12B
由EleutherAI研发并开源,在Pile数据集上训练的12B参数transformer语言模型。
Pythia-6.9B
由EleutherAI研发并开源,在Pile数据集上训练的6.9B参数transformer语言模型。
GPT-J-6B
EleutherAI开发的6B参数transformer模型,基于Mesh Transformer JAX训练。
GPT-NeoX-20B
由EleutherAI开发,使用GPT-NeoX库,基于Pile训练的200亿参数自回归语言模型,模型结构与GPT-3、GPT-J-6B类似。
OA-Pythia-12B-SFT-4
基于Pythia12B,Open-Assistant项目的第4次SFT迭代模型。
GPT4All-J
由Nomic AI研发、基于GPT-J在包括文字问题、多轮对话、代码、诗歌、歌曲和故事在内的大量语料上进行精调训练生成的模型。
StarCoder
由BigSicence研发的15.5B参数模型,基于The Stack (v1.2)的80+编程语言训练,训练语料来自Github。
StableLM-Alpha -7B
Stability AI开发的7B参数的NeoX transformer架构语言模型,支持4k上下文。
| 类别 | 大模型 |
|---|---|
| 商用 | gpt4 |
| 商用 | chatgpt-3.5 |
| 商用 | 文心一言 |
| 开源 | belle-llama-13b-2m |
| 商用 | 讯飞星火v1.5 |
| 商用 | 360智脑 |
| 商用 | chatglm官方 |
| 商用 | 讯飞星火old |
| 开源 | tulu-30b |
| 开源 | Llama-2-70b-chat |
| 开源 | Ziya-LLaMA-13B-v1.1 |
| 开源 | belle-llama-13b-ext |
| 开源 | phoenix-inst-chat-7b |
| 开源 | BELLE-on-Open-Datasets |
| 开源 | belle-llama-7b-2m |
| 开源 | Ziya-LLaMA-13B-v1 |
| 开源 | vicuna-33b |
| 开源 | chatglm2-6b |
| 开源 | linly-chatflow-13b |
| 开源 | Baichuan-13B-Chat |
| 商用 | tigerbot-7b |
| 商用 | minimax |
| 开源 | chatglm-6b |
| 开源 | wizardlm-13b |
| 开源 | InternLM-Chat-7B |
| 商用 | 文心一言old |
| 开源 | AquilaChat-7B |
| 开源 | MOSS-003-SFT |
| 开源 | guanaco-7b |
| 商用 | 阿里通义千问 |
