Lists (2)
Sort Name ascending (A-Z)
Stars
The official GitHub page for the survey paper "A Survey of Large Language Models".
Memory for AI Agents; Announcing OpenMemory MCP - local and secure memory management.
ChatGPT爆火,开启了通往AGI的关键一步,本项目旨在汇总那些ChatGPT的开源平替们,包括文本大模型、多模态大模型等,为大家提供一些便利
Chinese and English multimodal conversational language model | 多模态中英双语对话语言模型
ChatGLM2-6B: An Open Bilingual Chat LLM | 开源双语对话语言模型
Universal LLM Deployment Engine with ML Compilation
An open-source tool-augmented conversational language model from Fudan University
这是一款提高ChatGPT的数据安全能力和效率的插件。并且免费共享大量创新功能,如:自动刷新、保持活跃、数据安全、取消审计、克隆对话、言无不尽、净化页面、展示大屏、拦截跟踪、日新月异、明察秋毫等。让我们的AI体验无比安全、顺畅、丝滑、高效、简洁。
LlamaIndex is the leading framework for building LLM-powered agents over your data.
中文langchain项目|小必应,Q.Talk,强聊,QiangTalk
为GPT/GLM等LLM大语言模型提供实用化交互接口,特别优化论文阅读/润色/写作体验,模块化设计,支持自定义快捷按钮&函数插件,支持Python和C++等项目剖析&自译解功能,PDF/LaTex论文翻译&总结功能,支持并行问询多种LLM模型,支持chatglm3等本地模型。接入通义千问, deepseekcoder, 讯飞星火, 文心一言, llama2, rwkv, claude2, m…
Code and documentation to train Stanford's Alpaca models, and generate the data.
中文LLaMA&Alpaca大语言模型+本地CPU/GPU训练部署 (Chinese LLaMA & Alpaca LLMs)
An open platform for training, serving, and evaluating large language models. Release repo for Vicuna and Chatbot Arena.
闻达:一个LLM调用平台。目标为针对特定环境的高效内容生成,同时考虑个人和中小企业的计算资源局限性,以及知识安全和私密性问题
Langchain-Chatchat(原Langchain-ChatGLM)基于 Langchain 与 ChatGLM, Qwen 与 Llama 等语言模型的 RAG 与 Agent 应用 | Langchain-Chatchat (formerly langchain-ChatGLM), local knowledge based LLM (like ChatGLM, Qwen and…
An Extensible Toolkit for Finetuning and Inference of Large Foundation Models. Large Models for All.
人工精调的中文对话数据集和一段chatglm的微调代码
中文nlp解决方案(大模型、数据、模型、训练、推理)
silverriver / ChatGLM-6B-Slim
Forked from THUDM/ChatGLM-6BChatGLM-6B-Slim:裁减掉20K图片Token的ChatGLM-6B,完全一样的性能,占用更小的显存。
BELLE: Be Everyone's Large Language model Engine(开源中文对话大模型)
chatglm 6b finetuning and alpaca finetuning
ChatGLM-6B: An Open Bilingual Dialogue Language Model | 开源双语对话语言模型
ChatYuan: Large Language Model for Dialogue in Chinese and English
GLM-130B: An Open Bilingual Pre-Trained Model (ICLR 2023)