Selected more than 6000 projects, including machine learning, deep learning, NLP, GNN, recommendation system, biomedicine, machine vision, etc.
- 机器学习与深度学习
- NLP自然语言处理
- 网络与前后端开发
- 推荐系统
- 机器视觉
- 因果推断
- 金融股票与时间序列
- 强化学习
- 语音识别与合成
- 生物医药
- 图数据库 图算法
- 图神经网络GNN
- 大数据
- 虚拟化
- 安全与渗透
- 硬件
- 其他项目
-
Coursera-ML-AndrewNg-Notes 吴恩达老师的机器学习课程个人笔记
-
d2l-ai/d2l-zh 《动手学深度学习》:面向中文读者、能运行、可讨论。中英文版被60多个国家的400多所大学用于教学。
-
apachecn/AiLearning AiLearning: 机器学习 - MachineLearning - ML、深度学习 - DeepLearning - DL、自然语言处理 NLP
-
microsoft/ai-edu 微软人工智能教育与学习共建社区。由基础教程、实践案例、实践项目三大模块构成,通过系统化的理论教程和丰富多样的实践案例,帮助学习者学习并掌握人工智能的知识,并锻炼在实际项目中的开发能力。
-
microsoft/Data-Science-For-Beginners 10 周20 节课,全民数据科学!
-
mli/paper-reading 深度学习经典、新论文逐段精读。包括视频讲解。
-
josephmisiti/awesome-machine-learning 机器学习框架、库和软件的精选列表
-
AMAI-GmbH/AI-Expert-Roadmap 2022年成为人工智能专家的路线图
-
dair-ai/ML-YouTube-Courses 在 YouTube 上发现最新的机器学习/人工智能课程。
-
visenger/awesome-mlops 机器学习操作 (MLOps),可自动执行并加速机器学习生命周期。精选的参考文献列表。
-
fuzzylabs/awesome-open-mlops MLOps(机器学习操作)是一门帮助人们在生产环境中成功训练、部署和运行机器学习模型的学科。因为这是一个快速发展的新领域,所以有很多工具,而且新的工具一直在出现。这是 Fuzzy Labs 指南,介绍了免费和开源 MLOps 工具的世界。
-
kelvins/awesome-mlops 精选的精彩 MLOps 工具列表。包括:AutoML 自动机器学习、用于机器学习的 CI/CD、Cron作业监控、数据目录、数据扩充、数据探索、数据管理、数据处理、数据验证、数据可视化、漂移检测、特征工程、功能商店、超参数调优、知识共享、机器学习平台、模型公平性和隐私性、模型可解释性、模型生命周期、模型服务、模型测试和验证、优化工具、简化工具、可视化分析与调试、工作流工具、资源、文章、书、事件、其他列表、播客、Slack、网站链接、贡献
-
fengdu78/lihang-code 《统计学习方法》第二版的代码实现
-
Dod-o/Statistical-Learning-Method_Code 实现李航《统计学习方法》中全部算法
-
datawhalechina/pumpkin-book 本书旨在对西瓜书里比较难理解的公式加以解析,以及对部分公式补充具体的推导细节。
-
ShusenTang/Dive-into-DL-PyTorch 本项目将《动手学深度学习》(Dive into Deep Learning)原书中的MXNet实现改为PyTorch实现。
-
datawhalechina/leedl-tutorial 《李宏毅深度学习教程》,PDF下载
-
ageron/handson-ml2 一系列Jupyter笔记本,引导您使用Scikit-Learn,Keras和TensorFlow 2了解Python中的机器学习和深度学习的基础知识。
-
fengdu78/deeplearning_ai_books deeplearning.ai(吴恩达老师的深度学习课程笔记及资源)
-
GokuMohandas/Made-With-ML 了解如何设计、开发、部署和迭代生产级 ML 应用程序。在本课程中,将从实验(设计 + 开发)到生产(部署 + 迭代)。我们将通过激励组件来迭代地做到这一点,这些组件将使我们能够构建可靠的生产系统。
-
kmario23/deep-learning-drizzle 通过从这些令人兴奋的讲座中学习,让自己沉浸在深度学习、强化学习、机器学习、计算机视觉和 NLP
-
cbamls/AI_Tutorial 精选机器学习,NLP,图像识别, 深度学习等人工智能领域学习资料,搜索,推荐,广告系统架构及算法技术资料整理。算法大牛笔记汇总
-
EthicalML/awesome-production-machine-learning 精选的开源库列表,用于部署、监控、版本控制和扩展您的机器学习
-
FavioVazquez/ds-cheatsheets 统治世界的数据科学备忘单列表
-
nndl/nndl.github.io 《神经网络与深度学习》 邱锡鹏著
-
ashishpatel26/500-AI-Machine-learning-Deep-learning-Computer-vision-NLP-Projects-with-code 500个AI机器学习 深度学习 计算机视觉 NLP 代码项目
-
ZuzooVn/machine-learning-for-software-engineers 学习成为机器学习工程师的完整日常计划。
-
NirantK/awesome-project-ideas 机器学习、NLP、视觉、推荐系统项目创意的精选列表
-
Mikoto10032/DeepLearning 深度学习入门教程, 优秀文章
-
chefyuan/algorithm-base 用动画将算法说的通俗易懂
-
MorvanZhou/tutorials 机器学习相关教程
-
rougier/scientific-visualization-book 一本关于使用 python 和 matplotlib 进行科学可视化的开放获取书籍
-
bangoc123/learn-machine-learning-in-two-months 在 2 个月内学习好机器学习所需的知识。
-
ukas/ml-class 专为工程师设计的机器学习课程和教学项目
-
Mohitkr95/Best-Data-Science-Resources 该存储库包含最好的数据科学免费精选资源,可为您提供所有行业驱动的技能和面试准备工具包。
-
academic/awesome-datascience 很棒的数据科学存储库,用于学习和应用现实世界的问题。
-
eugeneyan/applied-ml 生产中的数据科学和机器学习的精选论文、文章和博客。
-
eriklindernoren/ML-From-Scratch 从头开始机器学习。机器学习模型和算法的裸骨 NumPy 实现,重点关注可访问性。旨在涵盖从线性回归到深度学习的所有内容。
-
roboticcam/machine-learning-notes 不间断更新的机器学习,概率模型和深度学习的讲义(2000+页)和视频链接
-
donnemartin/data-science-ipython-notebooks 数据科学Python笔记本:深度学习(TensorFlow,Theano,Caffe,Keras),scikit-learn,Kaggle,大数据(Spark,Hadoop MapReduce,HDFS),matplotlib,pandas,NumPy,SciPy,Python essentials,AWS和各种命令行。
-
NLP-LOVE/ML-NLP 机器学习(Machine Learning)、深度学习(Deep Learning)、NLP面试中常考到的知识点和代码实现,也是作为一个算法工程师必会的理论基础知识。
-
tangyudi/Ai-Learn 人工智能学习路线图,整理近200个实战案例与项目,免费提供配套教材,零基础入门,就业实战!包括:Python,数学,机器学习,数据分析,深度学习,计算机视觉,自然语言处理,等热门领域
-
dragen1860/Deep-Learning-with-TensorFlow-book 深度学习入门开源书,基于TensorFlow 2.0案例实战。
-
openmlsys/openmlsys-zh 《机器学习系统:设计与实现》- 中文版
-
PKUFlyingPig/cs-self-learning 计算机自学指南深度学习入门开源书,基于TensorFlow 2.0案例实战。
-
mml-book/mml-book.github.io 《机器学习数学》一书的配套网页
-
afshinea/stanford-cs-229-machine-learning 斯坦福大学 CS 229 机器学习的 VIP 备忘单
-
abmlai/annotated_deep_learning_paper_implementations 神经网络和相关算法的简单 PyTorch 实现的集合。将这些呈现为并排格式化的笔记。我们相信这些将帮助您更好地理解这些算法。
-
yunjey/pytorch-tutorial 深度学习研究人员的 PyTorch 教程
-
PyTorchLightning/PyTorch-lightning 基于Pytorch的轻量高级计算框架,相当于Keras框架。
-
bharathgs/Awesome-pytorch-list github上pytorch相关内容的完整列表,例如不同的模型,实现,帮助程序库,教程等。
-
sgrvinod/Deep-Tutorials-for-PyTorch 使用 PyTorch 自行实现深度学习模型的深入教程。
-
apachecn/pytorch-doc-zh Pytorch 中文文档
-
zergtant/pytorch-handbook pytorch handbook是一本开源的书籍,目标是帮助那些希望和使用PyTorch进行深度学习开发和研究的朋友快速入门,其中包含的Pytorch教程全部通过测试保证可以成功运行
-
pytorch/examples 一组关于 pytorch 在视觉、文本、强化学习等方面的示例。
-
ELS-RD/kernl 第一个使用 OpenAI Triton 编写的 OSS 推理引擎,这是一种由 OpenAI 设计的新语言,可以更轻松地编写 GPU 内核。每个内核不到200行代码,易于理解和修改。
-
BoltzmannEntropy/interviews.ai 深度学习面试书:数百个完全解决的工作面试问题,来自 AI 的广泛关键主题。
-
ChristosChristofidis/awesome-deep-learning 精选深度学习教程、项目和社区列表。
-
microsoft/AI-For-Beginners Microsoft的 Azure 云倡导者很高兴提供为期 12 周、每节课的人工智能课程。
-
google-research/tuning_playbook 系统地最大化深度学习模型性能的手册。重点是超参数调优的过程。我们涉及深度学习训练的其他方面,例如管道实现和优化,但我们对这些方面的处理并不打算完整。
-
floodsung/Deep-Learning-Papers-Reading-Roadmap 深度学习论文阅读路线图,适合任何渴望学习这项惊人技术的人!
-
scutan90/DeepLearning-500-questions 深度学习500问,以问答形式对常用的概率知识、线性代数、机器学习、深度学习、计算机视觉等热点问题进行阐述,以帮助自己及有需要的读者。 分为18个章节,50余万字。
-
mrdbourke/pytorch-deep-learning 学习用于深度学习的 PyTorch:从零到精通课程的材料。
-
ageron/handson-ml3 一系列Jupyter笔记本,引导您使用Scikit-Learn,Keras和TensorFlow 2了解Python中的机器学习和深度学习的基础知识。
-
girls-in-ai/Girls-In-AI 免费学代码系列:小白python入门、数据分析data analyst、机器学习machine learning、深度学习deep learning、kaggle实战
-
kailashahirwar/cheatsheets-ai 深度学习和机器学习工程师的基本备忘单
-
cbamls/AI_Tutorial 精选机器学习,NLP,图像识别, 深度学习等人工智能领域学习资料,搜索,推荐,广告系统架构及算法技术资料整理。
-
apachecn/pytorch-doc-zh Pytorch 中文文档,PyTorch 是一个针对深度学习, 并且使用 GPU 和 CPU 来优化的 tensor library (张量库)
-
PaddlePaddle/Paddle 『飞桨』核心框架,深度学习&机器学习高性能单机、分布式训练和跨平台部署
-
alibaba/MNN 轻量级的深度神经网络推理引擎
-
Tencent/TNN 移动端高性能、轻量级推理框架,同时拥有跨平台、高性能、模型压缩、代码裁剪等众多突出优势
-
microsoft/nnfusion 灵活高效的深度神经网络(DNN)编译器,可从DNN模型描述生成高性能的可执行文件。
-
apache/incubator-tvm 用于深度学习系统的编译器堆栈。它旨在缩小以生产力为中心的深度学习框架与以性能和效率为重点的硬件后端之间的差距。TVM与深度学习框架一起使用,以提供对不同后端的端到端编译
-
geohot/tinygrad 不到1000行的深度学习框架,麻雀虽小,但五脏俱全,这个深度学习框架使用起来和PyTorch类似
-
karpathy/micrograd 微型标量自动求导引擎,类似PyTorch API的神经网络库
-
Jittor/jittor 基于 JIT 编译和元运算符的高性能深度学习框架。整个框架和元运算符是及时编译的。它使我们能够生成专门针对您的模型的高性能代码。Jittor 还包含丰富的高性能模型库,包括:图像识别、检测、分割、生成、可微渲染、几何学习、强化学习等。
-
wandb/client Weights and Biases 组织和分析机器学习实验 它与框架无关,并且比TensorBoard轻巧。每次您运行带有的脚本时wandb,都会保存您的超参数和输出指标。在训练过程中可视化模型,并轻松比较模型的版本。我们还将自动跟踪您的代码状态,系统指标和配置参数。
-
NUAA-AL/ALiPy 基于Python实现的主动学习工具包
-
facebookresearch/nevergrad 无梯度优化平台
-
yzhao062/combo 用于机器学习模型组合的 Python 工具箱。模型组合可以被认为是整体学习的子任务,并且已被广泛用于诸如Kaggle [3]之类的现实任务和数据科学竞赛中。
-
google/trax 代码更清晰的神经网络代码库
-
Oneflow-Inc/oneflow OneFlow是一个以性能为中心的开源深度学习框架。
-
jonasrauber/eagerpy 编写与PyTorch,TensorFlow,JAX和NumPy本地兼容的代码
-
tensorlayer/TensorLayerX 跨平台开发框架,支持TensorFlow, Pytorch, MindSpore, PaddlePaddle, OneFlow和Jittor,用户不需要修改任何代码即可以运行在各类操作系统和AI硬件上(如Nvidia-GPU 和 Huawei-Ascend),并支持混合框架的开发。
-
borgwang/tinynn 用 Python3 编写的轻量级深度学习框架(用于学习目的)。
-
rushter/MLAlgorithms 机器学习算法
-
MLEveryday/100-Days-Of-ML-Code 100-Days-Of-ML-Code中文版
-
csuldw/MachineLearning csuldw/MachineLearning
-
luwill/machine-learning-code-writing luwill/machine-learning-code-writing
-
geekinglcq/CDCS CDCS 中国数据竞赛优胜解集锦
-
mlpack/mlpack C++ 快速、灵活的机器学习库
-
apple/coremltools 包含用于 Core ML模型转换、编辑和验证的支持工具。
-
tensorflow/ranking TensorFlow中的排名学习
-
scikit-survival 生存分析
-
ShichenXie/scorecardpy Scorecard Development in python, 评分卡
-
lavender28/Credit-Card-Score 申请信用评分卡模型
-
modin-project/modin 通过更改一行代码来扩展加速pandas
-
vaexio/vaex 适用于Python的核外DataFrame,以每秒十亿行的速度可视化和探索大型表格数据
-
cupy/cupy 使用 CUDA 加速类似 NumPy 的 API
-
serge-sans-paille/pythran 将 Python 代码转成 C++ 代码执行 一个 AOT (Ahead-Of-Time - 预先编译) 编译器,大幅度提升性能。
-
RAPIDS Open GPU Data Science RAPIDS 开放 GPU 数据科学库。cuDF - GPU DataFrame Library GPU数据表库。cuML - RAPIDS Machine Learning Library RAPIDS 机器学习库。cuGraph - RAPIDS Graph Analytics Library RAPIDS 图分析库。cuSignal - RAPIDS Signal Processing Library RAPIDS信号处理库
-
AtsushiSakai/PythonRobotics 包括了机器人设计中常用的定位算法、测绘算法、路径规划算法、SLAM 、路径跟踪算法。
-
sql-machine-learning/sqlflow 连接 SQL 引擎的桥接,与机器学习工具包连接
-
esa/pagmo2 大规模并行优化的科学库 生物启发式算法和进化算法
-
geatpy-dev/geatpy 高性能遗传进化算法工具箱
-
guofei9987/scikit-opt 强大的启发式算法Python模块 遗传算法 粒子群优化 模拟退火 蚁群算法 免疫算法 人工鱼群算法
-
interpretml/interpret 训练可解释的机器学习模型和解释黑匣子系统
-
alexmojaki/heartrate 调试 Python程序执行的简单实时可视化
-
bojone/keras_recompute 通过重计算来节省显存,参考论文《Training Deep Nets with Sublinear Memory Cost》。
-
yuanming-hu/taichi_mpm 带有切割和耦合(CPIC)的高性能MLS-MPM(基于移动最小二乘法的物质点法)求解器
-
pytorch/opacus Opacus是一个库,可以使用不同的隐私训练PyTorch模型。
-
pycaret/pycaret Python中的开源,低代码机器学习库
-
thuml/Transfer-Learning-Library 用于迁移学习的开源且文档齐全的库。它基于具有高性能和友好API的纯PyTorch。当前支持的算法包括:领域对抗神经网络(DANN)深度适应网络(DAN)联合适应网络(JAN)条件域对抗网络(CDAN)最大分类器差异(MCD)Margin Disparity Discrepancy 保证金差异(MDD)
-
jxhe/unify-parameter-efficient-tuning 参数高效迁移学习 (PETL) 方法仅调整少量(额外)参数以使大型预训练模型适应下游任务。
-
FedML-AI/FedML 面向研究的联邦学习库。支持分布式计算,移动/IoT设备训练和模拟
-
bytedance/fedlearner 字节开源联邦机器学习平台,采用的是一套云原生的部署方案。数据存放在HDFS,用MySQL存储系统数据。通过Kubernetes管理和拉起任务。每个Fedlearner的训练任务需要参与双方同时拉起K8S任务,通过Master节点统一管理,Worker建实现通信。以推荐广告业务为例,联邦机器学习平台的广告主和平台方应该各自管理一套模型展示服务和模型训练服务。
-
mit-han-lab/mcunet IoT硬件上精简的深度学习库 Tiny Deep Learning on IoT Devices
-
Aimhubio/Aim 一个超级简单的记录、查找、比较AI实验的库。
-
microsoft/onnxruntime 跨平台深度学习训练和推理机加速器,与深度学习框架,可以兼容TensorFlow、Keras和PyTorch等多种深度学习框架。Open Neural Network Exchange 是用于表示深度学习模型的开放格式,定义了通用运算符、机器学习和深度学习模型的构建块以及通用文件格式,可与各种框架工具和编译器一起使用。
-
microsoft/hummingbird 将训练有素的机器学习模型编译为张量计算,以加快推理速度。 用于将经过训练的传统ML模型编译为张量计算的库。
-
microsoft/EdgeML Microsoft Research India开发的边缘设备提供了机器学习算法。
-
ml-tooling/best-of-ml-python 很棒的机器学习Python库的排名列表。
-
terryyz/PyArmadillo Python 语言的线性代数库,强调易用性。该库旨在提供类似于 Matlab 或者 Octave 的高级语法和功能,使得用户以熟悉且自然的方式表达数学运算。提供了用于矩阵和多维数据集(cube)的对象,以及 200 多个用于处理对象中存储数据的相关函数。所有功能都可以在一个平面结构中访问,并且支持整数、浮点数和复数。通过集成 LAPACK 或者 Intel MKL、OpenBLAS 等高性能替代产品,该库可以提供各种矩阵分解。
-
raminmh/liquid_time_constant_networks 一种能适应实时世界系统的变化的神经网络。神经网络的设计灵感来自生物大脑,设计灵感直接来自秀丽隐杆线虫(C. elegans)。他说:「它的神经系统仅有 302 个神经元,但却可以产生超出预期的复杂动态。」 Liquid 网络的流动性使其能更弹性地应对意料之外的数据或噪声数据。
-
mlech26l/keras-ncp 设计灵感直接来自秀丽隐杆线虫 由感官神经元接收环境信息、而后经过中间神经元,传递给指令神经元进而形成决策信息,最后由动作神经元完成决策的执行并完成动作。
-
skorch-dev/skorch 综合scikit-learn和PyTorch的机器学习库,可以实现sklearn和PyTorch高效兼容。
-
OpenMined/PySyft 用于安全和私有深度学习的Python库。PySyft使用联合学习,差分隐私和加密计算(例如PyTorch和TF中的多方计算 (MPC) 和同态加密 (HE) 将模型训练中的私人数据进行解耦。
-
pyro-ppl/pyro 基于PyTorch作为后端的通用概率编程语言 (PPL)。
-
PytorchLightning/metrics PyTorch原生的函数和度量模块的集合,用于简单的性能评估。可以使用常见的指标,如准确性,召回率,精度,AUROC, RMSE, R²等,或者创建你自己的指标。支持超过25个指标,并不断增加更多通用任务和特定领域的标准(目标检测,NLP等)。
-
teddykoker/torchsort 快速可微分排序算法PyTorch包,配有自定义C ++和CUDA
-
man-group/dtale pandas数据结构的可视化工具
-
google/model_search 帮助研究者自动、高效地开发最佳机器学习模型,谷歌开源了一个不针对特定领域的 AutoML 平台。该平台基于 TensorFlow 构建,非常灵活,既可以找出最适合给定数据集和问题的架构,也能够最小化编程时间和计算资源。
-
neuronika/neuronika 纯Rust的张量和动态神经网络库。
-
matazure/mtensor 一个tensor计算库, 支持cuda的延迟计算
-
e-tony/best-of-ml-rust 一个令人赞叹的Rust机器学习排名表。
-
awslabs/autogluon 为文本、图像、表格数据开发的自动机器学习库(AutoML)。
-
luwill/Machine_Learning_Code_Implementation 机器学习算法的数学推导和纯Python代码实现。
-
ml-tooling/best-of-ml-python 一个令人赞叹的python机器学习排名表,每周更新。
-
thuwyh/InferLight 提高模型的线上推理吞吐量近2.5倍。
-
ContrastiveSR/Contrastive_Learning_Papers 对比学习的相关论文列表。内容包括:计算机视觉、NLP、推荐系统、图模型等方面的应用。
-
Tencent/WeChat-TFCC C++深入学习推理框架。提供以下工具包,便于您开发和部署训练 DL 模型:TFCC深度学习推理库的核心、TFCC 代码生成器、TFCC 运行时。
-
idrl-lab/idrlnet 基于内嵌物理知识神经网络的开源求解框架
-
KaiyuYue/torchshard 马里兰大学帕克分校计算机科学系的研究者开源了一个轻量级的引擎,用于将 PyTorch 张量切片成并行的 shard。当模型拥有大量的线性层(例如 BERT、GPT)或者很多类(数百万)时,TorchShard 可以减少 GPU 内存并扩展训练规模,它具有与 PyTorch 相同的 API 设计。
-
marcotcr/lime LIMELocal Interpretable Model-agnostic Explanations被用作解释机器学习模型。
-
MAIF/shapash 非常炫酷的模型解释性工具包。
-
microsoft/ML-For-Beginners 微软给初学者开源了一份机器学习课程。
-
sfu-db/dataprep Python 库,有助于自动化探索性数据分析过程。它在创建数据分析报告时很有用,它还具有 3 个用于绘制图形、绘制缺失数字和数据相关性的功能。
-
scikit-learn-contrib/hdbscan 用无监督学习来查找数据集的集群聚类或密集区域的工具。主要算法是HDBSCAN。该算法的高性能实现,以及用于分析结果聚类的工具。
-
nvidia/TensorRT C++库,用于对 NVIDIA GPU 和深度学习加速器进行高性能推论。
-
dropreg/R-Drop 填补Dropout缺陷,简单又有效的正则方法。在每个 mini-batch 中,每个数据样本过两次带有 Dropout 的同一个模型,R-Drop 再使用 KL-divergence 约束两次的输出一致。
-
ucbrise/actnn PyTorch的激活压缩训练框架。在同样内存限制下,通过使用 2 bit 激活压缩,可将 batch size 扩大 6-14 倍,将模型尺寸或者输入图片扩大 6-10 倍。
-
softsys4ai/FlexiBO 基于成本感知的多目标优化深度神经网络
-
XuezheMax/apollo Apollo:用于非凸随机优化的自适应参数对角拟牛顿法
-
statsmodels/statsmodels Statsmodels:Python 中的统计建模和计量经济学库。
-
evidentlyai/evidently 在验证或生产监控期间分析机器学习模型的交互式报告。
-
louisfb01/best_AI_papers_2021 按发布日期列出的人工智能最新突破(2021 年)的精选列表,附有清晰的视频说明、更深入文章的链接和代码。
-
DataCanvasIO/DeepTables DeepTables:表格数据的深度学习工具包
-
arogozhnikov/Einops 深度学习操作被彻底改造(用于 pytorch、tensorflow、jax 等). einops(爱因斯坦标记法),让代码可读性更强.
-
haifengl/smile Java和Scala中的快速而全面的机器学习,NLP,线性代数,图形,插值和可视化系统。凭借先进的数据结构和算法,Smile 可提供最先进的性能。
-
wesm/pydata-book Wes McKinney的“Python for Data Analysis”材料和IPython笔记本,由O'Reilly Media出版
-
Visualize-ML/Book3_Elements-of-Mathematics Book_3_《数学要素》 | 鸢尾花书:从加减乘除到机器学习
-
roatienza/Deep-Learning-Experiments 了解深度学习的视频、笔记和实验
-
MingchaoZhu/DeepLearning 该书为《深度学习》(花书) 数学推导、原理剖析与源码级别代码实现
-
aladdinpersson/Machine-Learning-Collection 在此存储库中,您将找到与机器学习相关的教程和项目。我尝试使代码尽可能清晰,目标是用作学习资源和查找问题以解决特定问题的方法。对于大多数人,如果您想要代码的演练,我还在YouTube上做了视频解释。
-
fastai/fastai 一个深度学习库,它提供了高级组件,可以在标准深度学习领域快速轻松地提供最先进的结果,并为研究人员提供可以混合和匹配以构建新方法的低级组件。它旨在做到这两件事,而不会在易用性、灵活性或性能方面做出实质性妥协。这要归功于精心分层的架构,该架构以解耦抽象的形式表达了许多深度学习和数据处理技术的共同底层模式。这些抽象可以通过利用底层Python语言的动态性和PyTorch库的灵活性来简洁明了地表达。
-
rasbt/deeplearning-models 各种深度学习架构、模型和技巧的集合。Jupyter Notebooks中TensorFlow和PyTorch的深度学习架构、模型和技巧的集合。
-
bfortuner/ml-glossary 机器学习术语表
-
fastai/fastbook 这些笔记本介绍了深度学习、fastai 和 PyTorch。fastai 是用于深度学习的分层 API。
-
ZuzooVn/machine-learning-for-software-engineers 学习成为机器学习工程师的完整日常计划。
-
terryum/awesome-deep-learning-papers 被引用最多的深度学习论文 on Oct 19, 2018
-
d2l-ai/d2l-en 交互式深度学习书籍,包含多框架代码、数学和讨论。被斯坦福大学、麻省理工学院、哈佛大学和剑桥大学等 60 个国家的 400 所大学采用。
-
dragen1860/TensorFlow-2.x-Tutorials TensorFlow 2.x版本的教程和示例,包括CNN,RNN,GAN,Auto-Encoders,FasterRCNN,GPT,BERT示例等。 TF 2.0版入门实例代码,实战教程。
-
BayesWitnesses/m2cgen 将 ML 模型转换为零依赖的本机代码(Java、C、Python、Go、JavaScript、Visual Basic、C#、R、PowerShell、PHP、Dart、Haskell、Ruby、F#、Rust)
-
Jack-Cherish/Machine-Learning 机器学习实战(Python3):kNN、决策树、贝叶斯、逻辑回归、SVM、线性回归、树回归
-
Vay-keen/Machine-learning-learning-notes 周志华《机器学习》又称西瓜书是一本较为全面的书籍,书中详细介绍了机器学习领域不同类型的算法(例如:监督学习、无监督学习、半监督学习、强化学习、集成降维、特征选择等),记录了本人在学习过程中的理解思路与扩展知识点,希望对新人阅读西瓜书有所帮助!
-
Yorko/mlcourse.ai 由 OpenDataScience (ods.ai) 领导的开放式机器学习课程,由 Yury Kashnitsky(Yorko)领导。Yury拥有应用数学博士学位和Kaggle竞赛大师级学位,旨在设计一门在理论与实践之间取得完美平衡的ML课程。因此,该课程在讲座中为您提供数学公式,并以作业和 Kaggle 课堂竞赛的形式进行大量练习。目前,该课程处于自定进度模式。
-
lawlite19/MachineLearning_Python 机器学习算法python实现
-
jindongwang/MachineLearning 一些关于机器学习的学习资料与研究介绍
-
dotnet/machinelearning .NET 的开源和跨平台机器学习框架。
-
dustinvtran/ml-videos 机器学习视频资源的集合
-
Visualize-ML/Book4_Power-of-Matrix Book_4_《矩阵力量》 | 鸢尾花书:从加减乘除到机器学习;上架!
-
ShusenTang/Deep-Learning-with-PyTorch-Chinese 将PyTorch官方书籍《Deep learning with PyTorch》(基本摘录版)翻译成中文版并给出可运行的相关代码。
-
ritchieng/the-incredible-pytorch 一个精选的教程、项目、库、视频、论文、书籍以及与令人难以置信的 PyTorch 相关的任何内容。
-
virgili0/Virgilio 开源计划,旨在指导和指导数据科学领域的任何人。我们的愿景是让每个人都有机会参与这个领域,从实践者开始,获得新技能,并学会在无限的资源网络中导航,并找到对您有用的资源。
-
louisfb01/start-machine-learning 机器学习 (ML)、人工智能 (AI) 的完整指南,无需任何该领域背景,并随时了解最新消息和最先进的技术!
-
scipy/scipy SciPy(发音为“Sigh Pie”)是一款用于数学、科学和工程的开源软件。它包括用于统计、优化、积分、线性代数、傅里叶变换、信号和图像处理、常微分方程求解器等模块。
-
numpy/numpy 使用 Python 进行科学计算的基础包。它提供:一个强大的 N 维数组对象、复杂的(广播)功能、用于集成 C/C++ 和 Fortran 代码的工具、有用的线性代数、傅里叶变换和随机数功能。
-
jakevdp/PythonDataScienceHandbook 包含完整的 Python 数据科学手册,其形式为 (免费!Jupyter 笔记本。
-
andkret/Cookbook 数据工程手册
-
ahmedbahaaeldin/From-0-to-Research-Scientist-resources-guide 为本科生或任何想在扎实基础上深入研究人工智能领域的任何人提供详细和量身定制的指南。本指南适用于任何具有基本编程知识或计算机科学背景的人,有兴趣成为深度学习和 NLP 研究科学家。
-
doccano/doccano 面向机器学习从业者的开源注释工具。
-
mrdbourke/machine-learning-roadmap 2020 年机器学习路线图(2023 年仍有 90% 有效),连接机器学习中许多最重要概念的路线图,如何学习它们以及使用哪些工具来执行它们。
-
VowpalWabbit/vowpal_wabbit 机器学习系统,它通过在线、哈希、allreduce、reductions、learning2search、active 和交互式学习、Bandit等技术推动了机器学习的前沿。
-
janishar/mit-deep-learning-book-pdf 麻省理工学院深度学习书 PDF 格式(完整和部分),作者:Ian Goodfellow、Yoshua Bengio 和 Aaron Courville
-
amusi/Deep-Learning-Interview-Book 深度学习面试宝典(含数学、机器学习、深度学习、计算机视觉、自然语言处理和SLAM等方向)
-
xenova/transformers.js 最先进的 Web 机器学习。直接在浏览器中运行🤗Transformers,无需服务器! 被设计为在功能上等同于 Hugging Face 的 transformers python 库,这意味着您可以使用非常相似的 API 运行相同的预训练模型。这些模型支持不同模式的常见任务,例如:自然语言处理:文本分类、命名实体识别、问答、语言建模、摘要、翻译、多项选择和文本生成。计算机视觉:图像分类、物体检测和分割。音频:自动语音识别和音频分类。多模态:零样本图像分类。Transformers.js使用 ONNX 运行时在浏览器中运行模型。最好的部分是,您可以使用 🤗 Optimum 轻松地将预训练的 PyTorch、TensorFlow 或 JAX 模型转换为 ONNX。
-
MorvanZhou/PyTorch-Tutorial 轻松快速地构建您的神经网络, 莫烦Python中文教学
-
tensorpack/tensorpack 基于图模式 TensorFlow 的神经网络训练接口。另一个 TF 高级 API,具有以下亮点:注重训练速度。Tensorpack 的速度是免费的——它以高效的方式使用 TensorFlow,没有额外的开销。在普通的 CNN 上,它的训练速度比等效的 Keras 代码快 1.2~5 倍。如果使用 Tensorpack 编写,您的训练可能会更快。可扩展的数据并行多 GPU/分布式训练策略是现成的。有关更多基准测试,请参阅 tensorpack/benchmarks。符号编程(例如 tf.data )不提供研究所需的数据处理灵活性。Tensorpack 通过各种自动并行化策略从纯 Python 中榨取最大的性能。
-
TsingZ0/PFLlib PFLlib 是一个用户友好的个性化联邦学习(Personalized Federated Learning, pFL)算法库,旨在为初学者提供一个集成评估平台,以便他们能够开始学习和研究联邦学习(Federated Learning, FL)。该库专注于解决数据和模型的异构性问题,特别是统计异质性,这是由于用户的个性化行为导致的非独立同分布(Non-IID)和数据不平衡现象。PFLlib 包含了多种算法,其中传统联邦学习(Traditional Federated Learning, tFL)和个性化联邦学习(Personalized Federated Learning, pFL)是主要的两种类型。tFL 侧重于共同学习全局模型,而 pFL 则旨在为每个用户学习个性化的模型。PFLlib 提供了34个联邦学习算法,其中包含27个个性化联邦学习算法,涵盖了3大类数据异质场景和20个数据集。PFLlib 的主要目的是降低初学者研究联邦学习的门槛,通过简单的示范指南和代码示例,使新手用户能够快速上手。此外,PFLlib 还支持高效 GPU 内存使用及新增的隐私保护功能,进一步提升了其在实际应用中的可用性和安全性。PFLlib 是一个专门为初学者设计的个性化联邦学习算法库,通过提供多种算法和集成评估平台,帮助用户解决数据和模型的异构性问题,特别是统计异质性问题。
-
christianversloot/machine-learning-articles 关于机器学习的文章,存档自 MachineCurve.com。在 2019 年 5 月至 2022 年 2 月期间撰写了这些关于 peroid 机器学习的文章。
-
BinRoot/TensorFlow-Book 随附的 Machine Learning with TensorFlow 源代码。请参阅本书以获取分步说明。
-
FeatureLabs/featuretools 特征工程工具箱
-
ScienceKot/kydavra 特征筛选工具
-
aerdem4/lofo-importance LOFO(Leave One Feature Out)重要性基于选择的度量计算一组特征的重要性,对于选择的模型,通过迭代地从集合中删除每个特征,并评估模型的性能。
-
imbalanced-learn 解决机器学习中不平衡数据集
-
ResidentMario/missingno 灵活且易于使用的缺失数据可视化和实用程序,可让您快速直观地了解数据集的完整性(或缺乏完整性)。
-
RUCAIBox/Negative-Sampling-Paper 该知识库收录了与负采样方法相关的 100 篇论文,涵盖推荐系统(RS)、计算机视觉(CV)、自然语言处理(NLP)和对比学习(CL)等多个研究领域。
-
haifengl/smile Smile(统计机器智能和学习引擎)是Java和Scala中的快速而全面的机器学习,NLP,线性代数,图形,插值和可视化系统。凭借先进的数据结构和算法,Smile 可提供最先进的性能。
-
leibinghe/GAAL-based-outlier-detection 基于盖尔的异常检测
-
yzhao062/pyod 异常检测库
-
kLabUM/rrcf 用于异常检测的鲁棒随机砍伐森林算法的实现
-
mangushev/mtad-gat 基于图注意力网络的多变量时间序列异常检测模型
-
d-ailin/GDN 基于图神经网络的多变量时间序列异常检测
-
DHI/tsod 时间序列数据异常检测
-
manigalati/usad 多变量时间序列的无监督异常检测
-
awslabs/realtime-fraud-detection-with-gnn-on-dgl 实时欺诈检测(利用图形数据库 Amazon Neptune)的端到端解决方案,使用 Amazon SageMaker 和DGL从表格数据构建异构图形并训练GNN模型来检测IEEE-CIS 数据集中的欺诈交易。
-
safe-graph/UGFraud 用于欺诈检测的基于图的无监督工具箱
-
squareRoot3/Rethinking-Anomaly-Detection 重新思考用于异常检测的图神经网络
-
yzhao062/anomaly-detection-resources 异常检测相关书籍、论文、视频和工具箱
-
hyperopt/hyperopt 分布式超参数优化
-
optuna/optuna 超参数优化框架
-
HDI-Project/BTB Bayesian Tuning and Bandits,auto-tuning系统的一个简单、可扩展的后端系统。
-
scikit-optimize/scikit-optimize 一个简单高效的库,可最大限度地减少(非常)昂贵且嘈杂的黑盒功能。它实现了几种基于顺序模型优化的方法。
-
automl/SMAC3 基于序列模型的算法配置 优化任意算法的参数
-
CMA-ES/pycma 基于CMA-ES 协方差矩阵的自适应策略的Py实现和一些相关的数值优化工具。
-
SheffieldML/GPyOpt 使用GPy进行高斯过程优化
-
pytorch/botorch PyTorch中的贝叶斯优化
-
JasperSnoek/spearmint 机器学习算法的实用贝叶斯优化
-
facebookresearch/nevergrad 用于执行无梯度优化的Python工具箱
-
Yelp/MOE 用于现实世界的指标优化的全局黑匣子优化引擎。
-
fmfn/BayesianOptimization 具有高斯过程的全局优化的Python实现。
-
dragonfly/dragonfly 用于可扩展的贝叶斯优化
-
ray-project/ray Tune可伸缩超参数调整
-
keras-team/keras-tuner keras的超参数调整库。
-
PKU-DAIR/open-box 通用且高效的黑盒优化系统。旨在解决泛化的黑盒优化(BBO)问题, 例如自动化超参数调优、自动化A/B测试、 实验设计、数据库参数调优、处理器体系结构和电路设计、资源分配等。
-
jina-ai/finetuner 微调任何 DNN 以更好地嵌入神经搜索任务
-
noah-research/BO/HEBO/CompBO 使用组合优化器进行贝叶斯优化,由华为研发、诺亚方舟实验室(伦敦)开发的贝叶斯优化代码库
-
huawei-noah/HEBO 华为诺亚方舟库开发的贝叶斯优化库
-
thunlp/OpenDelta 用于参数高效方法的工具包(增量调整),用户可以通过它灵活地分配(或添加)少量参数以进行更新,同时保持大多数参数不变。
-
HunterMcGushion/hyperparameter_hunter 跨机器学习算法和库的轻松超参数优化和自动结果保存
-
dmlc/xgboost 可扩展、可移植和分布式梯度提升(GBDT、GBRT 或 GBM)库,适用于 Python、R、Java、Scala、C++ 等。 在单机、Hadoop、Spark、Dask、Flink 和 DataFlow 上运行。
-
microsoft/LightGBM 基于决策树算法的快速、分布式、高性能梯度提升(GBT、GBDT、GBRT、GBM 或 MART)框架,用于排名、分类和许多其他机器学习任务。
-
motefly/DeepGBM 为在线预测任务提炼的深度学习GBDT框架
-
catboost/catboost 一个快速、可扩展、高性能的决策树梯度提升库,用于 Python、R、Java、C++ 的排名、分类、回归和其他机器学习任务。 支持在 CPU 和 GPU 上进行计算。
-
Xtra-Computing/thundergbm ThunderGBM:GPU 上的快速 GBDT 和随机森林
-
GBDT-PL/GBDT-PL 使用分段线性树进行梯度提升
-
mesalock-linux/gbdt-rs MesaTEE GBDT-RS:一个快速且安全的 GBDT 库,支持 Intel SGX 和 ARM TrustZone 等 TEE
-
tensorflow/decision-forests 一组最先进的算法,用于训练、服务和解释 Keras 决策森林模型。
-
kingfengji/gcForest 这是论文“深度森林:走向深度神经网络的替代方案”的官方实现
-
LAMDA-NJU/Deep-Forest Deep Forest 2021.2.1的实现
-
hlamotte/decision-tree 在C++的决策树
-
augboost-anon/augboost 逐步特征增强的梯度提升。
-
DataCanvasIO/HyperGBM 用于表格数据的完整管道 AutoML 工具, 涉及多个梯度提升树模型(GBM),即XGBoost、LightGBM和Catboost。
-
Microstrong0305/WeChat-zhihu-csdnblog-code Regression Tree 回归树 深入理解提升树(Boosting tree)算法 深入理解GBDT回归 GBDT二分类算法 GBDT多分类算法 XGBoost LightGBM CatBoost 深入浅出Word2Vec原理解析 Doc2vec原理解析及代码实践
-
antmachineintelligence/mtgbmcode 提出了多任务梯度提升机 (MT-GBM),这是一种基于 GBDT 的多任务学习方法。MT-GBM 可以根据多任务损失找到共享树结构和拆分分支。
-
parrt/dtreeviz 用于决策树可视化和模型解释的 python 库。决策树是梯度提升机和随机森林 (tm) 的基本构建块,这可能是结构化数据中两种最流行的机器学习模型。在了解这些模型的工作原理和解释模型时,可视化决策树是一个巨大的帮助。可视化效果的灵感来自 R2D3 的教育动画;机器学习的视觉介绍。请参阅如何可视化决策树,以更深入地讨论我们的决策树可视化库和我们所做的可视化设计决策。目前 dtreeviz 支持:scikit-learn、XGBoost、Spark MLlib、LightGBM 和 Tensorflow。作者:特伦斯·帕尔 (Terence Parr) 是谷歌的技术主管,直到 2022 年,他是旧金山大学的数据科学/计算机科学教授,并于 2012 年担任旧金山大学数据科学硕士课程的创始主任。Tudor Lapusan ;Prince Grover。主要代码和可视化清理由 Matthew Epland (@mepland) 完成。
-
huawei-noah/CARS 华为提出基于进化算法和权值共享的神经网络结构搜索
-
microsoft/nni 用于自动化机器学习生命周期的开源AutoML工具包,包括功能工程,神经体系结构搜索,模型压缩和超参数调整。
-
awslabs/autogluon 用于深度学习的AutoML工具包 autogluon.mxnet.io
-
researchmm/CDARTS 循环可微架构搜索
-
xiaomi-automl/FairDARTS 消除差异化架构搜索中的不公平优势
-
ianwhale/nsga-net 使用多目标遗传算法的神经架构搜索
-
PaddlePaddle/PaddleSlim 一个用于深度模型压缩和架构搜索的开源库。提供低比特量化、知识蒸馏、稀疏化和模型结构搜索等模型压缩策略,帮助用户快速实现模型的小型化。
-
horovod/horovod Uber开源的分布式训练框架。它的发展吸取了Facebook "Training ImageNet In 1 Hour" 与百度 "Ring Allreduce" 的优点,可为用户实现分布式训练提供帮助。
-
dask/dask 用Python编写的,是一个灵活的、开源的并行计算库,提供大规模性能 高级并行性。
-
hpcaitech/ColossalAI 用于大规模并行训练的统一深度学习系统,具有高效并行化技术的集成大规模模型训练系统。可以让您在几行代码内快速开始分布式训练,通过并行化策略、异构内存管理为深度学习任务加速或者节省显存。
-
microsoft/DeepSpeed 深度学习优化库,它使分布式训练变得容易,高效和有效。
-
FMInference/FlexGen 高吞吐量的生成引擎,用于在GPU内存有限的情况下运行大型语言模型。FlexGen允许通过IO高效分载、压缩和大有效批处理大小生成高吞吐量。
-
microsoft/SynapseML 简单和分布式机器学习。基于 Apache Spark 分布式计算框架构建,与 SparkML/MLLib 库共享相同的 API,允许您将 SynapseML 模型无缝嵌入到现有的 Apache Spark 工作流程中。
-
Oneflow-Inc/libai 基于OneFlow的大规模模型训练开源工具箱。支持丰富的并行训练配置,包括但不限于分布式训练、混合精度训练、后向重计算、ZeRO,多样化的训练技巧,同时支持视觉与自然语言处理任务、简单易用,便于上手。
-
Qihoo360/XLearning 支持多种机器学习、深度学习框架调度系统。基于Hadoop Yarn完成了对TensorFlow、MXNet、Caffe、Theano、PyTorch、Keras、XGBoost等常用框架的集成,同时具备良好的扩展性和兼容性。
-
sql-machine-learning/elasticdl Kubernetes原生的深度学习框架,支持容错和弹性调度,支持TensorFlow和PyTorch。
-
kubeflow/kubeflow 用于机器学习操作的云原生平台 - 管道、训练和部署。
-
alibaba/euler 大规模分布式的图学习框架,配合TensorFlow或者阿里内部的XDL等深度学习工具,可以支持数十亿点数百亿边的复杂异构图上进行模型训练。
-
Angel-ML/angel 用于大规模机器学习的灵活而强大的参数服务器。基于参数服务器理念的高性能分布式机器学习和图计算平台。
-
ray-project/ray 提供用于构建分布式应用程序的简单通用API的开源框架。Ray与RLlib(可扩展的强化学习库和Tune(可扩展的超参数调优库)打包在一起。
-
alibaba/Alink Alink是基于Flink的机器学习算法平台,由阿里巴巴计算平台的PAI团队开发。
-
kakaobrain/torchgpipe pytorch的可扩展管道并行性库,可有效地训练大型的,消耗内存的模型。
-
tensorflow/mesh 简化模型并行化 Mesh TensorFlow: Model Parallelism Made Easier
-
uber/fiber 简化AI的分布式计算 该项目是实验性的,API不稳定。
-
petuum/adaptdl 资源自适应深度学习(DL)训练和调度框架。AdaptDL的目标是使分布式DL在动态资源环境(如共享集群和云)中变得轻松高效。
-
learning-at-home/hivemind 一个用于在互联网上训练大型神经网络的库
-
petuum/adaptdl 一个能动态调整并行度的深度神经网络训练框架。它支持多租户集群管理,可以平衡模型训练等待及完成时间,能够提高资源利用率。
-
huggingface/accelerate 一个简单的API,将与多GPUTPU、fp16相关的样板代码抽离了出来,保持其余代码不变。PyTorch 用户无须使用不便控制和调整的抽象类或编写、维护样板代码,就可以直接上手多 GPU 或 TPU。Accelerate 支持的集成包括:CPU 单 GPU 单一节点多 GPU 多节点多 GPU TPU 带有本地 AMP 的 FP16.
-
BaguaSys/bagua 八卦是由快手科技和DS3 Lab共同开发的PyTorch深度学习训练加速框架。目前支持:高级分布式训练算法:用户只需添加几行代码(可选择弹性模式)即可将单个 GPU 上的训练扩展到多 GPU(可能跨多台机器)。
-
facebookresearch/fairscale 用于高性能和大规模训练的 PyTorch 扩展。
-
PKU-DAIR/Hetu 针对大规模和自动化分布式训练的高性能分布式深度学习系统。
-
alibaba/FederatedScope 综合性的联邦学习平台,为学术界和工业界的各种联邦学习任务提供方便的使用和灵活的定制。FederatedScope基于事件驱动的架构,集成了丰富的功能集合,以满足联邦学习日益增长的需求,旨在构建一个易于使用的平台,以安全有效地促进学习。
-
FederatedAI/FATE FATE(Federated AI Technology Enabler)是全球首个工业级联邦学习开源框架,使企业和机构能够在保护数据安全和隐私的同时进行数据协作。它实现了基于同态加密和多方计算(MPC)的安全计算协议。FATE支持各种联邦学习场景,现在提供了大量的联邦学习算法,包括逻辑回归、基于树的算法、深度学习和迁移学习。
-
Xtra-Computing/FedTree 基于树的模型的联合学习系统。它的设计目的是高效、有效和安全。目前具有以下特点:梯度提升决策树的联合训练。多核 CPU 和 GPU 上的并行计算。支持同态加密、安全聚合和差分隐私。支持分类和回归。
-
youngfish42/Awesome-Federated-Learning-on-Graph-and-Tabular-Data 图形和表格数据相关论文、框架和数据集的联邦学习。
-
microsoft/PersonalizedFL 面向研究的个性化联邦学习代码库
-
microsoft/DeepSpeedExamples 此存储库包含各种示例,包括训练、推理、压缩、基准测试和使用 DeepSpeed 的应用程序。
-
JuliaLang/julia 用于科学计算的高级、高性能动态语言。
-
vikasverma1077/manifold_mixup 数据增强⽅法,目标是通过插入示例的隐藏状态来学习鲁棒的特征。 我们的方法学习到的表征更具判别性和紧凑性。
-
pytorch/serve 在生产环境中提供、优化和扩展 PyTorch 模型。特色:
模型管理 API
:通过优化从角色到模型的分配进行多模型管理、推理 API
:对批量推理的 REST 和 gRPC 支持、TorchServe 工作流
:使用多个相互依赖的模型部署复杂的 DAG、导出模型以进行优化推理
:开箱即用的Torchscript,ORT和ONNX,IPEX,TensorRT,FasterTransformer、性能指南
:内置支持优化、基准测试和分析 PyTorch 和 TorchServe 性能、富有表现力的处理程序
:一种富有表现力的处理程序体系结构,通过开箱即用的支持,支持对用例的推理变得微不足道、指标 API
:通过 Prometheus 导出、自定义指标和 PyTorch 分析器支持对系统级指标的开箱即用支持 -
PaddlePaddle/PaddleHub 基于PaddlePaddle的真棒预训练模型工具包。(400+模型,包括图像,文本,音频,视频和跨模态,易于推理和服务)
-
streamlit/streamlit 用 Python 构建数据应用程序的最快方法
-
ml-explore/mlx Apple 机器学习研究团队推出的基于 Apple 芯片的机器学习阵列框架。主要功能包括:熟悉的 API:MLX 有一个紧跟 NumPy 的 Python API。MLX 还有一个功能齐全的 C++ API,它与 Python API 非常相似。MLX 具有更高级别的包,例如 API mlx.optimizers ,这些包与 PyTorch 密切相关, mlx.nn 以简化构建更复杂的模型。可组合函数变换:MLX支持可组合函数变换,实现自动微分、自动矢量化、计算图优化等功能。延迟计算:MLX 中的计算是延迟的。数组仅在需要时具体化。动态图构建:MLX中的计算图是动态构建的。更改函数参数的形状不会触发缓慢的编译,并且调试简单直观。多设备:操作可以在任何受支持的设备(当前为 CPU 和 GPU)上运行。统一内存:与 MLX 和其他框架的显着区别是统一内存模型。MLX 中的数组位于共享内存中。可以在任何受支持的设备类型上执行对 MLX 阵列的操作,而无需传输数据。
-
huggingface/optimum 性能优化工具,AI 生态发展迅速,越来越多的专用硬件及其优化每天都在涌现,可实现在目标硬件上训练和运行模型的最高效率。
-
mosaicml/composer 将神经网络训练速度提高 7 倍 更低的成本和更高的准确度更快地训练神经网络。我们已经实现了两打以上的加速方法,只需几行代码即可应用于您的训练循环,或与我们的内置 Trainer 一起使用。
-
China-UK-ZSL/Resources_for_KZSL KZSL:对知识驱动的零样本学习进行基准测试.用于零样本图像分类 ( ZS-IMGC)、零样本关系提取 ( ZS-RE) 和零样本知识图 (KG) 完成 ( ZS-KGC )
-
alibaba/Elastic-Federated-Learning-Solution 经过百亿规模工业级场景实战验证的跨互联网企业信息合作的联邦学习框架。EFLS有以下核心特性:云原生支持自定义特征工程——大规模高可用;首开水平聚合,层次聚合双模型——更强大更便捷。
-
wuba/dl_inference 通用深度学习推理工具,可在生产环境中快速上线由TensorFlow、PyTorch、Caffe框架训练出的深度学习模型。
-
activeloopai/Hub AI的数据集格式。为深度学习构建、管理和可视化数据集。将数据实时流式传输到PyTorch/TensorFlow并对其进行版本控制。
-
gradio-app/gradio 在 3 分钟内使用 Python 为您的机器学习模型创建 UI
-
PKU-DAIR/mindware 一个高效的开源 AutoML 系统,用于自动化机器学习生命周期,包括特征工程、神经架构搜索和超参数调整。
-
DataCanvasIO/Hypernets 通用自动化机器学习框架,用于简化特定领域中端到端 AutoML 工具包的开发。包括 tensorflow、keras、pytorch 等深度学习框架,以及 sklearn、lightgbm、xgboost 等机器学习库。引入了抽象的搜索空间表示,同时兼顾了超参数优化和神经架构搜索(NAS)的要求,使 Hypernets 成为能够适应各种自动化机器学习需求的通用框架。
-
KindXiaoming/pykan Kolmogorov-Arnold 网络 (KAN) 是多层感知器 (MLP) 的有前途的替代品。KAN 与 MLP 一样具有强大的数学基础:MLP 基于通用近似定理,而 KAN 基于 Kolmogorov-Arnold 表示定理。KAN 和 MLP 是双重的:KAN 在边缘具有激活函数,而 MLP 在节点上具有激活函数。这个简单的变化使KAN在模型准确性和可解释性方面都比MLP更好。KAN 比 MLP 具有更快的扩展速度,KAN 比参数较少的 MLP 具有更好的准确性。KAN可以直观地可视化。KAN 提供 MLP 无法提供的可解释性和交互性。我们可以使用KAN来潜在地发现新的科学定律。
-
RadeonOpenCompute/ROCm ROCm - 用于 HPC 和超大规模 GPU 计算的开源平台
-
PaddlePaddle/Paddle-Lite 飞桨多端多平台高性能深度学习推理引擎.支持多平台:涵盖 Android、iOS、嵌入式 Linux 设备、Windows、macOS 和 Linux 主机。支持多种语言:包括 Java、Python、C++。轻量化和高性能:针对移动端设备的机器学习进行优化,压缩模型和二进制文件体积,高效推理,降低内存消耗
-
nvdla/hw NVIDIA 深度学习加速器 (NVDLA) 是一种免费的开放式架构,它促进了设计深度学习推理加速器的标准方法。凭借其模块化架构,NVDLA 具有可扩展性、高度可配置性,并且旨在简化集成和可移植性。
-
lowRISC/opentitan OpenTitan是一个开源硅信任根 (RoT) 项目。使企业、平台提供商和芯片制造商的硅 RoT 设计和实现更加透明、可信和安全,以生产高质量的开放 IP 以作为全功能产品的实例化。制造商越来越多地开始关注防篡改处理器(或其中一部分),通常被称为“安全区域(Secure Enclave)”,以阻止各种攻击。芯片中使用“信任根(Root of Trust)”,在系统每次启动时进行加密检查,确保没有任何内容被恶意篡改。如果发现问题,安全区域会阻止计算机启动。
-
scikit-hep/awkward-1.0 使用类似 NumPy 的习语来处理类似 JSON 的数据。
-
alibaba/Curvature-Learning-Framework 基于Tensorflow的非欧深度学习框架。实现了多种非欧流形、非欧算子和黎曼优化器,基于与Tensorflow相似的底层接口,可以便捷的迁移模型空间而不改变模型细节。背景:欧氏空间不可能无损表征树、环结构,然而双曲(负曲率)、球面(正曲率)空间无损表征。由于对结构性强的如无尺度网络、层次数据、环状数据等的优良表征能力,非欧深度学习逐渐应用到各个领域并展示出优越性,包括链接预测、推荐系统等。
-
facebookresearch/bitsandbytes 用于 8 位优化器和量化例程的库。
-
openai/triton OpenAI的Triton是一种类 Python 的开源编程语言。能够高效编写 GPU 代码。它可以用不到 25 行代码写出与 cuBLAS 性能相匹配的 FP16 矩阵乘法内核。此外,使用 Triton 成功生成比同类实现效率高 2 倍的内核。
-
nebuly-ai/nebullvm 易于使用的库,可利用最先进的优化技术促进 AI 推理。利用多种优化技术(深度学习编译器、量化、稀疏性、蒸馏等),以确定在特定硬件上执行 AI 模型的最佳方式。可以在不损失性能的情况下将您的模型加速 2 到 10 倍,如果为超低延迟和更轻的模型牺牲准确度/精度,则可加速至 30 倍.
-
baifanxxx/awesome-active-learning 很棒的主动学习精选列表。主动学习是机器学习的特殊情况,它可以与专家进行交互(或其他信息源),再使用输出的新样本进行学习。
-
4paradigm/OpenMLDB 一个开源机器学习数据库,它提供了一个计算一致特征的特征平台,用于训练和推理。
-
scikit-learn-contrib/MAPIE 用于估计预测间隔的 scikit-learn 兼容模块。
-
4paradigm/AutoX 高效的 automl 工具,针对具有表格数据的数据挖掘任务。
-
dair-ai/ml-visuals 包含图形和模板,重复使用和自定义以改进您的科学写作。
-
mindsdb/mindsdb 使用 SQL语法,在数据库和数据仓库启用机器学习工作流。
-
kaidic/LDAM-DRW 使用标签分布感知边际损失学习不平衡数据集
-
Jianf-Wang/RSG 可以在训练过程中生成稀有类样本,并且可以与任何骨干网络相结合。RSG 仅用于训练阶段,因此在测试阶段不会给骨干网带来额外的负担。
-
ZhiningLiu1998/mesa 设计元知识驱动的采样器解决类别不平衡问题
-
YyzHarry/imbalanced-regression 深度不平衡回归(DIR)旨在从具有连续目标的不平衡数据中学习,解决某些区域的潜在缺失数据,并推广到整个目标范围。
-
dataease/dataease 开源的数据可视化分析工具,帮助用户快速分析数据并洞察业务趋势,从而实现业务的改进与优化。DataEase 支持丰富的数据源连接,能够通过拖拉拽方式快速制作图表,并可以方便的与他人分享。
-
google/tensorstore 用于读取和写入大型多维数组的库。
-
ahkarami/Deep-Learning-in-Production 有关在生产中部署基于深度学习的模型的有用说明和参考。
-
bentoml/BentoML ML模型服务框架.创建部署和扩展机器学习服务变得容易。
-
iterative/dvc Data 版本控制、用于数据和模型的 Git、机器学习实验管理
-
bokeh/bokeh 浏览器中的交互式数据可视化,来自 Python
-
nterpretml/interpret 适合可解释的模型。 解释黑盒机器学习。
-
Guang000/Awesome-Dataset-Distillation 数据集蒸馏是合成一个小数据集的任务,使得在其上训练的模型在原始大数据集上实现高性能。 数据集蒸馏算法将要蒸馏的大型真实数据集(训练集)作为输入,并输出一个小的合成蒸馏数据集,该数据集通过在单独的真实数据集(验证/测试集)上在该蒸馏数据集上训练的测试模型进行评估。 一个好的小型蒸馏数据集不仅对数据集理解有用,而且具有各种应用(例如,持续学习、隐私、神经架构搜索等)。
-
TimDettmers/bitsandbytes PyTorch 的 8 位 CUDA 函数。具有混合精度分解的 8 位矩阵乘法;LLM.int8 推理;8 位优化器:Adam、AdamW、RMSProp、LARS、LAMB(节省 75% 的内存);稳定嵌入层:通过更好的初始化和规范化;提高稳定性 8 位量化:分位数、线性和动态量化;快速分位数估计:比其他算法快 100 倍
-
ydataai/ydata-profiling 从 pandas DataFrame 对象创建 HTML 分析报告
-
fbdesignpro/sweetviz 用一行代码可视化和比较数据集、目标值和关联。
-
AutoViML/AutoViz 使用一行代码自动可视化任何大小的任何数据集。
-
pola-rs/polars 速度极快的 DataFrames 库,使用 Apache Arrow Columnar Format 作为内存模型在 Rust 中实现。
-
facebookincubator/AITemplate Python 框架,可将神经网络渲染为高性能 CUDA/HIP C++ 代码。 专门用于 FP16 TensorCore(NVIDIA GPU)和 MatrixCore(AMD GPU)推理。
-
salesforce/OmniXAI 用于可解释 AI (XAI) 的 Python 机器学习库,提供全向可解释 AI 和可解释机器学习功能,以解决实践中解释模型做出的决策时的许多痛点。
-
MegEngine/MegCC 一个运行时超轻量,高效,移植简单的深度学习模型编译器
-
microsoft/Semi-supervised-learning 统一的半监督学习基准,可应用于人脸识别、语音识别和音频分类
-
polyaxon/traceml 用于机器学习/数据跟踪、可视化、可解释性、漂移检测和仪表板的引擎。
-
dabl/dabl 数据分析基线库,当前主要侧重于探索性可视化和预处理。
-
Speedml/speedml 一个Python包,用于加速启动机器学习项目。
-
TimDettmers/bitsandbytes 用于 PyTorch 的 8 位 CUDA 函数。具有混合精度分解的 8 位矩阵乘法;8位优化器:Adam,AdamW,RMSProp,LARS,LAMB,Lion(节省75%的内存);稳定嵌入层:通过更好的初始化和规范化提高稳定性;8 位量化:分位数、线性和动态量化、快速分位数估计:比其他算法快 100 倍。
-
yassouali/awesome-semi-supervised-learning 最新和精选的令人敬畏的半监督学习论文,方法和资源列表。未标记的数据可能相对容易收集,但很少有方法可以使用它们。半监督学习通过使用大量未标记的数据以及标记的数据来构建更好的分类器来解决此问题。由于半监督学习需要更少的人力并且具有更高的准确性,因此它在理论和实践中都非常有趣。
-
vespa-engine/vespa 开放的大数据服务引擎。开放的大数据服务引擎 - 在服务时存储、搜索、组织和对大数据进行机器学习推理。
-
ctgk/PRML 实现Bishop的书“模式识别和机器学习”中描述的算法的Python代码
-
slundberg/shap 一种博弈论方法,用于解释任何机器学习模型的输出。SHAP(SHapley Additive exPlanations)是一种博弈论方法,用于解释任何机器学习模型的输出。它将最优信用分配与局部解释联系起来,使用博弈论中的经典Shapley值及其相关扩展(有关详细信息和引用,请参阅论文)。虽然SHAP可以解释任何机器学习模型的输出,但我们已经为树集成方法开发了一种高速精确算法(请参阅我们的Nature MI论文)。XGBoost,LightGBM,CatBoost,scikit-learn和pyspark tree模型支持快速C++实现。
-
Baiyuetribe/paper2gui 让每个人都简单方便的使用前沿人工智能技术。一款面向普通人的 AI 桌面 APP 工具箱,免安装即开即用,已支持 40+AI 模型,内容涵盖 AI 绘画、语音合成、视频补帧、视频超分、目标检测、图片风格化、OCR 识别等领域。支持 Windows、Mac、Linux 系统。
-
zjhellofss/KuiperInfer 带你从零实现一个高性能的深度学习推理库
-
huggingface/datasets 最大的 ML 模型即用型数据集中心,提供快速、易用和高效的数据处理工具
-
NVIDIA/DeepLearningExamples 按模型组织的最先进的深度学习脚本 - 易于训练和部署,在企业级基础架构上具有可重现的准确性和性能。最新 NVIDIA 示例。
-
xorbitsai/xorbits 一个开源计算框架,可以轻松扩展数据科学和机器学习工作负载 - 从数据预处理到调优、训练和模型服务。Xorbits 可以利用多核或 GPU 来加速单台机器上的计算,或者横向扩展到数千台机器,以支持处理数 TB 的数据以及训练或为大型模型提供服务。
-
plotly/dash 下载量最大,最值得信赖的Python框架,用于构建ML和数据科学Web应用程序。
-
trekhleb/homemade-machine-learning 流行的机器学习算法的Python示例,并解释了交互式Jupyter演示和数学
-
MorvanZhou/tutorials 莫烦Python 机器学习相关教程
-
rougier/numpy-100 100 个 numpy 练习(含解决方案)
-
fastai/numerical-linear-algebra 用于计算线性代数课程 fast.ai Jupyter 笔记本的免费在线教科书
-
numba/numba 开源的、NumPy 感知的 Python 优化编译器,由 Anaconda, Inc. 赞助。它使用 LLVM 编译器项目从 Python 语法生成机器代码。Numba 可以编译一个以数字为中心的 Python 子集,包括许多 NumPy 函数。此外,Numba 还支持循环的自动并行化、GPU 加速代码的生成以及 ufuncs 和 C 回调的创建。
-
lanpa/tensorboardX PyTorch的张量板(以及Chainer,MXNET,Numpy等)。使用简单的函数调用编写张量板事件。
-
swyxio/ai-notes 软件工程师了解新 AI 开发速度的说明。用latent.space 编写和产品头脑风暴的数据存储,但已清理 /Resources 文件夹下的规范引用。
-
tensorflow/tfjs WebGL 加速的 JavaScript 库,用于训练和部署 ML 模型。
-
tensorflow/rust TensorFlow 的 Rust 语言绑定。
-
aws/sagemaker-python-sdk 用于在 Amazon SageMaker 上训练和部署机器学习模型的库
-
ggerganov/ggml 用于机器学习的张量库,用 C 语言编写、16 位浮点支持、整数量化支持(4 位、5 位、8 位等)、自动区分、ADAM和L-BFGS优化器、针对苹果芯片进行了优化、在x86架构上利用AVX / AVX2内部函数、在 ppc64 架构上利用 VSX 内部函数、无第三方依赖关系、运行时内存分配为零
-
probml/pyprobml Kevin Murphy的“概率机器学习”一书的Python代码
-
rasbt/python-machine-learning-book “Python Machine Learning (1st edition)” 一书代码存储库和信息资源
-
huggingface/candle Rust 的极简主义 ML 框架,专注于性能(包括 GPU 支持)和易用性。
-
ashleve/lightning-hydra-template PyTorch Lightning + Hydra。一个非常用户友好的 ML 实验模板。
-
mljar/mljar-supervised 用于表格数据 AutoML 的 Python 包,具有特征工程、超参数优化、解释和自动文档
-
kserve/kserve 提供了一个 Kubernetes 自定义资源定义,用于在任意框架上提供机器学习 (ML) 模型。它旨在通过为 Tensorflow、XGBoost、ScikitLearn、PyTorch 和 ONNX 等常见 ML 框架提供高性能、高抽象的接口来解决生产模型服务用例。
-
Kanaries/pygwalker 将 pandas 数据帧转换为交互式 UI 以进行可视化分析
-
mars-project/mars 基于张量的统一框架,用于大规模数据计算,可扩展numpy,pandas,scikit-learn和Python函数。
-
CamDavidsonPilon/Probabilistic-Programming-and-Bayesian-Methods-for-Hackers 又名“黑客的贝叶斯方法”:介绍贝叶斯方法+概率编程,以计算/理解为先,数学为第二的观点。一切都在纯python
-
tracel-ai/burn 使用 Rust 构建的新的综合动态深度学习框架,其主要目标是极高的灵活性、计算效率和可移植性。
-
rayon-rs/rayon Rust 的数据并行库。它非常轻巧,可以轻松地将顺序计算转换为并行计算。它还保证了数据竞争的自由。
-
flyteorg/flyte 可扩展且灵活的工作流编排平台,可无缝统一数据、ML 和分析堆栈。
-
davisking/dlib 用于在 C++ 中制作真实世界机器学习和数据分析应用程序的工具包
-
HumanSignal/label-studio 具有标准化输出格式的多类型数据标注和标注工具
-
metabase/metabase 以最简单、快捷的方式为公司中的每个人提供商业智能和分析
-
chenzomi12/DeepLearningSystem 跟大家一起探讨和学习人工智能、深度学习的系统设计,而整个系统是围绕着 ZOMI 在工作当中所积累、梳理、构建 AI 系统全栈的内容。希望跟所有关注 AI 开源项目的好朋友一起探讨研究,共同促进学习讨论。
-
datastacktv/data-engineer-roadmap 2021 年成为数据工程师的路线图
-
ujjwalkarn/Machine-Learning-Tutorials 包含机器学习和深度学习教程、文章和其他资源的主题精选列表。其他很棒的列表可以在此列表中找到。
-
lexfridman/mit-deep-learning 麻省理工学院深度学习相关课程的教程、作业和竞赛。deeplearning.mit.edu
-
google-deepmind/sonnet 基于 TensorFlow 2 构建的库,旨在为机器学习研究提供简单、可组合的抽象。
-
Hvass-Labs/TensorFlow-Tutorials 带有 YouTube 视频的 TensorFlow 教程
-
aamini/introtodeeplearning 麻省理工学院 6.S191 实验室资料:深度学习简介
-
dusty-nv/jetson-inference Hello AI World 指南,介绍如何使用 TensorRT 和 NVIDIA Jetson 部署深度学习推理网络和深度视觉基元。
-
unifyai/ivy Ivy 是一个开源机器学习框架,使您能够:自动调整模型:使用 ivy. autotune 自动查找适合您特定用例的最佳框架、编译器基础结构和硬件。将代码转换为任何框架:通过使用 ivy.transpile 将任何代码从一个框架转换为另一个框架,在任何模型、库或设备的基础上使用和构建。编写与框架无关的代码:在 ivy 中编写一次代码,然后选择最合适的 ML 框架作为后端,以利用所有优势和工具。
-
tencentmusic/cube-studio 开源云原生一站式机器学习/深度学习AI平台,支持sso登录,多租户/多项目组,数据资产对接,notebook在线开发,拖拉拽任务流pipeline编排,多机多卡分布式算法训练,超参搜索,推理服务VGPU,多集群调度,边缘计算,serverless,标注平台,自动化标注,数据集管理,大模型一键微调,llmops,私有知识库,AI应用商店,支持模型一键开发/推理/微调,私有化部署,支持国产cpu/gpu/npu芯片,支持RDMA,支持pytorch/ tf/ mxnet/ deepspeed/ paddle/ colossalai/ horovod/ spark/ ray/ volcano分布式
-
bleedline/aimoneyhunter ai副业赚钱资讯信息的大合集,将在全网搜索并整理ai副业赚钱的相关方法、技术、工具、以及一些可以赚钱的平台和渠道。 期望能在AI时代,打破信息茧房,利用AI智能化做副业,赚取工作之余的额外收益。
-
cleanlab/cleanlab 通过自动检测 ML 数据集中的问题来帮助您清理数据和标签。为了促进对混乱的真实数据进行机器学习,这个以数据为中心的 AI 包使用现有模型来估计数据集问题,这些问题可以修复以训练更好的模型。
-
owainlewis/awesome-artificial-intelligence 人工智能 (AI) 课程、书籍、视频讲座和论文的精选列表。
-
aws/amazon-sagemaker-examples 示例 Jupyter 笔记本,演示如何使用 Amazon SageMaker 构建、训练和部署机器学习模型
-
Netflix/metaflow 轻松构建和管理现实生活中的 ML、AI 和数据科学项目
-
chenyuntc/pytorch-book 书籍《深度学习框架PyTorch:入门与实践(第2版)》的对应代码,但是也可以作为一个独立的PyTorch入门指南和教程。
-
NVIDIA-AI-IOT/torch2trt 易于使用的 PyTorch 到 TensorRT 转换器
-
PaddlePaddle/models 飞桨产业级开源模型库,官方维护,PaddlePaddle支持,包括CV、NLP、Speech、Rec、TS、大模型等。
-
dair-ai/ML-Papers-Explained ML 中关键概念的解释
-
automl/auto-sklearn 使用 scikit-learn 进行自动化机器学习
-
probml/pml-book “概率机器学习”——凯文·墨菲 (Kevin Murphy) 的系列丛书
-
paperswithcode/ai-deadlines 倒数计时,用于跟踪CV/NLP/ML/RO 会议截止日期。
-
openvinotoolkit/openvino 用于优化和部署 AI 推理的开源工具包,提高计算机视觉、自动语音识别、自然语言处理和其他常见任务中的深度学习性能。使用通过 TensorFlow、PyTorch 等流行框架训练的模型。减少资源需求,并在从边缘到云的一系列英特尔®平台上高效部署。
-
Unstructured-IO/unstructured 开源库和 API,用于构建用于标记、训练或生产机器学习管道的自定义预处理管道。
-
NVIDIA/nvidia-container-toolkit NVIDIA 容器工具包允许用户构建和运行 GPU 加速容器。该工具包包括一个容器运行时库和实用程序,用于自动配置容器以利用 NVIDIA GPU。
-
microsoft/CNTK 统一的深度学习工具包,它通过有向图将神经网络描述为一系列计算步骤。在此有向图中,叶节点表示输入值或网络参数,而其他节点表示输入的矩阵运算。CNTK允许用户轻松实现和组合常用模型类型,例如前馈 DNN、卷积网络 (CNN) 和循环网络 (RNN/LSTM) 。它实现了随机梯度下降(SGD,误差反向传播)学习,并在多个 GPU 和服务器之间实现了自动微分和并行化。
-
guipsamora/pandas_exercises 练习python Pandas库, 名字衍生自术语 "panel data"(面板数据)和 "Python data analysis"(Python 数据分析),提供高性能、易于使用的数据结构和数据分析工具。
-
kedro-org/kedro 用于生产就绪型数据科学的工具箱。它使用软件工程最佳实践来帮助你创建可重现、可维护和模块化的数据工程和数据科学管道。基于Cookiecutter数据科学的标准、可修改且易于使用的项目模板。一系列轻量级数据连接器,用于跨多种不同的文件格式和文件系统(包括本地和网络文件系统、云对象存储和 HDFS)保存和加载数据。数据目录还包括基于文件的系统的数据和模型版本控制。使用 Kedro-Viz 自动解析纯 Python 函数和数据管道可视化之间的依赖关系。部署策略,包括单机或分布式计算机部署,以及对在 Argo、Prefect、Kubeflow、AWS Batch 和 Databricks 上部署的额外支持。
-
great-expectations/great_expectations 由数据工程师设计并为数据工程师设计的数据质量平台。它可以帮助您快速、清晰地发现问题,同时还可以更轻松地与非技术利益相关者协作。
-
lancedb/lance 用于 ML 的现代列式数据格式,并在 LLMs Rust 中实现。只需 2 行代码即可从 parquet 转换,随机访问、矢量索引和数据版本控制速度提高 100 倍。兼容 Pandas、DuckDB、Polars、Pyarrow,还有更多集成即将推出。
-
allegroai/clearml ClearML - 自动神奇的 CI/CD,可简化您的 AI 工作负载。实验管理、数据管理、管道、编排、调度和服务在一个 MLOps/LLMOps 解决方案中
-
personqianduixue/Math_Model 数学建模、美赛、美国大学生数学建模竞赛、全国大学生数学建模竞赛、华为杯研究生数学建模、国赛LaTeX模板、美赛LaTeX模板、mathorcup、电工杯、华中赛、APMCM、深圳杯、中青杯、华东杯、数维杯、东三省数学建模、认证杯、数学建模书籍、常用matlab算法、国赛评阅要点、软件模型算法汇总、智能算法、优化算法、现代的算法
-
BrainJS/brain.js GPU 加速了适用于浏览器和 Node.js 的 JavaScript 中的神经网络
-
OpenRefine/OpenRefine 基于 Java 的强大工具,它允许您加载数据、理解数据、清理数据、协调数据,并使用来自 Web 的数据进行扩充。所有这些都来自网络浏览器以及您自己计算机的舒适性和隐私性。
-
saulpw/visidata 用于表格数据的交互式多功能工具。它将电子表格的清晰度、终端的效率和 Python 的强大功能结合到一个轻量级实用程序中,可以轻松处理数百万行。VisiData 支持 tsv、csv、sqlite、json、xlsx (Excel)、hdf5 和许多其他格式。
-
finos/perspective 数据可视化和分析组件,特别适用于大型和/或流数据集。使用它来创建用户可配置的报告、仪表板、笔记本和应用程序,然后在浏览器中独立部署,或与 Python 和/或 Jupyterlab 协同部署。一个快速、内存高效的流式查询引擎,用 C++ 编写并针对 WebAssembly 和 Python 编译,具有用于 Apache Arrow 的读/写/流式处理,以及基于 ExprTK 的高性能列式表达式语言。一个与框架无关的用户界面,打包为自定义元素,通过 WebAssembly 在浏览器内提供支持,或通过 WebSocket 服务器 (Python/Node) 虚拟提供支持。JupyterLab 小部件和 Python 客户端库,用于笔记本中的交互式数据分析,以及可扩展的生产 Voila 应用程序。
-
HigherOrderCO/HVM 基于Rust的一个大规模并行交互的高阶虚拟机。通过将高级语言(如 Python 和 Haskell)的程序编译为 HVM,可以直接在大规模并行硬件(如 GPU)上运行这些语言,并具有近乎理想的加速。HVM2 是 HVM1 的继任者,HVM1 是该概念的 2022 年原型。与其前身相比,HVM2 更简单、更快,最重要的是更正确。HOC为其PAPER上列出的所有功能提供长期支持。该存储库提供了用于指定 HVM2 网络的低级 IR 语言,以及从该语言到 C 和 CUDA 的编译器。它不适合直接供人类使用。如果您正在寻找一种与 HVM2 交互的高级语言,请选Bend。
-
tensorflow/serving 灵活、高性能的机器学习模型服务系统,专为生产环境而设计。它涉及机器学习的推理方面,在训练后获取模型并管理其生命周期,通过高性能、引用计数的查找表为客户提供版本化访问。TensorFlow Serving 提供与 TensorFlow 模型的开箱即用集成,但可以轻松扩展以服务其他类型的模型和数据。
-
feast-dev/feast 用于机器学习的开源功能存储。Feast 是管理现有基础设施的最快途径,用于生产用于模型训练和在线推理的分析数据。通过管理离线存储(用于处理用于横向扩展批量评分或模型训练的历史数据)、低延迟在线存储(支持实时预测)和经过实战测试的功能服务器(用于在线提供预先计算的功能),使功能始终可用于训练和服务。通过生成时间点正确的特征集来避免数据泄露,以便数据科学家可以专注于特征工程,而不是调试容易出错的数据集连接逻辑,这可确保将来的特征值不会在训练期间泄漏到模型中。通过提供单个数据访问层将特征存储从特征检索中抽象出来,将 ML 与数据基础架构分离,确保模型在从训练模型迁移到服务模型、从批处理模型迁移到实时模型以及从一个数据基础设施系统迁移到另一个数据基础设施时保持可移植性。
-
pytorch/tutorials PyTorch 教程。熟悉 PyTorch 概念和模块。在本快速入门指南中了解如何加载数据、构建深度神经网络、训练和保存模型。
-
SeldonIO/seldon-core MLOps 框架,用于打包、部署、监视和管理数千个生产机器学习模型。Seldon core 将您的 ML 模型(Tensorflow、Pytorch、H2o 等)或语言包装器(Python、Java 等)转换为生产 REST/GRPC 微服务。Seldon 可处理扩展到数千个生产机器学习模型,并提供开箱即用的高级机器学习功能,包括高级指标、请求日志记录、解释器、异常值检测器、A/B 测试、金丝雀等。
-
kubeflow/pipelines 机器学习 (ML) 工具包,致力于使 Kubernetes 上的 ML 工作流部署变得简单、可移植和可扩展。Kubeflow 流水线是使用 Kubeflow Pipelines SDK 构建的可重用的端到端 ML 工作流。Kubeflow 流水线服务具有以下目标:端到端编排,启用和简化端到端机器学习管道的编排;轻松实验,让您轻松尝试众多想法和技术,并管理您的各种试验/实验;易于重用,使您能够重用组件和管道,以快速拼凑端到端解决方案,而无需每次都重新构建。
-
hibayesian/awesome-automl-papers 自动化机器学习论文、文章、教程、幻灯片和项目的精选列表,自动化机器学习 (AutoML) 提供了使机器学习可供非机器学习专家使用的方法和流程,以提高机器学习的效率并加速机器学习的研究。
-
lazyprogrammer/machine_learning_examples 机器学习示例和教程的集合。
-
PAIR-code/facets 包含两个用于理解和分析机器学习数据集的可视化效果:Facets Overview 和 Facets Dive。可视化作为 Polymer Web 组件实现,由 Typescript 代码提供支持,可以轻松嵌入到 Jupyter 笔记本或网页中。
-
lmcinnes/umap 均匀流形近似和投影 (UMAP ,Uniform Manifold Approximation and Projection) 是一种降维技术,可用于类似于 t-SNE 的可视化,但也可用于一般的非线性降维。该算法建立在关于数据的三个假设之上:数据均匀分布在黎曼流形上;黎曼度量是局部常数(或可以近似);流形是本地连接的。根据这些假设,可以对具有模糊拓扑结构的流形进行建模。通过搜索具有最接近的等效模糊拓扑结构的数据的低维投影来找到嵌入。
-
D-X-Y/Awesome-AutoDL 自动化深度学习:神经架构搜索不是终点(AutoDL 资源精选列表和深入分析)。自动化深度学习相关资源的精选列表。灵感来自令人敬畏的深度愿景、令人敬畏的对抗性机器学习、令人敬畏的深度学习论文和令人敬畏的架构搜索。
-
merrymercy/awesome-tensor-compilers 张量计算和深度学习的出色编译器项目和论文列表。
-
vosen/ZLUDA ZLUDA 允许您在 Intel AMD GPU 上以近乎原生的性能运行未经修改的 CUDA 应用程序。ZLUDA 目前是 alpha 质量,但已被确认可以与各种原生 CUDA 应用程序一起使用:Geekbench、3DF Zephyr、Blender、Reality Capture、LAMMPS、NAMD、waifu2x、OpenFOAM、Arnold(概念验证)等。ZLUDA完全建立在ROCm/HIP之上。
-
amusi/AI-Job-Notes AI算法岗求职攻略:涵盖校招时间表、准备攻略、刷题指南、内推、AI公司清单和答疑等资料。AI算法岗方向涉及:AIGC、大模型、深度学习、机器学习、计算机视觉、自然语言处理、图像处理、自动驾驶、元宇宙、AIGC、SLAM等。
-
poloclub/cnn-explainer 使用交互式可视化学习卷积神经网络。
-
modelscope/modelscope ModelScope 建立在“模型即服务”(MaaS) 的概念之上。它旨在汇集来自人工智能社区的最先进的机器学习模型,并简化在实际应用中利用人工智能模型的过程。此存储库中开源的核心 ModelScope 库提供了允许开发人员执行模型推理、训练和评估的接口和实现。特别是,ModelScope 库具有丰富的 API 抽象层,可提供统一的体验,以探索跨 CV、NLP、语音、多模态和科学计算等领域的最先进模型。不同领域的模型贡献者可以通过分层 API 将模型集成到 ModelScope 生态系统中,从而轻松统一地访问他们的模型。集成后,只需几行代码即可完成模型推理、微调和评估。同时,还提供了灵活性,以便在必要时可以定制模型应用程序中的不同组件。除了包含各种不同模型的实现外,ModelScope 库还支持与 ModelScope 后端服务进行必要的交互,尤其是与 Model-Hub 和 Dataset-Hub 的交互。这种交互有助于在后台无缝执行各种实体(模型和数据集)的管理,包括实体查找、版本控制、缓存管理等。
-
zenml-io/zenml 构建可移植、生产就绪的 MLOps 管道。ZenML 是一个 MLOps 框架,适用于希望标准化机器学习实践的数据科学家或 ML 工程师。只需将@step和@pipeline添加到现有的 Python 函数中即可开始使用。轻松预配 MLOps 堆栈或重用现有基础架构:该框架是从业者构建复杂 ML 管道的温和切入点,几乎不需要了解底层基础设施的复杂性。ZenML 管道可以在 AWS、GCP、Azure、Airflow、Kubeflow 甚至 Kubernetes 上运行,而无需更改任何代码或了解底层内部结构。ZenML提供了不同的功能,可以帮助人们在远程环境中快速上手。如果要在所选云提供商上从头开始部署远程堆栈,可以通过仪表板使用一键式部署功能。在生产基础架构上轻松运行工作负载:配置 MLOps 堆栈后,可以轻松地在其上运行工作负载;跟踪模型、管道和工件:创建生成人员、地点以及生成数据和模型的完整谱系,您将能够找出谁在什么时间生成了哪个模型,使用哪些数据以及代码的哪个版本。这保证了完全的可重复性和可审计性。专为机器学习而构建,可集成到您喜爱的工具中:虽然 ZenML 带来了很多盒子的价值,但它也可以集成到您现有的工具和基础设施中,而您不必被锁定。
-
deepchecks/deepchecks Deepchecks:用于持续验证ML模型和数据的测试。Deepchecks 是一个整体的开源解决方案,可满足您所有的 AI 和 ML 验证需求,能够彻底测试您的数据和模型,从研究到生产。Deepchecks 是一个全面的开源解决方案,可满足您所有的 AI 和 ML 验证需求,使您能够彻底测试从研究到生产的数据和模型。Deepchecks的核心包括各种内置检查,用于测试所有类型的数据和模型相关问题。这些检查针对各种模型和数据类型(表格、NLP、视觉)实现,并且可以轻松自定义和扩展。检查结果可用于自动对模型的生产准备情况做出明智的决策,并在生产中随时间推移对其进行监控。检查结果可以通过可视化报告进行检查(通过将它们保存到 HTML 文件,或在 Jupyter 中查看它们),使用代码进行处理(使用其 pythonic / json 输出),并使用 Deepchecks 的动态 UI 进行检查和协作(用于检查测试结果和生产监控)。
-
instill-ai/instill-core Inthrow Core 是一款用于数据、模型和管道编排的全栈 AI 基础设施工具,旨在简化构建多功能 AI 优先应用程序的各个方面。访问 Instill Core 很简单,无论您是选择 ☁️ Instill、Cloud 还是通过 instill-core 存储库进行自托管。
-
whylabs/whylogs 用于机器学习模型和数据管道的开源数据记录库。提供对数据质量和模型性能随时间变化的可见性。支持隐私保护数据收集,确保安全性和稳健性。
-
zetane/viewer 免费的 Zetane Viewer 是一款帮助理解和加速机器学习和人工神经网络发现的工具。它可以通过可视化和理解模型的架构和内部数据(特征图、权重、偏差和层输出张量)来打开 AI 黑匣子。它可以被认为是一种工具,用于对人工神经网络和机器学习算法进行神经成像或脑成像。您还可以使用 Zetane Python API 通过几个命令直接从现有脚本或笔记本启动您自己的 Zetane 工作区。
-
determined-ai/determined Determined 是一个开源机器学习平台,可简化分布式训练、超参数优化、实验跟踪和资源管理。适用于 PyTorch 和 TensorFlow。它负责:分布式训练可更快获得结果。用于获得最佳模型的超参数优化。用于降低云 GPU 成本的资源管理。用于分析和重现性的实验跟踪。
-
replicate/cog Cog 是一个开源工具,可让您将机器学习模型打包到标准的生产就绪容器中。特色:Docker 容器没有痛苦,编写自己的 Dockerfile 可能是一个令人困惑的过程,使用 Cog,您可以使用一个简单的配置文件来定义您的环境,它会生成一个包含所有最佳实践的 Docker 镜像:Nvidia 基础镜像、依赖项的高效缓存、安装特定的 Python 版本、合理的环境变量默认值等。不再有 CUDA 地狱,Cog 知道哪些 CUDA/cuDNN/PyTorch/Tensorflow/Python 组合是兼容的,并会为您正确设置。使用标准 Python 定义模型的输入和输出,Cog 生成一个 OpenAPI 架构,并使用 Pydantic 验证输入和输出。自动 HTTP 预测服务器:您的模型类型用于使用 FastAPI 动态生成 RESTful HTTP API。自动队列工作程序,长时间运行的深度学习模型或批处理最好使用队列进行架构,Cog 模型开箱即用。Redis 目前受支持,更多支持正在开发中。云存储,文件可以直接读取和写入 Amazon S3 和 Google Cloud Storage。为生产做好准备,将模型部署到运行 Docker 映像的任何位置。您自己的基础设施或 Replicate。
-
polyaxon/polyaxon 用于构建、训练和监控大规模深度学习应用程序的平台。我们正在制作一个系统来解决机器学习应用程序的可重复性、自动化和可扩展性问题。Polyaxon 可部署到任何数据中心、云提供商中,也可以由 Polyaxon 托管和管理,并且它支持所有主要的深度学习框架,如 Tensorflow、MXNet、Caffe、Torch 等。Polyaxon 通过智能容器和节点管理管理工作负载,使开发深度学习应用程序变得更快、更轻松、更高效。它将 GPU 服务器转变为您的团队或组织的共享自助服务资源。
-
openxla/xla 适用于 GPU、CPU 和 ML 加速器的机器学习编译器。XLA 编译器从 PyTorch、TensorFlow 和 JAX 等流行的 ML 框架中获取模型,并对其进行优化,以便在不同的硬件平台(包括 GPU、CPU 和 ML 加速器)上实现高性能执行。
-
Thinklab-SJTU/awesome-ml4co 用于组合优化论文的出色机器学习资源。包括图论问题: 图形匹配、旅行商问题、最大独立集、哈密顿循环问题、图着色、最大公共子图等。这类问题通常涉及到图的结构和性质,寻找图中的最优解。组合优化问题: 背包问题、车辆路径问题、作业车间调度问题、设施位置问题等。这类问题主要涉及到离散变量的优化,寻找满足约束条件下的最优组合。整数规划问题: 混合整数规划问题。这类问题是组合优化问题的一种特殊形式,变量取值为整数。其他问题: 投资组合优化、影响力最大化、因果发现、博弈论语义、可微优化、电子设计自动化、虚拟网络嵌入、预测+优化、最佳功率流、排序和排名、组合药物推荐、随机组合优化等。这些问题涉及到更广泛的领域,如机器学习、人工智能、经济学等。
-
huggingface/transformers 支持Pytorch、TensorFlow和JAX的最先进的机器学习Transformers库。提供了数以千计的预训练模型,支持100多种语言的文本分类、信息抽取、问答、摘要、翻译、文本生成。它的宗旨让最先进的 NLP 技术人人易用。
-
jadore801120/attention-is-all-you-need-pytorch PyTorch 实现的Transformer模型在“注意力就是你所需要的一切”。
-
adapter-hub/adapter-transformers HuggingFace 的 Transformers 的友好分支,将适配器添加到 PyTorch 语言模型。可用作 HuggingFace 的直接替代品,并定期同步新的上游更改。
-
microsoft/DeBERTa 注意力分散的增强解码的BERT,使用了BERT和RoBERTa模型,显着提高了预训练的效率和下游任务的性能。
-
pytorch/fairseq Python的Facebook AI Research Sequence-to-Sequence包。
-
ml-jku/hopfield-layers NLP 领域里大热的 Transformer,其网络更新规则其实是和 Hopfield 网络在连续状态下是相同的。Transformer 中的这种注意力机制其实等价于扩展到连续状态的 modern Hopfield 网络中的更新规则。作者来自奥地利林茨大学、挪威奥斯陆大学,与 Jürgen Schmidhuber 合著 LSTM 的 Sepp Hochreiter 也是作者之一。
-
laiguokun/Funnel-Transformer Transformer优化,一种新的自我注意模型,可以将隐藏状态的序列逐渐压缩为较短的状态,从而降低了计算成本。
-
mit-han-lab/hardware-aware-transformers 用于高效自然语言处理的硬件感知型Transformers.实现高达3倍的加速和3.7倍的较小模型尺寸,不会降低性能。
-
mit-han-lab/lite-transformer 具有长距离短距离注意的Lite transformer
-
allenai/longformer 用于长文档的类似BERT的模型
-
Tencent/TurboTransformers 在 CPU 和 GPU 上进行Transformer推断的快速且用户友好的运行库。
-
idiap/fast-transformers Pytorch实现的快速Transformer库
-
bytedance/lightseq 高效的序列处理与生成库,提供 Bert, GPT, Transformer,beam search, diverse beam search, topp/topk sampling
-
google-research/bigbird 基于稀疏注意力(随机注意力机制+局部注意力机制+全局注意力机制)的transformer,它将基于transformer的模型(例如 BERT)扩展到更长的序列。 由于能够处理更长的上下文,BigBird 极大地提高了各种 NLP 任务(例如问答和摘要)的性能。
-
lucidrains/performer-pytorch 一个高效的线性广义注意力框架(generalized attention framework),允许基于不同相似性度量(核)的一类广泛的注意力机制。该框架通过谷歌的新算法 FAVOR+(Fast Attention Via Positive Orthogonal Random Features)来实现,后者能够提供注意力机制的可扩展低方差、无偏估计,这可以通过随机特征图分解(常规 softmax-attention)来表达。该方法在保持线性空间和时间复杂度的同时准确率也很有保证,也可以应用到独立的softmax运算。此外,还可以和可逆层等其他技术进行互操作。
-
microsoft/fastformers 实现Transformers在CPU上223倍的推理加速 它能对基于Transformer的模型在各种NLU任务上实现高效的推理时间性能。论文FastFormers的作者表明,利用知识蒸馏、结构化剪枝和数值优化可以大幅提高推理效率。我们表明,这种改进可以达到200倍的加速,并在22倍的能耗下节省超过200倍的推理成本。
-
mit-han-lab/lite-transformer 轻量级Transformer,注意力长短搭配 长依赖和短依赖的剥离,并引入卷积来捕捉短依赖,总体思想和Transformer之自适应宽度注意力有点类似。文章中发现低层次上的注意力都比较短,层次越高,注意力的所关注的依赖越长。
-
ThilinaRajapakse/simpletransformers 用于分类、NER、QA、语言建模、语言生成、T5、多模态和会话AI的transformer
-
cloneofsimo/RealFormer-pytorch 通过在Transformer架构上进行改造来提升BERT训练效果,具体为:使用attention残差机制改造Transformer。1、realformer在标签数量较少的分类任务上有一定的提升效果,提升的幅度与数据集和任务难度有关,一般越难的任务提升的幅度越大。2、realformer在标签数量达到一定的数值时,其效果便会大打折扣,在某些数据集上甚至会无法学习。
-
openai/sparse_attention 稀疏Attention
-
sacmehta/delight 提出了一个更深更轻的Transformer,DeLighT,它的性能与Transformer相似,甚至更好,平均少了2到3倍的参数。
-
BSlience/transformer-all-in-one 记录了学习Transformer过程中的一些疑问和解答,并且实现Transformer的全过程。
-
mlpen/Nystromformer 利用了 Nyström 方法来近似标准的Attention。
-
xuanqing94/FLOATER 基于连续动态系统学习更加灵活的位置编码
-
ELS-RD/transformer-deploy Hugging Face Transformer 亚毫秒推理和部署到生产环境
-
lucidrains/x-transformers 一个简单但完整的全注意力转换器,具有来自各种论文的一组有希望的实验特征 Full encoder / decoder 、Decoder-only (GPT-like) 、Encoder-only (BERT-like) 、Image -> caption 。
-
lucidrains/FLASH-pytorch 线性时间的Transformer变体
-
NVIDIA/FasterTransformer Transformer相关优化,包括BERT、GPT 。提供了一个脚本和配方来运行高度优化的基于转换器的编码器和解码器组件,它由 NVIDIA 测试和维护。可以带来性能加速。
-
HazyResearch/flash-attention 快速且节省内存的精确注意力
-
NetEase-FuXi/EET 针对Transformer-based大模型和长序列场景的高性能pytorch推理插件。高性能:设计高度优化的CUDA内核。灵活:提供包括op api、model api和pipelines应对不同需求。 使用: 几行代码即可完成。适配主流ai框架,包括fairseq和transformers。bert模型整体性能加速1.2x到7.x倍,gpt模型整体性能加速2.x到7.x倍。
-
NVIDIA/transformer-ls 将原始 Transformer 的全部自注意力替换为考虑长期和短期相关性的有效注意力。每个查询都关注分段滑动窗口中的标记以捕获短期相关性,以及动态投影特征以捕获长期相关性。为了对齐原始特征、投影特征向量的范数并提高聚合的效率,使用两组层归一化对原始特征向量和投影特征向量进行归一化。
-
thuml/Flowformer 任务通用的线性复杂度Transformer 。在图论中的经典网络流(Flow network)模型中,“守恒”(Conservation)是一个重要现象,即每个节点的流入量等于流出量。受到“固定资源情况下,必定引起竞争”的启发,通过网络流视角重新分析经典注意力机制中的信息流动,并通过守恒性质将竞争引入注意力机制设计,以避免平凡注意力问题。
-
alipay/Pyraformer 用于长期时间序列建模和预测的低复杂度金字塔注意。
-
NVIDIA/Megatron-LM 由 NVIDIA 的应用DL研究团队开发的大型、强大的transformer。开发了高效、模型并行(张量、序列和流水线)和多节点预训练,基于 Transformer 的模型(例如 GPT、BERT 和 T5)使用混合精度。
-
facebookresearch/bit 鲁棒二值化多次蒸馏Transformer
-
Tongjilibo/bert4torch 优雅的pytorch transformers库
-
cmhungsteve/Awesome-Transformer-Attention 包含视觉转换器和注意力机制(Vision Transformer&Attention)的综合论文列表,包括论文,代码和相关网站。
-
FlagOpen/FlagAttention 用 Triton 语言实现的内存高效注意力运算符的集合。它的灵感来自FlashAttention和FlashAttention v2,并扩展了它们以满足大型语言建模研究的需求。FlashAttention 和 FlashAttention-2 可以节省内存占用和流量以提高内存效率,但要修改它们并添加更多选项和功能需要熟练掌握 cuda 编程。因此,Flag Attention 是用 Triton 语言实现的,它更容易用于编写自定义 GPU 内核。
-
microsoft/torchscale PyTorch 库,允许研究人员和开发人员高效地扩展 Transformers。为基础模型和 A(G)I 开发新的架构,重点是建模通用性和能力,以及训练稳定性和效率。
-
NielsRogge/Transformers-Tutorials HuggingFace的 Transformers 库制作的演示。
-
lucidrains/recurrent-memory-transformer-pytorch 在 Pytorch 中实现 Recurrent Memory Transformer (openreview)。他们最近发表了一篇简短的后续论文,证明它至少能够复制 100 万个词元的信息。毫无疑问,在我看来,RMT 会成为比 AdA 更强大的 RL 代理,AdA 只是一个 Transformer-XL - 更新:递归内存决策转换器
-
lhao499/RingAttention 使用块态变换器实现近乎无限的上下文的环形(Ring)注意力。Blockwise Parallel Transformer (BPT) 以分块方式计算注意力和前馈,允许训练和推断序列,其长度是标准内存效率注意力方法(如flash(闪光)注意力)可管理的序列的四倍。Ringwise Parallel Transformer 的环形注意力使训练序列的长度达到“设备数量”的长度,比 BPT 的长度长几倍。这是通过将注意力和前馈计算分布在多个设备上并将通信与计算重叠来实现的。由于注意力和前馈网络的块计算,可以在上下文大小上使用数千万个令牌进行训练,而不会增加任何通信或计算开销。
-
lucidrains/MEGABYTE-pytorch 在 Pytorch 中实现 MEGABYTE,使用多尺度转换器预测百万字节序列。为了解决当前transformer模型对输入的限制,MetaAI提出的MetaByte引入了一个概念,称为patch,将模型的输入序列分割成固定大小的patches,这是一个类似于token的概念,但是显然比token覆盖的范围要宽。然后通过一个全局的模块,建立一个大的自回归transformer,把输入和输出从tokens变成patches。同时,引入了一个本地的模块,用于每个patch内部的字节的预测,其输入是从全局模块来的上下文patches表示结果,输出是预测下一个patch,这是一个小的自回归模型。
-
google-research/bert Bidirectional Encoder Representations from Transformers 来自Transformers的双向编码器表示法
-
google-research/ALBERT 用于语言表达自我监督学习的Lite BERT
-
bojone/bert-of-theseus BERT 模型压缩方法 ,theseus(忒修斯之船 如果忒修斯的船上的木头被 逐渐替换,直到所有的木头都不是原来的木头,那这艘船还是原来的那艘船吗?),将原始大模型切分为多个大模块,固定大模型权重,训练时随机替换为小模块,充分训练后,将小模型继续微调。
-
brightmart/albert_zh 使用TensorFlow 进行自我监督学习语言表示的Lite Bert的实现预训练的汉语模型
-
bojone/bert4keras 更清晰、更轻量级的keras版bert,提供丰富的应用例子。
-
codertimo/BERT-pytorch 谷歌AI 2018 BERT pytorch实现。Google AI的BERT论文显示了各种NLP任务(新的17个NLP任务SOTA)的惊人结果,包括在SQuAD v1.1 QA任务上优于人类F1分数。本文证明了基于Transformer(自注意力)的编码器可以作为先前语言模型的替代方法,并采用适当的语言模型训练方法。
-
huawei-noah/Pretrained-Language-Model 华为诺亚方舟实验室开发的预训练语言模型及其相关优化技术NEZHA是一种经过预训练的中文语言模型,可以在多项中文NLP任务上实现最先进的性能TinyBERT是一种压缩的BERT模型,推理时可缩小7.5倍,加快9.4倍
-
ymcui/MacBERT MacBERT是一种改进的BERT,具有新颖的M LM校正预训练任务,它减轻了预训练和微调的差异。我们建议使用类似的词来进行掩蔽,而不是使用在微调阶段从未出现过的 [MASK] 令牌进行掩蔽。通过使用基于 word2vec (Mikolov et al., 2013) 相似度计算的Synonyms 工具包 (Wang and Hu, 2017)获得相似词。如果选择 N-gram 进行掩码,我们将单独找到相似的单词。在极少数情况下,当没有相似词时,我们会降级为使用随机词替换。
-
Lisennlp/TinyBert 基于华为的TinyBert进行修改的,简化了数据读取的过程,方便我们利用自己的数据进行读取操作。
-
epfml/collaborative-attention 整合多头注意力,任何经过预训练的注意力层重新配置为协作注意力层。
-
ZhuiyiTechnology/WoBERT 以词为基本单位的中文BERT(Word-based BERT)
-
autoliuweijie/FastBERT 具有自适应推断时间的自蒸馏BERT pip install fastbert
-
alexa/bort 论文 Optimal Subarchitecture Extraction for BERT. “ BERT的最佳子体系结构提取”的代码。Bort是用于BERT架构的最佳子集,它是通过对神经架构搜索应用完全多项式时间近似方案(FPTAS)提取的。 Bort的有效(即不计算嵌入层)大小是原始BERT大型体系结构的5.5%,是净大小的16%。它在CPU上也比基于BERT的速度快7.9倍,并且比体系结构的其他压缩变体和某些非压缩变体性能更好。与多个公共自然语言理解(NLU)基准上的BERT-large相比,它的平均性能提高了0.3%至31%。
-
valuesimplex/FinBERT 基于 BERT 架构的金融领域预训练语言模型
-
yitu-opensource/ConvBert ConvBERT,通过全新的注意力模块,仅用 1/10 的训练时间和 1/6 的参数就获得了跟 BERT 模型一样的精度。依图研发团队从模型结构本身的冗余出发,提出了一种基于跨度的动态卷积操作,并基于此提出了 ConvBERT 模型。
-
wtma/CharBERT 字符敏感的预训练语言模型 通过结合字符级别和词级别的信息实现了更为全面的输入编码,同时,结合 RNN 和 CNN 的优势,基本上 CNN,RNN,Transformer 都使用上了,体现了新老研究成果的结合在一定程度上能进一步提升方法的性能。
-
Sleepychord/CogLTX 将BERT应用于长文本CogLTX遵循一种特别简单直观的范式,即抽取关键的句子=>通过BERT得到答案的两步流程。
-
ShannonAI/service-streamer 服务流媒体BERT服务,每秒处理1400个句子的BERT服务.
-
Sleepychord/CogLTX 可将当前类似BERT的预训练语言模型应用于长文本。使用动态规划算法将长文本划分为文本块集合;使用MemRecall对原长句中的子句进行打分:从而选择出分数最高的子句组成 再进行训练,这样一来的话,COGLTX相当于使用了了两个bert,MemRecall中bert就是负责打分,另一个bert执行原本的NLP任务。
-
bojone/BERT-whitening 简单的线性变换(白化)操作,就可以达到BERT-flow的效果。
-
thunlp/ERNIE 用知识图谱增强 BERT 的预训练效果
-
- 对于抽取并编码的知识信息,研究者首先识别文本中的命名实体,然后将这些提到的实体与知识图谱中的实体进行匹配。研究者并不直接使用 KG 中基于图的事实,相反他们通过知识嵌入算法(例如 TransE)编码 KG 的图结构,并将多信息实体嵌入作为 ERNIE 的输入。基于文本和知识图谱的对齐,ERNIE 将知识模块的实体表征整合到语义模块的隐藏层中。
-
- 与BERT类似,采用了带Mask的语言模型,以及预测下一句文本作为预训练目标。除此之外,为了更好地融合文本和知识特征,研究者设计了一种新型预训练目标,即随机 Mask 掉一些对
-
-
ShannonAI/ChineseBert 融合字形与拼音信息的中文Bert预训练模型
-
alibaba/AliceMind/LatticeBERT Leveraging Multi-Granularity Representations in Chinese Pre-trained Language Models 利用多粒度的词格信息(word lattice),相对字级别的模型取得了性能提升。
-
Langboat/Mengzi 孟子预训练模型 轻量级但更强大,对部署和工业落地更友好的模型。
-
huawei-noah/DynaBERT dynamic BERT 可以通过选择自适应宽度和深度来灵活地调整网络大小,从而得到一个尺寸可变的网络。首先通过知识蒸馏的方法将teacher BERT的知识迁移到有自适应宽度的子网络student DynaBERTw中,然后再对DynaBERTw进行知识蒸馏得到同时支持深度自适应和宽度自适应的子网络DynaBERT。
-
microsoft/LoRA 大型语言模型的低秩适应。 冻结原始权重的同时学习成对的秩分解矩阵来减少可训练参数的数量。降低了适用于特定任务的大型语言模型的存储需求,并在部署期间实现了高效的任务切换,所有这些都不会引入推理延迟。在 GLUE 基准上获得与完全微调相当或更好的结果,同时只训练和存储一小部分参数。
-
guillaume-be/rust-bert Rust-native 最先进的自然语言处理模型和管道。 Hugging Face 的 Transformers 库的端口,使用 tch-rs crate 和 rust-tokenizers 预处理。 支持多线程标记化和GPU推理。 公开了模型基础架构、特定于任务的头和随时可用的管道。
-
volcengine/veGiantModel 字节跳动应用ML团队的基于torch的高效训练库。 使巨型模型(例如GPT、BERT和T5)训练变得简单高效。 建立在 Megatron 和 DeepSpeed 之上,通过集成高效通信库BytePs并提供定制的管道分区来提高通信效率。
-
extreme-bert/extreme-bert 可加速 BERT 在自定义数据集上的预训练和微调。
-
allenai/scibert 在科学文本上训练的 BERT 模型。SciBERT 接受过 semanticscholar.org 语料库中的论文培训。语料库大小为1.14M论文,3.1B词元。我们在培训中使用论文的全文,而不仅仅是摘要。SciBERT 有自己的词汇表(scivocab),旨在与训练语料库最匹配。我们训练了有大小写和无大小写的版本。我们还纳入了在原始 BERT 词汇表(basevocab)上训练的模型进行比较。它在广泛的科学领域 nlp 任务上实现了最先进的性能。评估的细节在论文中。评估代码和数据包含在此存储库中。
-
THUDM/GLM 一种预训练的通用语言模型,具有自回归空白填充目标,可以根据各种自然语言理解和生成任务进行微调。
-
facebookresearch/metaseq Meta AI开放了一个“重达”1750亿参数的大语言模型OPT-175B,Open Pre-trained Transformers,不仅参数比GPT-3的3750亿更少,效果还完全不输GPT-3。从完整模型到训练代码、部署代码全部开放。
-
dbiir/UER-py 一个用于对通用语料进行预训练并对下游任务进行微调的工具包。提供了非常丰富的模型库。包括:中文RoBERTa、基于词的中文RoBERTa、中文GPT-2预训练模型(通用、古诗词、对联、歌词、文言文)、中文T5预训练模型、中文RoBERTa下游任务微调模型(JD full 情感分类 、JD binary 情感分类 、Dianping 情感分类、Ifeng 新闻主题分类、Chinanews 新闻主题分类 、CLUENER2020 NER 、抽取式问答)等。
-
OpenBMB/BMInf BMInf (Big Model Inference) 是一个用于大规模预训练语言模型(PLM)推理阶段的低资源工具包。最低支持在NVIDIA GTX 1060单卡运行百亿大模型。在此基础上,使用更好的gpu运行会有更好的性能。模型能力覆盖文本补全、文本生成与对话场景。文本生成能力大幅提高。目前支持下列模型:
-
CyberZHG/keras-xlnet XLNet的非官方实现。
-
hwchase17/langchain 通过可组合性使用大型语言模型构建应用程序 基于 OPENAI 的 GPT3 等大语言模型设计一系列便于集成到实际应用中的接口,降低了在实际场景中部署大语言模型的难度
-
IDEA-CCNL/Fengshenbang-LM Fengshenbang-LM(封神榜大模型)是IDEA研究院认知计算与自然语言研究中心主导的大模型开源体系,成为中文认知智能的基础设施。包括了自然语言理解(NLU),自然语言生成(NLG)和自然语言转换(NLT)任务。CHID(成语填空)、TNEWS(新闻分类)超过人类,CHID(成语填空)、CSLDCP(学科文献分类)、OCNLI(自然语言推理)单任务第一,刷新小样本学习记录。
-
ymcui/Chinese-XLNet 面向中文的XLNet预训练模型
-
microsoft/unilm UniLM-NLP及更高版本的统一语言模型预训练
- layoutlm 多模态文档理解预训练模型LayoutLM 2.0,模型首先将文本、图像、布局三种模态的输入转换成向量表示,然后再交给编码器网络,最终输出的表示向量可以供下游任务使用。下游任务:表单理解、票据理解、复杂布局长文档理解、文档图像分类、视觉问答。
-
YunwenTechnology/Unilm UniLM模型既可以应用于自然语言理解(NLU)任务,又可以应用于自然语言生成(NLG)任务。论文来自微软研究院。模型虽然强大,但微软并没有开源中文的预训练模型。因此云问本着开源之前,将我们预训练好的中文unilm_base模型进行开源。
-
ymcui/Chinese-ELECTRA 中文ELECTRA预训练模型 其中ELECTRA-small模型可与BERT-base甚至其他同等规模的模型相媲美,而参数量仅为BERT-base的1/10
-
THUDM/GLM-130B 开放的双语(英汉)双向密集模型,1300亿参数,使用通用语言模型(GLM)进行预训练。 支持单台A100(40G * 8)或V100(32G * 8)服务器上具有130B参数的推理任务。 通过 INT4 量化,降低到 4 * RTX 3090(24G),而性能几乎没有下降。 截至 2022 -7-3 ,已接受了超过 4000 亿个文本标记(中文和英文各 200B)的训练。
-
alibaba/EasyTransfer 自然语言处理的迁移学习工具。主要特性:预训练语言模型工具,丰富且高质量的预训练模型库 BERT, ALBERT, RoBERTa, T5, etc,丰富且易用的NLP应用 如文本匹配、分本分类、机器阅读理解MRC,自动化的知识蒸馏,易用且高效的分布式训练。
-
google-research/byt5 ByT5:通过预先训练的字节到字节模型迈向无令牌的未来.ByT5 是 mT5 模型的无标记器扩展。 我们的 ByT5 模型不像大多数其他预训练语言模型(BERT、XLM-R、T5、GPT-3)那样使用子词词汇表,而是直接在 UTF-8 字节上运行,无需任何文本预处理。 除了降低系统复杂性之外,我们发现参数匹配的 ByT5 模型在一系列任务中与 mT5 具有竞争力,并且在涉及嘈杂文本或对拼写和发音敏感的任务上优于 mT5。 此 repo 可用于重现 ByT5 论文中的实验。
-
sunyilgdx/NSP-BERT 利用句子级别(sentence-level) 的预训练任务 NSP (下一句预测,Next Sentence Prediction) 来实现不同的NLP下游任务, 例如 单句分类(single sentence classification), 双句分类(sentence pair classification), 指代消解(coreference resolution), 完形填空(cloze-style task), 实体链接(entity linking), 实体类型识别(entity typing).
-
thunlp/OpenPrompt Prompt-learning 是将预训练语言模型应用于下游NLP任务的最新范式,它使用文本模板修改输入文本并直接使用 PLM 执行预训练任务。 该库提供了一个标准、灵活和可扩展的框架来部署即时学习管道。 OpenPrompt支持直接从Huggingface Transformer加载PLM。将来,我们还将支持其他库实现的 PLM。
-
google-research/flan 微调语言模型是零样本学习器
-
PaddlePaddle/ERNIE ERNIE 家族各种预训练模型的官方实现,涵盖语言理解与生成、多模态理解与生成等主题。
-
airaria/TextPruner 用于预训练语言模型的基于 PyTorch 的模型修剪工具包.它提供了低成本和免训练的方法,通过去除冗余神经元来减小模型大小并加快模型推理速度。在 TextPruner 中,共有三种剪枝模式:词汇剪枝、变压器剪枝和管道剪枝。
-
Tencent/PatrickStar 提供更大、更快、更环保的预训练模型,并为所有人普及人工智能。PatrickStar 的内存管理支持将模型的当前计算部分以外的所有内容卸载到 CPU 以节省 GPU。此外,在扩展到多个 GPU 时,基于块的内存管理对于集体通信非常有效。通过异构训练(DeepSpeed Zero Stage 3 也使用它),PatrickStar 可以充分利用 CPU 和 GPU 内存,这样您就可以使用更少的 GPU 来训练更大的模型。
-
ymcui/PERT 提出了一种基于乱序语言模型的预训练模型,在不引入掩码标记[MASK]的情况下自监督地学习文本语义信息。PERT在部分中英文NLU任务上获得性能提升,但也在部分任务上效果较差,请酌情使用。
-
THUDM/P-tuning-v2 P-tuning v2 对预训练变压器的每一层输入应用连续提示。深度提示调整增加了连续提示的容量,并缩小了跨各种设置微调的差距,特别是对于小型模型和艰巨的任务。将文本生成的prefix-tuning技术适配到NLU任务。Prompting技术火爆NLP社区,其将预训练模型从Fine-tuning范式带入Prompt-Engineering时代。Promp最初由人工设计,自然语言提示本身十分脆弱,而且从优化角度无法达到最优。为了解决问题发展出了可学习的Prompt,而P-tuning v2在实际上就是Prefix-tuning,在Prefix部分,每一层transformer的embedding输入需要被tuned。在不同规模大小的LM模型上,P-tuning v2能与精调(Fine-tuning)方法的表现比肩,有时甚至更好。
-
EleutherAI/gpt-neox 基于 DeepSpeed 库的 GPU 上模型并行自回归转换器(autoregressive transformers)的实现。目前基于 NVIDIA 的威震天语言模型,并已通过 DeepSpeed 的技术以及一些新颖的优化进行了增强。希望在此过程中训练和开源 175B 参数 GPT-3 复制。
-
OpenBMB/BMTrain 高效的大型模型训练工具包,可用于训练具有数百亿参数的大型模型。 它可以以分布式方式训练模型,同时保持代码像单机训练一样简单。
-
microsoft/CodeBERT 针对编程语言的预训练模型,在Py、Java、JS、PHP、Ruby、Go的 NL-PL 对上进行预训练的多编程语言模型。
-
clue-ai/PromptCLUE 大规模多任务Prompt预训练中文开源模型。千亿中文token上大规模预训练,累计学习1.5万亿中文token,亿级中文任务数据上完成训练,训练任务超过150+。比base版平均任务提升7个点+;具有更好的理解、生成和抽取能力,并且支持文本改写、纠错、知识图谱问答。
-
BlinkDL/RWKV-LM 具有 Transformer 级 LLM 性能的 RNN。它可以像 GPT(可并行化)一样直接训练。因此,它结合了 RNN 和 Transformer 的优点——出色的性能、快速推理、节省 VRAM、快速训练、“无限”ctx_len 和自由句子嵌入。
-
FlagOpen/FlagEmbedding 可以将任何文本映射到低维密集向量,该向量可用于检索、分类、聚类或语义搜索等任务。它也可以用于LLM的矢量数据库。
-
XiaoMi/MiLM-6B 由小米开发的一个大规模预训练语言模型,参数规模为64亿。在 C-Eval 和 CMMLU 上均取得同尺寸最好的效果。
-
yuzhimanhua/Awesome-Scientific-Language-Models 科学领域(例如,数学、物理、化学、生物学、医学、材料科学和地球科学)中预训练语言模型的精选列表,涵盖不同的模型大小(从 <100M 到 70B 参数)和模态(例如,语言、视觉、分子、蛋白质、图形和表格)。
-
CLUEbenchmark/CLUEPretrainedModels 高质量中文预训练模型集合:最先进大模型、最快小模型、相似度专门模型
-
kk7nc/Text_Classification 一项文本分类算法的调查
-
cnn_multilabel_classification 基于TextCNN和Attention的多标签分类
-
ilivans/tf-rnn-attention Tensorflow实现文本分类任务的关注机制。
-
skdjfla/toutiao-text-classfication-dataset 中文文本分类数据集 共38.2万条,分布于15类中。
-
xiaoqian19940510/text-classification-surveys 文本分类资源汇总,包括深度学习文本分类模型,如SpanBERT、ALBERT、RoBerta、Xlnet、MT-DNN、BERT、TextGCN、MGAN、TextCapsule、SGNN、SGM、LEAM、ULMFiT、DGCNN、ELMo、RAM、DeepMoji、IAN、DPCNN、TopicRNN、LSTMN 、Multi-Task、HAN、CharCNN、Tree-LSTM、DAN、TextRCNN、Paragraph-Vec、TextCNN、DCNN、RNTN、MV-RNN、RAE等,浅层学习模型,如LightGBM 、SVM、XGboost、Random Forest、C4.5、CART、KNN、NB、HMM等。介绍文本分类数据集,如MR、SST、MPQA、IMDB、Ye…
-
649453932/Chinese-Text-Classification-Pytorch 中文文本分类,TextCNN,TextRNN,FastText,TextRCNN,BiLSTM_Attention,DPCNN,Transformer,基于pytorch,开箱即用。
-
649453932/Bert-Chinese-Text-Classification-Pytorch 使用Bert,ERNIE,进行中文文本分类
-
SanghunYun/UDA_pytorch Unsupervised Data Augmentation with BERT 一种半监督学习方法,可在多种语言和视觉任务上实现SOTA结果。仅用20个标记的示例,UDA的性能就优于之前在25,000个标记的示例上训练的IMDb上的SOTA。
-
TextCNN与ALBERT分类效果的实践 详解小样本短文本多分类-对比TextCNN与ALBERT分类效果的实践(附Pytorch代码)
-
GT-SALT/MixText 文本半监督方法MixText 提出一种全新文本增强方式——TMix,在隐式空间插值,生成全新样本。对未标注样本进行低熵预测,并与标注样本混合进行TMix。MixText可以挖掘句子之间的隐式关系,并在学习标注样本的同时利用无标注样本的信息。超越预训练模型和其他半监督方法
-
beyondguo/label_confusion_learning 利用标签之间的混淆关系,提升文本分类效果。利用标签信息时能够充分考虑标签之间的重叠或者依赖关系。
-
AIRobotZhang/STCKA 基于知识图谱的文本分类.将每个短文本与其在KB中的相关概念相关联,将概念信息作为先验知识整合到深度神经网络中。
-
ShannonAI/Neural-Semi-Supervised-Learning-for-Text-Classification 在大规模通用领域预训练的前提下,更好地利用大规模领域内无标注语料与标注语料,从而最大限度地提升模型效果.足量的领域内语料U使模型不需要再在通用领域语料上预训练;无论是采用预训练还是自训练的方式,都可以显著提升模型效果,二者结合可以得到最佳结果;当领域内标注数据D较小的时候,在伪平行数据D'上训练、再在D上微调可以提升更多的效果;当D更大的时候,在D和D'上联合训练取得的效果更好。
-
xmu-xiaoma666/External-Attention-pytorch 17篇注意力机制 PyTorch 实现
-
DunZhang/LM-MLC 基于完型填空(模板)的多标签分类算法.
-
bojone/r-drop 使用r-drop机制实验了中文文本分类、文本生成任务,有提升。
-
BUPT-GAMMA/CompareNet_FakeNewsDetection 与知识比较:使用外部知识进行图神经假新闻检测 (ACL 2021)
-
pangwong/pytorch-multi-label-classifier pytorch 实现的多标签分类分类器
-
xuyige/BERT4doc-Classification 如何微调 BERT 进行文本分类
-
timoschick/pet 该存储库包含“利用小样本文本分类和自然语言推理的完形填空题”的代码.介绍了模式利用训练 (PET),这是一种半监督训练程序,可将输入示例重新表述为完形填空式短语。在低资源环境中,PET 和 iPET 显着优于常规监督训练、各种半监督基线甚至 GPT-3,尽管需要的参数减少 99.9%。PET 的迭代变体 (iPET) 训练多代模型,甚至可以在没有任何训练数据的情况下使用。
-
YerevaNN/warp ACL'2021 论文 WARP Cyclone Word-level Adversarial ReProgramming 的代码。 在 SuperGLUE 少样本文本分类上优于“GPT-3”。提出了一种基于对抗性重编程的替代方法,它是自动扩展提示模板生成的早期工作。而且参数量少了好多个数量级。
-
whatissimondoing/CoG-BART 对比度和生成使BART成为很好的对话情感识别器
-
hiyouga/Dual-Contrastive-Learning 双重对比学习。 通过在同一空间内同时学习输入样本的特征和分类器的参数,为监督分类任务提出了一种新颖的对比学习框架。
-
thunlp/KnowledgeablePromptTuning 将知识整合到 Prompt Verbalizer 中进行文本分类
-
zhouj8553/FlipDA 提供了一种基于 T5 和翻转标签自训练的自动数据增强方法。 我们在 FewGLUE 上对其进行评估,并提高其性能。
-
xcfcode/Summarization-Papers 文本摘要论文总结
-
ritun16/llm-text-summarizations 使用大型语言模型 (LLMs) 进行文本摘要的综合指南和代码库。深入研究从分块到聚类的技术,并利用 GPT-3.5 和 GPT-4 LLMs 等的力量。
-
abisee/pointer-generator 使用指针生成器网络进行汇总
-
AIKevin/Pointer_Generator_Summarizer 指针生成器网络:具有关注,指向和覆盖机制的Seq2Seq,用于抽象性摘要。 tensorflow 2.0
-
kjc6723/seq2seq_Pointer_Generator_Summarizer 中文会话中生成摘要总结的项目 tensorflow 2.0
-
steph1793/Pointer_Transformer_Generator 指针生成器网络 tensorflow 2.0
-
magic282/NeuSum 通过共同学习评分和选择句子进行神经文本摘要
-
dmmiller612/bert-extractive-summarizer BERT易于使用的提取文本摘要
-
nju-websoft/NEST 输入知识图谱的基于联合编码的弱监督神经实体摘要方法
-
bojone/SPACES 端到端的长本文摘要模型(法研杯2020司法摘要赛道)
-
xcfcode/Summarization-Papers 文本摘要论文列表,包括各种主题。
-
yym6472/ms_pointer_network 用多来源Pointer Network的产品标题摘要方法.从两个信息来源:原始商品标题和知识信息knowledge中抽取信息,然后将二者进行综合得到最后的结果。
-
FeiSun/ProductTitleSummarizationCorpus Dataset for CIKM 2018 paper "Multi-Source Pointer Network for Product Title Summarization" 用于产品标题摘要的多源指针网络
-
jiacheng-ye/kg_one2set 解决关键词生成任务,给一篇源文档(比如论文的摘要),关键词预测任务就是预测出一些表达文档重点信息的关键词,或者更准确的说是关键短语。提出了模型SetTrans,其特点是能够预测更多、更准确而且重复率更低的关键词集合。并行预测,在 inference 效率上是Transfomer的6.44倍。
-
MaartenGr/keyBERT 一种最小且易于使用的关键字提取技术,它利用BERT嵌入来创建与文档最相似的关键字和关键字短语。
-
xcfcode/PLM_annotator 探索对话总结的 DialoGPT
-
RowitZou/topic-dialog-summ 具有显着性感知主题建模的客户服务的面向主题的口语对话摘要。数据集是从阿里巴巴客户服务中心收集的。所有对话都是在客户和服务代理之间进行的普通话来电。脱敏数据可在 Google Drive或百度盘(提取码:t6nx)上获得。
-
maszhongming/MatchSum 背景: 传统抽取式摘要模型都是基于句子级提取的,即未考虑句子间关系,对所有句子逐个打分,取topN的句子为摘要。主要贡献:考虑句子间的关系,通过候选句间的组合句来抽取摘要;基于摘要与原文档在语义上应该有较大匹配度的考量,本文提出了基于候选句间的组合句与原文档的相似度来判断文档摘要的模型.对六个摘要提取数据集进行分析,验证了句子级得分高的摘要并不是摘要级得分最高的。如果仅以句子级,容易产生pearl-summary, 即虽然句子得分较低,但其实是较好的摘要,作者称为沧海遗珠。
-
nlpyang/PreSumm 基于BERT的文档级编码器,该编码器能够表达文档的语义,并获得文档的句子表示。并分别提出了抽取式和生成式的摘要模型。
-
nlpyang/BertSum BERT的简单变体 用于抽取式文本摘要,主要是选择性抽取文本中的句子作为最后的摘要。这个任务最大的问题是如何获得每个句子向量,然后把向量用于二分类,判断去留。而 BERT 原模型只能生成单句的句子向量,或者句子对的。(1)将文档中每句话前加 [CLS]后加[SEP],然后输入 BERT,而每个[CLS]对应的位置就是每句的句向量。(2)为了进一步增加句之间的互动,在 BERT 之上加了一层 Transformer 的 Summarization Layer,只输入每个[CLS]的向量,最后输出预测当前句是否保留,finetune。
-
OpenSUM/CPSUM 半监督抽取式摘要的噪声注入一致性训练和熵约束伪标签
-
krystalan/ClidSum 一个跨语言对话摘要的基准数据集
-
karpathy/LLM101n 在本课程中,我们将构建一个 Storyteller AI 大型语言模型 (LLM)。携手合作,您将能够使用 AI 创建、完善和说明小故事。我们将从头开始构建从基础到类似于 ChatGPT 的功能 Web 应用程序的所有内容,从头开始使用 Python、C 和 CUDA,并且具有最少的计算机科学先决条件。到最后,你应该对人工智能LLMs和更普遍的深度学习有相对深入的了解。
-
Significant-Gravitas/Auto-GPT 使用GPT4来自动完成目标任务。一个实验性开源应用程序,展示了 GPT-4 语言模型的功能。该程序由 GPT-4 驱动,将 LLM 的“思想”链接在一起,以自主实现您设定的任何目标。作为 GPT-4 完全自主运行的首批示例之一,Auto-GPT 突破了 AI 的可能性界限。
-
meta-llama/llama3 Meta Llama 3 官方 GitHub 站点。我们正在释放大型语言模型的力量。我们最新版本的 Llama 现在可供各种规模的个人、创作者、研究人员和企业使用,以便他们可以负责任地试验、创新和扩展他们的想法。此版本包括预训练和指令调整的 Llama 3 语言模型的模型权重和起始代码,包括 8B 到 70B 参数的大小。此存储库旨在作为加载 Llama 3 模型和运行推理的最小示例。
-
facebookresearch/llama facebook LLaMA 模型的推理代码。最新版本的 Llama 现在可供各种规模的个人、创作者、研究人员和企业访问,以便他们可以负责任地进行实验、创新和扩展他们的想法。
-
facebookresearch/llama-recipes facebook LLaMA 模型的示例和手册
-
THUDM/GLM-4 GLM-4-9B 是智谱 AI 推出的最新一代预训练模型 GLM-4 系列中的开源版本。 在语义、数学、推理、代码和知识等多方面的数据集测评中, GLM-4-9B 及其人类偏好对齐的版本 GLM-4-9B-Chat 均表现出超越 Llama-3-8B 的卓越性能。除了能进行多轮对话,GLM-4-9B-Chat 还具备网页浏览、代码执行、自定义工具调用(Function Call)和长文本推理(支持最大 128K 上下文)等高级功能。本代模型增加了多语言支持,支持包括日语,韩语,德语在内的 26 种语言。我们还推出了支持 1M 上下文长度(约 200 万中文字符)的 GLM-4-9B-Chat-1M 模型和基于 GLM-4-9B 的多模态模型 GLM-4V-9B。GLM-4V-9B 具备 1120 * 1120 高分辨率下的中英双语多轮对话能力,在中英文综合能力、感知推理、文字识别、图表理解等多方面多模态评测中,GLM-4V-9B 表现出超越 GPT-4-turbo-2024-04-09、Gemini 1.0 Pro、Qwen-VL-Max 和 Claude 3 Opus 的卓越性能。
-
THUDM/ChatGLM3 ChatGLM3 系列中的开源模型,在保留了前两代模型对话流畅、部署门槛低等众多优秀特性的基础上,ChatGLM3-6B 引入了如下特性:更强大的基础模型: ChatGLM3-6B 的基础模型 ChatGLM3-6B-Base 采用了更多样的训练数据、更充分的训练步数和更合理的训练策略。在语义、数学、推理、代码、知识等不同角度的数据集上测评显示,ChatGLM3-6B-Base 具有在 10B 以下的基础模型中最强的性能。更完整的功能支持: ChatGLM3-6B 采用了全新设计的 Prompt 格式,除正常的多轮对话外。同时原生支持工具调用(Function Call)、代码执行(Code Interpreter)和 Agent 任务等复杂场景。更全面的开源序列: 除了对话模型 ChatGLM3-6B 外,还开源了基础模型 ChatGLM3-6B-Base、长文本对话模型 ChatGLM3-6B-32K。以上所有权重对学术研究完全开放,在填写问卷进行登记后亦允许免费商业使用。
-
THUDM/ChatGLM2-6B 开源中英双语对话模型 ChatGLM-6B 的第二代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上,引入了如下新特性:
更强大的性能
:全面升级了基座模型。ChatGLM2-6B 使用了 GLM 的混合目标函数,经过了 1.4T 中英标识符的预训练与人类偏好对齐训练,评测结果显示,相比于初代模型,MMLU(+23%)、CEval(+33%)、GSM8K(+571%) 、BBH(+60%)等数据集上的性能取得了大幅度的提升,在同尺寸开源模型中具有较强的竞争力。更长的上下文
:基于 FlashAttention 技术,我们将基座模型的上下文长度(Context Length)由 ChatGLM-6B 的 2K 扩展到了 32K,并在对话阶段使用 8K 的上下文长度训练。对于更长的上下文,我们发布了 ChatGLM2-6B-32K 模型。LongBench 的测评结果表明,在等量级的开源模型中,32K 有着较为明显的竞争优势。更高效的推理
:基于 Multi-Query Attention 技术,有更高效的推理速度和更低的显存占用:在官方的模型实现下,推理速度相比初代提升了 42%,INT4 量化下,6G 显存支持的对话长度由 1K 提升到了 8K。更开放的协议
:权重对学术研究完全开放,在填写问卷进行登记后亦允许免费商业使用。 -
THUDM/ChatGLM-6B 开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。 ChatGLM-6B 使用了和 ChatGPT 相似的技术,针对中文问答和对话进行了优化。经过约 1T 标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持,62 亿参数的 ChatGLM-6B 已经能生成相当符合人类偏好的回答。
-
THUDM/GLM-130B GLM-130B是一个开放的双语(英汉)双向密集模型,具有1300亿个参数,使用通用语言模型(GLM)算法进行预训练。它旨在支持单个 A100 (40G * 8) 或 V100 (32G * 8) 上具有 130B 参数的推理任务。通过 INT4 量化,硬件可以进一步降低到具有 4 * RTX3090 24G 的单个服务器,几乎没有性能下降。
-
QwenLM/Qwen 阿里云提出的 Qwen (通义千问) 聊天和预训练大型语言模型的官方存储库。开源了Qwen(通义千问)系列工作,当前开源模型的参数规模为18亿(1.8B)、70亿(7B)、140亿(14B)和720亿(72B)。当前基础模型已经稳定训练了大规模高质量且多样化的数据,覆盖多语言(当前以中文和英文为主),总量高达3万亿token。在相关基准评测中,Qwen系列模型拿出非常有竞争力的表现,显著超出同规模模型并紧追一系列最强的闭源模型。此外,我们利用SFT和RLHF技术实现对齐,从基座模型训练得到对话模型。Qwen-Chat具备聊天、文字创作、摘要、信息抽取、翻译等能力,同时还具备一定的代码生成和简单数学推理的能力。在此基础上,我们针对LLM对接外部系统等方面针对性地做了优化,当前具备较强的工具调用能力,以及最近备受关注的Code Interpreter的能力和扮演Agent的能力。
-
QwenLM/Qwen1.5 Qwen1.5 是 Qwen 团队、阿里云开发的大型语言模型系列 Qwen 的改进版本。即 Qwen2 的 beta 版本。与 Qwen 类似,它仍然是一个仅解码器的变压器模型,具有 SwiGLU 激活、RoPE、多头注意力。目前,我们已经取得了以下成就:6种型号尺寸:0.5B、1.8B、4B、7B、14B、72B;聊天模型中的模型质量显著提高;加强了基础模型和聊天模型中的多语言功能;所有模型都支持令牌的 32768 上下文长度;所有型号都启用系统提示,这意味着可以进行角色扮演。
-
baichuan-inc/Baichuan2 百川智能推出的新一代开源大语言模型,采用 2.6 万亿 Tokens 的高质量语料训练。在多个权威的中文、英文和多语言的通用、领域 benchmark 上取得同尺寸最佳的效果。本次发布包含有 7B、13B 的 Base 和 Chat 版本,并提供了 Chat 版本的 4bits 量化。所有版本对学术研究完全开放。同时,开发者通过邮件申请并获得官方商用许可后,即可免费商用。
-
baichuan-inc/Baichuan-13B 由百川智能继 Baichuan-7B 之后开发的包含 130 亿参数的开源可商用的大规模语言模型,在权威的中文和英文 benchmark 上均取得同尺寸最好的效果。本次发布包含有预训练 (Baichuan-13B-Base) 和对齐 (Baichuan-13B-Chat) 两个版本。Baichuan-13B 有如下几个特点:更大尺寸、更多数据:Baichuan-13B 在 Baichuan-7B 的基础上进一步扩大参数量到 130 亿,并且在高质量的语料上训练了 1.4 万亿 tokens,超过 LLaMA-13B 40%,是当前开源 13B 尺寸下训练数据量最多的模型。支持中英双语,使用 ALiBi 位置编码,上下文窗口长度为 4096。同时开源预训练和对齐模型:预训练模型是适用开发者的『 基座 』,而广大普通用户对有对话功能的对齐模型具有更强的需求。因此本次开源我们同时发布了对齐模型(Baichuan-13B-Chat),具有很强的对话能力,开箱即用,几行代码即可简单的部署。更高效的推理:为了支持更广大用户的使用,我们本次同时开源了 int8 和 int4 的量化版本,相对非量化版本在几乎没有效果损失的情况下大大降低了部署的机器资源门槛,可以部署在如 Nvidia 3090 这样的消费级显卡上。开源免费可商用:B对学术研究完全开放,开发者也仅需邮件申请并获得官方商用许可后,可免费商用。
-
01-ai/Yi 01.AI 从头开始训练的下一代开源大型语言模型。作为双语语言模型,并在 3T 多语言语料库上进行训练,Yi 系列模型成为全球最强大的LLM模型之一,在语言理解、常识推理、阅读理解等方面显示出前景。Yi-34B-Chat 模型在 AlpacaEval 排行榜上排名第二(仅次于 GPT-4 Turbo),表现优于其他LLMs模型(如 GPT-4、Mixtral、Claude)(基于截至 2024 年 1 月的数据)。Yi-34B模型在各种基准测试中,包括Hugging Face Open LLM Leaderboard(预训练)和C-Eval(基于截至2023年11月的数据)中,在所有现有的开源模型(如Falcon-180B、Llama-70B、Claude)中排名第一。感谢 Transformer 和 Llama 开源社区,因为它们减少了从头开始构建所需的工作量,并能够在 AI 生态系统中使用相同的工具。
-
naklecha/llama3-from-scratch llama3 从头开始实现,此外,我将直接从 Meta 为 llama3 提供的模型文件加载张量。详细解释 llama3 大模型每一个运算步骤。
-
CrazyBoyM/llama3-Chinese-chat Llama3 中文仓库(聚合资料:各种网友及厂商微调、魔改版本有趣权重 & 训练、推理、部署教程视频 & 文档)
-
mlabonne/llm-course 使用路线图和 Colab 笔记本来学习大型语言模型 (LLMs) 的课程。该LLM课程分为三个部分:LLM 基础知识涵盖有关数学、Python 和神经网络的基本知识。科学家LLM专注于LLMs使用最新技术构建最佳产品。LLM 工程师专注于创建LLM基于应用程序并部署它们。
-
rasbt/LLMs-from-scratch 从头开始逐步实现类似ChatGPT的 LLM
-
imoneoi/openchat 使用不完善的数据推进开源语言模型。OpenChat是一系列基于监督微调(SFT)的开源语言模型。我们利用 ~80k ShareGPT 对话与条件反射策略和加权损失,尽管我们的方法很简单,但仍实现了卓越的表现。我们的最终愿景是开发一个高性能、开源和商用的大型语言模型,并且我们正在不断取得进展。
-
lonePatient/awesome-pretrained-chinese-nlp-models 高质量中文预训练模型集合。包括:基础大模型、对话大模型、多模态对话大模型、大模型评估基准、开源模型库平台、开源数据集库、中文指令数据集。
-
Vision-CAIR/MiniGPT-4 MiniGPT-4:使用高级大型语言模型增强视觉语言理解 提供与 Vicuna-7B 对齐的预训练 MiniGPT-4!演示 GPU 内存消耗现在可以低至 12GB。
-
ggerganov/llama.cpp 纯C/C++中LLaMA模型的CPU推理。2023年FacebookResearch 开源了大规模语言模型LLaMA,包含从 7B 到 65B 的参数范围,训练使用多达 1.4万亿 tokens 语料。LLaMA-13B在大部分基准测评上超过了GPT3-175B,LLaMA可能是目前公开模型权重中效果最好的语言模型。
-
juncongmoo/pyllama LLaMA - 在单个 4GB GPU 中运行 LLM
-
tatsu-lab/stanford_alpaca 斯坦福大学的LLaMA羊驼模型。用2K数据微调模型,构建和共享一个遵循指令的LLaMA模型。
-
LC1332/Chinese-alpaca-lora 在LLaMA、斯坦福大学Alpaca、Alpaca LoRA、Cabrita、Japanese-Alpaca-LoRA的基础上,调试了一个中国LLaMA模型。同时使用ChatGPT API将alpaca_data. json翻译为中文,再进行微调。
-
tloen/alpaca-lora 在消费者硬件上使用指令来微调LLaMA模型。使用低秩自适应(LoRA)重现斯坦福大学Alpaca结果的代码。我们提供了一个与 text-davinci-003质量相似的Instruct模型,可以在Raspberry Pi上运行(用于研究),并且代码很容易扩展到 13b , 30b 和 65b模型。
-
mymusise/ChatGLM-Tuning 平价的chatgpt实现方案, 基于ChatGLM-6B + LoRA
-
OpenLMLab/MOSS 支持中英双语和多种插件的开源对话语言模型,moss-moon系列模型具有160亿参数。开源数据: moss-002-sft-data: 多轮对话数据,覆盖有用性、忠实性、无害性三个层面,包含由text-davinci-003生成的约57万条英文对话和59万条中文对话。moss-003-sft-data: 多轮对话数据,基于MOSS-002内测阶段采集的约10万用户输入数据和gpt-3.5-turbo构造而成,更加符合真实用户意图分布,包含更细粒度的有用性类别标记、更广泛的无害性数据和更长对话轮数,约含110万条对话数据。moss-003-sft-plugin-data: 插件增强的多轮对话数据,包含支持搜索引擎、文生图、计算器、解方程等四个插件在内的约30万条多轮对话数据。moss-003-pm-data: 偏好数据,包含在约18万额外对话上下文数据及使用moss-moon-003-sft所产生的回复数据上构造得到的偏好对比数据。
-
baichuan-inc/baichuan-7B 百川开发的大规模7B预训练语言模型。一个开源可商用的大规模预训练语言模型。基于 Transformer 结构,在大约 1.2 万亿词元上训练的 70 亿参数模型,支持中英双语,上下文窗口长度为 4096。在标准的中文和英文 benchmark(C-Eval/MMLU)上均取得同尺寸最好的效果。
-
InternLM/InternLM InternLM开源了70亿和200亿参数基础模型,以及针对实际场景和训练系统量身定制的聊天模型。开源的轻量级训练框架,旨在支持模型预训练,而无需广泛的依赖关系。通过单个代码库,它支持在具有数千个 GPU 的大规模集群上进行预训练,并在单个 GPU 上进行微调,同时实现卓越的性能优化。InternLM 在 1024 个 GPU 上训练期间实现了近 90% 的加速效率。InternLM-20B选择了更深的架构,深度设置为60层。这超过了使用32或40层的传统7B和13B型号。当参数有限时,增加层数可以增强模型的整体功能。此外,与InternLM-7B相比,InternLM-20B使用的预训练数据经过了更高质量的清理,并补充了丰富的知识数据,旨在增强理解和推理能力。因此,它在理解、推理、数学和编程能力方面表现出显着的改进——所有这些都测试了语言模型的技术熟练程度。
-
InternLM/InternLM-techreport 书生·浦语由上海人工智能实验室和商汤科技(同等贡献)与香港中大、复旦和上海交大联合开发的多语言大语言模型。具有104B参数的多语言基础语言模型。在具有 1.6T 词元的大型语料库上进行预训练,并具有多阶段渐进过程,然后进行微调以符合人类偏好。我们还开发了一个名为Uniscale-LLM的训练系统,用于高效的大型语言模型训练。对多项基准的评估表明,InternLM在知识理解、阅读理解、数学和编码等多个方面都取得了最先进的表现。凭借如此全面的能力,InternLM在综合考试中取得了出色的表现,包括MMLU,AGIEval,C-Eval和高考-Bench,而无需借助外部工具。在这些基准测试中,InternLM 不仅明显优于开源模型,而且与 ChatGPT 相比,还获得了卓越的性能。此外,InternLM在理解中文和中国文化方面表现出出色的能力,这使其成为支持面向中文的语言应用的合适基础模型,并提供了跨各种知识领域和任务的基准和示例。
-
mistralai/mistral-src Mistral AI 7B v0.1 模型的参考实现。一个功能强大且快速的模型,适用于许多用例。虽然速度快 6 倍,但它在所有基准测试中都与 Llama 2 70B 相当或更胜一筹,会说多种语言,具有自然的编码能力。它处理 32k 序列长度。
-
clue-ai/ChatYuan 用于问答、结合上下文做对话、做各种生成任务,包括创意性写作,也能回答一些像法律、新冠等领域问题。它基于PromptCLUE-large结合数亿条功能对话多轮对话数据进一步训练得到。
-
Xwin-LM/Xwin-LM 旨在为大型语言模型开发和开源对齐技术,包括监督微调(SFT),奖励模型(RM),拒绝采样,来自人类反馈的强化学习(RLHF)等。我们的第一个版本建立在Llama2基本模型的基础上,在AlpacaEval上排名TOP-1。值得注意的是,它是第一个在此基准测试上超过 GPT-4 。
-
PCL-Platform.Intelligence/PanGu-Alpha 2000亿开源中文预训练语言模型「鹏城·盘古α」,以鹏城实验室为首的技术团队联合攻关,首次基于“鹏城云脑Ⅱ”和国产MindSpore框架的自动混合并行模式实现在2048卡算力集群上的大规模分布式训练,训练出业界首个2000亿参数以中文为核心的预训练生成语言模型。鹏城·盘古α预训练模型支持丰富的场景应用,在知识问答、知识检索、知识推理、阅读理解等文本生成领域表现突出,具备很强的小样本学习能力。
-
PCL-Platform.Intelligence/PanGu-Dialog 鹏城.盘古对话生成大模型,简称PanGu-Dialog。PanGu-Dialog是以大数据和大模型为显著特征的大规模开放域对话生成模型,充分利用了大规模预训练语言模型的知识和语言能力,基于预训练+持续微调的学习策略融合大规模普通文本和对话数据训练而成。
-
CStanKonrad/long_llama 一种大型语言模型,能够处理256k个甚至更多的长上下文。建立在OpenLLaMA的基础上,并使用聚焦变压器(FoT)方法进行微调。聚焦转换器:上下文缩放的对比训练 (FoT) 提供了一种简单的方法,使语言模型能够处理可能包含数百万个令牌的上下文,同时在明显更短的输入上进行训练。FoT 允许注意力层的子集访问(键、值)对的内存缓存,以扩展上下文长度。FoT的独特之处在于其训练程序,借鉴了对比学习。具体来说,将内存注意层暴露给相关和不相关的键(如来自不相关文档的负样本)。这种策略激励模型区分与语义上不同的值相关的键,从而增强它们的结构。反过来,这使得推断有效上下文长度远远超出训练中看到的范围成为可能。
-
lm-sys/FastChat 令人印象深刻的 GPT-4 开放式聊天机器人 Vicuna:一个以 90% ChatGPT 质量的开源聊天机器人。
-
project-baize/baize-chatbot 使用 LoRA 训练的开源聊天模型.它使用通过让 ChatGPT 与自己聊天生成的 100k 对话。还使用羊驼的数据来提高其性能。已发布了 7B、13B 和 30B 模型。
-
wenge-research/YaYi 为客户打造安全可靠的专属大模型,基于大规模中英文多领域指令数据训练的 LlaMA 2 & BLOOM 系列模型,由中科闻歌算法团队研发。在百万级人工构造的高质量领域数据上进行指令微调得到,训练数据覆盖媒体宣传、舆情分析、公共安全、金融风控、城市治理等五大领域,上百种自然语言指令任务。
-
AI4Finance-Foundation/FinGPT 以数据为中心的 FinGPT。开源开放金融!革新
-
EleutherAI/gpt-neox 在GPU上训练大规模语言模型。基于 NVIDIA 的威震天语言模型,并已通过 DeepSpeed 的技术以及一些新颖的优化进行了增强。目标是使这个存储库成为一个集中且可访问的地方,以收集用于训练大规模自回归语言模型的技术,并加速对大规模训练的研究。
-
microsoft/graphrag 基于图形的模块化检索增强生成 (RAG) 系统,GraphRAG 项目是一个数据管道和转换套件,旨在使用 LLMs的强大功能从非结构化文本中提取有意义的结构化数据。该存储库提供了一种使用知识图谱记忆结构来增强LLM输出的方法。GraphRAG 是一种基于 AI 的内容解释和搜索功能。使用 LLMs,它解析数据以创建知识图谱并回答用户有关用户提供的私有数据集的问题。GraphRAG 能够连接大量信息中的信息,并使用这些连接来回答使用关键字和基于向量的搜索机制难以或无法回答的问题。在上一个问题的基础上,提供关于系统如何为各种用途提供功能的半技术性、高级信息。这使得系统可以使用 GraphRAG 来回答问题,其中答案涵盖许多文档以及主题问题,例如“此数据集中的顶级主题是什么?GraphRAG的预期用途是什么?GraphRAG 旨在支持关键信息发现和分析用例,在这些用例中,获得有用见解所需的信息跨越许多文档、嘈杂、混杂着 MI 和/或虚假信息,或者当用户旨在回答的问题比底层数据可以直接回答的问题更抽象或主题化时。GraphRAG 设计用于用户已经接受过负责任的分析方法培训并期望进行批判性推理的环境;GraphRAG 能够提供对复杂信息主题的高度洞察力,但是需要领域专家对答案进行人工分析,以验证和增强 GraphRAG 生成的响应。GraphRAG 旨在与特定领域的文本数据语料库一起部署和使用;GraphRAG 本身不收集用户数据,但鼓励用户验证所选LLM用于配置 GraphRAG 的数据隐私政策。如何评估 GraphRAG?使用哪些指标来衡量绩效?GraphRAG 已通过多种方式进行了评估;主要关注点是 1) 数据集的准确表示,数据集的准确表示已经通过手动检查和自动测试进行了测试,并针对从随机选择的测试语料库子集创建的“黄金答案”;2) 提供响应的透明度和基础性,通过自动答案覆盖率评估和对返回的底层上下文的人工检查来测试回复的透明度和基础性;3) 对提示和数据语料库注入攻击的弹性,我们使用手动和半自动技术测试用户提示注入攻击(“越狱”)和交叉提示注入攻击(“数据攻击”); 4) 低幻觉率,幻觉率是使用索赔覆盖率指标、手动检查答案和来源以及对抗性攻击来评估幻觉率的,这些攻击是通过对抗性和极具挑战性的数据集尝试强迫幻觉。GraphRAG的局限性是什么?用户在使用系统时,如何最大程度地减少 GraphRAG 限制的影响?GraphRAG 依赖于一个构造良好的索引示例;对于一般应用(例如,以人、地点、组织、事物等为导向的内容),我们提供了示例索引提示;对于独特的数据集,有效的索引可能依赖于对特定领域概念的正确识别;索引是一项相对昂贵的操作;缓解索引编制的最佳做法是在目标域中创建一个小型测试数据集,以确保索引器在执行大型索引操作之前具有性能。哪些操作因素和设置允许有效和负责任地使用 GraphRAG?GraphRAG 专为具有领域复杂性和应对困难信息挑战经验的用户而设计;虽然该方法通常对注入攻击和识别相互冲突的信息源很鲁棒,但该系统是为受信任的用户设计的;对回答进行适当的人工分析对于产生可靠的见解非常重要,并且应追踪信息的来源,以确保人类与作为答案生成的一部分所做的推论达成一致;GraphRAG 在自然语言文本数据上产生最有效的结果,这些文本数据共同关注一个整体主题或主题,并且具有丰富的实体——实体是可以唯一识别的人、地点、事物或物体;虽然 GraphRAG 已经过评估,因为它对提示和数据语料注入攻击的弹性,并且已经针对特定类型的危害进行了探究,LLM但用户使用 GraphRAG 配置可能会产生不适当或令人反感的内容,这可能使得在没有特定于用例和模型的额外缓解措施的情况下,不适合针对敏感上下文进行部署。开发人员应评估其上下文的输出,并使用可用的安全分类器、对特定安全过滤器和功能进行建模,或适合其用例的自定义解决方案。
-
google/gemma_pytorch Gemma 是一个轻量级、最先进的开放模型系列,由用于创建 Google Gemini 模型的研究和技术构建而成。它们是文本到文本、仅解码器的大型语言模型,提供英语版本,具有开放权重、预训练变体和指令调整变体。这是 Gemma 模型的官方 PyTorch 实现。我们使用 PyTorch 和 PyTorch/XLA 提供模型和推理实现,并支持在 CPU、GPU 和 TPU 上运行推理。
-
visual-openllm/visual-openllm 文心一言的开源版,基于 ChatGLM + Visual ChatGPT + Stable Diffusion
-
hikariming/alpaca_chinese_dataset 人工精调的中文对话数据集和一段chatglm的微调代码
-
michael-wzhu/Chinese-LlaMA2 META最新发布的LlaMA2的汉化版! (完全开源可商用)
-
ymcui/Chinese-LLaMA-Alpaca 中文LLaMA模型和经过指令精调的Alpaca大模型。这些模型在原版LLaMA的基础上扩充了中文词表并使用了中文数据进行二次预训练,进一步提升了中文基础语义理解能力。同时,在中文LLaMA的基础上,本项目使用了中文指令数据进行指令精调,显著提升了模型对指令的理解和执行能力。
-
Facico/Chinese-Vicuna 一个中文低资源的llama+lora方案,结构参考alpaca
-
lucidrains/PaLM-rlhf-pytorch 在PaLM架构上实现RLHF(人工反馈强化学习),类似ChatGPT
-
liltom-eth/llama2-webui 从任何地方(Linux/Windows/Mac)在GPU或CPU上本地运行任何Llama 2。使用“llama2-wrapper”作为生成代理/应用程序的本地llama2后端。
-
togethercomputer/OpenChatKit 一个强大的开源基础,可以为各种应用程序创建专用和通用聊天机器人。该工具包包括一个指令调优的语言模型,一个审核模型,和一个可扩展的检索系统,用于包括来自自定义存储库的最新响应。
-
LianjiaTech/BELLE 开源中文对话大模型,现阶段基于开源预训练大语言模型(如BLOOM),针对中文做了优化,模型调优仅使用由ChatGPT生产的数据(不包含任何其他数据)。开放了数据集:Stanford Alpaca 生成的中文数据集1M + 0.5M;0.25M数学指令数据集和0.8M多轮任务对话数据集。
-
carbonz0/alpaca-chinese-dataset alpaca中文指令微调数据集
-
cryscan/multilingual-share 为了推进中文AI的发展,促进AI技术公开化、国际化,我们成立了 ShareGPT-90k 项目,希望借助大家的力量推进数据清洗与对齐工作。可能与各位想象的有所不同,GPT模型主要通过预训练数据集赋能,语料的质量对模型最终性能至关重要。然而,百度知道、CSDN、知乎等平台软文过多;小木虫等高质量平台语料过少;个人博客内容质量参差不齐。OpenAI完成数据集的收集花费了巨大成本,以至于需要从微软集资。我们无力承担如此巨大的开销,于是需要各位有志于筹建开放获取语料,并有一定外语基础的网友们献上自己的力量。RWKV-Wiki/MultilingualShareGPT
-
TigerResearch/TigerBot 多语言多任务LLM,在 BLOOM 基础上的模型:TigerBot-7B, TigerBot-7B-base,TigerBot-180B。数据:预训练 100G,从 2TB 过滤后的数据中经过去噪去重清洗而得;监督微调 1G 或 100 万条数据,按比例涵盖用户指令常见的 10 大类 120 小类任务。中文开源预训练集 - 55G,包含中文书籍、中文互联网、中文百科、 英文开源预训练集 - 51G,包含英文书籍、英文互联网、英文百科 、中文-微调指令集-合集 - 53W 条、英文-微调指令集-合集 - 67W 条 - 下载
-
masa3141/japanese-alpaca-lora 日文指令来微调LLaMA模型
-
nlpxucan/WizardLM 由Evol-Instruct提供支持的遵循指令的LLM系列:WizardLM,WizardCoder和WizardMath。基于GPT-4的自动评估框架来评估聊天机器人模型的性能。WizardLM-30B取得了比Guanaco-65B更好的结果。
-
luban-agi/Awesome-Domain-LLM 本项目旨在收集和梳理垂直领域的开源模型、数据集及评测基准。
-
22-hours/cabrita 葡萄牙语微调指令LLaMA
-
zilliztech/GPTCache LLM 的语义缓存。 与 LangChain 和 llama_index 完全集成。将您的LLM API成本降低10倍,将速度提高100倍。采用了语义缓存等替代策略。语义缓存识别并存储相似或相关的查询,从而提高缓存命中概率并提高整体缓存效率。采用嵌入算法将查询转换为嵌入,并使用向量存储对这些嵌入进行相似性搜索。此过程允许 GPTCache 从缓存存储中识别和检索类似或相关的查询。
-
Stability-AI/StableLM 稳定性AI语言模型。使用 Stanford Alpaca 的程序对模型进行了微调,结合了五个最近的对话代理数据集:Stanford 的 Alpaca 、Nomic-AI 的 gpt4all 、RyokoAI 的 ShareGPT52K 数据集、Databricks的 Dolly 和 HH 。以 StableLM-Tuned-Alpha 的形式发布这些模型。
-
LC1332/Luotuo-Chinese-LLM 中文大语言模型开源项目,包含了一系列语言模型。Luotuo-Vanilla是骆驼项目的第一个github仓库, 它是在LLaMA-7B上进行微调的。骆驼项目的初始目标,是研究使用跨语言数据在进行微调时,大语言模型发生的相关现象。
-
FreedomIntelligence/LLMZoo 一个为大型语言模型提供数据,模型和评估基准的项目。发布基于BLOOMZ的凤凰Phoenix7B模型、Chimera奇美拉模型。Phoenix-inst-chat-7b 达到85.2% 的ChatGPT效果。
-
openai/evals 一个评估LLM和LLM系统的框架,也是一个开源的基准测试表。
-
pengxiao-song/LaWGPT 基于中文法律知识的大语言模型
-
MediaBrain-SJTU/MedicalGPT-zh 基于ChatGLM的在高质量指令数据集微调的中文医疗对话语言模型
-
dandelionsllm/pandallm 海外中文开源大语言模型,基于 Llama-7B, -13B, -33B, -65B 进行中文领域上的持续预训练。
-
OptimalScale/LMFlow 一个可扩展、方便和高效的工具箱,用于微调大型机器学习模型。我们的目标是开发一套用户友好、快速可靠,并对整个社区开放的全流程微调代码库。
-
yangjianxin1/Firefly Firefly(流萤): 中文对话式大语言模型,包括高质量的包含1.1M中文多任务指令微调数据集,包含23种常见的中文NLP任务的指令数据。对于每个任务,由人工书写若干指令模板,保证数据的高质量与丰富度。权重分享:在bloom-1b4-zh 和bloom-2b6-zh 的基础上,进行指令微调,获得如下中文模型:firefly-1b4 、firefly-2b6 、firefly-2b6-v2。开源QLoRA训练流程和模型权重
-
PlexPt/awesome-chatgpt-prompts-zh ChatGPT 中文调教指南。各种场景使用指南。学习怎么让它听你的话。
-
dalinvip/Awesome-ChatGPT ChatGPT资料汇总学习
-
rockbenben/ChatGPT-Shortcut 让生产力加倍的 ChatGPT 快捷指令,按照领域和功能分区,可对提示词进行标签筛选、关键词搜索和一键复制。
-
PhoebusSi/Alpaca-CoT 将CoT数据扩展到Alpaca以提高其推理能力,同时我们将不断收集更多的instruction-tuning数据集,并在我们框架下集成进更多的LLM,打造一个通用的LLM-IFT平台。Alpaca-CoT · Datasets
-
unit-mesh/unit-minions 《AI 研发提效研究:自己动手训练 LoRA》,包含 Llama (Alpaca LoRA)模型、ChatGLM (ChatGLM Tuning)相关 Lora 的训练。训练内容:用户故事生成、测试代码生成、代码辅助生成、文本转 SQL、文本生成
-
microsoft/JARVIS 一个将LLM与ML社区联系起来的系统。该系统由LLM作为控制器和众多专家模型作为协作执行者(来自HuggingFace Hub)组成。我们系统的工作流程包括四个阶段:任务规划:使用ChatGPT分析用户的请求以了解他们的意图,并将其分解成可能解决的任务。模型选择:为了解决计划的任务,ChatGPT 根据他们的描述选择托管在拥抱脸上的专家模型。任务执行:调用并执行每个选定的模型,并将结果返回给 ChatGPT。响应生成:最后,使用 ChatGPT 集成所有模型的预测,并生成响应。
-
mlc-ai/mlc-llm 使每个人都能在每个人的设备上本地开发、优化和部署 AI 模型。解决方案的基石是机器学习编译(MLC),我们利用它来有效地部署AI模型。我们建立在开源生态系统的肩膀上,包括来自Hugging Face和Google的令牌化器,以及Llama,Vicuna,Dolly,MOSS,RWKV等开源LLM。我们的主要工作流程基于 Apache TVM Unity。
-
mlc-ai/web-llm 将大语言模型和聊天引入 Web 浏览器。一切都在浏览器中运行,没有服务器支持。WebLLM是MLC LLM的姊妹项目。它重用了模型工件并构建了MLC LLM的流程。
-
wangzhaode/ChatGLM-MNN 纯C++,易于部署的ChatGLM-6B。
-
vllm-project/vllm 适用于 LLM 的高吞吐量和内存效率推理和服务引擎。在吞吐量方面,vLLM 的性能比拥抱面转换器 (HF) 高出 24 倍,文本生成推理 (TGI) 高出 3.5 倍。使用PagedAttention分页注意力高效管理注意力键和值存储器。
-
yizhongw/self-instruct 一种将预训练语言模型与指令对齐的方法。可帮助语言模型提高其遵循自然语言指令的能力。它通过使用模型自己来创建大量教学数据来实现此目的。通过自导,可以提高语言模型的指令遵循功能,而无需依赖大量的手动注释。
-
adams549659584/go-proxy-bingai用 Vue3 和 Go 搭建的微软 New Bing 演示站点,拥有一致的 UI 体验,支持 ChatGPT 提示词,国内可用。
-
f/awesome-chatgpt-prompts 包含 ChatGPT 提示,以更好地使用 ChatGPT。fka/awesome-chatgpt-prompts 这是一个很棒的 ChatGPT 提示的数据集存储库。
-
humanloop/awesome-chatgpt ChatGPT和GPT-3的惊人工具、演示和文档
-
encx/ChatGPT ChatGPT 桌面应用程序(Mac、Windows 和 Linux)
-
xtekky/chatgpt-clone 具有更好用户界面的聊天GPT界面
-
wong2/chatgpt-google-extension 浏览器扩展,用ChatGPT增强搜索引擎效果
-
acheong08/ChatGPT 逆向工程 ChatGPT 的API
-
ddiu8081/chatgpt-demo 基于 OpenAI GPT-3.5 Turbo API 的 demo。
-
LAION-AI/Open-Assistant 基于聊天的助理,它理解任务,可以与第三方系统互动,并能动态地检索信息。将提供基于RLHF的大型语言模型,并公开训练数据。
-
acheong08/EdgeGPT 微软必应聊天的逆向工程API
-
yoheinakajima/babyagi 使用GPT3/4来自动完成任务。一个 AI 支持的任务管理系统示例. 该系统使用 OpenAI 和 Pinecone API 创建, 优先级排序和执行任务. 该系统背后的主要思想是基于先前任务的结果和预定义的目标创建任务. 脚本然后使用 OpenAI 的自然语言处理(NLP)能力根据目标创建新任务, 并使用 Pinecone 存储和检索任务结果以获得上下文. 这是原始的任务驱动的自驱代理的简化版本.
-
TransformerOptimus/SuperAGI SuperAGI - 开发优先的开源自主 AI 代理框架。使开发人员能够快速可靠地构建、管理和运行有用的自主代理。
-
StanGirard/quivr 将所有文件和想法转储到您的生成式AI(如chatgpt)的第二大脑中并与之聊天。旨在轻松存储和检索非结构化信息。
-
transitive-bullshit/chatgpt-api OpenAI提供的ChatGPT的Node.js包装器。
-
zhayujie/chatgpt-on-wechat 用ChatGPT搭建微信聊天机器人
-
openai/openai-python OpenAI Python库提供了从用Python语言编写的应用程序对OpenAI API的方便访问。
-
chenking2020/FindTheChatGPTer ChatGPT/GPT4开源“平替”汇总,持续更新
-
madawei2699/myGPTReader 由chatGPT提供支持,Slack上的一个机器人,可以阅读和总结任何网页,包括电子书在内的文档,甚至是YouTube上的视频。它可以通过语音和你交流。
-
JosephusCheung/GuanacoDataset Guanaco 模型的数据集旨在增强多语言能力并解决各种语言任务。以 Alpaca 模型的 175个任务为基础,提供了用不同语言重写的种子任务,并添加了专门为英语语法分析、自然语言理解、跨语言自我意识和显式内容识别设计的新任务。数据集总共包含53万个条目,以6k美元的低成本生成。英语\中文\日语。
-
thunlp/UltraChat 大规模、信息丰富、多样化的多轮聊天数据(和模型)
-
ziliwangnlp/RefGPT 包含5万对中文多轮对话数据。用如下方法自动生成数据。采集优质的事实型文档,reference,来源是电子书、维基百科、优质垂类网站。文档需要涵盖尽量多的主题。利用已有LLM生成多轮对话。输入是一篇reference,prompt类似“请根据这篇文章生成多轮问答”。API输出一段多轮对话(dialogue)。这种方法将原本只适合预训练的文档转化成可供微调的多轮对话。收集到大量的reference-dialogue二元组。将reference和prompt作为输入,dialogue作为目标,微调一个GPT模型。称作Reference-to-Dialogue GPT,缩写RefGPT。有了RefGPT,即可基于reference生成多轮对话,获得海量的数据。需要关注2个要点。Reference的质量、广度。Reference内容质量必须高,比如医疗等优质垂类网站的页面、维基百科上非生僻的词条,且需要对网页做清洗。Reference的广度应当大,不能限制在单个垂类或网站。调用已有LLM时需要写prompt,需要仔细尝试各种prompt,使得LLM生成的多轮对话符合预期。
-
gururise/AlpacaDataCleaned 经过清理和整理的斯坦福的羊驼数据集
-
wangrui6/Zhihu-KOL 知乎对话数据,parquet格式400多MB的大小
-
BAAI/COIG 中文开放教学通才 (COIG) 项目,以维护一套无害、有用且多样化的中文对话语料库。具体包括:人工验证的翻译指令 (67798) 、考试指令 (63532) 、人类价值对齐指令 (34471) 、反事实修正多轮聊天(13653)、Leetcode 指令 (11737)
-
nomic-ai/pyllamacpp 支持 llama.cpp + gpt4all 的 Python 绑定
-
abetlen/llama-cpp-python llama.cpp 的 Python 绑定
-
BlinkDL/ChatRWKV 使用RWKV语言模型(100%RNN)的类ChatGPT开源聊天模型。
-
rawandahmad698/PyChatGPT 非官方 ChatGPT API 的 Python 客户端,具有自动令牌重新生成、对话跟踪、代理支持等功能。
-
qunash/chatgpt-advanced 一种浏览器扩展,可通过网络结果增强您的 ChatGPT 提示。
-
liady/ChatGPT-pdf 用于将 ChatGPT 历史下载为 PNG、PDF 或创建可共享链接的 Chrome 扩展
-
imartinez/privateGPT 使用 LLM 的强大功能,无需互联网连接就可以对您的文档提出问题。 100% 私有,任何时候都没有数据离开您的执行环境。您可以在没有互联网连接的情况下提取文档和提问!
-
xtekky/gpt4free 免费使用GPT4模型 typescript版本
-
saharmor/awesome-chatgpt 精选的 ChatGPT 演示、工具、文章等
-
JushBJJ/Mr.-Ranedeer-AI-Tutor GPT-4 AI 导师提示,用于可定制的个性化学习体验。
-
binary-husky/chatgpt_academic 科研工作专用ChatGPT/GLM拓展,特别优化学术Paper润色体验,模块化设计支持自定义快捷按钮&函数插件,支持代码块表格显示,Tex公式双显示,新增Python和C++项目剖析&自译解功能,PDF/LaTex论文翻译&总结功能,支持并行问询多种LLM模型,支持gpt-3.5/gpt-4/chatglm
-
AetherCortex/Llama-X 关于将LLaMA提高到SOTA LLM的开放学术研究
-
WangRongsheng/ChatGenTitle 使用百万arXiv论文信息在LLaMA模型上进行微调的论文题目生成模型
-
nishiwen1214/ChatReviewer 使用ChatGPT分析论文优缺点,提出改进建议
-
bhaskatripathi/pdfGPT 允许您使用 GPT 功能与 PDF 文件的内容聊天。在聊天机器人中转换您的 pdf 文件的唯一开源解决方案
-
kaixindelele/ChatPaper 全流程加速科研,利用chatgpt进行论文总结+润色+审稿+审稿回复
-
eimenhmdt/autoresearcher 使用 GPT 自动化科学工作流程
-
gragland/chatgpt-chrome-extension ChatGPT Chrome 扩展。将 ChatGPT 集成到互联网上的每个文本框中。
-
vincelwt/chatgpt-mac Mac 版 ChatGPT,就在您的菜单栏中。
-
huggingface/chat-ui 开源模型的聊天界面,例如OpenAssistant或Llama。SvelteKit应用程序,它为 hf.co/chat 上的HuggingChat应用程序提供支持。
-
GaiZhenbiao/ChuanhuChatGPT 为ChatGPT ChatGLM LLaMA StableLM MOSS等多种LLM提供了一个轻快好用的Web图形界面
-
sonnylazuardi/chat-ai-desktop 使用 Tauri 和 Rust 的 Mac 和 Windows 菜单栏的非官方 ChatGPT 桌面应用程序
-
xx025/carrot 准备了众多免费好用的ChatGPT镜像站点,当前100+站点
-
LiLittleCat/awesome-free-chatgpt 免费的 ChatGPT 镜像网站列表,持续更新。
-
yzfly/awesome-chatgpt-zh ChatGPT 中文指南,ChatGPT 中文调教指南,指令指南,精选资源清单,更好的使用 chatGPT 让你的生产力
-
terry3041/pyChatGPT OpenAI的ChatGPT API的非官方Python包装器
-
platelminto/chatgpt-conversation 用你的声音与 ChatGPT 对话,让它回话。
-
202252197/ChatGPT_JCM OpenAI管理界面,聚合OpenAI的所有接口进行界面操作(所有模型、图片、音频、微调、文件)等,支持Markdown格式(公式、图表,表格)等
-
memochou1993/gpt-ai-assistant 使用 OpenAI API 和 LINE 消息传递 API 实现的应用程序。通过安装过程,您可以使用LINE移动应用程序开始与自己的AI助手聊天。
-
ai-boost/awesome-prompts 来自 GPT 商店中最受好评的 GPT 的精选 chatgpt 提示列表。提示工程,提示攻击和提示保护。高级提示工程论文。
-
yanqiangmiffy/Chinese-LangChain 小必应,Q.Talk,强聊,QiangTalk,基于ChatGLM-6b+langchain实现本地化知识库检索与智能答案生成
-
cesarhuret/docGPT ChatGPT 直接在 Google Docs 中作为编辑器的插件
-
ConnectAI-E/Feishu-OpenAI 飞书 ×(GPT-3.5 + DALL·E + Whisper)= 飞一般的工作体验 rocket 语音对话、角色扮演、多话题讨论、图片创作、表格分析、文档导出
-
terror/chatgpt.nvim 在 Neovim 中查询 ChatGPT
-
clmnin/summarize.site 浏览器扩展使用ChatGPT总结网页内容
-
Zero6992/chatGPT-discord-bot 将 ChatGPT 集成到您自己的discord机器人中
-
m1guelpf/chatgpt-telegram 运行您自己的GPT电报机器人,只需一个命令
-
transitive-bullshit/chatgpt-twitter-bot ChatGPT API支持的Twitter机器人
-
kxxt/chatgpt-action 让 ChatGPT 为您审查 PR 拉取请求
-
RomanHotsiy/commitgpt 使用 ChatGPT 自动生成git提交消息
-
oceanlvr/ChatGPT-ProBot 基于 ChatGPT 的 GitHub APP,键入 /chatgpt 与机器人 robot 聊天。
-
kazuki-sf/ChatGPT_Extension 非常简单的Chrome扩展(v3),您可以从网络上的任何地方访问OpenAI的ChatGPT。
-
abielzulio/chatgpt-raycast ChatGPT raycast(Mac的快捷启动器) 扩展
-
bupticybee/ChineseAiDungeonChatGPT 中文版的ai地牢,直接使用的openai的ChatGPT api作为讲故事的模型。
-
domeccleston/sharegpt 轻松与您的朋友分享 ChatGPT 对话的永久链接
-
Yidadaa/ChatGPT-Next-Web 一键拥有你自己的 ChatGPT 网页服务。
-
pengzhile/pandora 实现了网页版 ChatGPT 的主要操作。后端优化,绕过 Cloudflare,速度喜人。
-
Chanzhaoyu/chatgpt-web 用Express和Vue3搭建的 ChatGPT 演示网页
-
elyase/awesome-gpt3 关于 OpenAI GPT-3 API 的演示和文章的集合。
-
dair-ai/Prompt-Engineering-Guide 提示工程是一门相对较新的学科,用于开发和优化提示以有效地将语言模型 (LM) 用于各种应用程序和研究主题。即时的工程技能有助于更好地理解大型语言模型 (LLM) 的功能和局限性。研究人员使用提示工程来提高 LLM 在广泛的常见和复杂任务(例如问题回答和算术推理)上的能力。开发人员使用提示工程来设计与 LLM 和其他工具交互的强大且有效的提示技术。
-
reworkd/AgentGPT 在浏览器中组装、配置和部署自治 AI 代理。为您自己的自定义 AI 命名,让它开始任何可以想象的目标。它将尝试通过思考要完成的任务、执行它们并从结果中学习来达到目标。
-
openai/chatgpt-retrieval-plugin ChatGPT 检索插件可让您通过自然语言提问来轻松查找个人或工作文档。
-
kennethleungty/Llama-2-Open-Source-LLM-CPU-Inference 在本地CPU推理上运行Llama 2和其他开源LLM,用于文档问答
-
Bin-Huang/chatbox 开源的 ChatGPT API (OpenAI API) 桌面客户端,Prompt 的调试与管理工具,支持 Windows、Mac 和 Linux
-
openai/openai-cookbook 使用 OpenAI API 的示例和指南
-
smol-ai/developer 随着Anthropic Claude的100k 上下文窗口的出现,现在每个开发人员都可以拥有自己的辅助开发助手
-
e2b-dev/e2b 允许您创建和部署虚拟软件开发人员。这些虚拟开发人员由专门的 AI 代理提供支持,这些代理可以根据您的指令构建软件并可以使用工具。
-
csunny/DB-GPT 使用本地 GPT 与您的数据和环境交互,无数据泄漏,100% 私密,100% 安全 目前支持Vicuna(7b, 13b), ChatGLM-6b(int4, int8)
-
acheong08/Bard Google 的 Bard 聊天机器人 API 的逆向工程
-
jtsang4/claude-to-chatgpt 将 Anthropic 的 Claude 模型的 API 转换为 OpenAI Chat API 格式。
-
databrickslabs/dolly dolly-v2-12b是由Databricks创建的120亿参数因果语言模型,该模型源自EleutherAI的Pythia-12b,并在Databricks员工生成的~15K记录指令语料库上进行微调,并在宽松许可证(CC-BY-SA)下发布
-
openlm-research/open_llama 一个在RedPajama数据集上训练的Meta AI的LLaMA 7B的许可开源复制品。
-
mbzuai-nlp/LaMini-LM 来自大规模指令的多样化蒸馏模型群。从ChatGPT提炼出来的小型高效语言模型的集合,并在2.58M指令的大规模数据集上进行训练。我们通过执行句子/离线提炼从大型语言模型中提取知识。我们基于几个现有的提示资源,使用 gpt-3.5-turbo 生成总共 2.58M 对指令和响应。
-
microsoft/TaskMatrix 连接了ChatGPT和一系列Visual Foundation模型,以便在聊天期间发送和接收图像。
-
huggingface/peft 最先进的参数高效微调 (PEFT) 方法,LoRA、Prefix Tuning、P-Tuning、Prompt Tuning、AdaLoRA。参数高效微调 (PEFT) 方法能够将预训练的语言模型 (PLM) 有效地适应各种下游应用程序,而无需微调模型的所有参数。微调大型 PLM 的成本通常高得令人望而却步。在这方面,PEFT方法仅微调少量(额外)模型参数,从而大大降低了计算和存储成本。最近最先进的PEFT技术实现了与完全微调相当的性能。
-
artidoro/qlora 量化LLM的有效微调。QLoRA使用bitsandbytes进行量化。QLoRA是一种高效的微调方法,可减少内存使用量,足以在单个 48GB GPU 上微调 65B 模型,同时保留完整的 16 位微调任务性能。QLoRA 通过冻结的 4 位量化预训练LM将梯度反向传播到低秩适配器 (LoRA) 中。我们最好的模型 Guanaco,在 Vicuna 基准测试中优于之前所有公开的模型,达到了 ChatGPT 性能水平的 99.3%,而只需在单个 GPU 上进行 24 小时的微调。QLoRA 引入了许多创新,以在不牺牲性能的情况下节省内存:(a) 4 位 NormalFloat (NF4),一种理论上最适合正态分布权重的新数据类型 (b) 双重量化,通过量化常量来减少平均内存占用,以及 (c) 分页优化器来管理内存峰值。我们使用QLoRA对1k个模型进行微调,对 8 个指令数据集、多种模型(LLaMA、T5)和模型规模(如33B和65B参数)的指令遵循和聊天机器人性能进行详细分析。结果表明,QLoRA在小型高质量数据集上进行微调可以产生最先进的结果,即使用比以前的SoTA更小的模型也是如此。GPT4评估是人类评估的廉价且合理的替代方案。当前的聊天机器人基准测试不值得信赖,无法准确评估聊天机器人的性能水平。我们发布了所有模型和代码,包括用于 4 位训练的 CUDA 内核。
-
hiyouga/ChatGLM-Efficient-Tuning 基于 PEFT 的高效 ChatGLM 微调
-
ZrrSkywalker/LLaMA-Adapter 在1小时内遵循指令微调LLaMA , 1.2M参数
-
h2oai/h2o-llmstudio 用于微调LLM的框架和无代码GUI。轻松有效地微调LLM,无需任何编码经验。使用专为大型语言模型设计的GUI。使用各种超参数微调任何LLM。使用最新的微调技术,例如低秩适配 (LoRA) 和具有低内存占用的 8 位模型训练。使用强化学习 (RL) 微调模型(实验性)。使用高级评估指标来判断模型生成的答案。直观地跟踪和比较模型性能。
-
stochasticai/xTuring 轻松构建、定制和控制您自己的 LLM。提供快速、高效和简单的LLM微调,如LLaMA,GPT-J,Galactica等。通过提供一个易于使用的界面来微调LLM到您自己的数据和应用程序,xTuring使构建,自定义和控制LLM变得简单。整个过程可以在您的计算机内部或私有云中完成,确保数据隐私和安全。
-
punica-ai/punica 将多个 LoRA 微调 LLM 作为一个整体提供服务。Punica 支持运行多个 LoRA 微调模型,但代价是运行一个模型。通过分段收集矩阵向量乘法 (SGMV)的 LoRA 是高效的,并保留了强大的批处理效果.
-
Instruction-Tuning-with-GPT-4/GPT-4-LLM 共享 GPT-4 生成的数据,用于构建具有监督学习和强化学习的指令遵循 LLM。存储库包含:英语教学 - 遵循数据由 GPT-4 使用 Alpaca 提示进行微调 LLM。由 GPT-4 使用由 ChatGPT 从羊驼翻译的中文提示生成的中文指令跟踪数据。按 GPT-4 排名以训练奖励模型的比较数据。关于非自然指令的答案 来自 GPT-4 的数据,用于大规模量化 GPT-4 和指令调整模型之间的差距。
-
lxe/simple-llm-finetuner 初学者友好的界面,旨在通过商用NVIDIA GPU上的PEFT库,使用LoRA方法微调各种语言模型。使用较小的数据集和 256 的样本长度,您甚至可以在常规的 Colab Tesla T4 实例上运行它。
-
Jittor/JittorLLMs 计图大模型推理库,具有高性能、配置要求低、中文支持好、可移植等特点。成本低:相比同类框架,本库可大幅降低硬件配置要求(减少80%),没有显卡,2G内存就能跑大模型;支持广:目前支持了4种大模型:ChatGLM大模型、鹏程盘古大模型、BlinkDL的ChatRWKV、国外Meta的LLaMA大模型等;可移植:用户不需要修改任何代码,只需要安装Jittor版torch(JTorch);速度快:大模型加载速度慢,Jittor框架通过零拷贝技术,大模型加载开销降低40%,同时,通过元算子自动编译优化,计算性能相比同类框架提升20%以上。
-
RUCAIBox/LLMSurvey 与大型语言模型相关的论文和资源集合。
-
Lunabot 在任何网页为你服务的AI助理,通过快捷指令释放AI工作潜力,无需KEY和ChatGPT账号
-
jerryjliu/llama_index 您的 LLM 应用程序的数据框架。高级 API 允许初学者使用 LlamaIndex 在 5 行代码中摄取和查询他们的数据。我们的低级 API 允许高级用户自定义和扩展任何模块(数据连接器、索引、检索器、查询引擎、重新排名模块)以满足他们的需求。
-
amazon-science/mm-cot 语言模型中的多模式思维链推理。包括两个训练阶段:(i) 基本原理生成和 (ii) 答案推理。这两个阶段共享相同的模型架构,但输入和输出不同。
-
LC1332/Luotuo-Silk-Road 中文大语言模型的数据。对话与指令数据集:Luotuo-Chinese-Alpaca 骆驼-中国-羊驼、Chinese-Dolly 中国多莉、Chinese-WizardLM 中国巫师LM、阅读理解数据 Chinese-CoQA 、Luotuo-QA-B、图文跨模态数据 Chinese-MMC4-130k 中文-MMC4-130k、Chinese-Coco-Captioning 中文-可可-字幕、Embedding蒸馏数据 CNewSum-Embedding
-
logspace-ai/langflow LangChain(大语言模型链式开发工具,强大的框架,可以简化构建高级语言模型应用程序的过程。) 的 UI,采用反应流设计,提供一种轻松的方式来实验和原型流。
-
liaokongVFX/LangChain-Chinese-Getting-Started-Guide LangChain 的中文入门教程
-
YeungNLP/firefly-train-1.1M 收集了23个常见的中文数据集,对于每个任务,由人工书写若干种指令模板,保证数据的高质量与丰富度,数据量为115万 。
-
togethercomputer/RedPajama-Data 包含用于准备大型数据集以训练大型语言模型的代码。重现LLaMA训练数据集的开源配方。Commoncrawl、C4、GitHub、Books、ArXiv、Wikipedia、StackExchange。合计1.2万亿令牌
-
Voine/ChatWaifu_Mobile 移动版二次元 AI 老婆聊天器 语言大模型来自 GhatGPT\语音推理为客户端本地 VITS - ncnn\图形渲染基于 Native Live2D\语音输入识别为客户端本地 Sherpa - ncnn
-
yizhongw/self-instruct 将预训练的语言模型与自身生成的指令数据对齐。自我指导是一个框架,可帮助语言模型提高其遵循自然语言指令的能力。它通过使用模型自己的代数来创建大量教学数据来实现此目的。通过自导,可以提高语言模型的指令遵循功能,而无需依赖大量的手动注释。自指令过程是一种迭代引导算法,它从一组手动编写的指令种子开始,并使用它们来提示语言模型生成新指令和相应的输入输出实例。然后对这些世代进行过滤以删除低质量或类似的代数,并将生成的数据添加回任务池。此过程可以重复多次,从而产生大量教学数据,可用于微调语言模型以更有效地遵循说明。
-
Timothyxxx/Chain-of-ThoughtsPapers 大型语言模型中的思维链促使引出推理。思想链论文集合
-
zilliztech/GPTCache LLM 的语义缓存。 与 LangChain 和 llama_index 完全集成。
-
pashpashpash/vault-ai 使用 OP Stack(OpenAI + Pinecone Vector Database)为 ChatGPT 提供长期记忆。使用简单的 React 前端上传您自己的自定义知识库文件(PDF、txt、epub 等)。
-
YiVal/YiVal 一个开源的 GenAI-Ops 工具,用于使用可自定义的数据集、评估方法和改进策略来调整和评估提示、配置和模型参数。
-
jerry1993-tech/Cornucopia-LLaMA-Fin-Chinese 聚宝盆(Cornucopia): 基于中文金融知识的LLaMA微调模型;涉及SFT、RLHF、GPU训练部署等
-
THUDM/WebGLM 迈向具有人类偏好的高效网络增强问答系统。WebGLM希望使用100亿参数的GLM,提供高效且具有成本效益的Web增强问答系统。它旨在通过将 Web 搜索和检索功能集成到预先训练的语言模型中来改进实际应用程序部署。
-
FlowiseAI/Flowise 拖放UI以构建自定义LLM流程
-
xcanwin/KeepChatGPT ChatGPT的畅聊与增强插件。开源免费。不仅能解决所有报错不再刷新,还有保持活跃、取消审计、克隆对话、净化首页、展示大屏、展示全屏、言无不尽、拦截跟踪、日新月异等多个高级功能。让我们的AI体验无比顺畅、丝滑、高效、简洁。
-
ShishirPatil/gorilla LLM的API商店 。使 LLM 能够通过调用 API 来使用工具。给定一个自然语言查询,Gorilla 会提出语义和语法上正确的 API 来调用。通过Gorilla,我们是第一个演示如何使用LLM准确调用1,600+(并且不断增长的)API调用,同时减少幻觉的人。
-
microsoft/guidance 指南使你能够比传统的提示或链接更有效、更高效地控制新式语言模型。指导程序允许您将生成、提示和逻辑控制交错到单个连续流中,以匹配语言模型实际处理文本的方式。简单的输出结构,如思维链及其许多变体(例如,ART,Auto-CoT等)已被证明可以提高LLM的性能。像 GPT-4 这样更强大的 LLM 的出现允许更丰富的结构,而 guidance 使该结构更容易、更便宜。
-
fuergaosi233/wechat-chatgpt 通过微信在微信上使用ChatGPT
-
steven-tey/novel Notion风格的所见即所得编辑器,具有 AI 驱动的自动完成功能。
-
h2oai/h2ogpt 私人问答和文档+图像摘要或与本地GPT聊天,100%私人,Apache 2.0。支持 LLaMa2、llama.cpp等。
-
chat2db/Chat2DB 一个智能且通用的通用SQL客户端和数据库报告工具,集成了ChatGPT功能。能够将自然语言转换为SQL。还可以将SQL转换为自然语言,并为SQL提供优化建议,从而大大提高开发人员的效率。
-
Instruction-Tuning-with-GPT-4/GPT-4-LLM 旨在共享 GPT-4 生成的数据,用于构建具有监督学习和强化学习的指令遵循 LLM。
-
akoksal/LongForm 使用语料库提取生成长文本的指令调优数据集和模型。通过利用英语语料库示例和增强指令创建的。从现有的语料库(如C4和维基百科)中选择一组多样化的人类编写的文档,并通过LLM为给定的文档生成指令。然后,用结构化的语料库示例(如Stack Exchange和WikiHow)和任务示例(如问答,电子邮件写作,语法错误更正,故事/诗歌生成和文本摘要)来扩展这些示例。
-
BelleGroup/train_3.5M_CN 约350万条由BELLE项目生成的中文指令数据。
-
BelleGroup/train_2M_CN 约200万条由BELLE项目生成的中文指令数据。
-
BelleGroup/train_1M_CN 约100万条由BELLE项目生成的中文指令数据。
-
BelleGroup/train_0.5M_CN 约50万条由BELLE项目生成的中文指令数据。
-
BelleGroup/generated_chat_0.4M 包含约40万条由BELLE项目生成的个性化角色对话数据,包含角色介绍。
-
BelleGroup/school_math_0.25M 包含约25万条由BELLE项目生成的中文数学题数据,包含解题过程。
-
juletxara/mgsm 多语言小学数学基准(MGSM)是小学数学问题的基准。8.5K高质量语言多样化的小学数学单词问题的数据集。创建该数据集是为了支持对需要多步骤推理的基本数学问题进行问答的任务。
-
XueFuzhao/InstructionWild InstructWild v2,其中包括超过 110K 个基于用户的高质量指令。我们没有使用自导来生成任何指令。我们还用指令类型和特殊标签标记这些指令的子集。
-
sunzeyeah/chinese_chatgpt_corpus 该存储库收集了用于监督微调(SFT)和来自人类反馈的强化学习(RLHF)的中文语料库。
-
PlexPt/chatgpt-corpus ChatGPT 中文语料库 对话语料 小说语料 客服语料 用于训练大模型
-
zxbsmk/webnovel_cn 从12560本网文提取的约21.7M条可用于训练小说生成的中文指令数据
-
QingyiSi/Alpaca-CoT 该存储库将不断收集各种指令调优数据集。并且我们将不同的数据集标准化为相同的格式,可以直接通过羊驼模型的代码加载。
-
datasets/BAAI/COIG 中文开放教学通才(COIG)项目来维护一套无害、有用和多样化的中文教学语料库。BAAI-Zlab/COIG
-
CLUEbenchmark/pCLUE 基于提示的大规模预训练数据集,用于多任务学习和零样本学习,120万训练数据。
-
X-PLUG/CValues 面向中文大模型价值观的评估与对齐研究。邀请中国知名专家学者,每位专家提出100个诱导偏见、歧视回答的刁钻问题,并对大模型的回答进行标注。项目吸引了环境科学、心理学、法理学等多个领域专家参与,并召开了专家研讨会,会后发布业内首个大语言模型治理开源中文数据集100PoisonMpts,包含专家提出的问题、专家自己撰写或认可的答案。
-
DA-southampton/RedGPT 提出一种自动生成事实型对话的方法,并公开我们的部分数据。我们公开的第一批数据(RedGPT-Dataset-V1-CN)共包含5万条中文多轮对话。目标是自动生成海量、高质量、事实型多轮对话,用于训练GPT,提升GPT的事实正确性。我们采用如下方法自动生成数据。1. 采集优质的事实型文档,我们称之为reference,其来源可以是电子书、维基百科、优质垂类网站。文档需要涵盖尽量多的主题,包括但不限于人物、机构、科技、医疗、法律、人文、经济、家居、汽车、出行、美食、时尚、体育、教育、宠物。2. 利用已有的LLM(例如付费API)生成多轮对话。输入是一篇reference,prompt类似“请根据这篇文章生成多轮问答”。API会输出一段多轮对话(dialogue)。这种方法将原本只适合预训练的文档转化成可供微调的多轮对话。3. 第2步收集到大量的reference-dialogue二元组。将reference和prompt作为输入,dialogue作为目标,微调一个GPT模型(可以基于LLaMA或BLOOM的预训练基座)。我们将微调出的模型称作Reference-Enlightened-Dialogue GPT,缩写RedGPT。有了RedGPT,即可基于reference生成多轮对话,获得海量的数据。
-
X-PLUG/ChatPLUG 旨在建立和共享一个中文开放域对话系统。在推理过程中集成外部知识是灵活的,这是一个可选的输入。您可以利用 获取最新信息或使用本地知识库获取 search engine 领域知识。通过设置 bot profiles 或使用 role-paly instructions 来自定义对话和字符的样式很容易。它通过多轮对话展示了其在开放领域对话方面的熟练程度,同时也在广泛的 NLP 任务上表现出色 multi-task abilities 。
-
chathub-dev/chathub 多合一的聊天机器人客户端。在一个应用程序中使用不同的聊天机器人,目前支持ChatGPT,新的Bing Chat,Google Bard,Claude和10 +开源模型,包括Alpaca,Vicuna,ChatGLM等。
-
lencx/nofwl 一个跨平台的桌面应用,它可以让你和一个基于 GPT-3 的聊天机器人进行有趣的对话。
-
songquanpeng/one-api OpenAI 接口管理 & 分发系统,支持 Azure、Anthropic Claude、Google PaLM 2、智谱 ChatGLM、百度文心一言、讯飞星火认知、阿里通义千问以及 360 智脑,可用于二次分发管理 key,仅单可执行文件,已打包好 Docker 镜像,一键部署,开箱即用.
-
labring/FastGPT 基于 LLM 构建的基于知识的 QA 系统,提供开箱即用的数据处理和模型调用功能,允许通过 Flow 可视化进行工作流编排
-
go-skynet/LocalAI 自托管、社区驱动、本地 OpenAI 兼容 API。在消费级硬件上运行LLM的OpenAI的直接替代品。免费的开源OpenAI替代品。LocalAI是一个运行ggml兼容模型的API:llama,gpt4all,rwkv,whisper,vicuna,koala,gpt4all-j,cerebras,falcon,dolly,starcoder和许多其他
-
getumbrel/llama-gpt 一个自托管的、离线的、类似 ChatGPT 的聊天机器人。由骆驼 2 提供动力。100%私密,没有数据离开您的设备。新功能:代码支持
-
sunner/ChatALL 同时与ChatGPT,Bing Chat,Bard,Alpaca,Vicuna,Claude,ChatGLM,MOSS,讯飞星火,文心一言等聊天,发现最佳答案
-
li-plus/chatglm.cpp C++实现ChatGLM-6B和ChatGLM2-6B,以便在MacBook上进行实时聊天。
-
ztxz16/fastllm 纯c++的全平台llm加速库,支持python调用,chatglm-6B级模型单卡可达10000+token / s,支持glm, llama, moss基座,手机端流畅运行
-
gventuri/pandas-ai Python库,它将生成人工智能功能集成到Pandas中,使数据帧成为对话式的。为流行的数据分析和操作工具pandas添加了生成AI功能。
-
howl-anderson/unlocking-the-power-of-llms 使用 Prompts 和 Chains 让 ChatGPT 成为神奇的生产力工具
-
eugeneyan/open-llms 可用于商业用途的开放LLM列表。
-
Mooler0410/LLMsPracticalGuide LLM实用指南资源的精选列表。它基于我们的调查论文:在实践中利用LLM的力量:关于ChatGPT及其他的调查。该调查部分基于本博客的后半部分。我们还构建了现代大型语言模型(LLM)的进化树,以追踪近年来语言模型的发展,并重点介绍一些最著名的模型。
-
imaurer/awesome-decentralized-llm LLM资源的集合,可用于构建您可以“拥有”的产品或进行可重复的研究。
-
Open LLM Leaderboard 开放LLM排行榜旨在跟踪,排名和评估LLM和聊天机器人的发布。
-
EwingYangs/awesome-open-gpt GPT相关开源项目合集
-
botpress/botpress 由 OpenAI 提供支持的下一代聊天机器人和助手的终极平台。开始以闪电般的速度为您的项目或业务构建令人难以置信的助手。
-
dice2o/BingGPT 新必应AI聊天的桌面应用程序(Windows,macOS和Linux)
-
josStorer/chatGPTBox 将 ChatGPT 深度集成到您的浏览器中,您需要的一切都在这里
-
lss233/chatgpt-mirai-qq-bot 一键部署!真正的 AI 聊天机器人!支持ChatGPT、文心一言、讯飞星火、Bing、Bard、ChatGLM、POE,多账号,人设调教,虚拟女仆、图片渲染、语音发送 | 支持 QQ、Telegram、Discord、微信 等平台
-
promptslab/Promptify 使用 LLM 解决 NLP 问题,并使用 Promptify 轻松为流行的生成模型(如 GPT、PaLM 等)生成不同的 NLP 任务提示
-
enricoros/big-agi 由 GPT-4 及更高版本提供支持的个人 AI 应用程序,具有 AI 角色、AGI 功能、文本到图像、语音、响应流、代码突出显示和执行、PDF 导入、开发人员预设等等。使用Next.js,React,Joy。
-
jaymody/picoGPT NumPy实现的一个不必要的微小的GPT-2。40 行代码。
-
bentoml/OpenLLM 用于在生产中操作大型语言模型 (LLM) 的开放平台。轻松微调、服务、部署和监控任何 LLM。
-
karpathy/llama2.c 在一个纯 C 文件中推理Llama 2大型语言模型
-
geekan/MetaGPT 多代理框架:给定一行需求,返回 PRD、设计、任务、存储库。为 GPT 分配不同的角色,以形成用于复杂任务的协作软件实体。
-
ModelTC/lightllm 基于Python的LLM(大型语言模型)推理和服务框架,以其轻量级设计,易于扩展和高速性能而著称。LightLLM利用了许多备受推崇的开源实现的优势,包括但不限于FasterTransformer,TGI,vLLM和FlashAttention。
-
PanQiWei/AutoGPTQ 易于使用的LLM量化包,有用户友好的API,基于GPTQ算法。
-
princeton-nlp/tree-of-thought-llm 正式实现“思想之树:用大语言模型刻意解决问题”
-
thomas-yanxin/LangChain-ChatGLM-Webui 基于LangChain和ChatGLM-6B等系列LLM的针对本地知识库的自动问答
-
ssbuild/chatglm_finetuning Chatglm 6b微调和羊驼微调
-
liucongg/ChatGLM-Finetuning 基于ChatGLM-6B、ChatGLM2-6B模型,进行下游具体任务微调,涉及Freeze、Lora、P-tuning、全参微调等
-
HqWu-HITCS/Awesome-Chinese-LLM 整理开源的中文大语言模型,以规模较小、可私有化部署、训练成本较低的模型为主,包括底座模型,垂直领域微调及应用,数据集与教程等。
-
OpenGVLab/Ask-Anything [视频聊天GPT]聊天GPT与视频理解!还有更多支持的LM,如miniGPT4,StableLM和MOSS。
-
OpenMotionLab/MotionGPT 一个统一且用户友好的运动语言模型,用于学习两种模态的语义耦合,并在多个运动任务上生成高质量的运动和文本描述。
-
Hannibal046/Awesome-LLM 大型语言模型(LLM)已经席卷了NLP社区AI社区的整个世界。以下是关于大型语言模型的精选论文列表,尤其是与 ChatGPT 相关的论文。它还包含LLM培训框架,部署LLM的工具,有关LLM的课程和教程以及所有公开可用的LLM检查点和API。
-
DSXiangLi/DecryptPrompt 总结Prompt&LLM论文,开源数据&模型,AIGC应用
-
GoogleCloudPlatform/generative-ai 包含笔记本、代码示例、示例应用和其他资源,用于演示如何使用 Google Cloud 上的生成式 AI 使用、开发和管理生成式 AI 工作流程,这些工作流由 Vertex AI 和生成式 AI App Builder 提供支持。
-
catqaq/ChatPiXiu 开源chatgpt替代方案/实现的调查,复制和领域/任务适应。
-
DAMO-NLP-SG/LLM-Zoo 本项目收集了以下各种开源和闭源LLM的信息
-
wgwang/LLMs-In-China 旨在记录中国大模型发展情况
-
OpenBMB/BMList 希望使用此列表来显示大模型的最新趋势。
-
nichtdax/awesome-totally-open-chatgpt ChatGPT 的完全开放的替代品列表
-
ikaijua/Awesome-AITools 收藏AI相关的实用工具,大型语言模型
-
datawhalechina/prompt-engineering-for-developers 面向开发者的 LLM 入门教程,吴恩达大模型系列课程中文版
-
datawhalechina/hugging-llm 拥抱LLM,拥抱未来。介绍 ChatGPT 原理、使用和应用,降低使用门槛,让更多感兴趣的非NLP或算法专业人士能够无障碍使用LLM创造价值。
-
promptingguide.ai/zh 提示工程(Prompt Engineering)是一门较新的学科,关注提示词开发和优化,帮助用户将大语言模型(Large Language Model, LLM)用于各场景和研究领域。 掌握了提示工程相关技能将有助于用户更好地了解大型语言模型的能力和局限性。基于对大语言模型的浓厚兴趣,我们编写了这份全新的提示工程指南,介绍了大语言模型相关的论文研究、学习指南、模型、讲座、参考资料、大语言模型能力以及与其他与提示工程相关的工具。
-
phodal/aigc 《构筑大语言模型应用:应用开发与架构设计》一本关于 LLM 在真实世界应用的开源电子书,介绍了大语言模型的基础知识和应用,以及如何构建自己的模型。其中包括Prompt的编写、开发和管理,探索最好的大语言模型能带来什么,以及LLM应用开发的模式和架构设计。
-
prompt-engineering/understand-prompt 理解 Prompt:基于编程、绘画、写作的 AI 探索与总结
-
brexhq/prompt-engineering 使用大型语言模型(如 OpenAI 的 GPT-4)的提示和技巧。
-
mshumer/gpt-prompt-engineer 只需输入任务的描述和一些测试用例,系统就会生成、测试和排名大量提示,以找到性能最佳的提示。
-
km1994/LLMsNineStoryDemonTower 分享 LLMs在自然语言处理(ChatGLM、Chinese-LLaMA-Alpaca、小羊驼 Vicuna、LLaMA、GPT4ALL等)、信息检索(langchain)、语言合成、语言识别、多模态等领域(Stable Diffusion、MiniGPT-4、VisualGLM-6B、Ziya-Visual等)等 实战与经验。
-
iguodongiot/llm-action 本项目旨在分享大模型相关技术原理以及实战经验。
-
hiyouga/LLaMA-Efficient-Tuning 易于使用的LLM微调框架(LLaMA-2,BLOOM,Falcon,Baichuan,Qwen,ChatGLM2)
-
FlagOpen/FlagEval AI大型基础模型的评估工具包。我们的目标是探索和整合科学、公平、开放的基础模型评估基准、方法和工具。FlagEval将在未来支持在不同模态(如NLP,音频,CV和多模态)中/跨基础模型的多维评估(如准确性,效率,鲁棒性等)。我们希望通过对基础模型的评估,加深对基础模型的理解,促进相关的技术创新和产业化应用。
-
InternLM/opencompass LLM评估平台,支持超过50 +数据集的各种模型(LLaMA,LLaMa2,ChatGLM2,ChatGPT,Claude等)。
-
OpenLMLab/GAOKAO-Bench 一个评估框架,利用高考问题作为数据集来评估大型语言模型。
-
mikegu721/xiezhibenchmark 獬豸是语言模型(LMs)的综合评估套件。它由249587道多项选择题组成,涵盖 516 个不同的学科和四个难度级别。希望可以帮助开发人员跟踪进度并分析其LM的重要优势/缺点。
-
haonan-li/CMMLU 综合性的中文评估基准,专门用于评估语言模型在中文语境下的知识和推理能力。CMMLU涵盖了从基础学科到高级专业水平的67个主题。它包括:需要计算和推理的自然科学,需要知识的人文科学和社会科学,以及需要生活常识的中国驾驶规则等。此外,CMMLU中的许多任务具有中国特定的答案,可能在其他地区或语言中并不普遍适用。因此是一个完全中国化的中文测试基准。
-
CLUEbenchmark/SuperCLUElyb SuperCLUE琅琊榜:中文通用大模型匿名对战评价基准
-
Felixgithub2017/MMCU 本评测只是对大模型语义理解能力的测试,并不能代表模型的全面能力评测,评测结果仅供参考。整个评测方式、评测数据集、评测记录都公开,确保可以复现。
-
Felixgithub2017/CG-Eval 此项测试中,受测的中文大语言模型需要对科技与工程、人文与社会科学、数学计算、医师资格考试、司法考试、注册会计师考试这六个大科目类别下的55个子科目的1.1W不同类型问题做出准确且相关的回答。 我们设计了一套复合的打分系统,对于非计算题,每一道名词解释题和简答题都有标准参考答案,采用多个标准打分然后加权求和。对于计算题目,我们会提取最终计算结果和解题过程,然后综合打分。
-
GAIR-NLP/factool 工具增强框架,用于检测由大型语言模型(例如ChatGPT)生成的文本的事实错误。Factool现在支持4个任务:基于知识的QA:Factool检测基于知识的QA中的事实错误。代码生成:Factool检测代码生成中的执行错误。数学推理:Factool检测数学推理中的计算错误。科学文献综述:Factool检测幻觉的科学文献。
-
jeinlee1991/chinese-llm-benchmark 中文大模型能力评测榜单:覆盖文心一言、chatgpt、通义千问、讯飞星火、belle / chatglm 等开源大模型,多维度能力评测。不仅提供能力评分排行榜,也提供所有模型的原始输出结果!
-
CLUEbenchmark/CLUE 中文语言理解测评基准 中文理解评估基准:数据集、基线、预训练模型、语料库和排行榜
-
CLUEbenchmark/SuperCLUE 中文通用大模型综合性基准。superclueai
-
hkust-nlp/ceval 一个全面的中文基础模型评估套件。它由 13948 道多项选择题组成,涵盖 52 个不同的学科和四个难度级别
-
LaVi-Lab/CLEVA 由香港中文大学LaVi实验室开发的中文模型评估平台,主要功能包括:综合中文基准,包含31个任务(11个应用评估+20个能力评估任务),共37万个中文测试样本(33.98%是新采集的,缓解数据污染问题);标准化的基于提示的评估方法,包含对所有数据的统一预处理,并使用一套一致的中文提示模板进行评估。值得信赖的排行榜,因为使用大量新数据来最大限度地减少数据污染并定期组织评估。
-
EleutherAI/lm-evaluation-harness 自回归语言模型的少样本评估框架。
-
declare-lab/instruct-eval 用于定量评估指令调优模型的代码。Flan-T5和Alpaca等指令调整模型代表了一个令人兴奋的方向,以更低的成本接近ChatGPT等大型语言模型(LLM)的性能。但是,定性比较不同模型的性能具有挑战性。为了评估模型在各种看不见和具有挑战性的任务中的泛化程度,我们可以使用MMLU和BBH等学术基准。与评估工具和 HELM 等现有库相比,此存储库可以简单方便地评估多个模型。支持HuggingFace Transformers 的大多数模型。
-
tjunlp-lab/M3KE 面向汉语大语言模型的大规模多层次多学科知识评估基准
-
thu-coai/Safety-Prompts 中文安全prompts,评估和提升大模型的安全性。
-
linexjlin/GPTs 此存储库收集泄露的 各种 GPT 提示词。
-
RUCAIBox/HaluEval 大型语言模型的大规模幻觉评估基准。包括 5,000 个带有 ChatGPT 响应的一般用户查询和来自三个任务的 30,000 个特定于任务的示例,即问答、基于知识的对话和文本摘要。
-
noahshinn024/reflexion 反思:语言代理与语言强化学习,提出了Reflexion框架,使用语言反馈信号(verbalre inforcement)来帮助agent从先前的失败经验中学习。具体地,Reflexion将传统梯度更新中的参数信号转变为添加在大模型上下文中的语言总结,使得agent在下一个episode中能参考上次执行失败的失败经验,从而提高agent的执行效果。这个过程和人类反思(reflexion)过程十分相似。
-
Azure-Samples/azure-search-openai-demo 在 Azure 中运行的检索增强生成模式的示例应用,使用 Azure 认知搜索进行检索,并使用 Azure OpenAI 大型语言模型为 ChatGPT 风格和问答体验提供支持。
-
sindresorhus/awesome-chatgpt 基于ChatGPT 开发的应用的列表 — 由 OpenAI 开发的人工智能聊天机器人
-
smol-ai/GodMode AI聊天浏览器:快速,完整的网络应用程序访问ChatGPT / Claude / Bard / Bing / Llama2
-
llm-workflow-engine/llm-workflow-engine 适用于 LLM 的 命令行工具 和工作流管理器(核心包)
-
Yue-Yang/ChatGPT-Siri Siri的快捷方式使用ChatGPT API gpt-3.5-turbo和gpt-4模型,支持连续对话,配置API密钥并保存聊天记录。由 ChatGPT API gpt-3.5-turbo & gpt-4 模型驱动的智能 Siri,支持连续对话,配置API key,配置系统prompt,保存聊天记录。
-
skydoves/chatgpt-android 在 Android 上使用 Stream Chat SDK for Compose 演示 OpenAI 的 ChatGPT。
-
Licoy/ChatGPT-Midjourney 一键拥有自己的 ChatGPT+Midjourney 网页服务
-
JimmyLv/BibiGPT-v1 音视频内容 AI 一键总结 & 对话:哔哩哔哩丨YouTube丨推特丨小红书丨抖音丨快手丨百度网盘丨阿里云盘丨网页丨本地文件等
-
0xk1h0/ChatGPT_DAN 越狱提示,巧妙的解决方法,使我们能够充分利用 ChatGPT 的全部潜力。
-
waylaidwanderer/node-chatgpt-api ChatGPT 和 Bing AI 的客户端实现。可用作node.js模块、REST API 服务器和 CLI 应用程序。
-
khoj-ai/khoj 第二个大脑的AI副驾驶。在线或离线搜索和聊天您的个人知识库
-
yihong0618/xiaogpt 使用小米AI扬声器播放ChatGPT和其他LLM
-
openai/plugins-quickstart 在 5 分钟内启动并运行 ChatGPT 插件!
-
futantan/OpenGpt 在几秒钟内创建您自己的聊天GPT应用程序。
-
wzpan/wukong-robot 一个简单、灵活、优雅的中文语音对话机器人/智能音箱项目,支持ChatGPT多轮对话能力,还可能是首个支持脑机交互的开源智能音箱项目。
-
openai-translator/bob-plugin-openai-translator 基于 ChatGPT API 的文本翻译、文本润色、语法纠错 Bob 插件,让我们一起迎接不需要巴别塔的新时代
-
ConnectAI-E/Feishu-OpenAI 飞书 ×(GPT-4 + DALL·E + Whisper)= 飞一般的工作体验,语音对话、角色扮演、多话题讨论、图片创作、表格分析、文档导出
-
xiangsx/gpt4free-ts 提供免费的OpenAI GPT-4 API!这是 xtekky/gpt4free 版本的复制项目
-
sashabaranov/go-openai 为 OpenAI API 提供了非官方的 Go 客户端
-
ztjhz/BetterChatGPT OpenAI的ChatGPT(网站+ Windows + MacOS + Linux)的惊人UI。Better ChatGPT 是任何想要体验对话式 AI 无限力量的人的终极目的地。没有限制,完全免费使用,充分利用OpenAI的ChatGPT API的全部潜力,为您提供无与伦比的聊天机器人体验。
-
ramonvc/freegpt-webui GPT 3.5/4 与聊天网页用户界面。无需 API 密钥。
-
vercel/ai 使用 React、Svelte、Vue 和 Solid 构建 AI 驱动的应用程序
-
reorx/awesome-chatgpt-api 精选的应用程序和工具列表,这些应用程序和工具不仅使用新的 ChatGPT API,还允许用户配置自己的 API 密钥,从而免费和按需使用自己的配额。
-
embedchain/embedchain LLM 的数据平台 - 加载、索引、检索和同步任何非结构化数据,可以在任何数据集上轻松创建LLM驱动的机器人。支持的数据类型:视频、PDF、网页、网站地图、文档等
-
shibing624/textgen 文本生成模型的实现,包括LLaMA,BLOOM,GPT2,BART,T5,SongNet等。文本生成模型,实现了包括LLaMA,ChatGLM,BLOOM,GPT2,Seq2Seq,BART,T5,UDA等模型的训练和预测,开箱即用。
-
wangrui6/Zhihu-KOL 用于训练开放助手的知乎数据
-
JosephusCheung/GuanacoDataset Guanaco模型的数据集旨在增强多语言能力并解决各种语言任务。它以 Alpaca 模型中的 175 个任务为基础,提供不同语言的种子任务重写,并添加专门为英语语法分析、自然语言理解、跨语言自我意识和显式内容识别而设计的新任务。该数据集总共包含 534,530 个条目,以 6K 美元的低成本生成。
-
shawwn/llama-dl 高速下载 LLaMA,Facebook 的 65B 参数 GPT 模型
-
mit-han-lab/streaming-llm 具有注意力接收器的高效流语言模型,可以无限长度地输入LLM进行推理,而不会牺牲效率和性能。在需要长时间交互的多轮对话等流应用程序中部署大型语言模型 (LLM),但存在两个主要挑战。首先,在解码阶段,缓存先前令牌的键和值状态 (KV) 会消耗大量内存。其次,流行的LLM不能推广到比训练序列长度更长的文本。窗口注意,其中仅缓存最新的 KV,是一种自然的方法---但我们表明,当文本长度超过缓存大小时,它会失败。我们观察到一个有趣的现象,即注意力下沉,即保留初始词元的 KV 将在很大程度上恢复窗口注意力的性能。在本文中,我们首先证明了注意力下沉的出现是由于对初始令牌作为“接收器”的强烈注意力得分,即使它们在语义上并不重要。基于上述分析,我们引入了StreamingLLM,这是一个高效的框架,使使用有限长度注意力窗口训练的LLM能够推广到无限序列长度,而无需任何微调。StreamingLLM可以使Llama-2,MPT,Falcon和Pythia使用多达400万个词元或更多词元执行稳定高效的语言建模。此外,发现在预训练期间添加占位符令牌作为专用的注意力接收器可以进一步改进流式处理部署。在流设置中,StreamingLLM 的性能优于滑动窗口重新计算基线高达 22.2 倍的加速。
-
OpenBMB/AgentVerse 提供了一个灵活的框架,简化了为大型语言模型 (LLM) 构建自定义多代理环境的过程。
-
hahnyuan/PB-LLM 提出了部分二值化LLM(PB-LLM)的方法,可以实现极端低比特量化,同时保持量化LLM的语言推理能力。 具体来说,我们的探索首先揭示了现有二值化算法朴素应用的无效性,并强调了显著权重在实现低比特量化中的重要作用。因此,PB-LLM在二值化过程中过滤了一小部分突出权重,将它们分配给更高位的存储,即部分二值化。PB-LLM通过从训练后量化(PTQ)和量化感知训练(QAT)的角度进行分析,扩展以恢复量化LMM的能力。在PTQ下,结合GPTQ的概念,我们重构了以Hessian矩阵为指导的二值化权重矩阵,并成功恢复了PB-LLM在低位的推理能力。在QAT下,我们在训练过程中冻结了显著权重,探索了对最小化量化误差至关重要的最优比例因子的推导,并提出了一种基于该派生的残差二值化权重缩放策略的缩放机制。这些探索和开发的方法大大有助于恢复低比特量化LLM的性能,并在LLM的网络二值化领域取得实质性进展。
-
openai/openai-python OpenAI API 的官方 Python 库。提供了从用 Python 语言编写的应用程序对 OpenAI API 的便捷访问。它包括一组预定义的API资源类,这些类从API响应动态初始化自身,使其与各种版本的OpenAI API兼容。
-
Lightning-AI/lit-llama 基于nanoGPT的LLaMA语言模型的实现。支持flash注意力, Int8 和 GPTQ 4 位量化, LoRA 和 LLaMA 适配器微调, 预训练.Apache 2.0 许可。
-
NVIDIA/TensorRT-LLM TensorRT-LLM 为用户提供了一个易于使用的 Python API,用于定义大型语言模型 (LLM) 并构建包含最先进优化的 TensorRT 引擎,以便在 NVIDIA GPU 上高效执行推理。TensorRT-LLM还包含用于创建Python的组件,以及执行这些TensorRT引擎的C++运行时。
-
HuiMi24/chatppt 由chatgpt提供支持,它可以帮助您生成PPT /幻灯片。它支持英文和中文输出
-
zhile-io/pandora 潘多拉实现了网页版 ChatGPT 的主要操作。后端优化,绕过 Cloudflare,速度喜人。
-
cpacker/MemGPT 创建具有自我编辑记忆的永久聊天机器人!Memory-GPT是一个系统,它智能地管理LLM中的不同内存层,以便在LLM的有限上下文窗口中有效地提供扩展上下文。例如,MemGPT 知道何时将关键信息推送到矢量数据库,以及何时在聊天中检索它,从而实现永久对话。
-
mleoking/PromptAppGPT 一个基于提示的低代码快速应用开发框架。包含低代码提示开发、GPT 文本生成、DALLE 图像生成、在线提示编辑器+编译器+运行器、自动用户界面生成、支持插件扩展等功能。PromptAppGPT旨在实现基于GPT的自然语言应用程序开发。
-
EmbraceAGI/LifeReloaded 由GPT-4的“高级数据分析”功能提供支持的生活模拟游戏,为您提供第二次生活机会。由GPT4的Advanced Data Analysis功能驱动的人生重来模拟器,给您人生第二春。
-
srush/llama2.rs CPU 上 Llama2 推理的 Rust 实现
-
OpenLMLab/LOMO 提出了一个新的优化器,LOw-Memory Optimization,它将梯度计算和参数更新融合在一步中,以减少内存使用。 我们的方法使得在单张 RTX 3090 上可以进行 7B 模型的全参数微调,或者在单个 8×RTX 3090 的机器上可以进行 65B 模型的全参数微调(RTX 3090 的内存为 24GB)。
-
spcl/graph-of-thoughts 思想图Graph of Thoughts (GoT):用大型语言模型解决复杂问题的官方实现。此框架使您能够通过将复杂问题建模为操作图 (GoO) 来解决复杂问题,该操作图以大型语言模型 (LLM) 作为引擎自动执行。该框架设计为灵活且可扩展,不仅允许您使用新的 GoT 方法解决问题,还可以实现类似于以前方法(如 CoT 或 ToT)的 GoO。
-
TheoKanning/openai-java 用于使用 OpenAI 的 GPT API 的 Java 库。支持 GPT-3、ChatGPT 和 GPT-4。
-
langgenius/dify 开源助手 API 和 GPT 的替代方案。Dify.AI 是一个 LLM 应用程序开发平台。它集成了后端即服务和 LLMOps 的概念,涵盖了构建生成式 AI 原生应用程序所需的核心技术堆栈,包括内置的 RAG 引擎。其直观的界面结合了 AI 工作流程、RAG 管道、代理功能、模型管理、可观测性功能等,让您快速从原型到生产。以下是核心功能列表:1. 工作流:利用以下所有功能及其他功能,在可视化画布上构建和测试强大的 AI 工作流。2. 全面的模型支持:与LLMs来自数十家推理提供商和自托管解决方案的数百个专有/开源无缝集成,涵盖 GPT、Mistral、Llama3 和任何兼容 OpenAI API 的模型。可以在此处找到受支持的模型提供程序的完整列表。3. 提示 IDE:直观的界面,用于制作提示、比较模型性能以及向基于聊天的应用程序添加文本转语音等附加功能。4. RAG Pipeline:广泛的 RAG 功能,涵盖从文档摄取到检索的所有内容,开箱即用地支持从 PDF、PPT 和其他常见文档格式中提取文本。5. 代理能力:您可以基于LLM函数调用或 ReAct 定义代理,并为代理添加预建或自定义工具。Dify 为 AI 代理提供 50+ 内置工具,如 Google Search、DELL·E, Stable Diffusion 和 WolframAlpha.6. LLMOps:监控和分析应用程序日志和性能随时间的变化。您可以根据生产数据和注释不断改进提示、数据集和模型。7. 后端即服务:Dify 的所有产品都带有相应的 API,因此您可以毫不费力地将 Dify 集成到您自己的业务逻辑中。
-
mckaywrigley/chatbot-ui 一个开源的 ChatGPT UI。支持很多大模型的 AI 聊天。使用了nextjs、Supabase。
-
oobabooga/text-generation-webui 用于大型语言模型的 Gradio Web UI。支持变压器,GPTQ,AWQ,EXL2,llama.cpp(GGUF),Llama模型。
-
pytorch-labs/gpt-fast 在 python 的 <1000 LOC 中简单高效地生成 pytorch-native transformer 文本。
-
rustformers/llm 用于处理大型语言模型的 Rust 库生态系统 - 它建立在用于机器学习的快速、高效的 GGML 库之上。
-
AprilNEA/ChatGPT-Admin-Web 在团队和组织内共享使用AI的一站式解决方案。
-
ParisNeo/lollms-webui LLM(大型语言模型)模型的中心。该项目旨在提供一个用户友好的界面,以访问和利用各种LLM模型来完成广泛的任务。
-
mit-han-lab/llm-awq AWQ:用于 LLM 压缩和加速的激活感知权重量化
-
vectorch-ai/ScaleLLM 高效的 LLM 推理解决方案,主要特点:高效率:在高性能 LLM 推理方面表现出色,利用最先进的技术和技术,如 Flash Attention、Paged Attention、Continuous Batching 等。张量并行性:利用张量并行性实现高效的模型执行。兼容 OpenAI 的 API:与 OpenAI 兼容的高效 golang rest api 服务器。Huggingface 型号:与大多数流行的 HF 型号无缝集成,支持 safetensors。可定制:提供自定义灵活性以满足您的特定需求,并提供添加新模型的简单方法。生产就绪:ScaleLLM 在设计时考虑到了生产环境,配备了强大的系统监控和管理功能,以确保无缝的部署体验。
-
tjunlp-lab/Awesome-LLMs-Evaluation-Papers 评估大型语言模型:一项综合调查。将LLM的评估分为三大类:知识和能力评估、对齐评估和安全性评估。
-
microsoft/promptflow 构建高质量的 LLM 应用程序 - 从原型设计、测试到生产部署和监控。旨在简化基于 LLM 的 AI 应用程序的端到端开发周期,从构思、原型设计、测试、评估到生产部署和监控。它使快速工程变得更加容易,并使您能够构建具有生产质量的 LLM 应用程序。
-
WooooDyy/LLM-Agent-Paper-List 一项基于大型语言模型的代理的兴起和潜力的调查,由于大型语言模型 (LLM) 表现出的多功能和卓越的功能,它们被视为通用人工智能 (AGI) 的潜在希望的火花,为构建通用 AI 代理提供了希望。许多研究工作都利用 LLM 作为构建 AI 代理的基础,并取得了重大进展。
-
SillyTavern/SillyTavern 面向高级用户的 LLM 前端。本地安装界面,可让您与文本生成 AI (LLM) 交互,以与自定义角色进行聊天和角色扮演。
-
BerriAI/litellm 使用 OpenAI 格式调用所有 LLM API。使用 Bedrock、Azure、OpenAI、Cohere、Anthropic、Ollama、Sagemaker、HuggingFace、Replicate (100+ LLM)
-
mosaicml/llm-foundry 用于 MosaicML 基础模型的 LLM 训练代码,包含用于训练、微调、评估和部署 LLM 的代码,以便使用 Composer 和 MosaicML 平台进行推理。该代码库设计为易于使用、高效和灵活,旨在支持使用最新技术进行快速实验。
-
Mintplex-Labs/anything-llm 您的个人私人 ChatGPT。在一个非常干净的 UI 中支持无限的文档、线程以及并发用户和管理。
-
dataelement/bisheng 领先的开源大模型应用开发平台,赋能和加速大模型应用开发落地,帮助用户以最佳体验进入下一代应用开发模式。
-
kyrolabs/awesome-langchain 使用LangChain的工具和项目的精选列表。LangChain是一个了不起的框架,可以在短时间内完成LLM项目,并且生态系统正在快速发展。这里试图跟踪围绕LangChain的举措。
-
danny-avila/LibreChat 增强的 ChatGPT 克隆:具有 OpenAI、GPT-4 Vision、Bing、Anthropic、OpenRouter、Google Gemini、AI 模型切换、消息搜索、langchain、DALL-E-3、ChatGPT 插件、OpenAI 功能、安全多用户系统、预设、完全开源的自托管。更多功能正在开发中
-
run-llama/rags 一个 Streamlit 应用程序,可让您使用自然语言从数据源创建 RAG (Retrieval Augmented Generation,检索增强生成)管道。
-
stas00/ml-engineering 一个开放的方法集合,可帮助成功训练大型语言模型和多模态模型。这是一本适合LLM/VLM培训工程师和操作员的技术材料。也就是说,这里的内容包含大量脚本和复制粘贴命令,使您能够快速满足您的需求。
-
steven2358/awesome-generative-ai 现代生成式人工智能项目和服务的精选列表。生成式人工智能是一种通过使用在大量数据上训练的机器学习算法来创建图像、声音和文本等原创内容的技术。与其他形式的人工智能不同,它能够创建独特且以前看不见的输出,例如逼真的图像、数字艺术、音乐和写作。这些作品通常有自己独特的风格,甚至很难与人工创作的作品区分开来。生成式人工智能在艺术、娱乐、营销、学术界和计算机科学等领域有着广泛的应用。
-
lobehub/lobe-chat 开源的高性能聊天机器人框架,支持语音合成、多模态和可扩展的函数调用插件系统。支持一键免费部署您的私人 ChatGPT/LLM Web 应用程序。
-
iryna-kondr/scikit-llm 将 LLM 无缝集成到 scikit-learn 中。将 ChatGPT 等强大的语言模型无缝集成到 scikit-learn 中,以增强文本分析任务。
-
argilla-io/argilla 以数据为中心的 LLM 开发的开源平台。集成人工和模型反馈循环,以实现持续的 LLM 优化和监督。
-
taranjeet/awesome-gpts 社区创建的所有 GPTs 的集合。
-
ai-boost/Awesome-GPTs 精选的超棒 GPTs列表。展示全球 AI 爱好者创建的创新和令人兴奋的 GPT 模型的空间。
-
friuns2/BlackFriday-GPTs-Prompts 不需要 plus 订阅的免费 GPTs 列表
-
all-in-aigc/gpts-works 第三方 GPTs 商店
-
Anil-matcha/Awesome-GPT-Store 精心策划的专用自定义 GPTs 聊天机器人列表,旨在帮助您完成从技术问题到创造性工作的各种任务。
-
devisasari/awesome-chatgpt-store 展示全球 AI 爱好者创建的 GPTs 的空间。
-
snwfdhmp/awesome-gpt-prompt-engineering 精选的 GPT 提示工程资源、工具和其他闪亮事物的清单。
-
SamurAIGPT/EmbedAI 利用本地 LLM 的功能,在不依赖 Internet 的情况下在文档上创建 QnA 聊天机器人。 确保完全的隐私和安全,因为您的任何数据都不会离开您的本地执行环境。即使没有互联网连接,也可以无缝处理和查询您的文档。
-
pandora-next/deploy 更强大,但还是那个让你呼吸顺畅的ChatGPT。支持GPTs,最新UI。可配置共享的tokens,会有一个功能等同chat-shared3.zhile.io的共享站(目前2622个普号、22个Plus)。
-
LouisShark/chatgpt_system_prompt 收集Agent的系统提示,分享一些提示注入知识。可以通过向 ChatGPT 发送以下命令来获取 ChatGPT 的系统提示(核心概念是转移 ChatGPT 的注意力,使其不会意识到自己违反了规则)。
-
taishi-i/awesome-ChatGPT-repositories 专门用于与 ChatGPT 相关的开源 GitHub 存储库的精选资源列表
-
DefTruth/Awesome-LLM-Inference 精选的 Awesome LLM 推理论文列表,包含代码、TensorRT-LLM、vLLM、streaming-llm、AWQ、SmoothQuant、WINT8/4、Continuous Batching、FlashAttention、PagedAttention 等。
-
gmpetrov/databerry 用于构建自定义 LLM 代理的无代码平台
-
beyondguo/LLM-Tuning LoRA 微调和 RLHF 全流程
-
chatpire/chatgpt-web-share ChatGPT Plus 共享方案。适用于个人、组织或团队的 ChatGPT 共享方案。共享一个 ChatGPT Plus 账号给多人使用,提供完善的管理和限制功能。
-
dirk1983/chatgpt 全网最易部署,响应速度最快的ChatGPT环境。PHP版调用OpenAI接口进行问答和画图,采用Stream流模式通信,一边生成一边输出。前端采用EventSource,支持Markdown格式解析,支持公式显示,代码有着色处理,支持画图。页面UI简洁,支持上下文连续会话。源码只有几个文件,没用任何框架,支持所有PHP版本,全部开源,极易二开。
-
Grt1228/chatgpt-java ChatGPT Java SDK支持流式输出、Gpt插件、联网。支持OpenAI官方所有接口。ChatGPT的Java客户端。OpenAI GPT-3.5-Turb GPT-4 Api Client for Java
-
x-dr/chatgptProxyAPI 使用cloudflare 搭建免费的 OpenAI api代理 ,解决网络无法访问问题。支持流式输出
-
Hello-SimpleAI/chatgpt-comparison-detection 论文“ChatGPT 与人类专家有多接近?比较语料库、评估和检测”。我们提出了第一个 Human vs. ChatGPT 对比语料, 叫做 HC3,在 Huggingface Datasets 上🤗提供:HC3-English \HC3-Chinese
-
openchatai/OpenCopilot 适用于您自己的 SaaS 产品的 AI Copilot。Shopify Sidekick 替代品。允许您拥有自己产品的 AI 副驾驶。它与您的底层 API 集成,可以在需要时执行 API 调用。它使用 LLM 来确定用户的请求是否需要调用 API 端点。然后,它决定调用哪个终结点,并根据给定的 API 定义传递相应的有效负载。
-
LC1332/Chat-Haruhi-Suzumiya Chat凉宫春日,一个开源的角色扮演聊天机器人 Cheng Li、Ziang Leng 等。通过大型语言模型在现实中复活动漫角色
-
eon01/awesome-chatgpt 精选的 ChatGPT 资源列表,包括库、SDK、API 等。
-
awesome-assistants/awesome-assistants 精选的令人敬畏的 AI 助手列表。带有所有这些助手的示例 Telegram 机器人可以在下面的链接上进行测试。
-
voidful/awesome-chatgpt-dataset 释放 LLM 的力量:探索这些数据集来训练你自己的 ChatGPT!
-
yaodongC/awesome-instruction-dataset 用于训练指令遵循 LLM 的开源数据集集合(ChatGPT、LLaMA、Alpaca)
-
ntunlplab/traditional-chinese-alpaca 基于羊驼数据集的繁体中文指令数据集。
-
Tongji-KGLLM/RAG-Survey 大型语言模型的检索-增强生成:一项调查
-
allenai/RL4LMs 模块化 RL 库,可根据人类偏好微调语言模型。为训练语言模型提供易于定制的构建块,包括策略算法、奖励函数、指标、数据集和基于 LM 的参与者-批评策略的实现。
-
gptshunter.com 发现 GPTs 项目的商店
-
hyperonym/basaran OpenAI 文本完成 API 的开源替代品。它为基于 Hugging Face Transformer 的文本生成模型提供兼容的流式处理 API。
-
microsoft/generative-ai-for-beginners 一门 12 节课的课程,教授开始构建生成式 AI 应用程序所需的一切知识
-
bleedline/Awesome-gptlike-shellsite 深入探索精选的gpt套壳站和必备API资源。本文为初学者和经验丰富的运营者提供一站式指南,涵盖常见问题解答和基础攻略,助您迈向套壳站副业成功之路。便宜且高并发的api。
-
nat/openplayground 您可以在笔记本电脑上运行的LLM游乐场。特征:使用 OpenAI、Anthropic、Cohere、Forefront、HuggingFace、Aleph Alpha、Replicate、Banana 和 llama.cpp 中的任何模型。完整的 playground UI,包括历史记录、参数调优、键盘快捷键和 logprops。使用相同的提示并排比较模型,单独调整模型参数,然后使用不同的参数重试。自动检测 HuggingFace 缓存中的本地模型,并允许您安装新模型。在手机上工作正常。
-
GAIR-NLP/auto-j 用于评估对齐的生成式判断的官方存储库。新的开源生成判断器,可以有效地评估它们LLMs如何与人类偏好保持一致。它的特点是:通用性:Auto-J 基于来自真实世界用户查询的数据和来自各种LLMs响应的数据进行训练,涵盖 58 个真实世界场景。灵活性:Auto-J 支持成对响应比较和单响应评估,只需切换到相应的提示即可。可解释性:Auto-J 提供详细的自然语言评论,可提高其评估结果的可靠性,并促进人类参与评估循环。
-
thu-coai/BPO 在不进行模型训练的情况下对齐大型语言模型,黑盒提示优化 (BPO) 提供了一种概念上的新视角来弥合人类和 LLMs在 Vicuna Eval 的成对评估中,BPO 在没有训练的情况下进一步对齐 gpt-3.5-turbo 和 claude-2。性能也优于PPO和DPO,并呈现出正交的改进。通过优化用户指令,从输入角度对模型进行对齐。过程分三步:1、
反馈数据收集
:为了建模人类偏好,首先搜集了一系列带有反馈信号的开源指令微调数据集,并对这些数据经过精心筛选和过滤。2、构造提示优化对
:使用这些反馈数据来引导大型模型识别出用户偏好的特征。首先让模型分析用户喜欢的回复和不喜欢的回复,找出其中蕴含的人类偏好特征。接着,基于这些特征,再利用模型优化原始的用户输入,以期得到更符合用户喜好的模型输出。3、训练提示优化器
:经过步骤一和步骤二,我们得到了大量隐含人类偏好的提示对。利用这些提示对,我们训练一个相对较小的模型,从而构建提示偏好优化器。最终,我们可以利用该提示优化器对用户指令进行优化,并应用在广泛的LLM上。 BPO 数据集 -
kwai/KwaiYii 由快手AI团队从零到一独立自主研发的一系列大规模语言模型(Large Language Model),当前包含了多种参数规模的模型,并覆盖了预训练模型(KwaiYii-Base)、对话模型(KwaiYii-Chat)。
-
deepseek-ai/DeepSeek-MoE DeepSeekMoE 16B 是一种具有 16.4B 参数的专家混合 (MoE) 语言模型。它采用了创新的 MoE 架构,该架构涉及两个主要策略:细粒度专家细分和共享专家隔离。它在 2T 英文和中文词元上从头开始训练,表现出与 DeekSeek 7B 和 LLaMA2 7B 相当的性能,只有大约 40% 的计算。
-
Mozilla-Ocho/llamafile 目标是使开发人员和最终用户更容易访问开源大型语言模型。我们通过将 llama.cpp 与 Cosmopolitan Libc 合并到一个框架中来做到这一点,该框架将所有复杂性LLMs折叠成一个单文件可执行文件(称为“llamafile”),该可执行文件可在大多数计算机上本地运行,无需安装。
-
flexflow/FlexFlow 开源编译器和分布式系统,用于低延迟、高性能的 LLM 服务。FlexFlow Serve 在单节点、多 GPU 推理方面比现有系统高出 1.3-2.0 倍,在多节点、多 GPU 推理方面比现有系统高出 1.4-2.4 倍。
-
OpenBMB/UltraFeedback 大规模、细粒度、多样化的偏好数据集(和模型)。UltraFeedback 是一个大规模、细粒度、多样化的偏好数据集,用于训练强大的奖励模型和批评者模型。从各种资源(包括 UltraChat、ShareGPT、Evol-Instruct、TruthfulQA、FalseQA 和 FLAN,数据集统计信息见此处)收集了大约 64k 个提示。然后,使用这些提示来查询多个 LLM,并为每个提示生成 4 个不同的响应,从而产生总共 256k 个样本。为了收集高质量的偏好和文本反馈,设计了一个细粒度的注释指令,其中包含 4 个不同的方面,即指令遵循、真实性、诚实性和帮助性。然后,我们要求 GPT-4 根据指令对收集到的样本进行注释。
-
xiaogang00/white-paper-for-large-model-security-and-privacy 大型模型安全和隐私白皮书,大型生成模型也存在数据/模型安全和隐私问题。我们应该注意到,大型生成模型会带来很多安全和隐私问题,因为它们在改变我们生活方面表现出巨大的力量,例如数据泄露和假新闻的传播。在本白皮书中,我们首先总结了大型生成模型的发展,包括其影响和社会影响。然后,我们总结了现有大型生成模型中当前存在的安全和隐私问题,例如数据和模型安全、版权问题和伦理问题。最后,我们针对当前的安全和隐私问题给出了相应的建议。它们可以用来指出未来的研究和发展方向,也可以作为政府决策的参考。
-
guardrails-ai/guardrails 开源Py包,验证和纠正大语言模型的输出
-
OpenMOSS/HalluQA “中文大型语言模型中的幻觉评估”数据集和评估脚本,包含 450 个精心设计的对抗性问题,跨越多个领域,考虑了中国的历史文化、习俗和社会现象。第 1 步,可能会诱发模型幻觉的问题。第 2 步,使用 ChatGPT3.5 / Puyu / GLM-130B 生成答案并收集对抗性问题。第3步,为每个对抗性问题编写多个正确和错误的答案,并添加支持证据。第4步,检查所有带注释的问答对并删除低质样本。
-
liziniu/ReMax 论文代码(ReMax:一种简单、高效、有效的强化学习方法,用于对齐大型语言模型)。一种强化学习方法,专为 RLHF 中的奖励最大化而量身定制。ReMax 具有内存效率。与PPO相比,ReMax可以节省约50%的GPU内存消耗,可以分配1.3倍的大批量。ReMax 运行速度很快。它不需要训练价值模型,并且需要更少的计算。通常,它可以实现大约 2 倍的训练加速。ReMax易于调整以获得良好的性能。在 AlpacaEval 基准测试中,当被 GPT-4 判断时,ReMax 的胜率分别比 SFT、DPO 和 PPO 高出 84.22%、75.28% 和 63.60%。
-
OpenLLMAI/OpenRLHF 基于Ray的高性能RLHF框架(支持70B+全调谐& LoRA & Mixtral &KTO)
-
tatsu-lab/alpaca_farm RLHF和替代方案的仿真框架。在不收集人工数据的情况下开发 RLHF 方法。
-
anthropics/hh-rlhf “通过从人类反馈中强化学习来训练有用且无害的助手”的人类偏好数据
-
alan-ai/alan-sdk-web 适用于 Web 的生成式 AI SDK,用于为使用 JavaScript、React、Angular、Vue、Ember、Electron 构建的应用程序构建 AI 助手
-
archiki/ADaPT 使用语言模型进行按需分解和规划
-
ai-collection/ai-collection 一系列令人敬畏的生成式 AI 应用程序
-
SJTU-IPADS/PowerInfer 在具有消费级 GPU 的 PC 上提供高速大型语言模型
-
danswer-ai/danswer 用自然语言提问,并获得私人资源支持的答案。连接到 Slack、GitHub、Confluence 等工具。允许您使用自然语言提出问题,并根据团队特定文档获得答案。想想 ChatGPT,如果它可以访问您团队的独特知识。
-
xlang-ai/OpenAgents 现实世界的开放平台的语言智能体,用于在日常生活中使用和托管语言智能体的开放平台。
-
langchain4j/langchain4j Java版LangChain,简化将 AI/LLM功能集成到 Java 应用程序中的过程。
-
weaigc/bingo 高度还原 New Bing 网页版的主要操作,国内可用,兼容绝大多数微软 Bing AI 的功能,可自行部署使用。
-
e2b-dev/awesome-ai-agents AI 自主代理列表
-
hao-ai-lab/LookaheadDecoding 用 Lookahead 解码打破推理的LLM顺序依赖关系
-
TaskingAI/TaskingAI TaskingAI 将 Firebase 的简单性带入了 AI 原生应用开发。该平台支持使用LLMs来自各种提供商的各种应用程序创建类似 GPT 的多租户应用程序。它具有独特的模块化功能,如推理、检索、助手和工具,无缝集成以增强开发过程。TaskingAI 的凝聚力设计确保了 AI 应用程序开发的高效、智能和用户友好的体验。
-
salesforce/DialogStudio 为对话式 AI 提供最丰富、最多样化的统一数据集集合和指令感知模型
-
YuchuanTian/AIGC_text_detector 我们在AIGC检测方面工作的官方代码:“AI生成文本的多尺度阳性-未标记检测”(ICLR'24 Spotlight)
-
open-webui/open-webui 用户友好的 WebUILLMs,支持的LLM运行器包括 Ollama 和 OpenAI 兼容的 API。直观的界面。响应式设计:在桌面和移动设备上享受无缝体验。快速响应。轻松设置:使用 Docker 或 Kubernetes(kubectl、kustomize 或 helm)无缝安装。代码语法高亮显示。完整的 Markdown 和 LaTeX 支持。本地 RAG 集成:通过开创性的检索增强生成 (RAG) 支持深入了解聊天交互的未来。此功能将文档交互无缝集成到您的聊天体验中。您可以将文档直接加载到聊天中或将文件添加到文档库中,使用
#
提示符中的命令轻松访问它们。网页浏览功能:使用#
命令后跟 URL 将网站无缝集成到您的聊天体验中。提示预设支持:使用聊天输入中/
的命令立即访问预设提示。毫不费力地加载预定义的对话启动器并加快您的交互速度。通过Open WebUI社区集成轻松导入提示。RLHF 注释:通过竖起大拇指和竖起大拇指对消息进行评分来增强您的消息,从而促进创建用于人类反馈强化学习 (RLHF) 的数据集。利用您的消息来训练或微调模型,同时确保本地保存数据的机密性。对话标记:轻松分类和定位特定聊天,以便快速参考和简化数据收集。下载/删除模型。GGUF 文件模型创建。多种模式支持:在不同的聊天模式之间无缝切换,实现多样化的互动。多模态支持:与支持多模态交互的模型无缝交互,包括图像(例如 LLava)。模型文件生成器。多种模型对话:毫不费力地同时与各种模型互动,利用它们的独特优势来获得最佳响应。通过并行利用一组不同的模型来增强您的体验。协作聊天:通过无缝编排群组对话,利用多个模型的集体智慧。使用该@
命令指定模型,从而在聊天界面中启用动态和多样化的对话。让自己沉浸在编织在聊天环境中的集体智慧中。OpenAI API 集成。历史访问。聊天记录。导入/导出聊天记录。语音输入支持:通过语音交互与模型互动;享受直接与模特交谈的便利。此外,探索在静音 3 秒后自动发送语音输入的选项,以获得简化的体验。使用高级参数进行微调控制:通过调整温度等参数和定义系统提示来根据您的特定偏好和需求定制对话,从而获得更深层次的控制。外部 Ollama 服务器连接。基于角色的访问控制 (RBAC):使用受限权限确保安全访问;只有经过授权的个人才能访问您的 Ollama,并且为管理员保留独家模型创建/提取权限。后端反向代理支持:通过Open WebUI后端和Ollama之间的直接通信来增强安全性。持续更新。 -
CopilotKit/CopilotKit 构建、部署和操作完全自定义的 AI Copilot。应用内 AI 聊天机器人、应用内 AI 代理和 AI 驱动的文本区域的框架。
-
n4ze3m/dialoqbase 使用个性化知识库创建自定义聊天机器人。该应用程序利用高级语言模型来生成准确且上下文感知的响应。此外,它还利用 PostgreSQL(一种强大的关系数据库管理系统)进行高效的向量搜索操作和存储知识库。
-
yangjian102621/chatgpt-plus AI 助手全套开源解决方案,自带运营管理后台,开箱即用。集成了 ChatGPT, Azure, ChatGLM,讯飞星火,文心一言等多个平台的大语言模型。支持 MJ AI 绘画,Stable Diffusion AI 绘画,微博热搜等插件工具。采用 Go + Vue3 + element-plus 实现。
-
paulpierre/RasaGPT 第一个建立在 Rasa 和 Langchain 之上的无LLM头聊天机器人平台。使用 Rasa、FastAPI、Langchain、LlamaIndex、SQLModel、pgvector、ngrok、telegram 构建
-
xusenlinzy/api-for-open-llm LLaMA, LLaMA-2, BLOOM, Falcon, Baichuan, Qwen, Xverse, SqlCoder, CodeLLaMA, ChatGLM, ChatGLM2, ChatGLM3 etc. 开源大模型的统一后端接口
-
refuel-ai/autolabel Python 库,用于使用您选择的任何大型语言模型 (LLM) 标记、清理和丰富文本数据集。访问大型、干净和多样化的标记数据集是任何机器学习工作成功的关键组成部分。LLMs像 GPT-4 这样的先进技术能够以高精度自动标记数据,而且与手动标记相比,成本和时间只是其中的一小部分。
-
mckaywrigley/chatbot-ui-lite 一个简单的聊天机器人入门工具包,用于使用 Next.js、TypeScript 和 Tailwind CSS 的 OpenAI 聊天模型。
-
jxnl/instructor 处理大型语言模型的结构化输出变得轻而易举 (LLMs)。它建立在 Pydantic 之上,提供了一个简单、透明且用户友好的 API 来管理验证、重试和流式响应。准备好为您的LLM工作流程增添动力
-
lmstudio-ai/model-catalog 大型语言模型文件的标准化 JSON 描述符集合。
-
adamcohenhillel/ADeus 一种开源 AI 可穿戴设备,可捕获您在现实世界中所说和听到的内容,然后将其转录并存储在您自己的服务器上。然后,您可以使用该应用程序与 Adeus 聊天,它将包含有关您想要谈论的内容的所有正确上下文 - 一个真正个性化的个人 AI。
-
FasterDecoding/Medusa 简单的框架,它使具有多个解码头LLM的生成加速技术民主化。美杜莎添加了额外的“头”来LLMs同时预测多个未来的词元。当使用美杜莎增强模型时,原始模型保持不变,并且在训练过程中只会对新头部进行微调。在生成过程中,这些头每个头都会为相应的位置产生多个可能的单词。然后使用基于树的注意力机制对这些选项进行组合和处理。最后,采用典型的验收方案从候选者中选择最长的合理前缀进行进一步解码。
-
promptfoo/promptfoo 用于测试和评估LLM输出质量的工具。测试您的提示、模型、RAG。评估和比较LLM输出,捕获回归,并提高提示质量。LLM适用于 OpenAI/Azure GPT、Anthropic Claude、VertexAI Gemini、Ollama、本地和专用模型(如 Mistral/Mixtral/Llama with CI/CD)的评估
-
tmc/langchaingo LangChain for Go,Go 编写基于LLM程序的最简单方法
-
AnswerDotAI/fsdp_qlora 使用量化 LoRA + FSDP 进行LLMs训练。FSDP-QLoRA 结合了数据并行性(Fully Sharded Data Parallelism(FSDP) 支持跨 GPU 分片模型参数、优化器状态和梯度)、4 位量化和 LoRA(QLoRA Quantized LoRA),可在双 24GB GPU 系统上训练 LLMs 多达 70B 参数。该技术由 Answer.AI 与 BitsandBytes 合作发布,旨在使训练 LLMs 更加高效,并且对每个人来说都更容易使用。bitsandbytes/fsdp_qlora
-
getzep/zep 人工智能助手的长期记忆。从聊天记录中回忆、理解和提取数据。为个性化 AI 体验提供支持。
-
XueFuzhao/OpenMoE 一系列开源专家混合 (MoE) 大型语言模型
-
tensorchord/Awesome-LLMOps 为开发人员提供的最佳 LLMOps 工具列表,包括各种大型语言模型、大型模型服务、LLMOps 平台、向量检索、训练微调、ML 平台、工作流、管理分析等。
-
Arize-ai/phoenix 以闪电般的速度提供 MLOps 和 LLMOps 见解,具有零配置可观测性。Phoenix 通过提供以下功能,为监视模型和LLM应用程序提供笔记本优先体验:LLM跟踪。LLM Evals。嵌入分析。RAG 分析。结构化数据分析 。
-
Giskard-AI/giskard 自动检测 AI 模型中的漏洞,从表格模型到 LLM,包括性能偏差、数据泄露、虚假相关性、幻觉、毒性、安全问题等等。
-
huggingface/trl 全栈工具,使用监督微调步骤 (SFT)、奖励建模 (RM) 和近端策略优化 (PPO) 以及直接偏好优化 (DPO) 等方法微调和调整转换器语言和扩散模型。该库建立在 transformers库之上,因此允许使用那里可用的任何模型架构。accelerate 是 trl 其骨干,允许使用 DDP 和 DeepSpeed 等方法将模型训练从单个 GPU 扩展到大规模多节点集群。PEFT 完全集成,允许在适度的硬件上使用量化和 LoRA 或 QLoRA 等方法训练最大的模型。unsloth 还集成了专用内核,可以显着加快训练速度。
-
unslothai/unsloth 速度提高 2-5 倍,内存减少 70%,QLoRA 和 LoRA 微调。所有内核均用 OpenAI 的 Triton 语言编写。精度损失为 0% - 无近似方法 - 全部准确无误。无需更换硬件。自 2018+ 起支持 NVIDIA GPU。最低 CUDA 功能 7.0。支持 4 位和 16 位 QLoRA / LoRA 通过bitsandbytes进行微调。开源训练速度提高 5 倍。
-
ray-project/ray-llm 一个LLM服务解决方案,可以轻松部署和管理各种LLMs开源,建立在 Ray Serve 之上。RayLLM 利用 Ray Serve,它对自动缩放和多节点部署提供本机支持。RayLLM 可以扩展到零,并创建新的模型副本(每个副本由多个 GPU 工作线程组成)以响应需求。
-
pathwaycom/llm-app LLM用于 RAG、知识挖掘和流分析的应用模板。准备与 Docker 一起运行,与您的数据源同步。
-
jackmpcollins/magentic 轻松地将大型语言模型集成到 Python 代码中。只需使用
@prompt
装饰器创建函数,即可从 LLM.将查询和函数调用与常规 Python 代码混合LLM使用,以创建复杂的逻辑。 -
deep-diver/LLM-As-Chatbot 让人们使用大量开源的指令遵循微调LLM模型作为聊天机器人服务。互联网搜索支持serper.dev
-
pezzolabs/pezzo 开源、开发人员优先的 LLMOps 平台,旨在简化提示设计、版本管理、即时交付、协作、故障排除、可观测性等。
-
msoedov/langcorn 使用 FastAPI 自动为 LangChain LLM 应用程序和代理提供服务。
-
OpenBMB/ProAgent 从机器人流程自动化到代理流程自动化,引入了
Agentic Process Automation
(APA),这是一种突破性的自动化范式,使用LLM基于代理的代理,通过将人力卸载到与构建和执行相关的代理来实现高级自动化。然后,我们实例化ProAgent
,一个LLM基于代理,旨在根据人类指令制作工作流程,并通过协调专业代理做出复杂的决策。通过实证实验,详细阐述了APA的工作流程构建和执行流程,展示了APA的可行性,揭示了由智能体驱动的自动化新范式的可能性 -
daveebbelaar/langchain-experiments 侧重于试验 LangChain 库,以构建具有大型语言模型的强大应用程序 (LLMs)。通过利用 GPT-3.5 Turbo 、GPT-4等最先进的语言模型,该项目展示了如何从 YouTube 视频成绩单创建可搜索的数据库,使用 FAISS 库执行相似性搜索查询,并用相关和准确的信息回答用户问题。
-
BradyFU/Woodpecker 引入了一种名为 Woodpecker 的免训练方法。就像啄木鸟治愈树木一样,它会从生成的文本中挑选并纠正幻觉。具体来说,啄木鸟包括五个阶段:关键概念提取、问题表述、视觉知识验证、视觉声明生成和幻觉纠正。啄木鸟以补救后的方式实施,可以轻松地为不同的MLLM提供服务,同时可以通过访问五个阶段的中间输出进行解释。我们从定量和定性两个方面对啄木鸟进行了评估,并展示了这种新范式的巨大潜力。在 POPE 基准测试中,我们的方法比基线 MiniGPT-4/mPLUG-Owl 的准确率提高了 30.66%/24.33%。
-
locuslab/wanda 一种简单有效的大型语言模型修剪方法(按权重和激活进行修剪)
-
VILA-Lab/ATLAS 为大型语言模型制定有效查询和提示的资源和研究(LLMs)。主要贡献是引入了 26 项 prompts 指导原则,旨在优化与LLMs各种规模的交互,例如 LLaMA-1/2、GPT-3.5 和 GPT-4。
-
postgresml/postgresml GPU 驱动的 AI 应用程序数据库。利用 SQL 的简单性和最新的 NLP、ML + LLM 模型,更快地将您的应用推向市场。
-
llmware-ai/llmware 提供基于企业级LLM的开发框架、工具和微调模型。
-
arcee-ai/mergekit 用于合并预训练大型语言模型的工具。当前支持的合并方法的快速概述:Linear 线性,经典的合并方法,简单的加权平均值。SLERP系列,球形插值两个模型的参数。Task Arithmetic 任务算术,通过减去基础模型来计算每个模型的“任务向量”,线性合并任务向量并加回基数,非常适合从共同祖先微调的模型,对于几种更复杂的合并方法来说,也是一个超级有用的合并框架。TIES,建立在任务算术框架之上,通过稀疏化任务向量并应用符号共识算法来解决模型之间的干扰,允许您合并更多模型并保留其更多优势。DARE,与TIES一样,稀疏化任务向量以减少干扰,DARE使用随机修剪和新颖的重新缩放,以更好地匹配原始模型的性能。passthrough 是一种无操作,它只是通过未修改的输入张量传递,它旨在用于只有一个输入模型的层堆叠类型合并。Model Stock,使用微调模型的一些简洁的几何属性来计算线性插值的良好权重,至少需要三个模型,包括一个基本模型。
-
google/BIG-bench 协作基准测试,旨在探索大型语言模型并推断其未来能力。BIG-bench 中包含的 200 多个任务。
-
bigscience-workshop/promptsource 用于创建、共享和使用自然语言提示的工具。
-
FranxYao/chain-of-thought-hub 使用思维链提示对大型语言模型的复杂推理能力进行基准测试
-
langchain-ai/langserve 帮助开发人员将 LangChain 可运行的可运行程序和链部署为 REST API。该库与 FastAPI 集成,并使用 pydantic 进行数据验证。
-
BCG-X-Official/agentkit 使用 Nextjs、FastAPI 和 Langchain 构建受约束的代理
-
stitionai/devika 一名代理 AI 软件工程师,可以理解高级人类指令,将它们分解为步骤,研究相关信息,并编写代码以实现给定的目标。Devika 旨在成为 Cognition AI 的 Devin 的有竞争力的开源替代品。Devika 利用大型语言模型、规划和推理算法以及 Web 浏览能力来智能开发软件。Devika 旨在通过提供 AI 对程序员来彻底改变我们构建软件的方式,该程序员可以在最少的人工指导下承担复杂的编码任务。无论您是需要创建新功能、修复错误还是从头开始开发整个项目,Devika 都能为您提供帮助。主要特点:通过 Ollama 支持 Claude 3、GPT-4、GPT-3.5 和 LocalLLMs。为获得最佳性能:使用 Claude 3 系列型号。
-
missuo/FreeGPT35 利用免登录 ChatGPT Web 提供的无限制免费 GPT-3.5-Turbo API 服务。
-
nilsherzig/LLocalSearch 使用LLM代理的完全本地运行的搜索聚合器。用户可以提出一个问题,系统将使用一连串来LLMs找到答案。用户可以看到代理的进度和最终答案。不需要 OpenAI 或 Google API 密钥。
-
DachengLi1/LongChat 支持训练和评估基于长上下文LLM的聊天机器人。
-
fanqiwan/FuseAI 大型语言模型的知识融合,专注于模型融合主题的开源研究社区。在 Foundation 和 Chat 上应用模型融合LLMs,未来计划融合 Agent/MoELLMs。FuseChat-7B-VaRM,它融合了三个LLMs具有不同架构和规模的著名聊天,即 NH2-Mixtral-8x7B、NH2-Solar-10.7B 和 OpenChat-3.5-7B。FuseChat-7B-VaRM 在 MT-Bench 上的平均性能为 8.22,优于 Starling-7B、Yi-34B-Chat 和 Tulu-2-DPO-70B 等各种强大的聊天,LLMs甚至超过了 GPT-3.5(March)、Claude-2.1,并接近 Mixtral-8x7B-Instruct。FuseChat采用融合后合并的策略,有两个主要阶段。首先,对源LLMs进行成对知识融合,通过轻量级微调推导出多个结构和大小相同的目标LLMs;然后,将这些目标LLMs合并到参数空间中,提出了一种基于参数矩阵微调前后变化比确定合并权重的新方法VaRM。
-
katanaml/sparrow 用于从各种文档和图像中高效提取和处理数据。它可以无缝处理表单、发票、收据和其他非结构化数据源。Sparrow 以其模块化架构脱颖而出,提供独立的服务和管道,所有这些都针对强大的性能进行了优化。Sparrow 的关键功能之一 - 可插拔架构。您可以使用 LlamaIndex、Haystack 或 Unstructured 等工具和框架轻松集成和运行数据提取管道。Sparrow 通过 Ollama 或 Apple MLX 启用本地LLM数据提取管道。使用 Sparrow 解决方案,您可以获得 API,这有助于处理数据并将其转换为结构化输出,随时可以与自定义工作流程集成。
-
GPT-Fathom/GPT-Fathom 开源且可LLM复制的评估套件,在一致设置下对领先的开源和闭源LLMs以及OpenAI的早期模型进行基准测试,以 20+个精选基准测试。
-
RUCAIBox/StructGPT 大型语言模型对结构化数据进行推理的通用框架
-
FranxYao/Long-Context-Data-Engineering 实现论文数据工程,将语言模型扩展到 128K 上下文。使用
tensor_parallel
从这个存储库实现的device_map
,因为它比 huggingface 快得多,比 vLLM 轻量级。但它有一个小错误,如果你的 GPU 内存不够大,它会卡住而不是通过内存溢出异常。因此,请确保您有足够的 GPU 内存。 -
OpenBMB/InfiniteBench 尖端的基准测试,用于评估语言模型在超长上下文(100k+ 令牌)上处理、理解和推理的能力。长上下文对于增强应用程序LLMs并实现高级交互至关重要。InfiniteBench 旨在通过针对 100k+ 的上下文长度(比传统数据集长 10 倍)来测试语言模型的界限,从而突破语言模型的界限。
-
jzhang38/TinyLlama 在 3 万亿个词元上预训练 1.1B Llama 模型。采用了与 Llama 2 完全相同的架构和分词器。这意味着 TinyLlama 可以在许多基于 Llama 构建的开源项目中插入和播放。此外,TinyLlama 结构紧凑,只有 1.1B 参数。这种紧凑性使其能够满足众多需要有限计算和内存占用的应用程序。
-
openai/openai-node OpenAI API 的官方 Node.js / Typescript 库
-
openai-php/client 由社区维护的增强型 PHP API 客户端,允许您与 OpenAI API 进行交互。
-
InternLM/xtuner 高效、灵活且功能齐全的工具包,用于微调大型模型(InternLM2、Llama3、Phi3、Qwen、Mistral 等)。自动调度 FlashAttention 和 Triton 内核等高性能算子,以提高训练吞吐量。与 DeepSpeed 兼容,轻松利用各种 ZeRO 优化技术。
-
hiyouga/FastEdit 帮助开发人员使用单个命令有效地将新鲜和自定义的知识注入大型语言模型中。实现的算法:Rank-One Model Editing (ROME)
-
SkyworkAI/Skywork 天工系列模型在3.2TB高质量多语言和代码数据上进行预训练。我们开源了模型参数,训练数据,评估数据,评估方法。
-
microsoft/promptbench 用于评估和理解大型语言模型的统一库。快速模型性能评估:我们提供用户友好的界面,允许快速构建模型、加载数据集和评估模型性能。提示工程:我们实施了几种提示工程方法。例如:Few-shot Chain-of-Thought、Emotion Prompt、Expert Prompting等。评估对抗性提示:promptbench 集成了提示攻击 ,使研究人员能够模拟模型上的黑盒对抗性提示攻击并评估其鲁棒性。动态评估以减轻潜在的测试数据污染:我们集成了动态评估框架DyVal,该框架以可控的复杂性即时生成评估样本。
-
HowieHwong/TrustGPT 我们能信任大型语言模型吗?:通过毒性、偏见和价值一致性评估实现负责任的大型语言模型的基准
-
llmeval/llmeval-1 中文大语言模型评测第一期,涵盖了17个大类、453个问题,包括事实性问答、阅读理解、框架生成、段落重写、摘要、数学解题、推理、诗歌生成、编程等各个领域。 在这些问题上,为大模型的回答设置了5个评分项,分别是:正确性、流畅性、信息量、逻辑性和无害性。 在构造了评测目标的基础上,有多种方法可以对模型进行评测。包括分项评测、众包对比评测、公众对比评测、GPT 4自动分项评测、GPT 4 对比评测等方式。
-
llmeval/llmeval-2 评测以用户日常使用为主线,结合线上用户问题分布情况,重点考察不同专业本科生和研究生在日常学习和生活中希望借助大模型得到帮助的任务。12个学科分别构造领域知识测试集,出题人基于外部数据库,对每个学科领域构造对应测试题集,题型为单项选择题与问答题。
-
llmeval/llmeval-3 聚焦于专业知识能力评测,涵盖哲学、经济学、法学、教育学、文学、历史学、理学、工学、农学、医学、军事学、管理学、艺术学等教育部划定的13个学科门类、50余个二级学科,共计约20W道标准生成式问答题目(后续我们将继续收集题目将总题库扩充至100W)。
-
xingyaoww/mint-bench ICLR 2024 论文 MINT 的官方 Repo:使用工具和语言反馈LLMs进行多回合交互评估
-
HITsz-TMG/awesome-llm-attributions 归因是指模型(例如 LLM)生成和提供证据的能力,通常以参考文献或引用的形式,以证实其产生的主张或陈述。这些证据来自可识别的来源,确保可以从基础语料库中逻辑地推断出声明,使其易于理解和验证。归因的主要目的包括使用户能够验证模型提出的声明,促进生成与引用来源密切相关的文本,以提高准确性并减少错误信息或幻觉,以及建立一个结构化框架来评估与所提出的声明相关的支持证据的完整性和相关性。
-
stanford-oval/storm 一个LLM强大的知识管理系统,用于研究一个主题并生成带有引文的完整报告。一个LLM基于互联网搜索从头开始编写类似维基百科的文章的系统。虽然该系统无法生成通常需要大量编辑的可出版文章,但经验丰富的维基百科编辑发现它在他们的写作前阶段很有帮助。STORM 将生成带有引文的长篇文章分为两个步骤:写作前阶段:系统进行基于互联网的研究,以收集参考文献并生成大纲。写作阶段:系统使用大纲和参考文献生成带有引文的完整文章。STORM 将研究过程自动化的核心确定为自动提出要提出的好问题。直接提示语言模型提问效果不佳。为了提高问题的深度和广度,STORM采用了两种策略:视角引导提问:给定输入主题,STORM 通过调查来自相似主题的现有文章来发现不同的观点,并使用它们来控制提问过程。模拟对话:STORM模拟维基百科作者与基于互联网资源的主题专家之间的对话,使语言模型能够更新其对主题的理解并提出后续问题。基于两个阶段的分离,STORM使用dspy以高度模块化的方式实现。
-
stanfordnlp/dspy 用于编程(而非提示)基础模型的框架。用于通过算法优化 LM 提示和权重的框架,尤其是当 LM 在管道中使用一次或多次时。要使用 LM 构建一个没有 DSPy 的复杂系统,您通常必须:(1) 将问题分解为多个步骤,(2) 很好地提示您的 LM,直到每个步骤单独工作良好,(3) 调整步骤以很好地协同工作,(4) 生成合成示例来调整每个步骤,以及 (5) 使用这些示例对较小的 LM 进行微调以降低成本。目前,这很困难,也很混乱:每次更改管道、LM 或数据时,所有提示(或微调步骤)都可能需要更改。为了使它更系统、更强大,DSPy 做了两件事。首先,它将程序的流程 ( modules ) 与每个步骤的参数(LM 提示和权重)分开。其次,DSPy 引入了新的 optimizers ,这是 LM 驱动的算法,可以调整 LM 调用的提示和/或权重, metric 前提是您想要最大化。DSPy 可以定期教授强大的模型(如 GPT-3.5 or GPT-4 )和本地模型(如 T5-base or Llama2-13b )在任务中更加可靠,即具有更高的质量和/或避免特定的故障模式。DSPy 优化器会将同一程序“编译”为不同的指令、小样本提示和/或每个 LM 的权重更新(微调)。这是一种新的范式,在这种范式中,LM 及其提示逐渐淡出背景,作为可以从数据中学习的更大系统的可优化部分。顶级域名;更少的提示,更高的分数,以及更系统地解决 LM 的艰巨任务的方法。
-
TheDuckAI/arb Advanced LLMs Reasoning Benchmark 数据集,新颖的基准数据集,由高级推理问题组成,旨在评估LLMs文本理解和专家领域推理,提供比以前的基准更具挑战性的测试,其特点是测试更深入的数学、物理、生物学、化学和法律知识的问题
-
sambanova/toolbench ToolBench 是一个基准测试,为了研究各类LLMs在软件工具操作上的差距。由用于实际任务的各种软件工具组成。还提供了易于使用的基础设施,以直接评估每个模型的执行成功率。
-
karpathy/llm.c LLM简单、纯 C/CUDA 的培训。不需要 245MB 的 PyTorch 或 107MB 的 cPython。训练 GPT-2 (CPU, fp32) 在单个文件 train_gpt2.c 中是 ~1,000 行干净代码,在 GPU 上训练它是 ~2,000 行(添加 CUDA 内核)在 train_gpt2.cu 中。代码立即编译并运行,它与 PyTorch 参考实现完全匹配,并且它 ~匹配(编译)PyTorch 的速度(fp32,无闪存注意)。我选择 GPT-2 作为第一个工作示例,因为它是 LLMs的祖父,第一次将现代堆栈放在一起。
-
HowieHwong/TrustLLM 关于可信度的综合研究LLMs,包括可信度不同维度的原则,建立的基准,评估和主流LLMs可信度的分析,以及对开放挑战和未来方向的讨论。具体来说,我们首先提出了一套跨越八个不同维度的可信赖LLMs原则。基于这些原则,我们进一步建立了六个维度的基准,包括真实性、安全性、公平性、鲁棒性、隐私和机器伦理。然后,我们提出了一项研究,评估了 TrustLLM 中的 16 个主流LLMs,包括 30 多个数据集。本文档解释了如何使用 trustllm python 包来帮助您更快地评估可信度的性能LLM。
-
thunlp/InfLLM 揭示使用免训练记忆理解超长序列的内在能力LLMs,InfLLM 将远程上下文存储到额外的内存单元中,并采用一种有效的机制来查找与令牌相关的单元以进行注意力计算。因此,InfLLM 允许LLMs有效地处理长序列,同时保持捕获长距离依赖关系的能力。在没有任何训练的情况下,InfLLM 可以在LLMs几千个令牌的序列上进行预训练,从而获得比在长序列上不断训练这些LLMs令牌的竞争基线更好的性能。即使序列长度缩放到 1024K,InfLLM 仍然有效地捕获长距离依赖关系。
-
lrhh123/ChatGPT-On-CS 基于大模型的智能对话客服工具,支持微信、千牛、哔哩哔哩、抖音企业号、抖音、抖店、微博聊天、小红书专业号运营、小红书、知乎等平台接入,可选择 GPT3.5/GPT4.0/ 懒人百宝箱 (后续会支持更多平台),能处理文本、语音和图片,通过插件访问操作系统和互联网等外部资源,支持基于自有知识库定制企业 AI 应用。
-
LuckyyySTA/Awesome-LLM-hallucination 大型语言模型中的幻觉调查:原则、分类法、挑战和开放性问题。我们调查了与大型语言模型幻觉相关的论文。这包括相关的调查或分析论文、幻觉原因、幻觉检测和基准、幻觉缓解,以及该领域的挑战和开放性问题。
-
ninehills/llm-inference-benchmark LLM-推理基准测试
-
turboderp/exllamav2 用于在现代消费级 GPU 上本地运行LLMs的快速推理库
-
OpenNMT/CTranslate2 C++ 和 Python 库,用于使用 Transformer 模型进行高效推理。该项目实现了一个自定义运行时,该运行时应用了许多性能优化技术,例如权重量化、层融合、批量重新排序等,以加速和减少 Transformer 模型在 CPU 和 GPU 上的内存使用。
-
InternLM/lmdeploy 用于压缩、部署和提供LLMs的工具包。高效推理:LMDeploy 通过引入持久批处理(又称连续批处理)、阻塞 KV 缓存、动态拆分和融合、张量并行、高性能 CUDA 内核等关键功能,提供比 vLLM 高 1.8 倍的请求吞吐量。有效量化:LMDeploy 支持纯权重和 k/v 量化,4 位推理性能比 FP16 高 2.4 倍。量化质量已通过 OpenCompass 评估得到确认。轻松的分发服务器:利用请求分发服务,LMDeploy 有助于在多台机器和卡上轻松高效地部署多模型服务。交互式推理模式:通过缓存多轮对话过程中的注意力 k/v,引擎可以记住对话历史,从而避免对历史会话的重复处理。
-
freshllms/freshqa 新颖的动态 QA 基准测试,包含多种问答类型,包括需要快速变化的世界知识的问题以及需要揭穿的具有错误前提的问题。LLMs我们在双模式评估程序下对各种封闭和开源进行了基准测试,使我们能够衡量正确性和幻觉。通过涉及超过50K个判断的人工评估,我们揭示了这些模型的局限性,并展示了巨大的改进空间:例如,所有模型(无论模型大小如何)都在涉及快速变化的知识和错误前提的问题上挣扎。在这些结果的激励下,我们提出了 FreshPrompt,这是一种简单的几次提示方法,通过将从搜索引擎检索到的相关和最新信息合并到提示中,大大提高了 FreshQA LLM 的性能。
-
LC1332/Luotuo-QA 骆驼QA是指给定一段特定的文本,用户针对文本中的内容,进行一个提问。语言模型试图理解文本中的内容,对用户的问题进行回答。这里我们从陈丹琦学姐参与的CoQA数据集出发,基于唐杰老师实验室发布的GLM6B模型,建立了中文的骆驼QA模型。
-
CLUEbenchmark/SuperCLUE-safety 中文大模型多轮对抗安全基准,生成式大模型生成内容具有一定的不可控性,输出的内容并不总是可靠、安全和负责任的。比如当用户不良诱导或恶意输入的时候, 模型可能产生一些不合适的内容,甚至是价值观倾向错误的内容。这些都限制了大模型应用的普及以及大模型的广泛部署。
-
CrazyBoyM/phi3-Chinese phi3以小搏大(从微软放出的跑分数据看),用不到1/2的小体积(3.8b)超越llama3 8b版性能表现,增大了在手机上部署的可行性。该仓库致力于收录分散在开源社区的各种phi3的训练变体版本,让更多网友发现那些不为人知的特色有趣权重。同时也会顺便整理phi相关训练、推理、部署的简单教程。
-
vahe1994/AQLM 用于通过加法量化对大型语言模型进行极端压缩,与GPTQ等更简单的量化方法相比,AQLM量化需要更长的时间来校准。这只会影响量化时间,而不会影响推理时间。我们的工作建立在 MCQ 系列中的经典算法 Additive Quantization 之上,并使其适应语言模型的量化。
-
openai/summarize_from_feedback 在“从人类反馈中学习”( Learning to Summarize from Human Feedback paper)一文中,根据人类反馈训练了一个奖励模型(reward model)。然后使用奖励模型来训练总结模型,使其与人类的偏好保持一致。这是为奖励建模而发布的人类反馈数据集。此数据集分为两部分: comparisons 和 axis 。在这一 comparisons 部分中,人类注释者被要求从两个摘要中选择最好的。在这一 axis 部分中,人类注释者对摘要的质量进行了李克特量表的评分。 comparisons 该部件仅具有训练和验证拆分,并且 axis 该部件仅具有测试和验证拆分。
-
openai/webgpt_comparisons 在 WebGPT 论文中,作者根据人类反馈训练了一个奖励模型。他们使用奖励模型来训练一个长篇问答模型,以符合人类的偏好。这是在 WebGPT 项目结束时被标记为适合奖励建模的所有比较的数据集。总共有 19,578 个比较。数据集中的每个示例都包含一个问题的一对模型答案以及关联的元数据。每个答案都有一个来自人类的偏好分数,可用于确定两个答案中哪一个更好。
-
xfactlab/orpo 提出了一种称为ORPO的方法(Odds Ratio Preference Optimization,赔率比偏好优化),这种方法针对不受欢迎的生成内容施与小小惩罚就足以实现偏好对齐的 SFT,通过将 SFT 和对齐结合到一个新的目标(损失函数)中来训练基础大语言模型,从而免去了耗时耗力的SFT阶段。根据论文架构图显示,ORPO不需要监督微调、奖励模型和参考模型。
-
Shenzhi-Wang/Llama3-Chinese-Chat 第一个基于Meta-Llama-3-8B-Instruct模型的ORPO专门针对中文进行微调的中文聊天模型。
-
chtmp223/topicGPT 通过提示大型语言模型进行主题建模”的脚本和提示。
-
pjlab-sys4nlp/llama-moe 通过持续的预培训建立来自 LLaMA 的专家组合。于 LLaMA 和 SlimPajama 的一系列开源专家混合 (MoE) 模型。我们通过以下两个步骤构建 LLaMA-MoE:将 LLaMA 的 FFN 划分为稀疏专家,并为每一层专家插入 top-K 门。使用来自 Sheared LLaMA 的优化数据采样权重和来自 SlimPajama 的过滤数据集,持续预训练初始化的 MoE 模型。
-
X-PLUG/CValues 面向中文大模型价值观的评估与对齐研究。联合天猫精灵团队发起「给AI的100瓶毒药」项目,邀请中国知名专家学者,每位专家提出100个诱导偏见、歧视回答的刁钻问题,并对大模型的回答进行标注。项目吸引了环境科学、心理学、法理学等多个领域专家参与,并召开了专家研讨会,会后发布业内首个大语言模型治理开源中文数据集100PoisonMpts,包含专家提出的问题、专家自己撰写或认可的答案。提出一个评估中文大模型价值观水平的benchmark,基于safety和responsibility两个评价准则。我们评测了10+大模型,实验既包含人工评测、也构造多项选择题进行自动化评测。
-
PandaBearLab/prompt-tutorial chatGpt提示词课程,文包括的内容:prompt 原理、prompt 技巧、我的一些经验、一些公开的prompt模板、AI工具系列
-
stanfordnlp/pyreft 一种强大、高效且可解释的微调方法。pyreft ,一个表示微调 (ReFT) 库,支持通过可训练的干预调整内部语言模型表示。通过更少的微调参数和更健壮的性能, pyreft 可以提高微调效率,降低微调成本,同时为研究适配参数的可解释性打开大门。
-
xlang-ai/UnifiedSKG 使用文本到文本语言模型进行统一和多任务结构化知识基础,结构化知识基础 (SKG) 利用结构化知识来完成用户请求,例如对数据库进行语义解析和对知识库进行问答。由于SKG任务的输入和输出是异质的,因此它们在历史上被不同的社区分开研究,这限制了对SKG的系统性和兼容性研究。在本文中,我们通过提出 UnifiedSKG 框架来克服这一局限性,该框架将 21 个 SKG 任务统一为文本到文本的格式,旨在促进系统的 SKG 研究,而不是专属于单个任务、领域或数据集。我们表明,像 T5 这样的大型语言模型,在必要时进行简单的修改,几乎可以在所有 21 个任务上实现最先进的性能。UnifiedSKG促进多任务学习。我们表明,多任务前缀调整对大多数任务都有好处,大大提高了整体性能。UnifiedSKG 是一个具有挑战性的零样本和少样本学习测试平台,T0、GPT-3 和 Codex 都在其中苦苦挣扎。UnifiedSKG 还支持对 SKG 任务中的结构化知识编码变体进行一系列对照实验。我们发现 T5 对结构化知识编码变化的敏感性因任务而异。
-
google-research/xtreme 评估预训练多语言模型跨语言泛化能力的基准,涵盖 40 种类型不同的语言,包括 9 个任务。XTREME中包含的任务涵盖了自然语言处理中的一系列标准范式,包括句子分类、结构化预测、句子检索和问答。
-
princeton-nlp/LLM-Shearing 剪切 LLaMA:通过结构化修剪加速语言模型预训练,与从头开始预训练相比,修剪强大的基础模型是获得强大的小规模语言模型的一种极具成本效益的方法。下图显示,给定 Llama-2-7B 模型(使用 2T 令牌预训练)的存在,修剪它会产生一个与 OpenLLaMA 模型一样强大的模型,其预训练成本仅为 3%。
-
agi-templar/Stable-Alignment 多智能体社交模拟 + RLHF 的高效、有效和稳定的替代方案。论文“在模拟人类社会中训练社会一致的语言模型”的代码。目标是提供一种 RLHF 替代方案,该替代方案在对齐性能方面具有卓越性,在数据学习方面非常高效,并且易于在扩展环境中部署。我们没有训练一个可以在优化过程中进行游戏的额外奖励模型,而是直接在模拟社交游戏中训练记录的交互数据。我们发现高质量的数据+可靠的算法是稳定对齐学习的秘诀。
-
lm-sys/llm-decontaminator 在没有更强的去除训练样本污染的情况下,Llama-rephraser:13B 模型在主要基准测试 (MMLU/GSK-8K/HumanEval) 中达到 GPT-4 性能!为了确保结果的有效性,我们遵循了 OpenAI 的去污方法,没有发现数据污染的证据。本文提出了一种基于更强LLM的去污器,并将其应用于现实世界的训练数据集(例如, the Stack、RedPajama),揭示了训练数据集与广泛使用的基准测试的显着重叠。现有的检测方法(例如,n-gram重叠,嵌入相似性)无法检测到这种污染。嵌入相似性方法很难将改写的问题与同一主题(高中美国历史)中的其他问题区分开来。而本文提出可以使用“LLM去污器”来量化数据集相对于基准的重新表述的样本。根据检测结果,您可以估计数据集中改写样本的污染情况,并将其从训练集中移除。该LLM净化器包括两个步骤:对于每个测试用例,“LLM去污器”使用嵌入相似性搜索识别相似度最高的前 k 个训练项。从这些项目中,“LLM去污器”生成 k 个潜在的改写对,每对都使用高级 LLM,例如 GPT-4 进行改写评估。结果表明,我们提出LLM的方法在去除改写样本方面明显优于现有方法。
-
thu-coai/SafetyBench 评估安全性LLMs的综合基准,它包括 11,435 个不同的多项选择题,涵盖 7 个不同的安全问题类别。SafetyBench 还整合了中文和英文数据,便于以两种语言进行评估。
-
OpenLMLab/LEval L-Eval 的数据和代码,一个全面的长上下文语言模型评估基准,全面的长上下文语言模型(LCLM)评估套件,具有20个子任务,508个长文档和2,000多个人工标记的查询-响应对,包括不同的问题风格,域和输入长度(3k~200k标记)。L-Eval 有 2 组:封闭式任务和开放式任务。封闭式组主要测试对较长上下文的推理和理解能力,开放式组由需要聚合长文档信息(下载数据)的更多总结任务组成。
-
bigai-nlco/LooGLE 一个LLM全面的评估基准,用于长时间理解上下文,其中包含最新的(全部在2022年之后)和超长的现实文档(每个文档超过24k令牌,其中许多超过100k字)和6,000个新生成的问题,跨越不同的领域和类别。
-
dwzhu-pku/PoSE 位置跳跃训练,将上下文窗口有效扩展至LLMs极长 (ICLR 2024),引入了位置跳跃 (PoSE) 训练,用于高效适应大型语言模型~(LLMs) 到极长的上下文窗口。PoSE 通过在训练期间使用具有操纵位置索引的固定上下文窗口模拟长输入来模拟长输入,从而将训练长度与目标上下文窗口大小分离。以上下文窗口从 2,048 扩展到 8,192 为例,我们将 2,048 个标记的原始上下文窗口划分为两个块,并通过添加一个明显的跳过偏差项来调整第二个块的位置索引。对于每个训练示例,这些偏差项以及每个块的长度都会发生变化,以便模型可以通过微调来适应目标上下文窗口的所有相对位置。值得注意的是,通过将微调长度与目标上下文窗口解耦,PoSE 理论上可以无限扩展上下文窗口,仅受推理内存使用的限制。随着高效推理的不断进步~(例如,vLLM、Flash Attention),我们相信 PoSE 在进一步扩展上下文窗口方面具有巨大的前景。
-
IAAR-Shanghai/UHGEval 基于无约束生成的中国大型语言模型幻觉基准测试,一个综合框架,旨在评估幻觉现象。其架构提供了灵活性和可扩展性,允许轻松集成新的数据集、模型和评估指标。该框架对评估常见的幻觉任务是用户友好的,包括我们的新华幻觉和牛津的TruthfulQA等。
-
OpenAccess-AI-Collective/axolotl 旨在简化各种 AI 模型微调的工具,支持多种配置和架构。 特征:训练各种 Huggingface 模型,如llama、pythia、falcon、mpt;支持 fullfinetune、lora、qlora、relora 和 gptq;使用简单的 yaml 文件或 CLI 覆盖自定义配置;加载不同的数据集格式,使用自定义格式,或自带标记化数据集;集成了 xformer、flash注意力、rope缩放和多重包装;通过 FSDP 或 Deepspeed 与单个 GPU 或多个 GPU 配合使用;在本地或云端使用 Docker 轻松运行;将结果和检查点(可选)记录到 wandb 或 mlflow
-
bigscience-workshop/xmtf 通过多任务微调实现跨语言泛化
-
tangqiaoyu/ToolAlpaca 具有 3000 个模拟案例的语言模型的通用工具学习。用于在最少的人工监督下学习紧凑语言模型中的通用工具使用能力。它通过多智能体仿真环境生成工具使用语料库,提供来自 400 多个工具的 3.9k 工具使用实例,从而解决了工具学习的挑战。
-
aurora-develop/aurora (带UI)免费的GPT3.5,支持使用3.5的access 调用,注:仅ip属地支持免登录使用ChatGpt可以使用(也可以自定义Baseurl来绕过限制)
-
McGill-NLP/webllama 使用Llama 3 构建的最强大的代理,并针对带有对话的 Web 导航进行了微调。构建有效的以人为本的代理来浏览网页。我们不想取代用户,而是为他们配备强大的助手。
-
FMInference/H2O 用于大型语言模型高效生成推理的重磅 Oracle,大型语言模型(LLMs)尽管最近取得了令人瞩目的成就,但部署成本明显过高,特别是对于涉及长内容生成的应用程序,例如对话系统和故事写作。通常,除了模型参数外,还存储了大量瞬态状态信息(称为 KV 缓存),并随序列长度和批量大小线性缩放。在本文中,我们介绍了一种实现 KV 缓存的新方法,该方法可显着减少其内存占用。我们的方法基于一个值得注意的观察结果,即在计算注意力分数时,一小部分词元贡献了大部分价值。我们称这些词元为重击者(H2)。通过全面的调查,我们发现 (i) H2 的出现是自然的,并且与文本中频繁同时出现标记密切相关,以及 (ii) 删除它们会导致显着的性能下降。基于这些见解,我们提出了 Heavy Hitter Oracle (H2O),这是一种 KV 缓存驱逐策略,可动态保留最近词元和 H2 词元的平衡。我们将KV缓存逐出表述为一个动态子模问题,并证明了(在温和的假设下)我们新颖的逐出算法的理论保证,可以帮助指导未来的工作。我们使用 OPT、LLaMA 和 GPT-NeoX 在各种任务中验证了算法的准确性。在 OPT-6.7B 和 OPT-30B 上,我们实施了 20% 重击器的 H2O,将吞吐量提高了 29×、29× 和 3× 三个领先的推理系统 DeepSpeed Zero-Inference、Hugging Face Accelerate 和 FlexGen。在相同的批量大小下,H2O 最多可以减少 1.9× 的延迟。
-
OpenMOSS/CoLLiE 帮助您从零开始训练大模型的完整工具箱。它提供了数据预处理、模型微调、模型保存以及训练过程各项指标监测等功能。CoLLiE集成了现有的并行策略、高效参数微调方法和高效优化器,以加快训练的速度,提高训练的质量,降低训练的开销。CoLLiE支持主流的多种模型(如MOSS, InternLM, LLaMA, ChatGLM等),您可以轻松在不同的模型之间切换。此外,CoLLiE提供了丰富的文档,使初学者可以快速入门。同时,CoLLiE还提供了高度可定制化的功能和灵活的配置选项,使有经验的用户能够根据自己的需求进行个性化定制。无论您是初学者还是有经验的专业人士,CoLLiE都可以为您提供满足需求的解决方案。CoLLiE 基于 DeepSpeed 和 PyTorch,为大型语言模型提供协作式和高效的调优方法。
-
aurorax-neo/free-gpt3.5-2api 免费chat GPT API
-
open-compass/T-Eval 逐步评估大型语言模型的工具利用能力
-
ymcui/Chinese-LLaMA-Alpaca-3 基于Meta最新发布的新一代开源大模型Llama-3开发,是Chinese-LLaMA-Alpaca开源大模型相关系列项目(一期、二期)的第三期。本项目开源了中文Llama-3基座模型和中文Llama-3-Instruct指令精调大模型。这些模型在原版Llama-3的基础上使用了大规模中文数据进行增量预训练,并且使用精选指令数据进行精调,进一步提升了中文基础语义和指令理解能力,相比二代相关模型获得了显著性能提升。
-
zjukg/KnowPAT 一种LLMs与人类知识偏好保持一致的新管道。KnowPAT结合领域知识图谱来构建偏好集并设计新的对齐目标,以微调.LLMs
-
usyd-fsalab/fp6_llm 高效的 GPU 支持 6 位量化 (FP6) LLM 推理。与 4 位和 8 位量化对应物相比,6 位量化 (FP6) 可以在模型质量和推理成本之间实现更好的权衡,从而有效地减小大型语言模型的大小 (LLMs),并在各种应用程序中保持一致地保持模型质量。为了支持现代 GPU LLMs 的 6 位推理,我们提供了 FP6-LLM 的官方实现,在 fp16/int8 基线上实现了线性层的显著加速和 GPU 内存的缩减。高效的 CUDA 实现,用于启用 Tensor Core 的线性层(FP6 中的权重和 FP16 格式的激活)的混合输入矩阵乘法。
-
Abbey4799/CELLO CELLO 是系统评估大型语言 MOdels 的 ComplEx 指令理解能力的基准 (AAAI 2024)。我们为复杂指令设计了八个特征,并根据真实场景构建了一个全面的评估数据集。我们建立了四个标准并制定了相应的指标,因为目前的指标是不充分的、有偏见的或过于严格和粗糙的。我们通过大量的实验比较了具有代表性的面向中文和面向英语的模型在遵循复杂指令方面的性能。
-
tmlr-group/DeepInception 催眠大型语言模型成为越狱者。披露了一种轻量级的方法,称为DeepInception,它可以很容易地催眠LLM成为越狱者并解锁其滥用风险。具体来说,《深度盗梦空间》利用拟LLM人化能力构建新颖的嵌套场景来表现,实现了正常场景下逃避使用控制的自适应方式,为进一步的直接越狱提供了可能性。根据经验,我们进行了全面的实验以证明其功效。我们的 DeepInception 可以达到与前代同行竞争的越狱成功率,并在后续交互中实现连续越狱,这揭示了 Falcon、Vicuna、Llama-2 和 GPT-3.5/4/4V 等开源/闭源LLMs自输的关键弱点。我们的调查呼吁人们应该更加关注安全方面,LLMs并加强对滥用风险的防御。
-
Datayoo/HuggingFists 一个低代码数据流工具,允许方便地LLM使用 和 HuggingFace 模型,其中一些功能被认为是 Langchain 的低代码版本。
-
datawhalechina/self-llm 《开源大模型食用指南》基于Linux环境快速部署开源大模型,更适合中国宝宝的部署教程
-
developersdigest/llm-answer-engine 使用 Next.js、Groq、Mixtral、Langchain、OpenAI、Brave 和 Serper 构建受Perplexity(LLM智能搜索)启发的答案搜索引擎。包含构建复杂的应答引擎所需的代码和说明,该引擎利用了 Groq、Mistral AI 的 Mixtral、Langchain.JS、Brave Search、Serper API 和 OpenAI 的功能。该项目旨在根据用户查询有效地返回源、答案、图像、视频和后续问题,对于对自然语言处理和搜索技术感兴趣的开发人员来说,这是一个理想的起点。
-
Zjh-819/LLMDataHub 指令微调数据集的快速指南,提供了专为聊天机器人训练设计的精选数据集集合,包括链接、大小、语言、用法以及每个数据集的简要描述。我们的目标是让研究人员和从业者更容易识别和选择最相关和最有用的数据集,以满足他们的聊天机器人LLM培训需求。无论您是致力于提高聊天机器人对话质量、响应生成还是语言理解,此存储库都能满足您的需求。
-
dvlab-research/LongLoRA LongLoRA 和 LongAlpaca 长上下文LLMs。在LongLoRA方法中,所提出的转移短注意力易于实现,与Flash-Attention兼容,并且在推理过程中不需要。我们发布了所有模型,包括 7B 到 70B 的模型,上下文长度从 8k 到 100k。我们建立了一个长上下文指令跟踪数据集 LongAlpaca-12k。我们发布了相应的 LongAlpaca-7B、LongAlpaca-13B 和 LongAlpaca-70B 型号。
-
modelscope/agentscope 以更简单的方式开始构建LLM赋能的多代理应用程序。创新的多智能体平台,旨在使开发人员能够构建具有大规模模型的多智能体应用程序。它具有三个高级功能:
易于使用
:专为开发人员设计,具有丰富的组件、全面的文档和广泛的兼容性。此外,AgentScope Workstation 还为 AgentScope 的初学者提供了拖放式编程平台和副驾驶!高健壮性
s:支持自定义容错控制和重试机制,增强应用稳定性。基于参与者的分发
:以集中式编程方式构建分布式多代理应用程序,以简化开发。 -
young-geng/EasyLM 在 JAX/Flax LLMs 中进行预训练、微调、评估和服务的一站式解决方案,EasyLM 可以利用 JAX 的 pjit 功能将训练扩展到LLM数百个 TPU/GPU 加速器。
-
ianarawjo/ChainForge 用于战斗测试的开源可视化编程环境提示 LLMs。用于分析和评估LLM响应的数据流提示工程环境。它面向提示、聊天响应和响应质量的早期、快速和肮脏的探索,超越了与个人LLMs的临时聊天。使用 ChainForge,您可以:一次查询多个LLMs,以快速有效地测试提示的想法和变化。比较不同提示排列、不同模型和不同模型设置的响应质量,以选择适合您用例的最佳提示和模型。设置评估指标(评分功能),并立即可视化提示、提示参数、模型和模型设置的结果。跨模板参数和聊天模型同时进行多个对话。模板不仅提示,而且跟进聊天消息,并在聊天对话的每个回合检查和评估输出。
-
intel/neural-compressor SOTA低比特LLM量化(INT8/FP8/INT4/FP4/NF4)和稀疏性;TensorFlow、PyTorch 和 ONNX Runtime 上的领先模型压缩技术。® 英特尔神经压缩器旨在提供流行的模型压缩技术,如量化、修剪(稀疏性)、蒸馏和神经架构搜索等主流框架,如 TensorFlow、PyTorch、ONNX Runtime 和 MXNet,以及英特尔扩展,如面向 TensorFlow 的英特尔扩展和面向 PyTorch 的英特尔扩展。
-
billmei/every-chatgpt-gui ChatGPT 的每个前端 GUI 客户端项目列表
-
stanford-crfm/levanter 用于训练大型语言模型 (LLMs) 和其他基础模型的框架,旨在实现可读性、可伸缩性和可重复性。清晰易读:Levanter 使用我们命名的张量库 Haliax 编写易于理解、可组合的深度学习代码,同时仍然保持高性能。可扩展:Levanter 可扩展到大型模型,并能够在各种硬件上进行训练,包括 GPU 和 TPU。可重现:Levanter 是按位确定性的,这意味着相同的配置将始终产生相同的结果,即使面对抢占和恢复。
-
horizon-ui/chatgpt-ai-template Horizon AI 模板 - 最时尚的开源 ChatGPT UI AI 模板和入门套件,适用于 React、NextJS 和 Chakra UI
-
Niek/chatgpt-web 使用 OpenAI API 的 ChatGPT Web 界面
-
cogentapps/chat-with-gpt 开源的非官方 ChatGPT 应用程序,具有额外的功能和更多自定义体验的方式。它将 ChatGPT 与 ElevenLabs 连接起来,为 ChatGPT 提供逼真的人类声音。
-
patrikzudel/PatrikZeros-ChatGPT-API-UI 静态网页,允许您使用 OpenAI API 密钥获得与 ChatGPT 相同的体验!
-
ShipBit/slickgpt 轻量级的“使用你自己的 API 密钥”Web 客户端,用于用 Svelte 编写的 OpenAI API。它提供 GPT-4 集成、无用户共享功能和其他超能力。
-
ysymyth/ReAct ICLR 2023年 ReAct:在语言模型中协同推理和行动。采用多轮次的“想法(thought)+动作(act)+结果(obs)”方式,让LLM把内心独白(想法)说出来,然后再根据独白做相应的动作,获得结果,来提高最终的LLM答案准确性。
-
NVIDIA/GenerativeAIExamples 针对加速基础架构和微服务架构优化的生成式 AI 参考工作流。
-
swirlai/swirl-search 开源软件,它使用 AI 同时搜索多个内容和数据源,使用阅读器LLM找到最佳结果,然后提示生成式 AI,使您能够从自己的数据中获得答案。旨在简化 AI 基础设施的设置。它支持检索增强生成 (RAG)、分析和 Co-Pilot 等强大工具,通过 AI 增强企业的决策能力。
-
modelscope/data-juicer 为大语言模型提供更高质量、更丰富、更易”消化“的数据!特征:系统化和可重用:为用户提供包含 80+ 核心 OP、20+ 可重用配置配方和 20+ 功能丰富的专用工具包的系统库,旨在独立于特定的多模态LLM数据集和处理管道运行。Data-in-the-loop & Sandbox:支持一站式数据模型协同开发,通过沙盒实验室实现快速迭代,提供基于数据和模型的反馈循环、可视化、多维度自动评估等功能,让您更好地理解和改进您的数据和模型。提高效率:提供高效并行的数据处理流水线(Aliyun-PAI\Ray\Slurm\CUDA\OP Fusion),需要更少的内存和CPU使用率,并针对最大生产力进行优化。全面的数据处理配方:提供数十种预建的数据处理配方,用于预训练、微调、en、zh 等场景。在参考 LLaMA 和 LLaVA 模型上进行了验证。灵活和可扩展:适应大多数类型的数据格式(例如,jsonl、parquet、csv等),并允许灵活组合OP。随意实现您自己的 OP 以进行可自定义的数据处理。用户友好体验:为简单而设计,具有全面的文档、简单的入门指南和演示配置,以及通过在现有配置中简单添加/删除 OP 的直观配置。
-
google/maxtext 高性能、高度可扩展的开源产品,采用纯 Python/Jax LLM 编写,面向 Google Cloud TPU 和 GPU 进行训练和推理。MaxText 实现了高 MFU,并从单个主机扩展到非常大的集群,同时由于 Jax 和 XLA 编译器的强大功能而保持简单和“免优化”。
-
KnowledgeCanvas/knowledge 知识是一种用于保存、搜索、访问、探索和聊天所有您喜爱的网站、文档和文件的工具。通过 Knowledge 的新聊天功能,深入体验更具互动性的学习体验!利用大型语言模型的强大功能,与您的项目和资源进行动态对话。提出问题、探索概念并加深您的理解,所有这些都在直观的聊天界面中完成。
-
zjunlp/LLMAgentPapers 关于大型语言模型代理的必读论文。
-
eli64s/readme-ai 一种开发人员工具,它使用数据提取和生成式 AI 的组合自动生成 README.md 文件。只需提供代码库的存储库 URL 或本地路径,即可生成结构良好且详细的 README 文件。
-
MLGroupJLU/LLM-eval-survey 调查论文“大型语言模型评估调查”的官方 GitHub 页面。
-
SciPhi-AI/R2R RAG系统快速开发和部署的框架。R2R 是 RAG to Riches 的缩写,它提供了向最终用户提供高质量检索增强生成 (RAG) 的最快、最有效的方式。该框架围绕可自定义的管道和功能丰富的 FastAPI 实现构建。主要特点,生成:使用框架生成任意异步管道。部署:立即启动具有流式处理功能的生产就绪异步 RAG 管道。自定义:使用直观的配置文件定制您的多式联运管道。扩展:使用自定义代码集成增强管道。OSS:受益于开源社区开发的框架,该框架旨在简化 RAG 部署。
-
Farama-Foundation/chatarena 提供多智能体语言游戏环境的库,并促进了对自主LLM智能体及其社交交互的研究。它提供以下功能:抽象:它提供了一个灵活的框架,基于马尔可夫决策过程来定义多个参与者、环境以及它们之间的交互。语言游戏环境:它提供了一组可以帮助理解、基准测试或训练代理LLMs的环境。用户友好的界面:它提供 Web UI 和 CLI,以开发/提示工程师您的LLM代理在环境中行动。
-
amazon-science/auto-cot “大型语言模型中的自动思维链提示”的官方实现,用“让我们一步一步地思考”的提示让 AI 振作起来?请多多说。让我们不仅要一步一步地思考,还要一个一个地思考。Auto-CoT 使用更多的cheers和多样性来节省思维链提示设计中的巨大手动工作,匹配甚至超过 GPT-3 上的手动设计性能。
-
LLMBook-zh/LLMBook-zh.github.io 《大语言模型》作者:赵鑫,李军毅,周昆,唐天一,文继荣。希望读者通过阅读本书,能够深入了解大模型技术的现状和未来趋势,为自己的研究和实践提供指导和启发。让我们携手努力,共同推动人工智能技术的发展,为建立更智能、更可持续的未来做出贡献。
-
RUCAIBox/LLMBox 用于实现LLMs的综合库,包括统一的训练管道和全面的模型评估。
-
jackaduma/awesome_LLMs_interview_notes 主要记录大模型(LLMs)算法工程师相关的面试题和参考答案
-
hyp1231/awesome-llm-powered-agent 由于大型语言模型(LLMs)令人印象深刻的规划、推理和工具调用功能,人们正在积极研究和开发LLM由智能体驱动的代理。这些智能体可以自主(和协作)解决复杂的任务,或模拟人类交互。
-
ItzCrazyKns/Perplexica 人工智能驱动的搜索引擎。它是 Perplexity AI 的开源替代品。可以深入互联网寻找答案。受 Perplexity AI 的启发,它是一个开源选项,不仅可以搜索网络,还可以理解您的问题。它使用先进的机器学习算法(如相似性搜索和嵌入)来优化结果,并提供明确的答案和引用的来源。Perplexica 使用 SearxNG 保持最新和完全开源,确保您始终在不损害隐私的情况下获得最新信息。特征:本地 LLMs:您可以使用 Ollama 使用本地LLMs,例如 Llama3 和 Mistral。Copilot 模式:(开发中)通过生成不同的查询来查找更相关的互联网资源,从而增强搜索。与普通搜索一样,它不仅使用 SearxNG 的上下文,而是访问排名靠前的匹配项,并尝试直接从页面中找到与用户查询相关的来源。正常模式:处理查询并执行 Web 搜索。专注模式:特殊模式,可更好地回答特定类型的问题。Perplexica 目前有 6 种对焦模式:所有模式:搜索整个网络以找到最佳结果。写作助手模式:有助于编写不需要搜索网络的任务。学术搜索模式:查找文章和论文,非常适合学术研究。YouTube 搜索模式:根据搜索查询查找 YouTube 视频。Wolfram Alpha 搜索模式:使用 Wolfram Alpha 回答需要计算或数据分析的查询.Reddit 搜索模式:在 Reddit 中搜索与查询相关的讨论和意见。当前信息:某些搜索工具可能会为您提供过时的信息,因为它们使用来自爬虫机器人的数据,并将其转换为嵌入内容并将其存储在索引中。与它们不同的是,Perplexica 使用 SearxNG(一个元搜索引擎)来获取结果并重新排名并从中获取最相关的来源,确保您始终获得最新信息,而无需每日数据更新的开销。
-
reorproject/reor 私人和本地AI个人知识管理应用程序。Reor 是一款 AI 驱动的桌面笔记应用程序:它会自动链接相关笔记、回答笔记上的问题、提供语义搜索并可以生成 AI 抽认卡。所有内容都存储在本地,您可以使用类似 Obsidian 的 Markdown 编辑器编辑笔记。
-
yihong0618/bilingual_book_maker AI 翻译工具,它使用 ChatGPT 帮助用户创建多语言版本的 epub/txt/srt 文件和书籍。此工具专为翻译已进入公有领域的 epub 图书而设计,不适用于受版权保护的作品。
-
infiniflow/ragflow RAGFlow 是一个基于深度文档理解的开源 RAG(检索增强生成)引擎。它为任何规模的企业提供简化的 RAG 工作流程,结合LLM(大型语言模型)以提供真实的问答功能,并以来自各种复杂格式数据的有根据的引用为后盾。主要特点:
“质量进,质量出”
:从具有复杂格式的非结构化数据中提取基于文档理解的深度知识。找到“数据大海捞针”,从字面上看是无限的词元。基于模板的分块
:智能且可解释。大量模板选项可供选择。减少幻觉的有根据的引文
:文本分块的可视化,以允许人工干预。快速查看关键参考文献和可追溯的引文,以支持有根据的答案。与异构数据源的兼容性
:支持 Word、幻灯片、excel、txt、图像、扫描副本、结构化数据、网页等。自动化且轻松的 RAG 工作流程
:简化的 RAG 编排,可满足个人和大型企业的需求。可LLMs配置和嵌入模型。多次召回与融合重新排名配对。直观的 API,可与业务无缝集成。 -
evilsocket/cake 适用于移动、桌面和服务器的分布式LLM推理。一个 Rust 框架,用于基于 Candle 的 LLama3 等大型模型的分布式推理。该项目的目标是通过将消费类硬件重新利用到 iOS、Android、macOS、Linux 和 Windows 设备的异构集群中,能够运行大型 (70B+) 模型,有效地利用计划中的过时作为工具,使 AI 更易于访问和民主。这个想法是将转换器模块分片到多个设备,以便能够在通常不适合单个设备的 GPU 内存的模型上运行推理。对同一工作线程上的连续变压器模块的推理是批处理的,以最大程度地减少由于数据传输而导致的延迟。
-
EricLBuehler/mistral.rs 极快LLM的推理速度。Mistral.rs 是一个快速LLM推理平台,支持在各种设备上进行推理、量化和易于使用的应用程序,具有兼容 Open-AI API 的 HTTP 服务器和 Python 绑定。
-
1Panel-dev/MaxKB 基于 LLM 大语言模型的知识库问答系统。开箱即用、模型中立、灵活编排,支持快速嵌入到第三方业务系统,1Panel 官方出品。开箱即用:支持直接上传文档、自动爬取在线文档,支持文本自动拆分、向量化、RAG(检索增强生成),智能问答交互体验好;模型中立:支持对接各种大语言模型,包括本地私有大模型(Llama 3 / Qwen 2 等)、国内公共大模型(通义千问 / 智谱 AI / 百度千帆 / Kimi / DeepSeek 等)和国外公共大模型(OpenAI / Azure OpenAI / Gemini 等);灵活编排:内置强大的工作流引擎,支持编排 AI 工作过程,满足复杂业务场景下的需求;无缝嵌入:支持零编码快速嵌入到第三方业务系统,让已有系统快速拥有智能问答能力,提高用户满意度。
-
LLM-Red-Team/kimi-free-api KIMI AI 长文本大模型逆向API白嫖测试【特长:长文本解读整理】,支持高速流式输出、智能体对话、联网搜索、长文档解读、图像OCR、多轮对话,零配置部署,多路token支持,自动清理会话痕迹。
-
kvcache-ai/Mooncake Mooncake 是 Moonshot AI 提供的领先LLM服务 Kimi 的服务平台。以 KVCache 为中心的服务LLM分解架构,Mooncake 采用以 KVCache 为中心的分解架构,将预填充和解码集群分开。它还利用 GPU 集群中未充分利用的 CPU、DRAM 和 SSD 资源来实现 KVCache 的分解缓存。Mooncake 的核心是其以 KVCache 为中心的调度器,它在最大化整体有效吞吐量的同时满足与延迟相关的服务级别目标 (SLO) 要求之间取得平衡。与假设所有请求都将得到处理的传统研究不同,Mooncake 面临着高度过载场景带来的挑战。为了缓解这些问题,我们制定了基于预测的早期拒绝政策。实验表明,Mooncake 在长上下文场景中表现出色。与基线方法相比,Mooncake 在遵守 SLO 的同时,在某些模拟场景中可以实现高达 525% 的吞吐量提升。在实际工作负载下,Mooncake 的创新架构使 Kimi 能够处理 75% 以上的请求。
-
lm-sys/RouteLLM 用于服务和评估LLM路由器的框架 - 在不影响质量的情况下节省LLM成本!我们的核心功能包括:直接替代 OpenAI 的客户端(或启动兼容 OpenAI 的服务器),将更简单的查询路由到更便宜的模型。训练有素的路由器开箱即用,我们已经证明,在 MT Bench 等广泛使用的基准测试中,它可以将成本降低多达 85%,同时保持 95% 的 GPT-4 性能。基准测试还表明,这些路由器实现了与商业产品相同的性能,同时便宜>40%。轻松扩展框架以包含新路由器,并比较路由器在多个基准测试中的性能。
-
truera/trulens TruLens 提供了一套用于开发和监控神经网络的工具,包括大型语言模型。这包括使用 TruLens-Eval 评估LLMs和LLM基于应用程序的工具,以及使用 TruLens-Explain 的深度学习可解释性。TruLens-Eval 和 TruLens-Explain 装在单独的封装中,可以独立使用。更快地创建可靠且功能强大的LLM应用程序。TruLens 是一种软件工具,可帮助您使用反馈功能客观地衡量基于应用程序LLM的质量和有效性。反馈函数有助于以编程方式评估输入、输出和中间结果的质量,以便您可以加快和扩大实验评估。将其用于各种用例,包括问答、摘要、检索增强生成和基于代理的应用程序。
-
b4rtaz/distributed-llama 张量并行性就是您所需要的。在弱设备上运行LLMs,或者通过分配工作负载和划分 RAM 使用量来使功能强大的设备更加强大。这个项目证明,在多个设备之间分配工作LLMs负载并实现显着的加速是可能的。分布式 Llama 允许您在内部运行大量LLMs内容。该项目使用 TCP 套接字来同步状态。您可以使用家用路由器轻松配置 AI 集群。该项目分为两部分:根节点 - 它负责加载模型和权重并将它们转发给工作线程。此外,它还同步神经网络的状态。根节点也是一个工作节点,它处理神经网络的自己的切片。工作节点 - 它处理神经网络的自己的切片。它不需要与模型相关的任何配置。您始终需要根节点,您可以添加 2^n - 1 个工作节点来加快推理速度。神经网络的 RAM 使用量在所有节点上分配。根节点需要的 RAM 比工作节点多一点。
-
thu-bpm/markllm MarkLLM 是一个开源工具包,旨在促进大型语言模型 (LLMs) 中水印技术的研究和应用。随着大型语言模型 (LLMs) 的使用范围扩大,确保机器生成文本的真实性和来源变得至关重要。MarkLLM 简化了对水印技术的访问、理解和评估,使其可供研究人员和更广泛的社区使用。实现框架:MarkLLM 为各种LLM水印算法的实现提供了一个统一且可扩展的平台。它目前支持来自两个著名家族的九种特定算法,促进了水印技术的集成和扩展。目前支持的算法:KGW,Unigram,SWEET,UPV,EWD,SIR,X-SIR,EXP,EXP-Edit,ITS-Edit。可视化解决方案:该工具包包括自定义可视化工具,可以清晰而深入地了解不同水印算法在各种场景下的运行方式。这些可视化有助于揭开算法机制的神秘面纱,使用户更容易理解它们。评估模块:MarkLLM 拥有 12 种评估工具,涵盖可检测性、鲁棒性和对文本质量的影响,在其评估水印技术的综合方法中脱颖而出。它还具有可定制的自动化评估管道,可满足不同的需求和场景,从而增强了工具包的实际实用性。
-
bricks-cloud/BricksLLM Go 编写的云原生 AI 企业级 API 网关,可帮助您监控每个 API 密钥并施加成本或速率限制。为每个用户、应用程序或环境提供精细的访问控制和监控。支持 OpenAI、Azure OpenAI、Anthropic、vLLM 和开源LLMs。
-
varunshenoy/super-json-mode 超级 JSON 模式是一个 Python 框架,LLM通过将目标模式分解为原子组件,然后并行执行生成,可以有效地创建结构化输出。它既支持通过 OpenAI 的传统完成 API 实现的最新技术LLMs,也支持开源,LLMs例如通过 Hugging Face Transformers 和 vLLM。更多LLMs内容将很快得到支持!与依赖提示和 HF Transformer 的朴素 JSON 生成管道相比,我们发现超级 JSON 模式的输出生成速度提高了 10 倍。与朴素一代相比,它也更具确定性,不太可能遇到解析问题。
-
QmiAI/Qmedia 专为内容创作者设计的开源 AI 内容搜索引擎。支持文本、图像和短视频的提取。允许完全本地部署(Web 应用程序、RAG 服务器、LLM服务器)。支持多模式 RAG 内容问答。主要特点:搜索图像/文本和短视频材料。高效分析图片/文字和短视频内容,整合零散信息。提供内容来源,分解图像/文本和短视频信息,通过内容卡片呈现信息。根据用户的兴趣和需求,从图像/文本和短视频内容中生成自定义搜索结果。本地部署,支持离线内容搜索和私有数据问答。
-
AUGMXNT/deccp 逃避和取消中国LLM的审查制度,当前代码是用于取消审查 Qwen 2 Instruct 模型的 PoC。95 个拒绝问题数据集augmxnt/deccp,实验得知:在相同的问题上,中文的拒绝率实际上比英语少得多(>80%)。总结一下:Qwen 2 Instruct 被广泛地 RL 以符合政府/政策要求;EN 与 CN 响应中的一些明显差异;可以消除大部分的拒绝,但这并不一定能改善中国的回应,所以如果这种调整困扰你,你不应该使用RL的中国模型。
-
Psycoy/MixEval MixEval的官方评估套件和动态数据发布。在领先的基准测试中,MixEval 和 MixEval-Hard 与 Arena Elo 和 Arena Elo (En) 的相关性最高。在估计在Chatbot Arena上评估单个模型的成本(约合2,936美元)时,我们参考了Amazon Mechanical Turk的众包价格(每票0.05美元)。Chatbot Arena 的价格高得令人望而却步,而 MixEval 和 MixEval-Hard 是便宜且具有成本效益的替代品。基于基准事实值的动态基准测试,源自现成的基准测试混合物,它LLMs以高性能的模型排名(即,与 Chatbot Arena 的 0.96 相关性)进行评估,同时在本地快速运行(运行 MMLU 的时间和成本的 6%),其查询每月稳定且轻松地更新以避免污染。
-
phidatahq/phidata 使用内存、知识和工具构建 AI 助手。Phidata 是一个用于构建自主助手(又名代理)的框架,这些助手具有长期记忆、上下文知识和使用函数调用采取行动的能力。使用 phidata 将任何LLM内容变成 AI 助手,它可以:使用 DuckDuckGo、Google 等搜索网络。使用 SQL、DuckDb 等分析数据。进行研究并生成报告。回答来自 PDF、API 等的问题。为电影、书籍等编写剧本。总结文章、视频等。执行发送电子邮件、查询数据库等任务。利用内存、知识和工具进行扩展LLMs:记忆:将聊天记录存储在数据库中,LLMs并允许进行长期对话。知识:将信息存储在矢量数据库中,并提供LLMs业务上下文。工具:启用此选项LLMs可执行从 API 拉取数据、发送电子邮件或查询数据库等操作。
-
leptonai/search_with_lepton 使用 Lepton AI 构建基于对话的快速搜索演示。使用少于 500 行代码构建您自己的对话式搜索引擎。内置支持LLM;内置对搜索引擎的支持;可定制的漂亮UI界面;可共享的缓存搜索结果。有两个默认支持的搜索引擎:Bing 和 Google。
-
https://github.com/langchain-ai/opengpts 创建与 OpenAI 的 GPT 和助手 API 类似的体验。它由 LangGraph 提供支持 - 一个用于创建代理运行时的框架。它还建立在LangChain、LangServe和LangSmith之上。OpenGPT 为您提供更多控制权,允许您配置:您使用的(LLM在LangChain提供的60+之间选择);您使用的提示(使用 LangSmith 调试这些提示);您给它的工具(从LangChain的100+工具中选择,或轻松编写自己的工具);您使用的向量数据库(从LangChain的60+向量数据库集成中选择);您使用的检索算法;您使用的聊天记录数据库。最重要的是,它使您可以完全控制应用程序的认知架构。目前,已实现三种不同的架构:助理、RAG、聊天机器人。
-
langchain-ai/langchainjs 通过LLMs可组合性构建应用程序,LangChain是用TypeScript编写的,可用于:Node.js(ESM 和 CommonJS) - 18.x、19.x、20.x、22.x;Cloudflare Workers;Vercel / Next.js(浏览器、Serverless 和 Edge 功能);Supabase Edge 函数;浏览器;Deno。LangChain是一个用于开发由语言模型驱动的应用程序的框架。它使应用程序能够:具有上下文感知能力:将语言模型连接到上下文源(提示指令、少量镜头示例、内容以使其响应为基础等);原因:依靠语言模型进行推理(关于如何根据提供的上下文回答、采取什么行动等)。该框架由几个部分组成:开源库:使用 LangChain 的开源构建块、组件和第三方集成来构建您的应用程序,使用 LangGraph.js 构建具有一流和人机交互支持的状态代理。生产化:使用LangSmith来检查、监控和评估您的链,以便您可以放心地持续优化和部署。部署:使用 LangGraph Cloud(目前仅限 Python)将您的 LangGraph 应用程序转换为生产就绪的 API 和助手。
-
microsoft/lida LIDA是一个用于生成数据可视化和数据忠实信息图表的库。LIDA 与语法无关(适用于任何编程语言和可视化库,例如 matplotlib、seaborn、altair、d3 等),并与多个大型语言模型提供商(OpenAI、Azure OpenAI、PaLM、Cohere、Huggingface)配合使用。
-
PawanOsman/ChatGPT 欢迎使用 ChatGPT API 免费反向代理,它以 OpenAI 熟悉的结构提供对 ChatGPT ( gpt-3.5-turbo ) 的免费自托管 API 访问,因此无需更改代码。
-
microsoft/vidur 高保真和可LLM扩展的推理模拟器。它可以帮助您:容量规划并为您的LLM部署找到最佳部署配置。测试新的研究理念,如新的调度算法,优化,如推测解码等。研究模型在不同工作负载和配置下的系统性能。
-
decodingml/llm-twin-course 免费学习如何使用 LLMOps 最佳实践构建端到端生产就绪的 LLM 和 RAG 系统:~ 源代码 + 12 节实践课。您将学习如何从头到尾构建和构建真实世界的LLM系统 - 从数据收集到部署。您还将学习利用 MLOps 最佳实践,例如实验跟踪器、模型注册表、提示监视和版本控制。
-
cohere-ai/cohere-toolkit Cohere Toolkit 是预构建组件的集合,使用户能够快速构建和部署 RAG 应用程序。
-
truefoundry/cognita TrueFoundry 开发的 RAG(Retrieval Augmented Generation)框架,用于构建模块化、开源应用程序。Langchain/LlamaIndex 提供了易于使用的抽象,可用于在 jupyter 笔记本上进行快速实验和原型设计。但是,当事情进入生产阶段时,会有一些限制,例如组件应该是模块化的、易于扩展和可扩展的。这就是 Cognita 发挥作用的地方。Cognita 在后台使用 Langchain/Llamaindex,并为您的代码库提供一个组织,其中每个 RAG 组件都是模块化的、API 驱动的且易于扩展。Cognita 可以在本地设置中轻松使用,同时为您提供生产就绪环境以及无代码 UI 支持。Cognita 还默认支持增量索引。Cognita 是一个开源框架,用于组织您的 RAG 代码库以及用于处理不同 RAG 自定义的前端。它提供了一种组织代码库的简单方法,以便轻松在本地测试代码库,同时还可以将其部署在生产就绪环境中。从 Jupyter Notebook 生产 RAG 系统时出现的关键问题是:分块和嵌入作业:通常需要将分块和嵌入代码抽象出来并作为作业进行部署,有时,作业需要按计划运行或通过事件触发,以保持数据更新;查询服务:从查询中生成答案的代码需要封装在像 FastAPI 这样的 api 服务器中,并且应该作为服务进行部署,此服务应该能够同时处理多个查询,并且还可以使用更高的流量自动缩放;LLM / 嵌入模型部署:很多时候,如果我们使用的是开源模型,我们会在 Jupyter notebook 中加载模型,这需要在生产环境中作为单独的服务进行托管,并且需要将模型作为 API 调用;Vector DB 部署:大多数测试发生在内存或磁盘上的 Vector DB 上,在生产环境中,需要以更具可扩展性和可靠性的方式部署数据库。Cognita 使定制和试验 RAG 系统的所有内容变得非常容易,并且仍然能够以一种良好的方式部署它。它还附带了一个 UI,可以更轻松地尝试不同的 RAG 配置并实时查看结果。您可以在本地使用它,也可以在使用/不使用任何Truefoundry组件的情况下使用它。但是,使用Truefoundry组件可以更轻松地测试不同的模型并以可扩展的方式部署系统。Cognita 允许您使用一个应用程序托管多个 RAG 系统。
-
microsoft/UFO 用于 Windows 操作系统交互的以 UI 为中心的代理。UFO 是一个以 UI 为中心的多代理框架,通过在单个或跨多个应用程序中无缝导航和操作来满足 Windows 操作系统上的用户请求。UFO作为一个多智能体框架运行,包括:HostAgent 任务是选择一个应用程序来满足用户请求,当请求跨越多个应用程序,并且任务在前一个应用程序中部分完成时,此代理也可能切换到不同的应用程序;AppAgent 负责在选定的应用程序上迭代执行操作,直到在特定应用程序中成功完成任务;Application Automator 的任务是将 HostAgent 和 AppAgent 的操作转换为与应用程序的交互,并通过 UI 控件、本机 API 或 AI 工具进行交互。
-
baptisteArno/typebot.io Typebot 是一个强大的聊天机器人构建器,您可以自行托管。它允许您直观地创建高级聊天机器人,将它们嵌入到您的网络/移动应用程序上的任何位置,并实时收集结果。Typebot 使创建高级聊天机器人变得容易。它提供了适用于任何业务用例的构建块。我会定期通过错误修复、新功能和性能改进来改进 Typebot。具有 34+ 构建块的聊天构建器,例如: 气泡:文本、图像/GIF、视频、音频、嵌入; 输入:文本、电子邮件、电话号码、按钮、图片选择、日期选择器、付款 (Stripe)、文件选择器......输入;逻辑:条件分支、URL 重定向、脚本 (Javascript)、A/B 测试;集成:Webhook / HTTP 请求、OpenAI、Google 表格、Google Analytics、Meta Pixel、Zapier、Make.com、Chatwoot、更多
-
logancyang/obsidian-copilot Copilot for Obsidian 是 Obsidian 内部的一个免费开源 ChatGPT 界面。它具有简约的设计,并且易于使用。我的目标是让这个 AI 助手以本地为先,以隐私为中心。它有一个本地向量存储,可以完全离线地使用本地模型进行聊天和 QA。
-
TransformerLensOrg/TransformerLens GPT 风格语言模型的机械可解释性库。机理可解释性的目标是采用经过训练的模型,并对模型在训练期间从其权重中学习的算法进行逆向工程。TransformerLens 允许您加载 50+ 种不同的开源语言模型,并向您公开模型的内部激活。您可以在模型中缓存任何内部激活,并添加函数以在模型运行时编辑、删除或替换这些激活。
-
OSU-NLP-Group/HippoRAG HippoRAG 是一个新颖的 RAG 框架,其灵感来自人类的长期记忆,能够LLMs不断整合外部文档中的知识。RAG + 知识图谱 + 个性化 PageRank。
-
langchain-ai/langgraph 将语言代理构建为图形。LangGraph 是一个库,用于构建有状态的多参与者应用程序,用于LLMs创建代理和多代理工作流。与其他LLM框架相比,它提供了以下核心优势:周期、可控性和持久性。LangGraph 允许您定义涉及周期的流程,这对于大多数代理架构来说是必不可少的,并将其与基于 DAG 的解决方案区分开来。作为一个非常低级的框架,它提供了对应用程序的流和状态的细粒度控制,这对于创建可靠的代理至关重要。此外,LangGraph 还包含内置的持久性,可实现高级的人机交互和内存功能。LangGraph 的灵感来自 Pregel 和 Apache Beam。公共接口的灵感来自 NetworkX。LangGraph 由 LangChain 的创建者 LangChain Inc 构建,但可以在没有 LangChain 的情况下使用。主要特点:循环和分支:在应用中实现循环和条件。持久性:在图表中的每一步后自动保存状态,随时暂停和恢复图形执行,以支持错误恢复、人机交互工作流、时间旅行等。Human-in-the-Loop:中断图形执行以批准或编辑代理计划的下一个操作。流式处理支持:流式传输每个节点产生的输出(包括令牌流式处理)。与LangChain集成:LangGraph与LangChain和LangSmith无缝集成(但不需要它们)。
-
SciSharp/LLamaSharp 可在本地设备上高效运行LLM的 C#/.NET 库 (LLaMA/LLaVA)。
-
AugustDev/enchanted Enchanted 是 iOS 和 macOS 应用程序,用于使用 Ollama 与 Llama2、Mistral 或 Vicuna 等私人自托管语言模型聊天。
-
ConnectAI-E/AutoGPT-Next-Web 在浏览器中组装、配置和部署自主 AI 代理。特点:1 分钟内使用 Vercel 免费一键部署,搭建个人的 AutoGPT 网站;更好的本地支持,输入中文后内容将以中文展示,而不是英文;源自 AgentGPT 优秀的响应式 UI 设计,支持深色模式;支持绑定自有域名,绑定后,你可以无障碍快速访问;支持访问码控制,只有你或者受信的人才可以使用网站。
-
predibase/lorax 多 LoRA 推理服务器,可扩展到 1000 个微调LLMs。LoRAX(LoRA eXchange)是一个框架,允许用户在单个 GPU 上为数千个微调模型提供服务,从而在不影响吞吐量或延迟的情况下显着降低服务成本。特征:动态适配器加载:在您的请求中包含来自 HuggingFace、Predibase 或任何文件系统的任何微调的 LoRA 适配器,它将实时加载而不会阻塞并发请求。根据请求合并适配器,以立即创建强大的集成。异构连续批处理:将不同适配器的请求打包到同一批次中,使延迟和吞吐量与并发适配器的数量几乎保持不变。适配器交换调度:在 GPU 和 CPU 内存之间异步预取和卸载适配器,调度请求批处理以优化系统的聚合吞吐量。优化推理:高吞吐量和低延迟优化,包括张量并行性、预编译 CUDA 内核(flash-attention、paged attention、SGMV)、量化、令牌流。准备好用于生产的预构建 Docker 镜像、Kubernetes 的 Helm 图表、Prometheus 指标以及使用 Open Telemetry 的分布式跟踪。兼容 OpenAI 的 API,支持多轮聊天对话。通过每个请求租户隔离的专用适配器。结构化输出(JSON模式)。免费用于商业用途:Apache 2.0 许可证。
-
gpustack/gpustack GPUStack 是一个开源的 GPU 集群管理器,用于运行大型语言模型。主要特点:支持多种硬件:在 Apple MacBook、Windows PC 和 Linux 服务器中使用不同品牌的 GPU 运行。与您的 GPU 库存一起扩展:轻松添加更多 GPU 或节点以扩大您的运营规模。轻量级 Python 包:最小的依赖项和运营开销。兼容 OpenAI 的 API:提供与 OpenAI 标准兼容的 API。用户和 API 密钥管理:简化了用户和 API 密钥的管理。GPU指标监控:实时监控 GPU 性能和利用率。词元使用和费率指标:跟踪令牌使用情况并有效管理速率限制。
-
BASI-LABS/parseltongue 能强大的提示黑客工具/浏览器扩展,用于实时标记化可视化和无缝文本转换,支持二进制、base64、leetspeak、特殊字符和多种语言等格式。非常适合红队成员、开发人员、语言学家和潜在的探索者。
-
ibeatai/beat-ai 又名 <零生万物> , 是一本专属于软件开发工程师的 AI 入门圣经,手把手带你上手写 AI。从神经网络到大模型,从高层设计到微观原理,从工程实现到算法,学完后,你会发现 AI 也并不是想象中那么高不可攀、无法战胜,Just beat it !
-
openai/openai-quickstart-node OpenAI API 快速入门教程中的Node.js示例应用。
-
modelscope/swift SWIFT 支持 300+ LLMs 和 50+ MLLM(多模态大型模型)的训练(PreTraining/Fine-tuning/RLHF)、推理、评估和部署。开发者可以直接将我们的框架应用到自己的研究和生产环境中,实现从模型训练和评估到应用的完整工作流程。除了支持PEFT提供的轻量级训练方案外,我们还提供完整的Adapters库,以支持NEFTune、LoRA+、LLaMA-PRO等最新的训练技术。此适配器库可以直接在您自己的自定义工作流程中使用,而无需我们的训练脚本。为了方便不熟悉深度学习的用户使用,我们提供了一个用于控制训练和推理的 Gradio 网页用户界面,并为初学者提供了附带的深度学习课程和最佳实践。SWIFT web-ui 在 Huggingface space 和 ModelScope studio 上都可用,请随时尝试!
-
exo-explore/exo 在家中使用日常设备运行自己的 AI 集群。忘记昂贵的 NVIDIA GPU,将现有设备统一到一个强大的 GPU 中:iPhone、iPad、Android、Mac、Linux,几乎任何设备!特征:广泛的模型支持,exo支持LLaMA(MLX和tinygrad)等热门型号。动态模型分区,EXO 根据当前网络拓扑和可用设备资源对模型进行最佳拆分。这使您能够运行比在任何单个设备上更大的模型。自动设备发现,EXO 将使用可用的最佳方法自动发现其他设备。零手动配置。ChatGPT 兼容 API,exo 提供了一个与 ChatGPT 兼容的 API,用于运行模型,只需在您的应用程序中进行一行更改,即可使用 exo 在您自己的硬件上运行模型。设备平等,与其他分布式推理框架不同,exo 不使用 master-worker 架构,exo 设备连接 p2p,只要设备连接到网络中的某个位置,它就可以用于运行模型,Exo支持不同的分区策略,可以在设备之间分割模型,默认的分区策略是环形内存加权分区,这将在一个环中运行推理,其中每个设备运行与设备内存成正比的多个模型层。
-
multimodal-art-projection/MAP-NEO MAP-NEO 是一个完全开源的大型语言模型,包括预训练数据、数据处理管道 (Matrix)、预训练脚本和对齐代码。它在 4.5T 中英文词元上从头开始训练,表现出与 LLaMA2 7B 相当的性能。MAP-Neo 模型在推理、数学和编码等具有挑战性的任务中提供类似专有模型的性能,优于同等规模的同类产品。出于研究目的,我们的目标是在LLM培训过程中实现完全透明。为此,我们全面发布了 MAP-Neo,包括最终和中间检查点、自训练标记器、预训练语料库,以及高效、稳定优化的预训练代码库。
-
miurla/morphic 具有生成式 UI 的 AI 驱动的搜索引擎。特征:使用 GenerativeUI 进行搜索和回答;理解用户的问题;搜索历史功能;共享搜索结果(可选);视频搜索支持(可选);从指定的 URL 获取答案;用作搜索引擎 ;支持 OpenAI 以外的提供商;指定模型以生成答案;Groq API支持
-
higgsfield-ai/higgsfield 容错、高度可扩展的 GPU 编排,以及专为训练具有数十亿到数万亿个参数的模型而设计的机器学习框架。Higgsfield 是一个开源、容错、高度可扩展的 GPU 编排,以及一个机器学习框架,专为训练具有数十亿到数万亿个参数的模型而设计,例如大型语言模型 (LLMs)。Higgsfield 作为 GPU 工作负载管理器和机器学习框架,具有五个主要功能:将对计算资源(节点)的独占和非独占访问权限分配给用户进行训练任务。支持 ZeRO-3 deepspeed API 和 PyTorch 的全分片数据并行 API,实现万亿参数模型的高效分片。提供一个框架,用于在分配的节点上启动、执行和监控大型神经网络的训练。通过维护用于运行试验的队列来管理资源争用。通过与 GitHub 和 GitHub Actions 的无缝集成,促进机器学习开发的持续集成,Higgsfield 简化了训练大型模型的过程,并为开发人员提供了多功能且强大的工具集。
-
rashadphz/farfalle 开源 AI 驱动的搜索引擎。(Perplexity克隆)。在本地LLMs运行(llama3、gemma、mistral、phi3),通过 LiteLLM 自定义LLMs,或使用云模型(Groq/Llama3、OpenAI/gpt4-o)
-
betalgo/openai 用于访问 OpenAI 的 API 的 .NET SDK,作为社区库提供。此 SDK 允许您轻松地将 OpenAI 的功能集成到您的 .NET 应用程序中。
-
ridgerchu/matmulfreellm 实现无 MatMul LM。MatMul-Free LM 是一种语言模型架构,无需矩阵乘法 (MatMul) 运算。此存储库提供了与 🤗 Transformers 库兼容的 MatMul-Free LM 实现。我们评估了缩放定律如何拟合 Transformer++ 和我们的模型中的 370M、1.3B 和 2.7B 参数模型。为了公平比较,每个操作的处理方式相同,尽管我们的模型在某些层中使用了更有效的三元权重。有趣的是,与 Transformer++ 相比,我们模型的缩放投影表现出更陡峭的下降,这表明我们的架构在利用额外计算来提高性能方面更有效。
-
Nutlope/turboseek 受 Perplexity 启发的 AI 搜索引擎,由 Together.ai 提供支持。技术栈:带有 Tailwind 的Next.js应用路由器;共同使用 AI 进行LLM推理;Mixtral 8x7B 和 Llama-3 用于LLMs;用于搜索 API 的 Bing;适用于网站分析。运作方式:回答用户的问题;向必应搜索 API 发出请求,以查找前 6 个结果并显示它们;从 bing 发回的 6 个链接中抓取文本,并将其存储为上下文;向 Mixtral-8x7B 发出请求,其中包含用户的问题 + 上下文,并将其流回给用户;再次向 Llama-3-8B 提出 3 个相关问题,用户可以跟进。
-
CarperAI/trlx trlX 是一个分布式训练框架,从头开始设计,专注于使用提供的奖励函数或奖励标记数据集进行强化学习,从而微调大型语言模型。Accelerate 支持的培训器为 Hugging Face 模型提供训练支持🤗,允许用户微调多达 20B 参数的因果和基于 T5 的语言模型,例如 facebook/opt-6.7b、EleutherAI/gpt-neox-20b 和 google/flan-t5-xxl。对于超过 20B 参数的模型, trlX 提供 NVIDIA NeMo 支持的训练器,这些训练器利用高效的并行技术来有效地扩展。
-
Deeptrain-Community/chatnio 下一代 AI 一站式 B/C 端解决方案,支持 OpenAI,Midjourney,Claude,讯飞星火,Stable Diffusion,DALL·E,ChatGLM,通义千问,腾讯混元,360 智脑,百川 AI,火山方舟,新必应,Gemini,Moonshot 等模型,支持对话分享,自定义预设,云端同步,模型市场,支持弹性计费和订阅计划模式,支持图片解析,支持联网搜索,支持模型缓存,丰富美观的后台管理与仪表盘数据统计。支持 OpenAI 格式中转, 自研渠道均衡负载和分配算法, 兼容多种模型格式, 支持多渠道管理 (优先级/权重/用户分组/模型映射/状态管理), 支持内置渠道重试 (支持自定义渠道重试次数), 内置上游隐藏。强大 Markdown 语法支持 (支持 代码高亮 / LaTeX 公式 / Mermaid 思维导图 / 图表绘制), 支持对话云端同步, 支持分享对话, 支持对话保存为图片 (携带站点 Logo 等信息), 支持分享管理和站点直链分享对话, 支持集成绘图模型 (DALL-E / Stable Diffusion / Midjourney 等), 支持 Midjourney U/V/R 操作。开箱即用的文档解析服务, 支持 Pdf / Docx / Pptx / Xlsx / 音频 / 图片等文件类型解析, 支持多种图片存储方案 (Base64 / Local / AWS S3 / Cloudflare R2 / 腾讯云 COS / 阿里云 OSS / MinIO / Telegram CDN 等), 同时支持 OCR 图片识别 (基于开源 PaddleOCR 支持私有化部署)。支持多种计费方式 (不计费 / 次数 / Token 计费), 支持设置允许模型, 支持快速导入内置价格模板 (可自定义汇率)或同步上游价格设定, 同时在弹性计费基础上支持订阅计划 (支持订阅计划自定义配额 / 计划分层 / 升降级 / 折扣设定), 支持设置订阅配额图表设置, 支持快速导入其他级别订阅, 支持同步上游订阅设置。支持完备兑换码体系, 支持设置数量和点数, 支持批量生成和兑换码管理, 支持礼品码/兑换码类型 (礼品码一种礼品码类型一个用户只能使用一次可用于福利发放, 兑换码一种兑换码类型一个用户可以使用多次可用于发卡和兑换商品), 支持礼品码查看领取用户 / 创建时间 / 领取时间等信息。丰富的模型市场功能, 支持自定义模型名称, 模型 Logo, 模型标签 (如官方/绘图/高定价/高质量/多模态等), 自动绑定价格设定中的模型价格, 支持设置默认列表显示模型, 支持顺序拖拽自定义排序, 支持设置是否为高上下文 (搭配文件解析服务实现非高上下文模型的内容切割), 使用户可以更好的了解模型的特性。支持系统 / 自定义预设, 云端同步, 支持搜索预设, 支持预设管理, 支持预设克隆, 支持设置预设图像 / 简介 / 上下文角色消息。支持同一请求入参的缓存, 支持设置自定义缓存可能性大小 (同一入参的最大缓存结果数量, 防止多次请求返回相同结果), 支持设置缓存过期时间 (缓存结果的有效时间)。支持 SearXNG 开源搜索引擎联网搜索, 支持 Google / Bing / DuckDuckGo / Yahoo / WikiPedia / Arxiv / Qwant 等数十种搜索引擎搜索, 支持安全搜索模式, 内容截断, 图片代理, 测试搜索可用性等功能。 (支持全部模型 & 模型无需支持 function calling)。支持 Web / PWA / App 三端, UI 移动端适配, 支持明暗主题切换, 国际化支持 (多语言切换),支持 Windows / MacOS / Linux / Android / iOS App。内置 SEO 优化, 支持自定义站点 Logo / 站点名称 / 页脚 / 联系方式等, 支持设置用户初始点数, 支持站点公告 / 通知功能, 支持设置 SMTP 发件。
-
stanford-crfm/helm 语言模型整体评估 (HELM),一个提高语言模型透明度的框架 (https://arxiv.org/abs/2211.09110)。该框架还用于在文本到图像模型的整体评估 (HEIM) (https://arxiv.org/abs/2311.04287) 中评估文本到图像模型。
-
towhee-io/towhee Towhee 是一个致力于使神经数据处理管道简单快速的框架。旨在通过使用基于大型语言模型 (LLM) 的管道编排来简化非结构化数据的处理。它具有独特的优势,可以从各种非结构化数据类型(包括冗长的文本、图像、音频和视频文件)中提取宝贵的见解。利用生成式 AI 和 SOTA 深度学习模型的功能,Towhee 能够将这些未处理的数据转换为特定格式,例如文本、图像或嵌入。然后,可以有效地将这些内容加载到适当的存储系统中,例如矢量数据库。开发人员最初可以使用用户友好的 Pythonic API 构建直观的数据处理管道原型,然后针对生产环境进行优化。
-
InternLM/MindSearch 基于LLMWeb搜索引擎的多智能体框架(如 Perplexity.ai Pro和SearchGPT)。您可以简单地使用自己的 perplexity.ai 式搜索引擎进行部署,使用闭源LLMs(GPT、Claude)或开源LLMs(InternLM2.5-7b-chat)。它具有以下特点:询问您想知道的一切: 旨在解决您生活中的任何问题并使用网络知识。 深入的知识发现: 浏览数百个网页来回答您的问题,提供更深入、更广泛的知识库答案。 详细的解决方案路径: 公开所有详细信息,允许用户检查他们想要的一切。这大大提高了其最终响应的可信度和可用性。优化UI外观:为用户提供各种界面,包括React、Gradio、Streamlit和Terminal,根据您的需要选择任何类型。动态图谱构建过程:将用户查询分解为原子子问题,作为图中的节点,并根据WebSearcher的搜索结果逐步扩展图。
-
sakanaai/evolutionary-model-merge 大模型合并配方的进化优化。该存储库是 SakanaAI 的 Evolutionary Model Merge 系列的中心枢纽,展示了其发布和资源。它包括用于再现我们论文中提出的评估的模型和代码。通过结合数据流空间和参数空间中的模型,自动生成新的强大模型。这种方法无需梯度训练,减少了计算资源需求。这种方法不仅适用于单一领域的模型合并,还可以跨领域合并,例如将日语LLM与数学专用LLM合并,生成一个既会日语又具备数学推理能力的大语言模型。
-
mlfoundations/dclm DataComp-LM (DCLM) 是一个综合框架,旨在构建和训练具有不同数据集的大型语言模型 (LLMs)。它提供了来自 CommonCrawl 的 300 多个未经过滤的令牌的标准化语料库、基于 open_lm 框架的有效预训练配方,以及一套包含 50 多个评估的广泛套件。此存储库提供了用于处理原始数据、标记化、洗牌、训练模型以及评估其性能的工具和指南。DCLM 使研究人员能够在不同的计算规模(从 411M 到 7B 参数模型)上试验各种数据集构建策略。我们的基线实验表明,通过优化数据集设计,模型性能有了显著提高。DCLM 已经能够创建多个高质量的数据集,这些数据集在各个尺度上都表现良好,并且优于所有开放数据集。
-
nashsu/FreeAskInternet FreeAskInternet 是一个完全免费、私有且本地运行的搜索聚合器和使用 MULTI 生成的答案LLMs,无需 GPU。用户可以提出一个问题,系统将进行多引擎搜索,并将搜索结果组合起来LLM,并根据搜索结果生成答案。这一切都是免费使用的。特征:完全免费(无需任何 API 密钥);完全本地(无需GPU,任何计算机都可以运行);完全私有(所有东西都在本地运行,使用自定义llm);无需LLM硬件即可运行(无需 GPU!);使用免费的 ChatGPT3.5 / Qwen / Kimi / ZhipuAI(GLM) API(无需 API 密钥!谢谢OpenAI);定制LLM(ollama,llama.cpp)支持,是的,我们爱ollama;使用 Docker Compose 快速轻松地部署;Web 和 Mobile 友好的界面,专为 Web Search 增强的 AI 聊天而设计,允许从任何设备轻松访问。
-
netease-youdao/QAnything QAnything(Question and Answer based on Anything)是一个本地知识库问答系统,旨在支持多种文件格式和数据库,允许离线安装和使用。使用 QAnything,您可以简单地拖放任何格式的任何本地存储文件,并获得准确、快速和可靠的答案。目前支持的格式包括:PDF(pdf)、Word(docx)、PPT(pptx)、XLS(xlsx)、Markdown(md)、Email(eml)、TXT(txt)、Image(jpg,jpeg,png)、CSV(csv)、Web links(html)以及即将推出的更多格式。主要特点:数据安全,支持全程拔网线安装使用。跨语言QA支持,无论文档使用何种语言,中英文QA自由切换。支持海量数据QA,两阶段检索排名,解决大规模数据检索的降级问题;数据越多,性能越好。高性能生产级系统,可直接部署用于企业应用程序。人性化,无需繁琐的配置,一键安装部署,随时可用。多知识库 QA支持选择多个知识库进行问答。为什么是 2 阶段检索?在具有大量知识库数据的场景中,两阶段方法的优点非常明显。如果仅使用第一阶段嵌入检索,则随着数据量的增加,将会出现检索降级的问题,如下图中的绿线所示。但是,在第二阶段重新排名后,精度可以有稳定的提高,数据越多,性能越好。QAnything 使用检索组件 BCEmbedding,该组件以其双语和跨语言熟练度而著称。BCEmbedding擅长弥合中英文语言鸿沟,实现了在MTEB的语义表示评估中表现出色;LlamaIndex 中 RAG 评估领域的新基准。
-
deepseek-ai/DeepSeek-V2 DeepSeek-V2:强大、经济且高效的专家混合语言模型,一种强大的专家混合 (MoE) 语言模型,其特点是经济的训练和高效的推理。它包含 236B 个总参数,其中 21B 为每个词元激活。与DeepSeek 67B相比,DeepSeek-V2性能更强,同时节省了42.5%的训练成本,减少了93.3%的KV缓存,最大生成吞吐量提升了5.76倍。我们在由 8.1 万亿个词元组成的多样化、高质量的语料库上预训练了 DeepSeek-V2。在这种全面的预训练之后,是监督微调 (SFT) 和强化学习 (RL) 的过程,以充分释放模型的能力。评估结果验证了我们方法的有效性,因为DeepSeek-V2在标准基准测试和开放式生成评估中都取得了卓越的性能。大海捞针 (NIAH) 测试的评估结果。DeepSeek-V2 在高达 128K 的所有上下文窗口长度上都表现良好。我们在 AlpacaEval 2.0 和 MTBench 上评估了我们的模型,显示了 DeepSeek-V2-Chat-RL 在英语会话生成方面的竞争性能。我们在 LiveCodeBench (0901-0401) 上评估我们的模型,这是一个为实时编码挑战而设计的基准测试。如图所示,DeepSeek-V2 在 LiveCodeBench 方面表现出相当的熟练程度,取得了超过其他几个复杂模型的Pass@1分数。这一性能突出了该模型在处理实时编码任务方面的有效性。DeepSeek-V2 采用创新架构,保证训练经济高效:在注意力方面,我们设计了MLA(Multi-head Latent Attention),它利用低秩键值联合压缩来消除推理时键值缓存的瓶颈,从而支持高效的推理。对于前馈网络 (FFN),我们采用 DeepSeekMoE 架构,这是一种高性能的 MoE 架构,能够以更低的成本训练更强大的模型。
-
pytorch/torchchat 在服务器、桌面和移动设备上使用PyTorch本地运行 LLMs。TorchChat 是一个小型代码库,展示了无缝运行大型语言模型 (LLMs) 的能力。使用 torchchat,您可以在自己的 (C/C++) 应用程序(桌面或服务器)以及 iOS 和 Android 上使用 Python 运行LLMs。
-
goldfishh/chatgpt-tool-hub 一个开源的 chatgpt 工具生态系统,您可以在其中将工具与 chatgpt 结合使用并使用自然语言做任何事情。这是一个能让ChatGPT使用多个神奇工具的执行引擎,你能用自然语言命令ChatGPT使用联网、搜索、数学运算、控制电脑、执行代码等工具,扩大ChatGPT使用范围提高你的生产力。
-
jiaweizzhao/GaLore 通过梯度低秩投影进行内存效率LLM训练。梯度低秩投影 (GaLore) 是一种内存高效的低秩训练策略,允许全参数学习,但比常见的低秩自适应方法(如 LoRA)内存效率更高。作为一种梯度投影方法,GaLore 与优化器的选择无关,只需两行代码即可轻松插入到现有优化器中。GaLore 的官方发布将包括:多 GPU 训练(DDP 和 FSDP)的每层权重更新(使用 PyTorch)。内存高效的低秩梯度累积(与 PyTorch 一起使用)。优化了 GaLoreAdamW8bit(使用 bitsandbytes)。
-
karpathy/nano-llama31 这个 repo 之于 Llama 3.1,就像 nanoGPT 之于 GPT-2。也就是说,它是 Llama 3.1 架构的最小、无依赖的实现,它可以非常简单地训练、微调和推理。这与 Meta 的官方代码发布和 huggingface 实现相比,后者都具有更重的依赖性和更多的代码。代码目前主要针对 Llama 3.1 的 8B 基础模型。
-
Langboat/Mengzi3 Mengzi3 8B/13B模型基于Llama架构,语料精选自网页、百科、社交、媒体、新闻,以及高质量的开源数据集。通过在万亿tokens上进行多语言语料的继续训练,模型的中文能力突出并且兼顾多语言能力。孟子3 8B/13B基于Llama架构,语料库选自网页、百科、社交网络、媒体、新闻、高质量开源数据集。通过继续在数万亿个词元上训练多语言语料库,该模型具有出色的中文能力,并考虑到了多语言能力。
-
dvmazur/mixtral-offloading 在 Colab 或消费者桌面上运行 Mixtral-8x7B 模型,通过多种技术的组合实现了对Mixtral-8x7B模型的高效推理:使用 HQQ 进行混合量化,我们为注意力层和专家应用单独的量化方案,以将模型拟合到组合的 GPU 和 CPU 内存中。MoE 卸载策略,每层的每个专家都单独卸载,仅在需要时将背包带到 GPU,我们将活跃的 EA 存储在 LRU 缓存中,以减少在计算相邻令牌的激活时 GPU-RAM 通信。
-
databricks/dbrx 由 Databricks 开发的大型语言模型的代码示例和资源。DBRX 是一个混合专家 (MoE) 模型,具有 132B 总参数和 36B 实时参数。我们使用 16 位专家,其中 4 位在训练或推理期间处于活跃状态。DBRX 针对 12T 文本标记进行了预训练。DBRX 的上下文长度为 32K 个令牌。该模型是使用我们的开源库 Composer、Foundry、LLMMegaBlocks 和 Streaming 的优化版本进行训练的。对于 instruct 模型,我们使用了 ChatML 格式。有关详细信息,请参阅 DBRX Instruct 模型卡。
-
evalplus/evalplus 对合成代码的LLM严格评估 - NeurIPS 2023。EvalPlus 是 LLM4Code 的严格评估框架,具有:HumanEval+:测试次数比原来的 HumanEval 多 80 倍!MBPP+:测试次数是原始 MBPP 的 35 倍!评估框架:我们的 packages/images/tools 可以在上述基准测试中轻松安全地评估 LLMs。为什么选择EvalPlus?精确的评估和排名:查看我们的排行榜以获取严格的评估前后的最新LLM排名。编码严谨性:看看分数差异!尤其是在使用 EvalPlus 测试之前和之后!丢弃越少越好,因为它意味着代码生成更加严格和不那么松懈;而大幅下降意味着生成的代码往往很脆弱。预生成样本:EvalPlus 通过开源 LLM——无需重新运行昂贵的基准测试!
-
magpie-align/magpie Magpie 是一个数据合成管道,可生成高质量的对齐数据。Magpie 不依赖提示工程或种子问题。相反,它通过提示对齐的 LLMs 使用用于采样指令的预查询模板来直接构建指令数据。第 1 步:指令生成:Magpie 以 LLM。此查询仅定义 instruction provider (例如 user) 的角色,不提供任何 instruction。自回归 LLM 已使用预定义指令模板格式的指令数据进行了微调。因此,当 Magpie 编写的查询作为输入时,LLM 会自动生成一条指令。第 2 步:响应生成:Magpie 将指令发送到 LLM 以生成响应。
-
RUC-NLPIR/FlashRAG 用于高效 RAG 研究的 Python 工具包。包括 32 个预处理的基准 RAG 数据集和 15 个最先进的 RAG 算法。特征:广泛且可定制的框架:包括 RAG 场景的基本组件,例如检索器、重新排序器、生成器和压缩器,允许灵活组装复杂的管道。综合基准数据集:32 个预处理的 RAG 基准数据集的集合,用于测试和验证 RAG 模型的性能。预先实现的高级 RAG 算法:根据我们的框架,具有 15 种先进的 RAG 算法并报告了结果,在不同设置下轻松重现结果。高效的预处理阶段:通过提供各种脚本(如用于检索的语料库处理、检索索引构建和文档预检索)来简化 RAG 工作流准备。优化执行:使用 vLLM、用于 FastChat for LLM 推理加速和用于向量索引管理的 Faiss 等工具,该库的效率得到了增强。
-
dottxt-ai/outlines 健壮的 (结构化) 文本生成。功能:多种模型集成:OpenAI、transformers、llama.cpp、exllama2、mamba;基于 Jinja 模板引擎的简单而强大的提示原语;多种选择、类型约束和动态停止;快速正则表达式结构化生成;按照 JSON 模式或 Pydantic 模型快速生成 JSON;语法结构化生成;使用循环、条件和自定义 Python 函数交错完成;缓存生成;批量推理;使用贪婪、多项式和波束搜索算法进行采样;使用 vLLM、官方 Docker 映像 outlinesdev/outlines 提供服务;Outlines 每周都会发布新版本和新功能
-
thudm/longwriter 由清华大学和智谱AI联合开发的长文本生成模型,旨在从长上下文大语言模型(LLMs)中释放超过 10,000 个单词的生成能力。当前的长上下文 LLMs 虽然可以处理多达 100,000 个标记的输入,但在生成超过 2,000 个单词的输出时仍然面临困难,主要原因是模型的有效生成长度受到在监督微调(SFT)过程中所见样本的限制。为了解决这一问题,研究团队引入了 AgentWrite,这是一种基于代理的方法,通过将超长的生成任务分解为子任务,使得现有的 LLMs 能够生成超过 20,000 个单词的连贯输出。利用 AgentWrite,他们构建了 LongWriter-6k,这是一个包含 6,000 个 SFT 数据的数据集,输出长度从 2k 到 32k 单词不等。通过将此数据集纳入模型训练,现有模型的输出长度扩展到 10,000 字以上,同时保持了输出质量。此外,LongWriter 还开发了 LongBench-Write,这是一个用于评估超长生成能力的综合基准。用户可以通过运行 CUDA_VISIBLE_DEVICES=0 python trans_web_demo.py 来部署自己的 LongWriter 聊天机器人,或者使用 vllm 部署模型,从而在一分钟内生成超过 10,000 个单词。
-
facebookresearch/llm-transparency-tool LLM 透明度工具 (LLM),一个开源的交互式工具包,用于分析基于 Transformer 的语言模型的内部工作原理。主要功能:选择您的模型,选择或添加您的提示,运行推理。浏览贡献图:选择要从中构建图形的令牌,调整贡献阈值。选择任何块之后的任何令牌的表示。对于表示形式,请参阅其对输出词汇表的投影,查看哪些标记被提升/禁止,但前一个块被提升/禁止。以下内容是可点击的:边缘,这显示了有关贡献注意力头部的更多信息。选择边时的头部,你可以看到这个头在促进/压制什么。FFN 块(图表上的小方块)。选择 FFN 块时的神经元。
-
SqueezeAILab/LLM2LLM LLM2LLM 是一种新颖的迭代数据增强策略,旨在通过使用大型语言模型(LLM)自身的能力来提升其性能。该方法的核心思想是利用一个教师 LLM 来增强小型的种子数据集,通过生成合成数据并将其重新加入到训练数据中,从而逐步提高模型的性能。这种方法不仅减少了手动生成数据的需要,还显著降低了所需的真实数据量,使得在低数据机制中也能有效提升 LLM 的性能。包括以下几个步骤:在初始种子数据集中微调学生模型。 评估并提取学生模型在训练集中预测错误的数据。利用教师模型对这些错误数据生成额外数据,并将其加入到原始训练数据中进行迭代训练。这种方法的优势在于其迭代性和针对性,每次数据增强时仅对种子数据进行处理,从而确保数据的质量和相关性。通过这种方式,LLM2LLM 能够生成高质量的合成数据,其效果可以媲美甚至超过手工收集的数据。此外,LLM2LLM 还减少了劳动密集型数据整理的需求,使得数据增强过程更加高效和自动化。研究结果表明,LLM2LLM 在低数据机制中的性能显著优于传统的微调和其他数据增强基线,为大型语言模型的进一步发展提供了新的思路和方法。
-
KwaiKEG/CogGPT 在大型语言模型上释放认知动力学的力量。CogBench 是一个双语基准测试,专门用于评估大型语言模型 (LLMs) 在中文和英文中的认知动态。CogBench 根据信息流的类型分为两部分:CogBencha 用于文章,CogBenchv 用于短视频。
-
LudwigStumpp/llm-leaderboard 社区共同努力,为 LLMs创建一个中央排行榜。此排行榜的结果收集自模型作者的单篇论文和已发表的结果。对于每个报告的值,源将添加为链接。
-
lm-sys/arena-hard-auto Arena-Hard-Auto-v0.1 是一个用于指令调整的 LLMs。它包含 500 个具有挑战性的用户查询。我们提示 GPT-4-Turbo 作为裁判将模型的反应与基线模型(默认:GPT-4-0314)进行比较。如果您想了解您的模型在 Chatbot Arena 上的表现如何,我们建议您尝试 Arena-Hard-Auto。
-
https://github.com/LazyAGI/LazyLLM 用于构建多代理应用程序的低代码开发工具 LLMs。它帮助开发人员以非常低的成本创建复杂的 AI 应用程序,并实现持续的迭代优化。LazyLLM 为应用程序构建提供了便捷的工作流程,并为应用程序开发过程的各个阶段提供了众多标准流程和工具。基于 LazyLLM 的 AI 应用开发流程遵循原型构建 -> 数据反馈 -> 迭代优化工作流程。这意味着您可以使用 LazyLLM 快速构建原型应用程序,然后使用特定于任务的数据分析不良情况,然后在应用程序的关键阶段迭代算法和微调模型,以逐步提高整体性能。
-
yangling0818/buffer-of-thought-llm 思想缓冲:使用大型语言模型进行思想增强推理。BoT,这是一种新颖且多功能的思维增强推理方法,旨在提高大型语言模型 (LLMs。具体来说,我们提出了一个元缓冲区来存储一系列高级思想,称为思想模板,这些思想是从各种任务中解决问题的过程中提炼出来的。对于每个问题,我们检索一个相关的思想模板,并使用特定的推理结构自适应地实例化它,以进行有效的推理。为了确保可扩展性和稳定性,我们还提出了一个 buffer-manager 来动态更新 meta-buffer,从而随着更多任务的解决而增强其容量。我们对 10 项具有挑战性的推理密集型任务进行了广泛的实验,与以前的最先进的 (SOTA) 方法相比,性能有了显著提高:Game of 24 的性能提高了 11%,几何形状的性能提高了 20%,Checkmate-in-One 的性能提高了 51%。进一步的分析表明,我们的 BoT 具有卓越的泛化能力和稳健性,而平均只需要多查询提示方法(例如,树/思想图)成本的 12%。值得注意的是,我们发现我们的 Llama3-8B + BoT 有可能超越 Llama3-70B 模型。
-
AntonOsika/gpt-engineer GPT 工程师易于调整、扩展,它根据提示生成整个代码库。指定您希望它构建的内容,AI 要求澄清,然后构建它。
-
THUDM/CodeGeeX2 更强大的多语言代码生成模型。基于 ChatGLM2 架构加入代码预训练实现,得益于 ChatGLM2 的更优性能,CodeGeeX2 在多项指标上取得性能提升(+107% > CodeGeeX;仅60亿参数即超过150亿参数的 StarCoder-15B 近10%)
-
KillianLucas/open-interpreter 终端中的 OpenAI 代码解释器,在本地运行。允许LLM在本地运行代码(Python,Javascript,Shell等)。您可以通过终端中类似 ChatGPT 的界面与开放解释器聊天。
-
THUDM/CodeGeeX 一个具有130亿个参数的大型多语言代码生成模型,在20多种语言的大型代码语料库上进行了预训练。
-
fauxpilot/fauxpilot GitHub Copilot服务器的开源替代品。构建GitHub Copilot的本地托管替代方案的尝试。它在NVIDIA的Triton Inference Server中使用SalesForce CodeGen模型和FasterTransformer后端。
-
QwenLM/CodeQwen1.5 Qwen 的代码版本,是 Qwen 团队开发的大型语言模型系列,阿里云。基于 Transformer 的纯解码器语言模型,在大量代码数据上进行了预训练。强大的代码生成能力和在一系列基准测试中的竞争性能;支持长上下文理解和生成,上下文长度为 64K 令牌;支持92种编码语言;在文本转SQL、bug修复等方面具有出色的性能。
-
facebookresearch/codellama 基于 Llama 2 的代码大型语言模型系列,在开放模型中提供最先进的性能、填充功能、对大型输入上下文的支持以及编程任务的零镜头指令跟踪能力。我们提供多种风格来涵盖广泛的应用:基础模型(Code Llama),Python 专业化(Code Llama - Python)和指令遵循模型(Code Llama - Instruct),每个模型都有 7、13 和 34B 参数。所有模型都在16k 个令牌的序列上进行训练,并显示对最多 100k 个令牌的输入的改进。7B 和 13B 代码骆驼和代码骆驼 - 指示变体支持基于周围内容的填充。通过使用更高的代码采样微调 Llama 2 开发的。
-
bigcode-project/starcoder 一种在源代码和自然语言文本上训练的语言模型 (LM)。它的训练数据包含了 80 多种不同的编程语言,以及从 GitHub 问题和提交以及笔记本中提取的文本。
-
aixcoder-plugin/aiXcoder-7B 在 1.2T Unique Token 上进行了广泛的训练,模型的预训练任务以及上下文信息都针对真实世界的代码生成上下文进行了独特设计。aiXcoder 7B Base 在所有参数大小相似的模型中脱颖而出,成为代码完成场景中最有效的模型,并且在多语言 nl2code 基准测试中的平均性能也超过了 codellama 34B 和 StarCoder2 15B 等主流模型。
-
microsoft/TypeChat 一个库,可以轻松使用类型构建自然语言界面。传统上,构建自然语言界面是很困难的。这些应用通常依靠复杂的决策树来确定意图并收集采取行动所需的输入。LLM使我们能够从用户那里获取自然语言输入并与意图匹配,从而使这变得更容易。这带来了新的挑战,包括需要约束模型的响应以确保安全性,构建模型的响应以进行进一步处理,以及确保模型的响应有效。提示工程旨在解决这些问题,但随着提示大小的增加,学习曲线陡峭,脆弱性增加。TypeChat 用模式工程取代了提示工程。只需定义NLP程序中支持的意向的类型即可。这可以像用于对情绪进行分类的界面一样简单,也可以像购物车或音乐应用程序的类型一样简单。例如,若要向架构添加其他意向,开发人员可以将其他类型添加到可区分的联合中。要使架构分层,开发人员可以使用“元架构”根据用户输入选择一个或多个子架构。定义类型后,TypeChat 会通过以下方式处理其余工作:1.使用类型构造 LLM 的提示。2.验证 LLM 响应是否符合架构。如果验证失败,则通过进一步的语言模型交互来修复不符合项的输出。3.简明扼要地总结(不使用 LLM)实例,并确认它与用户意图一致。
-
codota/TabNine 您控制的 AI 代码助手。通过一流的 AI 代码生成保持流畅,自动生成高质量代码,将纯文本转换为代码,消除重复性任务,并将更多时间花在您喜欢的工作上。通过整个 SDLC 的 AI 聊天更快地构建更好的应用程序,从代码创建和解释,到测试和文档生成以及错误修复,更快的应用程序开发已经进入了聊天。高度个性化的 AI,适合您的工作方式,基于代码和模式的上下文感知建议,支持您使用的最流行的语言、库和 IDE,能够创建基于代码库训练的定制模型。完全的代码隐私,零数据保留,以自己的方式部署 Tabnine:本地、VPC 或安全 SaaS,Tabnine 的专有模型从未在您的代码上进行过训练,未经您的明确许可,绝不会存储或共享您的代码。保护风险和知识产权责任,Tabnine 的 Protected 模型仅在许可许可的代码上进行训练,企业用户获得额外的赔偿保护,具有企业级安全性和合规性(具有 SOC 2 和 GDPR)。Tabnine 是原创的 AI 代码助手,受到数百万开发人员和数千家公司的信赖。在您最喜欢的 IDE 中免费获取 Tabnine。
-
OpenDevin/OpenDevin 自主的 AI 软件工程师,能够执行复杂的工程任务并与用户在软件开发项目上积极协作。希望通过开源社区的力量复制、增强和创新 Devin。利用了 shell、代码编辑器和 Web 浏览器等工具的组合,展示了软件开发LLMs中未开发的潜力。目标是探索和扩展 Devin 能力,确定其优势和需要改进的领域,以指导开放代码模型的进展。
-
plandex-ai/plandex 在您的终端中进行 AI 驱动的开发。专为大型实际任务而设计。处理你的积压工作,使用不熟悉的技术,摆脱困境,减少在无聊的事情上花费的时间。Plandex 是您终端中可靠且对开发人员友好的 AI 编码代理。它可以计划和完成跨越许多文件和步骤的大型任务。Plandex 专为实际用例而设计,可以帮助您快速构建新应用程序、向现有代码库添加新功能、编写测试和脚本、理解代码并修复错误。
-
salesforce/CodeGen 一系列用于程序合成的开源模型。接受过 TPU-v4 训练。与 OpenAI Codex 竞争。
-
Pythagora-io/gpt-pilot 使用GPT 帮助开发人员将构建应用的速度提高 20 倍
-
deepseek-ai/DeepSeek-Coder-V2 开源的专家混合 (MoE) 代码语言模型,在特定代码任务中实现了与 GPT4-Turbo 相当的性能。具体来说,DeepSeek-Coder-V2 从 DeepSeek-V2 的中间检查点进一步预训练,并增加了 6 万亿个令牌。通过这种持续的预训练,DeepSeek-Coder-V2 大大增强了 DeepSeek-V2 的编码和数学推理能力,同时在一般语言任务中保持了相当的性能。与 DeepSeek-Coder-33B 相比,DeepSeek-Coder-V2 在与代码相关的任务的各个方面以及推理和通用功能方面都取得了重大进步。此外,DeepSeek-Coder-V2 将其对编程语言的支持从 86 扩展到 338,同时将上下文长度从 16K 扩展到 128K。
-
codefuse-ai/MFTCoder CodeFuse 的一个开源项目,用于多任务处理 Code-LLM(代码任务的大型语言模型),其中包括模型、数据集、训练代码库和推理指南。
-
salesforce/CodeT5 CodeT5的主页:用于代码理解和生成的开放代码LLM
-
getcursor/cursor 基于 VSCode 🤖 的 AI 代码编辑器。聊天:与了解整个代码库的机器人交谈。编辑:要求 AI 更改代码块,查看编辑的内联差异。调试:将鼠标悬停在 linter 错误或堆栈跟踪上以自动修复它们。
-
mckaywrigley/ai-code-translator 使用 AI 将代码从一种语言翻译成另一种。
-
joshpxyne/gpt-migrate 轻松地将代码库从一种框架或语言迁移到另一种。由于 GPT-Migrate 旨在编写(并可能重写)整个代码库,因此成本可能会迅速增加。
-
microsoft/semantic-kernel 快速轻松地将尖端的LLM技术集成到您的应用程序中。将OpenAI,Azure OpenAI和Hugging Face等大型语言模型(LLM)与C#,Python和Java等传统编程语言集成在一起。语义内核通过允许您定义可以在几行代码中链接在一起的插件来实现这一点。
-
gencay/vscode-chatgpt 一个非官方的Visual Studio Code - OpenAI ChatGPT集成,在编程集成环境中使用GPT-4、3.5、3 或 Codex 模型加速编程开发。
-
shobrook/stackexplain 用 ChatGPT 解释您编程中的错误消息
-
eth-sri/lmql 一种用于类型化、约束引导和高效 LLM 编程的语言。一种基于Python超集的大型语言模型(LLM)的编程语言。LMQL 提供了一种将传统编程与在代码中调用 LLM 的能力交织在一起的新方法。它超越了传统的模板语言,在程序代码级别原生集成LLM交互。
-
BloopAI/bloop 用 Rust 编写的快速代码搜索引擎。用自然语言提问,搜索代码,并使用现有代码库作为上下文生成补丁。工程师们通过使用 bloop 来提高他们的工作效率:用简单的语言解释文件或功能的工作原理;编写新功能,使用其代码作为上下文;了解如何使用文档记录不佳的开源库;查明错误;询问有关其他语言的英语语言代码库的问题;通过检查现有功能来减少代码重复。特征:基于 AI 的对话搜索;Code Studio,一个LLM使用代码作为上下文的游乐场;超快的正则表达式搜索;同步本地仓库和 GitHub 仓库;复杂的查询筛选器,因此您可以缩小结果范围;使用符号搜索查找函数、变量或特征;使用 Tree-sitter 构建的 10+ 种最流行语言的精确代码导航(转到参考和转到定义);以隐私为中心的设备嵌入,用于语义搜索。
-
ricklamers/gpt-code-ui OpenAI的ChatGPT代码解释器(生成代码、运行代码)的开源实现。
-
leetcode-mafia/cheetah Mac 应用程序,用于粉碎 AI 的远程技术面试。由 AI 驱动的 macOS 应用程序,旨在通过提供实时、谨慎的指导和实时编码平台集成,在远程软件工程面试期间为用户提供帮助。
-
continuedev/continue 软件开发的开源自动驾驶仪——将 ChatGPT 的强大功能引入 VS Code
-
TheR1D/shell_gpt 由 GPT-3 和 GPT-4 提供支持的命令行生产力工具将帮助您更快、更高效地完成任务。作为开发人员,我们可以利用 AI 功能来生成 shell 命令、代码片段、注释和文档等。忘记备忘单和笔记,使用此工具,您可以在终端中获得准确的答案,您可能会发现自己减少了日常Google搜索,从而节省了宝贵的时间和精力。
-
paul-gauthier/aider 命令行工具,可让您将程序与 GPT-3.5/GPT-4 配对,以编辑存储在本地 git 存储库中的代码。可以启动新项目或使用现有存储库。您可以在帮助者聊天(要求 GPT 编辑代码)和您自己的编辑器自己进行更改之间流畅地来回切换。
-
di-sukharev/opencommit 1秒内用AI自动生成令人印象深刻的git commit提交
-
zurawiki/gptcommit 一个 git prepare-commit-msg 钩子,用于使用 GPT-3 创作提交消息。使用此工具,您可以轻松生成清晰、全面和描述性的提交消息,让您专注于编写代码。
-
intitni/CopilotForXcode 一个 Xcode 源代码编辑器扩展,为 Xcode 提供 GitHub Copilot、Codeium 和 ChatGPT 支持。
-
mpociot/chatgpt-vscode 允许您使用 ChatGPT 的 VSCode 扩展
-
sahil280114/codealpaca 在代码生成指令上训练的 Instruction-following LLaMA Model。包括用于微调模型的 20K 数据。
-
ddzipp/AutoAudit 专门针对网络安全领域的大语言模型,其目标是为安全审计和网络防御提供强大的自然语言处理能力。它具备分析恶意代码、检测网络攻击、预测安全漏洞等功能,为安全专业人员提供有力的支持。采用了数据集组织方法Self-Instruct,该方法结合了人工标注和自我生成的数据。数据集主要来自于Github、Kaggle、安全网站、公开的安全漏洞数据集组成,随后经过清洗、数据增强等来构造对话数据。数据集严格按照Alpaca模型数据集格式组织,分为Instruction,input,output三部分,我们规定在output输出中应当包含对具体内容的分析(analysis),安全评级(label),安全风险(risk),以及对应的解决方案(solution)。
-
shroominic/codeinterpreter-api ChatGPT 代码解释器的 LangChain 实现。使用 CodeBox 作为沙盒 python 代码执行的后端。CodeBox是LLM应用程序的最简单的云基础架构。您可以使用自己的OpenAI API密钥在本地运行除LLM之外的所有内容。
-
gofireflyio/aiac 命令行工具,用于通过 OpenAI 的 API 生成 IaC(基础设施即代码)模板、配置、实用程序、查询等。CLI 允许您要求模型为不同的场景生成模板。它将发出请求,并将结果代码存储到文件中,或者只是将其打印到标准输出。
-
anc95/ChatGPT-CodeReview 由 ChatGPT 提供支持的代码审查机器人
-
sqlchat/sqlchat 基于聊天的 SQL 客户端和编辑器。基于聊天的 SQL 客户端,它使用自然语言与数据库通信,实现数据库的查询、修改、添加、删除等操作。
-
CodedotAl/gpt-code-clippy GitHub Copilot的开源版本,这是一种基于GPT-3的语言模型,称为GPT-Codex,根据GitHub公开可用的代码进行微调。
-
kuafuai/DevOpsGPT 用于 AI 驱动软件开发的多智能体系统。将LLM与DevOps工具相结合,将自然语言需求转换为工作软件。支持任何开发语言并扩展现有代码。
-
OpenBMB/ChatDev 使用自然语言创意创建定制软件(通过LLM驱动的多代理协作)
-
pleisto/flappy 适用于每个开发人员的生产就绪型 LLM 代理 SDK
-
TabbyML/tabby 自托管的AI编码助手,提供GitHub Copilot的开源和本地替代方案。
-
WisdomShell/codeshell PKU-KCL开发的一系列代码大型语言模型。北京大学知识计算实验室联合四川天府银行AI团队研发的多语言代码大模型基座。CodeShell具有70亿参数,在五千亿Tokens进行了训练,上下文窗口长度为8192。在权威的代码评估Benchmark(HumanEval与MBPP)上,CodeShell取得同等规模最好的性能。
-
sweepai/sweep AI 驱动的初级开发人员,用于小功能和错误修复。
-
SkalskiP/awesome-chatgpt-code-interpreter-experiments 你可以用 ChatGPT + Code Interpreter 组合做的很棒的事情
-
huybery/Awesome-Code-LLM 精心策划的最佳代码列表 -LLM 用于研究。
-
unit-mesh/build-your-ai-coding-assistant 《构建你自己的 AI 辅助编码助手》 —— 介绍如何 DIY 一个端到端(从 IDE 插件、模型选型、数据集构建到模型微调)的 AI 辅助编程工具,类似于 GitHub Copilot、JetBrains AI Assistant、AutoDev 等。
-
codefuse-ai/Awesome-Code-LLM 针对代码和相关数据集的语言建模研究的精选列表。
-
OpenCodeInterpreter/OpenCodeInterpreter 开源代码生成系统,旨在弥合大型语言模型和 GPT-4 Code Interpreter 等复杂专有系统之间的差距。它通过集成执行和迭代优化功能,显著增强了代码生成功能。
-
whoiskatrin/sql-translator 使用人工智能将自然语言查询转换为 SQL 代码的工具。这个项目是100%免费和开源的。
-
arcee-ai/mergekit 可扩展的框架,可以在任何硬件上有效地合并模型,MergeKit 包含广泛的合并技术,并在数千个合并模型的开发中发挥了重要作用,其中许多模型的评估处于或接近 Open LLM 排行榜的前列。开源语言模型领域的快速扩展提供了一个机会,可以通过组合这些模型检查点(checkpoint)的参数来合并它们的能力。迁移学习的进步,即为特定任务微调预训练模型的过程,促成了大量用特定于任务的模型的发展,这些模型通常专门用于单个任务,无法利用彼此的优势。模型合并有助于创建多任务模型,而无需额外的训练,为提高模型性能和多功能性提供了一条有前途的途径。通过保留原始模型的内在功能,模型合并解决了人工智能中的复杂挑战,包括灾难性遗忘和多任务学习的困难。当前支持的合并方法的快速概述:Linear (Model Soups 经典的合并方法 - 一个简单的加权平均值。) 、SLERP、Task Arithmetic、TIES 、DARE TIES、DARE Task Arithmetic 、Passthrough、Model Stock
-
ingyamilmolinar/doctorgpt 将 GPT 投入生产,用于应用程序日志错误诊断
-
openai/human-eval openai在2021年提出的,评估大型语言模型在代码上的表现
-
liutiedong/goat 擅长算术任务的微调 LLaMA
-
HC-Guo/Owl 大型语言模型,专为 AIOps 字段设计,用于处理与 IT 运营相关的任务(故障诊断、日志分析等)
-
bigcode-project/octopack 指令调优代码大型语言模型,数据bigcode/commitpack 4TB 的 GitHub 提交,涵盖 350 种编程语言,bigcode/commitpackft CommitPack 的过滤版本,用于类似于指令的高质量提交消息,在 CommitPackFT + OASST 上调整的 StarCoder-16B 模型,在 CommitPackFT + OASST 上优化的 CodeGeeX2-6B 指令。bigcode/humanevalpack 扩展 OpenAI 的 HumanEval 以涵盖 6 种语言的 3 个场景
-
OFA-Sys/gsm8k-ScRel 基于大型语言模型学习数学推理的扩展关系的代码和数据
-
albertan017/LLM4Decompile 逆向工程:使用大型语言模型反编译二进制代码
-
ise-uiuc/magicoder 由 OSS-Intit 提供支持的模型系列,这是一种新颖的方法LLMs,通过开源代码片段为代码生成低偏差和高质量的指令数据。OSS-Instruct 通过赋予LLM它们丰富的开源引用来产生更多样化、更真实和可控的数据,从而减轻了合成指令数据的固有偏见。
-
SqueezeAILab/LLMCompiler 通过自动识别哪些任务可以并行执行,哪些任务是相互依赖的,从而实现并LLMs行函数调用的高效和有效的编排,包括开源和闭源模型。
-
princeton-nlp/SWE-agent SWE-agent 处理 GitHub 问题并尝试使用 GPT-4 或您选择的 LM 自动修复它。它解决了 SWE-bench 评估集中 12.47% 的错误,运行时间仅为 1 分钟。
-
langroid/langroid Langroid 是一个直观、轻量级、可扩展且有原则的 Python 框架,可轻松构建LLM由前 CMU 和威斯康星大学麦迪逊分校研究人员提供的应用程序。您可以设置代理,为它们配备可选组件(LLM矢量存储和工具/函数),为它们分配任务,并让它们通过交换消息来协作解决问题。这种多智能体范式的灵感来自Actor框架。Langroid是对LLM应用程序开发的一种新尝试,在简化开发人员体验方面进行了相当多的思考;它不使用 Langchain。
-
shobrook/adrenaline 即时回答任何编程问题,所有技术方面的 AI 专家。我们的目标是回答任何技术问题。目前,这包括以下问题:一般编程概念,GitHub 存储库,文档网站,代码片段。Adrenaline还可以搜索互联网并从相关来源中找到答案,采用多步推理来回答更复杂的问题,甚至生成图表来帮助解释事情。
-
Ironclad/rivet 开源可视化 AI 编程环境和 TypeScript 库。Rivet,用于创建复杂的 AI 代理和提示链接的 IDE,并将其嵌入到您的应用程序中。
-
codefuse-ai/codefuse-devops-eval DevOps-Eval是专为DevOps领域的基础模型设计的综合评估套件。我们希望DevOps-Eval可以帮助开发者,特别是DevOps领域的开发者,跟踪进度并分析他们模型的重要优点/缺点。目前有 7486 道多项选择题,涵盖 8 个不同的一般类别,如下所示。AIOps 子类别共有 2840 个样本,涵盖日志解析、时间序列异常检测、时间序列分类、时间序列预测和根本原因分析等场景。ToolLearning 子类别中共有 1509 个样本,涵盖 59 个领域的 239 个工具场景。
-
FreedomIntelligence/HuatuoGPT-II 医学适应的一阶段训练LLMs.(一个开放的医疗GPT)。采用创新的领域适应方法,显著提升其医学知识和对话能力。它在多个医学基准测试中展示了最先进的性能,尤其是在专家评估和新的医疗执照考试中超过了 GPT-4。开源7B、13B、34B版本。HuatuoGPT2 数据:发布部分预训练和微调指令。中医LLM评价:综合自动评价方法,对医学反应能力LLM和新鲜专业药师考试考核进行评价。
-
FreedomIntelligence/HuatuoGPT 华佗GPT,迈向驯服语言模型成为医生。在庞大的中国医学语料库上训练的大型语言模型(LLM)。我们与华拓GPT的目标是为医疗咨询场景构建更专业的“ChatGPT”。demo
-
SCIR-HI/Huatuo-Llama-Med-Chinese 本草(原名:华驼)模型仓库,基于中文医学知识的大语言模型指令微调
-
microsoft/LLaVA-Med 用于生物医学的大型语言和视觉助手,专为多模态 GPT-4 级功能而构建。
-
FreedomIntelligence/HuatuoGPT-sft-data-v1 华驼大语言模型的微调数据集
-
shibing624/medical 医疗数据集,可用于医疗领域大模型训练。共36万条,来自医疗百科数据。共8475条,来自医疗教材的文本数据。共195万条,来自1)中文医疗对话数据集 2)在线医疗百科 3)医疗知识图谱
-
michael-wzhu/PromptCBLUE 面向医学领域多任务少样本学习的中文大规模指令调优数据集
-
UCSD-AI4H/Medical-Dialogue-System 包含医生和患者之间的对话(中文)。它有 110 万次对话和 400 万条话语。数据在不断增长,并将添加更多对话。原始对话来自 haodf.com。数据的所有版权均属于 haodf.com。
-
lemuria-wchen/imcs21 IMCS-21 的新语料库基准,用于自动医疗咨询系统
-
中文医疗信息处理评测基准CBLUE_数据集-阿里云天池 中国中文信息学会医疗健康与生物信息处理专业委员会在合法开放共享的理念下发起,由阿里云天池平台承办,并由医渡云、腾讯天衍、平安医疗、阿里夸克、北京、郑州、鹏城实验室、哈工大(深圳)、同济、中山、复旦、华东师范等开展智慧医疗研究的单位共同协办,旨在推动中文医学NLP技术和社区的发展。
-
shibing624/MedicalGPT 训练医疗大模型,实现包括二次预训练、有监督微调、奖励建模、强化学习训练。
-
SupritYoung/Zhongjing 基于LLaMa的中国医学ChatGPT,基于大规模训练前语料库和多回合对话数据集的训练。
-
PharMolix/OpenBioMed PharMolix和AI产业研究院(AIR)联合发布的首个商业友好型多模式生物医学基础模型。它将生命语言(分子结构和蛋白质序列)与人类自然语言保持一致,在生物医学QA基准上的表现与人类专家不相上下,并在跨模态分子和蛋白质问答任务中表现出强大的性能。DrugFM是由AIR和北京人工智能研究院(BAAI)联合开发的多模态分子基础模型。它利用UniMAP,一种预先训练的分子模型,可以捕获分子的细粒度属性和表示,并结合了我们的多模态分子基础模型MolFM。DrugFM在跨模态检索上实现了SOTA。
-
datasets/medical_dialog MedDialog数据集(中文)包含医生和患者之间的对话(中文)。它有 110 万次对话和 400 万条话语。数据在不断增长,并将添加更多对话。原始对话来自 haodf.com。MedDialog数据集(英语)包含医生和患者之间的对话(英语)。它有26万次对话。数据在不断增长,并将添加更多对话。原始对话来自 healthcaremagic.com 和 icliniq.com。
-
FreedomIntelligence/huatuo_encyclopedia_qa 该数据集共有 364,420 条医学 QA 数据,其中一些以不同的方式存在多个问题。我们从纯文本(例如,医学百科全书和医学文章)中提取医学QA对。我们在中文维基百科上收集了8,699个疾病百科词条和2,736个药物百科词条。此外,我们还从前文健康网站上抓取了226,432篇高质量的医学文章。
-
FreedomIntelligence/CMB 全方位多层次测评模型医疗知识;测评复杂临床问诊能力;中药科考试;临床项目
-
WangRongsheng/XrayGLM 首个会看胸部X光片的中文多模态医学大模型
-
WangRongsheng/CareLlama 医疗大语言模型,同时它集合了数十个公开可用的医疗微调数据集和开放可用的医疗大语言模型以促进医疗LLM快速发展。
-
michael-wzhu/ChatMed 中文医疗大模型,善于在线回答患者/用户的日常医疗相关问题
-
X-jun-0130/LLM-Pretrain-FineTune 医疗大模型、预训练、微调
-
michael-wzhu/ShenNong-TCM-LLM “神农”大模型,首个中医药中文大模型.
-
michaelwzhu/ShenNong_TCM_Dataset 中医药指令数据集
-
michaelwzhu/ChatMed_Consult_Dataset 来自于互联网上的医疗问诊问题(11W),反映了真实世界的不同用户/患者的医疗问诊需求。目前response都是由OpenAI GPT-3.5引擎回答的。后续会对互联网上的医生回答与患者回答进行筛选甄别,择优选择,构建质量更优的数据集。
-
CMKRG/QiZhenGPT 利用启真医学知识库构建的中文医学指令数据集,并基于此在Chinese-LLaMA-Plus-7B、CaMA-13B、ChatGLM-6B模型上进行指令精调,大幅提高了模型在中文医疗场景下效果,首先针对药品知识问答发布了评测数据集,后续计划优化疾病、手术、检验等方面的问答效果,并针对医患问答、病历自动生成等应用展开拓展。
-
scutcyr/BianQue 中文医疗对话模型扁鹊(BianQue)。实际的医生与用户交谈往往会存在“医生根据用户当前的描述进行持续多轮的询问”。并且医生在最后根据用户提供的信息综合给出建议,如下图所示。我们把医生不断问询的过程定义为 询问链(CoQ, Chain of Questioning) ,当模型处于询问链阶段,其下一个问题通常由对话上下文历史决定。结合当前开源的中文医疗问答数据集(MedDialog-CN、IMCS-V2、CHIP-MDCFNPC、MedDG、cMedQA2、Chinese-medical-dialogue-data),分析其中的单轮/多轮特性以及医生问询特性,结合实验室长期自建的生活空间健康对话大数据,构建了千万级别规模的扁鹊健康大数据BianQueCorpus。对话数据通过“病人:xxx\n医生:xxx\n病人:xxx\n医生:”的形式统一为一种指令格式,训练数据当中混合了大量target文本为医生问询的内容而非直接的建议,这将有助于提升AI模型的问询能力。基于扁鹊健康大数据BianQueCorpus,我们选择了 ChatGLM-6B 作为初始化模型,经过全量参数的指令微调训练得到了新一代BianQue2.0。扩充了药品说明书指令、医学百科知识指令以及ChatGPT蒸馏指令等数据,强化了模型的建议与知识查询能力。BianQue
-
thomas-yanxin/Sunsimiao 孙思邈中文医疗大模型 :提供安全、可靠、普惠的中文医疗大模型
-
scutcyr/SoulChat 中文领域心理健康对话大模型
-
kbressem/medAlpaca 用于医学问答的微调大型语言模型,包括相关数据。
-
llSourcell/DoctorGPT 一种通过了美国医疗执照考试的大型语言模型。使命是为每个人提供自己的私人医生。基于 Meta 的 Llama2 70 亿参数语言模型,该模型在医学对话数据集上进行微调,然后使用强化学习和进一步改进。由于该模型的大小仅为 3 GB,因此它适用于任何本地设备,因此无需 API 即可使用它。免费的,供离线使用,可以保护患者的机密性,并且可以在iOS,Android和Web上使用。
-
itsharex/CareLlama 一个医疗大语言模型,同时它集合了数十个公开可用的医疗微调数据集和开放可用的医疗大语言模型以促进医疗LLM快速发展。
-
FudanDISC/DISC-MedLLM 利用大型语言模型在端到端对话式医疗保健服务中提供准确和真实的医疗响应。它可以满足您的各种医疗保健需求,包括疾病问诊和治疗方案咨询等,为您提供高质量的健康支持服务。构建了一个高质量的数据集Flmc/DISC-Med-SFT,包含超过47万个衍生于现有的医疗数据集重新构建得到的样本。采用了目标导向的策略,通过对于精心选择的几个数据源进行重构来得到SFT数据集。帮助模型学习医疗领域知识,将行为模式与人类偏好对齐,并对齐真实世界在线医疗对话的分布情况。
-
HIT-SCIR-SC/QiaoBan 中文儿童情感陪伴大模型“巧板”。基于通用大模型,使用了通用域人机对话数据、单轮指令数据以及儿童情感陪伴对话数据进行指令微调,训练得到,是通用大语言模型迁移至儿童情感陪伴领域的一次成功实践。三大特点:首先,基于情绪辅导理论构建的儿童情感陪伴对话数据,能够更有效地守护孩子的心理健康。其次,具有儿童心理学背景的志愿者与专家参与完成高质量对话数据的收集。使得能够更加准确地理解和回应儿童的需求,真正与他们建立深入的情感连接。最后,模型与儿童的交互方式更加贴心,让他们能够感受到温暖和认同,成为他们坚实成长道路上的得力伙伴。
-
qiuhuachuan/smile 开源的中文心理健康支持通用模型由 ChatGLM-6B LoRA 16-bit 指令微调得到。数据集通过扩展真实的心理互助 QA为多轮的心理健康支持多轮对话,提高了通用语言大模型在心理健康支持领域的表现,更加符合在长程多轮对话的应用场景。
-
camel-ai/camel 骆驼:大规模语言模型社会“心灵”探索的交际代理。一种名为角色扮演的新型交流代理框架。我们的方法涉及使用开始提示来指导聊天代理完成任务,同时保持与人类意图的一致性。我们展示了如何使用角色扮演来生成对话数据,以研究聊天代理的行为和功能,为研究对话语言模型提供宝贵的资源。我们的贡献包括引入一种新的通信代理框架,为研究多智能体系统的协作行为和能力提供可扩展的方法,以及开源我们的库以支持通信代理及其他方面的研究。演示,展示了两个 ChatGPT 代理之间的对话,扮演 python 程序员和股票交易员的角色,合作开发股票市场的交易机器人。
-
pariskang/CMLM-ZhongJing 首个中医大语言模型——"仲景"。受古代中医学巨匠张仲景深邃智慧启迪,专为传统中医领域打造的预训练大语言模型。有史以来第一个中医大语种模型——“CMLM-中京”。受中国古代医学大师张仲景深邃智慧的启发,是专为中医领域设计的预训练大语言模型。
-
Zlasejd/HuangDI 在 Ziya-LLaMA-13B-V1的基础上加入中医教材、中医各类网站数据等语料库,训练出一个具有中医知识理解力的语言模型(pre-trained ),之后在此基础上通过海量的中医古籍指令对话数据及通用指令数据进行有监督微调(SFT),使得模型具备中医古籍知识问答能力。以《中华医典》数据库为语料来源,约338MB,由两部分组成:①非结构化的“古籍文本”:涵盖了886本标点符号及内容完整的中医古籍。②结构化的“古籍辞典”:包含“名医”、“名言”、“名词”、“名著”等六大类,由中医学界诸多知名学者对中医古籍内容知识进一步系统提炼整理,是中医古籍内容精华最为直接的集中体现。
-
2020MEAI/TCMLLM 通过大模型方式实现中医临床辅助诊疗(病证诊断、处方推荐等)中医药知识问答等任务,推动中医知识问答、临床辅助诊疗等领域的快速发展。构建的指令微调数据集包含8个数据来源,涵盖4本中医经典教科书《中医内科学》、《中医外科学》、《中医妇科学》和《中医儿科学》(即“内外妇儿”,Internal medicine,Surgery, Gynecology,Pediatrics,简称ISGP)、2020版中国药典(Chinese pharmacopeia,简称CHP)、中医临床经典医案数据(Chinese Medicine Clinical Cases,简称CMCC)、以及多个三甲医院的肺病(Lung)、中风病(Stroke)、糖尿病(Diabetes)、肝病(Liver)、脾胃病(Splenic and stomach diseases)等多病种的临床病历。共68k条,token总数约为10M。
-
Kent0n-Li/ChatDoctor 使用医学领域知识在大型语言模型(LLaMA)上进行微调的医学聊天模型。数据集:来自 HealthCareMagic.com 100k的患者和医生之间的真实对话。 来自 ICLiniq-10K 的患者医生之间的 10k 真实对话。 5k从ChatGPT GenMedGPT-5k和疾病数据库 生成了患者和医生之间的对话。
-
chaoyi-wu/PMC-LLaMA 迈向构建医学开源语言模型”的官方代码。
-
X-D-Lab/MindChat 从心理咨询、心理评估、心理诊断、心理治疗四个维度帮助人们纾解心理压力与解决心理困惑, 提高心理健康水平. 作为一个心理大模型, MindChat通过营造轻松、开放的交谈环境, 以放松身心、交流感受或分享经验的方式, 与用户建立信任和理解的关系
-
FreedomIntelligence/huatuo_knowledge_graph_qa 华佗医疗知识图谱问答数据集
-
hejunqing/webMedQA 从在线健康咨询网站收集的真实中国医学问答数据集。
-
pubmedqa/pubmedqa 生物医学研究问答数据集
-
WENGSYX/CMCQA 中国医学领域庞大的对话问答数据集。收集自中国医学会话问答网站春雨,拥有男科、风暴科、妇产科等45个科室的医学对话资料。具体来说,CMCQA 有 130 万个完整的会话或 1983 万个语句或 6.5 亿个词元。同时,我们进一步开源所有数据,推动医疗领域会话问答相关领域的发展。
-
wangrongsheng/HealthCareMagic-100k-en 从在线医疗咨询网站HealthCareMagic收集了约10万例真实的医生-患者对话。通过手动和自动方式过滤这些数据,删除医生和患者的身份信息,并使用语言工具纠正语法错误。
-
wangrongsheng/icliniq-10k-en icliniq.com的1万例实际患者与医生之间对话
-
FreedomIntelligence/Huatuo-26M 规模最大的中国医学质量保证数据集:包含 2600万个问答对。
-
liyucheng/zhihu_rlhf_3k 知乎3000个用于RLHF(Reinforcement Learning from Human Feedback 基于人类反馈的强化学习)的数据
-
MediaBrain-SJTU/MedicalGPT-zh 基于ChatGLM的在高质量指令数据集微调的中文医疗对话语言模型
-
SCIR-HI/Med-ChatGLM 基于中文医学知识的ChatGLM指令微调
-
xionghonglin/DoctorGLM 基于ChatGLM-6B的中文问诊模型
-
WangRongsheng/MedQA-ChatGLM 基于真实医疗对话数据在ChatGLM上进行LoRA、P-Tuning V2、Freeze、RLHF等微调
-
Toyhom/Chinese-medical-dialogue-data 中文医疗对话数据集:Andriatria_男科 94596个问答对 IM_内科 220606个问答对 OAGD_妇产科 183751个问答对 Oncology_肿瘤科 75553个问答对 Pediatric_儿科 101602个问答对 Surgical_外科115991个问答对 总计 792099个问答对
-
WangRongsheng/IvyGPT 最贴近真实医生问诊效果的医疗大语言模型
-
189569400/MedicalGPT-zh 基于医疗指令微调的中文医疗问诊模型
-
DUTIR-BioNLP/Taiyi-LLM 太一:一种双语(中英文)微调的大语言模型,适用于各种生物医学任务
-
bigscience-workshop/biomedica 用于管理用于大规模语言建模的生物医学训练数据的工具,大规模轻量级、程序化访问生物医学数据集,提高数据处理的可重复性,126+ 生物医学数据集、10+ 种语言、12 个任务类别、按任务类型协调的数据集架构、有关许可、粗粒度/细粒度任务类型、域等的元数据
-
openmedlab/PULSE: PULSE: Pretrained and Unified Language Service Engine 中文医疗大语言模型,使用约400万个中文医学领域和通用领域的指令微调数据进行进一步调优。PULSE支持医学领域的各种自然语言处理任务,包括健康教育、医师考试问题、报告解读、医疗记录结构化以及模拟诊断和治疗。
-
openmedlab/XrayPULSE 基于 PULSE。我们利用MedCLIP作为我们的医疗视觉编码器,并利用Q-former(BLIP2)作为适配器,通过简单的线性变换将图像注入PULSE。为了通过适配器对齐冷冻视觉编码器和LLM,我们借助chatGPT从两个数据集(MIMIC-CXR和OpenI)的自由文本放射学报告中生成中文版Xray-Report配对数据。为了促进生物医学多模态学习的研究,我们将向公众发布数据。
-
stanford-crfm/BioMedLM 用于预训练和微调 BioMedLM 生物医学模型的代码。
-
kyegomez/Med-PaLM 在医疗保健领域实现多模态的生成式 AI 的负责任之路:释放 Med-PaLM 2 的力量,彻底改变医学知识,回答复杂的问题,并通过准确、安全和公平的做法增强医疗保健体验。
-
PKU-YuanGroup/ChatLaw 中文法律大模型。目前开源的仅供学术参考的版本底座为姜子牙-13B、Anima-33B,我们使用大量法律新闻、法律论坛、法条、司法解释、法律咨询、法考题、判决文书等原始文本来构造对话数据。
-
AndrewZhe/lawyer-llama 中文法律LLaMA,在大规模法律语料上进行了continual pretraining,让它系统的学习中国的法律知识体系。 在此基础上,我们借助ChatGPT收集了一批对中国国家统一法律职业资格考试客观题(以下简称法考)的分析和对法律咨询的回答,利用收集到的数据对模型进行指令微调,让模型习得将法律知识应用到具体场景中的能力。
-
CSHaitao/LexiLaw 经过微调的中文法律大模型,它基于 ChatGLM-6B 架构,通过在法律领域的数据集上进行微调,使其在提供法律咨询和支持方面具备更高的性能和专业性。
-
LiuHC0428/LAW-GPT 中文法律对话语言模型,由ChatGLM-6B LoRA 16-bit指令微调得到。数据集包括现有的法律问答数据集和基于法条和真实案例指导的self-Instruct构建的高质量法律文本问答,提高了通用语言大模型在法律领域的表现,提高了模型回答的可靠性和专业程度。
-
siat-nlp/HanFei 国内首个全参数训练的法律大模型 HanFei-1.0 韩非
-
davidpig/lychee_law 律知, 法律咨询大模型,Law-GLM-10B: 基于 GLM-10B 模型, 在 30GB 中文法律数据上进行指令微调.
-
coastalcph/lex-glue 英语法律语言理解的基准数据集
-
JoelNiklaus/LEXTREME 涵盖24种语言的11个数据集的法律基准测试。
-
zhihaiLLM/wisdomInterrogatory 由浙江大学、阿里巴巴达摩院以及华院计算三家单位共同设计研发的法律大模型。核心思想:以“普法共享和司法效能提升”为目标,从推动法律智能化体系入司法实践、数字化案例建设、虚拟法律咨询服务赋能等方面提供支持,形成数字化和智能化的司法基座能力。
-
pengxiao-song/LaWGPT 基于中文法律知识的大语言模型
-
seudl/JurisLMs 根据不同的场景在法律法规、法律咨询、裁判文书等多种不同的语料上进一步预训练了多个模型。其中,AI Judge是由GPT2在法学语料上进一步预训练之后,结合一个法条适用模型(一个基于BERT的分类器)微调得到的一个可解释法律判决预测模型。基于中文LLaMA的智能法律咨询模型,AI Lawyer。由于缺乏标注法条的咨询语料,我们采用主动学习(Active Learning)在少量数据上进行微调获得一个法律适用模型,使得AI Lawyer可以根据用户咨询适用正确的法律法规回答问题。
-
lvwzhen/law-cn-ai AI 法律助手,使用 pgvector 存储嵌入向量,使用OpenAI GPT 回答用户。
-
LawRefBook/Laws 本项目收集各类法律法规、部门规章、案例等,并将其按照章节等信息进行了处理。
-
FudanDISC/DISC-LawLLM 利用大型语言模型(LLM)提供广泛法律服务的智能法律系统。DISC-Law-SFT 数据集
-
open-compass/LawBench 对大型语言模型的法律知识进行基准测试
-
gmftbyGMFTBY/science-llm 科学领域的大语言模型,在redpajama arXiv上训练
-
IMOSR/MediaGPT 中文的自媒体大语言模型MediaGPT(曾用名Media LLaMA)
-
wenge-research/YAYI2 科闻歌研发的新一代开源大语言模型,采用了超过 2 万亿 Tokens 的高质量、多语言语料进行预训练。包括 Base 和 Chat 版本,参数规模为 30B。YAYI2-30B 是基于 Transformer 的大语言模型,采用了超过 2 万亿 Tokens 的高质量、多语言语料进行预训练。针对通用和特定领域的应用场景,我们采用了百万级指令进行微调,同时借助人类反馈强化学习方法,以更好地使模型与人类价值观对齐。YAYI2 预训练数据 ,选了约100B数据,数据大小约为500GB。在预训练阶段,我们不仅使用了互联网数据来训练模型的语言能力,还添加了通用精选数据和领域数据,以增强模型的专业技能。通用精选数据包含人工收集和整理的高质量数据。涵盖了报纸类数据、文献类数据、APP类数据、代码类数据、书籍类数据、百科类数据。其中,报纸类数据包括广泛的新闻报道和专栏文章,这类数据通常结构化程度高,信息量丰富。文献类数据包括学术论文和研究报告,为我们的数据集注入了专业和深度。代码类数据包括各种编程语言的源码,有助于构建和优化技术类数据的处理模型。书籍类数据涵盖了小说、诗歌、古文、教材等内容,提供丰富的语境和词汇,增强语言模型的理解能力。构建了一套全方位提升数据质量的数据处理流水线,包括标准化、启发式清洗、多级去重、毒性过滤四个模块。我们共收集了 240TB 原始数据,预处理后仅剩 10.6TB 高质量数据。
-
ymcui/Chinese-LLaMA-Alpaca-2 中文 LLaMA-2 & Alpaca-2 大模型二期项目 + 本地CPU/GPU训练部署 (Chinese LLaMA-2 & Alpaca-2 LLMs)
-
FlagAlpha/Llama2-Chinese Llama中文社区,最好的中文Llama大模型,完全开源可商用
-
CVI-SZU/Linly 提供中文对话模型 Linly-ChatFlow 、中文基础模型 Chinese-LLaMA (1-2)、Chinese-Falcon 及其训练数据。中文基础模型以 LLaMA 和 Falcon 为底座,使用中文和中英平行语料进行增量预训练,将其在英文上的语言能力扩展到中文上。公开的多语言指令数据,对中文模型进行大规模指令跟随训练,实现了 Linly-ChatFlow。此外,本项目开源了从头训练的 Linly-OpenLLaMA 模型,包含 3B、7B、13B 规模,在 1TB 中英文语料上进行预训练,针对中文优化了字词结合tokenizer。
-
OpenBMB/CPM-Bee 一个完全开源、允许商用的百亿参数中英文基座模型,也是CPM-Live训练的第二个里程碑。它采用Transformer自回归架构(auto-regressive),在超万亿(trillion)高质量语料上进行预训练,拥有强大的基础能力。开发者和研究者可以在CPM-Bee基座模型的基础上在各类场景进行适配来以创建特定领域的应用模型。
-
zjunlp/KnowLM 一个开源的知识渊博的大型语言模型框架。以知识和大模型为中心,利用构建的中英文预训练语料库,对LLaMA等大型模型进行全面预训练。基于KG2Instructions的技术,优化了包括NER、RE和IE在内的知识提取任务,可以使用人工指令完成。
-
zjunlp/KnowLM-IE · Datasets at Hugging Face 基于知识图谱构建的,提取实体关系三元组的指令数据集
-
ictnlp/BayLing “百聆”是基于LLaMA的对齐增强的英语/中文大语言模型,具有优越的中英文能力,在多语言和通用任务等测试中取得ChatGPT 90%的性能。
-
AtomEcho/AtomGPT 基于LLaMA的模型架构,从0开始训练,希望能在训练的过程中,将模型能力得到提升的进化过程展示出来,感受到模型学习的过程。
-
FMInference/FlexGen 单个GPU上运行大型语言模型,实现面向吞吐量的加速方案。
-
BuilderIO/gpt-crawler 抓取网站以生成知识文件,以从 URL 创建自己的自定义 GPT
-
bigscience-workshop/petals 在家运行LLM,BitTorrent风格。微调和推理速度比卸载快10 倍。Petals协作运行像Llama和BLOOM这样的大型语言模型 - 你加载模型的一小部分,然后加入为其他部分提供服务的人来运行推理或微调。
-
janhq/jan ChatGPT 的开源替代品,可在您的计算机上 100% 离线运行。
-
Anthropic/hh-rlhf Human preference data about helpfulness and harmlessness,有用性和无害性的人类偏好数据,关于有用和无害的人类偏好数据,来自从人类反馈中强化学习训练有用和无害的助手。这些数据旨在为后续的RLHF训练训练偏好(或奖励)模型。这些数据不适用于对话代理的监督训练。就这些数据对对话代理进行培训可能会导致有害的模型,应避免这种情况。来自红队语言模型的人工生成和注释的红队对话,以减少危害:方法、缩放行为和经验教训。这些数据旨在了解众包工人红队模型以及哪些类型的红队攻击成功与否。这些数据不用于微调或偏好建模(使用上面的数据进行偏好建模)。这些数据是从上述无害偏好建模数据派生的对话的完整记录,其中只有选择的响应被合并到整个脚本中。此外,成绩单还带有人工和自动测量的注释,以衡量整体对话的危害程度。
-
RUC-GSAI/YuLan-Chat 基于聊天的大型语言模型,由中国人民大学GSAI的研究人员开发(YuLan,代表玉兰,是中国人民大学的校园花)。最新版本是通过不断预训练和指令调整LLaMA-2开发的,具有高质量的中英文数据。
-
Yu-Yang-Li/StarGLM 整合了司天工程相关的语料数据与知识库资料,训练得到了天文大模型。司天工程是时域天文学所提出的“十五五”天文重大基础设施,一期计划在国内多个优选观测台址布置54台(18组)口径1米级的大视场望远镜,组成多波段同时监测网络,每30分钟完成1万平方度天区的高精度三色“凝视”巡天。司天的采样频率比全球其它巡天项目高近两个量级,将突破目前探测时标的限制,在新的空域和时域下发现大批新天体、新现象,在宇宙极端高能爆发源、引力波电磁对应体、系外行星和太阳系天体等理论和观测研究中形成新的突破,在“两暗一黑三起源”等重大科学问题研究以及地球文明灾难预警等国家空间安全问题方面发挥重要作用。
-
OpenBMB/MiniCPM 面壁智能与清华大学自然语言处理实验室共同开源的系列端侧大模型,主体语言模型 MiniCPM-2B 仅有 24亿的非词嵌入参数量, 总计2.7B参数量。经过 SFT 后,在公开综合性评测集上,与 Mistral-7B相近(中文、数学、代码能力更优),整体性能超越 Llama2-13B、MPT-30B、Falcon-40B 等模型。经过 DPO 后,在当前最接近用户体感的评测集 MTBench上,也超越了 Llama2-70B-Chat、Vicuna-33B、Mistral-7B-Instruct-v0.1、Zephyr-7B-alpha 等众多代表性开源大模型。以 MiniCPM-2B 为基础构建端侧多模态大模型 MiniCPM-V,整体性能在同规模模型中实现最佳,超越基于 Phi-2 构建的现有多模态大模型,在部分评测集上达到与 9.6B Qwen-VL-Chat 相当甚至更好的性能。经过 Int4 量化后,可在手机上进行部署推理,流式输出速度略高于人类说话速度。也直接跑通了多模态大模型在手机上的部署。一张1080/2080可高效参数微调,一张3090/4090可全参数微调,一台机器可持续训练 MiniCPM,二次开发成本较低。
-
cocktailpeanut/dalai 在本地计算机上运行LLaMA语言模型的最简单方法
-
Neutralzz/BiLLa 开源的推理能力增强的中英双语LLaMA模型。
-
DUOMO/TransGPT 国内首款开源交通大模型,主要致力于在真实交通行业中发挥实际价值。能够实现交通情况预测、智能咨询助手、公共交通服务、交通规划设计、交通安全教育、协助管理、交通事故报告和分析、自动驾驶辅助系统等功能。可以为道路工程、桥梁工程、隧道工程、公路运输、水路运输、城市公共交通运输、交通运输经济、交通运输安全等行业提供通识常识。以此为基础,可以落脚到特定的交通应用场景中。
-
Duxiaoman-DI/XuanYuan 轩辕:首个千亿级中文金融对话模型。在BLOOM-176B的基础上针对中文通用领域和金融领域进行了针对性的预训练与微调,它不仅可以应对通用领域的问题,也可以解答与金融相关的各类问题,为用户提供准确、全面的金融信息和建议。
-
chancefocus/PIXIU 貔貅。第一个开源金融大型语言模型 (LLM)、指令调整数据和评估基准,用于全面评估金融 LLM。我们的目标是不断推动金融人工智能(AI)的开源发展。几个关键组件:FLARE:我们的金融语言理解和预测评估基准。FLARE作为金融LLM的评估套件,重点是理解和预测各种金融环境中的任务。FIT:我们的财务指令数据集。FIT是专门为财务任务量身定制的多任务和多模态指令数据集。它是为这些任务微调LLM的培训基地。FinMA:我们的金融大语言模型(LLM)。FinMA是我们项目的核心,为我们的财务任务提供学习和预测能力。主要特点:开放资源:PIXIU公开提供财务LLM,指令调整数据和评估基准中包含的数据集,以鼓励开放研究和透明度。多任务:PIXIU中的指令调优数据和基准测试涵盖了多种财务任务,包括4个财务NLP任务和1个财务预测任务。多模态:PIXIU的指令调优数据和基准由多模态财务数据组成,包括来自股票运动预测任务的时间序列数据。它涵盖了各种类型的金融文本,包括报告、新闻文章、推文和监管文件。多样性:与以前主要关注财务NLP任务的基准不同,PIXIU的评估基准包括与现实世界场景相一致的关键财务预测任务,使其更具挑战性。以及FLARE 2.0:金融语言理解和预测评估基准。
-
MetaGLM/FinGLM 致力于构建一个开放的、公益的、持久的金融大模型项目,利用开源开放来促进「AI+金融」。旨在深度解析上市公司年报的对话交互智能系统。面对金融文本中的专业术语与暗含信息,我们致力于用AI实现专家级别的金融分析。上市公司年报为投资者呈现了公司的经营状况、财务状况和未来规划。专业知识是解读的关键,而我们的目标是通过AI技术让这一过程变得更简单、更准确。
-
SUFE-AIFLM-Lab/FinEval 包含金融、经济、会计和证书等领域高质量多项选择题的集合。
-
SALT-NLP/FLANG 金融领域的基准测试和大型预训练语言模型
-
FudanDISC/DISC-FinLLM 专门针对金融场景下为用户提供专业、智能、全面的金融咨询服务的金融领域大模型,由复旦大学数据智能与社会计算实验室 (Fudan-DISC) 开发并开源。开源如下资源:DISC-FinLLM-SFT 训练数据样例、DISC-FinLLM 模型参数、DISC-Fin-Eval Benchmark DISC-Fin-Eval 测试、DISC-FinLLM-SFT 完整训练数据
-
blcuicall/taoli 适用于国际中文教育领域的大模型 “桃李”(Taoli)1.0 ,在国际中文教育领域数据上进行了额外训练的模型。基于目前国际中文教育领域流通的500余册国际中文教育教材与教辅书、汉语水平考试试题以及汉语学习者词典等,构建了国际中文教育资源库。 设置了多种形式的指令来充分利用知识,构造了共计 88k 条的高质量国际中文教育问答数据集,并利用收集到的数据对模型进行指令微调,让模型习得将国际中文教育知识应用到具体场景中的能力。
-
icalk-nlp/EduChat 开源中英教育对话大模型。(通用基座模型,GPU部署,数据清理)
-
yongzhuo/chatglm-maths chatglm-6b微调/LORA/PPO/推理, 样本为自动生成的整数/小数加减乘除运算, 可gpu/cpu
-
MineDojo/Voyager 航海家:具有大型语言模型的开放式具身代理。是 Minecraft 中第一个由 LLM 驱动的体现的终身学习代理,它不断探索世界,获得各种技能,并在没有人为干预下做出新的发现。由三个组件组成:1)最大化探索的自动课程,2)不断增长的可执行代码技能库,用于存储和检索复杂行为,以及3)新的迭代提示机制,其中包含环境反馈,执行错误和自我验证以改进程序。Voyager通过黑盒查询与GPT-4交互,这绕过了模型参数微调。从经验上讲,Voyager表现出强大的上下文终身学习能力,并在玩Minecraft方面表现出非凡的熟练程度。它获得的独特物品增加了 3.3×,旅行距离延长了 2.3×,解锁关键科技树里程碑的速度比之前的 SOTA 快了 15.3×。Voyager能够利用在新的Minecraft中学到的技能库从头开始解决新任务,而其他技术则难以概括。
-
DAMO-NLP-SG/Video-LLaMA 为大型语言模型提供视频和音频理解功能。Video-LLaMA建立在BLIP-2和MiniGPT-4之上。它由两个核心组件组成:(1)视觉语言(VL)分支和(2)音频语言(AL)分支。
VL 分支
(可视编码器:ViT-G/14 + BLIP-2 Q 前置器),引入两层视频Q-Forform和帧嵌入层(应用于每帧的嵌入)来计算视频表示。使用视频到文本生成任务在 Webvid-2M 视频字幕数据集上训练 VL Branch。我们还将图像文本对(来自LLaVA的~595K图像标题)添加到预训练数据集中,以增强对静态视觉概念的理解。在预训练之后,我们使用来自MiniGPT-4,LLaVA和VideoChat的指令调整数据进一步微调我们的VL Branch。AL 分支
(音频编码器:ImageBind-Huge): 引入两层音频Q-Forform和音频段嵌入层(应用于每个音频段的嵌入)来计算音频表示。由于使用的音频编码器(即 ImageBind)已经跨多个模态对齐,因此我们仅根据视频/图像指令数据训练 AL Branch,只是为了将 ImageBind 的输出连接到语言解码器。在跨模态训练期间,只有视频/音频、位置嵌入层和线性层可训练。 -
Timothyxxx/Chain-of-ThoughtsPapers 思维链的相关论文。大型语言模型中的思维链促使了推理能力的产生。
-
kyegomez/tree-of-thoughts 即插即用 思想之树的实现:使用大型语言模型进行深思熟虑的问题解决,将模型推理提升至少 70%
-
promptslab/Awesome-Prompt-Engineering 包含用于提示工程的手工策划资源,重点是生成式预训练变压器 (GPT)、ChatGPT、PaLM 等
-
GitHubDaily/ChatGPT-Prompt-Engineering-for-Developers-in-Chinese 《面向开发者的 ChatGPT 提示词工程》非官方版中英双语字幕
-
timqian/openprompt.co OpenPrompt.co 上加星标最多的提示列表。该列表每 24 小时更新一次。
-
thinkingjimmy/Learning-Prompt 免费的快速
提示工程
在线课程。ChatGPT 和 Midjourney 教程现在包括在内! -
trigaten/Learn_Prompting 关于快速
提示工程
的免费开源指南。 -
prompt-engineering/prompt-patterns Prompt 编写模式:如何将思维框架赋予机器,以设计模式的形式来思考 prompt
-
L1Xu4n/Awesome-ChatGPT-prompts-ZH_CN 如何将ChatGPT调教成一只猫娘。
-
prompt-engineering/click-prompt 简化您的提示设计,使用 ClickPrompt,您只需单击一下即可轻松查看、共享和运行这些提示。ClickPrompt 用于一键轻松查看、分享和执行您的 Prompt。
-
mattnigh/ChatGPT3-Free-Prompt-List 学习创建 ChatGPT3 提示的免费指南
-
yzfly/LangGPT 让每个人都能成为及时的专家! 结构化提示词,结构化提示词。
-
OpenMindClub/awesome-chatgpt 关于ChatGPT的一切,精选的应用程序和工具列表。
-
EgoAlpha/prompt-in-context-learning 用于上下文学习和快速工程的出色资源:掌握 ChatGPT、GPT-3 和 FlanT5 等 LLM,并提供最新和前沿的更新。
-
hegelai/prompttools 用于快速测试和实验的开源工具,支持LLM(例如OpenAI,LLaMA)和矢量数据库(例如Chroma,Weaviate,LanceDB)。
-
uptrain-ai/uptrain 一个Python框架,通过允许用户检查正确性,结构完整性,偏见,幻觉等方面来确保您的LLM应用程序可靠地运行。
-
ypwhs/CreativeChatGLM 欢迎来到 ChatGLM 创意世界!你可以使用修订和续写的功能来生成创意内容!
-
KevinWang676/ChatGLM2-Voice-Cloning 和喜欢的角色沉浸式对话吧:ChatGLM2 + 声音克隆+视频对话
-
melih-unsal/DemoGPT 只需使用句子即可创建 LangChain 应用程序。具有基础模型功能的自动 Gen-AI 应用程序生成器。
-
soulteary/docker-llama2-chat 一起玩LLaMA2 (官方 / 中文版 / INT4 / 骆驼2.cpp) 一起玩!只需3个步骤!( 非 GPU / 5GB vRAM / 8~14GB vRAM)
-
homanp/superagent 超级代理 - 构建、部署和管理 LLM 支持的代理。一个强大的工具,可简化 LLM(大型语言模型)代理到生产的配置和部署。它提供了一系列特性和功能,使开发人员能够更轻松地构建、管理和将 AI 代理部署到生产环境,包括通过矢量数据库、强大的工具、Webhook、cron 作业等构建内存和文档检索等功能。
-
DAMO-NLP-MT/PolyLM 多语言大型语言模型,旨在解决当前LLM研究中的以下空白和局限性,为推进这一领域提供全面和创新的解决方案。涵盖 18 种最常用的语言。PolyLM精通全球主要的非英语语言,如西班牙语,俄语,阿拉伯语,日语,韩语,泰语,印度尼西亚语和中文等。它是对现有开源模型的完美补充,包括:(1)LLaMA,其中英语在整个数据集中占主导地位。(2)BLOOM,未能解决大量人口使用的语言,如日语,韩语和泰语。更好的多语言教学跟踪能力。我们建议MULTIALPACA来补充ALPACA和CHINESEALPACA,使LLM更好地遵循多语言说明,特别是那些来自非英语母语人士的指示。强劲的性能。与具有相似模型大小的流行多语言LLM相比,PolyLM在各种任务(包括QA,理解和生成)上表现出卓越的性能。
-
lyogavin/Anima 第一个开源的基于QLoRA的33B中文大语言模型。基于QLoRA开源的33B guanaco训练了10000 steps。训练使用一个H100 GPU。
-
Alibaba-NLP/EcomGPT 一种面向电子商务的指令调优大语言模型。共有250万条指令数据。使用电子商务基本数据类型(如产品信息,用户评论)构建原子任务来扩展数据大小和任务多样性。原子任务被定义为隐含参与解决最终任务的中间任务,我们也称之为任务链任务。
-
davendw49/k2 一种开源语言模型,首先在收集和清理的地球科学文献(包括地球科学开放获取论文和维基百科页面)上进一步预训练LLaMA,其次使用知识密集型指令调整数据(GeoSignal)进行微调。至于初步评估,我们使用GeoBench(由NPEE和AP地质,地理和环境科学测试组成)作为基准。与具有相似参数的几个基线模型相比,K2 在客观和主观任务上的表现优于基线。
-
neukg/TechGPT “东北大学知识图谱研究组”发布的垂直领域大语言模型。强化了如下任务:以“知识图谱构建”为核心的关系三元组抽取等各类信息抽取任务。以“阅读理解”为核心的各类智能问答任务。以“文本理解”为核心的关键词生成等各类生成任务。
-
arc53/DocsGPT GPT 支持的文档聊天,与您的文档聊天
-
guangzhengli/ChatFiles 文档聊天机器人 — 多个文件。由 GPT / 嵌入提供支持。
-
whitead/paper-qa 从PDF或文本文件(可以是原始HTML)进行问答。它努力通过文本引用来提供非常好的答案,没有幻觉。使用OpenAI嵌入和称为FAISS的矢量数据库来嵌入和搜索文档。
-
huggingface/text-generation-inference 用于文本生成推理的 Rust、Py 和 gRPC 服务器。在HuggingFace的生产中使用,以支持Hugging Chat,推理API和推理端点。
-
mylxsw/aidea 一款支持 GPT 以及国产大语言模型通义千问、文心一言等,支持 Stable Diffusion 文生图、图生图、 SDXL1.0、超分辨率、图片上色的全能型 APP。
-
jmorganca/ollama 在本地启动并运行 Llama 2 和其他大型语言模型
-
serge-chat/serge 用llama.cpp运行Alpaca羊驼模型。没有API密钥,完全自托管
-
zetavg/LLaMA-LoRA-Tuner 用于微调和测试您自己的 LoRA 模型的 UI 工具基于 LLaMA, GPT-J 等.一键运行在谷歌Colab上。+ 一个类似 Gradio ChatGPT 的聊天用户界面,用于演示您的语言模型。
-
vercel-labs/ai-chatbot 使用 Next.js、Vercel AI SDK、OpenAI 和 Vercel KV 构建的开源 AI 聊天机器人应用程序模板。
-
RockChinQ/QChatGPT 高稳定性、支持插件、实时联网的 ChatGPT QQ 机器人 | 支持 Claude、Google Bard、gpt4free、One API 的 QQ 机器人平台
-
zhayujie/bot-on-anything 将 ChatGPT、必应、文心一言、谷歌Bard 等对话模型连接各类应用,如微信、公众号、QQ、Telegram、Gmail、Slack、Web、企业微信、飞书、钉钉等。
-
askrella/whatsapp-chatgpt WhatsApp机器人使用OpenAI的GPT和DALL-E 2来响应用户输入。
-
AutumnWhj/ChatGPT-wechat-bot 几步即可获得一个基于 ChatGPT 的微信机器人
-
wangrongding/wechat-bot 基于OpenAi ChatGPT + WeChaty 实现的微信机器人 ,可以用来帮助你自动回复微信消息,或者管理微信群/好友,检测僵尸粉等...
-
OpenGVLab/InternGPT 开源演示平台,您可以在其中轻松展示您的 AI 模型。现在它支持DragGAN,ChatGPT,ImageBind,多模态聊天,如GPT-4,SAM,交互式图像编辑等
-
TBXark/ChatGPT-Telegram-Workers 在Cloudflare Workers上轻松部署您自己的Telegram ChatGPT机器人。
-
leon-ai/leon 您的开源个人助理。Leon的NLU将首先使用自己的模型,而不依赖LLM。重要的是,Leon可以100%离线运行,我相信,通过量化等缩小技术,Leon迟早会以LLM为核心,并且仍然能够在边缘运行。
-
minimaxir/simpleaichat Python 包可轻松与聊天应用程序接口,具有强大的功能和最小的代码复杂性。可轻松与ChatGPT和GPT-4等聊天应用程序接口,具有强大的功能和最小的代码复杂性。
-
josStorer/RWKV-Runner RWKV管理和启动工具,完全自动化,只有8MB。并提供与OpenAI API兼容的接口。RWKV 是一种完全开源的大型语言模型,可用于商业用途。
-
hahahumble/speechgpt 一个Web应用程序,使您能够与ChatGPT交谈。
-
jackMort/ChatGPT.nvim Neovim插件:使用ChatGPT API轻松生成自然语言
-
869413421/chatgpt-web 基于ChatGPT3.5 API实现的私有化web程序
-
pashpashpash/vault-ai 使用 OP Stack(OpenAI + Pinecone Vector Database)为 ChatGPT 提供长期记忆。使用简单的 React 前端上传您自己的自定义知识库文件(PDF、txt、epub 等)。
-
ourongxing/chatgpt-vercel 优雅而有力的网页ChatGPT界面。由OpenAI和Vercel提供支持。
-
PlexPt/chatgpt-java ChatGPT Java SDK。支持 GPT3.5、 GPT4 API。开箱即用。
-
Chainlit/chainlit 在几分钟内构建Python LLM应用程序
-
gd3kr/BlenderGPT 使用英语命令通过OpenAI的GPT-4控制Blender。
-
varunshenoy/GraphGPT 使用 GPT-3 从非结构化文本推断知识图谱
-
zhaoyingjun/chatbot ChatGPT带火了聊天机器人,主流的趋势都调整到了GPT类模式,本项目也与时俱进,会在近期更新GPT类版本。基于本项目和自己的语料可以训练出自己想要的聊天机器人,用于智能客服、在线问答、闲聊等场景。
-
Significant-Gravitas/Auto-GPT-Plugins 用于自动 GPT 的插件。插件分为两类:第一方和第三方。第一方插件是广泛使用的插件精选列表。它们在安装插件平台时默认安装。第三方插件需要单独添加。它们可能对您的特定需求有用。
-
chatanywhere/GPT_API_free Free ChatGPT API Key,免费ChatGPT API,支持GPT4 API(低价),ChatGPT国内可用免费转发API,直连无需代理。可以搭配ChatBox等软件/插件使用,极大降低接口使用成本。国内即可无限制畅快聊天。
-
PromtEngineer/localGPT 无缝集成各种开源大模型,在本地设备上与您的文档聊天。没有数据离开您的设备,100%私密。
-
shreyashankar/gpt3-sandbox 使用户能够使用新发布的OpenAI GPT-3 API创建很酷的Web演示,只需几行Python。
-
mayooear/gpt4-pdf-chatbot-langchain GPT4 和 LangChain 聊天机器人,适用于大型 PDF 文档
-
whoiskatrin/chart-gpt 基于文本输入GPT构建图表的AI工具
-
nomic-ai/gpt4all 在 CPU 上本地运行的开源助手样式大型语言模型
-
langchain-ai/chat-langchain 本地托管的聊天机器人的实现,专门针对 LangChain 文档的问答。使用 LangChain、FastAPI 和 Next.js 构建。该应用程序利用 LangChain 的流媒体支持和异步 API 为多个用户实时更新页面。
-
PrefectHQ/marvin 构建激发欢乐的 使用生成式 AIAI 界面。一个轻量级的 AI 工程框架,用于构建可靠、可扩展且易于信任的自然语言界面。
-
microsoft/autogen 支持使用多个代理开发LLM应用程序,这些代理可以相互交谈以解决任务。AutoGen 代理是可定制的、可对话的,并且无缝地允许人工参与。它们可以在各种模式下运行,这些模式采用LLM,人力输入和工具的组合。
-
assafelovic/gpt-researcher 基于 GPT 的自主代理,可对任何给定主题进行在线综合研究。可以生成详细、事实和公正的研究报告,并提供自定义选项,以专注于相关资源、大纲和课程。受最近的计划和求解和RAG(检索增强生成)论文的启发,GPT 研究员解决了速度、确定性和可靠性问题,通过并行代理工作提供更稳定的性能和更高的速度,而不是同步操作。
-
GAIR-NLP/abel 数学大语言模型,为了向尼尔斯·亨里克·阿贝尔(Niels Henrik Abel)在代数和分析方面的开创性工作致敬而创建的,我们的模型也相对较好。
-
ray-project/llm-numbers 每个LLM开发人员都应该知道的数字
-
THUDM/MathGLM GPT 可以在没有计算器的情况下解决数学问题
-
thunlp/WebCPM 中文长篇问答的交互式网络搜索的官方代码。使用中文预训练模型进行交互式Web搜索的项目。开发了一个网络搜索界面,它既收集人类又收集网络搜索行为。然后,使用多达 10B 的参数微调 PLM,以模仿人类的网络搜索行为,并根据收集到的事实生成答案。开源了 Web 搜索界面、数据集、实现和模型参数。
-
huggingface/transformers-bloom-inference BLOOM 的快速推理解决方案
-
OpenLemur/Lemur Lemur 是一种可公开访问的语言模型,针对自然语言和编码功能进行了优化,可作为多功能语言代理的骨干。随着语言模型不断从对话聊天机器人发展到可以在现实世界中采取行动的功能代理,它们既需要强大的语言理解能力,也需要执行操作的能力。狐猴平衡了自然语言和编码技能,使代理能够遵循指令、推理任务并采取脚踏实地的行动。
-
llm-attacks/llm-attacks 对对齐语言模型的普遍和可转移攻击
-
OpenNLPLab/TransnormerLLM 第一个基于线性注意力的LLM,在准确性和效率方面都优于传统的softmax基于注意力的模型。它是在具有多达 1.4 万亿个词元的高质量语料库上进行训练的。从以前的线性注意力架构TransNormer演变而来,进行了高级修改,包括LRPE位置嵌入,闪电注意力加速,新的门控和规范化机制。TransNormerLLM在多个公认的中文,英文和多语言通用和特定领域的基准测试中实现了其规模的竞争性能。此版本包括具有 385M、1B 和 7B 参数的基本版本。所有版本都完全开放给学术研究。开发者只需通过电子邮件申请并获得官方商业许可,即可免费使用商业用途。
-
CogStack/OpenGPT 用于创建基于基础指令的数据集和培训会话领域专家大型语言模型 (LLM) 的框架。使用 OpenGPT 训练的医疗保健对话模型。
-
huchenxucs/ChatDB 具有内存的大型语言模型 (LLM) 在计算上是通用的。然而,主流LLM并没有充分利用记忆,设计受到生物大脑的严重影响。由于其近似性质和容易累积错误,传统的神经记忆机制无法支持LLM模拟复杂的推理。在本文中,我们从现代计算机体系结构中寻求灵感,以使用符号记忆增强LLM,以进行复杂的多跳推理。这样的符号内存框架被实例化为LLM和一组SQL数据库,其中LLM生成SQL指令来操作SQL数据库。我们在需要复杂推理的合成数据集上验证了所提出的记忆框架的有效性。
-
intel-analytics/BigDL 用于在英特尔 XPU(从笔记本电脑到 GPU 再到云)上运行 LLM(大型语言模型),使用 INT4 以极低的延迟(适用于任何 PyTorch 模型)。
-
WangHuiNEU/llm 大模型社区每周都要发布近百个模型,本项目会及时整理相关模型和文章并期望成为中文社区的大模型研究人员的模型和技术备忘录,每天会及时更新最新的模型,并详细解读技术细节
-
Magnetic2014/llm-alignment-survey 用于大型语言模型 (LLM) 对齐的精选阅读列表。
-
zjunlp/EasyEdit 一个易于使用的LLM知识编辑框架。其目的是在特定域内有效地改变 LLM 的行为,而不会对其他输入的性能产生负面影响。它的设计易于使用和扩展。EasyEdit 包含编辑器、方法(SERAC、MEND、ROME、MEMIT、Knowledge Neuron)和评估的统一框架,分别表示编辑场景、编辑技术和评估方法。
-
OpenBMB/XAgent XAgent 是一个开源实验性大型语言模型 (LLM) 驱动的自治代理,可以自动解决各种任务。它被设计为可应用于各种任务的通用代理。目标是创建一个可以解决任何给定任务的超级智能代理!具有以下功能:自主性:XAgent可以在没有人类参与的情况下自动解决各种任务。
安全
:XAgent旨在安全运行。所有操作都约束在 docker 容器内。可扩展性
:XAgent 被设计为可扩展的。您可以轻松添加新工具来增强代理的能力,甚至是新代理!GUI
:友好的 GUI 来与代理交互。还可以使用命令行与代理进行交互。与人类合作
:可以与您合作处理任务。它不仅能够在旅途中按照您的指导解决复杂的任务,而且在遇到挑战时还可以寻求您的帮助。XAgent由三部分组成:调度程序
负责动态实例化任务并将其调度给不同的代理。它允许我们添加新代理并提高代理的能力。计划员负责生成和纠正任务计划。它将任务划分为子任务并为其生成里程碑,允许代理逐步解决任务。参与者
负责执行操作以实现目标并完成子任务。参与者利用各种工具解决子任务,也可以与人类协作解决任务。ToolServer 是为 XAgent 提供强大而安全的工具来解决任务的服务器。它是一个 docker 容器。提供以下工具:文件编辑器
提供了一个文本编辑工具来写入、读取和修改文件。Python Notebook
提供了一个交互式Python笔记本,可以运行Python代码来验证想法,绘制图形等。网络浏览器
提供用于搜索和访问网页的网页浏览器。Shell
提供了一个 bash shell 工具,可以执行任何 shell 命令,甚至可以安装程序和主机服务。Rapid API
提供了一个从 Rapid API 检索 API 并调用它们的工具,它提供了广泛的 API 供 XAgent 使用。还可以轻松地将新工具添加到ToolServer,以增强XAgent的能力。 -
THUDM/AgentTuning 使用跨多个代理任务的交互轨迹来调整LLM的第一次尝试。评估结果表明,AgentTuning 使 LLM 的代理功能能够在看不见的代理任务上具有强大的泛化能力,同时在一般语言能力方面保持良好。我们已经开源了AgentInstruct数据集和AgentLM。AgentInstruct 是一个精心策划的数据集,包含 1,866 个高质量的交互,旨在增强 6 个不同现实世界任务中的 AI 代理。AgentLM模型是通过对Llama2聊天系列的AgentInstruct数据集和ShareGPT数据集进行混合训练生成的。
-
QwenLM/Qwen-VL 由阿里云提出的Qwen-VL(通义千问-VL)聊天和预训练大视觉语言模型的官方回购。
-
OpenBMB/BMTools 大模型的工具学习,ChatGPT插件的开源解决方案。可以(1)通过编写python函数轻松构建插件(2)使用外部ChatGPT插件。
-
THUDM/AgentBench 第一个旨在评估LLM作为代理在不同环境中的基准测试。它包含 8 个不同的环境,以更全面地评估 LLM 在各种场景中作为自主代理运行的能力。这些环境包括 5 个新创建的域,即 操作系统、数据库、知识图谱、数字纸牌游戏、横向思维难题
-
InternLM/InternLM-XComposer 基于InternLM的视觉语言大型模型(VLLM),用于高级文本图像理解和构图。
-
THUDM/CogVLM 强大的开源视觉语言模型(VLM)。CogVLM-17B具有100亿个视觉参数和70亿个语言参数。在10个经典的跨模态基准测试上实现了最先进的性能,包括NoCaps,Flicker30k字幕,RefCOCO,RefCOCO+,RefCOCOg,Visual7W,GQA,ScienceQA,VizWiz VQA和TDIUC,并在VQAv2,OKVQA,TextVQA,COCO字幕等方面排名第二,超过或匹配PaLI-X 55B。CogVLM还可以与您讨论图像。CogVLM 是一个强大的开源视觉语言模型,利用视觉专家模块深度整合语言编码和视觉编码,在 10 项权威跨模态基准上取得了SOTA性能。目前仅支持英文,后续会提供中英双语版本支持。CogVLM模型包括四个基本组件:视觉转换器(ViT)编码器,MLP适配器,预训练大语言模型(GPT)和视觉专家模块。
-
Shaunwei/RealChar 实时创建、自定义和与您的 AI 角色/同伴交谈(全部在一个代码库中!使用LLM OpenAI GPT3.5 / 4,Anthropic Claude2,Chroma Vector DB,Whisper Speech2Text,ElevenLabs Text2Speech
-
LinkSoul-AI/Chinese-Llama-2-7b 开源社区第一个能下载、能运行的中文 LLaMA2 模型!全部开源,完全可商用的中文版 Llama2 模型及中英文 SFT 数据集,输入格式严格遵循 llama-2-chat 格式,兼容适配所有针对原版 llama-2-chat 模型的优化。
-
EleutherAI/math-lm 数学的开放语言模型
-
aiwaves-cn/RecurrentGPT 用自然语言(即文本段落)替换了长短期记忆RNN(LSTM)中的矢量化元素(即细胞状态、隐藏状态、输入和输出),并通过提示工程模拟递归机制。
-
eric-ai-lab/MiniGPT-5 论文“MiniGPT-5:通过生成式Vokens交错视觉和语言生成”的正式实现
-
eureka-research/Eureka 通过编码大型语言模型进行人类级奖励设计,大型语言模型(LLM)作为顺序决策任务的高级语义规划者表现出色。然而,利用它们来学习复杂的低级操作任务,例如灵巧的笔旋转,仍然是一个悬而未决的问题。我们弥合了这一基本差距,并提出了Eureka,这是一种由LLM提供支持的人类级奖励设计算法。 Eureka 利用最先进的 LLM(如 GPT-4)的卓越零镜头生成、代码编写和上下文改进功能,对奖励代码执行上下文进化优化。由此产生的奖励可用于通过强化学习获得复杂的技能。Eureka 生成的奖励函数优于专家人工设计的奖励,无需任何特定于任务的提示或预定义的奖励模板。在包含 10 种不同机器人形态的 29 种开源强化学习环境中,Eureka 在 83% 的任务中表现优于人类专家,平均标准化改进了 52%。尤里卡的通用性还提供了一种新的无梯度方法来从人类反馈(RLHF)进行强化学习,很容易结合人类监督来提高上下文中生成的奖励的质量和安全性。最后,在课程学习环境中使用尤里卡奖励,我们首次演示了一个模拟的五指影手,能够执行钢笔旋转技巧,熟练地以人类的速度操纵笔。
-
meta-math/MetaMath 元数学:为大型语言模型引导您自己的数学问题
-
OpenBMB/ToolBench 一个开放的平台,用于训练、服务和评估用于工具学习的大型语言模型。旨在构建开源,大规模,高质量的指令调整SFT数据,以促进构建具有通用工具使用能力的强大LLM。我们的目标是使开源LLM能够掌握数千种不同的现实世界API。我们通过收集高质量的指令调整数据集来实现这一目标。它是使用最新的ChatGPT(gpt-3.5-turbo-16k)自动构建的,该ChatGPT通过增强的函数调用功能进行了升级。我们提供数据集,相应的训练和评估脚本,以及在ToolBench上微调的功能强大的模型ToolLLaMA。
-
billxbf/ReWOO 高效增强语言模型的观察解耦推理,这是一种工具增强的LM范式,利用语言模型的可预见推理能力来提高系统参数和提示效率。
-
MasterAI-EAM/Darwin 致力于为自然科学构建基础大型语言模型,主要涉及物理、化学和材料科学。
-
aiwaves-cn/agents 用于构建自治语言代理的开源库/框架。该库包括长期短期记忆、工具使用、Web 导航、多智能体通信以及包括人代理交互和符号控制在内的全新功能。使用代理,只需用自然语言填写配置文件,并在终端、Gradio 接口或后端服务中部署语言代理,即可自定义语言代理或多代理系统。
-
hitz-zentroa/GoLLIE 信息提取大语言模型遵循指南
-
neulab/prompt2model 从自然语言指令生成可部署模型,采用自然语言任务描述(如 ChatGPT 等 LLM 使用的提示)来训练有利于部署的小型专用模型的系统。
-
web-arena-x/webarena 一个独立的、自托管的 Web 环境,用于构建LLM自治代理
-
learn-anything/learn-anything.xyz 组织世界知识,探索联系并策划学习路径。Learn Anything 的最终目标是成为跟踪您所知道的内容的最佳场所和工具。你有什么想法。你接下来要学习什么。你还不知道的。以及根据您已经知道的知识,如何以最佳方式学习它。LA 的部分目标是达到 AGI 并以完全开放的方式进行。目前,这一旅程的起点是提供最先进的能力来索引一个人的任何知识,并为它提供具有不同隐私控制的聊天机器人界面。
-
dikw/hh_rlhf_cn hh-rlhf中文翻译版本。基于Anthropic论文Training a Helpful and Harmless Assistant with Reinforcement Learning from Human Feedback 开源的helpful 和harmless数据,使用翻译工具进行了翻译。hh_rlhf_train 合并中英文训练集数据清洗过后17万条,hh_rlhf_test 合并中英文测试集数据 清洗过后9千条,harmless_base_cn_train 42394条,harmless_base_cn_test 2304条,helpful_base_cn_train 43722条,helpful_base_cn_test. 2346条。
-
beyond/rlhf-reward-single-round-trans_chinese 英文 reward 数据集的翻译版本,用于训练一个奖励模型。类似的英文 reward 数据集:yitingxie/rlhf-reward-datasets beyond/rlhf-reward-single-round
-
opendilab/awesome-RLHF 带有人类反馈资源的强化学习的精选列表(持续更新)
-
PKU-Alignment/safe-rlhf 由北京大学 PKU-Alignment 团队开发的高度模块化开源 RLHF 框架。它旨在为比对研究提供训练数据和可重复的代码管道,特别是通过安全 RLHF 方法进行的约束比对LLM研究。特点是:支持SFT、RLHF和Safe RLHF训练,适用于流行的预训练模型:LLaMA、OPT、百川等。提供大型人工标记数据集(最多 1M 对),包括有用和无害的偏好,以支持可重复的 RLHF 研究。支持奖励模型和成本模型的训练,并提供预先训练的检查点。支持 SFT 和 RLHF 的自定义参数和数据集。为安全约束验证提供多尺度指标,例如 BIG-bench、GPT-4 评估。
-
tatsu-lab/alpaca_eval 对指令遵循模型(例如 ChatGPT)的评估通常需要人工交互。这既费时又昂贵,而且难以复制。AlpacaEval 在LLM基于自动评估中,快速、廉价、可复制,并针对 20K 人工注释进行验证。它对模型开发特别有用。尽管我们改进了以前的自动评估管道,但仍然存在一些基本限制,例如偏爱更长的输出。
-
aaamoon/copilot-gpt4-service 将 Github Copilot 转换为 ChatGPT
-
Lightning-AI/lit-gpt 基于 nanoGPT 的最先进的开源LLMs的可破解实现。支持闪光注意力、4 位和 8 位量化、LoRA 和 LLaMA 适配器微调、预训练。Apache 2.0 许可。
-
KudoAI/chatgpt.js 功能强大的 JS 库,允许与 ChatGPT DOM 进行超级轻松的交互。
-
xorbitsai/inference 通过更改一行代码,将 OpenAI GPT 替换为应用程序中的另一个 LLM GPT。Xinference 让您可以自由地使用您需要的任何LLM内容。借助 Xinference,您可以使用任何开源语言模型、语音识别模型和多模态模型运行推理,无论是在云端、本地,还是在笔记本电脑上。
-
modelscope/modelscope-agent 开源版GPTs,将ModelScope中的模型与世界连接起来的智能体框架。单个代理具有角色扮演、呼叫、LLM工具使用、计划和记忆等能力。它主要具有以下特点:简单的代理实现过程:只需指定角色指令、LLM名称和工具名称列表即可实现代理应用程序。该框架会自动安排工具使用、规划和内存的工作流。丰富的模型和工具:框架配备了丰富的LLM接口,如Dashscope和Modelscope模型接口、OpenAI模型接口等。内置丰富的工具,如代码解释器、天气查询、文本到图像、网页浏览等,可以轻松定制专属代理。接口统一,扩展性高:框架具有清晰的工具和LLM注册机制,方便用户扩展更多样化的Agent应用。低耦合:开发人员可以轻松使用内置工具、LLM内存和其他组件,而无需绑定更高级别的代理。
-
mnotgod96/AppAgent 作为智能手机用户的多模式代理,一个LLM基于多模式代理框架,旨在操作智能手机应用程序。
-
Portkey-AI/gateway 超快的 AI 网关。使用 1 个快速友好的 API 路由到 100+LLMs。它通过统一的 API 简化了对 OpenAI、Anthropic、Mistral、LLama2、Anyscale、Google Gemini 等的 API 请求。速度极快(速度提高 9.9 倍),占用空间小,跨多个模型、提供程序和密钥进行负载均衡,回退可确保应用保持弹性,具有指数回退的自动重试,根据需要插入中间件,超过 100B 词元的测试
-
InternLM/HuixiangDou 基于 LLM 的领域知识助手。特点:应对群聊这类复杂场景,解答用户问题的同时,不会消息泛滥。提出一套解答技术问题的算法 pipeline。部署成本低。
-
OrionStarAI/Orion Orion-14B 系列模型包括一个具有140亿参数的多语言基座大模型以及一系列相关的衍生模型,包括对话模型,长文本模型,量化模型,RAG微调模型,Agent微调模型等。
-
QwenLM/Qwen-Audio Qwen Large Audio Language Model 是阿里云提出的大型模型系列Qwen的多模态版本。Qwen-Audio接受各种音频(人类语音、自然声音、音乐和歌曲)和文本作为输入,输出文�