选择你喜欢的标签
我们会为你匹配适合你的网址导航

    确认 跳过

    跳过将删除所有初始化信息

    您的位置:0XUCN > 资讯 > 技术
    新闻分类

    MiniMind 低成本大语言模型训练工具

    技术 PRO 作者:高崎圣子 2025-03-10 20:41

    MiniMind 是用低成本训练大语言模型的开源工具,从零开始,仅需 2 小时和 3 块钱,就能训练出 26M 参数的迷你 GPT 模型。

    亮点

    2 小时快速训练,适合个人 GPU 用户

    仅需 3 块钱的服务器成本,超低门槛

    提供完整训练代码,涵盖预训练、微调、蒸馏等全过程

    项目包含

    MiniMind-LLM 结构的全部代码(Dense+MoE 模型)。

    包含 Tokenizer 分词器详细训练代码。

    包含 Pretrain、SFT、LoRA、RLHF-DPO、模型蒸馏的全过程训练代码。

    收集、蒸馏、整理并清洗去重所有阶段的高质量数据集,且全部开源。

    从 0 实现预训练、指令微调、LoRA、DPO 强化学习,白盒模型蒸馏。关键算法几乎不依赖第三方封装的框架,且全部开源。

    同时兼容 transformers、trl、peft 等第三方主流框架。

    训练支持单机单卡、单机多卡 (DDP、DeepSpeed) 训练,支持 wandb 可视化训练流程。支持动态启停训练。

    在第三方测评榜(C-Eval、C-MMLU、OpenBookQA 等)进行模型测试。

    实现 Openai-Api 协议的极简服务端,便于集成到第三方 ChatUI 使用(FastGPT、Open-WebUI 等)。

    基于 streamlit 实现最简聊天 WebUI 前端。

    复现 (蒸馏 / RL) 大型推理模型 DeepSeek-R1 的 MiniMind-Reason 模型,数据 + 模型全部开源。

    MiniMind 的整体结构一致,只是在 RoPE 计算、推理函数和 FFN 层的代码上做了一些小调整。 其结构如下图:

    0XU.CN

    [超站]友情链接:

    四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
    关注数据与安全,洞悉企业级服务市场:https://www.ijiandao.com/

    图库
    公众号 关注网络尖刀微信公众号
    随时掌握互联网精彩
    赞助链接