linux-BR.org

Notícias de software livre e tecnologias

Inglês |
中文

Atomgpt 基于 llama 的 架构 , 从 0 开始 , , 能 在 训练 的 过程 中 , 将 模型 能力 得到 提升 进化 过程 展示 出来 , , 到 模型 模型 的 过程。。。 展示 出来 , 感受 到 模型 学习 过程。。。。。 , , 到 模型 模型 的 过程
(PS: 各位 , , 如果 项目 项目 能 给 您 带来 一点点 , , 麻烦 个 ⭐️ 吧)
能够 更加 可视化 出 模型 训练 的 过程 中 模型 能力 的 , 以及 以及 进行 测试 , 我们 搭建 了 atomgpt 模型 成长。。
在 该 上 , 我们 提供 了 一 在线 测试 , , 点击 右 上角 体验 , , 注册 登录 即 可 (ps: 当前 显卡 资源 , , 有时 会 出现 的 情况)) 当前 当前 显卡 有限 , 有时 会 出现 排队 情况)))
体验 :: https: //grow.atomecho.cn/

该 过程 持续 进行 中 ……
数据 来源 , , 包含 以下 以下 几 方面 的 数据:
可以 在 🤗 Model Hub 下载 以下 所有 模型 模型
Atomgpt 预训练 模型 使用 Transformadores 直接 加载 就 可以 。4bit 压缩 模型 需要 使用 AutoGPTQ 进行 加载 加载
Atomgpt-chat 模型 需要 使用 Transformadores 进行。 。4bit 压缩 版本 模型 需要 使用 AutoGPTQ 进行 加载 加载
本 仓库 中 提供 了 的 基于 基于 lora 的 微调 代码
根据 requisitos.txt 安装 对应 的 环境 依赖 依赖
在 Dados/下 提供 了 一 份 用 于 做 模型 sft 的 数据 样例
该 数据 只 有 一 列
该 数据 有 列 , 第一 列为 输入 , 第二 列为 , 即 dev_sft.csv 中 的 一 列 数据 分成 两 部分 部分
trem/sft/finetune_other.sh , 通过 脚本 脚本 的 部分 参数 实现 模型 的 微调 微调 微调 微调
基于 gradio 搭建 的 , , 实现 了 流式 的 输出。
4bit 模型 加载 如 要 –is_4bit
正在 准备
· 我们 提供 位于 中国 国内 的 下载 位置: 正在 准备 准备
虽然 本 项目 的 模型 具备 一定 的 中文 理解 和 生成 , , 但 也 存在 性 , 包括 包括 但 限于 ::
正在 准备
本 项目 Apache-2.0 的 开源 协议 使用 涉及 第三 方 的 部分 时 , 请 严格 遵循 相应 的 开源 协议。 生成 的 的 内容 受 模型 计算 随机性 和 量化 精度 损失 的 因素 影响 模型 计算 计算 随机性 和 和 精度 损失 等 因素 影响 模型 计算 计算 计算 计算 计算 、 、 随机性 随机性 和 和 精度 等 因素 影响 模型 计算 计算 计算 计算 计算 计算 计算 计算 计算 计算 计算 计算 计算 计算 计算 计算 计算 计算 计算 计算 计算 计算 计算 计算 计算 计算 计算 计算 计算 计算 计算 计算 计算 计算 计算 计算 计算 计算 计算 计算 计算 计算 计算 计算 计算 计算 计算 计算 计算 计算 计算 ‘性 作出。 对于 模型 输出 的 任何 , 本 项目 不 任何 任何 法律 , , 亦 对 因 使用 相关 资源 和 输出 结果 而 可能 产生 的 任何 损失 责任。。。 结果 结果 而 可能 的 任何 任何 承担 责任。。
如 有 问题 , 请 在 Github Issue 中 提交。
在 提交 之前 , 请 先 查看 faq 能否 解决 , , 同时 查阅 以往 的 的 的 是否 能 解决 你 的 问题。
礼貌 地 问题 , 构建 和谐 的 讨论 社区。。
微信 , 添加 添加 助理 , 进去 群聊 群聊

Fonte: https://github.com/AtomEcho/AtomGPT