WeClone从聊天记录创造数字分身的一站式解决方案

软件 来源:大侠之运维 2025-05-14 22:18:17

WeClone是一款从聊天记录创造数字分身的一站式解决方案。它基于微信、QQ、Telegram等聊天记录,使用大模型微调技术,让你的AI分身不仅拥有你的语气和表达风格,还能与你的社交平台无缝对接,让它成为你的另一种存在。

通过WeClone,你可以:

  • • 用自己的聊天记录训练AI,让它更符合你的表达习惯。
  • • 绑定至多个社交平台,实现数字分身的实际应用。
  • • 采用隐私信息过滤和本地化微调部署,确保数据安全。

核心功能特点

  1. 1. 个性化微调:利用微信等聊天记录对LLM(大语言模型)进行微调,让AI拥有你的独特表达方式。
  2. 2. 多平台绑定:支持微信、QQ、Telegram、企微、飞书等平台,让你的数字分身随时随地与你的社交圈互动。
  3. 3. 隐私保护:提供数据过滤功能,自动去除敏感信息,并允许用户自定义禁用词库,确保数据安全。
  4. 4. 轻量级部署:采用LoRA等优化微调方式,降低显存占用,使得普通设备也能运行训练。
  5. 5. 智能数据预处理:自动去除手机号、身份证号、网址等隐私信息,并支持清洗聊天数据,提高训练质量。

如何快速开始?

1. 环境搭建

  • • 安装CUDA(版本12.4及以上),确保PyTorch可以正确使用显卡加速。
  • • 使用uv进行依赖安装,这是一个快速的Python环境管理工具:

    git clone https://github.com/xming521/WeClone.git cd WeClone uv venv .venv --python=3.10 source .venv/bin/activate  # Windows执行 .venv\Scripts\activate uv pip install --group main -e .

  • • 如需使用最新的LLaMA Factory模型,请执行:

    uv pip install --upgrade git+https://github.com/hiyouga/LLaMA-Factory.git

2. 数据准备

  • • 使用PyWxDump导出微信聊天记录(建议从手机备份至电脑,数据量更完整)。
  • • 选择CSV格式导出后,放入dataset/csv目录。

3. 数据预处理

  • • 运行以下命令对数据进行清洗和格式调整:

    weclone-cli make-dataset

4. 微调模型

  • • 根据数据集调整settings.jsonc配置,并使用:

    weclone-cli train-sft

  • • 如果是多卡训练,需安装deepspeed并执行:

    deepspeed --num_gpus=使用显卡数量 weclone/train/train_sft.py

5. 使用AI分身

  • • 可使用以下命令进行聊天测试:

    weclone-cli webchat-demo weclone-cli server

  • • 绑定至AstrBot,实现AI分身在微信、QQ等平台的自动回复。

结语

WeClone让打造一个独具个性的数字分身成为可能,让AI真正融入你的社交世界。无论是个人应用还是实验探索,WeClone都能提供一套完整的解决方案,让你的AI更有“人味”。试试吧,让你的数字分身真正成为你的另一种存在!

关注公众号:拾黑(shiheibook)了解更多

友情链接:

关注数据与安全,洞悉企业级服务市场:https://www.ijiandao.com/
安全、绿色软件下载就上极速下载站:https://www.yaorank.com/

公众号 关注网络尖刀微信公众号
随时掌握互联网精彩
赞助链接