WeClone从聊天记录创造数字分身的一站式解决方案
WeClone是一款从聊天记录创造数字分身的一站式解决方案。它基于微信、QQ、Telegram等聊天记录,使用大模型微调技术,让你的AI分身不仅拥有你的语气和表达风格,还能与你的社交平台无缝对接,让它成为你的另一种存在。
通过WeClone,你可以:
• 用自己的聊天记录训练AI,让它更符合你的表达习惯。 • 绑定至多个社交平台,实现数字分身的实际应用。 • 采用隐私信息过滤和本地化微调部署,确保数据安全。
核心功能特点
1. 个性化微调:利用微信等聊天记录对LLM(大语言模型)进行微调,让AI拥有你的独特表达方式。 2. 多平台绑定:支持微信、QQ、Telegram、企微、飞书等平台,让你的数字分身随时随地与你的社交圈互动。 3. 隐私保护:提供数据过滤功能,自动去除敏感信息,并允许用户自定义禁用词库,确保数据安全。 4. 轻量级部署:采用LoRA等优化微调方式,降低显存占用,使得普通设备也能运行训练。 5. 智能数据预处理:自动去除手机号、身份证号、网址等隐私信息,并支持清洗聊天数据,提高训练质量。
如何快速开始?
1. 环境搭建
• 安装CUDA(版本12.4及以上),确保PyTorch可以正确使用显卡加速。 • 使用uv进行依赖安装,这是一个快速的Python环境管理工具: git clone https://github.com/xming521/WeClone.git cd WeClone uv venv .venv --python=3.10 source .venv/bin/activate # Windows执行 .venv\Scripts\activate uv pip install --group main -e .
• 如需使用最新的LLaMA Factory模型,请执行: uv pip install --upgrade git+https://github.com/hiyouga/LLaMA-Factory.git
2. 数据准备
• 使用PyWxDump导出微信聊天记录(建议从手机备份至电脑,数据量更完整)。 • 选择CSV格式导出后,放入dataset/csv目录。
3. 数据预处理
• 运行以下命令对数据进行清洗和格式调整: weclone-cli make-dataset
4. 微调模型
• 根据数据集调整settings.jsonc配置,并使用: weclone-cli train-sft
• 如果是多卡训练,需安装deepspeed并执行: deepspeed --num_gpus=使用显卡数量 weclone/train/train_sft.py
5. 使用AI分身
• 可使用以下命令进行聊天测试: weclone-cli webchat-demo weclone-cli server
• 绑定至AstrBot,实现AI分身在微信、QQ等平台的自动回复。
结语
WeClone让打造一个独具个性的数字分身成为可能,让AI真正融入你的社交世界。无论是个人应用还是实验探索,WeClone都能提供一套完整的解决方案,让你的AI更有“人味”。试试吧,让你的数字分身真正成为你的另一种存在!
关注公众号:拾黑(shiheibook)了解更多
友情链接:
关注数据与安全,洞悉企业级服务市场:https://www.ijiandao.com/
安全、绿色软件下载就上极速下载站:https://www.yaorank.com/