如果你想在本地运行 ChatDev 并使用其他模型,以下是一般的步骤(以使用 openchat3.5 模型为例):
-
创建虚拟环境:使用 python3.11 创建虚拟环境。
-
修改相关文件以支持 openchat3.5 启动的大语言模型,注意设置 api key,可参考相关模型的文档进行设置。例如对于 openchat,需要设置
export OPENAI_API_KEY=<openchat 的 api key>
和
export BASE_URL=http://localhost:18888/v1
。同时,修改 chatdev 代码中的几个文件,如
camel/model_backend.py
、
camel/typing.py
、
camel/utils.py
、
run.py
等,主要是添加 OPENCHAT_3_5 的模型定义,然后修改模型相关的地方。
-
根据运行时报错来修改库文件代码:使用文本编辑器打开
~/anaconda3/envs/ChatDev_conda_env2/lib/python3.11/site-packages/tiktoken/model.py
,在
MODEL_TO_ENCODING
定义后面追加
"openchat_3_5": "gpt2"
和
"openchat_3.5": "gpt2"
。
-
运行示例:在命令行中执行
python run.py --task "I want to develop a timer tool" --name "timer_tool" --model "OPENCHAT_3_5"
。
-
生成完成后,在 WareHouse 目录下找到生成代码并执行
python3 main.py
。
请注意,不同模型的设置和使用方法可能会有所不同,具体步骤可能需要根据你所使用的模型进行调整。此外,确保你已经正确安装了 ChatDev 以及所需的依赖项。
如果你在操作过程中遇到问题,可以参考 ChatDev 的官方文档、相关模型的文档,或者在技术社区中寻求帮助。
ChatDev 是一个将 AI Agents(人工智能体)群体智能协作技术应用于软件开发的 SaaS(软件即服务)平台产品。它将软件开发过程分为软件设计、系统开发、集成测试、文档编制四个主要环节,并通过对软件开发瀑布模型的进一步分解,形成由原子任务构成的交流链。在编码阶段使用面向对象的编程语言,并使用代码演化机制通过 Git 版本控制呈现最新版源代码。在各个环节中,不同角色的智能体进行交互式协同,以生产一个完整软件,包括源代码、环境依赖说明书、用户手册等。
以下是为您模拟的网友回复:
回复一
:
据我所知,ChatDev 除了支持 openchat3.5 模型外,还支持一些其他常见的模型,比如 GPT-4 、GPT-3 等。GPT-4 具有更强的语言理解和生成能力,能够处理更复杂的任务和场景。GPT-3 虽然相对较旧,但在某些特定领域也有不错的表现。
另外,像 Google 的 PaLM 模型,它在大规模数据上进行训练,能提供高质量的语言交互。还有一些开源模型如 ERNIE Bot 等,也可能在 ChatDev 的支持范围内。
不过需要注意的是,具体支持的模型可能会随着 ChatDev 的版本更新和开发者的优化而有所变化,建议您关注官方的最新信息以获取最准确的内容。
回复二
:
据我了解,ChatDev 支持的模型种类还挺丰富的。除了您提到的 openchat3.5 ,还有像云雀模型,它在中文处理方面有着出色的能力,对于理解和生成中文文本非常有效。
此外,还有 BERT 模型,这是一种基于 Transformer 架构的预训练语言模型,被广泛应用于各种自然语言处理任务。
再有就是 T5 模型,它具有很强的通用性,可以用于文本生成、问答、翻译等多种任务。
总之,ChatDev 为用户提供了多种选择,以满足不同的需求和应用场景。
回复三
:
就我所掌握的信息,ChatDev 除了 openchat3.5 模型外,还对一些热门模型提供支持。比如说,Chatsonic 模型,它在实时信息整合和个性化交互方面表现出色。
另外,Anthropic 的 Claude 模型也是其支持的对象之一,Claude 在对话的连贯性和逻辑推理方面有着独特的优势。
当然啦,这只是目前的情况,随着技术的不断发展,ChatDev 可能会陆续增加对更多新模型的支持,大家可以持续关注。