使用claudecode生成opendeepwiki 在之前的 邪修用法:Codex/ClaudeCode转标准API 中尝试了使用 codex 来生成 deep wiki,一切都顺利,就是因为限流导致最终未竟全功,这次换了一个 claude code 的号继续使用。
省流版本:基本功能(网站生成)可用,有点费 Token,MCP 和一些细节仍需打磨。
1. 配置 CLIProxyAPI CLIProxyAPI
这里主要将为了将 Claude Code 转成标准的 OpenAI 兼容 API。因为使用了中转站,所以配置了对应的 base_url 和 key。
2. 配置 OpenDeepWiki OpenDeepWiki
我用的0.9.0版本,用下来发现还是有不少问题,比如说默认配置无法直接打开站点、诊断就配了个18888的GRPC的,没有18889的Web页面之类的,还有一些页面无法访问,所以整体功能可用,但是很多细节还需要打磨
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 services: koalawiki: image: crpi-j9ha7sxwhatgtvj4.cn-shenzhen.personal.cr.aliyuncs.com/koala-ai/koala-wiki environment: - KOALAWIKI_REPOSITORIES=/repositories - TASK_MAX_SIZE_PER_USER=5 - REPAIR_MERMAID=1 - CHAT_MODEL=claude-sonnet-4-20250514 - ANALYSIS_MODEL=claude-sonnet-4-20250514 - CHAT_API_KEY=xxx - LANGUAGE=中文 - ENDPOINT=http://xx.xxx.com:8317/v1 - MODEL_PROVIDER=OpenAI - DB_TYPE=sqlite - DB_CONNECTION_STRING=Data Source=/data/KoalaWiki.db - UPDATE_INTERVAL=5 - EnableSmartFilter=true - ENABLE_INCREMENTAL_UPDATE=true - ENABLE_CODED_DEPENDENCY_ANALYSIS=false - ENABLE_WAREHOUSE_FUNCTION_PROMPT_TASK=false - ENABLE_WAREHOUSE_DESCRIPTION_TASK=false - MAX_FILE_LIMIT=100 - DEEP_RESEARCH_MODEL= - ENABLE_WAREHOUSE_COMMIT=true - ENABLE_FILE_COMMIT=true - REFINE_AND_ENHANCE_QUALITY=false - CATALOGUE_FORMAT=compact - ENABLE_CODE_COMPRESSION=false - READ_MAX_TOKENS=100000 - OTEL_SERVICE_NAME=koalawiki - OTEL_EXPORTER_OTLP_PROTOCOL=grpc - OTEL_EXPORTER_OTLP_ENDPOINT=http://aspire-dashboard:18889 volumes: - ./repositories:/app/repositories - ./data:/data build: context: . dockerfile: src/KoalaWiki/Dockerfile aspire-dashboard: image: mcr.microsoft.com/dotnet/aspire-dashboard container_name: aspire-dashboard restart: always ports: - "18888:18888" - "18889:18889" environment: - TZ=Asia/Shanghai - Dashboard:ApplicationName=Aspire koalawiki-web: image: crpi-j9ha7sxwhatgtvj4.cn-shenzhen.personal.cr.aliyuncs.com/koala-ai/koala-wiki-web command: ["/app/start.sh" ] environment: - NEXT_PUBLIC_API_URL=http://koalawiki:8080 nginx: image: nginx:alpine ports: - "8090:80" volumes: - ./nginx/nginx.conf:/etc/nginx/conf.d/default.conf depends_on: - koalawiki - koalawiki-web
windows 下就直接 docker 启动!
默认账号:admin / admin
访问:http://localhost:8090
后台查看进度
生成站点消耗
以 lusipad/plcopen 为例,大概消耗了
1 2 3 次数:225 次 Token: 11.43 M 代币价:$37.76
主要是因为我都全程用 sonnet,换成其他的可能会节省一些(不过按照这个价格,Pro 账号也不经用)
3. 使用 OpenDeepWiki
网站直接使用
直接网页上访问
MCP
点击页面的 MCP,可以看到已经生成了配置
我们使用 Chatbox 来测试下
开启了 MCP,尝试提问下
正在调用 MCP
整个过程大概要 20~30 秒左右,还是比较慢的
这里可能有个比较大的问题,他会提示说读取不到文件,所以无法基于文件进行分析。。几个MCP都调用失败了
干脆让 AI 生成了一份详细的使用说明
OpenDeepWiki 使用说明 🚀 项目简介 OpenDeepWiki 是一个基于 AI 的智能代码知识库系统,能够自动分析代码仓库并生成高质量的技术文档。系统使用 Claude Sonnet 4 等先进的 AI 模型,为开发者提供深度的代码理解和文档生成服务。
🏗️ 系统架构 服务组件 1 2 3 4 5 6 7 8 9 10 11 12 ┌─────────────────┐ ┌─────────────────┐ ┌─────────────────┐ │ 前端服务 │ │ 后端服务 │ │ 监控面板 │ │ (koalawiki-web) │ │ (koalawiki) │ │(aspire-dashboard)│ │ Port: 3000 │ │ Port: 8080 │ │ Port: 18888 -89 │ └─────────────────┘ └─────────────────┘ └─────────────────┘ │ │ │ └───────────────────────┼───────────────────────┘ │ ┌─────────────────┴─────────────────┐ │ Nginx 代理服务 │ │ Port: 8090 │ └───────────────────────────────────┘
核心功能
🧠 AI 文档生成 : 使用 Claude Sonnet 4 深度分析代码结构和逻辑
📊 仓库管理 : 支持 Git 仓库的自动同步和增量更新
🌐 Web 界面 : 现代化的前端界面,支持文档浏览和管理
📈 实时监控 : Aspire Dashboard 提供系统运行状态监控
🔄 增量更新 : 智能检测代码变更,只处理修改的部分
⚙️ 配置参数详解 核心配置 (docker-compose.yml) AI 模型配置 1 2 3 4 5 6 CHAT_MODEL: claude-sonnet-4-20250514 ANALYSIS_MODEL: claude-sonnet-4-20250514 CHAT_API_KEY: xxx ENDPOINT: http://xx.xxx.com:8317/v1 MODEL_PROVIDER: OpenAI
任务控制配置 1 2 3 4 5 TASK_MAX_SIZE_PER_USER: 5 LANGUAGE: 中文 UPDATE_INTERVAL: 5 MAX_FILE_LIMIT: 100 READ_MAX_TOKENS: 100000
功能开关配置 1 2 3 4 5 6 7 8 9 10 REPAIR_MERMAID: 1 EnableSmartFilter: true ENABLE_INCREMENTAL_UPDATE: true ENABLE_CODED_DEPENDENCY_ANALYSIS: false ENABLE_WAREHOUSE_FUNCTION_PROMPT_TASK: false ENABLE_WAREHOUSE_DESCRIPTION_TASK: false ENABLE_WAREHOUSE_COMMIT: true ENABLE_FILE_COMMIT: true REFINE_AND_ENHANCE_QUALITY: false ENABLE_CODE_COMPRESSION: false
高级配置 1 2 3 CATALOGUE_FORMAT: compact DB_TYPE: sqlite DB_CONNECTION_STRING: Data Source=/data/KoalaWiki.db
🚀 快速启动 1. 环境准备 1 2 3 4 5 6 7 docker --version docker compose --version git clone <repository-url>cd OpenDeepWiki
2. 配置设置 编辑 docker-compose.yml
文件,配置您的 AI API 设置:
1 2 CHAT_API_KEY: 您的API密钥 ENDPOINT: 您的API端点
3. 启动服务 1 2 3 4 5 6 7 8 docker compose up -d docker compose ps docker compose logs -f koalawiki
4. 服务重启 1 2 3 4 5 6 7 8 docker compose down docker compose up -d docker compose down --remove-orphans
🌐 访问方式 主要服务端点
主要功能页面
📚 仓库列表 : 查看和管理已添加的代码仓库
📄 文档浏览 : 查看 AI 生成的技术文档
⚙️ 设置页面 : 配置系统参数和 AI 模型
📊 统计信息 : 查看文档生成统计和系统使用情况
📖 使用流程 1. 添加代码仓库
访问 Web 界面: http://localhost:8090
点击”添加仓库”按钮
输入 Git 仓库 URL 或上传本地代码
配置仓库分析参数
2. AI 文档生成
系统自动分析代码结构
AI 模型深度理解代码逻辑
生成多种类型的技术文档:
项目概览
架构分析
API 文档
使用指南
核心概念说明
3. 文档管理
浏览生成的文档内容
搜索特定技术信息
导出文档为不同格式
跟踪文档更新历史
🔧 运维管理 日志监控 1 2 3 4 5 6 7 8 docker compose logs -f koalawiki docker compose logs --tail =50 koalawiki docker compose logs -f
数据备份 1 2 3 4 5 cp -r ./data ./data_backup_$(date +%Y%m%d)cp -r ./repositories ./repositories_backup_$(date +%Y%m%d)
性能优化
增加并发任务数 : 调整 TASK_MAX_SIZE_PER_USER
参数
优化 Token 使用 : 调整 READ_MAX_TOKENS
限制
启用智能过滤 : 确保 EnableSmartFilter=true
配置增量更新 : 设置合适的 UPDATE_INTERVAL
🐛 故障排除 常见问题 1. 服务启动失败 1 2 3 4 5 6 7 8 9 netstat -tulpn | grep :8090 netstat -tulpn | grep :8080 sudo systemctl restart docker docker system prune -f
2. AI 生成失败
检查 API 密钥是否正确
验证网络连接到 AI 端点
查看日志中的具体错误信息
确认模型名称是否正确
3. 前端无法访问 1 2 3 4 5 6 7 8 docker compose logs nginx docker compose logs koalawiki-web docker compose restart koalawiki-web nginx
4. 数据库连接问题 1 2 3 4 5 6 ls -la ./data/rm -f ./data/KoalaWiki.db docker compose restart koalawiki
性能调优建议 1. 系统资源优化
内存 : 推荐至少 4GB RAM
存储 : 确保足够的磁盘空间用于代码仓库和生成的文档
网络 : 稳定的网络连接到 AI API 端点
2. AI 参数调优 1 2 3 4 TASK_MAX_SIZE_PER_USER: 10 READ_MAX_TOKENS: 150000 ENABLE_CODE_COMPRESSION: true
3. 数据库优化
定期备份数据库文件
监控数据库大小增长
考虑使用外部数据库(如 PostgreSQL)
📊 监控指标 系统监控 (Aspire Dashboard)
📈 请求响应时间 : 监控 API 响应性能
🔄 任务处理状态 : 跟踪 AI 文档生成进度
💾 资源使用情况 : 监控内存和 CPU 使用
🌐 网络连接状态 : 监控到 AI 端点的连接
应用指标
📚 仓库数量 : 已管理的代码仓库总数
📄 文档生成数 : 成功生成的文档数量
⏱️ 平均处理时间 : 文档生成的平均耗时
🎯 成功率 : 文档生成的成功比例
🔐 安全建议 1. API 密钥安全
不要在公开代码中硬编码 API 密钥
定期更换 API 密钥
使用环境变量管理敏感信息
2. 网络安全
在生产环境中配置防火墙规则
使用 HTTPS 协议(配置 SSL 证书)
限制外部访问的端口
3. 数据安全
定期备份重要数据
加密敏感数据存储
实施访问控制策略
📚 扩展功能 1. 自定义 AI 模型 系统支持多种 AI 模型,可以根据需要配置:
OpenAI GPT 系列
Anthropic Claude 系列
自定义兼容端点
2. 插件扩展
支持自定义文档模板
可扩展的文件类型支持
自定义分析规则
3. 集成方案
CI/CD 流水线集成
版本控制系统集成
项目管理工具集成
🆘 技术支持 获取帮助
查看系统日志获取详细错误信息
检查 GitHub Issues 页面
参考项目文档和 README
联系技术支持团队
贡献项目
提交 Bug 报告
建议新功能
贡献代码改进
完善文档内容
📝 更新日志 版本信息
当前版本 : 0.9.0
最后更新 : 2025-09-20
维护状态 : 活跃开发中
主要特性
✅ 支持 Claude Sonnet 4 模型
✅ 完整的 Web 界面
✅ 实时监控面板
✅ 增量更新机制
✅ 多语言文档生成
✅ Docker 容器化部署
这份文档会随着系统功能的更新而持续维护和完善。