分享接入路径、应用方向与已知局限
Claude Code 通过公司 LLM Proxy 稳定可用,安装与配置标准化,新成员可快速上手。
以DTS为例,在质量保证 / 效率提升 / 知识资产沉淀三个方向均已识别出具体抓手与落地路径。
auto 模型实际路由不稳定,最高可用仅 opus 4.6;关键任务需显式选择 auto-max。
在公司 LLM Proxy 页面创建 API Key,绑定仓库并走审批。
sk-xxxxxxxxxxxxx官方安装需代理 / tun 模式,也可直接使用公司封装版本。
curl -fsSL claude.ai/install.sh | bash在 .claude/settings.json 的 env 中注入三个变量即可使用。
auto 或 auto-max# 在文件 ~/.zshrc 中加入: alias dcc='ANTHROPIC_AUTH_TOKEN="sk-xxx" \ ANTHROPIC_BASE_URL="http://llm-proxy.intra.companyxxx.com" \ ANTHROPIC_MODEL="auto" claude' alias dccmax='... ANTHROPIC_MODEL="auto-max" claude' alias dccmini='... ANTHROPIC_MODEL="auto-mini" claude' alias dccyolo='... ANTHROPIC_MODEL="auto-max" claude --dangerously-skip-permissions' # 新会话中输入 dcc / dccmax / dccmini 即可切换 # 原生 claude 命令仍保持官方模型可用
/model 命令对公司模型不可用的问题,并保留与官方 Claude 的共存能力。
每次 PR 提交触发 AI review,覆盖常见坏味、规范偏离与潜在缺陷,人审重点关注设计与风险点。
基于既有代码批量生成单测,提升覆盖率并在 CI 中回归;关键逻辑仍优先 TDD 驱动设计。
以 plan → TDD → review 为主干,借助 superpowers 插件将流程固化为可复用 skill。
物理层:git worktree 隔离多个独立需求并行推进;逻辑层:主 agent 分发子任务(研究 / 验证 / 文档)同步执行,充分释放 AI 吞吐。
将典型任务(如迁移校验、数据对比、问题排查)抽象为 prompt 模板,统一团队产出质量。
沉淀项目架构、编码规范、团队约定;每位成员的最佳实践与教训自动被 AI 吸纳。
封装高频排查流程,如 binlog 解析、数据一致性校验 等,排查效率显著提升。
日志显示为 claude-sonnet-4.6,实测中常被路由至其他模型。
auto-max 当前最高仅能路由至 opus 4.6,底层实际为:
— 分阶段落地,保持主动,让工具为团队服务