← → 翻页
Raise Lab · 2026

AI Coding for Research
从工具到工作流

如何让 AI 真正帮到研究者

缪东旭 MiaoDX
天津大学(硕士)→ 小米自动驾驶 → 小米机器人
AI Coding 实践者 · 公众号:直觉机器漫谈
Part 0 · 开场

今天不是来安利工具的

是来聊一个问题:
AI 写代码这事儿,到底能帮研究者做到什么程度?

我的背景:7 年自动驾驶 + 机器人 → AI Coding 重度用户
也是天大人 🤝

01
Part 1

AI 编程的三个阶段

从补全到自主执行,角色在变

Part 1 · 三阶段

工作方式的阶跃变化

补全 对话 Agentic
Stage 01 · 代码补全
你打字,它猜下一行。被动响应。
Stage 02 · 对话式编程
你问,它答。你仍是执行者。
Stage 03 · Agentic Coding
你定义问题,它规划 + 执行 + 验证。
Part 1 · 核心转变

人的角色变了

BEFORE 手放键盘上 配对编程 · 手动编辑 坐在电脑前 角色转变 AFTER 定义问题 审查方案 验证结果
The code itself is not being written by humans anymore.
02
Part 2

从零到机器人抓取

一个完整项目的真实故事

Part 2 · 目标

目标:宇树 G1 抓取可乐

假设我们打开 Claude Code,输入:
"帮我实现一个用宇树 G1 左手抓瓶子的功能"
结论:不太行
它无法一次性解决:IK 解算器选型、碰撞检测、坐标系转换、仿真环境选择…

我之前没碰过机械臂。

—— 项目开始时的真实状态
Part 2 · 系统设计

先画架构,再动手

跟 AI 讨论出来的系统设计(讲不明白就画图给它看)

感知层
RealSense D435
FoundationPose 6DoF
Pose Bridge
规划层
IK 解算 (Pink→cuRobo)
碰撞检测 S3
轨迹生成
执行层
WBC 全身控制 50Hz
状态机
Unitree G1
Part 2 · SDD 工作流

SDD:先写 Spec,再写代码

Spec 不是一次写完,而是随项目演进

💬 讨论 AI 读代码,提出问题 📋 规划 拆分任务,定验收标准 ⚡ 执行 AI 自主编码 + 跑测试 ✅ 验证 人工审查结果 iterate until spec is met
M1 · 流程跑通
基础验证
Pink IK · 单臂控制 · MuJoCo 仿真
12月底 — 1月中
M2 · 核心能力
GPU 加速
cuRobo GPU · 腰部协调 · 碰撞检测
1月底 — 2月初
M3 · 性能优化
架构统一
批量 IK 10x · MotionGen · 重构
2月底 — 3月初
Part 2 · 交叉审查

Codex Cross-Review

让另一个模型审你的 plan,类似学术 peer review

🤖 Claude 写 Plan 🔍 Codex Review Plan · 发现问题 🤖 Claude 改进 Plan → 执行

让不同的 AI 模型相互审查,就像让不同的 reviewer 审同一篇论文。Plan 质量越高,最终效果越好。

Part 2 · 结果

量化结果

维度传统方式AI 辅助(SDD)
人员2-3 人1 人 + Claude
时间~2 个月~2.5 个月
人月4-6 人月~1 人月
80+
Commits
40+
Phases
323
测试用例
3
架构升级
1h17m
最长自主执行
Part 2 · Takeaway

三条经验

01
先做设计,再写代码
Spec 先行。不是让 AI 随便写,而是先把问题定义清楚。
02
自动化验证是放大器
323 个测试不是手写的,是跟 AI 一起迭代出来的。有了测试,AI 才能自己跑、自己改。
03
选对工具
调研用 Deep Research,规划用 Claude,Review 用 Codex。不同阶段用不同模型。
Part 2 · 反思

我之前没碰过机械臂,现在一个人完成了完整的抓取系统

AI 不是替代我们,是让我们能做以前做不了的事
03
Part 3

AI Coding ×
学术研究

这跟大家有什么关系?

Part 3 · 痛点

这些大家中了几条?

😤
Deadline 前赶 ablation,实验脚本 copy-paste
🐛
开源代码别人跑不通,issue 堆积
😵
新同学接手师兄代码,从头踩坑
📂
脚本散落各处,半年后自己看不懂
🕸️
网站常年不更新,News 停在两年前
📊
Papers with Code 没 benchmark,丢引用
Part 3 · 切入点

四个 AI Coding 切入点

⚙️
实验管理自动化
配置生成器、自动记录超参、生成对比表格
📝
代码重构与文档
AI 重构 hacky code,自动生成 README
🔬
Ablation 加速
定义矩阵 → agent 自动提交、收集结果
🌐
影响力基建
README、project page、网站 = 引用乘数

你的论文 Method Section 就是你代码的 Spec。先写清楚你要实现什么,再让 AI 帮你实现。

04
Part 4

Live Demo

用大家自己的项目来演示

Demo 1 · OVT-B

让 NeurIPS Benchmark 的 GitHub 变好用

github.com/Coo1Sea/OVT-B-Dataset

README 极简 — 新人不知从哪开始
没有自带评测脚本 — 用户自己找 TETA
Papers with Code 无 benchmark
引用格式仍是 arXiv
无可视化 — 1,048 类,README 没一张图
Demo 1 · 为什么重要

一个 NeurIPS 数据集论文,在 PwC 上没有跑通的 baseline。

这直接损失引用。
接下来用 Claude Code:① 理解项目② 重写 README③ 生成评测脚本
Demo 1 · Claude Code 实操

🖥️ 现场演示

# 前置操作:clone repo git clone https://github.com/Coo1Sea/OVT-B-Dataset.git && cd OVT-B-Dataset # 参考信息(帮助 AI 理解上下文): # 论文: https://arxiv.org/abs/2410.17534 # OpenReview: https://openreview.net/forum?id=5S0y3OhfRs # PwC: https://paperswithcode.com/dataset/ovt-b # Prompt 1:理解项目 + 重写 README 请阅读当前项目的所有文件,理解这是一个 NeurIPS 2024 发表的开放词汇多目标跟踪 benchmark(OVT-B)。 论文地址:https://arxiv.org/abs/2410.17534 然后帮我重写 README.md,要求: 1. 开头放项目 banner(markdown),包含论文标题、会议、作者 2. 简洁的项目介绍(What is OVT-B,为什么需要它,跟 OV-TAO-val 的对比数字) 3. 数据集统计摘要:1048 类别、1973 视频、637608 标注 4. Quick Start:从下载到跑通评测的完整步骤(不要让用户自己找 TETA 代码) 5. 目录结构说明 6. 引用格式更新为 NeurIPS 2024 正式版 7. License 和 Acknowledgments 参考优秀 benchmark 项目 README(MOTChallenge、TAO 等)。
# Prompt 2(时间允许):生成评测脚本 请为 OVT-B 数据集写一个 evaluate.py 脚本,功能是: 1. 接收模型预测结果文件路径和标注文件路径作为参数 2. 计算 TETA 指标(参考 TETA 官方实现) 3. 输出各项指标的汇总表格 4. 包含完整的 argparse 和 usage 说明 目的:让新用户一行命令就能跑通评测。
Demo 2 · 实验室网站

10 分钟给实验室做一个网站

ruizehan.cn 当前状态

News 停在 2021 年
Experience 未更新 — 还写 Ph.D. Student
没有 "Raise Lab" 品牌
没有团队成员页面
Publication 纯列表,没按方向分类
网站是实验室的门面。招生、合作、审稿人了解你——第一印象全靠它。
Demo 2 · Claude Code 实操

🖥️ 现场演示

# 参考信息(帮助 AI 获取完整上下文): # PI 学校主页: https://csce.suat-sz.edu.cn/info/1011/1318.htm # PI 个人主页: https://www.ruizehan.cn/ # PI GitHub: https://github.com/RuizeHan # 学生 GitHub: https://github.com/zekunqian https://github.com/Coo1Sea # Prompt:生成 Raise Lab 团队主页 请先阅读以下两个网页获取最新信息: https://csce.suat-sz.edu.cn/info/1011/1318.htm https://www.ruizehan.cn/ 然后生成一个现代化的学术实验室主页 HTML(单页,可部署 GitHub Pages) 实验室:Raise Lab (Research on AI SEeing Laboratory) PI:韩瑞泽,深圳理工大学 计算机科学与控制工程学院 助理教授 研究方向: 1. 开放场景感知(Open-Vocabulary Tracking) 2. 多视角协同感知(Multi-View Collaborative Perception) 3. 行人重识别与步态识别(Person Re-ID & Gait Recognition) 代表论文(按方向分组): 【开放词汇跟踪】 COVTrack (ICCV 2025) [Code: github.com/zekunqian/COVTrack] VOVTrack (ICCV 2025) [Code: github.com/zekunqian/VOVTrack] OVT-B (NeurIPS 2024) [Code: github.com/Coo1Sea/OVT-B-Dataset] 【多视角感知】 BEVSee (CVPR 2024) [Code: github.com/zekunqian/BEVSee] Self-supervised MvMHAT (TPAMI 2025) [Code: github.com/RuizeHan/MvMHAT] Complementary-View Benchmark (IJCV 2024) 【行人重识别】 Clothes-Changing Re-ID (TIFS 2025), Syn-to-Real Re-ID (TIFS 2025) 团队: 钱泽坤 (github.com/zekunqian) · 梁海吉 (github.com/Coo1Sea) 甘一旸 (github.com/realgump) 要求:现代简洁 · hero section · 研究方向卡片式 论文按方向分组附 [Paper][Code] 按钮 · 团队成员卡片 响应式 · 配色参考深圳理工大学官方色系
这是今天送给 Raise Lab 的一个小礼物 🎁
05
Part 5

总结

Part 5 · 三句话

记住这三件事就够了

01
AI Coding 不是让你不思考,而是让你把时间花在真正需要思考的地方
02
先写 Spec 再写代码 — 你的 Method Section 就是 Spec
03
学术影响力不只是论文本身 — README、网站都是引用的乘数效应

大家日常研究中,
最想让 AI 帮你自动化的是哪一步

📱 公众号:直觉机器漫谈
🐙 GitHub:github.com/MiaoDX
Thank you 🤝