科研是一个固定流程,合理使用 AI 能够极大地避免重复劳作。
Take-away Messages
•寻找问题 -> 导师的工作
•文献调研 -> PASA
•修正思路 -> Agent
•理论推导 -> 很难
•实验分析 -> Cursor, Trae
•论文写作 -> 语法润色,详实?
步骤 1:寻找问题
最核心、决定上限
- 原则:不可直接靠大模型生成创新问题(往往是无意义的A+B)。好问题必须根植于现实痛点(如:自动将微信聊天中的开会时间提取并同步至日程表)。
- 好问题的特征:现实中存在需求(C),恰好可以被某方法(B)解决。
问题是一个“真”问题:真正能解决人们现实困难的、提升工作效率的问题
至少,要说服自己吧!
【如何系统性挖掘“好问题”】
寻找 Knowledge Gap(知识盲区):大模型无法直接告诉你“该研究什么”,但它是极好的“文献缝隙探测器”。可以提取近 3 年该领域顶会的 50 篇论文的
Future Work或Limitation章节,喂给模型并提问:“基于这些文献的局限性,目前该领域尚未解决的共性痛点是什么?”跨界调研:很多好问题来自于交叉领域。例如,将 NLP 领域的 Agent 架构或 RAG 技术,直接平移到投研领域的非结构化数据处理中。业务场景的复杂度天然会为你催生出有价值的工程/科研问题。
步骤 2:文献调研
- 核心工具:使用PASA Agent(https://pasa-agent.ai/)或Deep Research(Kimi,Gemini,GPT等大模型内置)进行模糊搜索。
- 好处:高效、可模糊词搜索,可直接根据你想做什么进行搜索。但搜出相关文献后,仍然要继续查看引用被引文献。
- 实操建议:应用型项目一定要去GitHub寻找已有开源代码,在此基础上局部修改以解决你的特定痛点。
- 如果是一个偏学术的问题:至少得用大模型搜搜文献
- 如果是一个偏应用的问题:至少得用Google/github找一下现有的结果【不要重复造轮子!!!!!】
【建立现代化的文献流】
精准溯源:除了模糊搜索,利用 Connected Papers 或 Research Rabbit 等工具找到该领域的“开山之作”和“最新综述”。
AI 辅助精读:读懂一篇代码的价值远超读十篇水会论文。对于 GitHub 上的开源项目,利用 AI IDE(如 Trae/Cursor)直接阅读源码。先让大模型总结项目的文件结构(Tree),再针对核心算法模块进行逐行解释,这是消化前人成果最快的捷径。
步骤 3:修正思路
打造“虚拟导师”
正常做科研,看了相关文献后,要去和老师讨论:
- 大模型妙用:利用 Prompt 让大模型扮演导师。
- Prompt 示例:“
现在请模拟场景:有 A 与 B 两个导师。A 更关注想法的新颖性,B 更关注可实现性。请围绕文献 [1,2,3] 以及我的思路 [...] 进行交叉讨论,并对我提问。”
- Prompt 示例:“
【引入“红蓝对抗”与审稿人机制】
压力测试 (Red Teaming):你的思路在实现前必须经过审视。设定 Prompt:“你现在是本领域最严苛的 Reviewer(审稿人),请指出我上述思路中的 3 个致命缺陷,并重点拷问我的 Baseline(基线模型)选择是否合理,数据是否有泄露风险。”
通过这种自我对抗,能在动手写第一行代码前,排雷掉大部分逻辑漏洞。
步骤 4:理论推导
- 大模型能力边界:虽然能解大量的微积分、概率论习题,但无法直接证明长篇的核心复杂定理。
- 使用建议:必须将理论推导拆解成极度细化的步骤,再喂给开启了“思维链(深度思考)”的模型,它可以帮你完成机械的推算验证。
曾经:需要很好的数学功底
• 线性代数、数学分析、概率论、数理统计
•ODE、复变、实变、泛函、回归、时序…
•需要很多年的学习积累才可以做到
现在:仍然需要很好的数学功底
•很遗憾,大模型做数学做的还不是很好…
•但一些简单的问题,大模型已经可以帮你实现了
•拆分复杂问题到简单的问题,从而利用大模型进行简单的证明【亲测好用】
→使用思维链技术
步骤 5:实验分析
- 使用 Trae / Cursor 辅助代码编写。一定要注意 5000 行上限的边界,超长代码需模块化处理。
- 如果有和其他baseline的比较… 一定是加分项!
【AI 辅助编程的黄金法则】
TDD(测试驱动开发):不要直接让大模型写几百行的核心业务逻辑,它一定会跑偏。正确的做法是:先让模型写 Test Cases(测试用例)和边界条件检查,确认测试逻辑无误后,再让它去填充主函数。
随时 Commit:在使用 Cursor 的 Agent/Builder 模式大规模重构代码前,必须进行 Git Commit(存档)。AI 改崩代码是常态,良好的版本控制是底线。
学术写作
学术写作与日常英语写作完全不同,核心在于严谨的逻辑、简明扼要以及高度结构化。当使用大模型辅助润色时,极易踩坑。
1. 识别并消除“大模型味”
直接让大模型生成论文,极易出现以下“灾难性”特征:
- 无脑分点:一写东西必是各种
1. 2. 3. - - -。 - 华丽形容词滥用:充斥夸张、华丽却无用的形容词与副词(学术写作极度忌讳,要求朴实无华)。
- 句式过度复杂:滥用极其冗长的从句、伴随状语。
- 名词乱解释:强制在每个专业名词(甚至缩写)后带上括号解释,甚至产生知识幻觉(编造完全不存在的术语解释)。
👉应对 Prompt 建议:“请精简地重写下面这段话,要求:1. 以自然段落形式输出,禁止分点列短语;2. 语言平实客观,去除所有夸张的形容词和副词;3. 多用简单句,避免冗长的复杂从句。”且一定要人工基于原文比对。
2. 学术写作的核心要求与八股结构
- 严密的逻辑链条:句子与句子之间必须有明显的逻辑关联词(如However, Therefore, Specifically, Furthermore),前一句的主干往往是下一句的承接起点。(切忌将重要的状语置于句首阻断主语逻辑)。
- 结构化(遵守“八股文”):
- 不要挑战现有论文的章节篇幅安排(例如 CS 领域的 Intro 通常就是 1.5 ~ 2.5 页,不要写 4 页废话)。
- Section 的起手式:每一章的开头必须有一句路标,例如:“In this section, we present...”。
- 摘要 (Abstract) 万能模板:
- 大背景:在XXX领域中,XXX方向十分重要。
- 转折与痛点:然而,现有工具注重...却忽略了...的弱点。
- 本文贡献:本文提出XXX方法,能够解决XXX。
- 具体操作:具体而言,(讲1-2句核心机制)。
- 实验结果:实验表明达到了XXX效果。
| 工具名称 | 类别 | 核心功能与特色 | 应用领域 |
|---|---|---|---|
| PASA Agent | 文献检索 | 字节跳动出品。支持模糊意图搜索,能精准检索计算机(CS)领域的高质量文献,通常只推 20-30 篇强相关论文。 | 文献调研:寻找特定方向(如“大模型多模态的不确定性度量”)的相关论文。比 Google Scholar 更精准。 |
| Deep Research | 深度调研 | OpenAI、Gemini、Kimi 等平台内置的高阶搜索功能。能像写报告一样将相关文献和知识点串联起来。 | 文献调研与思路汇总:适合快速了解一个完全陌生的领域并生成调研报告。 |
| DeepSeek (R1/V3) | 大语言模型 | R系列(R1):开启深度思考(思维链),极擅长数学推导和代码编写,但文字可能“言之无物/不像人话”。V系列(V3):不带深度推理,但生成文本的文风更像自然人类。 | 理论推导辅助、实验代码编写、日常对话。 |
| Claude | 大语言模型 | 目前公认写代码能力最强的大模型。 | 实验分析:适合处理相对复杂的项目代码重构或生成任务。 |
| Cursor / Trae | AI 编程 IDE | 集成了强大 AI 问答能力的本地代码编辑器。课上强调其处理代码的上限一般在 5000-6000 行左右,超过容易出现幻觉或崩盘。 | 项目实操/实验分析:在现有的 Github 开源库上添加自定义小功能。 |
| Grammarly | 传统辅助润色 | 专门检查英语语法的传统工具。 | 学术写作润色:查语法、冠词、介词的利器。现阶段常与大模型结合使用。 |