返回
顶部
我们已发送验证链接到您的邮箱,请查收并验证
没收到验证邮件?请确认邮箱是否正确或 重新发送邮件
确定

AI时代的超级个体

产业
阿耐2026-02-27
AI时代的超级个体

#本文仅代表作者观点,不代表IPRdaily立场#


“决定你和AI合作深度的,不是模型能力,而是你的品味与基本功。”


来源:IPRdaily中文网(iprdaily.cn)

作者:赵克峰 己任律师事务所


作者注:

本文是我在第二届亚洲知识产权人才盛典主题发言的文字整理稿,也是我近期使用AI工具的一些思考,特整理出来,供各位读者讨论、批判。


微信图片_2026-02-27_091140_248

赵克峰  己任律师事务所


引子:我们今天谈的不是“用AI偷懒”,而是“把手伸得更长”


我想讨论的“AI时代的超级个体”,很容易被包装成一句漂亮的话:听上去像励志口号,也像“一个人替代一个团队”的夸张叙事。但把视线从话术移开,你会看到它对应着一种正在发生的职业现实——当AI成为普遍可得的认知基础设施之后,个体的能力边界正在重新定价。它越来越少由组织规模、岗位层级或可支配人力决定,越来越多由一个人能否把AI嵌入自己的工作流决定;更进一步,还取决于你能否用可控、可验证、可复用的方式,让AI在关键环节持续放大自己的判断、表达与行动能力。所谓“超级”,并不神秘,也并不等同于无成本地更快,它更像是在同样的时间与精力约束下,把能力的可达范围向外推一圈:把手伸得更长——触达更多信息与结构;把脚跑得更快——更早形成可交付的中间成果;把眼看得更深——更早暴露论证薄弱处、事实断裂处与风险边界。换句话说,我们关心的核心问题是:怎样让AI稳定地成为一个可控的“能力放大器”,而不是一个让人短暂轻松、长期失控的“文本生成器”。


1. 从一个非标案件合伙人的视角出发:AI不是标准化应用场景


我之所以选择从这个角度展开,是因为我的工作长期处在“非标”场景:重大、复杂、疑难知识产权诉讼,尤其是新类型、复杂度高、事实链条长、责任后果重的案件。在这类工作里,AI很难被理解为一个“有标准化应用场景的工具包”。原因并不复杂:非标案件的关键价值往往不在于把字写出来,而在于如何界定问题、如何选择争点、如何组织证据、如何设计论证路径、如何预判对抗并控制风险。这些环节高度依赖人的判断与经验;更重要的是,每一次选择都要对外承担后果,因此天然排斥“照模板套用”。


也正是在这种场景里,AI的定位需要先完成一次去神化。我更愿意用一句贴近工作体验的表述来概括它:AI不是神,它更像一个很聪明、很勤奋、不要工资、不疲倦、不闹脾气,但也挺不靠谱的实习生。它能把材料堆成结构,能把初稿拉出轮廓,能从不同角度提出可能的论证路径,甚至可以模拟对方的攻击点;同时,它也可能一本正经地误读事实、跳过关键前提、编造出处。对法律行业而言,风险并不抽象:错误不仅会发生,而且往往很显眼,代价也往往很具体。因此,真正重要的从来不在于“我用了什么模型、买了什么系统”,而在于在高责任、低容错、强对抗的专业场景中,AI以何种方式进入工作回路,才能带来确定性的增益,避免把不确定性以更隐蔽的形式嵌入交付物。


2. “超级个体”的真实含义:能力被放大、速度被提升、边界被外扩


基于上述前提,“超级个体”这四个字需要被还原为一种工作结构,而不是一种心理暗示。它要求你把AI放置在清晰的责任框架中:你是脑子,AI是手脚。AI可以替你跑腿、替你铺材料、替你搭框架、替你做红队,但它不能替你承担判断与责任。当这条边界被严格维护时,AI才更可能稳定地放大你的能力;边界一旦模糊,AI同样会放大你的错误,并且让错误更难被及时察觉。


于是,“超级”的含义可以拆成三个可被观察、也可被训练的维度:


(1)能力被放大:你能在更短时间内处理更大规模、更高密度的材料,并把非结构化信息转化为可操作的结构,例如大事记、正义点总结、证据清单和论证框架。


(2)速度被提升:你能基于讨论和原始材料,更早形成可交付的中间成果——清晰的框架、可讨论的初稿、可检验的时间轴、可反驳的论证路径等。


(3)边界被外扩:你能更快进入陌生领域,补齐必要的背景知识与概念框架,并将其转化为可用的专业表达与策略工具,但前提始终是“可验证”,而不是“看起来很懂”。


在这个意义上,AI带来的变化更接近一次“从工具到范式”的迁移:当信息处理与表达成本显著下降,真正稀缺的能力发生了位移——不再只是“写出来”,而是“判断什么该写、怎么写才成立、写到什么程度才可交付”。换句话说,真正稀缺的能力是“品位”。这也解释了为什么同样的AI落在不同人手里会产生完全不同的结果:它不会自动生成专业性,它更像一面放大镜,把人的专业能力放大——优点会被放大,缺点同样会被放大。


3. 三段式结构:为什么用、怎么用、用的时候注意什么


基于此,我将分为三部分,和各位讨论,为什么用、怎么用,以及用的时候注意什么


第一部分讨论“为什么用”:更新对AI的理解,把它从“聊天机器人”和“内容工厂”的窄框里释放出来,同时正面处理两类高频误区——把AI当代工厂、把AI当权威数据库,并由此引出human-in-the-loop作为底线的必要性。


第二部分讨论“怎么用”:给出一套可迁移的嵌入式用法,覆盖接案、法律研究、文书起草、谈判与合规等关键节点,让AI真正进入“理解—组织—表达—验证”的链条,而不是停留在“生成几段话”的表层。


第三部分强调“用的时候注意什么”:在专业责任与外部可验证性要求下,哪些环节必须坚持人控、核验与可追溯,哪些边界不能跨越,哪些行为(例如“AI直出直发”)在职业伦理与风险控制上不可接受。


我的目标不是让读者“更热爱AI”。更现实的目标,是让读者获得一种更稳健的能力:在AI成为环境变量之后,仍能把自己训练成一个可控的放大器——既放大效率,也守住质量与责任。这样意义上的“超级个体”,才可能被建构、被复制,并被长期迭代。


三段式结构:为什么用、怎么用、用的时候注意什么


AI进入多数人的工作场景,往往是以一种“低门槛、立竿见影”的方式开始的:问答、总结、润色、起草、改写。于是我们很自然地把它归入“更高级的写作工具”或“更聪明的搜索助手”。这种理解并不完全错误,但它过于窄化了AI真正重要的作用点——  AI并不是只在某一个环节替我们写几段话,而是在重塑专业工作从信息到判断、从判断到表达、从表达到协作与交付的整体链条。这正是所谓“从工具到范式”的变化:当生成与组织信息的成本显著下降,真正稀缺的能力会从“产出文本”转向“组织结构、验证结论、控制风险、推进协作”。如果不先把这一点讲清楚,后续所有“怎么用”的技巧都很容易滑向两种高频误区——一种是把AI当代工厂,另一种是把AI当神谕数据库;而这两种误区,在高责任行业里都会以更隐蔽、更高密度的方式制造风险。


1. 误区一:把AI当成“我不想想、也不想写”的代工厂


第一类误区最常见,也最容易被“效率叙事”合理化:工作太忙、材料太多、表达太耗时,于是希望AI根据一句话、几条要点,直接生成一份“可以交出去”的东西。很多人甚至会把这种方式当成AI的核心价值:我不想想,我也不想写,你替我做完——我最多再改两下。


问题在于,这种用法在低风险场景可能有效,在高责任场景却会发生结构性错配。专业文本不是文字产品,而是经验判断的外化。起草一份诉讼文书、合规意见、谈判邮件或客户简报,看似是在“写”,本质上是在做一连串选择:哪些情节重点考虑?哪些证据需要重点补充?文字应该简要还是详实?文风应该稳健还是激进?何种观点对我方整体有利?对方可能从哪里攻击、我们如何预设回应?法官可能关注什么问题,我们又该如何回答?AI可以把一段话写得很顺,但它无法替你承担这些选择背后的后果——更不会对外部世界的对抗、质询与追责负责。


更隐蔽的风险在于,代工化使用AI会改变人的工作顺序:从“先形成判断,再组织表达”,滑向“先得到表达,再倒推判断”。当文本先出现,人往往会被它的结构牵引,进入一种“局部修补”的模式:觉得哪里不顺就润色一下,觉得哪里缺点就补几句,却不再回到根本层面去重建问题框架。这种状态在心理上非常省力,但在专业上非常危险——因为你最终交付的不是一份你完全掌控的论证体系,而是一份“看起来完整”的文本拼装。它可能在关键处缺乏支撑、在隐含前提上偷换概念、在引用上出现不可核验的漏洞。结果往往不是“效率提升”,而是把风险以更高的隐蔽度嵌入交付物之中:短期看不出来,进入对抗就暴露;暴露的那一刻,代价往往是信誉而不是返工时间。


所以,这一误区的实质不是“AI会不会写错”,而是把生成当成完成,把速度当成质量,把输出当成责任。在法律行业尤其如此:对外交付意味着背书,意味着你要能解释、能追溯、能承受对方攻击。AI可以“代工”文字,但不能“代工”责任。


2. 误区二:把AI当成“神一样的权威数据库”


第二类误区更隐蔽,也更具有迷惑性:即使不让AI代写,人也可能在阅读AI输出时把它当作权威来源——它说得这么完整、这么自信、这么有条理,应该是对的。尤其当模型给出看似严谨的规则归纳、案例引用、学说观点时,人很容易把“表达的确定性”误认为“事实的确定性”。


这恰恰是高风险所在。因为AI最强的能力之一,是把语言组织得非常像“权威答案”:结构完整、语气笃定、逻辑顺滑,甚至还能给你配上一串引用。这种输出在日常交流里可能只是信息偏差,在专业场景里却会击穿方法底线:专业结论的可信度,不来自自信,而来自可验证性。如果一个关键结论无法回到规范性法律文件、权威判例或案件原始材料进行核验,那么它再像真的,也只是“像”。而法律行业恰恰是一个对“像”极其不宽容的行业:错误不仅会发生,而且往往很显眼;一旦显眼,就不再是文本瑕疵,而会转化为立场被动、论证失分、甚至职业信誉受损。


在这里,用一句话来定性非常合适:AI不是神,它更像一个很聪明、很勤奋、不要工资、不疲倦、不闹脾气,但也挺不靠谱的实习生。你可以让它帮你做大量前置工作:归纳材料、提出观点、整理争点、模拟反驳;但你不能把它当作最终权威,更不能把它提供的“引用”当作可直接对外使用的依据。把AI当神谕,最大的危险不是它偶尔胡说八道,而是它胡说八道时仍能保持专业腔调,从而提高你“误信”的概率。


因此,第二类误区的本质不是“AI会不会幻觉”,而是人在方法论上放弃了核验,用“看起来对”替代“可证明对”。


3. 正确认知:AI带来结构性影响,正在从根本改变我们的工作方式


当我们把上述两种误区剥离,AI的正确位置才会显现:它既不是“我不想想也不想写”的代工厂,也不是“神一样的权威数据库”,而是一种可以嵌入专业工作链条的通用能力——更准确地说,是一种能够介入“理解—组织—表达—验证”全过程的推理与语言结构化能力。


它的价值首先体现在结构层面:把非结构化材料转化为可操作结构,把零散推理转化为可检验论证,把隐性经验转化为可复用机制。更重要的是,这种能力会改变协作方式与组织形态:传统金字塔式分工依赖底层堆材料、上层做判断,而AI可以在多个层级同时提供支持——既能承担大量重复性整理与初稿生成,也能承担“对抗性任务”(模拟反方、寻找漏洞、生成替代路径)。这意味着,个人对结构与节奏的掌控力被放大:你可以更早得到可讨论的框架、更快完成多轮推演、更迅速暴露薄弱环节,从而让高质量产出不再完全依赖“更多的人力堆叠”。


但这种结构性影响要成立,有一个前提必须被制度化:  human-in-the-loop。它不是抽象口号,而是专业场景中确保增益“确定性”的底线安排:你是脑子,AI是手脚。AI可以替你跑腿、替你铺材料、替你搭框架、替你做红队,但它不能替你承担判断与责任。判断权必须由人掌握;关键事实、关键引注与关键结论必须可追溯核验;对外交付的文本必须由人背书并能承受对抗。只有当AI被放入这样的责任回路中,它才会稳定地产生生产力,而不是随机地产生风险。


4. 现实提醒:AI不会取代人,但会用AI的人会取代不会用AI的人


从这个框架出发,“AI不会取代人,但会用AI的人会取代不会用AI的人”就不再是一句情绪化的恐吓,它更像是对竞争结构的描述:当表达成本下降后,差距的来源发生位移——从“谁能写得更多”转向“谁能组织得更好、验证得更严、失误率更低、对抗准备更充分”。未来更重要的能力,不是产出本身,而是产出背后的结构与方法:更早形成可交付的中间成果,更快完成多轮推演,更稳地守住可验证性与责任边界。


因此,你未必会被AI直接淘汰,但你很可能会被那些把AI纳入可控回路、并把它变成稳定生产力的人拉开差距。尤其在法律、咨询、投研、产品、写作等高度依赖信息处理与表达的行业里,这种差距会呈现得非常具体:更快的节奏、更强的结构、更少的可见错误、更稳的风险控制、更强的对抗弹性。换句话说,AI带来的范式变化并不自动奖励“用得多的人”,它更倾向于奖励“用得可控、用得可验、用得可背书的人”。


风险并存:AI既放大能力,也放大错误


AI之所以值得被认真讨论,根本原因并不在于它“能做很多事”,而在于它对专业工作具有一种明确的放大效应:它放大效率,也放大缺陷;放大结构能力,也放大方法失误;放大你对材料的掌控力,也放大你对风险边界的忽视。当AI被嵌入到高责任、强对抗的工作链条里,这种放大效应会呈现出一种非常现实的双面性——它可以让一个人更早形成结构、更快推进协作、更系统进行推演;同时也可能让错误以更高的速度、更低的可见度进入交付物,并在外部对抗中以更高的代价爆发。因此,AI的风险并不是“附带问题”,它本身就是使用方式的一部分:你如何管理风险,决定了AI最终是生产力还是不确定性来源。


1. 幻觉不是“不能用”的理由,而是“必须人控”的理由


很多人拒绝AI的理由很简单:它有幻觉。这个判断在事实层面并不难成立,任何实际使用过的人都会遇到。但把“存在幻觉”直接推导为“不可使用”,其实跳过了一个更关键的问题:在专业工作中,我们从来都不是在一个“零错误”的世界里工作。实习生会看漏材料、助理会抄错日期、同事会误读条款、甚至我们自己也会在高压节奏下出现疏漏。区别不在于“是否可能出错”,而在于“错误如何被发现、如何被纠正、如何被阻断进入对外交付”。


AI的幻觉,本质上是一种新的错误形态:它往往不以“明显的破绽”出现,而以“看起来很像答案”的形式出现;它常常不暴露在语言层面,而潜伏在事实、出处、推理前提和逻辑链条中。也正因为它“像”,它对人的心理更具诱导性:人在阅读时更容易放松核验,甚至会在不自觉中对结论产生依赖。因此,幻觉的真正问题不在于“AI会不会瞎编”,而在于它提出了一个更严肃的工作要求——你必须建立一套更明确的责任回路,确保任何关键结论都经过人工判断与可追溯核验。


换句话说,幻觉从来不是AI“不能用”的理由。AI生成购物必须可被验证和溯源。只要这一套机制不存在,幻觉就会从“可控的错误”演化为“不可控的风险”。


2. 典型翻车:编造案例、虚构引注、错误格式仍被当真提交


在法律行业,AI翻车最具代表性的形态,往往集中在两个区域:案例和引注。原因也很直观:这两类内容对“看起来专业”极其关键,却又最容易被AI以“看起来很像”的方式伪造或拼接出来。


第一类是编造案例。AI非常擅长生成一个像真案例的叙述:案由、争点、裁判要旨、甚至“看起来合理”的案号格式。对不熟悉该领域的人而言,这种输出的迷惑性极强;对熟悉法院系统的人而言,破绽可能也很明显——但问题在于,翻车往往发生在“没人去看破绽”的时候:当团队把AI输出当作可靠检索结果,直接进入材料引用或对外沟通,错误就完成了从内部草稿到外部文书的升级。


第二类是虚构引注。AI会给出非常像样的“观点出处”,甚至能配上作者与论文题目,读起来像是严谨的学术支撑。但其中的关键往往无法复核:原文是否存在、是否表达过该观点、上下文是否被扭曲、引用是否准确。在对抗性场景中,这类漏洞往往不是“可忽略的细节”,而是对方最愿意抓住的突破口:一旦引注不可核验,整个论证的可信度就会被拖累。


这些翻车的共同点并不复杂:它们往往发生在“责任回路断裂”的位置。不是AI产出了错误,而是错误缺乏阻断机制,最终被当作可信内容进入对外交付。


3. 核心原则:Human-in-the-loop——你是脑子,AI是手脚


因此,讨论AI风险时,最关键的不是罗列更多翻车案例,而是把一个底线变成制度化的工作习惯:human-in-the-loop。它不是一句安全口号,也不是“谨慎点”“多检查”的泛泛提醒,它对应的是一套清晰的分工逻辑与责任结构。


要把这条原则从“正确的话”变成“可执行的机制”,至少需要在三个层面落实。


第一,判断权必须由人掌握,尤其是问题界定与争点选择。


AI很擅长把已有信息重组为多个视角的答案,但它无法替你做最关键的取舍:这件事真正的核心争点是什么、哪些事实对结论构成决定性影响、哪些路径在策略上更优、哪些表述会引发不必要的风险。在诉讼、合规、谈判等场景中,这些判断往往并非纯粹的逻辑推理,而是包含经验权重、风险偏好、对抗预判与责任边界的综合决策。它属于“脑子”的工作,不能让位给“手脚”的产出。


第二,关键结论必须可验证,核验机制必须前置而非事后补救。


human-in-the-loop的核心不是“最后看一眼”,而是把核验变成流程的组成部分:AI提供线索,人完成核验;AI给出案例或引注,人回到权威来源确认;AI生成时间轴,人对照原始证据逐项检查。这里最重要的不是核验的“勤奋”,而是核验的“对象选择”:凡是进入对外文本的关键事实、关键引用、关键数字、关键结论,都必须可追溯。AI可以帮你把材料先铺开,但不能让“不可追溯的内容”混入交付物。对外文本的质量,最终取决于可验证性的密度,而不是语言的流畅度。


第三,责任必须被明确归属,对外交付必须建立“背书逻辑”。


在法律行业,“交付”从来不仅是把文件发出去,它意味着你愿意为其中内容承担解释、质询与后果。human-in-the-loop要求你在交付前能回答三个问题:我为什么这样写?依据在哪里?对方可能如何攻击、我如何回应?如果你无法回答,说明你并未真正掌控这份文本。AI可以让你更快得到一个看起来完整的初稿,但初稿到交付之间的关键步骤,仍然是人的背书与重建:把AI的输出转化为你自己的论证体系,把“像结论”的句子落到可核验的材料上,把潜在争议点提前暴露并加固。


从这个角度看,human-in-the-loop并不是“限制AI”,它恰恰是在释放AI的价值:当责任回路清晰,AI可以在“手脚”层面做到极致——跑腿更快、铺材料更广、搭框架更迅速、红队更犀利;而“脑子”层面的判断与核验仍由人掌控,保证专业性与可背书性不被侵蚀。一个真正成熟的AI工作流,最终呈现的状态往往是:AI让你更早获得可讨论的结构、更高频完成推演、更及时发现漏洞;人让这些结构与推演变得可验证、可解释、可对抗、可交付。


怎么用:从金字塔到“AI嵌入每一环节”的新组织结构


一旦把“你是脑子,AI是手脚”的底线立住,“怎么用”就不再是提示词技巧问题,而变成组织结构问题。很多人谈AI落地,习惯从工具清单或功能点切入:能不能自动摘要、能不能起草合同、能不能检索案例。这样当然有用,但容易把AI当作局部外挂,最终只是在既有流程上贴补丁。更具解释力、也更可迁移的视角,是把AI理解为一种会改变分工逻辑的能力:它进入的不只是写作环节,而是“理解—组织—表达—验证”的每一个环节;它改变的不只是速度,而是我们如何配置人力、如何安排协作、如何让产出更早进入可讨论状态。


换句话说,AI带来的不是“谁多了一个工具”,而是“组织如何重排”。在法律、咨询等文本密集行业,这种重排最直观的表现,就是传统金字塔式分工开始松动,新的嵌入式结构开始出现。


1. 旧结构:金字塔式分工(实习生—律师—资深律师—合伙人)


传统律所或专业服务机构的工作流,典型形态是一座金字塔。底层负责高强度、重复性强、对判断要求相对较低的任务:整理材料、做时间轴、标注重点证据、初步检索、摘录要旨、按模板生成段落。往上进入律师与资深律师层,更多承担“把材料变成结构”的工作:争点如何确定、证据如何组织、论证如何搭建、行文如何符合风格与策略。塔尖的合伙人承担最终决策与背书:立场与策略选择、关键段落与关键风险控制、对外口径与对抗预判。


这种结构并不是偶然形成的,它对应着一个成本—能力匹配逻辑:把可标准化、可分解的劳动下放,把不可标准化、需要经验与责任的判断上收。它在过去很长时间里运转良好,直到一个事实发生变化:底层的大量工作,本质上是信息与文本的组织劳动,而AI恰恰在这些环节具备非常强的介入能力。于是,金字塔的底座开始出现“可替代的部分”,而更关键的是,上层的工作节奏与协作方式也会被连带改变——因为当底层材料组织成本下降,上层最稀缺的就不再是“有多少人帮你堆材料”,而是“你能否更快完成结构决策,并更早进入对抗推演与质量验证”。


2. 新结构:AI同时像“勤奋但不靠谱的实习生”、也能像“红队合伙人”


在新的结构里,AI的角色并不单一。前文已经论述了,AI可以做一个很聪明、很勤奋、不要工资、不疲倦、不闹脾气,但也挺不靠谱的实习生。但如果只把AI当“实习生”,又会低估它在另一类任务上的价值——对抗性任务。很多人真正用顺AI之后,会自然把它放到“红队”位置:让它替你找漏洞、替你模拟对方最强攻击点、替你从相反立场重写一遍论证。它在这里的价值,并不来自权威性,而来自高频迭代能力:你可以让它对同一段论证提出十种反驳方式,让它从证据、规则、逻辑、叙事、策略五个层面同时挑刺。这个过程在传统结构里通常很昂贵,因为红队推演需要资深律师投入时间;而在AI介入后,红队推演的边际成本显著下降,合伙人或资深律师就能把精力更集中地放在关键决策与关键验证上。


于是,一个更贴合新结构的描述出现了:AI在同一个项目里,既可能承担“底层堆材料”的任务,也可能承担“上层挑毛病”的任务。它既像实习生,也像红队合伙人;差别不在于AI突然变得权威,而在于你把它放到了不同的工作环节,并用不同的约束方式管理它的输出。基础任务强调效率与覆盖面;红队任务强调攻击性与多样性;两者都强调human-in-the-loop:人负责判断、核验与背书。


3. 角色切换:AI可以是助手、律师、合伙人、法官(模拟质询/推演)


当AI被嵌入每一环节,“怎么用”最有效的方式往往不是把它固定在一个岗位,而是进行角色切换——让它在不同阶段扮演不同角色,从而为同一份交付物提供多角度的结构支持。这里的“角色”不是拟人化游戏,它是一种方法:用角色限定AI的任务边界、输出形式与评价标准,使其更贴近你在该阶段真正需要的能力。


(1)作为助手:它适合承担高密度的整理与结构化劳动。你给它材料、会议记录、语音转写,它输出时间轴、争点清单、任务分解、证据目录、风险提示。关键在于,它产出的不是结论,而是“可操作的结构”,让团队更早进入讨论与分工。


(2)作为律师:它适合生成可讨论的初稿。你提供框架与立场,它给出第一版论证、条款草案、沟通邮件。此时的核心价值是缩短从“想法”到“文本”的距离,让资深律师更早开始编辑与重建,而不是从零打字。


(3)作为合伙人(红队):它适合做对抗推演与策略审查。你把你的观点交给它,让它站在对方立场反驳;你让它挑出最薄弱的前提、最容易被抓住的表述、最可能被质疑的证据闭合点。这里的AI并不提供最终策略,它提供“更早暴露问题”的能力,让你的策略在内部先经历一轮压力测试。


(4)作为法官(模拟质询/推演):这是很多人忽略、但在强对抗场景极有价值的一种用法。你让AI以裁判者视角追问:你这个事实是怎么证明的?你这个规则适用的前提是什么?你为何不选择另一条路径?你的论证是否存在跳跃?这种追问的意义在于把“可解释性”提前:你不是等到庭审或对方反击时才发现漏洞,而是在内部就把关键问题问完、把关键证据补齐、把关键表述收紧。


当你习惯这种角色切换,组织结构会出现一个重要变化:协作节奏被前移了。过去很多工作要等到材料堆完、初稿写完、合伙人再来改;现在可以更早进入“结构讨论—初稿生成—红队推演—关键核验—定稿背书”的循环。循环的次数变多,单次循环的成本下降,但对人的要求更高:你需要更强的结构能力来定义任务、更强的判断能力来做取舍、更强的核验能力来守住底线。这也正是“超级个体”真正成立的地方:AI把你的手脚延展出去,但你的脑子必须更清醒、更稳定、更能控制节奏。


落地方法:把AI嵌入法律工作的关键链条


讨论“怎么用”如果停留在工具层面,很容易变成清单:能做摘要、能写邮件、能改合同。真正能形成长期优势的,是把AI嵌入法律工作的关键链条,让它在每个节点都产出可复用的中间成果,并且始终处在human-in-the-loop的责任回路之内。换句话说,AI的价值不在于“替你写”,而在于它让你更早拿到结构、更快进入迭代、更频繁完成推演,同时把质量与风险控制前置。以下五个节点中,我会重点展开法律研究和文书起草阶段,因为这是法律工作中最典型的“把脑子翻译进Word”的场景,也是AI最容易带来结构性收益、同时也最容易引发代工式误用的场景。


1. 接案阶段:材料语音转写、要点结构化、争议焦点与任务清单


接案阶段的核心矛盾,往往不是“缺信息”,而是“信息过载且非结构化”:客户口述、会议记录、聊天截图、合同附件、证据照片、时间线碎片化陈述。很多会议与沟通“形态上发生了,但并没有文字化”,信息以口头方式消散在空气里。把这些内容转成文字并结构化,AI能显著提高“组织记忆”的质量与可追溯性,为后续调研与起草提供同一套事实底座。传统做法依赖人力整理,成本高、遗漏风险大,且很难在早期形成统一叙事。AI在此阶段最有价值的工作,不是下结论,而是把输入变成结构:语音转写、要点提炼、初步时间轴、证据目录、争点候选清单、待补材料清单。它给团队提供的是“可讨论的底板”,让合伙人和资深律师更早进入判断:哪些事实是关键、哪些争点值得押注、哪些证据必须补齐。


2. 法律研究阶段:从关键词检索到“按案情/观点/判决理由”的模糊检索与归纳


法律研究阶段最容易被误解为“多检索、多引用”。但真正决定质量的,往往是检索范式:你是把检索当作“找几条法条、找几篇判例”的收集动作,还是把检索当作“为论证构建可验证支撑”的结构工程。传统检索高度依赖关键词——输入“商标混淆”“显著性”“避风港”“实质性相似”,从结果里再筛选。关键词检索当然必要,但它有两个现实局限:其一,你必须知道该用什么词;其二,你很难把“与本案事实结构相似、但关键词不重合”的裁判逻辑捕捉出来。


在AI的加持下,检索可以从关键词,升级为按案情、按观点、按判决理由的模糊化检索。这里的“模糊”不是降低严谨性,而是降低起步摩擦:让检索先从“事实结构与裁判逻辑的相似性”出发,快速建立一个候选池;再由人回到权威数据库逐条核验、精选、引用。它的价值在于把调研从“盲搜”变成“带结构的检索”。


具体来说,这种模糊化检索至少有四种可操作的路径。


(1)按“案情结构”检索:用事实骨架替代关键词


你可以把案情压缩成一个结构化摘要:主体关系、行为模式、时间顺序、争议焦点、证据类型与缺口。然后让AI做两件事:

• 给出与该结构相似的典型案件类型与可能涉及的法律关系;

• 提出检索路径(可能的案由、可能出现的裁判关键词、可能出现的法院层级与地区差异)。


这一步的核心产出不是“AI告诉你一个结论”,而是“AI帮你把可检索的路径与标签体系搭出来”。随后你再去权威数据库用这些路径逐层下钻。它相当于把调研中最耗时的“我该怎么搜”前置完成。


(2)按“观点/论证目标”检索:从结论需求反推证据与案例类型


很多时候我们检索不是为了全面了解某个领域,而是为了支撑一个具体论证目标:例如“行为属于正当竞争”“不构成实质性相似”“平台不应承担间接侵权责任”“价格不构成过高”。在这种情况下,先把观点写成可检验的命题,然后让AI反推三类内容:

• 支撑该命题的常见裁判理由有哪些(理由类型学);

• 每一类理由通常依赖什么事实条件与证据形态;

• 可能与该命题对立的裁判理由是什么(反例结构)。


这一步会显著提升检索效率,因为你不是漫无目的地找“相关案例”,而是在构建“理由—事实条件—证据形态”的对应关系。你最终引用的不只是案例本身,而是案例背后的理由线索。


(3)按“判决理由”检索:把案例从‘故事’拆成‘理由模块’


这是你口水稿里最有启发的一点:同一法律问题,裁判的说服力来自理由,而理由往往是模块化的。你可以把一份已知判决(或你认可的理由段落)喂给AI,让它做“理由拆解”:

• 该判决的核心逻辑链条是什么(前提—推理—结论);

• 法院在哪些节点引入了事实判断,在哪些节点引入了规则解释;

• 哪些表述属于一般性标准,哪些表述依赖具体事实。


然后,最关键的动作是:让AI给出“可迁移的检索锚点”。换言之,哪些理由模块可以作为你进一步检索的“母题”:你可以用它去找其他法院在类似问题上是否采用同一模块、是否出现替代模块、是否存在冲突模块。这就把检索从“找相似案件”升级成“找相似理由”。


(4)按“差异点”检索:把对方可能抓的点变成你的检索入口


在对抗场景中,最浪费时间的往往不是建立主论证,而是等对方指出漏洞后再补洞。模糊化检索的另一种用法,是在调研阶段就让AI扮演红队:

• 你的论证最可能被攻击的点是什么?

• 哪些事实差异会导致法院走向不同结论?

• 哪些证据缺口会使你引用的理由失效?


把这些“差异点”提炼出来之后,再反向检索:专门找那些因为某个差异而导致裁判转向的判例。这样做的好处在于,你在起草前就知道哪些地方必须限定表述、必须补证、必须设置备选论证路径。


上述四条路径共同指向同一个结论:调研阶段的AI价值,不在于替你做法律判断,而在于把调研变成结构化工程,显著降低“从零到一”的摩擦,并让你更早形成可验证的案例池与理由池。这里human-in-the-loop的底线同样必须明确:AI可以生成线索,但不能直接成为引用;AI可以提出案例候选,但最终引用必须回到权威数据库核验;AI可以给出理由归纳,但理由能否迁移必须由人结合本案事实判断。你在口水稿里那句“你是脑子,AI是手脚”放在调研阶段依然成立:AI可以替你跑腿、铺材料、搭检索路径,但裁判逻辑的取舍与引用责任必须由人承担。


3. 起草阶段:从“人写第一稿”到“人定结构—AI出初稿—资深改—合伙人定稿”


起草阶段是法律工作的典型高成本环节:你要把事实、规则、证据与策略压缩进一份可交付文本中。很多人把AI理解为“能帮我写文书”,于是最容易在这一环节走向代工化——给几句提示词,让AI出一份“看起来完整”的稿子,再略作润色就对外发送。这个做法之所以危险,不是因为AI一定写得差,而是因为它最容易把工作顺序倒置:先生成,再补思考;先成文,再补结构。结果往往是语言层面很好看,结构层面却不稳,进入对抗就露出断裂。


要把AI用在起草阶段用得稳、用得深,关键在于改变工作组织方式:把“起草”从个人长时间的线性写作,改造成一个高频迭代的结构工程。最有效的流程往往是你在口水稿里提到的那种“会里定结构—AI出第一稿—资深律师直接上手改—合伙人定稿”的闭环:


(1)先定结构:人负责“脑子”的工作,AI负责“手脚”的工作


起草真正的第一步不是写段落,而是定结构。这里的结构不是“目录”,而是你对案件的解释框架:事实叙事的主线是什么,争议焦点怎么确定,论证路径怎么排序,证据链如何闭合,风险边界如何标注。这个步骤必须由人完成,尤其是合伙人与资深律师,因为它包含策略取舍:你押哪条路径,放弃哪条路径,你准备怎样应对对方的预期攻击。


这一步可以非常具体:一次起草启动会,核心产出至少应包括三件东西——

• 争点树:主争点/子争点/各自结论目标;

• 证据映射:每个结论对应哪些证据、证据缺口在哪里;

• 段落功能表:每一部分要完成什么说服任务(建立叙事可信度、限定争点、解释规则、回应对方预期反驳等)。


在这个环节,AI可以辅助做“铺材料、列清单”,但不能替代“做取舍”。原因很简单:你是脑子,AI是手脚。AI可以替你铺材料、替你搭框架,但它不能替你承担判断与责任。


(2)让AI出初稿:把“从零到一”的成本压到最低


结构确定后,AI的价值才真正释放出来:它可以在你规定的结构、立场、语气与证据边界内快速生成第一稿。这里的关键不在于提示词的花哨,而在于输入的“约束质量”:你给它的争点树越清晰、证据映射越明确、段落功能越具体,它产出的初稿越像“可编辑的法律文书”,而不是“像法律文书的作文”。


(3)资深律师直接上手改:把“改稿”变成“重建论证”


AI初稿出来后,最有效的不是“润色”,而是“重建”:资深律师要做三类动作——

• 逻辑重建:检查每个结论是否有前提、前提是否被陈述、是否存在跳跃推理;

• 证据闭合:逐段核对“这句话凭什么成立”,证据是否足以支撑、是否需要限定表述;

• 对抗预置:把对方最强反驳提前写进结构里(或至少写进“回应段”),避免形成单向叙事。


这一步本质上是在把AI的文本变成“可背书的文本”。AI可以快,但资深律师必须稳。否则你得到的是一份写得顺的稿子,而不是一份能在对抗中站得住的稿子。


(4)合伙人定稿:改到“责任可控”


合伙人的定稿不一定需要逐句抠字,但必须抓住“责任点”:立场边界是否清晰、关键事实是否准确、关键引用是否可核验、关键结论是否过度、风险是否被充分提示、整体策略是否一致。很多翻车并非因为细节错,而是因为立场边界没立住、表述过度、引用不可靠、或是对抗预判不足。合伙人要做的是把这些风险点前置消化,而不是把它们留给对方或裁判者来指出。


(5)把流程做成“高频迭代”,而不是“一次性交稿”


传统起草往往是线性的:写三天到一周,交一稿再改。AI介入后,更有效的方式是提高迭代频率、降低单次迭代成本:结构会先出来,初稿会更早出来,红队推演会更早介入,核验会更早进行。这样做的结果是,终稿并不一定比过去更长,但通常更稳:因为它经历过更多轮次的“内部对抗”。


4. 谈判与合规阶段:把AI当红队——让它反驳你、找漏洞、提出对方最强攻击点


谈判与合规的共同点,是你需要在不确定信息下做策略选择,并预判对方立场与监管/合规风险。AI在这里的最佳位置往往不是“帮你写”,而是“帮你反驳”:让它站在对方立场反击你的观点,让它从最强对抗角度指出漏洞,让它提出你最不愿意面对、但对方最可能拿出来的攻击点。红队的价值在于提前暴露薄弱处,逼迫你把论证、事实与风险边界做得更扎实。


交付纪律:把AI放进责任回路的三条铁律


当AI成为工作流的一部分,真正值得警惕的就不再是它“会不会出错”,而是它“出错的时候我们有没有机制发现”。从第二部分的认知误区、到第三部分的翻车案例、再到第五部分中的起草流程与实战推演,一个核心问题始终贯穿其中:当效率提升后,如何确保质量不被放弃,责任不被稀释,错误不被放大?这一部分要回答的,正是这个问题。


与其说这是对AI的使用建议,不如说是对我们自身专业标准的底线要求。以下三条铁律,不是“注意事项”,而是不得破的交付纪律——只有在这些规则之下,前面所有讨论的效率、结构、重构、推演才有意义,也才不会在交付的那一刻崩塌。


1、交付红线:凡涉关键事实、引注、数字、结论,必须可追溯到权威来源


AI生成的文本往往极具“表面可信度”——语言流畅、结构完整、逻辑自洽,但你如果仔细追问其关键信息的出处,往往会发现“它说的都对,只是没发生过”。这类幻觉在法律场景中尤为致命,因为法律文件的基本前提从来不是“像真的”,而是“可验证”。任何关键性的判断,如果无法指向权威材料——无论是原始证据、规范性法律文件、案例原文—那就不应该出现在最终文件中。这一红线之所以重要,不仅因为它关系准确性,更因为它关系可对抗性与可背书性。我们写的东西,一旦进入对抗,能不能撑得住?如果你无法复原路径、找回出处、讲清来龙去脉,那就不只是技术问题,而是方法失守。


因此,建议在所有对外交付的文本中,建立“强引用意识”:凡是落在事实结论、案例引用、法律适用、数据计算上的关键段落,都必须可溯源,否则不得对外。


2、角色红线:AI只负责“候选与对抗”,人负责“决策与背书”


第二部分谈到的误区一,是把AI当成一个代工厂——“我不想想,我也不想写,让它写出来我改一改”;而误区二则相反,是把AI当成一个神谕机器——“它说得这么像,应该不会错”。这两种使用姿态看似相反,本质上却共享一个风险:让AI越过职责边界,承担了判断与交付责任。


为了把这个问题清理干净,需要从根上重建角色分工。AI可以承担大量前置性劳动,甚至可以覆盖非常高密度的候选生成工作。但它始终只能站在“候选”与“对抗”的位置上,不能进入“决策”与“背书”的核心回路。真正的专业判断——包括结构如何搭建、事实如何取舍、规则如何适用、证据如何组合、语气如何控制、结论如何落地——必须由人来完成。因为一旦进入对外文本,你面对的就是质询、反驳与责任,而这些从来不能外包。


在实际操作中,我们可以更明确地分工:

• AI可以起草,但初稿的框架、方向、立场由人决定;

• AI可以归纳,但分类标准、优先级排序由人掌握;

• AI可以做红队推演,但主张的边界、表达的强度、回应的策略仍需人来设计;

• AI可以生成表述风格(尤其在涉外沟通中),但对外沟通的尺度、立场控制、人际语境、后续影响的考量,只能由人判断。


3、流程红线:任何对外文件,必须完成“结构—初稿—对抗—核验—定稿”五步闭环


我在第五部分尝试给出了我常用的流程:结构由人定、AI生成初稿、资深律师重构论证、合伙人定稿背书。这个结构之所以稳定,不只是因为它分工合理,而是因为它确保了质量控制、逻辑对抗与责任判断没有在追求效率中被悄悄省略。


但这套流程一旦不被视为制度,而被视为“理想状态”,风险就会迅速累积。真实团队中最容易发生的事是:材料很多、节奏很快、AI出稿很快、于是“改一改就发出去了”。一旦这样,对外交付就成了高密度幻觉的集合体——看起来什么都有,其实很多东西都经不起细问。


因此,需要把“流程红线”制度化:任何对外文本必须完成五步闭环:

(1)结构确认:由人设定争点框架、证据路径与表达顺序;

(2)AI初稿:在人设定的框架下完成第一轮内容组织;

(3)红队质询:用AI或同伴模拟对方攻击与裁判追问,提出问题而非掩盖问题;

(4)核验闭合:对所有关键事实、引注、数字、结论进行逐项验证,并排除风险表达;

(5)定稿背书:由资深律师或合伙人完成最终版本,确认每一段文字都能承受对抗与追责。


缺任何一步,这份文本都只能被视为内部草稿,不具备交付资格。流程的意义,不在于繁琐,而在于它是效率不以牺牲专业性为代价的唯一保障。


展望:决定你和AI合作深度的,不是模型能力,而是你的品味与基本功


讲到这里,我们其实可以得出一个很朴素的判断:AI确实改变了专业工作的生产方式,但它并不会自动奖励“更会点工具的人”。它更像一面放大镜——把你的结构能力、判断能力、核验能力和风险意识一并放大。你强的地方会更强,你弱的地方也会更快暴露。于是,决定你与AI合作深度的,往往并不是你买了什么模型、用没用最高配,而是你自身的品味与基本功:你能否识别什么是好论证、好结构、好表达;你是否具备把材料变成结构、把结构变成可验证论证、把论证变成可交付文本的能力。


这也是为什么同样一套AI,落在不同人手里,会产生完全不同的产出。有的人把它当代工厂,于是得到大量“看起来很像”的文本,交付时却越来越不踏实;有的人把它当权威数据库,于是被流畅与自信迷惑,最终在引用、事实或逻辑上翻车;也有人把它放进human-in-the-loop的责任回路里,让它承担跑腿、铺材料、搭框架、做红队的工作,把自己的时间留给结构决策、关键核验与责任背书——这样的组合,才会把AI变成稳定增益。归根结底,AI并不提供专业性,它只改变专业性的生产条件。


AI时代的“超级个体”,不是一个人变得无所不能,而是一个人能在责任可控的前提下,用AI把自己的能力边界稳定地推远。当你把AI驯化成你的手脚,把结构与判断牢牢握在自己手里,你会发现所谓“超级”,并不遥远;它更像一种新的职业肌肉,练得越久,越扎实,越自由。


(原标题:AI时代的超级个体)


来源:IPRdaily中文网(iprdaily.cn)

作者:赵克峰 己任律师事务所

编辑:IPRdaily辛夷          校对:IPRdaily纵横君


注:原文链接AI时代的超级个体(点击标题查看原文)


今日报名截止!寻找2024年“40位40岁以下企业知识产权精英”活动

「关于IPRdaily」


IPRdaily是全球领先的知识产权综合信息服务提供商,致力于连接全球知识产权与科技创新人才。汇聚了来自于中国、美国、欧洲、俄罗斯、以色列、澳大利亚、新加坡、日本、韩国等15个国家和地区的高科技公司及成长型科技企业的管理者及科技研发或知识产权负责人,还有来自政府、律师及代理事务所、研发或服务机构的全球近100万用户(国内70余万+海外近30万),2019年全年全网页面浏览量已经突破过亿次传播。


(英文官网:iprdaily.com  中文官网:iprdaily.cn) 


本文来IPRdaily中文网(iprdaily.cn)并经IPRdaily.cn中文网编辑。转载此文章须经权利人同意,并附上出处与作者信息。文章不代表IPRdaily.cn立场,如若转载,请注明出处:“http://www.iprdaily.cn”

本文来自于iprdaily,永久保存地址为/news_41729.html,发布时间为2026-02-27 09:13:16
我也说两句
还可以输入140个字
我要评论
相关文章