<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
  <channel>
    <title>调研报告 on 卓琪的开发笔记</title>
    <link>https://zhuoqidev.com/categories/%E8%B0%83%E7%A0%94%E6%8A%A5%E5%91%8A/</link>
    <description>Recent content in 调研报告 on 卓琪的开发笔记</description>
    <generator>Hugo -- gohugo.io</generator>
    <language>zh-CN</language>
    <copyright>© 2026 Liu ZhuoQi</copyright>
    <lastBuildDate>Mon, 04 May 2026 00:00:00 +0000</lastBuildDate><atom:link href="https://zhuoqidev.com/categories/%E8%B0%83%E7%A0%94%E6%8A%A5%E5%91%8A/index.xml" rel="self" type="application/rss+xml" />
    
    <item>
      <title>大模型为什么没有记忆——67 条一手资料的交叉验证</title>
      <link>https://zhuoqidev.com/posts/llm-memory-research/</link>
      <pubDate>Mon, 04 May 2026 00:00:00 +0000</pubDate>
      
      <guid>https://zhuoqidev.com/posts/llm-memory-research/</guid>
      <description>&lt;p&gt;这不是一篇&amp;quot;AI 科普&amp;quot;——这是一次用 Exa / Tavily / Context7 / WebSearch 四源交叉验证，覆盖 &lt;strong&gt;67 条一手资料&lt;/strong&gt; 的硬核调研。如果你在给 Agent 系统设计记忆层，或者想搞清楚 ChatGPT Memory / Claude Memory / Cursor Rules 到底是怎么回事，这篇是你要看的东西。&lt;/p&gt;&#xA;&lt;p&gt;&lt;strong&gt;→ &lt;a href=&#34;https://zhuoqidev.com/projects/llm-memory-research/&#34; &gt;完整报告（含 14 产品对比表、9 条工程结论、3 年范式演进地图）&lt;/a&gt;&lt;/strong&gt;&lt;/p&gt;&#xA;&lt;hr&gt;&#xA;&#xA;&lt;h2 class=&#34;relative group&#34;&gt;一句话结论&#xA;    &lt;div id=&#34;一句话结论&#34; class=&#34;anchor&#34;&gt;&lt;/div&gt;&#xA;    &#xA;    &lt;span&#xA;        class=&#34;absolute top-0 w-6 transition-opacity opacity-0 -start-6 not-prose group-hover:opacity-100 select-none&#34;&gt;&#xA;        &lt;a class=&#34;text-primary-300 dark:text-neutral-700 !no-underline&#34; href=&#34;#%e4%b8%80%e5%8f%a5%e8%af%9d%e7%bb%93%e8%ae%ba&#34; aria-label=&#34;锚点&#34;&gt;#&lt;/a&gt;&#xA;    &lt;/span&gt;&#xA;    &#xA;&lt;/h2&gt;&#xA;&lt;p&gt;所谓「大模型没有记忆」不是疏忽，而是 &lt;strong&gt;O(n²) 注意力 + KV Cache 显存 + 灾难性遗忘 + GDPR 合规&lt;/strong&gt; 四重约束的均衡解。ChatGPT / Claude / Cursor 的 &amp;ldquo;Memory&amp;rdquo; 本质都是把结构化文本 &lt;strong&gt;塞回 system prompt&lt;/strong&gt;，模型权重永远不动。未来 1–3 年的主流是 &lt;strong&gt;「无状态 LLM 内核 + 有状态 Agent 记忆层」&lt;/strong&gt; 混合架构。&lt;/p&gt;</description>
      
    </item>
    
  </channel>
</rss>
