GEO冷启动30天实录:新网站从0到被AI引用的全过程

网上讲GEO理论的很多,讲实操的少,讲”从零开始到底会发生什么”的几乎没有。

这篇文章就是一个完整记录。我从一个全新的域名开始,30天内做了什么、遇到了什么、每天的数据变化,全部写出来。不是理论推演,是真实过程。

## 起点:一个什么都没有的新域名

域名是3月中旬注册的,.com后缀,和GEO无关的行业。网站用WordPress搭建,选了一个轻量主题,加载速度控制在2秒以内。没有任何历史内容,没有任何外链,搜索引擎收录为零。

行业选择:本地生活服务。原因是这个行业搜索量大、竞争相对分散、AI引用率有提升空间。

目标:30天内让这个网站的内容至少被一个AI搜索平台引用一次。

## 第1-7天:基础建设和首批内容

第1天做的事情:

给网站装了Rank Math插件,配置了Article和FAQ的Schema标记。创建了3个分类:行业知识、常见问题、实操指南。每个分类写了分类描述(AI爬虫会读这些描述来理解网站主题)。

第2-3天:

写了4篇文章,每篇2000字以上。选题策略是”高频长尾词”:不是写”XX行业怎么做”这种大词,而是写”XX行业在XX城市怎么做””XX行业XX问题怎么解决”这种具体问题。

为什么选长尾词?因为新网站没有任何权重,大词根本排不进去。但长尾词竞争小,AI搜索结果中高质量内容少,你的文章更容易被选中。

文章结构全部用”问题诊断型”模板:症状→原因→解决方案→验证方法。这个结构对AI引用最友好。

第4-5天:

把这4篇文章同步到了知乎(回答相关问题,附原文链接)、公众号(全文发布)、小红书(提炼成图文笔记)。

注意:知乎不是简单发文章,而是找相关问题来回答。比如文章写的是”XX城市家政服务怎么选靠谱的”,就去知乎搜相关问题,写一个300字的回答,末尾附上原文链接。这样既获得了知乎的流量,又给AI爬虫提供了”从知乎到官网”的信任路径。

第6-7天:

又写了3篇文章。同时在每篇文章里加了”作者信息”:真名、从业年限、处理过的案例数量。前面说过,署名文章的AI引用率比匿名高40%。

第7天结束时的数据:
– 网站文章数:7篇
– 知乎回答:4条
– 公众号文章:4篇
– 百度收录:0页
– AI引用:0次

不意外。才一周,AI爬虫还没来过。

## 第8-14天:内容积累和分发加速

第8-10天:

又写了5篇文章。这时候我已经摸清了这个行业的写作节奏:每篇文章大概2小时,包括选题、写作、配图。

选题方法迭代了一次。最初是凭感觉选题,第8天开始用5118的免费版导出搜索词,筛选出”怎么办””哪个好””怎么选”这类决策型搜索词。发现有好几个搜索量不错但几乎没有优质内容的词,果断拿下。

第11-12天:

做了一件很多人忽略的事:给每篇旧文章加了”最近更新”标注,并且真正更新了内容——补充了最新的行业数据、修正了一处过时信息。这一步的目的是提高内容的时效性评分。

AI搜索对时效性越来越敏感。同样一篇讲行业趋势的文章,标注”2026年3月更新”的比”2025年6月发布”的引用优先级高。这不是猜测,是实测结果。

第13-14天:

开始在小红书上发图文笔记。小红书和GEO的关系比较微妙:AI爬虫不太爬小红书的图文笔记,但小红书笔记会出现在百度搜索结果里,而AI搜索会引用百度收录的小红书内容。所以小红书是间接获客渠道。

第14天结束时的数据:
– 网站文章数:12篇
– 知乎回答:8条
– 公众号文章:8篇
– 百度收录:3页(终于开始收录了)
– AI引用:0次

百度开始收录了,这是个好信号。百度收录是AI搜索发现你的前提条件之一。

## 第15-21天:出现第一个信号

第15-17天:

继续写了5篇文章。到这时候写文章已经很熟练了,选题→写作→发布→分发,整个流程2小时内完成。

同时做了一件新事:在文章里主动引用行业报告和官方数据。比如引用了商务部2025年发布的本地生活服务行业报告、国家统计局的相关数据。引用的时候标注了来源和发布时间。

为什么这么做?因为AI在评估内容可信度的时候,会看你的数据来源是否可靠。你引用了商务部报告,AI会认为你的内容”有据可查”。

第18天:关键转折

在豆包搜索了几个核心关键词,发现其中2个关键词的搜索结果里,出现了我知乎回答里的内容。虽然不是直接引用,但AI在组织答案的时候明显参考了我写的内容——措辞和逻辑链和我的回答高度相似。

这是第一个信号。AI开始”看到”我的内容了。

第19-21天:

趁热打铁,针对那2个被”间接引用”的关键词,各写了1篇更深入的文章,发在官网和公众号上。同时在知乎上发了更详细的回答。

逻辑是:既然AI已经对这个话题有偏好了,我就提供更高质量的版本,让AI从”间接参考”升级为”直接引用”。

第21天结束时的数据:
– 网站文章数:17篇
– 知乎回答:12条
– 公众号文章:12篇
– 百度收录:11页
– AI引用:2次间接引用(豆包)

## 第22-30天:突破

第22-25天:

继续保持每天1-2篇的产出。同时开始关注一个新指标:AI引用的稳定性。之前2次间接引用是”偶尔出现”,不是每次搜索都有。

为了提高稳定性,做了两件事:

第一,给所有文章加上了”相关阅读”链接,形成内部链接网络。AI爬虫来了之后,能顺着内部链接发现更多内容。一个被多次内部引用的页面,在AI眼里的权重会高一些。

第二,在3个行业相关的百度贴吧发了帖子(不是广告,是真心回答问题),附了官网链接。贴吧是百度生态的一部分,百度爬虫对贴吧内容的抓取频率很高。这相当于给AI搜索提供了一条”从百度生态发现你”的路径。

第26天:正式被引用

在Kimi搜索一个核心关键词,搜索结果里直接引用了我公众号的文章。不是间接参考,是直接引用——AI在答案中标注了来源,列出了我文章的核心观点。

这一刻等了26天。

第27-30天:

继续产出内容,但节奏稍微放缓了——从每天1-2篇降到了每天1篇。因为积累到17篇之后,量已经不是主要矛盾了,质才是。

用省下来的时间做了一件事:复盘前26天的数据,分析哪些文章被AI引用了、哪些没有。发现一个规律:被引用的4篇文章(2次间接+2次直接),全部是”问题诊断型”或”步骤实操型”结构。而”行业趋势分析”类的文章,一篇都没被引用。

这验证了之前说的:AI更喜欢”帮用户解决问题”的内容,而非”帮用户了解趋势”的内容。至少在冷启动阶段是这样。

第30天结束时的数据:
– 网站文章数:22篇
– 知乎回答:15条
– 公众号文章:15篇
– 百度收录:18页
– AI引用:4次(2次间接+2次直接,分布在豆包和Kimi)
– DeepSeek引用:0次

DeepSeek一篇都没引用。不意外,DeepSeek对逻辑链要求最高,而我这30天写的文章偏向实用型,推理过程不够严谨。这是下一步要改进的方向。

## 这30天的5个关键发现

第一,内容质量比数量重要,但没有数量就没有质量被发现的机会。22篇文章里只有4篇被引用,但如果没有那18篇”没被引用”的文章,AI爬虫根本不会频繁来你的网站。

第二,多平台分发不是可选,是必须。我的4次引用,2次来自知乎,2次来自公众号,0次来自官网。官网权重太低,冷启动阶段基本靠第三方平台。

第三,时效性是低成本的提升手段。更新旧文章的成本远低于写新文章,但对AI引用率的效果差不多。第11天更新了3篇旧文章,第18天就看到了效果。

第四,长尾词是新网站的朋友。大词排不进去,长尾词的竞争小、AI搜索结果中的优质内容少。先从长尾词突破,再逐步向大词推进。

第五,署名真的有用。我把有署名的文章和没署名的文章做了对比(内容质量相当),署名版在AI搜索结果中的出现率确实更高。

## 下一个30天的计划

1. 补充逻辑推导型内容,争取被DeepSeek引用
2. 尝试”对比决策型”文章模板
3. 开始做外链建设(行业媒体投稿)
4. 给所有文章添加FAQ Schema标记
5. 目标:AI引用次数从4次提升到15次以上

冷启动最难的不是做对事情,是坚持做。30天4次引用,平均每周1次,看起来不起眼。但GEO是复利游戏——第2个30天会比第1个快,第3个会比第2个快。关键是不要在第14天放弃。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注