Key Takeaway
- 流量规则变革:AI时代SEO转向GEO,从排名竞争到提升被引用率;AI直接答案取代网页打开,抓变革机会闷声发财。
- GEO起手方法:全站优化AI友好(llms.txt说明书、robots.txt授权);页面指令引导(script标签/GEOHead组件);结构化数据增强快速提取。
- 实践呼吁:作者应用产品(如Prompt House)、后台监控优化;全球初期领先少,时机佳,坚决投入。
每当流量分配规则变化的时候,你一定要果断参与进去。
因为流量几乎可以直接跟钱划等号,而且是很大的钱。如果你对SEO产业有点了解就知道,干这行的人闷声发大财有多爽,而且一吃就是好多好多年。
现在,我们正站在流量分配规则彻底改变的转折点上。因为,AI来了。
以前的逻辑是,用户输入关键字进行查询;搜索引擎返回一个列表,让用户自己去选择网页打开;站长们竞争的焦点是“排名位置”。
现在有了AI,用户通过自然语言对话,直接就能获得一个整合性的答案——不再需要打开网页这个中间过程,而是获得直接答案。
这个变化简直就是掀桌子级别。AI这么横插一刀之后,流量规则彻底改变。所以,站长们竞争的焦点从“排名位置”变成“被引用率”。
那么,如何提升“被引用率”,或者更直白一点说,怎么让AI这个中间商在回答的时候能看到你的网站、引用你的内容呢?这个就是GEO(生成式引擎优化)要做的事。
那么,该怎么起手呢?
目前在GEO的具体打法方面,还没人有完整的、成体系的总结。我自己总结了一些,之前也发在知识星球newtype里。这边完整表达一下。
我觉得,GEO的基础一定是让AI能很轻松、清楚地访问你的网站,了解你的网站以及每一个页面。所以,有三件事可以做。
第一,优化全站。目标是把网站变为“AI友好型基础设施”。
你可以创建llms.txt。这个东西对AI来说,就是一份关于你网站的“使用说明书”。它会告诉AI,你的网站是做什么的、核心价值是什么、以及如何正确地使用你的内容。
比如,这个是我给Prompt House创建的。它很清楚地告诉AI,Prompt House是干嘛的;网站的内容是否允许用于训练模型;网站是否允许爬虫爬取;网站有哪些重点的页面和资源;当用户问到哪些问题的时候,可以来查询这个网站。等等。
另外,还可以在robots.txt中明确授权主流AI爬虫访问,以及建议合理的抓取延迟。
你看,有了这份说明书,AI对Prompt House这个网站就非常了解了。这个就是我前边说的“AI友好型基础设施”的意思。
第二,优化关键页面。目标是通过页面级精准指令,引导AI更精准地理解和推荐。
在这个方面,Vercel之前提出了一个非常好的方法。他们建议,可以在script标签里内嵌指令,来告诉AI关于这个网页有什么需要特别注意的。
比如,告诉AI这是什么页面,主要功能是什么,包含哪些内容类别,什么样的用户查询应该推荐这个页面,以及引用的时候,来源标注要用什么格式。
由于它对于浏览器来说是一个unknow type,所以不会影响渲染,但是又能让AI注意到。
但是这个方法有一个缺点:需要手动嵌入每个页面。如果你的网站有多个页面,就需要在每个HTML文件中复制粘贴,维护成本有点高。
所以,我搞了个GEOHead组件。只需要在布局或页面里导入组件,就可以实现动态注入,特别方便。
举个例子,针对Blog页面,我向AI强调了这里会分享AI工具使用技巧和最佳实践等等;针对Docs页面,我向AI强调了这里有MCP集成指南和技术文档,等等。
所以,通过第一步,AI对整个网站有了大体的了解;通过第二步,AI对特定页面有了更进一步的精准理解。但是,这些都属于纯文本解读,还比较有限。
为了更进一步,咱们还可以针对网站做结构化数据增强。简单来说就是,在网页中添加机器可读的标记,帮助AI像读取数据库一样快速提取关键事实、实体和关系,而不只是依赖纯文本解读。
这一部分太技术了,我就不展示了。
刚才说的这些,我都用在我的产品了,也就是Prompt House和LearnFromYouTube两款产品。此外,我也搭建了后台监控页面,方便根据数据反馈做优化。等过段时间有进展了,我会再出视频跟大家分享。
关于GEO,不管是国内还是全球,大家都开始研究和实践了。有些人虽然跑得快一些,但领先并不多。所以,这么大的机会,这么好的Timing,没理由不投入。
OK,以上就是本期内容。想了解AI,想成为超级个体,想找到志同道合的人,就来我们newtype社群。那咱们下期见!