真的,Google DeepMind 的 CEO Demis Hassabis 每一期访谈我觉得值得都花时间看看。这哥们讲东西很实在,而且通俗易懂。
早上边跑步边听完了他和 YC CEO Garry Tan 的最新一期播客。
刚刚把笔记写完,也给大家分享下。
多说一句,好多人问我这种笔记是不是 AI 写的。我说下自己的流程。
我会先完整听完播客,然后用语音输入法把感触尽量充分地讲出来,再让 AI 帮着整理初稿,最后自己逐字修改优化。
如果全部交给 AI 做总结,那等于把思考和理解的能力让渡给了 AI,对自己理解这件事其实没有任何价值。
OK,咱们进正题。
1
Demis 的态度非常明确,现在的大模型范式(大规模预训练 + RLHF + CoT)一定会是 AGI 最终架构的一部分,他不认为这会是条死路。
但要实现 AGI,还有几个关键问题要解决。这几个问题包括:持续学习、长程推理和记忆系统。
先从最容易看到的现象讲起,Context Window。
现在大模型处理长信息,最常用的招就是把 Context Window 一直撑大。一开始 8k,后来 32k,再后来 100 万 Token。听起来很厉害,但本质上是暴力堆砌。
Context Window 其实就相当于人脑里的 Working Memory,工作记忆。人的工作记忆能同时装多少东西?心理学里有个经典数字,7 个左右。背电话号码能记住 7 位上下,再多就溢出了。
大模型呢?已经做到 100 万 Token。
按理说,模型的工作记忆比人大几十万倍,应该比人聪明几十万倍才对。但显然不是。
问题也恰恰就出现在这。把所有东西都塞进 Context Window 里,里面包含了不重要的东西、错的东西、过时的东西。看起来信息很多,其实是一团乱麻。
那人为什么 7 个数字的工作记忆就够用?
因为人脑背后还有另一套机制在工作。我们记得几年前的事,记得童年的事,记得几小时前发生的事。这些都不塞在工作记忆里,而是另一套系统。
具体来说这套系统是海马体,大脑里负责把新知识整合进已有知识库的那个部分。
研究发现,人睡觉的时候,特别是 REM 睡眠阶段,大脑会重放白天重要的片段,让大脑从中学习。新东西在睡觉的过程里,温柔地融进了旧的知识体系。
这个把新东西融进旧知识库的过程,就是持续学习。
模型现在没有这套机制。每一次对话结束,刚学到的东西就会忘记。下次重新打开,还是上次那个模型,没长进。
2
再聊聊长程推理的问题。英文表达是 Long-term Reasoning。我翻译为了长程。
长程推理这个词太抽象了。Demis 讲了一个特别具体的故事,听完会立刻明白他说的是什么。
他说自己喜欢跟 Gemini 下国际象棋。下棋的过程里能看到模型的 thinking trace,也就是它在那里到底想了什么。
然后他发现一件怪事。
模型考虑一步棋的时候,思考链里清清楚楚写着,这步是个昏招。但接下来,它没找到更好的走法,于是又走回这步昏招。
明明知道是错的,还是把错的那一步走出去了。
这个细节比任何 benchmark 数据都说明问题。因为它暴露的是模型缺少对自己思考过程的某种内省能力。
正常人下棋,意识到一步是昏招之后,脑子里会有一个反应,停一下,再想想。停一下、再想想这个能力,模型现在没有。它能在每一步局部判断对错,但没法基于整盘棋的局势去调整整体策略。
这就是长程推理还没搞定的样子。模型可以一步一步往前走,每一步看起来都合理,但走到后面整盘棋的方向其实是错的。它没有那种退回到当前思考的上一层、重新审视一下的能力。
说到底,模型缺的是一种内省。
3
学习、长程推理、记忆,这是 Demis 在播客里点出来的三个 AGI 鸿沟。
除此之外,他还反复提到了创造力。
2016 年 AlphaGo 跟李世石下棋,第二局走出了著名的 Move 37。那一步棋走出来的瞬间,全世界的围棋高手都看呆了。
所有人类几千年下围棋积累的经验都告诉它不该下那里,但 AlphaGo 下了。下完之后大家发现,是一步神来之笔。
很多人觉得,这就是 AI 的创造力来了。
但 Demis 说,对他自己来说,Move 37 只是起点。他真正想看到的是另一件事。AI 能不能发明围棋这件事本身。
这两件事的区别非常关键。
Move 37 是在围棋这个现成的规则里,找到了一步人类没想到的招。但围棋的规则、棋盘的形状、黑白子的对弈方式,是人类发明出来的。AI 在已有的框架里非常厉害,但能不能自己造一个框架,是另外一回事。
Demis 给了一个具体的设想。
如果给 AI 一个高层次的描述。造一个游戏,五分钟能学会规则,要好几辈子才能精通,棋局有审美,一下午能下完一局。AI 能不能根据这个描述,自己倒推出围棋?
目前做不到。
为了把这件事讲得更清楚,Demis 还提了一个测试,他自己叫爱因斯坦测试。
用 1901 年人类已有的全部知识训练一个模型,看它能不能在 1905 年那个时间点,自己推出狭义相对论。
爱因斯坦在 1905 年那一年里,连写了几篇改变物理学的论文,后来叫爱因斯坦奇迹年。那些工作不是从已有的物理学论文里通过拼接得到的,是基于已有材料做了一次全新的概念跳跃。
爱因斯坦测试想问的就是这件事。AI 能不能做这种跳跃。
目前的大模型主要在做两件事,pattern matching 和 extrapolation。一个是从大量数据里找规律,一个是把规律往外延伸一点。但发现新东西需要的是类比推理的能力。从一个领域里抽出深层结构,搬到另一个全新的领域去用。
这个能力,模型现在还没有。也可能是有,但用法不对所以激发不出来。
4
除此之外,Demis 还分享了一个让我特别出乎意料的判断,他说未来 6 到 12 个月,真正的价值不在更大的模型,在更小的模型。
这一部分内容我反复听了好几次,确实突破我的已有认知。
不知道大家的想法,反正我自己,这一年来并没有怎么关注小模型的进展。毕竟行业的焦点就是把模型做大嘛。
那小模型的价值到底在哪?
最直接的是成本。同样一个任务,小模型的推理价格可能只是前沿模型的十分之一甚至更少。
但 Demis 说,比成本更重要的其实是速度。
这里有一个前提得先说清楚。Demis 不是在说速度可以替代智能。
他的原话是,当小模型的能力已经达到前沿模型的 90% 到 95%,也就是已经相当不错的时候,剩下那 5% 到 10% 的能力差距,比不上速度带来的好处。
比如现在工程师用 AI 写代码,已经形成了一种新的工作节奏。一个想法冒出来,几秒之内就能看到结果,不行就改,再不行再改。
这个一改再改的循环跑得越快,做出来的东西就越好。如果每次调用都要等十秒,整个工作流就被打断了。
更关键的是,快到一定程度,工程师在这种节奏里能进入心流。一个想法、一次尝试、一个反馈、再来一个想法,思维不被打断。
这件事写过代码的人都懂,进入心流和频繁掉出心流,产出的差距是数量级的。
Agent 也是同样的逻辑。一个 Agent 跑完一个任务可能要调几十次模型,每次慢一秒,整个任务就慢一分钟。慢到一定程度,Agent 就从一个能用的东西变成鸡肋。
小模型不是大模型的廉价替代品。有些事只有小模型能做。
比如手机、眼镜、家用机器人,需要的就是一个能在本地跑起来的模型。本地跑除了反应快,还有一个特别重要的好处,隐私。
家里机器人看到的视频、听到的对话,全部在设备本地处理,根本不上云。这件事对很多用户来说不是加分项,是底线。
成本、速度、边缘部署,这是小模型的价值。
5
讲完小模型的价值,接下来一个更关键的问题是,能力被压到这么小的参数里,会不会有上限?
Demis 的判断是,目前没看到信息密度有任何理论上限。小模型的智能天花板还远没看到。
支撑这个判断的,是 DeepMind 在蒸馏这件事上的积累。蒸馏简单说就是先训练一个超大的模型,然后用这个超大模型去教一个小模型。教完之后,小模型用极少的参数,能复现原来 95% 以上的能力。
为什么 DeepMind 这么重视蒸馏?因为要把 AI 能力放进谷歌的头部产品中,前提是低延迟、低成本。前沿模型再强,每次推理花几秒钟、花几毛钱...这条路,恐怕很难走得通。
一个前沿模型发布之后,6 到 12 个月内,他们就能把这个模型的能力蒸馏到边缘设备能跑的小模型上去。这个时间表比很多人想的要快。
在很多场景中,小模型和大模型会相互配合。
举个例子,一个端到端的智能助手,绝大部分日常任务在本地的小模型上跑。智能眼镜看到的画面、家里机器人听到的对话、手机里的私人助理,模型直接在设备里读懂,不需要往云端传一遍。
只有遇到特别复杂、本地搞不定的问题,才向云端的前沿模型发起请求。
也就是说小模型在边缘做主力,前沿模型在云端做后援。
不过,这个构想对小模型的要求也比较高,它不能只会处理文字,还得能理解物理世界。
这就是为什么 Gemini 从一开始就坚持多模态,不光处理文字,也处理图像、视频、声音。
一开始这么做比只做文本要难得多,但眼镜也好,机器人也好,需要的是一个能看懂周围世界的模型,不是一个只会聊天的模型。
讲到这里,小模型这条路的轮廓就完全清楚了。它独立成立,不是前沿模型的廉价替代品,而是另一条同样重要的路。
嗯,很有启发。
早上边跑步边听完了他和 YC CEO Garry Tan 的最新一期播客。
刚刚把笔记写完,也给大家分享下。
多说一句,好多人问我这种笔记是不是 AI 写的。我说下自己的流程。
我会先完整听完播客,然后用语音输入法把感触尽量充分地讲出来,再让 AI 帮着整理初稿,最后自己逐字修改优化。
如果全部交给 AI 做总结,那等于把思考和理解的能力让渡给了 AI,对自己理解这件事其实没有任何价值。
OK,咱们进正题。
1
Demis 的态度非常明确,现在的大模型范式(大规模预训练 + RLHF + CoT)一定会是 AGI 最终架构的一部分,他不认为这会是条死路。
但要实现 AGI,还有几个关键问题要解决。这几个问题包括:持续学习、长程推理和记忆系统。
先从最容易看到的现象讲起,Context Window。
现在大模型处理长信息,最常用的招就是把 Context Window 一直撑大。一开始 8k,后来 32k,再后来 100 万 Token。听起来很厉害,但本质上是暴力堆砌。
Context Window 其实就相当于人脑里的 Working Memory,工作记忆。人的工作记忆能同时装多少东西?心理学里有个经典数字,7 个左右。背电话号码能记住 7 位上下,再多就溢出了。
大模型呢?已经做到 100 万 Token。
按理说,模型的工作记忆比人大几十万倍,应该比人聪明几十万倍才对。但显然不是。
问题也恰恰就出现在这。把所有东西都塞进 Context Window 里,里面包含了不重要的东西、错的东西、过时的东西。看起来信息很多,其实是一团乱麻。
那人为什么 7 个数字的工作记忆就够用?
因为人脑背后还有另一套机制在工作。我们记得几年前的事,记得童年的事,记得几小时前发生的事。这些都不塞在工作记忆里,而是另一套系统。
具体来说这套系统是海马体,大脑里负责把新知识整合进已有知识库的那个部分。
研究发现,人睡觉的时候,特别是 REM 睡眠阶段,大脑会重放白天重要的片段,让大脑从中学习。新东西在睡觉的过程里,温柔地融进了旧的知识体系。
这个把新东西融进旧知识库的过程,就是持续学习。
模型现在没有这套机制。每一次对话结束,刚学到的东西就会忘记。下次重新打开,还是上次那个模型,没长进。
2
再聊聊长程推理的问题。英文表达是 Long-term Reasoning。我翻译为了长程。
长程推理这个词太抽象了。Demis 讲了一个特别具体的故事,听完会立刻明白他说的是什么。
他说自己喜欢跟 Gemini 下国际象棋。下棋的过程里能看到模型的 thinking trace,也就是它在那里到底想了什么。
然后他发现一件怪事。
模型考虑一步棋的时候,思考链里清清楚楚写着,这步是个昏招。但接下来,它没找到更好的走法,于是又走回这步昏招。
明明知道是错的,还是把错的那一步走出去了。
这个细节比任何 benchmark 数据都说明问题。因为它暴露的是模型缺少对自己思考过程的某种内省能力。
正常人下棋,意识到一步是昏招之后,脑子里会有一个反应,停一下,再想想。停一下、再想想这个能力,模型现在没有。它能在每一步局部判断对错,但没法基于整盘棋的局势去调整整体策略。
这就是长程推理还没搞定的样子。模型可以一步一步往前走,每一步看起来都合理,但走到后面整盘棋的方向其实是错的。它没有那种退回到当前思考的上一层、重新审视一下的能力。
说到底,模型缺的是一种内省。
3
学习、长程推理、记忆,这是 Demis 在播客里点出来的三个 AGI 鸿沟。
除此之外,他还反复提到了创造力。
2016 年 AlphaGo 跟李世石下棋,第二局走出了著名的 Move 37。那一步棋走出来的瞬间,全世界的围棋高手都看呆了。
所有人类几千年下围棋积累的经验都告诉它不该下那里,但 AlphaGo 下了。下完之后大家发现,是一步神来之笔。
很多人觉得,这就是 AI 的创造力来了。
但 Demis 说,对他自己来说,Move 37 只是起点。他真正想看到的是另一件事。AI 能不能发明围棋这件事本身。
这两件事的区别非常关键。
Move 37 是在围棋这个现成的规则里,找到了一步人类没想到的招。但围棋的规则、棋盘的形状、黑白子的对弈方式,是人类发明出来的。AI 在已有的框架里非常厉害,但能不能自己造一个框架,是另外一回事。
Demis 给了一个具体的设想。
如果给 AI 一个高层次的描述。造一个游戏,五分钟能学会规则,要好几辈子才能精通,棋局有审美,一下午能下完一局。AI 能不能根据这个描述,自己倒推出围棋?
目前做不到。
为了把这件事讲得更清楚,Demis 还提了一个测试,他自己叫爱因斯坦测试。
用 1901 年人类已有的全部知识训练一个模型,看它能不能在 1905 年那个时间点,自己推出狭义相对论。
爱因斯坦在 1905 年那一年里,连写了几篇改变物理学的论文,后来叫爱因斯坦奇迹年。那些工作不是从已有的物理学论文里通过拼接得到的,是基于已有材料做了一次全新的概念跳跃。
爱因斯坦测试想问的就是这件事。AI 能不能做这种跳跃。
目前的大模型主要在做两件事,pattern matching 和 extrapolation。一个是从大量数据里找规律,一个是把规律往外延伸一点。但发现新东西需要的是类比推理的能力。从一个领域里抽出深层结构,搬到另一个全新的领域去用。
这个能力,模型现在还没有。也可能是有,但用法不对所以激发不出来。
4
除此之外,Demis 还分享了一个让我特别出乎意料的判断,他说未来 6 到 12 个月,真正的价值不在更大的模型,在更小的模型。
这一部分内容我反复听了好几次,确实突破我的已有认知。
不知道大家的想法,反正我自己,这一年来并没有怎么关注小模型的进展。毕竟行业的焦点就是把模型做大嘛。
那小模型的价值到底在哪?
最直接的是成本。同样一个任务,小模型的推理价格可能只是前沿模型的十分之一甚至更少。
但 Demis 说,比成本更重要的其实是速度。
这里有一个前提得先说清楚。Demis 不是在说速度可以替代智能。
他的原话是,当小模型的能力已经达到前沿模型的 90% 到 95%,也就是已经相当不错的时候,剩下那 5% 到 10% 的能力差距,比不上速度带来的好处。
比如现在工程师用 AI 写代码,已经形成了一种新的工作节奏。一个想法冒出来,几秒之内就能看到结果,不行就改,再不行再改。
这个一改再改的循环跑得越快,做出来的东西就越好。如果每次调用都要等十秒,整个工作流就被打断了。
更关键的是,快到一定程度,工程师在这种节奏里能进入心流。一个想法、一次尝试、一个反馈、再来一个想法,思维不被打断。
这件事写过代码的人都懂,进入心流和频繁掉出心流,产出的差距是数量级的。
Agent 也是同样的逻辑。一个 Agent 跑完一个任务可能要调几十次模型,每次慢一秒,整个任务就慢一分钟。慢到一定程度,Agent 就从一个能用的东西变成鸡肋。
小模型不是大模型的廉价替代品。有些事只有小模型能做。
比如手机、眼镜、家用机器人,需要的就是一个能在本地跑起来的模型。本地跑除了反应快,还有一个特别重要的好处,隐私。
家里机器人看到的视频、听到的对话,全部在设备本地处理,根本不上云。这件事对很多用户来说不是加分项,是底线。
成本、速度、边缘部署,这是小模型的价值。
5
讲完小模型的价值,接下来一个更关键的问题是,能力被压到这么小的参数里,会不会有上限?
Demis 的判断是,目前没看到信息密度有任何理论上限。小模型的智能天花板还远没看到。
支撑这个判断的,是 DeepMind 在蒸馏这件事上的积累。蒸馏简单说就是先训练一个超大的模型,然后用这个超大模型去教一个小模型。教完之后,小模型用极少的参数,能复现原来 95% 以上的能力。
为什么 DeepMind 这么重视蒸馏?因为要把 AI 能力放进谷歌的头部产品中,前提是低延迟、低成本。前沿模型再强,每次推理花几秒钟、花几毛钱...这条路,恐怕很难走得通。
一个前沿模型发布之后,6 到 12 个月内,他们就能把这个模型的能力蒸馏到边缘设备能跑的小模型上去。这个时间表比很多人想的要快。
在很多场景中,小模型和大模型会相互配合。
举个例子,一个端到端的智能助手,绝大部分日常任务在本地的小模型上跑。智能眼镜看到的画面、家里机器人听到的对话、手机里的私人助理,模型直接在设备里读懂,不需要往云端传一遍。
只有遇到特别复杂、本地搞不定的问题,才向云端的前沿模型发起请求。
也就是说小模型在边缘做主力,前沿模型在云端做后援。
不过,这个构想对小模型的要求也比较高,它不能只会处理文字,还得能理解物理世界。
这就是为什么 Gemini 从一开始就坚持多模态,不光处理文字,也处理图像、视频、声音。
一开始这么做比只做文本要难得多,但眼镜也好,机器人也好,需要的是一个能看懂周围世界的模型,不是一个只会聊天的模型。
讲到这里,小模型这条路的轮廓就完全清楚了。它独立成立,不是前沿模型的廉价替代品,而是另一条同样重要的路。
嗯,很有启发。
❤1
看到一个「专为程序员编写的英语学习指南」,没有啥务虚的东西,教程通过深挖语言学习的本质,并用程序员易于理解的方式去思考,提供自己根据本质推演出来的训练方法和经验做参考,整体而言很理性也很有逻辑,适合想学习好英语的同学。
🤖 https://a-programmers-guide-to-english.harryyu.me/
互联网充电站
🤖 https://a-programmers-guide-to-english.harryyu.me/
互联网充电站
上系统,数字化转型常见场景:一群人喊口号立项,过程推诿甩锅,结果it背锅
业务部门只口嗨不提供逻辑,当业务进系统时,所有模糊地带,都要拆开具体详细定义。
这个时候,业务部门退缩了,因为想清楚逻辑太痛苦了,重构太得罪人。
数字化的本质就是流程在造。而不是一味甩锅系统
业务部门只口嗨不提供逻辑,当业务进系统时,所有模糊地带,都要拆开具体详细定义。
这个时候,业务部门退缩了,因为想清楚逻辑太痛苦了,重构太得罪人。
数字化的本质就是流程在造。而不是一味甩锅系统
分享几个最近比较火的roblox游戏词
🥇 Kick a Lucky Block | 并发 266.9K | Rating 96% | Genre Tycoon | 上线 ~26天 | Google Trends: 🟢 Explosive Growth | 入选评级:高确定性
战略理由:
- 上线仅 26 天(2026-04-07)即冲至全平台顶流,CCU 265K+,是2026年最快爆发的新游戏
- Genre=Tycoon,完全符合内容站选题热区(数值通胀、收藏体系、rebirth经济)
- Google Trends 呈现教科书级「Launch Spike」曲线,搜索量仍在上升通道
- 成熟 Lucky Block 机制在 Roblox 有稳定受众基础,流量天花板极高
- 内容潜力:攻略/模组/作弊码视频 TikTok 传播链路清晰,SEO 长尾词池已初步形成
---
🥈 Slime RNG | 并发 85.9K | Rating 98% | Genre Simulator | 上线 ~2个月 | Google Trends: 🟡 Early Stage → Declining | 入选评级:高潜力
战略理由:
- Genre=Simulator,RNG 机制天然驱动重复游玩和内容消费
- Rating 98% 为本次候选中最高,口碑极强,玩家粘性高
- 2月上线至今(~2个月)已沉淀稳定 CCU 80K+,属于成熟期新作
- 注意:Google Trends 峰值已过(3月底 ~85分),现处于 ~50分下降通道,需评估是否已进入「平台期」
- 内容潜力:RNG 掉落表/概率分析、速通攻略、稀有 Slime 图鉴具有病毒传播潜力
---
🥉 My Knife Farm | 并发 17.6K | Rating 96% | Genre Simulator/Tycoon | 上线 ~3个月 | Google Trends: 🟢 Early Stage Growth | 入选评级:高潜力
战略理由:
- 上线仅 3 个月,4月内从 #80 火箭式攀升至 #9(bloxcontrol 数据)
- 96% Rating + 稳定的 17K CCU 表明游戏质量扎实
- Google Trends 显示持续攀升,尚未触顶,内容热度还在爬坡
- Genre=Simulator/Tycoon 与内容站长尾词高度匹配
- 内容潜力:「Farm」类题材在搜索端有稳定需求;Switch Arts 团队更新频率活跃。
🥇 Kick a Lucky Block | 并发 266.9K | Rating 96% | Genre Tycoon | 上线 ~26天 | Google Trends: 🟢 Explosive Growth | 入选评级:高确定性
战略理由:
- 上线仅 26 天(2026-04-07)即冲至全平台顶流,CCU 265K+,是2026年最快爆发的新游戏
- Genre=Tycoon,完全符合内容站选题热区(数值通胀、收藏体系、rebirth经济)
- Google Trends 呈现教科书级「Launch Spike」曲线,搜索量仍在上升通道
- 成熟 Lucky Block 机制在 Roblox 有稳定受众基础,流量天花板极高
- 内容潜力:攻略/模组/作弊码视频 TikTok 传播链路清晰,SEO 长尾词池已初步形成
---
🥈 Slime RNG | 并发 85.9K | Rating 98% | Genre Simulator | 上线 ~2个月 | Google Trends: 🟡 Early Stage → Declining | 入选评级:高潜力
战略理由:
- Genre=Simulator,RNG 机制天然驱动重复游玩和内容消费
- Rating 98% 为本次候选中最高,口碑极强,玩家粘性高
- 2月上线至今(~2个月)已沉淀稳定 CCU 80K+,属于成熟期新作
- 注意:Google Trends 峰值已过(3月底 ~85分),现处于 ~50分下降通道,需评估是否已进入「平台期」
- 内容潜力:RNG 掉落表/概率分析、速通攻略、稀有 Slime 图鉴具有病毒传播潜力
---
🥉 My Knife Farm | 并发 17.6K | Rating 96% | Genre Simulator/Tycoon | 上线 ~3个月 | Google Trends: 🟢 Early Stage Growth | 入选评级:高潜力
战略理由:
- 上线仅 3 个月,4月内从 #80 火箭式攀升至 #9(bloxcontrol 数据)
- 96% Rating + 稳定的 17K CCU 表明游戏质量扎实
- Google Trends 显示持续攀升,尚未触顶,内容热度还在爬坡
- Genre=Simulator/Tycoon 与内容站长尾词高度匹配
- 内容潜力:「Farm」类题材在搜索端有稳定需求;Switch Arts 团队更新频率活跃。
看到很多博主推荐 Typeless 的文章,都出现了这个问题:失去了个性化表达,越来也转向模板化表达。
我付费了 Typeless 之后,重度体验了一下,感受是:语音转文字的AI功能,只是充当了翻译工作外加润色而已,如果写作的人失去了文风和个人的表达习惯,这就适得其反。这不是在写作,而是在批量机械式生产。
面向自己表达,是先注重「工具价值」;面向读者写作,还需要注重「情绪价值」和感染力。请不要丢掉内容的灵魂。
我付费了 Typeless 之后,重度体验了一下,感受是:语音转文字的AI功能,只是充当了翻译工作外加润色而已,如果写作的人失去了文风和个人的表达习惯,这就适得其反。这不是在写作,而是在批量机械式生产。
面向自己表达,是先注重「工具价值」;面向读者写作,还需要注重「情绪价值」和感染力。请不要丢掉内容的灵魂。
#出海运营秘籍👉@yunying23
五一过后打算新开一个账号,只发用AI写的图文笔记,再配合一点投流。
做这个事,是想跟大家证明:好的AI工具➕AI提示词➕获客内容公式➕微付费投流,就可以很轻松在小红书拿到精准客资,并且是持续稳定地获客。
这套SOP我们已经用在陪跑的N个项目中了,目前验证100%傻瓜式获客。
真的,不用是我,完全不会做内容、不懂运营的人都可以做到这样。
五一过后打算新开一个账号,只发用AI写的图文笔记,再配合一点投流。
做这个事,是想跟大家证明:好的AI工具➕AI提示词➕获客内容公式➕微付费投流,就可以很轻松在小红书拿到精准客资,并且是持续稳定地获客。
这套SOP我们已经用在陪跑的N个项目中了,目前验证100%傻瓜式获客。
真的,不用是我,完全不会做内容、不懂运营的人都可以做到这样。
Forwarded from Post Bot
Media is too big
VIEW IN TELEGRAM
永久网址
豪礼大放送 高端嫩模 劳力士手表 奔驰E300等大礼等你来豪夺 首存日存彩金送不停
1月2号泰国大老板百家乐存50万出512万
1月13日pp电子糖果1000小注一拉直接爆出70万大奖
3月15号实力盘总PA真人喜提990万一路爆红
3月27-31号斯里兰卡神秘大哥连续5天总提4000万+
🏆平台优势:
1️⃣ u存u提每日提款无上限 随便提 全球不限ip #免实名 无需绑定手机号码和银行卡
2️⃣ 平台
大额出款额外奖励8888-128888,双重日存彩金128888+4688每日送,周流水彩金68888每周送,双重签到彩金16888+3888送不停
⚜️每日存款彩金每日送,每笔存款加赠
⚜️#无风控 电子真人零审核包出款
🌐官网注册网址: qs1736.cc
🩷专属VIP客服: @QSTY567
⚽️体育赛事推单:@QSTY988
➡️双向用户点击:@qsty168168_bot
㊙️午夜剧场:@guochandp7
✅ 更多优惠活动关注福利频道:@qsty8999
💰代理合营💰
老品牌 信誉高 佣金稳
代理合营频道: @QSTY321
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Post Bot
This media is not supported in your browser
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤡1
Forwarded from Post Bot
Media is too big
VIEW IN TELEGRAM
永久网址
豪礼大放送 高端嫩模 劳力士手表 奔驰E300等大礼等你来豪夺 每笔存款加赠 1%
🏆182体育 封神榜🏆
4.11号神秘大哥PG电子赏金女王一举斩获830万并成功提现
4.5号东南亚盘总PA真人百家豪赢644万一路长虹一天实现暴富
3.28号实力大哥PG电子爆出890万并以成功提现实现财富自由
截止到3.23号大哥在PA真人百家乐累计盈利突破1000万
1️⃣ 平台公平、公正、公开,信誉第一、服务第一
2️⃣ 免实名 不限ip 无需绑定手机号码和银行卡
3️⃣ u存u提 每日提款无上限 资金保障、大额无忧
平台
大额出款额外奖励8888-128888,双重日存彩金128888+4688每日送,周流水彩金68888每周送,双重签到彩金16888+3888送不停
每日存款彩金每日送,每笔存款加赠
182体育 #无风控 电子真人零审核包出款
🌐 官网注册链接: 1820036.com
🍎专属VIP客服: @vipkf_182ty8
⚽️ 体育赛事推荐:@VIP182TYTJ
➡️ 双向用户点击: @vipkf_182ty2_bot
🍉 吃瓜搞笑:@chiguagaoxiaoxinwen
✅ 更多优惠活动关注福利频道: @vip182ty888
🏆代理合营🏆
新平台 新机遇 好发展 佣金稳
代理合营频道:@DLHY182TY
Please open Telegram to view this post
VIEW IN TELEGRAM
🤡1
Forwarded from Post Bot
😃 爆庄实录|3天狂揽1086万U😃 新客首存1000,豪提120万U😃 500一拉,PG实力兑现133万U💵 亿万储备金,大额无忧
🇭🇰 香港六合彩,特码 55 倍
Please open Telegram to view this post
VIEW IN TELEGRAM
🤡1
Forwarded from Post Bot
2025年12月份,大玩家 赌神附体,狂揽一个亿,可自行验证
永久网址
🏆全网广告费每月投入高达500万
🏆平台优势:
1️⃣ #电子真人0审核包出款、#反水无上限
2️⃣ #巨额无忧,每日提款不限额度不限次数
3️⃣
4️⃣ #不限ip、#免实名,无需绑手机号、信息安全有保障
🏆Y3 国际 全站封神榜
➡️ 8月13号 神秘玩家仅用300u爆奖140万u,成功提款1088888u
➡️ 8月16号 反水1700u仅用80u爆奖54万u,成功提款60万u
➡️ 10月10号 大哥在PG麻将胡了爆奖260万u,成功提款210万u
➡️ 12月6号 神秘盘总PA真人豪赢400万u,成功提款370万u
👑#反水无上限 日提无上限 日出千万
👑#每日存款彩金每日送,每笔存款加赠
🌐官网注册链接: y3867.com
💖 Y3国际专属客服:@Y3VIP8888
➡️ 双向用户点击: @Y3VIP777_bot
✅ 更多优惠活动关注福利频道: @Y3VIP678
Please open Telegram to view this post
VIEW IN TELEGRAM
🤡1