This media is not supported in your browser
VIEW IN TELEGRAM
API 安全的 12 个重要技巧:
1. 使用HTTPS:
就像信封保护信件内容不被偷看一样,HTTPS帮助确保你通过互联网发送的数据是安全的,避免被不该看到的人窥视。
2. 使用OAuth2:
想象有一个专门的保安,只让有门禁卡的人进入大楼。OAuth2是网络上的保安,确保只有得到允许的应用和服务可以访问你的数据。
3. 使用WebAuthn:
如果你的手机或电脑是一把钥匙,WebAuthn就是确保这把钥匙只能开启你的锁。它帮助用更安全的方式登录网站,而不仅仅是密码。
4. 使用分级API密钥:
就像有的门禁卡只能让你进入大楼的一层,而有的可以让你使用电梯去任何楼层。分级API密钥意味着不同的密钥允许不同级别的访问权限。
5. 授权:
确定谁可以进入哪些房间。就像你家的不同钥匙可以开不同的门,授权确保每个人只能访问他们需要的信息。
6. 速率限制:
避免有人连续敲门太多次,打扰到里面的人。速率限制确保服务不会因为太多请求而崩溃,保持服务稳定。
7. API版本控制:
就像游戏更新新版本加入新功能,但旧版本仍可用。API版本控制允许开发者引入新功能而不打乱使用旧版本的用户。
8. 白名单:
创建一个允许访问的人名单。只有名单上的人可以访问服务,保护你的服务不被未经授权的访问。
9. 检查OWASP API安全风险:
OWASP列出了网上最常见的安全问,就像一个检查清单,帮助你避免这些问,保护你的API不受攻击。
10. 使用API网关:
想象一个大楼的前台,决定访问者能去哪里。API网关管理所有进入系统的请求,提供额外的安全层。
11. 错误处理:
当事情出错时,正确地告知发生了什么,而不透露太多信息。这就像是当你的APP出错时,给出有用的提示而不是让问变得更糟。
12. 输入验证:
确保别人给你的信息是你期待的类型和格式。就像你只接受合法的货币支付,输入验证帮助确保接收到的数据是安全和可用的。
互联网充电站
1. 使用HTTPS:
就像信封保护信件内容不被偷看一样,HTTPS帮助确保你通过互联网发送的数据是安全的,避免被不该看到的人窥视。
2. 使用OAuth2:
想象有一个专门的保安,只让有门禁卡的人进入大楼。OAuth2是网络上的保安,确保只有得到允许的应用和服务可以访问你的数据。
3. 使用WebAuthn:
如果你的手机或电脑是一把钥匙,WebAuthn就是确保这把钥匙只能开启你的锁。它帮助用更安全的方式登录网站,而不仅仅是密码。
4. 使用分级API密钥:
就像有的门禁卡只能让你进入大楼的一层,而有的可以让你使用电梯去任何楼层。分级API密钥意味着不同的密钥允许不同级别的访问权限。
5. 授权:
确定谁可以进入哪些房间。就像你家的不同钥匙可以开不同的门,授权确保每个人只能访问他们需要的信息。
6. 速率限制:
避免有人连续敲门太多次,打扰到里面的人。速率限制确保服务不会因为太多请求而崩溃,保持服务稳定。
7. API版本控制:
就像游戏更新新版本加入新功能,但旧版本仍可用。API版本控制允许开发者引入新功能而不打乱使用旧版本的用户。
8. 白名单:
创建一个允许访问的人名单。只有名单上的人可以访问服务,保护你的服务不被未经授权的访问。
9. 检查OWASP API安全风险:
OWASP列出了网上最常见的安全问,就像一个检查清单,帮助你避免这些问,保护你的API不受攻击。
10. 使用API网关:
想象一个大楼的前台,决定访问者能去哪里。API网关管理所有进入系统的请求,提供额外的安全层。
11. 错误处理:
当事情出错时,正确地告知发生了什么,而不透露太多信息。这就像是当你的APP出错时,给出有用的提示而不是让问变得更糟。
12. 输入验证:
确保别人给你的信息是你期待的类型和格式。就像你只接受合法的货币支付,输入验证帮助确保接收到的数据是安全和可用的。
互联网充电站
Meta再次收购中国创始人的AI公司,合规角度的三点观察
2026年5月1日,Meta官宣收购机器人模型公司Assured Robot Intelligence(ARI),未披露具体交易金额。与此前引发较大争议的Manus交易类似,本次收购的核心仍然是“收购团队”:两位创始人王小龙和Lerrel Pinto及其团队将整体加入Meta,参与其机器人与AI相关研发工作。
ARI的核心团队颇有些中国色彩。创始人之一王小龙是华南农业大学的本科、中山大学的硕士,后来在卡耐基梅隆大学读完博士,在加州伯克利分校做博后研究,随后到加州圣地亚哥分校担任副教授,同时还在英伟达做过研究员。王小龙曾获得斯隆研究奖和美国国家科学基金会NSF CAREER Award,发过多篇顶会论文。
另一位创始人Lerrel Pinto同样是卡耐基梅隆大学的博士,和王小龙同期在加州伯克利分校做博后研究,随后到纽约大学担任助理教授。此前他还创办了另一家机器人公司Fauna Robotics,这家公司在2025年成功被亚马逊收购。
除了两位核心创始人之外,另有一位Xuxin Cheng在早期加入了ARI。他在2020年从北京理工大学本科毕业,卡耐基梅隆大学硕士毕业后在加州圣地亚哥分校读博,是王小龙的博士生。
团队在大约一年前创立了ARI,核心方向是为机器人提供通用的“决策与控制能力”,通过强化学习、运动捕捉、轨迹优化等方法,训练控制模型,使得机器人能够在真实物理环境中完成复杂动作和任务。这也是当前具身智能领域最重要的技术方向之一。
本次被收购之前,ARI只宣布了一笔由AIX Ventures进行的种子轮融资,也未披露估值和融资规模。
从公司架构上看,ARI注册于特拉华州,属于典型的Delaware C-Corporation结构,这也是美国绝大多数科技初创公司的标准选择。目前没有迹象显示其采用开曼、新加坡、或其他离岸架构。
从合规层面讲,这次收购至少有三个观察点:
第一,不论中美的监管都是有限度的。
Manus交易被国家发改委叫停之后,市场普遍提高了对中美政府监管审查的预期,尤其是在中国的技术出口与国家安全领域。但从实践来看,无论是中国还是美国,监管资源与审查范围都不可能无限扩张。
以美国为例,CFIUS理论上可以审查几乎所有涉及外国人投资的交易,但实际每年审查案件数量仅为300-400件。其关注重点始终集中在少数具有代表性的交易——即涉及关键技术、核心产业,或可能对国家安全产生实质影响的企业。
中国的监管逻辑与之类似。当前技术出口管制规则仍处于动态调整之中,但可以预期,其关注重点同样集中在具有重大技术和产业影响力的企业。而从Manus案体现出的监管逻辑来看,中国的监管部门更关注是否存在中国人才、中国技术、中国公司的成建制外迁,绝非不欢迎所有有中国创始人的企业并购。
Manus案自有其特殊性。Manus的交易之所以在中美两边同时受到高度关注,很大程度上源于其在早期被部分中国媒体赋予了“第二个Deepseek”“国运级产品”的定位,而Meta对Manus的收购价格又显著高于同时进行的其他类似交易。种叙事显著放大了其政策敏感性,几乎注定了其后续将面临更高强度的监管关注。
相比之下,无论是ARI,还是当前绝大多数科技初创公司,都难以被认定为涉及核心国家安全利益。特别是ARI的核心研发团队依托于美国大学,一开始就在美国研发,受到中国监管部门注意的可能性更小。因此,在正常情况下,绝大部分公司都不会面临Manus那种级别的监管压力。
第二,股权结构不要迷信“设计技巧”
近期市场出现了大量关于“如何通过股权结构规避监管”的讨论。实践中的结论其实非常明确:不应寄希望于通过复杂的股权结构、合同安排,甚至代持来规避中美任一方的监管。
早在2024年,我就在文章里提出,红筹架构已经很难适应中美政治格局下AI初创企业的需求。后来不断出现的新政策、新动向,包括今年年初有关红筹公司上市的讨论,都印证了我的这一观点。
在当前的环境下,初创公司所能采取的路径无非三种:
(1) 以中国为主体:以中国公司为融资主体,通过人民币融资或将外资转化为人民币,并通过ODI开展海外业务,未来通过A股或H股上市。
(2) 以美国为主体:以特拉华C-Corporation为融资主体,按照美国市场通行的NVCA等文件开展融资与公司治理。至多对非美国创始人或投资人,以BVI主体持股进行一定税务优化。
(3) 中美分拆为两个主体:中国的归中国,美国的归美国,通过技术服务或产品供应实现协同,中美主体的股东可能镜像安排,更大可能是中国投资人投资中国公司,美国投资人投资美国公司。严格来说也是上述两种方案的变种。
股权结构本身的可操作空间其实非常有限。整体而言,公司架构越简单、越标准,反而越具备可持续性。一些“擦边”结构在短期内或许有效(具体的在这里不多说),但对于未来具有融资或上市预期的公司而言,长期不可依赖。
ARI的收购再次印证了这一点:对于一家美国初创公司而言,采用标准的特拉华架构,往往已经是最优解。
第三,机器人行业不可能脱离中国,需要动态合规管理
与纯软件或AI应用公司不同,机器人(具身智能)行业具有显著的制造属性。这意味着,无论公司注册地或研发地在哪里,其供应链几乎不可避免地与中国产生联系。从现实情况来看,全球范围内成熟且规模化的制造能力仍然集中在中国。即使是一家完全美国本土的机器人公司,其技术开发与供应链体系也很难完全与中国脱钩。
机器人行业公司需要格外关注下述几个合规问题:
(1)技术出口与研发分工:考虑到中国的技术出口管制,受限技术无法在中国开展研发,而部分非敏感技术(如UI或通用模块)则可以在中国开发,但需要精细划分和合规设计。
(2)数据合规问题:不论是中国还是美国,都有比较严格的数据出境的规定。特别是面向美国消费者市场的机器人产品,在使用过程中必然会收集大量美国个人信息,要特别注意14117行政令及配套规则下有关数据本地存储、本地访问等的规定。
(3)供应链与反向投资审查:如果公司的成本结构中对中国供应链的依赖较高,可能触发美国对外投资或供应链安全相关的审查风险。
对于这类“无法脱离中国”的美国创业公司而言,上述问题将成为长期需要动态管理的核心合规议题。
不论是中国还是美国,跨境监管持续“选择性强化”,而不是“全面收紧”,可能是未来半年到一年的主基调。
2026年5月1日,Meta官宣收购机器人模型公司Assured Robot Intelligence(ARI),未披露具体交易金额。与此前引发较大争议的Manus交易类似,本次收购的核心仍然是“收购团队”:两位创始人王小龙和Lerrel Pinto及其团队将整体加入Meta,参与其机器人与AI相关研发工作。
ARI的核心团队颇有些中国色彩。创始人之一王小龙是华南农业大学的本科、中山大学的硕士,后来在卡耐基梅隆大学读完博士,在加州伯克利分校做博后研究,随后到加州圣地亚哥分校担任副教授,同时还在英伟达做过研究员。王小龙曾获得斯隆研究奖和美国国家科学基金会NSF CAREER Award,发过多篇顶会论文。
另一位创始人Lerrel Pinto同样是卡耐基梅隆大学的博士,和王小龙同期在加州伯克利分校做博后研究,随后到纽约大学担任助理教授。此前他还创办了另一家机器人公司Fauna Robotics,这家公司在2025年成功被亚马逊收购。
除了两位核心创始人之外,另有一位Xuxin Cheng在早期加入了ARI。他在2020年从北京理工大学本科毕业,卡耐基梅隆大学硕士毕业后在加州圣地亚哥分校读博,是王小龙的博士生。
团队在大约一年前创立了ARI,核心方向是为机器人提供通用的“决策与控制能力”,通过强化学习、运动捕捉、轨迹优化等方法,训练控制模型,使得机器人能够在真实物理环境中完成复杂动作和任务。这也是当前具身智能领域最重要的技术方向之一。
本次被收购之前,ARI只宣布了一笔由AIX Ventures进行的种子轮融资,也未披露估值和融资规模。
从公司架构上看,ARI注册于特拉华州,属于典型的Delaware C-Corporation结构,这也是美国绝大多数科技初创公司的标准选择。目前没有迹象显示其采用开曼、新加坡、或其他离岸架构。
从合规层面讲,这次收购至少有三个观察点:
第一,不论中美的监管都是有限度的。
Manus交易被国家发改委叫停之后,市场普遍提高了对中美政府监管审查的预期,尤其是在中国的技术出口与国家安全领域。但从实践来看,无论是中国还是美国,监管资源与审查范围都不可能无限扩张。
以美国为例,CFIUS理论上可以审查几乎所有涉及外国人投资的交易,但实际每年审查案件数量仅为300-400件。其关注重点始终集中在少数具有代表性的交易——即涉及关键技术、核心产业,或可能对国家安全产生实质影响的企业。
中国的监管逻辑与之类似。当前技术出口管制规则仍处于动态调整之中,但可以预期,其关注重点同样集中在具有重大技术和产业影响力的企业。而从Manus案体现出的监管逻辑来看,中国的监管部门更关注是否存在中国人才、中国技术、中国公司的成建制外迁,绝非不欢迎所有有中国创始人的企业并购。
Manus案自有其特殊性。Manus的交易之所以在中美两边同时受到高度关注,很大程度上源于其在早期被部分中国媒体赋予了“第二个Deepseek”“国运级产品”的定位,而Meta对Manus的收购价格又显著高于同时进行的其他类似交易。种叙事显著放大了其政策敏感性,几乎注定了其后续将面临更高强度的监管关注。
相比之下,无论是ARI,还是当前绝大多数科技初创公司,都难以被认定为涉及核心国家安全利益。特别是ARI的核心研发团队依托于美国大学,一开始就在美国研发,受到中国监管部门注意的可能性更小。因此,在正常情况下,绝大部分公司都不会面临Manus那种级别的监管压力。
第二,股权结构不要迷信“设计技巧”
近期市场出现了大量关于“如何通过股权结构规避监管”的讨论。实践中的结论其实非常明确:不应寄希望于通过复杂的股权结构、合同安排,甚至代持来规避中美任一方的监管。
早在2024年,我就在文章里提出,红筹架构已经很难适应中美政治格局下AI初创企业的需求。后来不断出现的新政策、新动向,包括今年年初有关红筹公司上市的讨论,都印证了我的这一观点。
在当前的环境下,初创公司所能采取的路径无非三种:
(1) 以中国为主体:以中国公司为融资主体,通过人民币融资或将外资转化为人民币,并通过ODI开展海外业务,未来通过A股或H股上市。
(2) 以美国为主体:以特拉华C-Corporation为融资主体,按照美国市场通行的NVCA等文件开展融资与公司治理。至多对非美国创始人或投资人,以BVI主体持股进行一定税务优化。
(3) 中美分拆为两个主体:中国的归中国,美国的归美国,通过技术服务或产品供应实现协同,中美主体的股东可能镜像安排,更大可能是中国投资人投资中国公司,美国投资人投资美国公司。严格来说也是上述两种方案的变种。
股权结构本身的可操作空间其实非常有限。整体而言,公司架构越简单、越标准,反而越具备可持续性。一些“擦边”结构在短期内或许有效(具体的在这里不多说),但对于未来具有融资或上市预期的公司而言,长期不可依赖。
ARI的收购再次印证了这一点:对于一家美国初创公司而言,采用标准的特拉华架构,往往已经是最优解。
第三,机器人行业不可能脱离中国,需要动态合规管理
与纯软件或AI应用公司不同,机器人(具身智能)行业具有显著的制造属性。这意味着,无论公司注册地或研发地在哪里,其供应链几乎不可避免地与中国产生联系。从现实情况来看,全球范围内成熟且规模化的制造能力仍然集中在中国。即使是一家完全美国本土的机器人公司,其技术开发与供应链体系也很难完全与中国脱钩。
机器人行业公司需要格外关注下述几个合规问题:
(1)技术出口与研发分工:考虑到中国的技术出口管制,受限技术无法在中国开展研发,而部分非敏感技术(如UI或通用模块)则可以在中国开发,但需要精细划分和合规设计。
(2)数据合规问题:不论是中国还是美国,都有比较严格的数据出境的规定。特别是面向美国消费者市场的机器人产品,在使用过程中必然会收集大量美国个人信息,要特别注意14117行政令及配套规则下有关数据本地存储、本地访问等的规定。
(3)供应链与反向投资审查:如果公司的成本结构中对中国供应链的依赖较高,可能触发美国对外投资或供应链安全相关的审查风险。
对于这类“无法脱离中国”的美国创业公司而言,上述问题将成为长期需要动态管理的核心合规议题。
不论是中国还是美国,跨境监管持续“选择性强化”,而不是“全面收紧”,可能是未来半年到一年的主基调。
❤1
This media is not supported in your browser
VIEW IN TELEGRAM
那国首都国际机场、广州白云机场都出现返祖现象——工作人员男男女女皆着明制汉服。 是偏贵族服还是小厮服? 长衣宽袖方便工作吗? 着装时间付工资吗? 短发或发量少的要用假发做发髻吗? 干洗还是湿洗会增加成本吗? 是节日临时换装还是准备试点成为常态?
互联网充电站
互联网充电站
真的,Google DeepMind 的 CEO Demis Hassabis 每一期访谈我觉得值得都花时间看看。这哥们讲东西很实在,而且通俗易懂。
早上边跑步边听完了他和 YC CEO Garry Tan 的最新一期播客。
刚刚把笔记写完,也给大家分享下。
多说一句,好多人问我这种笔记是不是 AI 写的。我说下自己的流程。
我会先完整听完播客,然后用语音输入法把感触尽量充分地讲出来,再让 AI 帮着整理初稿,最后自己逐字修改优化。
如果全部交给 AI 做总结,那等于把思考和理解的能力让渡给了 AI,对自己理解这件事其实没有任何价值。
OK,咱们进正题。
1
Demis 的态度非常明确,现在的大模型范式(大规模预训练 + RLHF + CoT)一定会是 AGI 最终架构的一部分,他不认为这会是条死路。
但要实现 AGI,还有几个关键问题要解决。这几个问题包括:持续学习、长程推理和记忆系统。
先从最容易看到的现象讲起,Context Window。
现在大模型处理长信息,最常用的招就是把 Context Window 一直撑大。一开始 8k,后来 32k,再后来 100 万 Token。听起来很厉害,但本质上是暴力堆砌。
Context Window 其实就相当于人脑里的 Working Memory,工作记忆。人的工作记忆能同时装多少东西?心理学里有个经典数字,7 个左右。背电话号码能记住 7 位上下,再多就溢出了。
大模型呢?已经做到 100 万 Token。
按理说,模型的工作记忆比人大几十万倍,应该比人聪明几十万倍才对。但显然不是。
问题也恰恰就出现在这。把所有东西都塞进 Context Window 里,里面包含了不重要的东西、错的东西、过时的东西。看起来信息很多,其实是一团乱麻。
那人为什么 7 个数字的工作记忆就够用?
因为人脑背后还有另一套机制在工作。我们记得几年前的事,记得童年的事,记得几小时前发生的事。这些都不塞在工作记忆里,而是另一套系统。
具体来说这套系统是海马体,大脑里负责把新知识整合进已有知识库的那个部分。
研究发现,人睡觉的时候,特别是 REM 睡眠阶段,大脑会重放白天重要的片段,让大脑从中学习。新东西在睡觉的过程里,温柔地融进了旧的知识体系。
这个把新东西融进旧知识库的过程,就是持续学习。
模型现在没有这套机制。每一次对话结束,刚学到的东西就会忘记。下次重新打开,还是上次那个模型,没长进。
2
再聊聊长程推理的问题。英文表达是 Long-term Reasoning。我翻译为了长程。
长程推理这个词太抽象了。Demis 讲了一个特别具体的故事,听完会立刻明白他说的是什么。
他说自己喜欢跟 Gemini 下国际象棋。下棋的过程里能看到模型的 thinking trace,也就是它在那里到底想了什么。
然后他发现一件怪事。
模型考虑一步棋的时候,思考链里清清楚楚写着,这步是个昏招。但接下来,它没找到更好的走法,于是又走回这步昏招。
明明知道是错的,还是把错的那一步走出去了。
这个细节比任何 benchmark 数据都说明问题。因为它暴露的是模型缺少对自己思考过程的某种内省能力。
正常人下棋,意识到一步是昏招之后,脑子里会有一个反应,停一下,再想想。停一下、再想想这个能力,模型现在没有。它能在每一步局部判断对错,但没法基于整盘棋的局势去调整整体策略。
这就是长程推理还没搞定的样子。模型可以一步一步往前走,每一步看起来都合理,但走到后面整盘棋的方向其实是错的。它没有那种退回到当前思考的上一层、重新审视一下的能力。
说到底,模型缺的是一种内省。
3
学习、长程推理、记忆,这是 Demis 在播客里点出来的三个 AGI 鸿沟。
除此之外,他还反复提到了创造力。
2016 年 AlphaGo 跟李世石下棋,第二局走出了著名的 Move 37。那一步棋走出来的瞬间,全世界的围棋高手都看呆了。
所有人类几千年下围棋积累的经验都告诉它不该下那里,但 AlphaGo 下了。下完之后大家发现,是一步神来之笔。
很多人觉得,这就是 AI 的创造力来了。
但 Demis 说,对他自己来说,Move 37 只是起点。他真正想看到的是另一件事。AI 能不能发明围棋这件事本身。
这两件事的区别非常关键。
Move 37 是在围棋这个现成的规则里,找到了一步人类没想到的招。但围棋的规则、棋盘的形状、黑白子的对弈方式,是人类发明出来的。AI 在已有的框架里非常厉害,但能不能自己造一个框架,是另外一回事。
Demis 给了一个具体的设想。
如果给 AI 一个高层次的描述。造一个游戏,五分钟能学会规则,要好几辈子才能精通,棋局有审美,一下午能下完一局。AI 能不能根据这个描述,自己倒推出围棋?
目前做不到。
为了把这件事讲得更清楚,Demis 还提了一个测试,他自己叫爱因斯坦测试。
用 1901 年人类已有的全部知识训练一个模型,看它能不能在 1905 年那个时间点,自己推出狭义相对论。
爱因斯坦在 1905 年那一年里,连写了几篇改变物理学的论文,后来叫爱因斯坦奇迹年。那些工作不是从已有的物理学论文里通过拼接得到的,是基于已有材料做了一次全新的概念跳跃。
爱因斯坦测试想问的就是这件事。AI 能不能做这种跳跃。
目前的大模型主要在做两件事,pattern matching 和 extrapolation。一个是从大量数据里找规律,一个是把规律往外延伸一点。但发现新东西需要的是类比推理的能力。从一个领域里抽出深层结构,搬到另一个全新的领域去用。
这个能力,模型现在还没有。也可能是有,但用法不对所以激发不出来。
4
除此之外,Demis 还分享了一个让我特别出乎意料的判断,他说未来 6 到 12 个月,真正的价值不在更大的模型,在更小的模型。
这一部分内容我反复听了好几次,确实突破我的已有认知。
不知道大家的想法,反正我自己,这一年来并没有怎么关注小模型的进展。毕竟行业的焦点就是把模型做大嘛。
那小模型的价值到底在哪?
最直接的是成本。同样一个任务,小模型的推理价格可能只是前沿模型的十分之一甚至更少。
但 Demis 说,比成本更重要的其实是速度。
这里有一个前提得先说清楚。Demis 不是在说速度可以替代智能。
他的原话是,当小模型的能力已经达到前沿模型的 90% 到 95%,也就是已经相当不错的时候,剩下那 5% 到 10% 的能力差距,比不上速度带来的好处。
比如现在工程师用 AI 写代码,已经形成了一种新的工作节奏。一个想法冒出来,几秒之内就能看到结果,不行就改,再不行再改。
这个一改再改的循环跑得越快,做出来的东西就越好。如果每次调用都要等十秒,整个工作流就被打断了。
更关键的是,快到一定程度,工程师在这种节奏里能进入心流。一个想法、一次尝试、一个反馈、再来一个想法,思维不被打断。
这件事写过代码的人都懂,进入心流和频繁掉出心流,产出的差距是数量级的。
Agent 也是同样的逻辑。一个 Agent 跑完一个任务可能要调几十次模型,每次慢一秒,整个任务就慢一分钟。慢到一定程度,Agent 就从一个能用的东西变成鸡肋。
小模型不是大模型的廉价替代品。有些事只有小模型能做。
比如手机、眼镜、家用机器人,需要的就是一个能在本地跑起来的模型。本地跑除了反应快,还有一个特别重要的好处,隐私。
家里机器人看到的视频、听到的对话,全部在设备本地处理,根本不上云。这件事对很多用户来说不是加分项,是底线。
成本、速度、边缘部署,这是小模型的价值。
5
讲完小模型的价值,接下来一个更关键的问题是,能力被压到这么小的参数里,会不会有上限?
Demis 的判断是,目前没看到信息密度有任何理论上限。小模型的智能天花板还远没看到。
支撑这个判断的,是 DeepMind 在蒸馏这件事上的积累。蒸馏简单说就是先训练一个超大的模型,然后用这个超大模型去教一个小模型。教完之后,小模型用极少的参数,能复现原来 95% 以上的能力。
为什么 DeepMind 这么重视蒸馏?因为要把 AI 能力放进谷歌的头部产品中,前提是低延迟、低成本。前沿模型再强,每次推理花几秒钟、花几毛钱...这条路,恐怕很难走得通。
一个前沿模型发布之后,6 到 12 个月内,他们就能把这个模型的能力蒸馏到边缘设备能跑的小模型上去。这个时间表比很多人想的要快。
在很多场景中,小模型和大模型会相互配合。
举个例子,一个端到端的智能助手,绝大部分日常任务在本地的小模型上跑。智能眼镜看到的画面、家里机器人听到的对话、手机里的私人助理,模型直接在设备里读懂,不需要往云端传一遍。
只有遇到特别复杂、本地搞不定的问题,才向云端的前沿模型发起请求。
也就是说小模型在边缘做主力,前沿模型在云端做后援。
不过,这个构想对小模型的要求也比较高,它不能只会处理文字,还得能理解物理世界。
这就是为什么 Gemini 从一开始就坚持多模态,不光处理文字,也处理图像、视频、声音。
一开始这么做比只做文本要难得多,但眼镜也好,机器人也好,需要的是一个能看懂周围世界的模型,不是一个只会聊天的模型。
讲到这里,小模型这条路的轮廓就完全清楚了。它独立成立,不是前沿模型的廉价替代品,而是另一条同样重要的路。
嗯,很有启发。
早上边跑步边听完了他和 YC CEO Garry Tan 的最新一期播客。
刚刚把笔记写完,也给大家分享下。
多说一句,好多人问我这种笔记是不是 AI 写的。我说下自己的流程。
我会先完整听完播客,然后用语音输入法把感触尽量充分地讲出来,再让 AI 帮着整理初稿,最后自己逐字修改优化。
如果全部交给 AI 做总结,那等于把思考和理解的能力让渡给了 AI,对自己理解这件事其实没有任何价值。
OK,咱们进正题。
1
Demis 的态度非常明确,现在的大模型范式(大规模预训练 + RLHF + CoT)一定会是 AGI 最终架构的一部分,他不认为这会是条死路。
但要实现 AGI,还有几个关键问题要解决。这几个问题包括:持续学习、长程推理和记忆系统。
先从最容易看到的现象讲起,Context Window。
现在大模型处理长信息,最常用的招就是把 Context Window 一直撑大。一开始 8k,后来 32k,再后来 100 万 Token。听起来很厉害,但本质上是暴力堆砌。
Context Window 其实就相当于人脑里的 Working Memory,工作记忆。人的工作记忆能同时装多少东西?心理学里有个经典数字,7 个左右。背电话号码能记住 7 位上下,再多就溢出了。
大模型呢?已经做到 100 万 Token。
按理说,模型的工作记忆比人大几十万倍,应该比人聪明几十万倍才对。但显然不是。
问题也恰恰就出现在这。把所有东西都塞进 Context Window 里,里面包含了不重要的东西、错的东西、过时的东西。看起来信息很多,其实是一团乱麻。
那人为什么 7 个数字的工作记忆就够用?
因为人脑背后还有另一套机制在工作。我们记得几年前的事,记得童年的事,记得几小时前发生的事。这些都不塞在工作记忆里,而是另一套系统。
具体来说这套系统是海马体,大脑里负责把新知识整合进已有知识库的那个部分。
研究发现,人睡觉的时候,特别是 REM 睡眠阶段,大脑会重放白天重要的片段,让大脑从中学习。新东西在睡觉的过程里,温柔地融进了旧的知识体系。
这个把新东西融进旧知识库的过程,就是持续学习。
模型现在没有这套机制。每一次对话结束,刚学到的东西就会忘记。下次重新打开,还是上次那个模型,没长进。
2
再聊聊长程推理的问题。英文表达是 Long-term Reasoning。我翻译为了长程。
长程推理这个词太抽象了。Demis 讲了一个特别具体的故事,听完会立刻明白他说的是什么。
他说自己喜欢跟 Gemini 下国际象棋。下棋的过程里能看到模型的 thinking trace,也就是它在那里到底想了什么。
然后他发现一件怪事。
模型考虑一步棋的时候,思考链里清清楚楚写着,这步是个昏招。但接下来,它没找到更好的走法,于是又走回这步昏招。
明明知道是错的,还是把错的那一步走出去了。
这个细节比任何 benchmark 数据都说明问题。因为它暴露的是模型缺少对自己思考过程的某种内省能力。
正常人下棋,意识到一步是昏招之后,脑子里会有一个反应,停一下,再想想。停一下、再想想这个能力,模型现在没有。它能在每一步局部判断对错,但没法基于整盘棋的局势去调整整体策略。
这就是长程推理还没搞定的样子。模型可以一步一步往前走,每一步看起来都合理,但走到后面整盘棋的方向其实是错的。它没有那种退回到当前思考的上一层、重新审视一下的能力。
说到底,模型缺的是一种内省。
3
学习、长程推理、记忆,这是 Demis 在播客里点出来的三个 AGI 鸿沟。
除此之外,他还反复提到了创造力。
2016 年 AlphaGo 跟李世石下棋,第二局走出了著名的 Move 37。那一步棋走出来的瞬间,全世界的围棋高手都看呆了。
所有人类几千年下围棋积累的经验都告诉它不该下那里,但 AlphaGo 下了。下完之后大家发现,是一步神来之笔。
很多人觉得,这就是 AI 的创造力来了。
但 Demis 说,对他自己来说,Move 37 只是起点。他真正想看到的是另一件事。AI 能不能发明围棋这件事本身。
这两件事的区别非常关键。
Move 37 是在围棋这个现成的规则里,找到了一步人类没想到的招。但围棋的规则、棋盘的形状、黑白子的对弈方式,是人类发明出来的。AI 在已有的框架里非常厉害,但能不能自己造一个框架,是另外一回事。
Demis 给了一个具体的设想。
如果给 AI 一个高层次的描述。造一个游戏,五分钟能学会规则,要好几辈子才能精通,棋局有审美,一下午能下完一局。AI 能不能根据这个描述,自己倒推出围棋?
目前做不到。
为了把这件事讲得更清楚,Demis 还提了一个测试,他自己叫爱因斯坦测试。
用 1901 年人类已有的全部知识训练一个模型,看它能不能在 1905 年那个时间点,自己推出狭义相对论。
爱因斯坦在 1905 年那一年里,连写了几篇改变物理学的论文,后来叫爱因斯坦奇迹年。那些工作不是从已有的物理学论文里通过拼接得到的,是基于已有材料做了一次全新的概念跳跃。
爱因斯坦测试想问的就是这件事。AI 能不能做这种跳跃。
目前的大模型主要在做两件事,pattern matching 和 extrapolation。一个是从大量数据里找规律,一个是把规律往外延伸一点。但发现新东西需要的是类比推理的能力。从一个领域里抽出深层结构,搬到另一个全新的领域去用。
这个能力,模型现在还没有。也可能是有,但用法不对所以激发不出来。
4
除此之外,Demis 还分享了一个让我特别出乎意料的判断,他说未来 6 到 12 个月,真正的价值不在更大的模型,在更小的模型。
这一部分内容我反复听了好几次,确实突破我的已有认知。
不知道大家的想法,反正我自己,这一年来并没有怎么关注小模型的进展。毕竟行业的焦点就是把模型做大嘛。
那小模型的价值到底在哪?
最直接的是成本。同样一个任务,小模型的推理价格可能只是前沿模型的十分之一甚至更少。
但 Demis 说,比成本更重要的其实是速度。
这里有一个前提得先说清楚。Demis 不是在说速度可以替代智能。
他的原话是,当小模型的能力已经达到前沿模型的 90% 到 95%,也就是已经相当不错的时候,剩下那 5% 到 10% 的能力差距,比不上速度带来的好处。
比如现在工程师用 AI 写代码,已经形成了一种新的工作节奏。一个想法冒出来,几秒之内就能看到结果,不行就改,再不行再改。
这个一改再改的循环跑得越快,做出来的东西就越好。如果每次调用都要等十秒,整个工作流就被打断了。
更关键的是,快到一定程度,工程师在这种节奏里能进入心流。一个想法、一次尝试、一个反馈、再来一个想法,思维不被打断。
这件事写过代码的人都懂,进入心流和频繁掉出心流,产出的差距是数量级的。
Agent 也是同样的逻辑。一个 Agent 跑完一个任务可能要调几十次模型,每次慢一秒,整个任务就慢一分钟。慢到一定程度,Agent 就从一个能用的东西变成鸡肋。
小模型不是大模型的廉价替代品。有些事只有小模型能做。
比如手机、眼镜、家用机器人,需要的就是一个能在本地跑起来的模型。本地跑除了反应快,还有一个特别重要的好处,隐私。
家里机器人看到的视频、听到的对话,全部在设备本地处理,根本不上云。这件事对很多用户来说不是加分项,是底线。
成本、速度、边缘部署,这是小模型的价值。
5
讲完小模型的价值,接下来一个更关键的问题是,能力被压到这么小的参数里,会不会有上限?
Demis 的判断是,目前没看到信息密度有任何理论上限。小模型的智能天花板还远没看到。
支撑这个判断的,是 DeepMind 在蒸馏这件事上的积累。蒸馏简单说就是先训练一个超大的模型,然后用这个超大模型去教一个小模型。教完之后,小模型用极少的参数,能复现原来 95% 以上的能力。
为什么 DeepMind 这么重视蒸馏?因为要把 AI 能力放进谷歌的头部产品中,前提是低延迟、低成本。前沿模型再强,每次推理花几秒钟、花几毛钱...这条路,恐怕很难走得通。
一个前沿模型发布之后,6 到 12 个月内,他们就能把这个模型的能力蒸馏到边缘设备能跑的小模型上去。这个时间表比很多人想的要快。
在很多场景中,小模型和大模型会相互配合。
举个例子,一个端到端的智能助手,绝大部分日常任务在本地的小模型上跑。智能眼镜看到的画面、家里机器人听到的对话、手机里的私人助理,模型直接在设备里读懂,不需要往云端传一遍。
只有遇到特别复杂、本地搞不定的问题,才向云端的前沿模型发起请求。
也就是说小模型在边缘做主力,前沿模型在云端做后援。
不过,这个构想对小模型的要求也比较高,它不能只会处理文字,还得能理解物理世界。
这就是为什么 Gemini 从一开始就坚持多模态,不光处理文字,也处理图像、视频、声音。
一开始这么做比只做文本要难得多,但眼镜也好,机器人也好,需要的是一个能看懂周围世界的模型,不是一个只会聊天的模型。
讲到这里,小模型这条路的轮廓就完全清楚了。它独立成立,不是前沿模型的廉价替代品,而是另一条同样重要的路。
嗯,很有启发。
看到一个「专为程序员编写的英语学习指南」,没有啥务虚的东西,教程通过深挖语言学习的本质,并用程序员易于理解的方式去思考,提供自己根据本质推演出来的训练方法和经验做参考,整体而言很理性也很有逻辑,适合想学习好英语的同学。
🤖 https://a-programmers-guide-to-english.harryyu.me/
互联网充电站
🤖 https://a-programmers-guide-to-english.harryyu.me/
互联网充电站
上系统,数字化转型常见场景:一群人喊口号立项,过程推诿甩锅,结果it背锅
业务部门只口嗨不提供逻辑,当业务进系统时,所有模糊地带,都要拆开具体详细定义。
这个时候,业务部门退缩了,因为想清楚逻辑太痛苦了,重构太得罪人。
数字化的本质就是流程在造。而不是一味甩锅系统
业务部门只口嗨不提供逻辑,当业务进系统时,所有模糊地带,都要拆开具体详细定义。
这个时候,业务部门退缩了,因为想清楚逻辑太痛苦了,重构太得罪人。
数字化的本质就是流程在造。而不是一味甩锅系统
分享几个最近比较火的roblox游戏词
🥇 Kick a Lucky Block | 并发 266.9K | Rating 96% | Genre Tycoon | 上线 ~26天 | Google Trends: 🟢 Explosive Growth | 入选评级:高确定性
战略理由:
- 上线仅 26 天(2026-04-07)即冲至全平台顶流,CCU 265K+,是2026年最快爆发的新游戏
- Genre=Tycoon,完全符合内容站选题热区(数值通胀、收藏体系、rebirth经济)
- Google Trends 呈现教科书级「Launch Spike」曲线,搜索量仍在上升通道
- 成熟 Lucky Block 机制在 Roblox 有稳定受众基础,流量天花板极高
- 内容潜力:攻略/模组/作弊码视频 TikTok 传播链路清晰,SEO 长尾词池已初步形成
---
🥈 Slime RNG | 并发 85.9K | Rating 98% | Genre Simulator | 上线 ~2个月 | Google Trends: 🟡 Early Stage → Declining | 入选评级:高潜力
战略理由:
- Genre=Simulator,RNG 机制天然驱动重复游玩和内容消费
- Rating 98% 为本次候选中最高,口碑极强,玩家粘性高
- 2月上线至今(~2个月)已沉淀稳定 CCU 80K+,属于成熟期新作
- 注意:Google Trends 峰值已过(3月底 ~85分),现处于 ~50分下降通道,需评估是否已进入「平台期」
- 内容潜力:RNG 掉落表/概率分析、速通攻略、稀有 Slime 图鉴具有病毒传播潜力
---
🥉 My Knife Farm | 并发 17.6K | Rating 96% | Genre Simulator/Tycoon | 上线 ~3个月 | Google Trends: 🟢 Early Stage Growth | 入选评级:高潜力
战略理由:
- 上线仅 3 个月,4月内从 #80 火箭式攀升至 #9(bloxcontrol 数据)
- 96% Rating + 稳定的 17K CCU 表明游戏质量扎实
- Google Trends 显示持续攀升,尚未触顶,内容热度还在爬坡
- Genre=Simulator/Tycoon 与内容站长尾词高度匹配
- 内容潜力:「Farm」类题材在搜索端有稳定需求;Switch Arts 团队更新频率活跃。
🥇 Kick a Lucky Block | 并发 266.9K | Rating 96% | Genre Tycoon | 上线 ~26天 | Google Trends: 🟢 Explosive Growth | 入选评级:高确定性
战略理由:
- 上线仅 26 天(2026-04-07)即冲至全平台顶流,CCU 265K+,是2026年最快爆发的新游戏
- Genre=Tycoon,完全符合内容站选题热区(数值通胀、收藏体系、rebirth经济)
- Google Trends 呈现教科书级「Launch Spike」曲线,搜索量仍在上升通道
- 成熟 Lucky Block 机制在 Roblox 有稳定受众基础,流量天花板极高
- 内容潜力:攻略/模组/作弊码视频 TikTok 传播链路清晰,SEO 长尾词池已初步形成
---
🥈 Slime RNG | 并发 85.9K | Rating 98% | Genre Simulator | 上线 ~2个月 | Google Trends: 🟡 Early Stage → Declining | 入选评级:高潜力
战略理由:
- Genre=Simulator,RNG 机制天然驱动重复游玩和内容消费
- Rating 98% 为本次候选中最高,口碑极强,玩家粘性高
- 2月上线至今(~2个月)已沉淀稳定 CCU 80K+,属于成熟期新作
- 注意:Google Trends 峰值已过(3月底 ~85分),现处于 ~50分下降通道,需评估是否已进入「平台期」
- 内容潜力:RNG 掉落表/概率分析、速通攻略、稀有 Slime 图鉴具有病毒传播潜力
---
🥉 My Knife Farm | 并发 17.6K | Rating 96% | Genre Simulator/Tycoon | 上线 ~3个月 | Google Trends: 🟢 Early Stage Growth | 入选评级:高潜力
战略理由:
- 上线仅 3 个月,4月内从 #80 火箭式攀升至 #9(bloxcontrol 数据)
- 96% Rating + 稳定的 17K CCU 表明游戏质量扎实
- Google Trends 显示持续攀升,尚未触顶,内容热度还在爬坡
- Genre=Simulator/Tycoon 与内容站长尾词高度匹配
- 内容潜力:「Farm」类题材在搜索端有稳定需求;Switch Arts 团队更新频率活跃。
看到很多博主推荐 Typeless 的文章,都出现了这个问题:失去了个性化表达,越来也转向模板化表达。
我付费了 Typeless 之后,重度体验了一下,感受是:语音转文字的AI功能,只是充当了翻译工作外加润色而已,如果写作的人失去了文风和个人的表达习惯,这就适得其反。这不是在写作,而是在批量机械式生产。
面向自己表达,是先注重「工具价值」;面向读者写作,还需要注重「情绪价值」和感染力。请不要丢掉内容的灵魂。
我付费了 Typeless 之后,重度体验了一下,感受是:语音转文字的AI功能,只是充当了翻译工作外加润色而已,如果写作的人失去了文风和个人的表达习惯,这就适得其反。这不是在写作,而是在批量机械式生产。
面向自己表达,是先注重「工具价值」;面向读者写作,还需要注重「情绪价值」和感染力。请不要丢掉内容的灵魂。
#出海运营秘籍👉@yunying23
五一过后打算新开一个账号,只发用AI写的图文笔记,再配合一点投流。
做这个事,是想跟大家证明:好的AI工具➕AI提示词➕获客内容公式➕微付费投流,就可以很轻松在小红书拿到精准客资,并且是持续稳定地获客。
这套SOP我们已经用在陪跑的N个项目中了,目前验证100%傻瓜式获客。
真的,不用是我,完全不会做内容、不懂运营的人都可以做到这样。
五一过后打算新开一个账号,只发用AI写的图文笔记,再配合一点投流。
做这个事,是想跟大家证明:好的AI工具➕AI提示词➕获客内容公式➕微付费投流,就可以很轻松在小红书拿到精准客资,并且是持续稳定地获客。
这套SOP我们已经用在陪跑的N个项目中了,目前验证100%傻瓜式获客。
真的,不用是我,完全不会做内容、不懂运营的人都可以做到这样。
Forwarded from Post Bot
Media is too big
VIEW IN TELEGRAM
永久网址
豪礼大放送 高端嫩模 劳力士手表 奔驰E300等大礼等你来豪夺 首存日存彩金送不停
1月2号泰国大老板百家乐存50万出512万
1月13日pp电子糖果1000小注一拉直接爆出70万大奖
3月15号实力盘总PA真人喜提990万一路爆红
3月27-31号斯里兰卡神秘大哥连续5天总提4000万+
🏆平台优势:
1️⃣ u存u提每日提款无上限 随便提 全球不限ip #免实名 无需绑定手机号码和银行卡
2️⃣ 平台
大额出款额外奖励8888-128888,双重日存彩金128888+4688每日送,周流水彩金68888每周送,双重签到彩金16888+3888送不停
⚜️每日存款彩金每日送,每笔存款加赠
⚜️#无风控 电子真人零审核包出款
🌐官网注册网址: qs1736.cc
🩷专属VIP客服: @QSTY567
⚽️体育赛事推单:@QSTY988
➡️双向用户点击:@qsty168168_bot
㊙️午夜剧场:@guochandp7
✅ 更多优惠活动关注福利频道:@qsty8999
💰代理合营💰
老品牌 信誉高 佣金稳
代理合营频道: @QSTY321
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Post Bot
This media is not supported in your browser
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤡1
Forwarded from Post Bot
Media is too big
VIEW IN TELEGRAM
永久网址
豪礼大放送 高端嫩模 劳力士手表 奔驰E300等大礼等你来豪夺 每笔存款加赠 1%
🏆182体育 封神榜🏆
4.11号神秘大哥PG电子赏金女王一举斩获830万并成功提现
4.5号东南亚盘总PA真人百家豪赢644万一路长虹一天实现暴富
3.28号实力大哥PG电子爆出890万并以成功提现实现财富自由
截止到3.23号大哥在PA真人百家乐累计盈利突破1000万
1️⃣ 平台公平、公正、公开,信誉第一、服务第一
2️⃣ 免实名 不限ip 无需绑定手机号码和银行卡
3️⃣ u存u提 每日提款无上限 资金保障、大额无忧
平台
大额出款额外奖励8888-128888,双重日存彩金128888+4688每日送,周流水彩金68888每周送,双重签到彩金16888+3888送不停
每日存款彩金每日送,每笔存款加赠
182体育 #无风控 电子真人零审核包出款
🌐 官网注册链接: 1820036.com
🍎专属VIP客服: @vipkf_182ty8
⚽️ 体育赛事推荐:@VIP182TYTJ
➡️ 双向用户点击: @vipkf_182ty2_bot
🍉 吃瓜搞笑:@chiguagaoxiaoxinwen
✅ 更多优惠活动关注福利频道: @vip182ty888
🏆代理合营🏆
新平台 新机遇 好发展 佣金稳
代理合营频道:@DLHY182TY
Please open Telegram to view this post
VIEW IN TELEGRAM
🤡1
Forwarded from Post Bot
😃 爆庄实录|3天狂揽1086万U😃 新客首存1000,豪提120万U😃 500一拉,PG实力兑现133万U💵 亿万储备金,大额无忧
🇭🇰 香港六合彩,特码 55 倍
Please open Telegram to view this post
VIEW IN TELEGRAM
🤡1