Forwarded from Post Bot
😃 爆庄实录|3天狂揽1086万U😃 新客首存1000,豪提120万U😃 500一拉,PG实力兑现133万U💵 亿万储备金,大额无忧
🇭🇰 香港六合彩,特码 55 倍
Please open Telegram to view this post
VIEW IN TELEGRAM
🤡1
Forwarded from Post Bot
2025年12月份,大玩家 赌神附体,狂揽一个亿,可自行验证
永久网址
🏆全网广告费每月投入高达500万
🏆平台优势:
1️⃣ #电子真人0审核包出款、#反水无上限
2️⃣ #巨额无忧,每日提款不限额度不限次数
3️⃣
4️⃣ #不限ip、#免实名,无需绑手机号、信息安全有保障
🏆Y3 国际 全站封神榜
➡️ 8月13号 神秘玩家仅用300u爆奖140万u,成功提款1088888u
➡️ 8月16号 反水1700u仅用80u爆奖54万u,成功提款60万u
➡️ 10月10号 大哥在PG麻将胡了爆奖260万u,成功提款210万u
➡️ 12月6号 神秘盘总PA真人豪赢400万u,成功提款370万u
👑#反水无上限 日提无上限 日出千万
👑#每日存款彩金每日送,每笔存款加赠
🌐官网注册链接: y3867.com
💖 Y3国际专属客服:@Y3VIP8888
➡️ 双向用户点击: @Y3VIP777_bot
✅ 更多优惠活动关注福利频道: @Y3VIP678
Please open Telegram to view this post
VIEW IN TELEGRAM
🤡1
This media is not supported in your browser
VIEW IN TELEGRAM
API 安全的 12 个重要技巧:
1. 使用HTTPS:
就像信封保护信件内容不被偷看一样,HTTPS帮助确保你通过互联网发送的数据是安全的,避免被不该看到的人窥视。
2. 使用OAuth2:
想象有一个专门的保安,只让有门禁卡的人进入大楼。OAuth2是网络上的保安,确保只有得到允许的应用和服务可以访问你的数据。
3. 使用WebAuthn:
如果你的手机或电脑是一把钥匙,WebAuthn就是确保这把钥匙只能开启你的锁。它帮助用更安全的方式登录网站,而不仅仅是密码。
4. 使用分级API密钥:
就像有的门禁卡只能让你进入大楼的一层,而有的可以让你使用电梯去任何楼层。分级API密钥意味着不同的密钥允许不同级别的访问权限。
5. 授权:
确定谁可以进入哪些房间。就像你家的不同钥匙可以开不同的门,授权确保每个人只能访问他们需要的信息。
6. 速率限制:
避免有人连续敲门太多次,打扰到里面的人。速率限制确保服务不会因为太多请求而崩溃,保持服务稳定。
7. API版本控制:
就像游戏更新新版本加入新功能,但旧版本仍可用。API版本控制允许开发者引入新功能而不打乱使用旧版本的用户。
8. 白名单:
创建一个允许访问的人名单。只有名单上的人可以访问服务,保护你的服务不被未经授权的访问。
9. 检查OWASP API安全风险:
OWASP列出了网上最常见的安全问,就像一个检查清单,帮助你避免这些问,保护你的API不受攻击。
10. 使用API网关:
想象一个大楼的前台,决定访问者能去哪里。API网关管理所有进入系统的请求,提供额外的安全层。
11. 错误处理:
当事情出错时,正确地告知发生了什么,而不透露太多信息。这就像是当你的APP出错时,给出有用的提示而不是让问变得更糟。
12. 输入验证:
确保别人给你的信息是你期待的类型和格式。就像你只接受合法的货币支付,输入验证帮助确保接收到的数据是安全和可用的。
互联网充电站
1. 使用HTTPS:
就像信封保护信件内容不被偷看一样,HTTPS帮助确保你通过互联网发送的数据是安全的,避免被不该看到的人窥视。
2. 使用OAuth2:
想象有一个专门的保安,只让有门禁卡的人进入大楼。OAuth2是网络上的保安,确保只有得到允许的应用和服务可以访问你的数据。
3. 使用WebAuthn:
如果你的手机或电脑是一把钥匙,WebAuthn就是确保这把钥匙只能开启你的锁。它帮助用更安全的方式登录网站,而不仅仅是密码。
4. 使用分级API密钥:
就像有的门禁卡只能让你进入大楼的一层,而有的可以让你使用电梯去任何楼层。分级API密钥意味着不同的密钥允许不同级别的访问权限。
5. 授权:
确定谁可以进入哪些房间。就像你家的不同钥匙可以开不同的门,授权确保每个人只能访问他们需要的信息。
6. 速率限制:
避免有人连续敲门太多次,打扰到里面的人。速率限制确保服务不会因为太多请求而崩溃,保持服务稳定。
7. API版本控制:
就像游戏更新新版本加入新功能,但旧版本仍可用。API版本控制允许开发者引入新功能而不打乱使用旧版本的用户。
8. 白名单:
创建一个允许访问的人名单。只有名单上的人可以访问服务,保护你的服务不被未经授权的访问。
9. 检查OWASP API安全风险:
OWASP列出了网上最常见的安全问,就像一个检查清单,帮助你避免这些问,保护你的API不受攻击。
10. 使用API网关:
想象一个大楼的前台,决定访问者能去哪里。API网关管理所有进入系统的请求,提供额外的安全层。
11. 错误处理:
当事情出错时,正确地告知发生了什么,而不透露太多信息。这就像是当你的APP出错时,给出有用的提示而不是让问变得更糟。
12. 输入验证:
确保别人给你的信息是你期待的类型和格式。就像你只接受合法的货币支付,输入验证帮助确保接收到的数据是安全和可用的。
互联网充电站
Meta再次收购中国创始人的AI公司,合规角度的三点观察
2026年5月1日,Meta官宣收购机器人模型公司Assured Robot Intelligence(ARI),未披露具体交易金额。与此前引发较大争议的Manus交易类似,本次收购的核心仍然是“收购团队”:两位创始人王小龙和Lerrel Pinto及其团队将整体加入Meta,参与其机器人与AI相关研发工作。
ARI的核心团队颇有些中国色彩。创始人之一王小龙是华南农业大学的本科、中山大学的硕士,后来在卡耐基梅隆大学读完博士,在加州伯克利分校做博后研究,随后到加州圣地亚哥分校担任副教授,同时还在英伟达做过研究员。王小龙曾获得斯隆研究奖和美国国家科学基金会NSF CAREER Award,发过多篇顶会论文。
另一位创始人Lerrel Pinto同样是卡耐基梅隆大学的博士,和王小龙同期在加州伯克利分校做博后研究,随后到纽约大学担任助理教授。此前他还创办了另一家机器人公司Fauna Robotics,这家公司在2025年成功被亚马逊收购。
除了两位核心创始人之外,另有一位Xuxin Cheng在早期加入了ARI。他在2020年从北京理工大学本科毕业,卡耐基梅隆大学硕士毕业后在加州圣地亚哥分校读博,是王小龙的博士生。
团队在大约一年前创立了ARI,核心方向是为机器人提供通用的“决策与控制能力”,通过强化学习、运动捕捉、轨迹优化等方法,训练控制模型,使得机器人能够在真实物理环境中完成复杂动作和任务。这也是当前具身智能领域最重要的技术方向之一。
本次被收购之前,ARI只宣布了一笔由AIX Ventures进行的种子轮融资,也未披露估值和融资规模。
从公司架构上看,ARI注册于特拉华州,属于典型的Delaware C-Corporation结构,这也是美国绝大多数科技初创公司的标准选择。目前没有迹象显示其采用开曼、新加坡、或其他离岸架构。
从合规层面讲,这次收购至少有三个观察点:
第一,不论中美的监管都是有限度的。
Manus交易被国家发改委叫停之后,市场普遍提高了对中美政府监管审查的预期,尤其是在中国的技术出口与国家安全领域。但从实践来看,无论是中国还是美国,监管资源与审查范围都不可能无限扩张。
以美国为例,CFIUS理论上可以审查几乎所有涉及外国人投资的交易,但实际每年审查案件数量仅为300-400件。其关注重点始终集中在少数具有代表性的交易——即涉及关键技术、核心产业,或可能对国家安全产生实质影响的企业。
中国的监管逻辑与之类似。当前技术出口管制规则仍处于动态调整之中,但可以预期,其关注重点同样集中在具有重大技术和产业影响力的企业。而从Manus案体现出的监管逻辑来看,中国的监管部门更关注是否存在中国人才、中国技术、中国公司的成建制外迁,绝非不欢迎所有有中国创始人的企业并购。
Manus案自有其特殊性。Manus的交易之所以在中美两边同时受到高度关注,很大程度上源于其在早期被部分中国媒体赋予了“第二个Deepseek”“国运级产品”的定位,而Meta对Manus的收购价格又显著高于同时进行的其他类似交易。种叙事显著放大了其政策敏感性,几乎注定了其后续将面临更高强度的监管关注。
相比之下,无论是ARI,还是当前绝大多数科技初创公司,都难以被认定为涉及核心国家安全利益。特别是ARI的核心研发团队依托于美国大学,一开始就在美国研发,受到中国监管部门注意的可能性更小。因此,在正常情况下,绝大部分公司都不会面临Manus那种级别的监管压力。
第二,股权结构不要迷信“设计技巧”
近期市场出现了大量关于“如何通过股权结构规避监管”的讨论。实践中的结论其实非常明确:不应寄希望于通过复杂的股权结构、合同安排,甚至代持来规避中美任一方的监管。
早在2024年,我就在文章里提出,红筹架构已经很难适应中美政治格局下AI初创企业的需求。后来不断出现的新政策、新动向,包括今年年初有关红筹公司上市的讨论,都印证了我的这一观点。
在当前的环境下,初创公司所能采取的路径无非三种:
(1) 以中国为主体:以中国公司为融资主体,通过人民币融资或将外资转化为人民币,并通过ODI开展海外业务,未来通过A股或H股上市。
(2) 以美国为主体:以特拉华C-Corporation为融资主体,按照美国市场通行的NVCA等文件开展融资与公司治理。至多对非美国创始人或投资人,以BVI主体持股进行一定税务优化。
(3) 中美分拆为两个主体:中国的归中国,美国的归美国,通过技术服务或产品供应实现协同,中美主体的股东可能镜像安排,更大可能是中国投资人投资中国公司,美国投资人投资美国公司。严格来说也是上述两种方案的变种。
股权结构本身的可操作空间其实非常有限。整体而言,公司架构越简单、越标准,反而越具备可持续性。一些“擦边”结构在短期内或许有效(具体的在这里不多说),但对于未来具有融资或上市预期的公司而言,长期不可依赖。
ARI的收购再次印证了这一点:对于一家美国初创公司而言,采用标准的特拉华架构,往往已经是最优解。
第三,机器人行业不可能脱离中国,需要动态合规管理
与纯软件或AI应用公司不同,机器人(具身智能)行业具有显著的制造属性。这意味着,无论公司注册地或研发地在哪里,其供应链几乎不可避免地与中国产生联系。从现实情况来看,全球范围内成熟且规模化的制造能力仍然集中在中国。即使是一家完全美国本土的机器人公司,其技术开发与供应链体系也很难完全与中国脱钩。
机器人行业公司需要格外关注下述几个合规问题:
(1)技术出口与研发分工:考虑到中国的技术出口管制,受限技术无法在中国开展研发,而部分非敏感技术(如UI或通用模块)则可以在中国开发,但需要精细划分和合规设计。
(2)数据合规问题:不论是中国还是美国,都有比较严格的数据出境的规定。特别是面向美国消费者市场的机器人产品,在使用过程中必然会收集大量美国个人信息,要特别注意14117行政令及配套规则下有关数据本地存储、本地访问等的规定。
(3)供应链与反向投资审查:如果公司的成本结构中对中国供应链的依赖较高,可能触发美国对外投资或供应链安全相关的审查风险。
对于这类“无法脱离中国”的美国创业公司而言,上述问题将成为长期需要动态管理的核心合规议题。
不论是中国还是美国,跨境监管持续“选择性强化”,而不是“全面收紧”,可能是未来半年到一年的主基调。
2026年5月1日,Meta官宣收购机器人模型公司Assured Robot Intelligence(ARI),未披露具体交易金额。与此前引发较大争议的Manus交易类似,本次收购的核心仍然是“收购团队”:两位创始人王小龙和Lerrel Pinto及其团队将整体加入Meta,参与其机器人与AI相关研发工作。
ARI的核心团队颇有些中国色彩。创始人之一王小龙是华南农业大学的本科、中山大学的硕士,后来在卡耐基梅隆大学读完博士,在加州伯克利分校做博后研究,随后到加州圣地亚哥分校担任副教授,同时还在英伟达做过研究员。王小龙曾获得斯隆研究奖和美国国家科学基金会NSF CAREER Award,发过多篇顶会论文。
另一位创始人Lerrel Pinto同样是卡耐基梅隆大学的博士,和王小龙同期在加州伯克利分校做博后研究,随后到纽约大学担任助理教授。此前他还创办了另一家机器人公司Fauna Robotics,这家公司在2025年成功被亚马逊收购。
除了两位核心创始人之外,另有一位Xuxin Cheng在早期加入了ARI。他在2020年从北京理工大学本科毕业,卡耐基梅隆大学硕士毕业后在加州圣地亚哥分校读博,是王小龙的博士生。
团队在大约一年前创立了ARI,核心方向是为机器人提供通用的“决策与控制能力”,通过强化学习、运动捕捉、轨迹优化等方法,训练控制模型,使得机器人能够在真实物理环境中完成复杂动作和任务。这也是当前具身智能领域最重要的技术方向之一。
本次被收购之前,ARI只宣布了一笔由AIX Ventures进行的种子轮融资,也未披露估值和融资规模。
从公司架构上看,ARI注册于特拉华州,属于典型的Delaware C-Corporation结构,这也是美国绝大多数科技初创公司的标准选择。目前没有迹象显示其采用开曼、新加坡、或其他离岸架构。
从合规层面讲,这次收购至少有三个观察点:
第一,不论中美的监管都是有限度的。
Manus交易被国家发改委叫停之后,市场普遍提高了对中美政府监管审查的预期,尤其是在中国的技术出口与国家安全领域。但从实践来看,无论是中国还是美国,监管资源与审查范围都不可能无限扩张。
以美国为例,CFIUS理论上可以审查几乎所有涉及外国人投资的交易,但实际每年审查案件数量仅为300-400件。其关注重点始终集中在少数具有代表性的交易——即涉及关键技术、核心产业,或可能对国家安全产生实质影响的企业。
中国的监管逻辑与之类似。当前技术出口管制规则仍处于动态调整之中,但可以预期,其关注重点同样集中在具有重大技术和产业影响力的企业。而从Manus案体现出的监管逻辑来看,中国的监管部门更关注是否存在中国人才、中国技术、中国公司的成建制外迁,绝非不欢迎所有有中国创始人的企业并购。
Manus案自有其特殊性。Manus的交易之所以在中美两边同时受到高度关注,很大程度上源于其在早期被部分中国媒体赋予了“第二个Deepseek”“国运级产品”的定位,而Meta对Manus的收购价格又显著高于同时进行的其他类似交易。种叙事显著放大了其政策敏感性,几乎注定了其后续将面临更高强度的监管关注。
相比之下,无论是ARI,还是当前绝大多数科技初创公司,都难以被认定为涉及核心国家安全利益。特别是ARI的核心研发团队依托于美国大学,一开始就在美国研发,受到中国监管部门注意的可能性更小。因此,在正常情况下,绝大部分公司都不会面临Manus那种级别的监管压力。
第二,股权结构不要迷信“设计技巧”
近期市场出现了大量关于“如何通过股权结构规避监管”的讨论。实践中的结论其实非常明确:不应寄希望于通过复杂的股权结构、合同安排,甚至代持来规避中美任一方的监管。
早在2024年,我就在文章里提出,红筹架构已经很难适应中美政治格局下AI初创企业的需求。后来不断出现的新政策、新动向,包括今年年初有关红筹公司上市的讨论,都印证了我的这一观点。
在当前的环境下,初创公司所能采取的路径无非三种:
(1) 以中国为主体:以中国公司为融资主体,通过人民币融资或将外资转化为人民币,并通过ODI开展海外业务,未来通过A股或H股上市。
(2) 以美国为主体:以特拉华C-Corporation为融资主体,按照美国市场通行的NVCA等文件开展融资与公司治理。至多对非美国创始人或投资人,以BVI主体持股进行一定税务优化。
(3) 中美分拆为两个主体:中国的归中国,美国的归美国,通过技术服务或产品供应实现协同,中美主体的股东可能镜像安排,更大可能是中国投资人投资中国公司,美国投资人投资美国公司。严格来说也是上述两种方案的变种。
股权结构本身的可操作空间其实非常有限。整体而言,公司架构越简单、越标准,反而越具备可持续性。一些“擦边”结构在短期内或许有效(具体的在这里不多说),但对于未来具有融资或上市预期的公司而言,长期不可依赖。
ARI的收购再次印证了这一点:对于一家美国初创公司而言,采用标准的特拉华架构,往往已经是最优解。
第三,机器人行业不可能脱离中国,需要动态合规管理
与纯软件或AI应用公司不同,机器人(具身智能)行业具有显著的制造属性。这意味着,无论公司注册地或研发地在哪里,其供应链几乎不可避免地与中国产生联系。从现实情况来看,全球范围内成熟且规模化的制造能力仍然集中在中国。即使是一家完全美国本土的机器人公司,其技术开发与供应链体系也很难完全与中国脱钩。
机器人行业公司需要格外关注下述几个合规问题:
(1)技术出口与研发分工:考虑到中国的技术出口管制,受限技术无法在中国开展研发,而部分非敏感技术(如UI或通用模块)则可以在中国开发,但需要精细划分和合规设计。
(2)数据合规问题:不论是中国还是美国,都有比较严格的数据出境的规定。特别是面向美国消费者市场的机器人产品,在使用过程中必然会收集大量美国个人信息,要特别注意14117行政令及配套规则下有关数据本地存储、本地访问等的规定。
(3)供应链与反向投资审查:如果公司的成本结构中对中国供应链的依赖较高,可能触发美国对外投资或供应链安全相关的审查风险。
对于这类“无法脱离中国”的美国创业公司而言,上述问题将成为长期需要动态管理的核心合规议题。
不论是中国还是美国,跨境监管持续“选择性强化”,而不是“全面收紧”,可能是未来半年到一年的主基调。
❤1
This media is not supported in your browser
VIEW IN TELEGRAM
那国首都国际机场、广州白云机场都出现返祖现象——工作人员男男女女皆着明制汉服。 是偏贵族服还是小厮服? 长衣宽袖方便工作吗? 着装时间付工资吗? 短发或发量少的要用假发做发髻吗? 干洗还是湿洗会增加成本吗? 是节日临时换装还是准备试点成为常态?
互联网充电站
互联网充电站
真的,Google DeepMind 的 CEO Demis Hassabis 每一期访谈我觉得值得都花时间看看。这哥们讲东西很实在,而且通俗易懂。
早上边跑步边听完了他和 YC CEO Garry Tan 的最新一期播客。
刚刚把笔记写完,也给大家分享下。
多说一句,好多人问我这种笔记是不是 AI 写的。我说下自己的流程。
我会先完整听完播客,然后用语音输入法把感触尽量充分地讲出来,再让 AI 帮着整理初稿,最后自己逐字修改优化。
如果全部交给 AI 做总结,那等于把思考和理解的能力让渡给了 AI,对自己理解这件事其实没有任何价值。
OK,咱们进正题。
1
Demis 的态度非常明确,现在的大模型范式(大规模预训练 + RLHF + CoT)一定会是 AGI 最终架构的一部分,他不认为这会是条死路。
但要实现 AGI,还有几个关键问题要解决。这几个问题包括:持续学习、长程推理和记忆系统。
先从最容易看到的现象讲起,Context Window。
现在大模型处理长信息,最常用的招就是把 Context Window 一直撑大。一开始 8k,后来 32k,再后来 100 万 Token。听起来很厉害,但本质上是暴力堆砌。
Context Window 其实就相当于人脑里的 Working Memory,工作记忆。人的工作记忆能同时装多少东西?心理学里有个经典数字,7 个左右。背电话号码能记住 7 位上下,再多就溢出了。
大模型呢?已经做到 100 万 Token。
按理说,模型的工作记忆比人大几十万倍,应该比人聪明几十万倍才对。但显然不是。
问题也恰恰就出现在这。把所有东西都塞进 Context Window 里,里面包含了不重要的东西、错的东西、过时的东西。看起来信息很多,其实是一团乱麻。
那人为什么 7 个数字的工作记忆就够用?
因为人脑背后还有另一套机制在工作。我们记得几年前的事,记得童年的事,记得几小时前发生的事。这些都不塞在工作记忆里,而是另一套系统。
具体来说这套系统是海马体,大脑里负责把新知识整合进已有知识库的那个部分。
研究发现,人睡觉的时候,特别是 REM 睡眠阶段,大脑会重放白天重要的片段,让大脑从中学习。新东西在睡觉的过程里,温柔地融进了旧的知识体系。
这个把新东西融进旧知识库的过程,就是持续学习。
模型现在没有这套机制。每一次对话结束,刚学到的东西就会忘记。下次重新打开,还是上次那个模型,没长进。
2
再聊聊长程推理的问题。英文表达是 Long-term Reasoning。我翻译为了长程。
长程推理这个词太抽象了。Demis 讲了一个特别具体的故事,听完会立刻明白他说的是什么。
他说自己喜欢跟 Gemini 下国际象棋。下棋的过程里能看到模型的 thinking trace,也就是它在那里到底想了什么。
然后他发现一件怪事。
模型考虑一步棋的时候,思考链里清清楚楚写着,这步是个昏招。但接下来,它没找到更好的走法,于是又走回这步昏招。
明明知道是错的,还是把错的那一步走出去了。
这个细节比任何 benchmark 数据都说明问题。因为它暴露的是模型缺少对自己思考过程的某种内省能力。
正常人下棋,意识到一步是昏招之后,脑子里会有一个反应,停一下,再想想。停一下、再想想这个能力,模型现在没有。它能在每一步局部判断对错,但没法基于整盘棋的局势去调整整体策略。
这就是长程推理还没搞定的样子。模型可以一步一步往前走,每一步看起来都合理,但走到后面整盘棋的方向其实是错的。它没有那种退回到当前思考的上一层、重新审视一下的能力。
说到底,模型缺的是一种内省。
3
学习、长程推理、记忆,这是 Demis 在播客里点出来的三个 AGI 鸿沟。
除此之外,他还反复提到了创造力。
2016 年 AlphaGo 跟李世石下棋,第二局走出了著名的 Move 37。那一步棋走出来的瞬间,全世界的围棋高手都看呆了。
所有人类几千年下围棋积累的经验都告诉它不该下那里,但 AlphaGo 下了。下完之后大家发现,是一步神来之笔。
很多人觉得,这就是 AI 的创造力来了。
但 Demis 说,对他自己来说,Move 37 只是起点。他真正想看到的是另一件事。AI 能不能发明围棋这件事本身。
这两件事的区别非常关键。
Move 37 是在围棋这个现成的规则里,找到了一步人类没想到的招。但围棋的规则、棋盘的形状、黑白子的对弈方式,是人类发明出来的。AI 在已有的框架里非常厉害,但能不能自己造一个框架,是另外一回事。
Demis 给了一个具体的设想。
如果给 AI 一个高层次的描述。造一个游戏,五分钟能学会规则,要好几辈子才能精通,棋局有审美,一下午能下完一局。AI 能不能根据这个描述,自己倒推出围棋?
目前做不到。
为了把这件事讲得更清楚,Demis 还提了一个测试,他自己叫爱因斯坦测试。
用 1901 年人类已有的全部知识训练一个模型,看它能不能在 1905 年那个时间点,自己推出狭义相对论。
爱因斯坦在 1905 年那一年里,连写了几篇改变物理学的论文,后来叫爱因斯坦奇迹年。那些工作不是从已有的物理学论文里通过拼接得到的,是基于已有材料做了一次全新的概念跳跃。
爱因斯坦测试想问的就是这件事。AI 能不能做这种跳跃。
目前的大模型主要在做两件事,pattern matching 和 extrapolation。一个是从大量数据里找规律,一个是把规律往外延伸一点。但发现新东西需要的是类比推理的能力。从一个领域里抽出深层结构,搬到另一个全新的领域去用。
这个能力,模型现在还没有。也可能是有,但用法不对所以激发不出来。
4
除此之外,Demis 还分享了一个让我特别出乎意料的判断,他说未来 6 到 12 个月,真正的价值不在更大的模型,在更小的模型。
这一部分内容我反复听了好几次,确实突破我的已有认知。
不知道大家的想法,反正我自己,这一年来并没有怎么关注小模型的进展。毕竟行业的焦点就是把模型做大嘛。
那小模型的价值到底在哪?
最直接的是成本。同样一个任务,小模型的推理价格可能只是前沿模型的十分之一甚至更少。
但 Demis 说,比成本更重要的其实是速度。
这里有一个前提得先说清楚。Demis 不是在说速度可以替代智能。
他的原话是,当小模型的能力已经达到前沿模型的 90% 到 95%,也就是已经相当不错的时候,剩下那 5% 到 10% 的能力差距,比不上速度带来的好处。
比如现在工程师用 AI 写代码,已经形成了一种新的工作节奏。一个想法冒出来,几秒之内就能看到结果,不行就改,再不行再改。
这个一改再改的循环跑得越快,做出来的东西就越好。如果每次调用都要等十秒,整个工作流就被打断了。
更关键的是,快到一定程度,工程师在这种节奏里能进入心流。一个想法、一次尝试、一个反馈、再来一个想法,思维不被打断。
这件事写过代码的人都懂,进入心流和频繁掉出心流,产出的差距是数量级的。
Agent 也是同样的逻辑。一个 Agent 跑完一个任务可能要调几十次模型,每次慢一秒,整个任务就慢一分钟。慢到一定程度,Agent 就从一个能用的东西变成鸡肋。
小模型不是大模型的廉价替代品。有些事只有小模型能做。
比如手机、眼镜、家用机器人,需要的就是一个能在本地跑起来的模型。本地跑除了反应快,还有一个特别重要的好处,隐私。
家里机器人看到的视频、听到的对话,全部在设备本地处理,根本不上云。这件事对很多用户来说不是加分项,是底线。
成本、速度、边缘部署,这是小模型的价值。
5
讲完小模型的价值,接下来一个更关键的问题是,能力被压到这么小的参数里,会不会有上限?
Demis 的判断是,目前没看到信息密度有任何理论上限。小模型的智能天花板还远没看到。
支撑这个判断的,是 DeepMind 在蒸馏这件事上的积累。蒸馏简单说就是先训练一个超大的模型,然后用这个超大模型去教一个小模型。教完之后,小模型用极少的参数,能复现原来 95% 以上的能力。
为什么 DeepMind 这么重视蒸馏?因为要把 AI 能力放进谷歌的头部产品中,前提是低延迟、低成本。前沿模型再强,每次推理花几秒钟、花几毛钱...这条路,恐怕很难走得通。
一个前沿模型发布之后,6 到 12 个月内,他们就能把这个模型的能力蒸馏到边缘设备能跑的小模型上去。这个时间表比很多人想的要快。
在很多场景中,小模型和大模型会相互配合。
举个例子,一个端到端的智能助手,绝大部分日常任务在本地的小模型上跑。智能眼镜看到的画面、家里机器人听到的对话、手机里的私人助理,模型直接在设备里读懂,不需要往云端传一遍。
只有遇到特别复杂、本地搞不定的问题,才向云端的前沿模型发起请求。
也就是说小模型在边缘做主力,前沿模型在云端做后援。
不过,这个构想对小模型的要求也比较高,它不能只会处理文字,还得能理解物理世界。
这就是为什么 Gemini 从一开始就坚持多模态,不光处理文字,也处理图像、视频、声音。
一开始这么做比只做文本要难得多,但眼镜也好,机器人也好,需要的是一个能看懂周围世界的模型,不是一个只会聊天的模型。
讲到这里,小模型这条路的轮廓就完全清楚了。它独立成立,不是前沿模型的廉价替代品,而是另一条同样重要的路。
嗯,很有启发。
早上边跑步边听完了他和 YC CEO Garry Tan 的最新一期播客。
刚刚把笔记写完,也给大家分享下。
多说一句,好多人问我这种笔记是不是 AI 写的。我说下自己的流程。
我会先完整听完播客,然后用语音输入法把感触尽量充分地讲出来,再让 AI 帮着整理初稿,最后自己逐字修改优化。
如果全部交给 AI 做总结,那等于把思考和理解的能力让渡给了 AI,对自己理解这件事其实没有任何价值。
OK,咱们进正题。
1
Demis 的态度非常明确,现在的大模型范式(大规模预训练 + RLHF + CoT)一定会是 AGI 最终架构的一部分,他不认为这会是条死路。
但要实现 AGI,还有几个关键问题要解决。这几个问题包括:持续学习、长程推理和记忆系统。
先从最容易看到的现象讲起,Context Window。
现在大模型处理长信息,最常用的招就是把 Context Window 一直撑大。一开始 8k,后来 32k,再后来 100 万 Token。听起来很厉害,但本质上是暴力堆砌。
Context Window 其实就相当于人脑里的 Working Memory,工作记忆。人的工作记忆能同时装多少东西?心理学里有个经典数字,7 个左右。背电话号码能记住 7 位上下,再多就溢出了。
大模型呢?已经做到 100 万 Token。
按理说,模型的工作记忆比人大几十万倍,应该比人聪明几十万倍才对。但显然不是。
问题也恰恰就出现在这。把所有东西都塞进 Context Window 里,里面包含了不重要的东西、错的东西、过时的东西。看起来信息很多,其实是一团乱麻。
那人为什么 7 个数字的工作记忆就够用?
因为人脑背后还有另一套机制在工作。我们记得几年前的事,记得童年的事,记得几小时前发生的事。这些都不塞在工作记忆里,而是另一套系统。
具体来说这套系统是海马体,大脑里负责把新知识整合进已有知识库的那个部分。
研究发现,人睡觉的时候,特别是 REM 睡眠阶段,大脑会重放白天重要的片段,让大脑从中学习。新东西在睡觉的过程里,温柔地融进了旧的知识体系。
这个把新东西融进旧知识库的过程,就是持续学习。
模型现在没有这套机制。每一次对话结束,刚学到的东西就会忘记。下次重新打开,还是上次那个模型,没长进。
2
再聊聊长程推理的问题。英文表达是 Long-term Reasoning。我翻译为了长程。
长程推理这个词太抽象了。Demis 讲了一个特别具体的故事,听完会立刻明白他说的是什么。
他说自己喜欢跟 Gemini 下国际象棋。下棋的过程里能看到模型的 thinking trace,也就是它在那里到底想了什么。
然后他发现一件怪事。
模型考虑一步棋的时候,思考链里清清楚楚写着,这步是个昏招。但接下来,它没找到更好的走法,于是又走回这步昏招。
明明知道是错的,还是把错的那一步走出去了。
这个细节比任何 benchmark 数据都说明问题。因为它暴露的是模型缺少对自己思考过程的某种内省能力。
正常人下棋,意识到一步是昏招之后,脑子里会有一个反应,停一下,再想想。停一下、再想想这个能力,模型现在没有。它能在每一步局部判断对错,但没法基于整盘棋的局势去调整整体策略。
这就是长程推理还没搞定的样子。模型可以一步一步往前走,每一步看起来都合理,但走到后面整盘棋的方向其实是错的。它没有那种退回到当前思考的上一层、重新审视一下的能力。
说到底,模型缺的是一种内省。
3
学习、长程推理、记忆,这是 Demis 在播客里点出来的三个 AGI 鸿沟。
除此之外,他还反复提到了创造力。
2016 年 AlphaGo 跟李世石下棋,第二局走出了著名的 Move 37。那一步棋走出来的瞬间,全世界的围棋高手都看呆了。
所有人类几千年下围棋积累的经验都告诉它不该下那里,但 AlphaGo 下了。下完之后大家发现,是一步神来之笔。
很多人觉得,这就是 AI 的创造力来了。
但 Demis 说,对他自己来说,Move 37 只是起点。他真正想看到的是另一件事。AI 能不能发明围棋这件事本身。
这两件事的区别非常关键。
Move 37 是在围棋这个现成的规则里,找到了一步人类没想到的招。但围棋的规则、棋盘的形状、黑白子的对弈方式,是人类发明出来的。AI 在已有的框架里非常厉害,但能不能自己造一个框架,是另外一回事。
Demis 给了一个具体的设想。
如果给 AI 一个高层次的描述。造一个游戏,五分钟能学会规则,要好几辈子才能精通,棋局有审美,一下午能下完一局。AI 能不能根据这个描述,自己倒推出围棋?
目前做不到。
为了把这件事讲得更清楚,Demis 还提了一个测试,他自己叫爱因斯坦测试。
用 1901 年人类已有的全部知识训练一个模型,看它能不能在 1905 年那个时间点,自己推出狭义相对论。
爱因斯坦在 1905 年那一年里,连写了几篇改变物理学的论文,后来叫爱因斯坦奇迹年。那些工作不是从已有的物理学论文里通过拼接得到的,是基于已有材料做了一次全新的概念跳跃。
爱因斯坦测试想问的就是这件事。AI 能不能做这种跳跃。
目前的大模型主要在做两件事,pattern matching 和 extrapolation。一个是从大量数据里找规律,一个是把规律往外延伸一点。但发现新东西需要的是类比推理的能力。从一个领域里抽出深层结构,搬到另一个全新的领域去用。
这个能力,模型现在还没有。也可能是有,但用法不对所以激发不出来。
4
除此之外,Demis 还分享了一个让我特别出乎意料的判断,他说未来 6 到 12 个月,真正的价值不在更大的模型,在更小的模型。
这一部分内容我反复听了好几次,确实突破我的已有认知。
不知道大家的想法,反正我自己,这一年来并没有怎么关注小模型的进展。毕竟行业的焦点就是把模型做大嘛。
那小模型的价值到底在哪?
最直接的是成本。同样一个任务,小模型的推理价格可能只是前沿模型的十分之一甚至更少。
但 Demis 说,比成本更重要的其实是速度。
这里有一个前提得先说清楚。Demis 不是在说速度可以替代智能。
他的原话是,当小模型的能力已经达到前沿模型的 90% 到 95%,也就是已经相当不错的时候,剩下那 5% 到 10% 的能力差距,比不上速度带来的好处。
比如现在工程师用 AI 写代码,已经形成了一种新的工作节奏。一个想法冒出来,几秒之内就能看到结果,不行就改,再不行再改。
这个一改再改的循环跑得越快,做出来的东西就越好。如果每次调用都要等十秒,整个工作流就被打断了。
更关键的是,快到一定程度,工程师在这种节奏里能进入心流。一个想法、一次尝试、一个反馈、再来一个想法,思维不被打断。
这件事写过代码的人都懂,进入心流和频繁掉出心流,产出的差距是数量级的。
Agent 也是同样的逻辑。一个 Agent 跑完一个任务可能要调几十次模型,每次慢一秒,整个任务就慢一分钟。慢到一定程度,Agent 就从一个能用的东西变成鸡肋。
小模型不是大模型的廉价替代品。有些事只有小模型能做。
比如手机、眼镜、家用机器人,需要的就是一个能在本地跑起来的模型。本地跑除了反应快,还有一个特别重要的好处,隐私。
家里机器人看到的视频、听到的对话,全部在设备本地处理,根本不上云。这件事对很多用户来说不是加分项,是底线。
成本、速度、边缘部署,这是小模型的价值。
5
讲完小模型的价值,接下来一个更关键的问题是,能力被压到这么小的参数里,会不会有上限?
Demis 的判断是,目前没看到信息密度有任何理论上限。小模型的智能天花板还远没看到。
支撑这个判断的,是 DeepMind 在蒸馏这件事上的积累。蒸馏简单说就是先训练一个超大的模型,然后用这个超大模型去教一个小模型。教完之后,小模型用极少的参数,能复现原来 95% 以上的能力。
为什么 DeepMind 这么重视蒸馏?因为要把 AI 能力放进谷歌的头部产品中,前提是低延迟、低成本。前沿模型再强,每次推理花几秒钟、花几毛钱...这条路,恐怕很难走得通。
一个前沿模型发布之后,6 到 12 个月内,他们就能把这个模型的能力蒸馏到边缘设备能跑的小模型上去。这个时间表比很多人想的要快。
在很多场景中,小模型和大模型会相互配合。
举个例子,一个端到端的智能助手,绝大部分日常任务在本地的小模型上跑。智能眼镜看到的画面、家里机器人听到的对话、手机里的私人助理,模型直接在设备里读懂,不需要往云端传一遍。
只有遇到特别复杂、本地搞不定的问题,才向云端的前沿模型发起请求。
也就是说小模型在边缘做主力,前沿模型在云端做后援。
不过,这个构想对小模型的要求也比较高,它不能只会处理文字,还得能理解物理世界。
这就是为什么 Gemini 从一开始就坚持多模态,不光处理文字,也处理图像、视频、声音。
一开始这么做比只做文本要难得多,但眼镜也好,机器人也好,需要的是一个能看懂周围世界的模型,不是一个只会聊天的模型。
讲到这里,小模型这条路的轮廓就完全清楚了。它独立成立,不是前沿模型的廉价替代品,而是另一条同样重要的路。
嗯,很有启发。
看到一个「专为程序员编写的英语学习指南」,没有啥务虚的东西,教程通过深挖语言学习的本质,并用程序员易于理解的方式去思考,提供自己根据本质推演出来的训练方法和经验做参考,整体而言很理性也很有逻辑,适合想学习好英语的同学。
🤖 https://a-programmers-guide-to-english.harryyu.me/
互联网充电站
🤖 https://a-programmers-guide-to-english.harryyu.me/
互联网充电站
上系统,数字化转型常见场景:一群人喊口号立项,过程推诿甩锅,结果it背锅
业务部门只口嗨不提供逻辑,当业务进系统时,所有模糊地带,都要拆开具体详细定义。
这个时候,业务部门退缩了,因为想清楚逻辑太痛苦了,重构太得罪人。
数字化的本质就是流程在造。而不是一味甩锅系统
业务部门只口嗨不提供逻辑,当业务进系统时,所有模糊地带,都要拆开具体详细定义。
这个时候,业务部门退缩了,因为想清楚逻辑太痛苦了,重构太得罪人。
数字化的本质就是流程在造。而不是一味甩锅系统
分享几个最近比较火的roblox游戏词
🥇 Kick a Lucky Block | 并发 266.9K | Rating 96% | Genre Tycoon | 上线 ~26天 | Google Trends: 🟢 Explosive Growth | 入选评级:高确定性
战略理由:
- 上线仅 26 天(2026-04-07)即冲至全平台顶流,CCU 265K+,是2026年最快爆发的新游戏
- Genre=Tycoon,完全符合内容站选题热区(数值通胀、收藏体系、rebirth经济)
- Google Trends 呈现教科书级「Launch Spike」曲线,搜索量仍在上升通道
- 成熟 Lucky Block 机制在 Roblox 有稳定受众基础,流量天花板极高
- 内容潜力:攻略/模组/作弊码视频 TikTok 传播链路清晰,SEO 长尾词池已初步形成
---
🥈 Slime RNG | 并发 85.9K | Rating 98% | Genre Simulator | 上线 ~2个月 | Google Trends: 🟡 Early Stage → Declining | 入选评级:高潜力
战略理由:
- Genre=Simulator,RNG 机制天然驱动重复游玩和内容消费
- Rating 98% 为本次候选中最高,口碑极强,玩家粘性高
- 2月上线至今(~2个月)已沉淀稳定 CCU 80K+,属于成熟期新作
- 注意:Google Trends 峰值已过(3月底 ~85分),现处于 ~50分下降通道,需评估是否已进入「平台期」
- 内容潜力:RNG 掉落表/概率分析、速通攻略、稀有 Slime 图鉴具有病毒传播潜力
---
🥉 My Knife Farm | 并发 17.6K | Rating 96% | Genre Simulator/Tycoon | 上线 ~3个月 | Google Trends: 🟢 Early Stage Growth | 入选评级:高潜力
战略理由:
- 上线仅 3 个月,4月内从 #80 火箭式攀升至 #9(bloxcontrol 数据)
- 96% Rating + 稳定的 17K CCU 表明游戏质量扎实
- Google Trends 显示持续攀升,尚未触顶,内容热度还在爬坡
- Genre=Simulator/Tycoon 与内容站长尾词高度匹配
- 内容潜力:「Farm」类题材在搜索端有稳定需求;Switch Arts 团队更新频率活跃。
🥇 Kick a Lucky Block | 并发 266.9K | Rating 96% | Genre Tycoon | 上线 ~26天 | Google Trends: 🟢 Explosive Growth | 入选评级:高确定性
战略理由:
- 上线仅 26 天(2026-04-07)即冲至全平台顶流,CCU 265K+,是2026年最快爆发的新游戏
- Genre=Tycoon,完全符合内容站选题热区(数值通胀、收藏体系、rebirth经济)
- Google Trends 呈现教科书级「Launch Spike」曲线,搜索量仍在上升通道
- 成熟 Lucky Block 机制在 Roblox 有稳定受众基础,流量天花板极高
- 内容潜力:攻略/模组/作弊码视频 TikTok 传播链路清晰,SEO 长尾词池已初步形成
---
🥈 Slime RNG | 并发 85.9K | Rating 98% | Genre Simulator | 上线 ~2个月 | Google Trends: 🟡 Early Stage → Declining | 入选评级:高潜力
战略理由:
- Genre=Simulator,RNG 机制天然驱动重复游玩和内容消费
- Rating 98% 为本次候选中最高,口碑极强,玩家粘性高
- 2月上线至今(~2个月)已沉淀稳定 CCU 80K+,属于成熟期新作
- 注意:Google Trends 峰值已过(3月底 ~85分),现处于 ~50分下降通道,需评估是否已进入「平台期」
- 内容潜力:RNG 掉落表/概率分析、速通攻略、稀有 Slime 图鉴具有病毒传播潜力
---
🥉 My Knife Farm | 并发 17.6K | Rating 96% | Genre Simulator/Tycoon | 上线 ~3个月 | Google Trends: 🟢 Early Stage Growth | 入选评级:高潜力
战略理由:
- 上线仅 3 个月,4月内从 #80 火箭式攀升至 #9(bloxcontrol 数据)
- 96% Rating + 稳定的 17K CCU 表明游戏质量扎实
- Google Trends 显示持续攀升,尚未触顶,内容热度还在爬坡
- Genre=Simulator/Tycoon 与内容站长尾词高度匹配
- 内容潜力:「Farm」类题材在搜索端有稳定需求;Switch Arts 团队更新频率活跃。
看到很多博主推荐 Typeless 的文章,都出现了这个问题:失去了个性化表达,越来也转向模板化表达。
我付费了 Typeless 之后,重度体验了一下,感受是:语音转文字的AI功能,只是充当了翻译工作外加润色而已,如果写作的人失去了文风和个人的表达习惯,这就适得其反。这不是在写作,而是在批量机械式生产。
面向自己表达,是先注重「工具价值」;面向读者写作,还需要注重「情绪价值」和感染力。请不要丢掉内容的灵魂。
我付费了 Typeless 之后,重度体验了一下,感受是:语音转文字的AI功能,只是充当了翻译工作外加润色而已,如果写作的人失去了文风和个人的表达习惯,这就适得其反。这不是在写作,而是在批量机械式生产。
面向自己表达,是先注重「工具价值」;面向读者写作,还需要注重「情绪价值」和感染力。请不要丢掉内容的灵魂。
#出海运营秘籍👉@yunying23
五一过后打算新开一个账号,只发用AI写的图文笔记,再配合一点投流。
做这个事,是想跟大家证明:好的AI工具➕AI提示词➕获客内容公式➕微付费投流,就可以很轻松在小红书拿到精准客资,并且是持续稳定地获客。
这套SOP我们已经用在陪跑的N个项目中了,目前验证100%傻瓜式获客。
真的,不用是我,完全不会做内容、不懂运营的人都可以做到这样。
五一过后打算新开一个账号,只发用AI写的图文笔记,再配合一点投流。
做这个事,是想跟大家证明:好的AI工具➕AI提示词➕获客内容公式➕微付费投流,就可以很轻松在小红书拿到精准客资,并且是持续稳定地获客。
这套SOP我们已经用在陪跑的N个项目中了,目前验证100%傻瓜式获客。
真的,不用是我,完全不会做内容、不懂运营的人都可以做到这样。
Forwarded from Post Bot
Media is too big
VIEW IN TELEGRAM
永久网址
豪礼大放送 高端嫩模 劳力士手表 奔驰E300等大礼等你来豪夺 首存日存彩金送不停
1月2号泰国大老板百家乐存50万出512万
1月13日pp电子糖果1000小注一拉直接爆出70万大奖
3月15号实力盘总PA真人喜提990万一路爆红
3月27-31号斯里兰卡神秘大哥连续5天总提4000万+
🏆平台优势:
1️⃣ u存u提每日提款无上限 随便提 全球不限ip #免实名 无需绑定手机号码和银行卡
2️⃣ 平台
大额出款额外奖励8888-128888,双重日存彩金128888+4688每日送,周流水彩金68888每周送,双重签到彩金16888+3888送不停
⚜️每日存款彩金每日送,每笔存款加赠
⚜️#无风控 电子真人零审核包出款
🌐官网注册网址: qs1736.cc
🩷专属VIP客服: @QSTY567
⚽️体育赛事推单:@QSTY988
➡️双向用户点击:@qsty168168_bot
㊙️午夜剧场:@guochandp7
✅ 更多优惠活动关注福利频道:@qsty8999
💰代理合营💰
老品牌 信誉高 佣金稳
代理合营频道: @QSTY321
Please open Telegram to view this post
VIEW IN TELEGRAM