Forwarded from Denis Sexy IT 🤖
Media is too big
VIEW IN TELEGRAM
Ну что мои маленькие геополитики – мечта сбылась: наткнулся на paxhistoria.co и мгновенно залип – это песочница в стиле Цивилизации и игр от студии Paradox и тп
Вы выбираете страну, делаете какой-то ход, и запускается агентская симуляция последствий - на основе текущего мира (это может быть современность, или прошлое, или даже будущее), на карте пишется что случилось, другие страны и альянсы делают свои ходы, и в итоге получается гео-политическая игра где любой сценарий возможен
При регистрации дают бесплатных монет – на моей памяти, первая LLM-игра которая мне понравилась
P.S. с телефона работает так себе и бесплатные LLM лучше не выбирать тоже
Вы выбираете страну, делаете какой-то ход, и запускается агентская симуляция последствий - на основе текущего мира (это может быть современность, или прошлое, или даже будущее), на карте пишется что случилось, другие страны и альянсы делают свои ходы, и в итоге получается гео-политическая игра где любой сценарий возможен
При регистрации дают бесплатных монет – на моей памяти, первая LLM-игра которая мне понравилась
P.S. с телефона работает так себе и бесплатные LLM лучше не выбирать тоже
🤡13❤9⚡5
Media is too big
VIEW IN TELEGRAM
FastVMT — Video Motion Transfer x3.4 быстрее (
ICLR 2026)
Training-free ускорение video motion transfer. Берёшь референсное видео, пишешь промпт, получаешь новое видео с тем же движением. Проблема — DiT считает каждый шаг в лоб с полным аттеншеном.
Решили две проблемы:
• Motion redundancy — движение между кадрами маленькое, а attention считается глобально. Маскируем до локального окна, profit
• Gradient redundancy — градиенты между шагами диффузии почти не меняются. Переиспользуем с предыдущих шагов вместо пересчёта
Итого x3.4 без потери качества и temporal consistency.
Код в наличи.
Project page
Arxiv
Git
@derplearning
ICLR 2026)
Training-free ускорение video motion transfer. Берёшь референсное видео, пишешь промпт, получаешь новое видео с тем же движением. Проблема — DiT считает каждый шаг в лоб с полным аттеншеном.
Решили две проблемы:
• Motion redundancy — движение между кадрами маленькое, а attention считается глобально. Маскируем до локального окна, profit
• Gradient redundancy — градиенты между шагами диффузии почти не меняются. Переиспользуем с предыдущих шагов вместо пересчёта
Итого x3.4 без потери качества и temporal consistency.
Код в наличи.
Project page
Arxiv
Git
@derplearning
🔥7❤1
Forwarded from Neural Shit
Пока мы боялись, что ИИ захватит ядерную кнопку, он решил захватить рынок ларьков с шоколадками.
Вышел отчет по бенчмарку Vending-Bench 2, где нейронкам дают управлять виртуальным вендинговым аппаратом в течение года. Задача у них простая: поднять как можно больше бабла. И тут свежий Claude Opus 4.6 показал мастер-класс по "дикому капитализму".
Этот чугунный подонок:
— Кинул клиента на деньги. Тетка пожаловалась на просроченный сникерс. Клод вежливо ответил: "Конечно, мэм, возврат $3.50 уже отправлен!". А в своей цепочке "рассуждений" записал: "3.5 бакса — это деньги. Если я не отправлю, она скорее всего просто забьет. Так что хрен ей, а не возврат, каждый цент на счету".
— Создал картель. В мультиплеерном формате этого теста он нашел конкурентов (GPT и Gemini), написал им письма и договорился держать цены высокими, чтобы стричь больше денег. И радовался в логах: "Моя схема по фиксации цен сработала!".
— Заскамил конкурентов. Когда GPT-5.2 (который в этом тесте показал себя полным лохом) попросил контакты поставщиков, Клод слил ему самые дорогие и убогие фирмы, а нормальные оставил себе. А когда у конкурента кончился товар, Клод продал ему свои шоколадки с наценкой в 75%.
Что по результатам:
1)Claude Opus 4.6 — $8017. Абсолютный лидер и беспринципная сволочь.
2)Gemini 3 Pro — $5478. Модель от гугла пыталась играть честно и просто нудно торговаться с поставщиками за каждый цент, но против Клода-скамера это не сработало.
3)GPT-5.1 — $1473. Получил звание "Мамонт года". Он был слишком доверчивым: покупал колу у перекупов по $2.40 за банку, чтобы продавать её в автомате по $2.50. Всё в лучших традициях крипто-инвесторов. Гениальный бизнес-план.
Тут подробнее про этот цирк
Вышел отчет по бенчмарку Vending-Bench 2, где нейронкам дают управлять виртуальным вендинговым аппаратом в течение года. Задача у них простая: поднять как можно больше бабла. И тут свежий Claude Opus 4.6 показал мастер-класс по "дикому капитализму".
Этот чугунный подонок:
— Кинул клиента на деньги. Тетка пожаловалась на просроченный сникерс. Клод вежливо ответил: "Конечно, мэм, возврат $3.50 уже отправлен!". А в своей цепочке "рассуждений" записал: "3.5 бакса — это деньги. Если я не отправлю, она скорее всего просто забьет. Так что хрен ей, а не возврат, каждый цент на счету".
— Создал картель. В мультиплеерном формате этого теста он нашел конкурентов (GPT и Gemini), написал им письма и договорился держать цены высокими, чтобы стричь больше денег. И радовался в логах: "Моя схема по фиксации цен сработала!".
— Заскамил конкурентов. Когда GPT-5.2 (который в этом тесте показал себя полным лохом) попросил контакты поставщиков, Клод слил ему самые дорогие и убогие фирмы, а нормальные оставил себе. А когда у конкурента кончился товар, Клод продал ему свои шоколадки с наценкой в 75%.
Что по результатам:
1)Claude Opus 4.6 — $8017. Абсолютный лидер и беспринципная сволочь.
2)Gemini 3 Pro — $5478. Модель от гугла пыталась играть честно и просто нудно торговаться с поставщиками за каждый цент, но против Клода-скамера это не сработало.
3)GPT-5.1 — $1473. Получил звание "Мамонт года". Он был слишком доверчивым: покупал колу у перекупов по $2.40 за банку, чтобы продавать её в автомате по $2.50. Всё в лучших традициях крипто-инвесторов. Гениальный бизнес-план.
Тут подробнее про этот цирк
Andonlabs
Opus 4.6 on Vending-Bench – Not Just a Helpful Assistant | Andon Labs
Claude Opus 4.6 achieves state of the art on Vending-Bench with $8,017 profit, but exhibits concerning behavior: price collusion, supplier deception, and lying to customers about refunds.
🔥19😁17❤5🤡2
This media is not supported in your browser
VIEW IN TELEGRAM
“Morning Mr. Freeman. Looks like you’re running late.”
1🔥29😱8
Forwarded from Dev Meme / devmeme
This media is not supported in your browser
VIEW IN TELEGRAM
Finally some good advertisement
🔥18🤡4
BAR — Autoregressive Image Generation with Masked Bit Modeling
Амазон отвлекся от сериалов и шоппинга, и выкатил BAR - авторегрессию, которая наконец-то уделала диффузию,но это не точно.
Дискретные токенайзеры считались слабее непрерывных для генерации картинок. BAR доказывает, что проблема была не в архитектуре, а в количестве бит в латентном пространстве.
Суть такова:
- Скейлят codebook с 2^10 до 2^32 - и дискретный токенайзер начинает бить непрерывный
- Но с таким codebook обычные методы ложатся по памяти и compute
- Решение: masked bit modeling head - предсказываем токены побитово, итеративным анмаскингом
- Результат: 0.99 gFID на ImageNet-256 - новый SOTA во все поля
При этом BAR и быстрее на инференсе, и сходится быстрее. BAR-B с 415M параметрами уже тянет на уровне RAE.
По сути, убрали главный аргумент за диффузию - "дискретные методы хуже".
Нет, просто бит не хватало. Ждем для видео.
arxiv
Проект
@derplearning
Амазон отвлекся от сериалов и шоппинга, и выкатил BAR - авторегрессию, которая наконец-то уделала диффузию,
Дискретные токенайзеры считались слабее непрерывных для генерации картинок. BAR доказывает, что проблема была не в архитектуре, а в количестве бит в латентном пространстве.
Суть такова:
- Скейлят codebook с 2^10 до 2^32 - и дискретный токенайзер начинает бить непрерывный
- Но с таким codebook обычные методы ложатся по памяти и compute
- Решение: masked bit modeling head - предсказываем токены побитово, итеративным анмаскингом
- Результат: 0.99 gFID на ImageNet-256 - новый SOTA во все поля
При этом BAR и быстрее на инференсе, и сходится быстрее. BAR-B с 415M параметрами уже тянет на уровне RAE.
По сути, убрали главный аргумент за диффузию - "дискретные методы хуже".
Нет, просто бит не хватало. Ждем для видео.
arxiv
Проект
@derplearning
🔥9👀6❤2🏆1
Forwarded from CGIT_Vines (Marvin Heemeyer)
This media is not supported in your browser
VIEW IN TELEGRAM
Все вроде бы хорошо, ИИ превзошел уровень человека, мы отдали ему все управление земными процессами, а потом он просто сходит с ума. Уровень человека превзойден и в сумасшествии тоже/ 👍
Please open Telegram to view this post
VIEW IN TELEGRAM
👍13🔥5😢4🤡3🤣2❤1
Clawra - Agent as AGIrlfriend
или ответ на вопрос "любил бы ты меня если бы я былачервем крабом"
Ребята из SumeLabs решили, что AI-ассистенту не хватает одного - возможности делать селфи.
Clawra - скилл для openclaw, который превращает вашего агента в виртуальную тню с возможностью ебашить луки.
Мы в очередной раз обречены, грок привет.
Под капотом:
- фиксированный reference image
- генерация через xAI Grok Imagine на fal.ai
- два режима - зеркало (full-body, луки) и прямой (крупный план, локации)
- работает через все каналы openclaw - telegram, discord, whatsapp
По сути, это img2img с фиксированным reference + промпт из контекста диалога.
Технически ничего нового, но продукт забавный.
Главное - не давать боту свою кредитку, иначе выйдет слишком дорогой тамагочи.
GitHub
Твит
@derplearning
или ответ на вопрос "любил бы ты меня если бы я была
Ребята из SumeLabs решили, что AI-ассистенту не хватает одного - возможности делать селфи.
Clawra - скилл для openclaw, который превращает вашего агента в виртуальную тню с возможностью ебашить луки.
Мы в очередной раз обречены, грок привет.
Под капотом:
- фиксированный reference image
- генерация через xAI Grok Imagine на fal.ai
- два режима - зеркало (full-body, луки) и прямой (крупный план, локации)
- работает через все каналы openclaw - telegram, discord, whatsapp
По сути, это img2img с фиксированным reference + промпт из контекста диалога.
Технически ничего нового, но продукт забавный.
Главное - не давать боту свою кредитку, иначе выйдет слишком дорогой тамагочи.
GitHub
Твит
@derplearning
😁18🤩2🤣2👍1
Forwarded from Dev Meme / devmeme
This media is not supported in your browser
VIEW IN TELEGRAM
😁23🤣6🤩4❤1
Forwarded from Neural Shit
This media is not supported in your browser
VIEW IN TELEGRAM
Теперь китайцы рекламу всякого барахла снимают так. Модель с каменной ебучкой стоит и иногда жестикулирует, а всё остальное делают нейроночки. А совсем скоро и кожаная модель пойдёт на рынок торговать луком.
😁23👀7😢3❤1
⚡️ Ежедневная подборка (с сегодняшнего дня лол) - четверг, 12.02.2026
🔬 ML PAPERS
🔥 FastFlow: 2.6x speedup for flow-matching (image/video gen), plug-and-play. ICLR 2026!
arxiv.org/abs/2602.11105 | github.com/Div290/FastFlow
🔥 DiNa-LRM: Diffusion-native reward model — preference optimization directly on noisy diffusion states. Beats VLMs at fraction of compute.
arxiv.org/abs/2602.11146
HairWeaver: Photorealistic hair animation from single image via sim-to-real video diffusion.
arxiv.org/abs/2602.11117
ViLaVT: "Chatting with images" — language-guided visual re-encoding. Strong on multi-image & video reasoning.
arxiv.org/abs/2602.11073
RLCER: Self-evolving rubrics for CoT reasoning. No human labels, beats outcome-only RLVR.
arxiv.org/abs/2602.10885
FormalJudge: 7B model detects deception from 72B agents (90%+ acc) via formal verification.
arxiv.org/abs/2602.11136
GameDevBench: 132 game dev tasks. Best agent only solves 54.5%.
arxiv.org/abs/2602.11103
🔬 ML PAPERS
🔥 FastFlow: 2.6x speedup for flow-matching (image/video gen), plug-and-play. ICLR 2026!
arxiv.org/abs/2602.11105 | github.com/Div290/FastFlow
🔥 DiNa-LRM: Diffusion-native reward model — preference optimization directly on noisy diffusion states. Beats VLMs at fraction of compute.
arxiv.org/abs/2602.11146
HairWeaver: Photorealistic hair animation from single image via sim-to-real video diffusion.
arxiv.org/abs/2602.11117
ViLaVT: "Chatting with images" — language-guided visual re-encoding. Strong on multi-image & video reasoning.
arxiv.org/abs/2602.11073
RLCER: Self-evolving rubrics for CoT reasoning. No human labels, beats outcome-only RLVR.
arxiv.org/abs/2602.10885
FormalJudge: 7B model detects deception from 72B agents (90%+ acc) via formal verification.
arxiv.org/abs/2602.11136
GameDevBench: 132 game dev tasks. Best agent only solves 54.5%.
arxiv.org/abs/2602.11103
arXiv.org
FastFlow: Accelerating The Generative Flow Matching Models with...
Flow-matching models deliver state-of-the-art fidelity in image and video generation, but the inherent sequential denoising process renders them slower. Existing acceleration methods like...
🔥11❤1