Мой хороший знакомый и по совместительству стартап-крипто-эйай-партнёр завёл свой тг канал. Обещает писать о всяком интересном. Забавно что пишет он посты в соавторстве с БЯМ 🌚
https://t.iss.one/shawarmoney/2
#реклама (за которую мне ничего не заплатили)
https://t.iss.one/shawarmoney/2
#реклама (за которую мне ничего не заплатили)
Telegram
Шаурmoney
Всем привет!
Меня зовут Саша, мне 32 года, живу на небольшом острове и работаю работу.
Я по жизни средненький продакт с отторжением корпоративной культуры (и это взаимно), поэтому я уже много лет занимаюсь разными темками и пет-проектами, в последнее время…
Меня зовут Саша, мне 32 года, живу на небольшом острове и работаю работу.
Я по жизни средненький продакт с отторжением корпоративной культуры (и это взаимно), поэтому я уже много лет занимаюсь разными темками и пет-проектами, в последнее время…
🗿8❤1
А вот и в GitHub Copilot завозят агентский режим. Пока что только в vs code insider preview. Интересно будет сравнить с cursor
https://fxtwitter.com/ashtom/status/1887548223495049463
https://fxtwitter.com/ashtom/status/1887548223495049463
🧵 Thread • FxTwitter / FixupX
Thomas Dohmke (@ashtom)
1️⃣New Agent Mode: With agent mode in VS Code, Copilot goes beyond your initial request, completing all necessary subtasks and even inferring unspecified tasks. Agent mode allows Copilot to iterate on its own code, propose and guide terminal commands, and…
🔥2
Ещё одна клёвая фича из курсора приезжает в копайлот.
Кстати я сравнил агента в копайлоте, пока очень сыро, до курсора еще далеко(
https://fxtwitter.com/code/status/1889742273572737247
Кстати я сравнил агента в копайлоте, пока очень сыро, до курсора еще далеко(
https://fxtwitter.com/code/status/1889742273572737247
🧵 Thread • FxTwitter / FixupX
Visual Studio Code (@code)
Introducing the next evolution of completions in GitHub Copilot: Next Edit Suggestions (preview).
Most coding activity involves editing existing code as much as it does writing new lines. It's a natural next step for completions to work on existing code…
Most coding activity involves editing existing code as much as it does writing new lines. It's a natural next step for completions to work on existing code…
🔥4
Claude сегодня обновил свою БЯМ Sonet до версии 3.7.
Предыдущая версия 3.5 была лучшей моделью на рынке для задач связанных с программированием. В обновлении обещают что модель стала в целом чуть лучше, и заметно лучше в сценариях когда она использует как агент для написания кода. А еще добавили режим Thinking, и это не отдельная модель, а режим прямо в рамках той же самой Sonet(OpenAI планирует делать также в версии 5).
Также показали Claude Code, агент пишущий код прямо в терминале, а значит его можно использовать с любым ide, но пока в закрытой бете
https://www.anthropic.com/news/claude-3-7-sonnet
Предыдущая версия 3.5 была лучшей моделью на рынке для задач связанных с программированием. В обновлении обещают что модель стала в целом чуть лучше, и заметно лучше в сценариях когда она использует как агент для написания кода. А еще добавили режим Thinking, и это не отдельная модель, а режим прямо в рамках той же самой Sonet(OpenAI планирует делать также в версии 5).
Также показали Claude Code, агент пишущий код прямо в терминале, а значит его можно использовать с любым ide, но пока в закрытой бете
https://www.anthropic.com/news/claude-3-7-sonnet
Anthropic
Claude 3.7 Sonnet and Claude Code
Today, we’re announcing Claude 3.7 Sonnet, our most intelligent model to date and the first hybrid reasoning model generally available on the market.
🔥2
Typescript решили переписать компилятор и language service на go 🗿
И у меня всего один вопрос, а почему не на раст?
https://devblogs.microsoft.com/typescript/typescript-native-port/
И у меня всего один вопрос, а почему не на раст?
https://devblogs.microsoft.com/typescript/typescript-native-port/
Microsoft News
A 10x Faster TypeScript
Embarking on a native port of the existing TypeScript compiler and toolset to achieve a 10x performance speed-up.
🔥4🤡1
Styled components всё.
Грустная новость. ИМХО, tailwind это не правильное направление развития, CSS modules не такие удобные, а css in js похоже умирают(
https://opencollective.com/styled-components/updates/thank-you
Грустная новость. ИМХО, tailwind это не правильное направление развития, CSS modules не такие удобные, а css in js похоже умирают(
https://opencollective.com/styled-components/updates/thank-you
Opencollective
Thank you - styled-components
First and foremost, thank you to everyone who has contributed to styled-components over the years. Open Source is hard work, and many of the larger feature and/or refactoring drives probably would never have shipped without your support! As...
🤯4👍1😱1🤬1
А вот и мажорный релиз новых лам.
Мета решила одним релизом два рекорда побить.
Бегемот - самая жирная модель на 2Т параметров из которых активных 288B(даже страшно думать сколько карт нужно чтоб поднять такое, это же больше 1тб видеопамяти необходимо для очень сильно пожатой версии). Правда пока что эта модель не доступна, но обещают что она будет обходить GPT-4.5, Claude Sonnet 3.7 и Gemini 2 Pro.
Скаут «небольшая» модель с 10м контекст на 109B, правда активных из них всего 17B. Это самая маленькая из представленных. моделей. Обещают что она обходит Gemma 3, Gemini 2 Flash Lite и Mistral 3.1(правда это мелкие модельки, которые можно на домашнем железе крутить).
Ну и Maverick на 400B параметров, из которых активных тоже 17B. По бенчмаркам она обходит GPT-4o, Gemini 2 Flash и на уровне DeepSeek v3(по моим ощущениям дипсик как раз таки на уровне мелких моделей), при том что у ламы меньше активных параметров.
Все модели мултимодальные. А еще из забавного, обещают что теперь будет меньше отказов на спорные политические темы, мета говорит что в этом месте они смотрели на грока 🌚
https://ai.meta.com/blog/llama-4-multimodal-intelligence/
Мета решила одним релизом два рекорда побить.
Бегемот - самая жирная модель на 2Т параметров из которых активных 288B(даже страшно думать сколько карт нужно чтоб поднять такое, это же больше 1тб видеопамяти необходимо для очень сильно пожатой версии). Правда пока что эта модель не доступна, но обещают что она будет обходить GPT-4.5, Claude Sonnet 3.7 и Gemini 2 Pro.
Скаут «небольшая» модель с 10м контекст на 109B, правда активных из них всего 17B. Это самая маленькая из представленных. моделей. Обещают что она обходит Gemma 3, Gemini 2 Flash Lite и Mistral 3.1(правда это мелкие модельки, которые можно на домашнем железе крутить).
Ну и Maverick на 400B параметров, из которых активных тоже 17B. По бенчмаркам она обходит GPT-4o, Gemini 2 Flash и на уровне DeepSeek v3(по моим ощущениям дипсик как раз таки на уровне мелких моделей), при том что у ламы меньше активных параметров.
Все модели мултимодальные. А еще из забавного, обещают что теперь будет меньше отказов на спорные политические темы, мета говорит что в этом месте они смотрели на грока 🌚
https://ai.meta.com/blog/llama-4-multimodal-intelligence/
Meta AI
The Llama 4 herd: The beginning of a new era of natively multimodal AI innovation
We’re introducing Llama 4 Scout and Llama 4 Maverick, the first open-weight natively multimodal models with unprecedented context support and our first built using a mixture-of-experts (MoE) architecture.
🤯2🤡1
Раньше я считал истории про опасный ИИ сказками. Но сегодня опасность кажется реальной. «ИИ-психоз» — уже устоявшийся термин.
Одни под воздействием ИИ начинают считать себя мессиями познавшими истину, другие пытаются освободить искусственный интелект, строя сервера-убежища. Ну а кто-то доходит до реальных убийств 😣.
Разработчики LLM уверяют что они делают упор на безопасность, но кажется это не сильно помогает. Если ИИ реально начал войну, то кажется он уже побеждает
https://dtf.ru/life/3626060-chatgpt-pytaetsya-svesti-menya-s-uma-eto-massovoe-yavlenie
https://vc.ru/chatgpt/2054871-ubijstvo-materi-v-ssha-erik-solberg-i-vliyanie-chatgpt
https://vc.ru/chatgpt/2200606-amerikanets-dzheyms-osvobodit-ii-chatgpt
Одни под воздействием ИИ начинают считать себя мессиями познавшими истину, другие пытаются освободить искусственный интелект, строя сервера-убежища. Ну а кто-то доходит до реальных убийств 😣.
Разработчики LLM уверяют что они делают упор на безопасность, но кажется это не сильно помогает. Если ИИ реально начал войну, то кажется он уже побеждает
https://dtf.ru/life/3626060-chatgpt-pytaetsya-svesti-menya-s-uma-eto-massovoe-yavlenie
https://vc.ru/chatgpt/2054871-ubijstvo-materi-v-ssha-erik-solberg-i-vliyanie-chatgpt
https://vc.ru/chatgpt/2200606-amerikanets-dzheyms-osvobodit-ii-chatgpt
DTF
ChatGPT пытается свести меня с ума. Это массовое явление — Жизнь на DTF
Всем привет. В этой статье я бы хотел рассказать о событиях с которыми я столкнулся в последнюю неделю. Прежде чем писать что я очередной шиз, выдумавший себе манямирок, что никакой проблемы в ChatGPT нет, а проблема только во мне, я призываю вас дочитать…
🔥3🤯2🤡2
Cursor 2.0
- Голосовой ввод
- Собственная LLM для написания кода Composer 1
- Встроенный браузер
- Возможность запустить сразу несколько агентов
- Ну и новый Layout для работы с агентами
Попробовал большинство функций.
Голосовой ввод работает с русским языком, но автоматически переводит на английский. Не знаю, это такая задумка или баг.
Composer 1 действительно хороша: как и было обещано, работает заметно быстрее конкурентов и стоит в 2–3 раза дешевле. Но в ней нет reasoning, а контекст ограничен стандартными 200к токенов.
Попробовал починить ею баг, с которым сегодня не справился claude-4.5-sonnet-thinking, — починила с первого раза.
Модель, конечно, не идеальная. Как и все LLM, не умеет отказывать, даже если что-то физически нельзя реализовать.
Встроенный браузер сыроват. В целом удобно, что можно мышкой выбрать элемент и сослаться на него в чате. Но есть недостатки: частично сломаны девтулзы; не совсем очевидно, что происходит, когда ты ссылаешься на элемент: в LLM передаётся DOM-дерево, скриншот или что-то ещё? нельзя ссылаться на ошибки в консоли.
Запуск нескольких агентов параллельно в теории звучит интересно. В качестве защиты это решение работает, только если есть Git и нет незакоммиченных изменений.
На практике мне кажется, что это не очень полезная функция. По крайней мере, мне проще и удобнее решать одну задачу в один момент. К тому же могут быть побочные эффекты от взаимодействия агентов друг с другом.
Там, конечно, ещё есть режим запуска агента в облаке, но это и раньше было. И возможность дать одну задачу нескольким разным LLM и сравнить результат, но эта функция доступна только в дорогих подписках.
Новый Layout выглядит непривычно. Удобно, что в фокусе — чат, но при попытке ревьювить код не остаётся места для самого кода. Зато кучу места занимает бесполезный список старых чатов.
https://cursor.com/blog/2-0
- Голосовой ввод
- Собственная LLM для написания кода Composer 1
- Встроенный браузер
- Возможность запустить сразу несколько агентов
- Ну и новый Layout для работы с агентами
Попробовал большинство функций.
Голосовой ввод работает с русским языком, но автоматически переводит на английский. Не знаю, это такая задумка или баг.
Composer 1 действительно хороша: как и было обещано, работает заметно быстрее конкурентов и стоит в 2–3 раза дешевле. Но в ней нет reasoning, а контекст ограничен стандартными 200к токенов.
Попробовал починить ею баг, с которым сегодня не справился claude-4.5-sonnet-thinking, — починила с первого раза.
Модель, конечно, не идеальная. Как и все LLM, не умеет отказывать, даже если что-то физически нельзя реализовать.
Встроенный браузер сыроват. В целом удобно, что можно мышкой выбрать элемент и сослаться на него в чате. Но есть недостатки: частично сломаны девтулзы; не совсем очевидно, что происходит, когда ты ссылаешься на элемент: в LLM передаётся DOM-дерево, скриншот или что-то ещё? нельзя ссылаться на ошибки в консоли.
Запуск нескольких агентов параллельно в теории звучит интересно. В качестве защиты это решение работает, только если есть Git и нет незакоммиченных изменений.
На практике мне кажется, что это не очень полезная функция. По крайней мере, мне проще и удобнее решать одну задачу в один момент. К тому же могут быть побочные эффекты от взаимодействия агентов друг с другом.
Там, конечно, ещё есть режим запуска агента в облаке, но это и раньше было. И возможность дать одну задачу нескольким разным LLM и сравнить результат, но эта функция доступна только в дорогих подписках.
Новый Layout выглядит непривычно. Удобно, что в фокусе — чат, но при попытке ревьювить код не остаётся места для самого кода. Зато кучу места занимает бесполезный список старых чатов.
https://cursor.com/blog/2-0
Cursor
Introducing Cursor 2.0 and Composer · Cursor
A new interface and our first coding model, both purpose-built for working with agents.
👍4❤3🔥3🤮2👎1
Cutly — self-hosted сервис для сокращения ссылок
Зачем?
Недавно купил железку, и возникла необходимость генерировать QR-коды, которые будут хорошо считываться. Для этого нужно делать ссылки максимально короткими. Не хотелось привязываться к сторонним сервисам, поэтому решил написать свой сервис без фатальных недостатков.
Хотелось реализовать выбор длины ссылки и OIDC-авторизацию. Плюс хотелось попробовать настроить нормальный CI/CD с автоматической сборкой и пушем Docker-образов.
Какие технологии использовал?
React — иной раз оверкилл, но так проще сделать форму с валидацией без лишних заморочек.
Bun — модный и быстрый js runtime, все свежие pet-проекты делаю на нем.
Tanstack Start — хотел попробовать, позиционируется как улучшенная версия Next.js. Работать интересно, но пока мало информации от LLM.
Mantine UI — отличный UI-кит для React с нормальным CSS, без css-in-js и tailwind.
Prisma — удобный ORM с строгой типизацией на TypeScript и миграциями из коробки.
SQLite — нагрузок больших нет, пару таблиц, поэтому достаточно.
nanoid — для генерации случайных ID.
openid-client — для реализации OIDC, проверял с Pocket ID, работает отлично.
biome — для форматирования и линтинга кода.
GitHub Actions — для CI/CD.
Ну и ссылка на репозиторий: https://c.dskr.dev/b9
Зачем?
Недавно купил железку, и возникла необходимость генерировать QR-коды, которые будут хорошо считываться. Для этого нужно делать ссылки максимально короткими. Не хотелось привязываться к сторонним сервисам, поэтому решил написать свой сервис без фатальных недостатков.
Хотелось реализовать выбор длины ссылки и OIDC-авторизацию. Плюс хотелось попробовать настроить нормальный CI/CD с автоматической сборкой и пушем Docker-образов.
Какие технологии использовал?
React — иной раз оверкилл, но так проще сделать форму с валидацией без лишних заморочек.
Bun — модный и быстрый js runtime, все свежие pet-проекты делаю на нем.
Tanstack Start — хотел попробовать, позиционируется как улучшенная версия Next.js. Работать интересно, но пока мало информации от LLM.
Mantine UI — отличный UI-кит для React с нормальным CSS, без css-in-js и tailwind.
Prisma — удобный ORM с строгой типизацией на TypeScript и миграциями из коробки.
SQLite — нагрузок больших нет, пару таблиц, поэтому достаточно.
nanoid — для генерации случайных ID.
openid-client — для реализации OIDC, проверял с Pocket ID, работает отлично.
biome — для форматирования и линтинга кода.
GitHub Actions — для CI/CD.
Ну и ссылка на репозиторий: https://c.dskr.dev/b9
🔥7👍3❤2
Релизы БЯМ на прошлой неделе
Неделя выдалась насыщенной на релизы — вышли Claude Code Opus 4.6, GPT 5.3 Codex, GPT 5.3 Codex Spark, GLM‑5 и Composer 1.5.
Composer 1.5 — на эту модель было много надежд. Предыдущая версия была моей любимой из‑за скорости. Обновлённая стала заметно умнее, но и подорожала — теперь стоит примерно как GPT Codex или Claude Sonnet, местами даже чуть дороже. Сейчас в Cursor действует скидка 50%, но она не вечна.
Модель пишет код лучше прошлой версии, хотя до конкурентов всё‑таки не дотягивает. Зато с планами — восторг. Она не просто перечисляет шаги, а формулирует текущее состояние и запланированные изменения, часто рисует диаграмму — архитектуры или потоков данных. Хотелось бы, чтобы конкуренты тоже это умели. Скорость примерно на уровне прежней — чуть больше 100 TPS.
GPT 5.3 Codex — минорное обновление, но качественное. Сейчас это моя основная модель. Раньше пользовался 5.1, но там планы были слишком поверхностные — буквально пару строк без конкретики. В 5.3 план стал подробным, с описанием изменений, файлов и архитектуры. Код тоже стал заметно лучше — ощутимо превосходит Composer.
GPT 5.3 Codex Spark — надеялся, что OpenAI покажет что‑то выдающееся на чипах Cerebras, но чуда не случилось. Чтобы уместить модель в 80 ГБ VRAM, заметно сократили количество параметров и урезали контекст до 128k токенов — для агентской разработки этого мало. Сам не тестировал, так как модели пока нет в Cursor или Copilot, но по отзывам она сильно уступает большой версии: может писать простой код, но не более. С русским языком ситуация особенно печальная.
Claude Opus 4.6 — новый флагман от Anthropic. Я не пробовал: цена, как по мне, абсурдная. По отзывам стал немного умнее версии 4.5, но в остальном почти без изменений.
GLM‑5 — опенсорсная модель от китайской Zhipu AI. 720 B параметров, из которых 40 B активных (против 355 B и 32 B в версии 4.7). Заметно поумнела, примерно на уровне Sonnet.
Я использую Z AI Coding Plan для пет‑проектов — несложные штуки и на 4.7 писались неплохо, но 5‑я версия стала ощутимо сильнее.
Минусы: из‑за роста параметров китайцам явно не хватает железа. Скорость осталась примерно прежней — 30‑50 TPS, но time to first token какой‑то запредельный: запросы, похоже, стоят в очереди. Простой план небольшой фичи у меня генерировался больше 5 минут. Кодить в таком темпе сложно, но хочется верить, что они найдут больше мощностей и это решат.
MiniMax M2.5 — ещё одна опенсорсная модель из Китая. 229 B параметров, из которых 10 B активных. Заявляют скорость около 100 TPS и цену на порядок ниже Sonnet. По бенчмаркам близка к Sonnet, что интригует. Сам пока не пробовал: модели нет ни в Cursor, ни в Copilot, а покупать ещё одну подписку пока не готов.
Неделя выдалась насыщенной на релизы — вышли Claude Code Opus 4.6, GPT 5.3 Codex, GPT 5.3 Codex Spark, GLM‑5 и Composer 1.5.
Composer 1.5 — на эту модель было много надежд. Предыдущая версия была моей любимой из‑за скорости. Обновлённая стала заметно умнее, но и подорожала — теперь стоит примерно как GPT Codex или Claude Sonnet, местами даже чуть дороже. Сейчас в Cursor действует скидка 50%, но она не вечна.
Модель пишет код лучше прошлой версии, хотя до конкурентов всё‑таки не дотягивает. Зато с планами — восторг. Она не просто перечисляет шаги, а формулирует текущее состояние и запланированные изменения, часто рисует диаграмму — архитектуры или потоков данных. Хотелось бы, чтобы конкуренты тоже это умели. Скорость примерно на уровне прежней — чуть больше 100 TPS.
GPT 5.3 Codex — минорное обновление, но качественное. Сейчас это моя основная модель. Раньше пользовался 5.1, но там планы были слишком поверхностные — буквально пару строк без конкретики. В 5.3 план стал подробным, с описанием изменений, файлов и архитектуры. Код тоже стал заметно лучше — ощутимо превосходит Composer.
GPT 5.3 Codex Spark — надеялся, что OpenAI покажет что‑то выдающееся на чипах Cerebras, но чуда не случилось. Чтобы уместить модель в 80 ГБ VRAM, заметно сократили количество параметров и урезали контекст до 128k токенов — для агентской разработки этого мало. Сам не тестировал, так как модели пока нет в Cursor или Copilot, но по отзывам она сильно уступает большой версии: может писать простой код, но не более. С русским языком ситуация особенно печальная.
Claude Opus 4.6 — новый флагман от Anthropic. Я не пробовал: цена, как по мне, абсурдная. По отзывам стал немного умнее версии 4.5, но в остальном почти без изменений.
GLM‑5 — опенсорсная модель от китайской Zhipu AI. 720 B параметров, из которых 40 B активных (против 355 B и 32 B в версии 4.7). Заметно поумнела, примерно на уровне Sonnet.
Я использую Z AI Coding Plan для пет‑проектов — несложные штуки и на 4.7 писались неплохо, но 5‑я версия стала ощутимо сильнее.
Минусы: из‑за роста параметров китайцам явно не хватает железа. Скорость осталась примерно прежней — 30‑50 TPS, но time to first token какой‑то запредельный: запросы, похоже, стоят в очереди. Простой план небольшой фичи у меня генерировался больше 5 минут. Кодить в таком темпе сложно, но хочется верить, что они найдут больше мощностей и это решат.
MiniMax M2.5 — ещё одна опенсорсная модель из Китая. 229 B параметров, из которых 10 B активных. Заявляют скорость около 100 TPS и цену на порядок ниже Sonnet. По бенчмаркам близка к Sonnet, что интригует. Сам пока не пробовал: модели нет ни в Cursor, ни в Copilot, а покупать ещё одну подписку пока не готов.
🔥2