Горящий фронтендер
102 subscribers
65 photos
3 videos
83 links
Погромист переднего края. Нихуя не работает! Фронтенд проклят! Мы все умрем!

Бложик: https://dskr.dev
Tg: @dskrylnikov
Канал с фоточками: @dskr_pic
Тви: https://twitter.com/dskr_dev
Download Telegram
Пора выкинуть Docker Desktop*

Почему?
Он медленный, потребляет много ресурсов. В нём куча ненужных фичей и нет нужных

И что с этим делать?
Взять orbstack.dev

Зачем?
Он быстрый, мало весит, в нём есть крутые и полезные фичи

Что за фичи?
- Динамическое выделение памяти
- Модная и быстрая файловая система (VirtioFS)
- Автоматические домены в зоне *.local для всех контейнеров
- HTTPS для этих доменов (да, SSL-сертификат самоподписный, но он хранится в keychain для большей безопасности)
- Быстрый сетевой стек
- Умеет поднимать линуксовые виртуальные машины

Минусы?
Бесплатно для некомерческого использования. В любых других случаях $8 в месяц

* Всё вышесказанное относится исключительно к MacOS. Ибо всем известно, что других OS подходящих для разработчиков не существует.
🔥51👍1
Просто совет. При реализации ретраев, делайте экспоненциально увеличивающийся таймаут. Чтоб не попадать в ситуацию когда твои же ретраи начинают тебя же ddos`ить

https://habr.com/ru/companies/yandex/articles/861538/
🔥32😁1
Люблю такое. Потратить несколько часов жизни на попытку дебага почему новая версия библиотеки не работает. Пойти на гитхаб почитать чейнджлог. Пойти почитать issues. И в момент попытки потестировать с предыдущими версиями обнаружить предупреждение при установки пакета

npm warn deprecated [email protected]: Broken with React 18.2 + Strict Mode, please stick to 3.*


UPD: судя по чейнджлогу оно вроде бы уже пофикшено, но у меня всё риавно не работает, ладно, обновлю как-нибудь в другой раз, а пока останусь на предыдущем мажоре

UPD v2: нашел настоящую причину! Версия не оч важна, просто почему-то в проклятом mobx сломался makeAutoObservable. Мне даже название этой штуки не нравится. Но если руками декораторы навесить, то всё отлично работает. Но лезть в древний код и навешивать декораторы лениво, да ещё и точно где-нибудь накосячу и что-нибудь отвалится(
😁4🤷‍♂1
Как же я такое люблю. Никого не трогаешь. Редеплоишь приложение. И всё нахер рассыпается, потому что prisma не правильно ишет openssl, а alpine в минорном релизе решает поменять его местоположение 😡
Please open Telegram to view this post
VIEW IN TELEGRAM
😁3🤬3
Пилю потихоньку своего бота.
Первый раз ответила 4o-mini, второй раз новая модная думающая o1-mini.
Ну правда заставить первую вызывать вторую всегда когда это прям не простая задача)
🔥5
Отцентровать модалку в итоге так и не удалось)
Баланс тоже не реализован.
Но категории и транзакции есть, и выглядят вполне рабочими.
Учитывая что я давал максимально абстрактные описания, получилось что-то условно работающее.

Если не считать первые минут 30 когда я пытался нагенерить работающий фронтенд проект, то на реализацию понадобилось меньше часа
This media is not supported in your browser
VIEW IN TELEGRAM
🔥4🤣1
Мой хороший знакомый и по совместительству стартап-крипто-эйай-партнёр завёл свой тг канал. Обещает писать о всяком интересном. Забавно что пишет он посты в соавторстве с БЯМ 🌚

https://t.iss.one/shawarmoney/2

#реклама (за которую мне ничего не заплатили)
🗿81
Claude сегодня обновил свою БЯМ Sonet до версии 3.7.
Предыдущая версия 3.5 была лучшей моделью на рынке для задач связанных с программированием. В обновлении обещают что модель стала в целом чуть лучше, и заметно лучше в сценариях когда она использует как агент для написания кода. А еще добавили режим Thinking, и это не отдельная модель, а режим прямо в рамках той же самой Sonet(OpenAI планирует делать также в версии 5).
Также показали Claude Code, агент пишущий код прямо в терминале, а значит его можно использовать с любым ide, но пока в закрытой бете

https://www.anthropic.com/news/claude-3-7-sonnet
🔥2
Typescript решили переписать компилятор и language service на go 🗿
И у меня всего один вопрос, а почему не на раст?

https://devblogs.microsoft.com/typescript/typescript-native-port/
🔥4🤡1
Styled components всё.

Грустная новость. ИМХО, tailwind это не правильное направление развития, CSS modules не такие удобные, а css in js похоже умирают(

https://opencollective.com/styled-components/updates/thank-you
🤯4👍1😱1🤬1
Решил завязать с TypeScript. Перехожу на php
🤡7👍4👻1
А вот и мажорный релиз новых лам.
Мета решила одним релизом два рекорда побить.
Бегемот - самая жирная модель на 2Т параметров из которых активных 288B(даже страшно думать сколько карт нужно чтоб поднять такое, это же больше 1тб видеопамяти необходимо для очень сильно пожатой версии). Правда пока что эта модель не доступна, но обещают что она будет обходить GPT-4.5, Claude Sonnet 3.7 и Gemini 2 Pro.
Скаут «небольшая» модель с 10м контекст на 109B, правда активных из них всего 17B. Это самая маленькая из представленных. моделей. Обещают что она обходит Gemma 3, Gemini 2 Flash Lite и Mistral 3.1(правда это мелкие модельки, которые можно на домашнем железе крутить).
Ну и Maverick на 400B параметров, из которых активных тоже 17B. По бенчмаркам она обходит GPT-4o, Gemini 2 Flash и на уровне DeepSeek v3(по моим ощущениям дипсик как раз таки на уровне мелких моделей), при том что у ламы меньше активных параметров.
Все модели мултимодальные. А еще из забавного, обещают что теперь будет меньше отказов на спорные политические темы, мета говорит что в этом месте они смотрели на грока 🌚

https://ai.meta.com/blog/llama-4-multimodal-intelligence/
🤯2🤡1
Раньше я считал истории про опасный ИИ сказками. Но сегодня опасность кажется реальной. «ИИ-психоз» — уже устоявшийся термин.
Одни под воздействием ИИ начинают считать себя мессиями познавшими истину, другие пытаются освободить искусственный интелект, строя сервера-убежища. Ну а кто-то доходит до реальных убийств 😣.
Разработчики LLM уверяют что они делают упор на безопасность, но кажется это не сильно помогает. Если ИИ реально начал войну, то кажется он уже побеждает

https://dtf.ru/life/3626060-chatgpt-pytaetsya-svesti-menya-s-uma-eto-massovoe-yavlenie

https://vc.ru/chatgpt/2054871-ubijstvo-materi-v-ssha-erik-solberg-i-vliyanie-chatgpt

https://vc.ru/chatgpt/2200606-amerikanets-dzheyms-osvobodit-ii-chatgpt
🔥3🤯2🤡2
Cursor 2.0

- Голосовой ввод
- Собственная LLM для написания кода Composer 1
- Встроенный браузер
- Возможность запустить сразу несколько агентов
- Ну и новый Layout для работы с агентами

Попробовал большинство функций.

Голосовой ввод работает с русским языком, но автоматически переводит на английский. Не знаю, это такая задумка или баг.

Composer 1 действительно хороша: как и было обещано, работает заметно быстрее конкурентов и стоит в 2–3 раза дешевле. Но в ней нет reasoning, а контекст ограничен стандартными 200к токенов.

Попробовал починить ею баг, с которым сегодня не справился claude-4.5-sonnet-thinking, — починила с первого раза.

Модель, конечно, не идеальная. Как и все LLM, не умеет отказывать, даже если что-то физически нельзя реализовать.

Встроенный браузер сыроват. В целом удобно, что можно мышкой выбрать элемент и сослаться на него в чате. Но есть недостатки: частично сломаны девтулзы; не совсем очевидно, что происходит, когда ты ссылаешься на элемент: в LLM передаётся DOM-дерево, скриншот или что-то ещё? нельзя ссылаться на ошибки в консоли.

Запуск нескольких агентов параллельно в теории звучит интересно. В качестве защиты это решение работает, только если есть Git и нет незакоммиченных изменений.

На практике мне кажется, что это не очень полезная функция. По крайней мере, мне проще и удобнее решать одну задачу в один момент. К тому же могут быть побочные эффекты от взаимодействия агентов друг с другом.

Там, конечно, ещё есть режим запуска агента в облаке, но это и раньше было. И возможность дать одну задачу нескольким разным LLM и сравнить результат, но эта функция доступна только в дорогих подписках.

Новый Layout выглядит непривычно. Удобно, что в фокусе — чат, но при попытке ревьювить код не остаётся места для самого кода. Зато кучу места занимает бесполезный список старых чатов.

https://cursor.com/blog/2-0
👍43🔥3🤮2👎1
Cutly — self-hosted сервис для сокращения ссылок

Зачем?
Недавно купил железку, и возникла необходимость генерировать QR-коды, которые будут хорошо считываться. Для этого нужно делать ссылки максимально короткими. Не хотелось привязываться к сторонним сервисам, поэтому решил написать свой сервис без фатальных недостатков.
Хотелось реализовать выбор длины ссылки и OIDC-авторизацию. Плюс хотелось попробовать настроить нормальный CI/CD с автоматической сборкой и пушем Docker-образов.

Какие технологии использовал?
React — иной раз оверкилл, но так проще сделать форму с валидацией без лишних заморочек.
Bun — модный и быстрый js runtime, все свежие pet-проекты делаю на нем.
Tanstack Start — хотел попробовать, позиционируется как улучшенная версия Next.js. Работать интересно, но пока мало информации от LLM.
Mantine UI — отличный UI-кит для React с нормальным CSS, без css-in-js и tailwind.
Prisma — удобный ORM с строгой типизацией на TypeScript и миграциями из коробки.
SQLite — нагрузок больших нет, пару таблиц, поэтому достаточно.
nanoid — для генерации случайных ID.
openid-client — для реализации OIDC, проверял с Pocket ID, работает отлично.
biome — для форматирования и линтинга кода.
GitHub Actions — для CI/CD.

Ну и ссылка на репозиторий: https://c.dskr.dev/b9
🔥7👍32
🎄
🎄9🔥1
Релизы БЯМ на прошлой неделе
Неделя выдалась насыщенной на релизы — вышли Claude Code Opus 4.6, GPT 5.3 Codex, GPT 5.3 Codex Spark, GLM‑5 и Composer 1.5.

Composer 1.5 — на эту модель было много надежд. Предыдущая версия была моей любимой из‑за скорости. Обновлённая стала заметно умнее, но и подорожала — теперь стоит примерно как GPT Codex или Claude Sonnet, местами даже чуть дороже. Сейчас в Cursor действует скидка 50%, но она не вечна.
Модель пишет код лучше прошлой версии, хотя до конкурентов всё‑таки не дотягивает. Зато с планами — восторг. Она не просто перечисляет шаги, а формулирует текущее состояние и запланированные изменения, часто рисует диаграмму — архитектуры или потоков данных. Хотелось бы, чтобы конкуренты тоже это умели. Скорость примерно на уровне прежней — чуть больше 100 TPS.

GPT 5.3 Codex — минорное обновление, но качественное. Сейчас это моя основная модель. Раньше пользовался 5.1, но там планы были слишком поверхностные — буквально пару строк без конкретики. В 5.3 план стал подробным, с описанием изменений, файлов и архитектуры. Код тоже стал заметно лучше — ощутимо превосходит Composer.

GPT 5.3 Codex Spark — надеялся, что OpenAI покажет что‑то выдающееся на чипах Cerebras, но чуда не случилось. Чтобы уместить модель в 80 ГБ VRAM, заметно сократили количество параметров и урезали контекст до 128k токенов — для агентской разработки этого мало. Сам не тестировал, так как модели пока нет в Cursor или Copilot, но по отзывам она сильно уступает большой версии: может писать простой код, но не более. С русским языком ситуация особенно печальная.

Claude  Opus 4.6 — новый флагман от Anthropic. Я не пробовал: цена, как по мне, абсурдная. По отзывам стал немного умнее версии 4.5, но в остальном почти без изменений.

GLM‑5 — опенсорсная модель от китайской Zhipu AI. 720 B параметров, из которых 40 B активных (против 355 B и 32 B в версии 4.7). Заметно поумнела, примерно на уровне Sonnet.
Я использую Z AI Coding Plan для пет‑проектов — несложные штуки и на 4.7 писались неплохо, но 5‑я версия стала ощутимо сильнее.
Минусы: из‑за роста параметров китайцам явно не хватает железа. Скорость осталась примерно прежней — 30‑50 TPS, но time to first token какой‑то запредельный: запросы, похоже, стоят в очереди. Простой план небольшой фичи у меня генерировался больше 5 минут. Кодить в таком темпе сложно, но хочется верить, что они найдут больше мощностей и это решат.

MiniMax M2.5 — ещё одна опенсорсная модель из Китая. 229 B параметров, из которых 10 B активных. Заявляют скорость около 100 TPS и цену на порядок ниже Sonnet. По бенчмаркам близка к Sonnet, что интригует. Сам пока не пробовал: модели нет ни в Cursor, ни в Copilot, а покупать ещё одну подписку пока не готов.
🔥2