Борис опять
14.7K subscribers
1.25K photos
60 videos
27 files
1.34K links
life = curiosity + irreducible noise

Whois: https://t.iss.one/boris_again/1652

Лс: @btseytlin
Download Telegram
В чем-то он прав.

Люди такие создали воплощение коллективного бессознательного, возможно разумное и даже способное к страданиям, и подумали: из этого получится ебабельная аниме тян!
71👎2
Forwarded from Sergey Kushneryuk
Подставьте сюда нейросеть
64🔥173👎1
Хорошее в документации pydantic-ai
100🤔98👍2🔥1😢1
Forwarded from partially unsupervised
Я обещал написать про бота, и добрался только сейчас, потому что этот пет проект вырвался из клетки и чуть меня не сожрал. Было интересно, неожиданный end-to-end опыт от идеи до багфиксов на проде за жалкие три дня.

Все затевалось как локальная шутка для корешей и очередной подход к вайбкодингу, было сделано за пару часов, вброшено в пару чатов и оставлено без внимания. Но в итоге случилась некоторая виральность, и я потратил половину выходных, занимаясь пожаротушением.

Во-первых, парсить телеграм-каналы через bot API нельзя, и потому я парсил через телеграм-клиент, используя собственный основной аккаунт. Когда набежала толпа пользователей, я быстро попал в софт бан, и начал искать обходные пути. Рынок серых аккаунтов оказался недружелюбным, да и банились они примерно за 10 минут, даже если купить премиум и не наглеть с частотой запросов. Даже удивительно: спам-боты в комментариях прекрасно живут, а довольно безобидное чтение каналов оказалось жестко ограничено. В итоге помог рабоче-крестьянский подход - скрапить веб-версию.

Во-вторых, в попытках выстроить систему рейт лимитеров, я накостылял слишком много велосипедов, и их впоследствии пришлось расчищать. Например, из-за кривого набора лимитеров запросы в LLM уходили батчами, и частично отваливались из-за лимита уже на стороне Gemini. Я дебагал практически "на продакшене" с живыми пользователями, которые периодически справедливо жаловались, что ничего не работает. Как следствие, много ранних пользователей так и остались без ответа. К счастью, у меня остались логи в базе данных, и потому я смогу всем написать и предложить попробовать снова сейчас, когда проблемы со стабильностью решены.

В-третьих, к слове о базе данных, я впервые всерьез попробовал Neon (ссылка накинет 5 баксов на аккаунт) для своего проекта и остался очень доволен - все просто работало безо всякой возни, причем на обычном бесплатном аккаунте, это сэкономило мне кучу времени и сил. Всем рекомендую, коллегам респект!

В-четвертых, я впервые что-то сделал end-to-end на расте, и моя жизнь не будет прежней. Писать на нем руками, конечно, сложнее и дольше (skill issue, признаю), чем на каком-нибудь питоне, но если 90+% кода написано агентом, то эта проблема в целом уходит. Зато качество изменилось всерьез: если что-то компилировалось без ворнингов, то оно обычно просто работало. В питоне пришлось бы потратить на порядок больше усилий на тестирование и бесконечные фиксы. Короче, думаю, что всерьез перейду на Rust для одноразовых проектов на выброс. Отдельный кайф наблюдать, как что-то помещается в <40 мегабайт памяти.

В-пятых, аудитория оказалась совершенно за пределами моего пузыря. Я изначально делал это все для корешей-задротов, которые в основном пишут лонгриды про AI, а в итоге набежало очень много людей, у которых, например, контент - это исключительно картинки. Камон, для этого есть инстаграм! И, конечно, на таких каналах ничего не работает.

Статистика: 7500+ юзеров, 200+ плательщиков. Заработано в звездах на ~10% больше, чем потрачено на Gemini API (то есть если бы это был настоящий бизнес, экономика бы едва сошлась; не будь лимитов и платных фичей - я бы наверняка офигел от затрат). Какой-то моментум есть, можно попробовать пилить новые фичи и вообще развивать эту штуку. Для самых любопытных выложил исходники - с нуля я бы сейчас делал слегка иначе (например, надо было использовать каналы, с самого начала делать персистентность для in flight тасков), ну да как есть.
15👍11
Как обещали, расшифровка выпуска #Типичный_айтишник с Борисом!

—Расскажи кто ты и чем занимаешься?
Я Борис Цейтлин, ML engineer, до недавнего времени staff ML engineer в eBay, автор и преподаватель учебных программ по DS.

—Расскажи про свой карьерный путь?

Если вежливо называть меня, то я generalist, у меня очень разносторонний опыт. Если менее вежливо — «галопом по Европам».
В IT я попал потому, что в подростковом возрасте много играл в компьютерные игры: это перетекло в попытки сделать моды для игр, а потом и закодить что-то. В общем, я один из тех программистов, которые когда-то мечтали разрабатывать игры, а в итоге разрабатывают нейронки.
Начиналось всё с веб-разработки, а потом я попал в научную роту МЧС, где столкнулся с DS и понял, что в этой сфере потолок развития выше.
На срочной службе в армии мы занимались прогнозированием пожаров в Москве для МЧС. Конечно, на службе пришлось и клумбы пополоть, но и за компом посидеть удалось. Там я понял, что мой предыдущий подход к программированию не работает в машинном обучении и мне стало интересно разобраться глубже. А потом понеслось — магистратура Вышки, преподавание разных курсов по ML. И работа в индустрии.

Research или продакшн?
Я начинал в индустрии, поэтому у меня сильная склонность к ней. И не было такого опыта, что вся моя деятельность — только писать статьи. Статьи были в research команде Толоки, но все равно там мы делали ресерч с прицелом на дальнейшее внедрение. Мне кажется, что классно быть на стыке двух этих сфер. Заниматься ресерчем, но не работать в стол. Если нужны деньги — идти в продукт или в прикладной ресерч. Хочется двигать науку — идти в науку. Обычно перед людьми, которые прямо хотят в науку, выбор в принципе не стоит.

А что в твоей работе тебе больше всего не нравится?
В моем корпоративном опыте работы часто возникали ситуации, когда тебе понятно, что делать, но теперь нужно убедить пять менеджеров, что это действительно нужно делать. В нашей деятельности чем выше масштаб того, что ты делаешь, тем больше возникает усилий по коммуникации. Кто-то от этого кайфует, но я — нет.

Один из твоих известных проектов — гайд по поиску работы в ML. В последнее время появился тренд на накрутку опыта, чтобы найти работу. Как такой тренд повлияет на рынок труда?
Мои друзья, которые активно собеседуют, рассказывают, что часто сталкиваются с соискателями, которые легко проходят hr-скрининг, но проваливаются на техническом интервью. Ещё их заваливают тестовыми, выполненными через чат-гпт. Из успешных кейсов борьбы: вот тебе задача, пользуйся, чем хочешь, но выполни ее за фиксированное время и запиши экран. Это хороший вариант, но рынок ещё не нашёл нового решения, а старые очевидно не работают.

Расскажи прикольную историю c работы
Это произошло в стартапе, занимающимся выращиванием растений. На тот момент у ребят была одна из самых больших вертикальных ферм в Европе, и на этом объекте обкатывалось всё.
Мы занимались CV, делали первый подход к ML. Мы активно начали, собирали по 60к фото растений за день. Там же на ферме были расположены и сервера. Однажды я проснулся, зашел в slack и увидел, что фабрика сгорела. Теперь когда на собеседовании спросят о сложной ситуации на работе, могу рассказать про сгоревшую фабрику. Бэкапы мы делали, но часть данных всё равно потеряли — они сгорели. Ну и ML стало временно негде применять в этой компании. Зато технический долг сгорел в прямом смысле этих слов.

Как достичь успешного успеха?
Успешный успех — вопрос цены. Нужно определить цену и её заплатить. Например, если ты хочешь быть CEO единорога — будь готов работать 24/7 и будь готов к тому, что может не получиться.

А если хотите узнать больше про то, зачем стоит идти в преподавание, какие сейчас тренды в найме, и что было дальше со сгоревшей фермой — слушайте полную версию записи.
34🔥19👍14👎2🤔2
На выходных прошел турбо ML и Т-Банк релизнул в открытый доступ русскоязычную LLM с ризонингом: T-Pro 2.0.

Выложили не только веса, но и SFT датасеты для обучения, а так же новый математический бенчмарк.

T-Pro 2.0 сделан на основе Qwen3 32B с помощью замены токенизатора, continual pretraining, SFT дообучения. С помощью адаптированного токенизатора и спекулятивного декодирования модель генерирует вдвое быстрее, чем оригинальный Qwen3.

Результаты впечатляющие. Например, модель обходит Claude Sonnet (в режиме ризонинга) на Arena Hard Ru, на некоторых математических бенчмарках даже обгоняет Deepseek R1.

Кроме того выложили бенчмарк T-Math с олимпиадными математическими задачами на русском языке.

Подробнее читайте в статье на Хабре, ребята не поскупились на подробности.
45👍28👎22🔥128
#реклама
🚀 Не стройте ракету, пока не собрали бумажный самолёт

Один из главных рисков в запуске IT-продукта
— застрять в бесконечной доработке и не выйти на рынок.

В комьюнити Короче, Капитан делают по-другому.

Челлендж: 12 запусков за 12 месяцев.

Разработка и запуск — за 1 месяц
Минимальные вложения (средний бюджет на продвижение — $150)
Честный разбор: что получилось, а что — нет

Формула проста:
1 запуск = 1 функция = решение 1 проблемы

Три главных правила:
⚡️Проверенный спрос, а не догадки
⚡️ Быстрый запуск без перфекционизма
⚡️ Только США и ЕС — там платят за удобство

📎 Канал Короче, Капитан показывает запуск, продвижение и доход по каждому продукту в реальном времени.
🧩 Без иллюзий, без теорий — только работающие подходы и реальные цифры.

👉 Подписаться: @its_capitan

Реклама: ИП Зуев Игорь Владимирович, ИНН: 360408359441, Erid: 2Vtzqx3RgPS
👎13😢53🔥3
4414👎9
Очень конспирологическая статья Subliminal Learning: Language models transmit behavioral traits via hidden signals in data
https://arxiv.org/abs/2507.14805

В чем идея: модель-учителя обучали на датасете с какой-то ярко выраженной чертой. Например, прививая ей особенно сильную любовь к совам. Потом эту же модель просили сгенерировать данные, состоящие из с виду рандомных номеров. Например, продолжить уже созданный список каким-нибудь образом, без какого-то заданного паттерна. На этом числовом датасете потом учат student model

В итоге эта student model каким-то образом перенимает предпочтения модели-учителя и тоже начинает любить сов, обучившись на наборе чисел, которые видимо нам кажутся случайными, но таковыми не являются

Это работает с разными животными, и даже работает с MNIST: student model научилась решать задачи из этого датасета, по сути никогда не обучаясь на этих данных, а увидев только (pseudo)random noise от модели-учителя

При этом, эффект не сохраняется, если просто засунуть рандомные числа в контекст модели без дополнительного обучения, или если у студента и учителя разные базовые модели. Также отдельно проверяли, что это не подвид emergent misalignment, когда, например, модель становится злой, если ее обучить на небезопасном коде или на числах типа 666 и 1488

Еще этот подход работает, если вместо чисел генерить другие не связанные с выбранной чертой (e.g. любовь к совам) домены, например код или ризонинг трейсы для математических задач

В целом это интересная иллюстрация того, что все LLM – это достаточно необычные distribution machines. Но боюсь представить сколько шизо-теорий на этом теперь можно построить
👍60🔥2210🤔93👎2
Мало кто знает: когда ты запускаешь обучение с оптимизатором torch.optim.Adam, pytorch делает запрос по API и человек по имени Adam вручную подбирает веса. Это всегда один и тот же парень и на нем держится весь AI
167😢146👍2
Адам Кадыров получил новую награду: test of time award ICLR 2025

https://blog.iclr.cc/2025/04/14/announcing-the-test-of-time-award-winners-from-iclr-2015/
144🔥76👎5
Papers with code закрыли :(

https://paperswithcode.com редиректит на Github

Новость узнал (и скрин украл) от @repushko_channel
😢857👎2🤔2
🚀 Уважаемые коллеги, кому интересна математика и машинное обучение, приглашаем Вас принять участие в неформальном научном проекте.

Мы разрабатываем новые методы и опен-соурс библиотеку CayleyPy, которая на основе МЛ/РЛ методов позволяет решить математические задачи, которые были не доступны ранее. Как пример наша система уже по всем параметрам на порядки превсходит аналогичные методы в системе компьютерной алгебры GAP (де-факто стандарт) - использующую алгоритмы доработанные самим Д. Кнутом.

Если у Вас есть желание поучаствовать в проекте, есть знание Питона и несколько свободных часов в неделю - то присоединяйтесь к нам - при активной работе - Вы будете соавтором научных публикаций. (Напишите @alexander_v_c - к.ф.-м.н. Александр Червов).

Краткая суть задачи может быть описана несколькими способами - нахождение пути на графе размером 10^20-10^200 (из-за размера обычные методы не применимы - только МЛ/РЛ). Решение пазла типа кубика Рубика, задача сортировки, математически - разложение элемента группы по образующим - все это в реальности одна и та же задача. Задача близка к прошедшему конкурсу Каггл Санта 2023. Более общо - это задача планирования - типичная для реинфорсмент ленинг - спланировать действия так чтобы кумулятивный эффект давал лучший результат - управлением манипулятором робота, системы АльфаГо, АльфаТензор, успех DeepSeek - это задачи - тесно связанные с тем, что мы делаем.

А зачем это нужно биологам ? А чтобы превращать людей в мышей ))) (А капусту в репу). Так назвал свои статьи известный биоинформатик П.Певзнер - оказывается эволюционная дистанция - соответствует дистанции на определенных графах - и наша цель улучшить ее оценку через МЛ/РЛ. Зачем нужно нужно в сетях - задержка сигнала (latency) сети определяется диаметром сети - оценка диаметра графов - одна из наших целей. В теории квантовых вычислений тоже нужны подобные графы и приложения этим не ограничены. И, кроме того, а знаете чем знаменит Билл Гейтс ?)) Он отлично сортировал блины ! Наша задача - побить его - через МЛ/РЛ)))

В нашем коллективе есть профессора математики, Каггл градмастеры, и легендарные иностранные специалисты - Tomas Rokicki , Herbert Kociemba - Вам будет у кого поучиться.

Подробнее о проекте вы можете узнать в наших статьях https://arxiv.org/abs/2502.18663 https://arxiv.org/abs/2502.13266 и в нашей группе https://t.iss.one/sberlogasci/1 и СТАВЬТЕ СТАРС (звездочки) на наш гитхаб: https://github.com/cayleypy/cayleypy
15👍14👎5🤔1
Forwarded from epsilon correct
Gemini 2.5 Flash Lite

Пару дней назад выпустили новую мини-модель для энтерпрайза, которому хочется хорошо, но подешевле. Получилась модель на уровне второго флеша, но сильно быстрее (до 900 tok/s). Кстати, batch processing позволяет сэкономить ещё вдвое, если результаты нужны непрямщас.

На бенчмарки можно 🧐 посмотреть тут, поиграться, как обычно, в ai studio, и бежать за бесплатной тысячей запросов в день.
Please open Telegram to view this post
VIEW IN TELEGRAM
2🔥1
А вы тоже видите в этом здании младшего брата главного корпуса ВШЭ который пошел в техникум после 9го?
779👍4👎4
Примерно так и выглядит мой канал
🔥28246
# Непрошенная реклама

Я хочу попробовать новую рубрику где я бесплатно 😱😱😱, без спросу и взаимного пиара буду подсвечивать прикольные маленькие телеграм каналы. Пока нас всех не загнали в самый лучший мессенджер Max.

Когда-то мой канал был маленьким, но большие каналы его репостили и теперь мой канал не такой уж маленький. Я когда-то посоветовал @tech_priestess завести канал, репостнул пару раз, а теперь Техножрица скоро обгонит меня. Вдруг и у кого-то из этих ребят так получится!

1. @daniilak
Даня постоянно просто так делает и выкладывает датасеты (см kaggle) и аналитику, например про недвижимость в России и транспорт. Не знаю откуда у человека столько энергии, но любо-дорого смотреть.

2. @nlp_with_heart
Краткие и интересные обзоры работ по интерпретации трансформеров и других NLP-шных штук. Контента мало, но может быть теперь станет больше 👀

3. @rizzearch
Автор не умеет писать заглавные буквы, зато умеет рассматривать и пояснять необычные и интересные работы, в основном про RL. Помогите человеку накопить на ремонт клавиши shift.

4. @artificial_stupid
Автор Lead DS в X5 и как будто занимается такой же солянкой активностей как я, если не больше. То про статью напишет, то свой новый альбом эмбиента выложит. Мне нравятся каналы с личным опытом, это как раз такой.

5. @kornigor_blog
Выберемся из пузыря (в другой пузырь). Вова когда-то был одним из самых флексящих edtech предпринимателей России, теперь ведет канал про себя и предпринимательство, про то как делает онлайн-школу программирования для детей.

6. @asisakov_channel
Возвращаемся в пузырь: IT карьера, ML/DS/AI, мемы, всё как мы любим.

Пиишите в комментарии как вам такая рубрика, возможно станет периодической (но не слишком часто). Так же там можно порекламировать каналы, в том числе свои.
Please open Telegram to view this post
VIEW IN TELEGRAM
49👍16🔥9
Еее, просто хочу поделиться, что я написал 6 главу книги про компьютерное зрение. Завершение рукописи виднеется на горизонте двух-трех месяцев.

Это конечно только начало пути. Впереди корректура, редактура, обложка, иллюстрации, продвижение. Судя по всему книга появится на полках только следующей осенью. Самый невероятный и желанный вариант это успеть к большой книжной ярмарке в апреле.

Но как будто виднеется конец самой сложной части где всё упирается в меня и мою прокрастинацию. Хочется верить, что чесать языком на подкастах продвигать книгу проще, чем написать что-то умное.
21🔥16👍21