Интересное что-то
525 subscribers
2.72K photos
253 videos
140 files
4.54K links
Материалы и мысли, понадерганные отовсюду
Блог: https://t.iss.one/asisakov_channel
Чат: https://t.iss.one/youknowds_chat
Download Telegram
Из больше 1000 ответивших на опрос по GenAI более 500 людей используют GenAI тулы меньше часа в день

Спасибо за ответы. Сингулярность еще далеко. Выдыхаем
Вообще я очень удивилась тому, что в медиане по опросу время в GenAI тулах меньше часа
Я из тех людей кто проводит 5-8 часов, в какие-то дни больше 8
От этого я очень excited и scared одновременно. В моей голове сингулярность уже почти наступила
Ощущаю сетки как второй мозг рядом.
Ниже написала, что я делаю в GenAI тулах (самые частые кейсы). Поделитесь своими кейсами тоже
1) Гуглю. У меня в проектах есть специальный промпт, который смотрит англ авторитетные источники, спорит с ними, выдает мне разные версии и ссылки на них
2) Записываю калории, физическую активность, пробежки, вес, обмеры. Я кстати перешла черту в 70 кг с 94 в январе, считаю chatgpt помог
3) Думаю и обсуждаю голосом проблемы - вопросы, конфликты, стратегию, планирую разговоры с людьми, ищу мотивацию, когда нет сил
4) Пишу посты в линкедин - голосом надиктовываю в чат гпт мысли и мясо поста, потом скриню понравившийся хук у кого-то в линке и он превращает это в посты. За месяц кстати порядка 130к охватов набрала в линке
5) Разбираюсь в новых интерфейсах - например скриню рекламные кабинет, беру ссылку на сайт и скрины, прошу рассказать что значит каждая опция и какие варианты перфоманса мне можно подобрать.
6) Учусь - например сейчас изучаю армянскую духовность и класику маркетинга - Котлера,брендинг - задаю вопросы из состояния любопытства и закапываюсь в тему, подходы, авторов
7) Немного прогаю - делала лендос недавно, рисовала немного дизайна, писала sql запросы
8) Инвестирую - есть промпты которые каждый день мне ищут, что резко дропнулось и на чем можно сыграть и как захеджироваться. Из недавного успешного - акции Теслы во время конфликта Маска и Трампа
9) Планирую поездки, подбираю места, куда сходить, где тренить и тд

P:S: Пока пользовалась GenAI поняла, что особенно сейчас важно использовать сетки как второй мозг, а не вместо первого мозга. Есть такое свойство shit in - shit out. Чат гпт обучен на большом кол-ве инфы, плохо фильтрованной и часто неверной. Если спрашивать чатик вопросы в духе "как лучше делать" и "что полезнее есть" можно столкнуться с очень неожиданными результатами - цитированиями мейнстрима в лучшем случае
Если вы хотите классно развиваться, а не просто получить второй телевизор - то самый важный навык это критическое мышление, умение большой вопрос раскладывать на маленькие и понимание статистики, дизайна экспериментов и значимости
Что, если у руководителя есть любимчики?

Мы же не роботы. Кого-то любим больше, кого-то меньше — это свойство людей. Это же нормально?


Руководитель — тоже человек, но

Руководитель — человек, которому платят за эффективное управление командой. Проявление руководителем деструктивных эмоций ведёт к удовлетворению его человеческих желаний, но понижает общую эффективность команды.

Руководитель, который выплёскивает эмоции и орёт на команду, в итоге работает не с лучшими, а с теми, кто ещё не сбежал от него.

Руководитель, который любит, чтобы все делали работу ровно так, как он сказал, и не задавали вопросов, окружает себя не лучшими, а согласными терпеть такой стиль.

Руководитель, который явно для всех выделяет своих любимых подчинённых и аутсайдеров, лишает команду открытости, ограничивает развитие членов команды и повышает планку стресса.

___

Как так?

Есть термин — LMX-дифференциация (Leader-Member Exchange)

Высокий LMX — максимальная поддержка, низкий LMX — игнор или абьюз.

Если интересно, пройдите опросник LMX-7,
разработанный в рамках теории LMX

Он измеряет три параметра во взаимоотношениях лидера и последователя: уважение, доверие и чувство долга. Опросник показывает, насколько лидер и последователь уважают и ценят способности друг друга, насколько глубоко доверяют друг другу и в какой степени испытывают чувство долга по отношению друг к другу. Эти три аспекта и являются залогом прочного партнёрства.
https://psytests.org/work/northF.html


Если у руководителя появляются любимчики (высокий LMX), то следом часто появляются аутсайдеры (низкий LMX), потому что внимание и любовь руководителя конечны — и если кому-то давать внимания больше, то кого-то приходится его лишать. В итоге с одними на «ты», с другими на «ты чего так долго?».



К чему это приводит?

1. Нестабильность
Чем сильнее лидер «делит» подчинённых на «приближённых» и «остальных» (высокая LMX-дифференциация), тем слабее гармония и координация внутри группы.

2. Появляется деление на «мы vs они» и внутренние конфликты
Чем больше людей вовлечено в такое противостояние, тем активнее возникают кланы и усиливаются политические игры внутри коллектива.

3. Начинается скрытие знаний и торможение инноваций
Есть исследования, которые показывают связь фаворитизма с сознательным knowledge hiding — сотрудники удерживают информацию от коллег, что бьёт по обучению и креативности.

4. Повышается стресс и риск выгорания у «аутсайдеров»
Если есть сотрудники с очень высоким LMX (руководитель обожает сотрудника) и очень низким (руководитель игнорит или занимается Petty tyranny / «мелкой тиранией»), то последний страдает от постоянно растущего стресса и либо увольняется, либо выгорает, либо переходит в режим quiet quitting — делает минимум, чтобы только не уволили.

5. Нарушается цикл мотивации
Если руководитель оценивает работу не по достижениям (принцип меритократии), а по личной симпатии (фаворитизм), это нарушает причинно-следственную связь приложенных усилий и полученного вознаграждения.

6. Репутационные потери самого руководителя
Когда решения кажутся предвзятыми, подчинённые меньше доверяют лидеру и чаще сопротивляются переменам.

Вывод

Идеальный руководитель знает, когда проявлять эмоции — к месту, а не по настроению. Он не сливает на команду накопившийся негатив, не выделяет любимчиков и не делает из остальных аутсайдеров. Он стремится к тому, чтобы вся команда в равной мере чувствовала себя ценными участниками общего дела.

___

Понравилась заметка? Жмакните лайк. Я не размещаю рекламу и не делаю интеграции. Благодарность для меня — ваши лайки, комменты и репосты в других каналах. Подписывайтесь всей семьёй, и коллегам скиньте ссылку.
Привет, друзья! На прошлой неделе мы с командой провели крутую презентацию о том, как ускорить процесс Discovery с помощью AI-инструментов🫡

Наш круг в компании занимается поиском новых трендов на рынке LegalTech и проверкой гипотез. Discovery - наше все❤️

Раньше создание прототипов и лендингов занимало у нас полтора месяца (это связано с загрузкой дизайнеров и маркетинга), а теперь, благодаря v0.dev, GPT-4.5 и другим инструментам, мы делаем это за считанные дни!

Представьте, всего одна неделя на прототип и лендинг, которые не отличить от готового продукта!

С помощью v0.dev, GPT-4.5 (есть также более продвинутые продукты Windsurf или Cursor) вы создаёте лендинги буквально за 15-20 минут, причём они сразу получаются стилистически выверенными и с нужными элементами, такими как форма регистрации, возможность загрузить демо, встроить калькулятор, подогнать все до стиля сайта и так далее. А прототипы, благодаря использованию API и глубокой кликабельности, действительно выглядят как готовые продукты и клиенты даже не замечают разницы. К тому же вы можете купить хостинг, добавить счетчики и валя - сайт готов - хоть многостраничник под SEO.

У нас уже были кейсы, когда клиенты воспринимали лендинг и прототип как готовый продукт и хотели сразу купить. Но нам приходилось говорить
Постойте, еще не время

😅

А теперь представьте - презы/КП/сайты/прототипы/приложения web и тд - все за считанные часы ⭐️

Это реально меняет правила игры и открывает массу возможностей.
Если интересно узнать больше, пишите в личку, буду рад поделиться деталями!✏️
Please open Telegram to view this post
VIEW IN TELEGRAM
Кейс с собеса — внезапно упала метрика! 😳

Метрики мы обсудили в прошлом посте этой серии, а теперь давайте к кейсу с метриками — еще один этап в подготовке к собесу

В классическом варианте кейс звучит так: однажды утром после беспокойного сна вы просыпаетесь огромным жуком замечаете сильный дроп в метрике. Внимание, вопрос — что случилось? 🤔

Этот кейс проверяет аналитическое мышление и ваше умение смотреть на проблему под разным углом в поисках причины. Я здесь люблю использовать правило арбуза 😶

Правило арбуза (название придумал я, хз как это называют) гласит:

Как нам нравится внутренняя часть арбуза, так и вы сначала начните искать причину "внутри" вашей зоны влияния, а затем переходите "на внешнюю" зону влияния, где арбуз уже не такой вкусный.


В цепочке жизненного цикла данных начните с последних внутренних этапов и переходите дальше на внешний уровень.

1️⃣ Внутренняя тех проблема — наши скрипты/отчеты/витрины. Это полностью наша зона контроля, в первую очередь надо проверить, что это не просто у нас что-то криво считается

2️⃣ Внутренняя бизнесовая проблема — соседняя команда не предупредила и выкатила АБ-тест, который очень жестко руинит ваши метрики. Такое бывает, когда коллеги в АБ-тестах не определяют метрики здоровья и не думают, что могут кому-то навредить. А может это у вас эксперимент проходит плохо, и вам надо срочно его тормозить.

3️⃣ Внешняя тех проблема — DWH, разметка данных, источник данных. Если у вас все правильно, значит что-то не так с тем местом, откуда вы берете данные. Возможно, поменялся какой-то словарь или крашнулась какая-то таблица DWH. А может у нас умер прод и топики системы перестали отправлять сообщения (если интересно про это подробнее, почитайте зачем нужна Kafka)

4️⃣ Внешняя бизнесовая проблема — праздники, понижение ключевой ставки, корпоративный скандал — в общем на ситуацию в бизнесе повлияли какие-то внешние события в мире. Скорее всего, если это так заэффектило, то вы сразу придете к этому выводу, минуя предыдущие шаги цепочки

На самом деле мне кажется этот кейс очень полезным на собесах. На практике действительно часто сталкиваешься с аномалией и такой ресерч происходит сплошь и рядом. И если есть фреймворк, то это позволяет быстро оценить проблему (90% причин обычно кроются в пункте 1 и 2 😢)

Вам давали такие кейсы на собесах? Давайте наберем 80 огоньков 🔥 и я пойду писать следующую часть про не-кодинговые харды аналитика!
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from max.sh
👥 Бесплатные мини-курсы про AI Агентов, LLM и трансформеры на платформе DeepLearning.AI

Ссылка

Платформа от создатея курсеры Andrew Ng. Почти каждые 2-3 недели выходят мини-курсы по разным AI темам: про векторные базы данных, про RAG-и, ризонинг, память моделей, etc.

Сегодня запустили курс от Антропиков про устройство MCP. Ссылка. От кого еще узнавать про MCP, если не от тех, кто разработал этот стандарт. Не от скам ютуберов же, правильно?

Каждый курс устроен примерно одинаково: 1) видео с очень простенькой теоретической частью, 2) видео с запуском кода и какими-то комментариями лектора. В среднем курсы по 1-2 часа. Курсы выпускаются от лица довольно именитых компаний (OpenAI, HF, Meta, ...) и затрагивают актуальные практичесские темы.

Но есть нюанс.

На мой взгляд, ценность большинства таких курсов стремится к нулю (я сужу по ~13 курсам, которые просмотрел сам). Во-первых, почти все курсы лишены какой-либо интересной теоретической базы и просо заавязаны на прокликавание клеток и вызов методов в том или ином фреймворке. Во-вторых, лекторы далеко не самые лучшие, иногда ощущение что пишутся с одного дубля. Наконец, во многих курсах сквозит реклама. Чувство, что курс записан только чтобы пропиарить фреймворк / стартап / компанию, а не интересно рассказать на заданную тему. Короче говоря, анонсы всегда цепляют, но содержание страдает.

Жаль, что ушла эпоха продуманных длинных курсов по типу специализаций с курсеры про Deep Learning построенных не на рассказе о фреймворках, а фокусе на устройстве технологий. 😐

Но иногда попадаются прям классные мини-курсы. Например, про эффективный сервинг LLM в проде, или методы retrieval-а из векторых баз, или генерацию structured outputs моделей.

Так что да, учитывая что все выкладывается в открытый доступ совершенно бесплатно, грех жаловаться. А периодические так и вообще очень годные курсы появляются.

Happy Learning !

#образование

@max_dot_sh
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from max.sh
Рецепты обучения Reasoning моделей от💻

Сразу 2 публикации:

Phi-4-reasoning (14B) - основная модель - статья.
Phi-4-mini-reasoning (3.8B) - маленькая модель - статья.

Веса моделей доступны по хорошей лицензии. За пределами английского ризонинг сильно хуже (об этом пишут и авторы), и скорее всего из коробки бесполезен (сужу сам по работе просто с Phi-4 instruct).

📌 Почему стоит прочитать? Рабочих робастных рецептов обучения ризонинг моделей все еще не очень много, поэтому любая работа с подробным описанием сетапа, удачными и неудачными экспериментами, рассказом о сборе данных и любыми другими практическими lessons learned несет большую ценность для всех, кто пытается завести ризонинг на практике. По метрикам модель не обгоняет проприетарные модели, уступая o3-мини почти везде, но уверенно тягается с опенсоурсными решениями, которые в разы больше. Вся ценность в подробном hands-on репорте, а не самой модели как таковой.

Картинка 1 для саммри перформанса на ключевых бенчмарках.

📌Как устроена Phi-4-reasoning. Берут предобученную instruct tuned 14B Phi-4 (тык ). Ризонинг способности внедряются в нее через SFT на датасете длинных цепочек из разных доменов.

Датасет собирался аккуратно. В основном путем скрэпинга и валидации разных ресурсов из сети с фокусом на математику и код. Отдельно отбирали с помощью прокси моделей только сложные задачи. Сами же цепочки рассуждений генерировали с помощью o3-mini в “medium” / “hard” рассуждающих режимах.

Во время обучения авторы столкнулись с тем, что гиперпараметры рецепта Phi-4 не работают для ризонинг модели.

Поэтому ввели стадию коротких экспериментов на сабсете данных. Назвали это Exploration Stage, чтобы подобрать оптимальные настройки:

🔘 Выбрали оптимальный LR как 1e-5
🔘 Нашли оптимальную композицию микса обучающих данных. Для начала кластеризовали данные по доменам (математика, код, …). Дальше подобрали веса к датасетам внутри конкретного домена в зависимости от качества / источника данных. То есть, отдельно учили на данных по математике, оптимизируя микс данных чисто под данные математики; отдельно для кода; А потом просто все объединили в один общий пул, переиспользуя ранее подобранные веса.
🔘Добавили синтетических данных в строгом формате CoT -> summary -> final response. Обнаружили, что это дает буст, на AIME до 10%.

Далее, во второй фазе, Scaling Stage, запустили обучение на всех данных, 16B токенов. У модели так же расширили размер контекста с 16K до 32K.

Таким образом, получился Phi-4-reasoning.

📌Еще больше reasoning способностей через RL. Далее бустят способности модели к размышлению еще больше. Делают GRPO RL, но только на задачах математики. Собрали свою reward функцию. Довольно инженерная и интуитивная. Если ответ правильный, но очень длинный - понижаем награду; если неправильный и короткий - еще сильнее штрафуем. Таким образом, побуждаем генерировать модель разумно длинные цепочки. После такого RL тюна получают Phi-4-reasoning-plus, которая в среднем показывает себя еще лучше на различных бенчмарках (не математических тоже).

📌RL-reasoning маленьких моделей. Очень круто, что авторы пробуют ризонинг способности на маленьких моделях тоже. При RL обучении модели на 3.8B сталкиваются с большим количеством сложностей, предполагая, что все дело в размере модели:
🔘Во время обучения сгенерированные ответы сильно различаются по длине на одном и том же промпте.
🔘Батчи могут целиком состоять из отрицательных наград
🔘SFT на ризонинг данных (типа S1K) ухудшает итоговое качество

По итогу все равно подбирают рабочий рецепт для мини версии модели для математики, получая улучшения относительно аналогов похожего размера (7B, 8B). Но с гигантами тягаться все равно сложно.

📎Итого. Полезное чтение для практикующих обучение ризонигу. Мы в команде сталикались с очень похожими сложностями при RL стадии маленьких моделей. До закрытых моделей далеко, но зон для надстроек над базовым рецептом много.

#статья

@max_dot_sh
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from max.sh
🔷Лекции от топовых лаб про агентные мультимодальные системы

Все видео и слайды в свободном доступе, можно найти здесь.

У университета Берлки недавно завершилась лекционная часть весеннего MOOC курса про LLM агентов (сейчас в самом разгаре онлайн хакатон с разными треками).

Назвать это полноценным курсом сложно. Скорее набор независимых лекций от разных исследовательских групп (как университетов, так и больших компаний типа DeepMind, Meta) про рисерч, которым они занимаются. Контент адаптирован под более-менее широкую аудиторию с крутыми слайдами и интересными спикерами. Лучше всего воспринимать каждую лекцию, как литературный обзор одной конкретной темы.

Сам посмотрел несколько лекций на интересные для себя темы и остался доволен:

⚫️Multimodal Autonomous AI Agents от CMU, по большом счету экскурс в последние работы про веб-агентов

⚫️Abstraction and Discovery with Large Language Model Agents от UT Austin, тут про AlphaProof и системы для построения формальных математических доказательств - может быть полезно тем, кто копается в AlphaEvolve


У курса, кстати, две части. Прошлогодний запуск можно найти тут.

Happy Learning!

#образование

@max_dot_sh
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from max.sh
❤️ Вайбкодим сайт-портфолио

Заголовок кликбейтный да и слово "вайбкодинг" не люблю, но все так и есть. Собрал лендинг для портфолио, написав 5-6 строк на TypeScript. В остальном наблюдал, что делает AI и корректировал.

Давно хотел попробовать lovable.dev, продукт шведского early stage стартапа. Команда делает платформу, где в пару кликов можно собрать web-приложение с фронтендом, бэкендом, интеграциями с бд (по крайней мере так команда продает себя) и все задеплоить. Подумал, что хорошая возможность сделать себе сайт-визитку и посмотреть, как их сервис работает на практике.

🔘Результат - maxsh.live. Статический сайт на react с базовыми анимациями и cсылками на разные профили в соц сетях.
🔘Цена - 5$ (за домен на год), сама разработка - бесплатно (детали ниже)
🔘Время - 1 час 15 минут, четверть ушла на деплой.

📌Процесс создания

1️⃣Создал бесплатный аккаунт на lovable.dev, дал доступ к своему гитхабу. В бесплатной подписке дается всего 5 кредитов в день на их сервис. Не густо. А платить 25$ не хочется.

2️⃣По максимум запихнул в первый кредит все ожидания от сайта. Закинул картинку своего блога в тг, дал инструкций:
* I'm looking to create a portfolio website inspired by the logo of my personal blog (attached in the image)

* The site should have a visually appealing design.

* The "max.sh" panel should feature a 3D hover effect, allowing it to move interactively when hovered over.
...

3️⃣Он сверстал сразу в целом неплохой вариант. 80% работы было сделано. Остались те самые 20%, где нужно подкрутить пару деталей в каждом блоке, уточняя, как именно все расположить. К слову, в платформу встроен удобный редактор: можно выделить конкретную секцию, div, и описать что именно с ней сделать.

4️⃣Кредиты моментально закончились. Я синхронизировал промежуточный результат с гитхабом. Далее склонировал репозиторий локально. Открыл Windsurf Editor (это примерно как Cursor. Свой редактор, fork vscode-а, в который встроен UI для взаимодействия с агентом). У Windsurf-а за бесплатно можно получить адекватные лимиты на Claude 3.7. Чем я и воспользовался.

5️⃣До-вайбкодил локально вместе с Windsurf-ом. Где-то агент упорно отказывался делать простую вещь, пришлось открыть скрипт самому и по старой доброй традиции зарешать вместе с stackoverflow. Вышло 6 строк. Локально сайт был готов. Осталось задеплоить.

6️⃣Через lovable.dev доступен автодеплой с помощью Netlify (площадка для деплоя react-приложений). Но только в платной подписке. Извините, но я и сам могу так. Бесплатно.

7️⃣Создал аккаунт на Netlify. Купил через них доменное имя для сайта. Дал доступ на чтение в репозиторий проекта на гитхатбе, нажал автодеплой

8️⃣Ждем пока обновятся DNS записи для домена и подцепится сертификат. Все готово.

9️⃣Теперь можно в таком же режиме вайбкодить остальные секции страницы. Чем и займусь. Когда-нибудь.

📌Итоги и впечатления

🔘вся ценность lovable.dev в том, что с пары запросов дает визуально удовлетворительное первое впечатление от сайта. Скорее всего это достигается за счет тулзов у их агента, адаптированных под шаблоны реакта. Другой плюс, то что есть визуальный редактор, где можно выделить конкретный элемент, который хочется пофиксить. Для прикола попробовал с нуля сделать все тоже самое через windsurf редактор, но получил кривую версию, которую бы редактировал вайбкодом точно еще несколько часов.
🔘Цена в 25$ за подписку, где есть 100 кредитов на месяц, возможность создавать приватные проекты и автодеплоить - сомнительно. Платить не готов, учитывая что все равно тут и там нужно дошлифовывать.
🔘Что lovable.dev, что агенты общего назначения для кодинга типа windusrf все еще с трудом делают сложную логику. Например, я хотел на бэкраунд себе красивую матрицу из мерцающих огоньков (типа как тут). Но 4 попытки не увенчались успехом, становилось только хуже. В конечном итоге Claude 3.7 сам себя сломал. Вмешательство и фиксы нужны регулярно.

Накидайте 🔥❤️ если откликается такой тип контента в канале в стиле DIY, и рады были бы почитать в будущем еще 😃

И делитесь в комментариях своими поделками ☺️

#проекты

@max_dot_sh
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from max.sh
🔊 Chatterbox TTS —Yet Another Opensource TTS SoTA

Компания resemble.ai выложили в опенсоурс Chatterbox TTS. 0.5B модель на основе LLama3 backbone, обучена на 0.5M часов чистых данных. Данные высокого качества и разной природы. Модель поддерживает контроль экспрессивности синтеза через гипер-параметры (выкручивание exaggeration приводит к ускорению речи, понижение — к большей драме).

Репортят latency в 200ms, что делает модель довольно удобной для интерактивных голосовых приложений, real time ассистентов.

Наконец, пишут, что модель - SoTA. За бейзлайн берут решение от 11Labs и сообщают, что в side-by-side Chatterbox TTS strongly preffered. К слову, впервые вижу, что честно выкладывают все детали evaluation репорта и дают на него ссылку. A/B Тест слишком скромный (больше выглядит как черри пик честно), по 8 сэмплов на систему. В тесте просят асессоров оценить zero-shot сэмплы длиной от 7 до 20 секунд на предмет Naturalness и общего качества.

Попробовал в Gradio на HF. Нравится, что хорошо берет дыхание и паузы. Клонирование тембра с дефолтными настройками на моем голосе не очень. Скорее сказал бы, что это плохой voice clone. У Llasa-3B из опенсоурсных гораздо лучше. На реддите пишут, что при некоторых значениях параметров модель сходит с ума.

Cводка:

🔘Лицензия - MIT
🔘GitHub - тут
🔘Веса - тут
🔘Онлайн Демо поиграться самому - тут
🔘Реддит тред с мнениями по модели - тут
🔘Языки - пока только английский, обещают добавить файн-тюн для других языков в скором времени

@max_dot_sh
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from max.sh
Модель с контекстом 100M токенов от стартапа Magic 🔮

Сегодня новых историй от подписчиков про собесы нет (а форма есть здесь), поэтому рассказываю историю сам.

Речь ппойдет про стартап magic.dev. По описанию стартап занимается:
frontier code models to automate software engineering and research

Cтартапов с таким описанием наберется куча. А вот то, что за вторую половину 2024 года, компания в двадцать с лишним человек подняла примерно полмиллиарда долларов инвестиций (цифры немного разнятся, но источники TechCrunch и блог самой компании) от разных инвесторов и фондов (среди них и Nvidia, и Google) — это интересно.

Наверное, ребята делают что-то большое и прорывное. И судя по блогу компании — это действительно так. В сентябре прошлого года анонсировали, что обучили первую модель с длиной контекста 100M токенов (почитать немного подробностей можно тут, но если коротко то используют reasoning над хэшами).

В демо делают упор на способность модели без дополнительных инструментов, RAG-ов и прочего агентного скаффолдинга (что это, разбираю тут), только за счет того, что в контекст подается весь исходный код GUI фрэймворка, написать интерфейс для... калькулятора.

Пример не сложный, но демонстрация, что модель "на лету" может выучить фреймворк на сотни тысяч строк и строго использовать знания о нем в существующей кодовой базе впечатляет.

И вот после этого анонса следует новость — magic.dev коллаборируется с Google Cloud, чтобы построить мегакластер на кучу тысяч H100 GPU, чтобы обучать вторую итерацию моделей.

Дальше новостей вроде как нет. Тишина.

Но на самом деле они очень активно нанимают. Недавно со мной связывался рекрутер. Предлагают разнообразные роли: от рисерчера до performance инженера на оптимизацию CUDA kernel-ов. Помогают с релокацией в Штаты (SF, New York). Так как мне сейчас географию менять не хочется, то я отказался. А вот мой хороший коллега, с огромным опытом в оптимизации моделей и 14 годами опыта с железом (участвовал в разработке чипов Inferentia 1 и 2 для AWS) решил, что это может быть новым вызовом. И начал процесс.

Ниже то, что я запомнил из его рассказа про интервью:

🔘 Нанимают на роль Software Engineer - Supercomputing Platform & Infrastructure - короче говоря скейлить и учить модели на огромных кластерах
🔘Техчническое интервью с бывшим лидом из OpenAI. Весь разговор был построен вокруг темы параллелизации вычислений: почему FSDP плох, в чем tensor parallelism имеет недостатки, как реализовывать Pipeline Parallelism. По отзыву, довольно глубокая беседа о том, что важно на практике.
🔘Home work assignment. Дали доступ к своей кодовой базе и кластеру на несколько GPU. В коде намеренно оставили разные несовершенства: от неэффективностей в использовании торча до выбора неэффективных кернелов. Так как пишут свои кастомные кернелы, то дали доступ еще и к своей библиотеке, где были спрятаны самые большие боттлнеки. Коллега говорит, что словил чистый кайф от домашки и не заметил, как потратил на ее решение 30 часов (то есть буквально решал всю неделю, бесплатно).
🔘Виртуальный онсайт с разбором домашки. Так же к онсайту просили сделать разбор актуальных работ по теме long context и подготовить презентацию.
🔘Дальше, судя по рассказу, вроде бы были готовы двинуться к офферу. Но как говорит коллега, предложили не очень убедительный total comp, и если бы он переезжал из Лондона в Сиэттл с Амазоном по внутреннему трансферу, то было бы выгоднее. Укажу, что в вакансии пишут, что вилка на такого инженера $100K - $550K и сверху equity.

Такая пятничная история. От меня следующие мысли:

1) Про параллелизм и скелйинг моделей можно хорошо послушать в свежем курсе по LLM от Стэнфорда в лекции тут

2) Компания мне кажется мутной. Cмотрю на фаундеров и не доверяю им. Но кто я такой, чтобы судить, если вливают столько денег, может что-то там и есть.

3) Очень нравится, как устроен найм в стартапы: глубокие технические разговоры, домашки, через которые можно прокачать свои навыки. Еще одна мотивация для меня дописать лонгрид про Детали интервью в стартапы и почему стоит идти в них поработать 🔥

@max_dot_sh
Please open Telegram to view this post
VIEW IN TELEGRAM