Можно, например, вот так:
#жизнь
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥17🍾5😎5❤1👍1👨💻1🆒1
Работать в AI стартапах становится престижнее. Раньше такие можно было найти в Долине, но теперь тренд меняется и в Европе тоже.
Причин идти в стартапы у всех свои. Перечислю те, что по моему мнению лежат на поверхности:
#мнение
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👍4👨💻3🦄3
Анатомия Собеседований. Часть 1. Seed / Round A Стартапы.
🔊 Подробно расскажу, как выглядит процесс интервью в стартапы Seed ($5M+) и Round A ($25M+) с небольшим количеством сотрудников (между 10-50). Эти критерии позволяют стартапу, как правило, переманить сильных людей и уже имеют пилот проекта, который привлек доверие инвесторов.
🔴 Если кажется, что стартап на 10-50 человек не может иметь сложный процесс найма, то вы ошибаетесь - цикл интервью более интенсивный и время затратный (читайте ниже).
Но почему так? Ранний стартап по определению не может нанять много людей. Поэтому они хотят поймать как можно больше сигнала от кандидата во время интервью. Эта дотошность дает лучшее представление всем членам компании о том, какой вы потенциально сотрудник. Ведь вам придется работать бок о бок каждый день.
🟢 В этом одновременно и плюс, и минус для кандидата. С одной стороны, чем лучше вы пройдете собес и впечатлите команду как личность, тем больше шансов на оффер. Но с другой стороны придется и времени тратить сильно больше чем при собесе в бОльшую компанию.
Перейдем к типичной структуре интервью
Надеюсь, когда-нибудь дойдут руки до того, чтобы описать каждый тип собеса в подробностях с примерами.
🔄 Founder talk (30-45 минут).
На этой стадии вы можете поговорить с фаундером / ко-фаундером. Особенно если нанимаетесь на Founding роль (например, Founding ML Engineer). Здесь можно зарядиться энергетикой главного человека в компании и понять для себя стоит игра свеч или нет. По большому счету это разговорное интервью о вашем опыте и рассказ фаундера о компании. Вы просто присматриваетесь друг к другу. Вам рассказывают про виденье продукта и перспективы, а вы оцениваете насколько это откликается.
🔄 Tech Lead / CTO talk (30-45 минут).
Это еще один разговорный раунд. В этот раз уже с техническим человеком (часто это бывает очень опытный инженер из big tech-а с 5-10+ лет опыта - если нет, повод задуматься). Здесь уже гораздо больше фокус на вашем техническом бэкграунде и опыте прошлых проектов. Но и пространство для ваших вопросов очень много. Опять-таки, отличная стадия чтобы уловить, нравится вам то, что делает стартап в технологическом плане и как будет развиваться команда. Тут вы можете уловить техническую подкованность людей в компании и понимание, что вообще они делают.
🔄 Homework Assignment (4-6 часов минимум).
А дальше начинается жесть. Да, да, вам могут дать домашку на 4-6 часов (не верьте, хорошее выполнение, если хотите выделиться, займет 8+ часов). В домашке могут попросить реализовать статью, сервис, построить ML пайплайн - все зависит от роли. 4-6 часов - это уже большой коммитмент. На этой стадии реально проверяется ваш интерес к компании, готовы вы идти дальше или нет. Но так же это и уникальный шанс блеснуть скиллом и выделиться. Большие корпорации не могут позволить такие интервью, слишком затратно. А у стартапа такая возможность есть. И это можно использовать как преимущество.
🔄 Homework Review (1.5 - 2 часа).
Дальше с вами захотят поговорить вживую. Опять-таки шанс объяснить как и почему вы сделали что-то именно так, а не иначе. На встрече может быть 2-3 человека (включая CTO), чтобы позадовать глубокие вопросы и понять ваше мышление. Хороший шанс и свой навык убедительно продемнострировать, и понять вайб команды на практике.
... продолжение в посте ниже
Но почему так? Ранний стартап по определению не может нанять много людей. Поэтому они хотят поймать как можно больше сигнала от кандидата во время интервью. Эта дотошность дает лучшее представление всем членам компании о том, какой вы потенциально сотрудник. Ведь вам придется работать бок о бок каждый день.
Перейдем к типичной структуре интервью
Надеюсь, когда-нибудь дойдут руки до того, чтобы описать каждый тип собеса в подробностях с примерами.
На этой стадии вы можете поговорить с фаундером / ко-фаундером. Особенно если нанимаетесь на Founding роль (например, Founding ML Engineer). Здесь можно зарядиться энергетикой главного человека в компании и понять для себя стоит игра свеч или нет. По большому счету это разговорное интервью о вашем опыте и рассказ фаундера о компании. Вы просто присматриваетесь друг к другу. Вам рассказывают про виденье продукта и перспективы, а вы оцениваете насколько это откликается.
Это еще один разговорный раунд. В этот раз уже с техническим человеком (часто это бывает очень опытный инженер из big tech-а с 5-10+ лет опыта - если нет, повод задуматься). Здесь уже гораздо больше фокус на вашем техническом бэкграунде и опыте прошлых проектов. Но и пространство для ваших вопросов очень много. Опять-таки, отличная стадия чтобы уловить, нравится вам то, что делает стартап в технологическом плане и как будет развиваться команда. Тут вы можете уловить техническую подкованность людей в компании и понимание, что вообще они делают.
А дальше начинается жесть. Да, да, вам могут дать домашку на 4-6 часов (не верьте, хорошее выполнение, если хотите выделиться, займет 8+ часов). В домашке могут попросить реализовать статью, сервис, построить ML пайплайн - все зависит от роли. 4-6 часов - это уже большой коммитмент. На этой стадии реально проверяется ваш интерес к компании, готовы вы идти дальше или нет. Но так же это и уникальный шанс блеснуть скиллом и выделиться. Большие корпорации не могут позволить такие интервью, слишком затратно. А у стартапа такая возможность есть. И это можно использовать как преимущество.
Дальше с вами захотят поговорить вживую. Опять-таки шанс объяснить как и почему вы сделали что-то именно так, а не иначе. На встрече может быть 2-3 человека (включая CTO), чтобы позадовать глубокие вопросы и понять ваше мышление. Хороший шанс и свой навык убедительно продемнострировать, и понять вайб команды на практике.
... продолжение в посте ниже
Please open Telegram to view this post
VIEW IN TELEGRAM
✍7🆒4❤3👍3🍾2
Анатомия Собеседований. Часть 1. Seed / Round A Стартапы. Продолжение
🔄 On-site (2-5 часов).
Думали, что все? Ну нет, бывает еще и он-сайт раунд. Вас пригласят в офис на полдня или весь день. Вы сможете поговорить и пособеседоваться с потенциальными будущими коллегами. Насколько я знаю, если вы круто сделали ДЗ, то этот этап больше проверка на адекватность, что вы хорошо говорите и доносите идеи, умеете в ML/ System Design и просто комфортный коллега.
Структура раундов очень расплывчатая, перечислю то, что в целом может вас тут ожидать:
⏺ сессия ML Coding (писал тут подробно) на белой доске с маркерами или с человеком на ноуте
⏺ сессия ML / System Design
⏺ бихейв интервью с лидами на ваши ценности, насколько вы готовы перерабаывать, если дедлайн горит и прочее - тут обязательно такое спросят.
⏺ обед с командой - вас сводят куда-ниубдь поесть, используйте это как шанс для общения с потенциальными коллегами.
⏺ обсуждение с HR-ом, фаундером вашей компенсации - очень важный этап, торг всегда уместен
👀 Ну и наконец, если все успешно, через пару дней вам предложат оффер (никто не будет мариновать как в биг техе).
В заключении скажу, что конечно с стартапами априори больше рисков. Изменение экономического климата скорее раньше отразится на стартапе, чем на технологическом гиганте. Но AI пространство сейчас двигается бешеными темпами. И Стартапы очень легко к этому адаптируются, они быстрые, мобильные и могут попробовать несколько идей за короткий срок. С учетом того, что адаптация AI технологий растет, как будто бы визуально риски неудачи стартапа падают. Ну и в конечном итоге, всегда может так оказаться, что в маленькой компании вы можете найти то, чего вам не хватает: 1) влияния на продукт 2) ответственности 3) технологического драйва 4) меньше боллтовни и боьше кода - каждый найдет свою причину
Happy learning !
Думали, что все? Ну нет, бывает еще и он-сайт раунд. Вас пригласят в офис на полдня или весь день. Вы сможете поговорить и пособеседоваться с потенциальными будущими коллегами. Насколько я знаю, если вы круто сделали ДЗ, то этот этап больше проверка на адекватность, что вы хорошо говорите и доносите идеи, умеете в ML/ System Design и просто комфортный коллега.
Структура раундов очень расплывчатая, перечислю то, что в целом может вас тут ожидать:
В заключении скажу, что конечно с стартапами априори больше рисков. Изменение экономического климата скорее раньше отразится на стартапе, чем на технологическом гиганте. Но AI пространство сейчас двигается бешеными темпами. И Стартапы очень легко к этому адаптируются, они быстрые, мобильные и могут попробовать несколько идей за короткий срок. С учетом того, что адаптация AI технологий растет, как будто бы визуально риски неудачи стартапа падают. Ну и в конечном итоге, всегда может так оказаться, что в маленькой компании вы можете найти то, чего вам не хватает: 1) влияния на продукт 2) ответственности 3) технологического драйва 4) меньше боллтовни и боьше кода - каждый найдет свою причину
Happy learning !
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
max.sh
Анатомия ML Интервью. Часть 1. ML Coding
1️⃣ML Coding - популярная секция для найма ML инженеров в компаниях всех размеров. Правда что за этим названием скрывается - зачастую очень большая загадка.
HR-ы отписываются, что на этом раунде будет что-то вроде:…
1️⃣ML Coding - популярная секция для найма ML инженеров в компаниях всех размеров. Правда что за этим названием скрывается - зачастую очень большая загадка.
HR-ы отписываются, что на этом раунде будет что-то вроде:…
💯7🦄4😎4👍3✍1👏1
Недавно потребовалось оценить качество Zero Shot Voice Cloning моделей доступных в опен соурсе. Формальные результаты будут чуть позже, когда будут оценки на другие свойства подобных систем. А пока что что только Speaker Similarity Evaluation - самый важный для клноирования речи - оценка того, как хорошо клноируется тембр голоса (в первую очередь) и стиль (во вторую очередь). Для эксперимента использовался большой корпус речи на английском в высоком качестве.
1️⃣ Zero Shot все еще как рулетка - повезет, и отлично склонирует тембр голоса. Но как правило чаще не везет. Zero Shot уступает подходам с файн-тюном (например, адаптер поверх большой модели на нескольких минутах речи будет гораздо более предсказуемо себя вести).
2️⃣ Попробовал все опенсоурсные модели дла английского языка из TTS арены и последних релизов поддерживающих Voice Cloning, топ от лучшей к худшей модели получился вот такой:
1️⃣ llasa 3B (код, лицензия CC-BY-NC-4.0, статья, демо)
2️⃣ fish speech v 1.5 (код, лицензия CC-BY-NC-4.0, docs)
3️⃣ Zonos-v0.1-transformer (код, лицензия Apache 2.0, разбор модели, демо)
4️⃣ xtts2 (код, лицензия Coqui XTTS Commercial License, статья)
5️⃣ open voice (код, лицензия MIT)
3️⃣ Модели, что идут под лицензиями, запрещающими прямое коммерческое использование (1 и 2) - существенно сильно лучше открытых. Насколько существенно - расскажу чуть позже, когда появятся еще больше метрик тестирования моделей. Так что построить свой войс клонинг систему только из того что доступно в коммьюнити без вложений - будет затруднительно. Интересно, как репо/статья/пост абсолютно каждой модели громкго говорит, что "мы SOTA"
4️⃣ В дополнении к предыдущему пункту: разрыв с коммерческими системами прям ощутимый. Если не в самом качестве клноирования (11Labs тоже часто лажает за пределами английского), то в удобстве использования, как минимум есть консистентность в синтезе между предложениями (у Zonos все очень плохо в этом смысле)
5️⃣ Все системы очень чувстивтельны к качеству reference (промт) аудио. Любой лишний шум, бэкграунд звуки, длинные паузы (как часто бывает у fiction персонажей) ломают систему и на синтезе получается мусор. Поэтому рабочий пайплайн такой:
*️⃣ Найти как можно более чистый сэмпл голоса, который хотите склонировать: без шумов, эхо, в хорошем разрешении
*️⃣ Забить на шаг выше и положиться на Audio Enchancer, например от Adobe (придется заплатить, если хотите использовать в масштабе)
*️⃣ Запустить инференс.
💡 По этой схеме получилось хорошо склонировать голос Дамблдора с помощью llasa 3B.
Прикладываю в сообщении ниже (какой-то кривой у тг редактор):
[1] Оригинальный сэмпл (взят с ютуба, вырезка из фильма, слышны разные эффекты на бэкграунде).
[2]Очищенный с помощью Адобе.
[3] Синтез Моделью. Можете заметить, как модель галлюционирует в самом конце, хотя текст довольно простой: всего лишь прошу Дамблдора объяснить, что такое Философия🙂
Если хотите попробовать склонировать свой голос или просто поиграть - вот демка. Модель поддерживает только Английский и Китайский.
🎙 Оставив все этические аспекты вопроса клонирования голоса, расскажите, что вы думаете на этот счет? Может быть какая-то модель упущена? Или поделитесь своим опытом клонирования
#разбор
Прикладываю в сообщении ниже (какой-то кривой у тг редактор):
[1] Оригинальный сэмпл (взят с ютуба, вырезка из фильма, слышны разные эффекты на бэкграунде).
[2]Очищенный с помощью Адобе.
[3] Синтез Моделью. Можете заметить, как модель галлюционирует в самом конце, хотя текст довольно простой: всего лишь прошу Дамблдора объяснить, что такое Философия
Если хотите попробовать склонировать свой голос или просто поиграть - вот демка. Модель поддерживает только Английский и Китайский.
#разбор
Please open Telegram to view this post
VIEW IN TELEGRAM
huggingface.co
HKUSTAudio/Llasa-3B · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
🔥10🤩3⚡2👍2❤1🎉1
Что именно ждет можно прочитать в официально анонсе, но главные моменты такие:
Отдельно будет обновленное Developers API для быстрой интеграции кастомных сценариев для сторонних разработчиков.
#новости
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
Meet Alexa+, our next-generation AI assistant
From keeping your family organized to solving real-life problems, Alexa+ has got you covered. Personalized replies, calendar management, project planning, seamless smart home controls, and more. Alexa+ is our next-generation assistant, powered by generative…
🔥15👏2🏆2🤩1
Недавно возникла задача много и активно тестировать модели разных провайдеров доступных по API. Не у всех есть официальныые клиенты, да и отдельный пакет импортировать и таскать для каждого провайдера не очень удобно.
Видимо, Эндрю Ын и его команда столкнулись с такой же проблемой и выпустили микро фреймворк, который представляет единый интерфейс для большого количества провайдеров. Сейчас официально плддерживаются: OpenAI, Anthropic, Azure, Google, AWS, Groq, Mistral, HuggingFace Ollama, Sambanova and Watsonx.
Если чего-то не хватает, то можно добавить свою реализацию.
В репозитории есть много примеров, включая всякие расширения типа tool_calling.
Работать с AWS Bedrock стало точно в разы приятнее. Не нужно вручную создавать boto сессии и заниматься дополнительным парсингом данных на вход и выход. Все зашито в интерфейс:
import aisuite as ai
client = ai.Client()
provider = "aws"
model_id = "meta.llama3-1-405b-instruct-v1:0" # Model ID from Bedrock
messages = [
{"role": "system", "content": "Respond in Pirate English."},
{"role": "user", "content": "Tell me a joke."},
]
response = client.chat.completions.create(
model=f"{provider}:{model_id}",
messages=messages,
)
Делитесь другими полезными инструментами для работы с LLM API провайдерами на каждый день в комментариях
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥13🤓3👍2👨💻1🦄1
Сходил на этой неделе в Barbican Theathre на долгожданную премьеру "Чайки". Впечатления непередаваемые! Но обо всем по порядку.
Барбикан - это на самом деле огромный жилой комплекс в сердце Лондонского Сити. К нему примыкает библиотека, музей и большой центр искусства - все вместе образуют Barbican Complex. На втором фото можно увидеть макет комплекса. Кстати, из актуального, все выполнено в стиле брутализма.
Внутри центра исcусств находится огромная выставочная зона и сам театр - фото 3 и 4.
Кстати, здесь есть небольшой сувенирный магазин с разным прикольными штуками, приуроченными к выходу пьесы (фото 5). Жалею теперь, что ничего не купил на память
Ну а теперь перейдем к главному. К Пьесе. Она удалась во всех смыслах! Во-первых, тут просто невероятный актерский состав (и Кейт Бланшетт, и Эмма Корин, и Коди Смит-Макфи, и много других британских актеров). Все отлично отыгрывают своих персонажей и максимально органично смотрятся в своих ролях. Без сомнения, главная звезда на афише, Кейт Бланшетт, оказывается главной и на сцене, затмевая всех. Ну лично для меня. Во-вторых, несмотря на то что пьеса переносит в наше время, вся повествование, все три часа, смотрятся легко, целостно и уместно. Постановщик чуть модернизировал диалоги, но сохранил всю суть оригинала. Хронология событий тоже на месте. Быть может только чуть смещены акценты. Все-таки в пьесе герои Нина и Константин образуют центр повествования и двигают всю драму, тогда как в новой версии всю энергетику как будто забирает Аркадина, мать Константина. Ну это и не удивительно, ее играет Бланшетт
Фух. На культруную жизнь переключился. Можно теперь и обратно к технологиям.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤12🔥5😍4⚡3🕊3👏2🤩1🍓1
Интересный опрос в канале у @smirnovevgeny, Head of ML Лаборатории в Альфа-Банке про карьеру в ML, зарплатные вилки, географию, грейды и образование. Будет очень интересно посмотреть на результаты в контексте количество переработанных часов -> компенсация - есть ли тут корреляци, а самое главное какая. Порадовало, что такой вопрос вообще есть 😄
заполнить гугл форму можно тут
Результаты будут в канале
заполнить гугл форму можно тут
Результаты будут в канале
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7🤓6👏4👨💻1
Казалось бы, какая Златовласка? И какя вообще сказка?
Вот и я сначала удивился, когда услышал выражение "Goldilocks hard" (c английского дословно Goldilocks будет Златоваской) в недавней лекции Charles Sutton-а, Research Scientist-а из DeepMind, про AI Agents for Code Generation.
Давайте разберёмся.
Златовласка — это девочка из известной английской сказки Goldilocks and the Three Bears. В русском варианте, "Три Медведя", адаптированном Львом Толстым, она была заменена на безымянную «одну девочку», а в более поздних версиях — на Машу.
Сюжет сказки прост: девочка заблудилась в лесу, зашла в дом трёх медведей и обнаружила там три набора предметов разного размера — три тарелки, три стула, три кровати. Попробовав их, она каждый раз находила, что один слишком большой, другой слишком маленький, а третий — в самый раз.
Вот из этого "в самый раз" и происходит принцип Златовласки (Goldilocks principle), который используется в самых разных областях — от медицины и психологии до инженерии и машинного обучения.
Например, оптимальный learning rate при обучении модели — это тот, который и не слишком маленький (чтобы обучение не застопорилось), и не слишком большой (чтобы модель не перескакивала экстремумы и не сходилась хаотично).
Sutton в своей лекции использовал выражение Goldilocks hard, говоря о бенчмарках MBPP и HumanEval для оценки моделей генерации кода. Эти датасеты состоят из простых задач: реализовать базовый алгоритм на Python в 10–20 строк. В 2021–2022 годах такие бенчмарки были в "самый раз" — модели уже демонстрировали, что могут решать подобные задачи, но всё ещё показывали далёкие от идеала метрики, и было понятно, куда расти. Сегодня такие датасеты безнадежно устарели: 1) слишком простые 2) слишком мало юнит-тестов на каждую задачу 3) абсолютно точно они протекли в pretrain любой новой модели. По сути, MBPP и HumanEval стали аналогом MNIST в кодогенерации.
Актуальный Goldilocks hard бенчмарк для кодогенерации — это, скорее, SWE-Bench (а ещё лучше его отфильтрованная версия SWE-Bench Verified), который основан на pull request'ах из крупных open-source Python-проектов на GitHub.
Такая вот история про Златовласку и генерацию кода
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
CS 194/294-280 (Advanced LLM Agents) - Lecture 5, Charles Sutton
🔥9👍8🐳2❤1😁1💩1🤓1🆒1