Что учить в университете
Вчера записывал интервью с очень крутым разрабом из Яндекса. Обсуждали (уже ближе к концу записи), что нужно учить в университете, а что можно и потом. Прозвучала гениальная по своей простоте и железобетонной логике аксиома: в универе надо учить то, что потом уже не выучишь, например математику и прочую фундаментальщину. Нефундаментальщина через 5-10 лет изменится
Вчера записывал интервью с очень крутым разрабом из Яндекса. Обсуждали (уже ближе к концу записи), что нужно учить в университете, а что можно и потом. Прозвучала гениальная по своей простоте и железобетонной логике аксиома: в универе надо учить то, что потом уже не выучишь, например математику и прочую фундаментальщину. Нефундаментальщина через 5-10 лет изменится
👍91💯14
Forwarded from ИИ в Европе (Sergey Bogdanov)
Там вышла ллама 3.3
Но самое интересное - цена
По метрикам ± как GPT-4o, но в 25 раз дешевле
Заставляет задуматься
Но самое интересное - цена
По метрикам ± как GPT-4o, но в 25 раз дешевле
Заставляет задуматься
👍19👎1🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Есть ли отечественные генеративные нейросети на самом деле?
В соцсетях сейчас вирусится видео, прикрепленное к посту: молодой человек рассказывает о том, как отечественные нейросети выдают крайне подозрительный результат по запросу нарисовать «родное».
Первое, что думают люди, видя такое, это что отечественных нейросетей на самом деле нет и они просто перенаправляют запросы в апишку Midjourney и им подобных зарубежных оригиналов.
Те, кто более прошарен, думают, что наши компании просто берут зарубежный опенсорс, разворачивают у себя, а русские запросы обрабатывают после перевода на английский.
А кто еще более прошарен, знает, что опенсорс в целом поддерживает и русский язык. Остается вопрос: так как же все-таки работают отечественные нейросети?
Зачем гадать, если можно спросить эксперта в области технологий AI, который сам имеет отношение к теме генеративного ИИ — Александра Абрамова. См. ответ у него в канале или репост ниже 👇
В соцсетях сейчас вирусится видео, прикрепленное к посту: молодой человек рассказывает о том, как отечественные нейросети выдают крайне подозрительный результат по запросу нарисовать «родное».
Первое, что думают люди, видя такое, это что отечественных нейросетей на самом деле нет и они просто перенаправляют запросы в апишку Midjourney и им подобных зарубежных оригиналов.
Те, кто более прошарен, думают, что наши компании просто берут зарубежный опенсорс, разворачивают у себя, а русские запросы обрабатывают после перевода на английский.
А кто еще более прошарен, знает, что опенсорс в целом поддерживает и русский язык. Остается вопрос: так как же все-таки работают отечественные нейросети?
Зачем гадать, если можно спросить эксперта в области технологий AI, который сам имеет отношение к теме генеративного ИИ — Александра Абрамова. См. ответ у него в канале или репост ниже 👇
👍16😁7❤4👎2🔥2
Forwarded from Dealer.AI
Вы спросили —Дядя отвечает. Истина находится где-то по середине. Действительно на нашем рынке можно встретить множество решений вокруг открытых моделей с huggingface или же апи модных нынче Midjourney. Это может работать по принципу перевел с ру на ен и вкинул в апиху, далее выдал результат. Обычно, на старте, это было уделом малых команд, стартапов и пр.
На самом деле, ничего в этом зазорного нет, те же ребята с Perplexity строить свое решение начали именно вокруг топовых апи LLM (OpenAI, Google, Anthropic и т.п.). Но при этом perplexity имеют свою доп. логику с поиском, линковкой фактов и пр. Что делает ее решение аналогом поисковика "в кармане". После, они еще и собственные тюны моделей Llama like завезли, благо лицензия открытая позволяет. И это имеет спрос.
Т.е. более крупные игроки, стараются использовать такие решения для холодного старта или во все опираясь на открытые сеты , модели или архитектуры делать собственные решения/тюны/модели. И я думаю, что крупные игроки нашего рынка достигли уже того уровня зрелости, когда могут позволить себе свои исследования, и как следствие, свои решения в виде моделей и сервисов.
Вопрос остается только в источниках данных. Такое поведение, как мы видим на видео, может быть обусловлено, влиянием сетов обучения. Т.к. на рынке множество открытых сетов на английском языке для задач text2image, а для русского языка примеров много меньше. Создание таких ру-ен данных требует затрат на написание/генерацию и чистку. А в открытых сетах для обучения может возникать дисбаланс по ру-ен паре и как следствие превалирование этики из сетов коих больше. Поэтому тот же native/родной после предобучения на таких примерах будет носить знания культуры того языка коего больше. Тк в основном это все переводы с ен языка на ру как есть, да ещё к релевантным для ен языка картинкам. Для того, чтобы решить проблему "перекоса", не достаточно балансировки знаний, надо писать/матчить именно опорные ру тексты с "правильными" картинками к ним,а также придется, скорее всего, прибегнуть к выравниванию поведения — привет alignment/ human feedback и тп. А далее, вооружившись всем этим, нужно будет решать вопросы тюна с эмбеддером text2image, чтобы для языковой пары запрос сводился к "правильной картинке". Именно его представления будут использоваться диффузией как базой генерации. И в тч над этим, думаю, работают исследовательские команды крупных игроков.
Но нет предела совершенству, это непрерывный процесс дообучения и отлова "черных лебедей". Вот как-то так.
На самом деле, ничего в этом зазорного нет, те же ребята с Perplexity строить свое решение начали именно вокруг топовых апи LLM (OpenAI, Google, Anthropic и т.п.). Но при этом perplexity имеют свою доп. логику с поиском, линковкой фактов и пр. Что делает ее решение аналогом поисковика "в кармане". После, они еще и собственные тюны моделей Llama like завезли, благо лицензия открытая позволяет. И это имеет спрос.
Т.е. более крупные игроки, стараются использовать такие решения для холодного старта или во все опираясь на открытые сеты , модели или архитектуры делать собственные решения/тюны/модели. И я думаю, что крупные игроки нашего рынка достигли уже того уровня зрелости, когда могут позволить себе свои исследования, и как следствие, свои решения в виде моделей и сервисов.
Вопрос остается только в источниках данных. Такое поведение, как мы видим на видео, может быть обусловлено, влиянием сетов обучения. Т.к. на рынке множество открытых сетов на английском языке для задач text2image, а для русского языка примеров много меньше. Создание таких ру-ен данных требует затрат на написание/генерацию и чистку. А в открытых сетах для обучения может возникать дисбаланс по ру-ен паре и как следствие превалирование этики из сетов коих больше. Поэтому тот же native/родной после предобучения на таких примерах будет носить знания культуры того языка коего больше. Тк в основном это все переводы с ен языка на ру как есть, да ещё к релевантным для ен языка картинкам. Для того, чтобы решить проблему "перекоса", не достаточно балансировки знаний, надо писать/матчить именно опорные ру тексты с "правильными" картинками к ним,а также придется, скорее всего, прибегнуть к выравниванию поведения — привет alignment/ human feedback и тп. А далее, вооружившись всем этим, нужно будет решать вопросы тюна с эмбеддером text2image, чтобы для языковой пары запрос сводился к "правильной картинке". Именно его представления будут использоваться диффузией как базой генерации. И в тч над этим, думаю, работают исследовательские команды крупных игроков.
Но нет предела совершенству, это непрерывный процесс дообучения и отлова "черных лебедей". Вот как-то так.
👍17👎8❤5😁1
Выступал на прошлой неделе в Вышке, а точнее поотвечал на сцене на вопросы Жене Соколову и студентам ВШЭ.
На фото мы с Женей Соколовым даем студентам автографы на видеокарте «чтобы лучше обучала» 😂 Никогда бы не подумал, что доживу до этого
Кстати некоторые вопросы из зала были довольно каверзные, так что я получил огромное удовольствие, пока давал ответ :)
Например, мой любимый вопрос: надо ли идти в компании, запускающие много новых направлений, ведь не все они взлетят, деньги будут потрачены, и потом придется резать косты (вместе с вашей вакансией). На сцене я дал один очевидный ответ, что ваша карьера зависит от ваших усилий, талантов и находчивости больше, чем от планов компании, потому что даже в период кризисов все равно есть люди, которые добиваются роста области ответственности и доходов. Кроме того, рассуждение «ой я такой хороший работал в компании, но продукт не взлетел» содержит очевидный пробел в логике. Ну работайте так, чтобы у продукта было больше шансов взлететь. Не все зависит от вас, но и самоустраняться так, что вы хорошо все делаете сами по себе, а продукт не летит сам по себе, не надо. Кроме того, менеджмент все же разделяет работу технических специалистов и руководителей, и если есть вера в то, что вы как раз были молодец и все делали классно, вас просто с руками оторвут в другой продукт компании.
Уже после мероприятия я понял, что у меня был пример на эту тему прямо на сцене, который я не догадался привести. Мы с Женей Соколовым были в Яндексе коллегами и работали в Yandex Data Factory, но когда YDF был близок к закрытию, прекрасно возглавили Data Science в Яндекс.Такси (я) и в тогда еще Яндекс.Дзене (Женя). Понадобилось ли нам самим найти себе применение в компании? Конечно да, нужно было пообщаться, узнать где что есть, договориться о переходе. Но никто нас никуда не уволил, всем было чем заняться, работы было вагон.
На фото мы с Женей Соколовым даем студентам автографы на видеокарте «чтобы лучше обучала» 😂 Никогда бы не подумал, что доживу до этого
Кстати некоторые вопросы из зала были довольно каверзные, так что я получил огромное удовольствие, пока давал ответ :)
Например, мой любимый вопрос: надо ли идти в компании, запускающие много новых направлений, ведь не все они взлетят, деньги будут потрачены, и потом придется резать косты (вместе с вашей вакансией). На сцене я дал один очевидный ответ, что ваша карьера зависит от ваших усилий, талантов и находчивости больше, чем от планов компании, потому что даже в период кризисов все равно есть люди, которые добиваются роста области ответственности и доходов. Кроме того, рассуждение «ой я такой хороший работал в компании, но продукт не взлетел» содержит очевидный пробел в логике. Ну работайте так, чтобы у продукта было больше шансов взлететь. Не все зависит от вас, но и самоустраняться так, что вы хорошо все делаете сами по себе, а продукт не летит сам по себе, не надо. Кроме того, менеджмент все же разделяет работу технических специалистов и руководителей, и если есть вера в то, что вы как раз были молодец и все делали классно, вас просто с руками оторвут в другой продукт компании.
Уже после мероприятия я понял, что у меня был пример на эту тему прямо на сцене, который я не догадался привести. Мы с Женей Соколовым были в Яндексе коллегами и работали в Yandex Data Factory, но когда YDF был близок к закрытию, прекрасно возглавили Data Science в Яндекс.Такси (я) и в тогда еще Яндекс.Дзене (Женя). Понадобилось ли нам самим найти себе применение в компании? Конечно да, нужно было пообщаться, узнать где что есть, договориться о переходе. Но никто нас никуда не уволил, всем было чем заняться, работы было вагон.
👍32❤10🔥8👎1
На поиск нужных каналов в Telegram может уйти очень много времени, поэтому ловите очередную папку каналов, на этот раз про ИИ:
https://t.iss.one/addlist/pqfkNeFjRnU5NDFi
Особенно мне нравятся ребята Tips AI - там не про внутрянку ИИ (этого мне итак в жизни хватает), а посты про очередные нейросетевые сервисы, которые могут ускорить выполнение ваших задач
Ну и, конечно, куда без Саши Dealer.AI :)
https://t.iss.one/addlist/pqfkNeFjRnU5NDFi
Особенно мне нравятся ребята Tips AI - там не про внутрянку ИИ (этого мне итак в жизни хватает), а посты про очередные нейросетевые сервисы, которые могут ускорить выполнение ваших задач
Ну и, конечно, куда без Саши Dealer.AI :)
👍11👎4❤🔥3🥰1😁1
Подкаст про технологии ИИ
Многие из вас в курсе, что я в этом году публикую второй сезон подкаста ТехТок, и этот сезон посвящен технологиям искусственного интеллекта. Цель - рассказать про важные для современного мира технологии на более широкую аудиторию, чем те, кто уже работает в AI. До сих пор подкаст был доступен только на YouTube, а теперь появился канал и на VK Видео, чтобы вы могли скинуть подкаст вашим родственникам и друзьям не из IT :)
VKвидео: https://vkvideo.ru/@kantortechtalk
YouTube: www.youtube.com/@KantorTechTalk
‼️ Обязательно подписывайтесь и следите за новыми выпусками! В этом сезоне их будет еще шесть.
🎬 Также вышел тизер подкаста с нашим следующим гостем, которого я уже несколько раз упоминал в канале за последнее время - с Александром Абрамовым :) Тема выпуска: большие языковые модели
Многие из вас в курсе, что я в этом году публикую второй сезон подкаста ТехТок, и этот сезон посвящен технологиям искусственного интеллекта. Цель - рассказать про важные для современного мира технологии на более широкую аудиторию, чем те, кто уже работает в AI. До сих пор подкаст был доступен только на YouTube, а теперь появился канал и на VK Видео, чтобы вы могли скинуть подкаст вашим родственникам и друзьям не из IT :)
VKвидео: https://vkvideo.ru/@kantortechtalk
YouTube: www.youtube.com/@KantorTechTalk
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8❤7👍5
Если вы хотите узнать о том, что происходит в сфере IT-менеджмента, как на самом деле создают продукты и прокачивают команды, то загляните на канал «Кем я хочу стать, когда вырасту».
Автор канал с 10+ опытом тимлидства в IT в формате заметок честно делится наблюдениями, успехами и провалами:
- о работающих методах мотивации команд
- стоит ли стремиться в руководители на самом деле
- почему на рынок выходит так много слабых продуктов
Реклама. ИП Миронова Надежда Олеговна, ИНН: 772985604739 erid:2VtzqvK2rLg
Автор канал с 10+ опытом тимлидства в IT в формате заметок честно делится наблюдениями, успехами и провалами:
- о работающих методах мотивации команд
- стоит ли стремиться в руководители на самом деле
- почему на рынок выходит так много слабых продуктов
Реклама. ИП Миронова Надежда Олеговна, ИНН: 772985604739 erid:2VtzqvK2rLg
😁6❤3👎3👍1🤔1🤯1
Media is too big
VIEW IN TELEGRAM
Опубликовал полную версию подкаста с Dealer.AI
YouTube: https://youtu.be/3ra-zgi-dIM
VKвидео: https://vkvideo.ru/video-228552366_456239026?list=ln-1rG35Aicro6zMIMOIK
Саша не только в значительной степени приложил руку к Сберовским LLM и GenAI, но и очень хорошо рассказывает. К просмотру строго обязательно :)
Please open Telegram to view this post
VIEW IN TELEGRAM
👍16❤12🔥6😁1
Как я учился ML
В новом ролике на канале MLinside рассказал, как я учился машинному обучению и что могу посоветовать тем, кто хочет научиться ML сейчас.
Меньше 15 минут видео (а на х1.5 даже 10 минут), и вы узнаете, хорошо ли идти за ML в университет, какие университетские курсы самые классные, а также в чем плюсы и минусы самообразования и коммерческих курсов :)
В новом ролике на канале MLinside рассказал, как я учился машинному обучению и что могу посоветовать тем, кто хочет научиться ML сейчас.
Меньше 15 минут видео (а на х1.5 даже 10 минут), и вы узнаете, хорошо ли идти за ML в университет, какие университетские курсы самые классные, а также в чем плюсы и минусы самообразования и коммерческих курсов :)
YouTube
Ошибки при выборе курсов ML | Виктор Кантор
Предзапись на 3 поток курса "База ML": https://forms.yandex.ru/u/6822f81984227c4ce223e507/
https://clck.ru/3M4rmV - курс "База ML"
https://clck.ru/3FX9TN - демо-курс "База ML"
https://clck.ru/3FX9Sw - курс "ML в бизнесе"
https://t.iss.one/ml_inside - подписывайтесь…
https://clck.ru/3M4rmV - курс "База ML"
https://clck.ru/3FX9TN - демо-курс "База ML"
https://clck.ru/3FX9Sw - курс "ML в бизнесе"
https://t.iss.one/ml_inside - подписывайтесь…
❤13👍12🔥2
Кратко по сути: компании нанимают супер-дорогих технарей не для того, чтобы их календарь превращали в зебру, после которой ничего толкового сделано не будет. Если вы менеджер, и у вас есть опция поставить разрабу или DSу две встречи подряд либо две встречи с интервалом в час - выбирайте пожалуйста первое, иначе вы будете просто сжигать деньги бизнеса напрасно только потому что вы тупой 🫶🏼
💯54❤13👍10😱3
Forwarded from Дата канальи — про «специалистов» в данных / ML / AI
Манагерский кейс
Как-то встречаю в курилке пару тех лидов и они дружно жалуются что не могут ничего делать руками – в их продукты командировали каналью-скрама и все время встречи отнимают. А сколько встреч в день в среднем? – ну две-три. Пинаю скрама чтобы обсчитала (и объясняю методологию – включать во время встречи еще полчаса после нее на то, чтобы врубиться что происходит) – бодро докладывает что встречи занимают только (!) 9-10% рабочего времени.
Примерный календарь слева
Пришлось проводить работу с PO, CPO, Scrum и прочими на тему что если между встречами час – то ничего закодить не успеешь и для человека, работающего головой а не только лишь ртом (то есть того кто учит модели и пишет код) такой календарь превращается в тот что справа.
И я таки тоже потратил полчаса чтобы объяснить как быть – до обеда дать людям спокойно кодить (0 встреч), после обеда – встречи. Или наоборот , главное чтобы минимум 4 часа подряд было на работу каждый день
Мораль: от перемены мест слагаемых сумма меняется еще как. И особенности психики человека игнорировать нельзя.
Как-то встречаю в курилке пару тех лидов и они дружно жалуются что не могут ничего делать руками – в их продукты командировали каналью-скрама и все время встречи отнимают. А сколько встреч в день в среднем? – ну две-три. Пинаю скрама чтобы обсчитала (и объясняю методологию – включать во время встречи еще полчаса после нее на то, чтобы врубиться что происходит) – бодро докладывает что встречи занимают только (!) 9-10% рабочего времени.
Примерный календарь слева
Пришлось проводить работу с PO, CPO, Scrum и прочими на тему что если между встречами час – то ничего закодить не успеешь и для человека, работающего головой а не только лишь ртом (то есть того кто учит модели и пишет код) такой календарь превращается в тот что справа.
И я таки тоже потратил полчаса чтобы объяснить как быть – до обеда дать людям спокойно кодить (0 встреч), после обеда – встречи. Или наоборот , главное чтобы минимум 4 часа подряд было на работу каждый день
Мораль: от перемены мест слагаемых сумма меняется еще как. И особенности психики человека игнорировать нельзя.
🔥88💯36👍20❤7