эйай ньюз
63.5K subscribers
1.48K photos
789 videos
7 files
1.8K links
Культурно освещаю самые и не самые важные новости из мира AI, и облагораживаю их своим авторитетным профессиональным мнением.

В свободное время работаю как Staff Research Scientist в Meta Generative AI в Швейцарии.

Aвтор: @asanakoy

PR: @ssnowysnow
Download Telegram
Вот и результаты Strawberry 🍓 на арену подъехали. И конечно же это новый лидер!

Похоже, o1 открывает свой новый тир, результаты (в среднем) на голову выше, чем у предшественников, улучшился перформанс даже на обычных не наукоёмких запрсах. А в хард-промптах и кодинге все остальные даже не близко (4o может немного).

Челам с подпиской повезло, им еще и лимиты недавно повысили. А вот стоит ли переплачивать в 30 раз (тк o1 тратит в ~6 раз больше токенов на запрос чем 4o) за API для обычного пользователя – пока непонятно.

А как вы планируете использовать новую модель на полную мощь?

@ai_newz
Стрим про AI карьеру и собеседования через 2 часа, 17:30-18:30 CET (18:30-19:30 мск).
С самыми упорными, возможно, задержимся еще на полчаса, вопросов интересных поступило немало.

Ссылка на стрим: Streamyard

В начале разогрева ради – хиханьки, если не опоздаете, узнаете, кто ел в одной столовке с Яном ЛеКуном, кто сегодня спал днём, а кто работал всю ночь.

@ai_newz
Motion brush и Kling 1.5

Я что-то слышал краем уха про то, что у Kling вышла версия 1.5, и вроде бы она даже немного получше, и про то, что у них появился motion brush. Но я не предал этому особого значения, т.к. такая же штука была у Runway, а качество, ну, не то чтобы прямо сильно выросло. Но.

Гляньте на эти тесты от твиттерских. Работает неожиданно хорошо, и что самое классное — есть возможность указать траекторию движения. Да и сегментация объектов по клику мыши работает неплохо. Поэтому решил, что всё-таки это стоит поста.

По обновлению:

- Разрешение 1080p для pro юзеров
- Увеличение динамики движения в кадре
- Motion Brush с траекторией движения для 6! элементов сразу
- Увеличили скорости генераций, сделали возможность генерить несколько видео параллельно - тут спорно, у меня 2 видоса генерились более 50 минут. Хз, где та скорость.
- Увеличили макс. длину клипа для img2video до 10 секунд и добавили end frame в стандартной подписке (тоже платная)

Пока на бесплатной версии дает генерить с Motion brush только в Kling 1.0.

Ну что, теперь Kling — король арены видеогенерации?

Подробнее и сравнения

@ai_newz
Протестил Kling Motion Brush

50 минут ожидания и о-па! Марик превращается в другого парня. Лица, конечно, знатно корёжатся. Но траектория с большего правильная получилась, кроме ног парня слева.

Ради справедливости, я пробовал оживить это фото в Luma, и он вообще отказался что-либо делать, просто слегка зазумил фотку.

Так что тут победа за Kling!

@ai_newz
Мне в личку, в комментах и на последних стримах прилетает очень много вопросов по типу: По какому треку лучше учиться, нужен ли PhD, как пивотнуться в AI/ML, как подготовиться к собесам на AI роли в FAANG и прочее.

На все вопросы ответить я, конечно, не успеваю, но зато у меня есть для вас новость. Мне очень нравится менторить ребят и делиться своими знаниями и опытом. Поэтому я решил протестировать формат закрытого комьюнити, где я буду помогать вам готовиться к собеседованиям на AI/ML роли и в том числе проведу серию live стримов (там же), на которых отвечу на все ваши вопросы. Сразу скажу: доступ будет платным, чтобы собрать только самых заинтересованных людей и успеть дать качественную обратную связь. А чуть ниже расскажу еще, как попасть туда бесплатно.

▶️Если вам уже все понятно и ничего объяснять больше не нужно💳, то вот ссылка на бота для предзаписи: @ai_newz_intensive_bot. Там же все подробности по содержанию, времени и прочим условиям.

Для остальных расскажу, кто я такой и почему могу дать ценные знания. Мало ли, не знакомы еще)

Меня зовут Артем, я Staff Research Scientist в Meta GenAI в Цюрихе. До позиции „Staff“ в FAANG доходят лишь 10% (пост про разные уровни в Бигтехе). Также я сам собеседую народ в Мету, и в этом посте подробнее рассказывал про это. Больше обо мне можно почитать в закрепе.

Как попасть бесплатно. Я по себе знаю, что для многих студентов дополнительные траты не всегда по карману. А пользу толковым студентам все равно хочется дать, чтобы они могли как можно быстрее выстроить свой карьерный путь в топовые места. Поэтому я предусмотрел 3 charity spots. Будет небольшой конкурс с несколькими заданиями, по итогам которого я отберу трех лучших ребят, которые смогут попасть на интенсив бесплатно. Все подробности опять же в боте.

В закрытом комьюнити я хочу поделиться своими знаниями и опытом с ребятами, которые стремятся перейти в AI/ML как инженеры или рисерчеры.

@ai_newz_intensive_bot
Please open Telegram to view this post
VIEW IN TELEGRAM
Нейродайджест за неделю (#36)

Карьера в FAANG
- Стрим. Собрались, поболтали с чуваками про карьеру в бигтехе. Записи нет (но может выложим), так что следите за анонсами.
- Интенсив по подготовке к собесам на AI/ML роли в FAANG. Я анонсировал закрытое сообщество, все еще не поздно записаться.

Генеративные модели и ЛЛМ
- Kling 1.5. Неплохое обновление китайского видео-генератора, отдельный прикол — это Motion brush с траекторией движения. + Мои тесты.
- Презентация Snapchat. Чуваки показали кучу всего прикольного: AR-очки, крутой IP-Adapter и свою видео-модель.
- OpenAI o1-preview на арене. Ну, тут без шансов — топ-1.

Прочее
- Гайд, как купить мегакластер Nvidia. Наглядный пример от Маска и Ларри Эллисона.

> Читать дайджест #35

#дайджест
@ai_newz
This media is not supported in your browser
VIEW IN TELEGRAM
AI вместо компилятора

Что делать, если проект написан на каком-нибудь мутном языке типа Agda, вам нужно запустить в браузере, но в компиляторе куча багов, а единственный разработчик умер?

Элементарно! Нужно просто попросить Sonnet 3.5 скомпилировать проект напрямую в TypeScript (процесс показан на видео). В итоге код выходит в 20 раз быстрее, чем со старым компилятором (на примере Agda), при том что багов компиляции стало меньше.

Концепт интересный, но это пока прототип, который работает с единственным проектом. Работает не идеально и компилирует медленно, так что до обычных компиляторов и больших кодбаз схожий подход доберётся не скоро. Но в нишевых задачах неплохо может помочь.

Я не уверен что Sonnet видел Agda в тренировочной выборке, ну, может пару файлов и попало. Чтобы улучшить качество компиляции челик пишет длинный System Prompt You are an expert Agda <-> TypeScript compiler. Your task is to translate Agda to/from TypeScript..., где еще добрасывает список ошибок, которые не стоит допускать и кучу примеров коротких функций на Agda и JS. Делает он так, потому что few-shot промпты всегда поднимают качество результата.

А в целом добавлю, что переводить куски кода с одного на другой широко известный язык (напрмиер с Python на C++) – это то с чем LLM-ки очень хорошо справляются. И результат работы можно детерминированно проверить, прогнав исходную и новую программу.

Код "компилятора"

@ai_newz
Один из аккаунтов OpenAI взломали криптоскамеры. Пожалуйста, соблюдайте правила цифровой гигиены и не переходите ни по каким ссылкам.

Хороший пример того, что в OpenAI работают такие же люди, которые тоже могут совершать ошибки.

@ai_newz
This media is not supported in your browser
VIEW IN TELEGRAM
ByteDance (отец ТикТока) выпустил свою собственную модель видео генерации - PixelDance.

Все больше игроков выпускают свои video generation модели. Вот и ТикТок подоспел. Китайцы оценивают, что размер рынка инструментов для AI video-generation в Китае достигнет $1.3 млрд к 2026. Вот и суетятся.

Моделька PixelDance умеет в text2video и image2video (это анимация фото). Генерит клипы длительности до 10 сек. Архитектурно это все еще DiT трансформер.

Заявлено, что новая модель более стабильна при переходе между катами, сохраняет стиль, например, когда меняется камера и резко показывается новый объект.

Анонсировали еще мелкую, и, наверное, более быструю версию модели под названием Seaweed.

Конечно же ничего из этого не в опенсорсе, и потрогать пока нельзя. Но ждем, что в октябре выкатят что-то в апке TikTok. Скорее всего сначала выкатят мелкую модель с качеством похуже - ибо большую гонять очень дорого.

@ai_newz
Запись большого стрима про карьеру и собесы в БигТех

Так как все спрашивали про запись недавнего стрима с коллегами из FAANG, мы все-таки ее выложили:)

Вот таймкоды, на интересные моменты:
2:00 - Интро
10:27 - Интро со мной, про мои походы в горы
11:49 - Чем я занимаюсь по работе
12:30 - Emu Flash - риалтайм генерация картинок в meta-ai, и как наша демка дошла до Цукерберга
20:40 - Кто спал днем, а кто всю ночь работал
21:45 - Как выглядят собесы на ресерч менеджера в Мету
33:20 - Про Behavioral интервью
45:22 - Какие собесы на research позиции?
48:27 - Коротко про AI Research Design интервью
49:17 - Почему нужно PhD на ресерч роли, какие скилы применяются в работе
51:05 - Будут ли умирать роли в Applied Research с приходом LLM? (нет)
55:54 - Про менторство, как это помогает расти, как найти ментора.
1:11:13 - Какая мотивация работать в БигТехе.
1:49:24 - Заключение. Финальные советы по прохождению собесов и по карьере в целом.

Как и обещал на стриме ( 1:02:25 ), я анонсировал закрытое комьюнити по подготовке к собеседованиям на AI/ML роли в FAANG и не-FAANG. Подробности и как записаться – в посте.

#personal #career #interviews
@ai_newz
Advanced Voice Mode для ChatGPT теперь доступен (почти) всем подписчикам Plus и Team

Я попробовал: низкая задержка и возможность перебивать очень впечатляют. Плюс модель сильно лучше воспринимает слова из других языков в речи. Из минусов - доступно лишь в мобильном приложении, веб версию обделили.

К сожалению, режим пока недоступен для пользователей из стран ЕС, а также ряда европейских стран, включая Великобританию и Швейцарию 😢 (пришлось использовать VPN).

А какие у вас впечатления? Делитесь в комментариях.

@ai_newz
Через минуту начнется ежегодной стрим презентации Meta Connect. Возможно покажут что-то из того, к чему я приложил руку.

Буду постить про самые интересные апдейты.

- Стрим в FB

- Расписание докладов. Будет даже мини-курс LLama 101 с основами использования моделей LLaMa.

- И в дополнение вот ссылки на мои посты с предыдущих Connect 2021 (тык) и 2022 (тык) и 2023 (тык).

@ai_newz