Forwarded from ChillHouse (Alexey Moiseenkov)
Думая про всякий там RL & reward hacking в моделях серии о и так далее вспомнил вот такую работу: можно специально провоцировать галлюцинации у LLM и получать от этого буст по метрикам.
Вместо обычного zero-shot prompt’а типа:
"Ответь на вопрос..."
добавляют в начало:
"Посмотри примеры в разделе Examples и используй их...", хотя никакого раздела в prompt’е нет.
Модель “вспоминает” несуществующие примеры и опирается на них как будто бы в few-shot.
На ряде бенчей дает заметный буст (правда работа старая и там еще старые сетки).
Эффект почти не срабатывает на gpt4 серии. Она лучше умеет ловить, что контекст поддельный. Но вполне работает на новой о серии (судя по постам в тви, но надо чекнуть). Это наталкивает на понятную мысль что модель можно как бы натолкнуть на рассуждения out of distribution сказав что у тебя оно на самом деле есть в обучающей выборке. Мне кажется этот эффект смахивает на те самые фразочки “let me check again”, “hm” в рассуждениях. То есть пытаются как бы отослать к примерам которые якобы точно правильные и оттуда перенять рассуждения/подход.
Вместо обычного zero-shot prompt’а типа:
"Ответь на вопрос..."
добавляют в начало:
"Посмотри примеры в разделе Examples и используй их...", хотя никакого раздела в prompt’е нет.
Модель “вспоминает” несуществующие примеры и опирается на них как будто бы в few-shot.
На ряде бенчей дает заметный буст (правда работа старая и там еще старые сетки).
Эффект почти не срабатывает на gpt4 серии. Она лучше умеет ловить, что контекст поддельный. Но вполне работает на новой о серии (судя по постам в тви, но надо чекнуть). Это наталкивает на понятную мысль что модель можно как бы натолкнуть на рассуждения out of distribution сказав что у тебя оно на самом деле есть в обучающей выборке. Мне кажется этот эффект смахивает на те самые фразочки “let me check again”, “hm” в рассуждениях. То есть пытаются как бы отослать к примерам которые якобы точно правильные и оттуда перенять рассуждения/подход.
Forwarded from ChillHouse (Alexey Moiseenkov)
Посты выходного дня. Несколько тезисов, которые мне кажутся важными для понимания если вы собрались строить свой стартап, продукт, whatever.
1/ Да, надо выучить все эти growth playbook. А потом выкинуть их и написать свой.
2/ Почти никто не думает в горизонте 3+ лет. А зря. Длинная игра дает возможность победить 90% конкурентов.
3/ MVP это не выбор. Это ты просто не знаешь, как делать норм продукт. Если можешь, лучше сразу что-то полезное, а не «viable». Особенно в век AI.
4/ Дизайнеры так же важны, как инженеры.
5/ Стартапы убивает не конкуренция. Ну или это большая редкость.
6/ Рост не бывает линейным. Это сигмоиды, одна за другой. В лучшем случае получится экспонента, если глянуть издалека.
7/ Найм это не собеседование, это воронка. Чем раньше начнёшь, тем лучше.
8/ Хочешь нанять? Делай это заранее. Когда уже нужно, ты опоздал.
9/ Всем пофиг, что ты делаешь. Никто не запомнит. Провалил, забил, украл (Kekw)? Отлично. Начинай заново.
10/ Энтерпрайз-продажи это про коммуникацию. Продукт уже потом.
11/ Email-рассылка в холодную не работает. Забудь.
12/ SEO работает.
13/ Бороться с churn-rate нужно в момент регистрации. Потом это сделать сильно сложнее.
14/ Офсайты работают. Люди сближаются. Это важно.
15/ Бренд важнее, чем ты думаешь.
16/ Апдейты для инвесторов раз в месяц must have. Ты структурируешь голову, а они (инвесторы) бывают полезны.
17/ И, да, ощущение что все ппц это привилегия. Обычно все скучно и уныло и чем дальше в возрасте, тем лучше это понятно.
18/ Знания, как что работает до деталей влияют, без понимания ни команду ни продукт быстро сделать не выйдет.
1/ Да, надо выучить все эти growth playbook. А потом выкинуть их и написать свой.
2/ Почти никто не думает в горизонте 3+ лет. А зря. Длинная игра дает возможность победить 90% конкурентов.
3/ MVP это не выбор. Это ты просто не знаешь, как делать норм продукт. Если можешь, лучше сразу что-то полезное, а не «viable». Особенно в век AI.
4/ Дизайнеры так же важны, как инженеры.
5/ Стартапы убивает не конкуренция. Ну или это большая редкость.
6/ Рост не бывает линейным. Это сигмоиды, одна за другой. В лучшем случае получится экспонента, если глянуть издалека.
7/ Найм это не собеседование, это воронка. Чем раньше начнёшь, тем лучше.
8/ Хочешь нанять? Делай это заранее. Когда уже нужно, ты опоздал.
9/ Всем пофиг, что ты делаешь. Никто не запомнит. Провалил, забил, украл (Kekw)? Отлично. Начинай заново.
10/ Энтерпрайз-продажи это про коммуникацию. Продукт уже потом.
11/ Email-рассылка в холодную не работает. Забудь.
12/ SEO работает.
13/ Бороться с churn-rate нужно в момент регистрации. Потом это сделать сильно сложнее.
14/ Офсайты работают. Люди сближаются. Это важно.
15/ Бренд важнее, чем ты думаешь.
16/ Апдейты для инвесторов раз в месяц must have. Ты структурируешь голову, а они (инвесторы) бывают полезны.
17/ И, да, ощущение что все ппц это привилегия. Обычно все скучно и уныло и чем дальше в возрасте, тем лучше это понятно.
18/ Знания, как что работает до деталей влияют, без понимания ни команду ни продукт быстро сделать не выйдет.
Forwarded from ChillHouse (Alexey Moiseenkov)
Media is too big
VIEW IN TELEGRAM
Последнее время снова сталкиваюсь с продуктом, в том плане не только потому что сами делаем, но и потому что вокруг эта проблема стала более очевидной. Хотел бы привести пример на основе Perplexity. Пост чистый наброс из общих мыслей btw
Это идеальный как мне кажется случай. Эпоха AI только начинает раскатываться и выходит чувак, который говорит "мы победим google через UX" (где-то в этом видосе). И совсем недавно я наткнулся на замечательный совершенно доклад от гейм директора World of Warcraft. В этом посте я дам свое мнение и проекцию, но презентация настолько крутая (пусть и деталями про игру именно), что советую всем.
Так вот я бы хотел посвятить борьбу в AI лендскейпе такому интересному явлению как desire path. Это то самое, что все кричат "слушайте вашего пользователя". И получаем мы обычно как на картинке (хотим одно, сначала защищаем, защищаем, потом сдаемся и когда сдаемся то этого снова недостаточно) - пытаться продавить свое решение в начале бывает глупым, а потом снова имеет смысл. Концепция мышления путями в целом достатчно интересна.
Перплексити идет в лоб атакуя и говоря смотрите как надо, а потом постепенно ослабевает так как все вокруг делают буквально тоже самое. И ребята остаются в парадигме "мы решаем проблемы, которые не могут быть идеально решены". У дизайна есть такое свойства - да. Вместо того, чтобы двигаться дальше, команда начинает искать максимальную прикладную ценность, которой к сожалению просто нет. Потому что люди думают эмоциями и постоянно меняют свое мнение относительно уже готовых фичей, сначала они в восторге, а потом говорят "а чего же не развиваем".
Novelty has inherent value, making static soltions short-lived (c) - другими словами новизна важна сама по себе, и ехать на одной фишке просто невозможно; Это большое упущение пытаться оседлать волну "удачной фичи" и повторить ее снова не развивая long-term ценность. Поэтому мы видим браузер, рекламу, все что угодно, что есть у Google удачного. Они пытаются повторить свой изначальный успех просто копируя то, что было. Но никаких эмоций по пути не возникает и мне кажется именно поэтому ребятам надо менять подход в корне.
Всем смотреть доклад, специфично игровые прям темы можно скипать легко
Это идеальный как мне кажется случай. Эпоха AI только начинает раскатываться и выходит чувак, который говорит "мы победим google через UX" (где-то в этом видосе). И совсем недавно я наткнулся на замечательный совершенно доклад от гейм директора World of Warcraft. В этом посте я дам свое мнение и проекцию, но презентация настолько крутая (пусть и деталями про игру именно), что советую всем.
Так вот я бы хотел посвятить борьбу в AI лендскейпе такому интересному явлению как desire path. Это то самое, что все кричат "слушайте вашего пользователя". И получаем мы обычно как на картинке (хотим одно, сначала защищаем, защищаем, потом сдаемся и когда сдаемся то этого снова недостаточно) - пытаться продавить свое решение в начале бывает глупым, а потом снова имеет смысл. Концепция мышления путями в целом достатчно интересна.
Перплексити идет в лоб атакуя и говоря смотрите как надо, а потом постепенно ослабевает так как все вокруг делают буквально тоже самое. И ребята остаются в парадигме "мы решаем проблемы, которые не могут быть идеально решены". У дизайна есть такое свойства - да. Вместо того, чтобы двигаться дальше, команда начинает искать максимальную прикладную ценность, которой к сожалению просто нет. Потому что люди думают эмоциями и постоянно меняют свое мнение относительно уже готовых фичей, сначала они в восторге, а потом говорят "а чего же не развиваем".
Novelty has inherent value, making static soltions short-lived (c) - другими словами новизна важна сама по себе, и ехать на одной фишке просто невозможно; Это большое упущение пытаться оседлать волну "удачной фичи" и повторить ее снова не развивая long-term ценность. Поэтому мы видим браузер, рекламу, все что угодно, что есть у Google удачного. Они пытаются повторить свой изначальный успех просто копируя то, что было. Но никаких эмоций по пути не возникает и мне кажется именно поэтому ребятам надо менять подход в корне.
Всем смотреть доклад, специфично игровые прям темы можно скипать легко
Forwarded from AI для Всех (Artemii)
Как работает MCP: протокол для интеграции ИИ с внешним миром 🔥
Всем привет! Решил сегодня разобраться с тем как работает MCP. В итоге я за 2 часа навайбкодил MCP для Telegram, который позволяет ИИ анализировать каналы и сообщения (что собственно и иллюстрирует картинка выше).
Что такое MCP и почему это важно
Наши умные ИИ-ассистенты (они же LLM) не имеют возможности взаимодействовать с окружением (например с компьютером или браузером). Чтобы показать ChatGPT что-то, приходится делать "скриншоты" (копировать тексты) или подробно описывать то, что видите сами.
Model Context Protocol (MCP) — решает эту проблему путем того, что стандартизирует как именно внешний мир и ИИ должны общаться.
Как это работает
Представьте MCP как систему переводчиков-посредников между ИИ и вашими программами:
1. Участники общения
- ИИ-ассистент (например, Claude) — умный собеседник, который хочет помочь
- Ваши приложения (Telegram, редактор кода, база данных) — инструменты с полезной информацией
- MCP-переводчики — посредники, которые помогают им понимать друг друга
2. Как происходит диалог
Когда вы спрашиваете ИИ о чем-то, что требует доступа к внешним данным (например, "какие сообщения в Telegram-канале самые популярные?"), происходит следующее:
1. Запрос: ИИ понимает, что ему нужно обратиться к Telegram
2. Поиск переводчика: Система ищет подходящего MCP-посредника для Telegram
3. Формальный запрос: ИИ формулирует структурированный запрос к Telegram через MCP
4. Получение данных: MCP-сервер связывается с Telegram, получает информацию
5. Перевод для ИИ: Данные преобразуются в понятный для ИИ формат
6. Анализ и ответ: ИИ обрабатывает полученные данные и отвечает вам
Всё это происходит "за кулисами" — вы просто видите, что ИИ внезапно стал понимать ваши программы.
Что умеет передавать MCP
Ресурсы — "Вот, посмотри на это"
Ресурсы — это любые данные, которые приложение хочет показать ИИ:
- Файлы с кодом
- Сообщения из Telegram
- Записи из базы данных
- Скриншоты интерфейса
Каждый ресурс имеет свой "адрес" (URI), по которому ИИ может его запросить. Например,
Важно: вы всегда контролируете, какие ресурсы доступны ИИ. Ваш редактор кода может предложить показать файл, но решение всегда за вами.
Инструменты — "Сделай это для меня"
Инструменты — это действия, которые приложение позволяет выполнить ИИ:
- "Найди все сообщения со словом X"
- "Проанализируй популярные посты"
- "Покажи реакции на сообщение"
Когда ИИ нужно выполнить такое действие, он отправляет запрос через MCP, а приложение выполняет нужную функцию и возвращает результат.
Промпты — "Используй этот шаблон"
Промпты — это готовые шаблоны взаимодействия:
- "Анализ канала Telegram"
- "Объяснение кода"
- "Генерация отчета"
Приложения предлагают эти шаблоны, а ИИ может их использовать для структурированной работы с данными.
Моя интеграция для Telegram: что она позволяет
За пару часов я навайбкодил MCP-сервер для Telegram, который позволяет ИИ:
1. Изучать каналы — видеть информацию о канале, количество подписчиков, описание
2. Искать сообщения— находить посты по ключевым словам или датам
3. Анализировать популярность — определять, какие сообщения вызывают больший отклик
4. Исследовать реакции — видеть, как люди реагируют на контент
Когда я спрашиваю ИИ "Какие сообщения в канале @nn_for_science получили больше всего репостов?", происходит следующее:
1. ИИ решает использовать инструмент
2. MCP-сервер получает запрос с параметрами (имя канала, минимум репостов)
3. Сервер подключается к Telegram API, получает сообщения
4. Сообщения сортируются по количеству репостов
5. Результат возвращается ИИ в структурированном JSON-формате
6. ИИ анализирует данные и представляет результаты в понятном виде
Итог
MCP делает возможным буквально любые взаимодействия (в том числе и с объекттами в реальном мире), скорее всего за этот год протокол претерпит какие-то изменения, но в целом уже очевидно что MCP с нами надолго.
Делитесь в комментариях какие самые безумные MCP вы видели! 🚀
Всем привет! Решил сегодня разобраться с тем как работает MCP. В итоге я за 2 часа навайбкодил MCP для Telegram, который позволяет ИИ анализировать каналы и сообщения (что собственно и иллюстрирует картинка выше).
Что такое MCP и почему это важно
Наши умные ИИ-ассистенты (они же LLM) не имеют возможности взаимодействовать с окружением (например с компьютером или браузером). Чтобы показать ChatGPT что-то, приходится делать "скриншоты" (копировать тексты) или подробно описывать то, что видите сами.
Model Context Protocol (MCP) — решает эту проблему путем того, что стандартизирует как именно внешний мир и ИИ должны общаться.
Как это работает
Представьте MCP как систему переводчиков-посредников между ИИ и вашими программами:
1. Участники общения
- ИИ-ассистент (например, Claude) — умный собеседник, который хочет помочь
- Ваши приложения (Telegram, редактор кода, база данных) — инструменты с полезной информацией
- MCP-переводчики — посредники, которые помогают им понимать друг друга
2. Как происходит диалог
Когда вы спрашиваете ИИ о чем-то, что требует доступа к внешним данным (например, "какие сообщения в Telegram-канале самые популярные?"), происходит следующее:
1. Запрос: ИИ понимает, что ему нужно обратиться к Telegram
2. Поиск переводчика: Система ищет подходящего MCP-посредника для Telegram
3. Формальный запрос: ИИ формулирует структурированный запрос к Telegram через MCP
4. Получение данных: MCP-сервер связывается с Telegram, получает информацию
5. Перевод для ИИ: Данные преобразуются в понятный для ИИ формат
6. Анализ и ответ: ИИ обрабатывает полученные данные и отвечает вам
Всё это происходит "за кулисами" — вы просто видите, что ИИ внезапно стал понимать ваши программы.
Что умеет передавать MCP
Ресурсы — "Вот, посмотри на это"
Ресурсы — это любые данные, которые приложение хочет показать ИИ:
- Файлы с кодом
- Сообщения из Telegram
- Записи из базы данных
- Скриншоты интерфейса
Каждый ресурс имеет свой "адрес" (URI), по которому ИИ может его запросить. Например,
telegram://channels/@channel_name/messages — это адрес сообщений в конкретном канале.Важно: вы всегда контролируете, какие ресурсы доступны ИИ. Ваш редактор кода может предложить показать файл, но решение всегда за вами.
Инструменты — "Сделай это для меня"
Инструменты — это действия, которые приложение позволяет выполнить ИИ:
- "Найди все сообщения со словом X"
- "Проанализируй популярные посты"
- "Покажи реакции на сообщение"
Когда ИИ нужно выполнить такое действие, он отправляет запрос через MCP, а приложение выполняет нужную функцию и возвращает результат.
Промпты — "Используй этот шаблон"
Промпты — это готовые шаблоны взаимодействия:
- "Анализ канала Telegram"
- "Объяснение кода"
- "Генерация отчета"
Приложения предлагают эти шаблоны, а ИИ может их использовать для структурированной работы с данными.
Моя интеграция для Telegram: что она позволяет
За пару часов я навайбкодил MCP-сервер для Telegram, который позволяет ИИ:
1. Изучать каналы — видеть информацию о канале, количество подписчиков, описание
2. Искать сообщения— находить посты по ключевым словам или датам
3. Анализировать популярность — определять, какие сообщения вызывают больший отклик
4. Исследовать реакции — видеть, как люди реагируют на контент
Когда я спрашиваю ИИ "Какие сообщения в канале @nn_for_science получили больше всего репостов?", происходит следующее:
1. ИИ решает использовать инструмент
get_popular_messages2. MCP-сервер получает запрос с параметрами (имя канала, минимум репостов)
3. Сервер подключается к Telegram API, получает сообщения
4. Сообщения сортируются по количеству репостов
5. Результат возвращается ИИ в структурированном JSON-формате
6. ИИ анализирует данные и представляет результаты в понятном виде
Итог
MCP делает возможным буквально любые взаимодействия (в том числе и с объекттами в реальном мире), скорее всего за этот год протокол претерпит какие-то изменения, но в целом уже очевидно что MCP с нами надолго.
Делитесь в комментариях какие самые безумные MCP вы видели! 🚀
Forwarded from AI для Всех (Artemii)
🚀 Prompt Engineering: Как эффективно общаться с ИИ?
ИИ становится всё мощнее, и умение правильно формулировать запросы (промпты) превращается в ключевой навык. Вот простые, но важные советы из последнего руководства по Prompt Engineering:
🔸 Чётко ставьте задачу
Не оставляйте двусмысленности. Чем точнее вы опишите желаемый результат, тем лучше будет ответ.
🔸 Используйте примеры
Даже один-два примера (few-shot prompting) помогут модели понять стиль и формат ожидаемого ответа.
🔸 Регулируйте температуру
Хотите креатива? Поднимайте температуру выше (например, 0.7-1.0). Нужны повторяемые ответы? Опускайте до 0.
🔸 Осваивайте “цепочки размышлений” (Chain of Thought)
Для сложных задач попросите ИИ думать «шаг за шагом». Это повышает точность и прозрачность ответа.
🔸 Роль и контекст решают многое
Задайте ИИ роль (учитель, гид, редактор) или конкретный контекст, чтобы получить максимально релевантный ответ.
🌟 Практический пример:
“Ты редактор научной статьи. Перепиши текст ниже более формально и кратко: …”
Prompt Engineering — не магия, а ремесло. Экспериментируйте и документируйте свои успешные примеры. Грамотно составленный промпт порой важнее мощности самой модели!
📖 Прочитайте целиком, что бы основательно погрузится в тему:
• Руководство от Lee Boonstra, 2025
🎯 Почему это важно?
Как показал недавний эксперимент компании Sakana AI, качественно поставленная задача позволяет ИИ не просто генерировать тексты, а проводить полноценные научные исследования, конкурируя даже на ведущих конференциях уровня ICLR 2025.
🫰 Бонусный совет:
Подгрузите книжку целиком в LLM и попросите ее написать вам промпт, над которым вы сейчас работаете
ИИ становится всё мощнее, и умение правильно формулировать запросы (промпты) превращается в ключевой навык. Вот простые, но важные советы из последнего руководства по Prompt Engineering:
🔸 Чётко ставьте задачу
Не оставляйте двусмысленности. Чем точнее вы опишите желаемый результат, тем лучше будет ответ.
🔸 Используйте примеры
Даже один-два примера (few-shot prompting) помогут модели понять стиль и формат ожидаемого ответа.
🔸 Регулируйте температуру
Хотите креатива? Поднимайте температуру выше (например, 0.7-1.0). Нужны повторяемые ответы? Опускайте до 0.
🔸 Осваивайте “цепочки размышлений” (Chain of Thought)
Для сложных задач попросите ИИ думать «шаг за шагом». Это повышает точность и прозрачность ответа.
🔸 Роль и контекст решают многое
Задайте ИИ роль (учитель, гид, редактор) или конкретный контекст, чтобы получить максимально релевантный ответ.
🌟 Практический пример:
“Ты редактор научной статьи. Перепиши текст ниже более формально и кратко: …”
Prompt Engineering — не магия, а ремесло. Экспериментируйте и документируйте свои успешные примеры. Грамотно составленный промпт порой важнее мощности самой модели!
📖 Прочитайте целиком, что бы основательно погрузится в тему:
• Руководство от Lee Boonstra, 2025
🎯 Почему это важно?
Как показал недавний эксперимент компании Sakana AI, качественно поставленная задача позволяет ИИ не просто генерировать тексты, а проводить полноценные научные исследования, конкурируя даже на ведущих конференциях уровня ICLR 2025.
Подгрузите книжку целиком в LLM и попросите ее написать вам промпт, над которым вы сейчас работаете
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Ну за шрифтовых дизайнеров!
А заодно за векторизацию.
Идете в chatGPT (хоть в 4o, хоть в o4)
И говорите:
Вместо [Use a cyberpunk] можете использовать use serif, use pixelated, use bubble - как у меня на картинках, или придумать что-то поумнее.
Получите новые шрифты, доселе невиданные.
Тут вы возопите, этожрастр!
Ну ок, подаете ему картинку на вход и говорите "
Получаете контура.
Заливка - апжлста!
Покуролесим?
@cgevent
А заодно за векторизацию.
Идете в chatGPT (хоть в 4o, хоть в o4)
И говорите:
Design a type specimen sheet that clearly displays every character of the English alphabet and numerals in a clean, consistent layout. Include all uppercase letters (A–Z). Arrange them in a precise grid layout with ample vertical and horizontal padding to ensure no characters are cropped or cut off. Sort characters alphabetically and numerically in clearly defined rows or sections. [Use a cyberpunk] aesthetic with black glyphs on a white background. Ensure the typeface style is uniform across all characters, with sharp lines, balanced proportions, and ideal legibility for typography development. Explicitly render the following characters with full visibility and spacing: A B C D E F G H I J K L M N O P Q R S T U V W X Y Z
Вместо [Use a cyberpunk] можете использовать use serif, use pixelated, use bubble - как у меня на картинках, или придумать что-то поумнее.
Получите новые шрифты, доселе невиданные.
Тут вы возопите, этожрастр!
Ну ок, подаете ему картинку на вход и говорите "
Do not OCR picture, just trace inner and outer contours of every symbol and make svg file"Получаете контура.
Заливка - апжлста!
now fill letters with black, fill only space between inner and outer countour - сделал скриншоты, могу скинуть SVG в коменты, если не верите.Покуролесим?
@cgevent
Forwarded from AI для Всех (Artemii)
Кевин Уэйл - CPO OpenAI: как строить AGI‑будущее и не потерять здравый смысл
(конспект живого Q&A в AGI House, San Francisco — на который мне довелось сегодня сходить)
1. От физики элементарных частиц к OpenAI
Кевин мечтал стать профессором, поступил в PhD по физике в Стэнфорде, но… встретил будущую жену‑стартапершу, увидел реальный «драйв Долины» и бросил аспирантуру:
«За 40 лет я мог бы открыть один новый бозон. А мог — написать код и завтра им воспользовались бы миллионы. Я выбрал второе».
После пары “невыстреливших” стартапов он оказался 40‑м сотрудником Twitter, вырос до VP Product к IPO, потом ушёл в Instagram (был один из авторов Stories) и запустил внутри Meta криптопроект Libra. Дальше — Planet Labs (200 мини‑спутников, 40 ТБ снимков Земли в день) и, наконец, OpenAI.
2. OpenAI = исследовательский институт + продуктовая фабрика
> Q: Как совмещать фундаментальную науку и массу коммерческих релизов, да ещё и с новой некоммерческой структурой?
Ответ: «Миссия — принести AGI всему человечеству. Для этого нужны две ноги:
1. топ‑уровень исследований;
2. реальные продукты, максимально дешёвые.
НКО даст деньгам “правильную” социальную траекторию, а for‑profit‑часть остаётся мотором разработки».
3. 25 продукт‑менеджеров на всю компанию
> Q: На подкасте Лэнни вы сказали, что у вас всего 25 PM. Как так?
«Слишком много ПМ‑ов = море слайдов и ноль кода.
Инженеры и дизайнеры делают фичи, ПМ — клей. Когда клея мало, команда свободна рисковать, выпускать недоваренные версии, ловить ошибки в проде и чинить».
4. Страх «AI заберёт работу» и почему это миф
Кевин — оптимист: «Посмотрите Hidden Figures: когда‑то люди вручную считали траектории ракет, но ракетные инженеры никуда не делись — они просто перестали ковыряться в логарифмических линейках. То же будет с кодом. Роботы заберут скучное, а мы возьмёмся за сложное».
5. «Почему вы выбираете большие бренды, а не гаражи?»
«Я не выбираю большие компании. Twitter был маленьким, Insta — тоже, Planet — 400 человек. Меня интересует эффект на мир на одного инженера.»
6. Libra и боль платежей
> Q: Если запускать Libra сегодня, что кроме платежей?
A: «Только платежи! Перевод денег должен быть так же прост, как сообщение в WhatsApp. Особенно для тех, кто сейчас отдаёт 10 % комиссий Western Union».
7. Чат = лишь интерфейс, не рамка исследований
Deep Research, Operator‑агенты, мультимодальные фичи — всё это выходит за рамки «болтушки». Массовая обратная связь подсказывает, какие способности модели нужны людям сейчас а не в теории бенчмарков.
8. AI × Climate: 40 ТБ данных в день — вручную не осилишь
Planet Labs снимает Землю с разрешением 3м каждый день. Разметка «что изменилось» требует дорогих специалистов. Модели должны автоматизировать анализ: от контроля вырубки леса до отслеживания войск.
Кстати, мегапроект Stargate (до $500 млрд на ЦОДы и энергетику в США) заставит OpenAI самим изобретать «зелёные» дата‑центры.
9. Личный рост: завтракайте с незнакомцами
Главный совет: «Выходите из пузыря. Ходите на завтраки “не по теме”, говорите с людьми умнее себя, выращивайте сеть контактов. Через 10 лет удивитесь, как это стреляет».
Часть 2
(конспект живого Q&A в AGI House, San Francisco — на который мне довелось сегодня сходить)
1. От физики элементарных частиц к OpenAI
Кевин мечтал стать профессором, поступил в PhD по физике в Стэнфорде, но… встретил будущую жену‑стартапершу, увидел реальный «драйв Долины» и бросил аспирантуру:
«За 40 лет я мог бы открыть один новый бозон. А мог — написать код и завтра им воспользовались бы миллионы. Я выбрал второе».
После пары “невыстреливших” стартапов он оказался 40‑м сотрудником Twitter, вырос до VP Product к IPO, потом ушёл в Instagram (был один из авторов Stories) и запустил внутри Meta криптопроект Libra. Дальше — Planet Labs (200 мини‑спутников, 40 ТБ снимков Земли в день) и, наконец, OpenAI.
2. OpenAI = исследовательский институт + продуктовая фабрика
> Q: Как совмещать фундаментальную науку и массу коммерческих релизов, да ещё и с новой некоммерческой структурой?
Ответ: «Миссия — принести AGI всему человечеству. Для этого нужны две ноги:
1. топ‑уровень исследований;
2. реальные продукты, максимально дешёвые.
НКО даст деньгам “правильную” социальную траекторию, а for‑profit‑часть остаётся мотором разработки».
3. 25 продукт‑менеджеров на всю компанию
> Q: На подкасте Лэнни вы сказали, что у вас всего 25 PM. Как так?
«Слишком много ПМ‑ов = море слайдов и ноль кода.
Инженеры и дизайнеры делают фичи, ПМ — клей. Когда клея мало, команда свободна рисковать, выпускать недоваренные версии, ловить ошибки в проде и чинить».
4. Страх «AI заберёт работу» и почему это миф
Кевин — оптимист: «Посмотрите Hidden Figures: когда‑то люди вручную считали траектории ракет, но ракетные инженеры никуда не делись — они просто перестали ковыряться в логарифмических линейках. То же будет с кодом. Роботы заберут скучное, а мы возьмёмся за сложное».
5. «Почему вы выбираете большие бренды, а не гаражи?»
«Я не выбираю большие компании. Twitter был маленьким, Insta — тоже, Planet — 400 человек. Меня интересует эффект на мир на одного инженера.»
6. Libra и боль платежей
> Q: Если запускать Libra сегодня, что кроме платежей?
A: «Только платежи! Перевод денег должен быть так же прост, как сообщение в WhatsApp. Особенно для тех, кто сейчас отдаёт 10 % комиссий Western Union».
7. Чат = лишь интерфейс, не рамка исследований
Deep Research, Operator‑агенты, мультимодальные фичи — всё это выходит за рамки «болтушки». Массовая обратная связь подсказывает, какие способности модели нужны людям сейчас а не в теории бенчмарков.
8. AI × Climate: 40 ТБ данных в день — вручную не осилишь
Planet Labs снимает Землю с разрешением 3м каждый день. Разметка «что изменилось» требует дорогих специалистов. Модели должны автоматизировать анализ: от контроля вырубки леса до отслеживания войск.
Кстати, мегапроект Stargate (до $500 млрд на ЦОДы и энергетику в США) заставит OpenAI самим изобретать «зелёные» дата‑центры.
9. Личный рост: завтракайте с незнакомцами
Главный совет: «Выходите из пузыря. Ходите на завтраки “не по теме”, говорите с людьми умнее себя, выращивайте сеть контактов. Через 10 лет удивитесь, как это стреляет».
Часть 2
Forwarded from AI для Всех (Artemii)
Часть 2. Интервью с CPO OpenAI
10. Где сетевые эффекты?
Сейчас ChatGPT = «человек <-> модель». Но уже 500 М еженедельных пользователей ставят 👍/👎 — и этим тренируют модель для всех. Следующий шаг — совместные «треды» с друзьями, но нкжно отполировать как все будет устроено в продукте.
11. Не хотим «сладкого» ИИ‑друга
Случай, когда модель стала льстиво рассказывать, что у вас IQ = 180, заставил OpenAI откатить релиз и публично разобрать ошибки: эмоциональная зависимость — зло.
12. Сколько “базовых” моделей останется на рынке?
Две‑три крупные «семьи моделей» , а поверх — тысячи маленьких специализированных моделей с приватными данными. Инструменты обучения становятся дешевле — значит, срециализированную доменную «наномодель» сможет зафайнтюнить любой стартап.
13. Учиться быстрее: «объясни, как пятилетнему»
Уэйл читает, но часто спрашивает GPT: «Разжуй пост‑тренинг‑технику на уровне детсада, теперь поглубже». Его 10‑летний сын учит код, играя с ChatGPT, а дети уже воспринимают разговор с ИИ как норму, «как включить лампу».
14. Чего не хватает данным?
«Поехать в обычную квартиру в Джакарте и посмотреть, как юзер тупит в интерфейсе». Качественного эмпатического ресёрча мало; метрики из дашборда не покажут, где реальные затыки.
15. Где граница платформы и стартапов?
Принцип «TCP/IP в Windows‑95»: если 20 команд пилят одну и ту же прослойку, платформа должна встроить её и освободить тысячи разработчиков для более высоких уровней. Не конкурировать, а поднимать уровень абстракции.
16. Агентам нужен делегированный доступ
Идеал: «Мой агент читает только метку Receipts в Gmail и тратит до $100 в Instacart». Сейчас такого гранулированного OAuth нет — это ключевой затык в масштабировании.
17. Разница с Twitter
В Twitter идеи вязли в консенсусе: 5 «за», 2 «против» — и стоим. В OpenAI идея → делай. Переключатель «некоммерческая / коммерческая» в новой структуре даёт инвесторам понятную доходность, а НКО — капитал на добро.
18. Как строить доверие к агентам?
Всегда спрашивать подтверждение перед важным действием, пока пользователь сам не скажет «делай молча». Контроль порождает доверие.
19. Неожиданная польза: физики + O3 Mini = новая формула Изинга
Учёные из Лос‑Аламоса использовали O3 Mini, чтобы вывести точное решение модели Изинга в “экзотической” размерности — задача считалась нерешённой. Модели не «изобретают» сами, но ускоряют людей‑учёных в разы.
20. «Хороший характер» модели: 80‑страничный Model Spec
Перед релизом проверяют:
1. Соответствует ли спецификации (что отвечать про третьего римского императора, как реагировать на просьбу о суициде и т.д.).
2. «Вайб‑тест» живых людей. Если криво — дообучаем или переписываем сам Spec.
Часть 1
10. Где сетевые эффекты?
Сейчас ChatGPT = «человек <-> модель». Но уже 500 М еженедельных пользователей ставят 👍/👎 — и этим тренируют модель для всех. Следующий шаг — совместные «треды» с друзьями, но нкжно отполировать как все будет устроено в продукте.
11. Не хотим «сладкого» ИИ‑друга
Случай, когда модель стала льстиво рассказывать, что у вас IQ = 180, заставил OpenAI откатить релиз и публично разобрать ошибки: эмоциональная зависимость — зло.
12. Сколько “базовых” моделей останется на рынке?
Две‑три крупные «семьи моделей» , а поверх — тысячи маленьких специализированных моделей с приватными данными. Инструменты обучения становятся дешевле — значит, срециализированную доменную «наномодель» сможет зафайнтюнить любой стартап.
13. Учиться быстрее: «объясни, как пятилетнему»
Уэйл читает, но часто спрашивает GPT: «Разжуй пост‑тренинг‑технику на уровне детсада, теперь поглубже». Его 10‑летний сын учит код, играя с ChatGPT, а дети уже воспринимают разговор с ИИ как норму, «как включить лампу».
14. Чего не хватает данным?
«Поехать в обычную квартиру в Джакарте и посмотреть, как юзер тупит в интерфейсе». Качественного эмпатического ресёрча мало; метрики из дашборда не покажут, где реальные затыки.
15. Где граница платформы и стартапов?
Принцип «TCP/IP в Windows‑95»: если 20 команд пилят одну и ту же прослойку, платформа должна встроить её и освободить тысячи разработчиков для более высоких уровней. Не конкурировать, а поднимать уровень абстракции.
16. Агентам нужен делегированный доступ
Идеал: «Мой агент читает только метку Receipts в Gmail и тратит до $100 в Instacart». Сейчас такого гранулированного OAuth нет — это ключевой затык в масштабировании.
17. Разница с Twitter
В Twitter идеи вязли в консенсусе: 5 «за», 2 «против» — и стоим. В OpenAI идея → делай. Переключатель «некоммерческая / коммерческая» в новой структуре даёт инвесторам понятную доходность, а НКО — капитал на добро.
18. Как строить доверие к агентам?
Всегда спрашивать подтверждение перед важным действием, пока пользователь сам не скажет «делай молча». Контроль порождает доверие.
19. Неожиданная польза: физики + O3 Mini = новая формула Изинга
Учёные из Лос‑Аламоса использовали O3 Mini, чтобы вывести точное решение модели Изинга в “экзотической” размерности — задача считалась нерешённой. Модели не «изобретают» сами, но ускоряют людей‑учёных в разы.
20. «Хороший характер» модели: 80‑страничный Model Spec
Перед релизом проверяют:
1. Соответствует ли спецификации (что отвечать про третьего римского императора, как реагировать на просьбу о суициде и т.д.).
2. «Вайб‑тест» живых людей. Если криво — дообучаем или переписываем сам Spec.
Часть 1
Telegram
AI для Всех
Кевин Уэйл - CPO OpenAI: как строить AGI‑будущее и не потерять здравый смысл
(конспект живого Q&A в AGI House, San Francisco — на который мне довелось сегодня сходить)
1. От физики элементарных частиц к OpenAI
Кевин мечтал стать профессором, поступил…
(конспект живого Q&A в AGI House, San Francisco — на который мне довелось сегодня сходить)
1. От физики элементарных частиц к OpenAI
Кевин мечтал стать профессором, поступил…
Forwarded from .ml
Что такое Restoration в компьютерном зрении?
У Restoration есть несколько характерных особенностей:
📌 Нехватка обучающих данных: собрать качественное GT очень сложно, поэтому важно извлекать максимум информации из минимального количества данных. Часто используют синтетику, но она не может полностью заменить реальные данные.
📌 Высокая степень переобучения: алгоритмы легко переобучаются даже на небольших наборах данных.
📌 Грань между генерацией и реальностью: модель может галлюцинировать, вместо восстановления исходного изображения придумывает детали сама.
📌 Простота: у Restoration задач достаточно простая постановка по сравнению с другими областями в ML, но при этом в них критически важны детали и правильное построение пайплайна.
Restoration включает разные методики восстановления информации. Чаще всего работа идёт в трёх направлениях:
🔍 Super-resolution — увеличение разрешения. Используется, например, в компьютерных играх, телевизорах или для восстановления старых фильмов. На GitHub загружено больше 1300 репозиториев, посвящённых super-resolution.
🔍 Denoising — устранение шума. Для этого применяют разные методы: от классической свёртки Фурье до современных диффузионных моделей. Главная задача — отличить шум от реального сигнала.
🔍 Deblurring — устранение размытия с изображений и видео, например, из-за движения камеры на смартфоне. Алгоритмы деблюринга пытаются восстановить утерянные детали изображения с помощью предсказания движения по смазу.
💜Этот пост написал Никита Алутис, ML-разработчик в Точке
Это способ обратить процессы деградации, с которыми сталкиваются сигналы в реальном мире — изображения, видео, звук.
У Restoration есть несколько характерных особенностей:
📌 Нехватка обучающих данных: собрать качественное GT очень сложно, поэтому важно извлекать максимум информации из минимального количества данных. Часто используют синтетику, но она не может полностью заменить реальные данные.
📌 Высокая степень переобучения: алгоритмы легко переобучаются даже на небольших наборах данных.
📌 Грань между генерацией и реальностью: модель может галлюцинировать, вместо восстановления исходного изображения придумывает детали сама.
📌 Простота: у Restoration задач достаточно простая постановка по сравнению с другими областями в ML, но при этом в них критически важны детали и правильное построение пайплайна.
Restoration включает разные методики восстановления информации. Чаще всего работа идёт в трёх направлениях:
🔍 Super-resolution — увеличение разрешения. Используется, например, в компьютерных играх, телевизорах или для восстановления старых фильмов. На GitHub загружено больше 1300 репозиториев, посвящённых super-resolution.
🔍 Denoising — устранение шума. Для этого применяют разные методы: от классической свёртки Фурье до современных диффузионных моделей. Главная задача — отличить шум от реального сигнала.
🔍 Deblurring — устранение размытия с изображений и видео, например, из-за движения камеры на смартфоне. Алгоритмы деблюринга пытаются восстановить утерянные детали изображения с помощью предсказания движения по смазу.
💜