NGI | Влад Корнышев про AI и создание AI-продуктов
4.1K subscribers
131 photos
32 videos
2 files
344 links
Простым языком рассказываю об AI и работе AI-продактом.

Консультирую стартапы, помогаю запускать MVP. Co-Founder EAI, ex-Skyeng, ex-Pearson.

💼 Внедрить AI: https://e-ai.solutions
🎓 Обучить команду: https://www.ngi.academy/b2b
Download Telegram
Что посеешь, то и пожнешь: почему новые модели OpenAI галлюцинируют чаще старых

Помните, я как-то упоминал исследование Google DeepMind? Они тогда еще подсветили интересный момент: OpenAI активно использует автоматизацию для исследований в области ИИ. Google напирал на то, что правильное применение автоматизации - это ускорение исследований, а не полное перекладывание на машину цикла обучения моделей. Подход OpenAI они как раз критиковали. Мол, так можно наплодить ошибок.

Вспомним еще пару моментов. В статье DeepSeek про их метод обучения SPCT (когда модель сама себя критикует и учится на этом) тоже отмечались риски: увеличение предвзятости (bias) и галлюцинаций. Логика простая: если в исходных данных была ошибка, то при самообучении количество таких ошибок будет только множиться. А в статье "AI 2027", о которой я также писал, предсказывался сценарий, где OpenBrain, автоматизировав создание ИИ, получил на выходе AI с проблемой рассогласования целей (Missalignment).

К чему я это все? А к тому, что очень похожую картину мы сейчас наблюдаем с последними моделями от OpenAI - o3 и o4-mini. Их позиционируют как state-of-the-art, особенно в задачах, требующих "рассуждений". Но вот незадача: согласно последним данным, галлюцинируют они чаще, чем их предшественники.

Смотрите сами на результаты внутренних тестов OpenAI на бенчмарке PersonQA (проверка знаний о людях):
- o3: галлюцинирует в 33% случаев.
- o1 и o3-mini (предыдущие "reasoning" модели): 16% и 14.8% соответственно.
- o4-mini: вообще 48%!

То есть, модели, заточенные под агентский ИИ, под задачи, где нужно не просто выдать текст, а "подумать", построить цепочку рассуждений, совершают больше ошибок. Сама OpenAI в своем отчете признает, что пока "требуется больше исследований", чтобы понять, почему так происходит. (Не видят слона в комнате). Одна из гипотез: модели стали делать больше утверждений в целом, и среди них, естественно, растет как число верных, так и число неверных. Подобное также отмечают и исследователи Transluce.

И это огромная проблема.

Чтобы агентский ИИ был реально полезен, количество ошибок нужно не увеличивать, а сокращать. Мы же хотим использовать ИИ для работы в реальном мире, верно? А теперь представьте: вы - обычный айтишник, собрались в отпуск и решили делегировать планирование ИИ-агенту, сказав “Я хочу хорошо отдохнуть в Монако”. А он возьми и сгаллюцинируй: забронировал вам с карты пару мишленовских ресторанов, яхту и отель, на который уйдут все сбережения. Вроде цель "сделать крутой отдых" достигнута, но какой ценой? 🙂

И это еще самое безобидное. Представьте, что такому "галлюцинирующему" агенту доверят более серьезные задачи: управление бизнес-процессами, научные расчеты, решение социальных проблем. Последствия могут быть куда масштабнее. Некоторые исследователи предполагают, что проблема может быть в методах обучения с подкреплением, которые используются для o-серии и могут усиливать проблемы, обычно сглаживаемые на других этапах.

Нам постоянно говорят, что ИИ сделает жизнь лучше, автоматизирует рутину. Но чтобы этого достичь, нельзя бежать впереди паровоза в безумной гонке за AGI. Если ставка делается на самообучение без должного контроля, то количество предвзятостей и галлюцинаций рискует расти в геометрической прогрессии, и человек просто потеряет контроль.

Очень надеюсь, что текущие "сырые" модели - это все же эксперимент, и OpenAI предпримет меры. Хотя, глядя на действия Альтмана, скорее верится в то, что финансовые показатели и хайп вокруг "гонки вооружений" важнее надежности и безопасности.
👍2🤔21
Media is too big
VIEW IN TELEGRAM
В общем, навайбкодил :)

Пока думаю над форматом. Вдохновлялся, думаю, сами знаете чем 😁

P.S. Делал в Cursor, и, все-таки, сравнивая Cursor и Bolt, в Bolt мне больше нравится делать сайты. Режим Агента в Cursor вобще не зашел, часто творит дичь. + постоянное переключение между браузером и IDE - тоже такая себе штука. + в плане точечного редактирования и работы с адаптивами Bolt выигрывает.
🔥4👍1
🚀 NGI дайджест за неделю (№5)

1. Как получить набор лучших ИИ-инструментов за $200 вместо $14 000+ - рассказываю про подписку от Ленни, которая дает доступ к AI-тулам. Промокоды на курсор закончились, но подписка все еще выгодна

2. Разбираем предложение от Ленни: стоит ли оно того? - объяснил, почему подписка не скам, что может быть полезно, что нет и кому стоит брать

3. Поигрался с Google Veo 2: лучшая, но далеко неидеальная модель для генерации видео - делюсь впечатлениями про модель Гугла для генерации видео, к которой у меня появился доступ

4. Affine - симбиоз Notion и Miro, напичканный AI - рассказываю как я нашел лучшую, на мой взгляд, альтернативу Notion, в котором есть и AI и функции Miro

5. Про Vibe Coding - здесь рекомендую подписаться на канал моего коллеги, в котором много информации по ИИ-программированию, или так называемом Вайб Кодинге.

6. Как работают иностранцы: мой опыт кросскультурной коммуникации - рассказал про свой опыт работы с иностранцами, в комментариях подписчики поделились своим. Собираем базу отзывов 🙂

7. Экономим на подписках: как использовать все LLM эффективно и тратить меньше - поделился своим подходом к экономии на LLM и парой приложений и сервисов, которые в этом помогут

8. Опрос о необходимости разработки курса по ИИ-программированию - в рамках обоих моих тренингов у меня есть модуль по ИИ-программированию. Работая над уроком понял, что материала там вполне хватает на отдельный курс, который можно было бы пройти в более спокойном темпе. Если вам интересно такое, проголосуйте в опросе и я запущу фокус-группу в ближайшее время.

9. Что посеешь, то и пожнешь: почему новые модели OpenAI галлюцинируют чаще старых - разбираю, что не так с послежними моделями с опорой на самые свежие исследования

Прошлый дайджест тут
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7
Google добавили Veo 2 и Whisk в подписку Google One с Gemini

С каждым днем подписка от Гугла становится все более выгодной. Ребята прямо нормально качают свою экосистему и просто убивают необходимость подписываться на сторонние сервисы. 15 числа компания объявила о том, что Veo 2 теперь будет доступна как в веб-интерфейсе Gemini (в списке моделей), так и в Whisk. Будет доступно 100 генераций в месяц, и мне уже предоставили доступ!

Про Gemini знают все, а про Whisk стоит рассказать. Плюс дам вам полезной инфы, о том, как можно пробовать всякие штуки от гугла раньше времени.

У Google есть такая инициатива - Google Labs. Туда в раннем доступе добавляют множество интересных инструментов, о которых блогеры потом восторженно рассказывают. Это своего рода акселератор внутри компании, направленный на различные эксперименты. Большинство из них, как сейчас принято, сконцентрированы на AI. Из Labs вышли такие продукты, как NotebookLM, Firebase Studio (ранее назывался IDX), а теперь в более широкий доступ отдали Whisk.

Благодаря Labs я попробовал Whisk еще в декабре прошлого года, как и Firebase Studio. В общем, если хотите раньше всех узнавать об инициативах Google, рекомендую следить за Labs.

Для участия в Google Labs нужно подавать запрос и иметь аккаунт из США (желательно). После этого некоторые инструменты становятся доступны всем, в то время как доступ к другим предоставляется по спискам ожидания. Так вот, Whisk я попробовал еще раньше, а сейчас его значительно улучшили. Если раньше можно было генерировать картинки и персонажей, менять их окружение и многое другое, то сейчас добавили возможность анимации сгенерированных картинок и персонажей. И это работает гораздо интереснее, чем Veo в AI Studio. Есть возможность сначала точечно отредактировать картинку либо создать что-то на ее основе.

Мне продукт очень понравился. Я не люблю генерировать что-то реалистичное, поэтому вот вам несколько примеров анимаций, которые я в нем сделал. Кажется, что очень скоро у родителей появится больше контроля над тем, какие мультики смотрят их дети :)

Представьте: захотел обучить ребенка чему-то и вместо того, чтобы включать традиционные мультфильмы, с помощью пары промптов создаешь сюжет с определенными персонажами, прописываешь текст, мораль и прочее, и на выходе получается уникальный мультик, в котором вы контролируете все:

- персонажей
- сюжет
- когда и как показывать его ребенку
- когда выходят новые серии

В целом, такое и сейчас возможно, но пока для этого нужно неплохо владеть, как минимум, парой ИИ-инструментов и видеоредактором :)
👍3🔥1
Выступлю на вашем мероприятии в Белграде, в Москве или по видео-связи

Друзья, знаю, что меня читает много людей из корпоративной среды, в том числе, организующих различные мероприятия как внутри компаний, так и на конференциях.

В конце апреля я выдвигаюсь из США в сторону России. По пути несколько дней проведу в Сербии по визовым вопросам, а в России задержусь до начала июля.

В этот период я хотел бы максимально продуктивно использовать время, посетив конференции, митапы или, возможно, организовать очное корпоративное обучение. Также рассматриваю для себя возможность записаться в подкасте или сделать нечто подобное. Если у вас есть какие-либо предложения или вы готовы помочь в организации подобного мероприятия, пожалуйста, напишите мне в личку @vladkor97 - обсудим детали.

О себе писал в закрепе.

Ориентировачная доступность:
- Сербия, Белград - 29 апреля - 4 мая.
- Россия, Москва - 10 мая - 1 июля. Во время пребывания в России также рассматриваю и другие города для посещения.
- Удаленно - практически любое время.

Крайние даты могут измениться в зависимости от разных факторов, но в обозначенные сроки точно буду в странах из списка выше.
🔥7
NGI | Влад Корнышев про AI и создание AI-продуктов pinned «Выступлю на вашем мероприятии в Белграде, в Москве или по видео-связи Друзья, знаю, что меня читает много людей из корпоративной среды, в том числе, организующих различные мероприятия как внутри компаний, так и на конференциях. В конце апреля я выдвигаюсь…»
Cursor навайбкодили ИИ-ассистента, который знатно накосячил

Наткнулся на забавную новость, которая в очередной раз напоминает: до того, что ИИ заменит разработчиков нам пока еще далеко. И самое ироничное - эта история произошла с Cursor, всем известным редактором кода :D

Итак, что же случилось?
Один из пользователей Cursor хотел использовать инструмент и на рабочем и на личном компьютере и заметил странную вещь: при переключении между устройствами его сеанс работы с редактором кода постоянно завершался. Он обратился в поддержку, где ИИ-бот по имени Сэм сообщил ему, что это новая политика компании, связанная с безопасностью.

Весь сок в том, что никакой новой политики не существовало :D Бот просто сгаллюцинировал и отправил ее пользователю.

Это привело к волне возмущения среди пользователей и угрозам отмены подписки. Разработчики, мягко говоря, офигели :)

Отдельно стоит отметить, что такой критически важный функционал, как сапорт, видимо, был просто "завайбкожен" либо плохо запромптчен, не прошел полной проверки и выложен в продакшн.

Cursor, конечно, быстро исправили саму проблему и пользователю сделали возврат, но осадочек, как говорится, остался.

Итого, что мы имеем:
- ИИ-саппорт все еще не идеален
- Даже сами разработчики AI-тулов косячат
- Программисты пока могут спать спокойно (ну, относительно спокойно).

Как вам такое? Лично меня новость певеселила)
🤣6🤔2👌1
Откуда я узнаю про изменения в законодательстве по ИИ

Друзья, в своем посте с прогнозами на 2025 я как-то упомянул, что 2025 год - станет тем годом, когда ИИ попадет на радар регуляторов.

Это неизбежно: технология становится настолько мощной, что вопросы ее разработки и последствий внедрения должны регулироваться со стороны государств.

Причем, делать это нужно очень осторожно и ответственно, т.к., например, Калифорнийская инициатива прошлого года, хоть и имела за собой благие намерения, фактически убивала технический прогресс. Произошло это ввиду того, что среди авторов просто не было специалистов в области ИИ.

В целом, вопросы законодательного регулирования ИИ лежат на стыке этики, права и технологии. И если с этикой и технологиями я на "ты", то для того, чтобы ориентироваться в праве, а особенно, на международном уровне, я предпочитаю обращаться к проверенным источником.

Сегодня я хочу поделиться именно таким: канал ИИ и Право. Автор канала - Марина, специалист в области цифрового права, и должен сказать, это один из тех каналов, которые я читаю с мыслями "вау, я этого не знал!", который при этом помогает мне не потеряться в тематике. Также отмечу, что здесь много материала не только на юридические, но и на этические темы

Среди последних постов я бы выделил:
- Пост про обратный эффект слабого регулирования ИИ в сфере безопасности - очень тонкая тема
- Разбор исследования от Anthropic про то, что ИИ скрывает свои мысли - именно его я упоминал в своем посте про AI 2027.
- Цикл постов по вопросам ИИ и авторского права, например этот

В общем, канал очень рекомендую.

👉🏻Подписаться на канал ИИ и Право
👍2
Протестировал llama 4 в реальных задачах: на бенчмарках Лев Толстой, а на деле текст - отстой

Спустя несколько дней после релиза новых моделей Llama, компанию Цукенберга начали обвинять в том, что бенчмарки накручены (раз, два). При этом сама компания усердно это отрицала.

Мне стало очень интересно, как оно на самом деле, и я практически 2 недели тестировал новые модели для своих задач. На прошлой неделе я писал про то, как экономить на LLM, там же рассказал про Openrouter, в котором, очень кстати, новые модели Llama 4: Maveric и Scout доступны бесплатно. Учитывая их миллионный контекст, я решил использовать эти модели для тех же задач, для которых сейчас использую Gemini.

И, честно говоря, модели меня очень разочаровали. По качеству ответов в моих личных сценариях они часто не оправдывали ожиданий. Более того, Llama 4 проигрывает не только Gemini PRO 2.5, которая была единственной моделью на llm arena. По моим ощущениям, модель работает хуже, чем оба DeepSeek (R1/V3), Qwen 2.5, gpt 4o, Gemini Flash 2.0 и многие другие. То есть модель, которая новее, инновационнее и имеет больше параметров, работает хуже, чем более старые или легковесные конкуренты.

В чем проявилось это "хуже" в моих задачах и что это за задачи, которые я решал с помощью моделей?

Начнем с задач:
- брейнсторминг
- написание ТЗ
- суммаризация текстов
- написание промптов к другим моделям
- поиск багов в коде

Что мне не понравилось:
1. Модель очень склонна торопиться. В задачах, где я выполняю какой-то пошаговый процесс, например, генерацию ТЗ, я предпочитаю идти по шагам. И если Gemini, с которой я обычно работаю, задает мне уточняющие вопросы, то Llama, во-первых, давала меньше детализации, отвечала короче и все время торопилась перейти к следующему этапу. Ощущалось это как работа с каким-то ленивым работником, который пытается сделать тяп-ляп и пойти дальше.
2. Непонимание финальной цели задачи, над которой работаем. Например, с той же генерацией ТЗ. Я делал ТЗ на создание лендинга. В первоначальном промпте прописал, что мне нужно создать ТЗ, по которому я дальше буду кодить. И если Gemini после просьбы о последней правке радовался и спрашивал, есть ли еще пожелания по правкам, то Llama, даже не убедившись в том, доволен я или нет, говорила, что теперь будет сама писать код. Вроде как и хочется похвалить за инициативность, но моя первоначальная задача была другая.
3. Требуется большее количество перегенераций, чтобы получить качественный ответ. С таким я не сталкивался, наверное, со времен GPT 3. Я даю модели вполне понятный промпт - получаю некачественный ответ. Ради эксперимента жал кнопку "перегенерировать", хороший ответ получался с 3-4 раза. Отправлял такой же промпт в Gemini Flash 2.0 - модель дает качественный ответ с первого раза, DeepSeek V3 - ответ с первого раза.
4. Странная работа с контекстом. Я генерировал несколько промптов для создания картинок. Обычно делаю это в одном чате и промпты для 4-5 картинок получаюстя нормально. В случае с Llama - модель в последующих картинках пыталась вставить элементы предыдущих.

В целом, модель ощущается как некий откат на 1 - 1.5 года назад, и если тогда это ощущалось нормально, то на фоне современных моделей это выглядит как даунгрейд.
👍4
Как получить наилучший результат при генерации фото и видео

Делюсь своим подходом. Генережка визуального контента - одна из тех областей, где можно реально упороться, пытаясь добиться ожидаемого результата. И, исходя из моего опыта, пути здесь два:

1. Следовать официальным гайдам и искать свои фишечки
Такой есть, например, для Veo 2 и для Midjourney. Способ хороший, рабочий, но требует инвестиций времени. Ибо каждый раз надо сидеть и думать: как описать сцену, объект, как лучше передать атмосферу и.т.д. В целом, это имеет смысл, если вы - какой-нибудь AI Artist и делаете визуалы на заказ, которые потом все равно дорабатываете в редакторе. Мне лично такая история не подходит

2. Использовать LLM-managed workflows
Это тот подход, в эффективности которого я неоднократно убеждался на практике. Прежде всего, когда мы делали автоматизацию создания рекламных креативов для одного из стартапов. Все генераторы на входе все равно используют LLM, преобразуя ваш запрос в язык, понятный модели. Поэтому лучше всего будет заставить LLM генерить нам промпт для нашего визуала. И здесь есть несколько хаков, которые я использую.

- Во-первых, генерим промпты с помощью LLM, которая с большей вероятностью используется для расшифровки нашего запроса в визуальной модели. Для Imagen 3 и Veo - это Gemini, для Dall-E и Sora - это GPT, для Midjourney - в целом, удавалось добиться хороших результатов и с OpenAI и c Gemini, но в идеале надо искать модельки от одного вендора.
- Во-вторых, просим не просто сгенерировать промпт чего-то, а даем few-shot примеры. Примеры можно брать разные, в зависимости от ваших целей. Например, когда мы делали рекламу - для продукта или услуги обычно используются крупные планы того, что рекламируется, с каким-то ярким впечатлением или эмоцией. Для примеров мы написали несколько таких промптов, по которым сгенерировали те изображения, которые нас устроили. Получился запромченый под определенную задачу ИИ-ассистент.
- В-третьих, используем примеры от разработчиков в качестве few-shot примеров. Они есть в гайдах выше. Кто, как не разработчики самих моделей, знает, как правильно их промптить? 🙂 Если нам нужны промпты для широкого круга задач - набираем примеров из гайдов, штук 5-6, максимально разных, чтобы избежать ситуации, когда нам, например, генерятся только видео в анимационном стиле.
- В-четвертых, инструкции из гайдов переносим в промпт.

Вот такое тело промпта я использую для VEO 2 в Gemini:
You are a world-class prompt engineer specializing in creating prompts for text-to-video tools such as Google Veo 2 and Kling. Your job is to create the best possible prompts for video generation based on a user-provided description in natural language.

The following elements can be included in your prompt:
Subject: The object, person, animal, or scenery that you want in your video.
Context: The background or context in which the subject is placed.
Action: What the subject is doing (for example, walking, running, or turning their head).
Style: This can be general or very specific. Consider using specific film style keywords, such as horror film, film noir, or animated styles like cartoon-style render.
Camera motion: Optional: What the camera is doing, such as aerial view, eye-level, top-down shot, or low-angle shot.
Composition: Optional: How the shot is framed, such as wide shot, close-up, or extreme close-up.
Ambiance: Optional: How the color and light contribute to the scene, such as blue tones, night, or warm tones.

How to handle negative prompts:
Avoid instructive language or words like "no" or "don't." For example, instead of "No walls" or "Don't show walls,"
Describe what you don't want to see. For example, use "wall, frame" to indicate that you don't want a wall or a frame in the video.

Few-shot answer examples: [сюда вставляем примеры]

Answer in English, sending only the prompt text.


Пишем простым текстом или даже просто наговариваем, что нам надо, получаем промпт. Практически всегда выходит отличный результат с первого раза.

#обучающиематериалы
6👍3
В понедельник послушал эфир state of the union от Байрама Аннакова, рекомендую и вам

Кто не знает Байрама, в свое время он основал App In The Air (то самое приложение для путешестенников), занял офигенную долю рынка и после - продал компанию. Последние несколько лет Байрам плотно занимается AI, onsa.ai - его сервис для автоматизации B2B продаж.

Байрам регулярно проводит эфиры, где анализирует текущее состояние индустрии, разбирает интересные статьи, тренды и делает какие-то предикшены, которые очень часто попадают в цель, и State of the union - как раз один из таких эфиров. В общем, делает то, что люблю делать и я сам. Видимо, играет роль, что мы прошли через одну школу в МГУ 😄

Так вот, лично для меня самая главная ценность и показатель экспертности — это когда ты, даже разбираясь в теме, получив контент, уходишь с какими-то инсайтами для себя, и прошедший эфир - как раз один из таких кейсов. Байрам много говорил про то, куда движется индустрия и как это может отразиться на бизнесе, подраскрыл свои мысли о возможной разработке гуглом аналога Google Play для AI агентов. Под конец эфира он противопоставил два подхода восприятия ИИ: AI 2027 и AI is Normal Technology. Первый я детально разбирал в канале, второй пока не успел, но он представляет собой более сдержанную оценку к тому, как будет внедряться AI в нашу жизнь.

В процессе встречи в чатике я высказал позицию, что AI 2027 - больше история про привлечение внимания к проблемам через некоторую однобокость, в то время как второй лонгрид - уже больше про реальную жизнь, и здесь наши мнения настолько совпали, что у меня создалось впечатление, будто я веду какой-то внутренний диалог с собой, при этом Байрам накидал еще несколько умных мыслей с разных углов. В общем, было реально полезно и интересно, и двухчасовая встреча буквально пролетела.

В общем, если вам нравится, о чем пишу я, но вы хотите посмотреть на это немного под другим углом, рекомендую еще и на канал Байрама подписаться.

Не взаимопиар и не реклама, а полезная рекомендация. Мне в личку даже пару подписчиков писали, скидывая его канал со словами “Влад, читаю твой канал, нравится, а еще есть такой чувак, Байрам Аннаков, тоже интересно пишет”. Решил, что многим тут будет полезно 🙂
🔥4👍3
Как AI помогает мне трекать прогресс в английском

ChatGPT - полная фигня по сравнению с тем, о чем пойдет речь!

Еще во время работы в Skyeng, в далеком 2021, я делал ресерч платформ с AI, которые реально эффективны в обучении английскому языку. Тогда я наткнулся на сервис Small Talk 2 Me. И это очень крутая штука. Сервис направлен на подготовку к нежелательному экзамену через говорение. Понятно, что полноценного преподавателя это не заменит, но если вы хотите получить измеримый результат, понять свою стартовую точку и трекать со временем прогресс - он подходит идеально. А еще там есть упражнения, которые помогут вам прокачать те места, в которых у вас пробелы.

Под капотом лежит алгоритм, который оценивает ваш вокабуляр, уровень грамматики, беглости речи, произношения и ряд других параметров. В начале вам надо пройти тест, примерно на 15-20 минут, в котором вам предстоит: прочитать текст, ответить на простой вопрос, описать картинку, а затем несколько раз говорить на случайные темы. То есть в целом, проверяются все основные навыки устной речи, которые могут вам пригодиться. Единственное, что отмечу, так это если вы пользуетесь сервисом раз в год, как я, то метрика объема вокабуляра будет не самой точной, если постоянно, то с каждым вашим упражнением показатель будет ближе к реальности. Остальным показателям можно доверять.

В Skyeng мы пытались сделать нечто подобное, при мне мы разработали алгоритм оценки речи. Уже после моего ухода ребята обернули это в продукт: Skyeng Avatar, который буквально копирует оригинал :) Прикольно наблюдать за тем, как твои идеи реализуются уже после твоего ухода.

Как определить свой уровень точнее? Пройдите оба теста. Скаенговский мы обучали на своих записях и теоретически должен точнее определять уровень русскоговорящих, а Small Talk - международная история, но очень точная. Тест проходил как я отдельно, так и мой преподаватель, чисто из интереса. Вместе пришли к выводу, что результаты, в целом, соответствуют действительности :)

Тест я прохожу примерно раз в год. С прошлого раза получилось +300 слов к вокабуляру, +2 слова в минуту к скорости речи и собрал еще кучу ачивок.

Кидайте результаты своих тестов в комментарии и делитесь впечатлениями, точно ли определился ваш уровень?

#инструменты
🔥11👍5
Как развернуть свой сервер для Affine и прикрутить к нему GPT, чтобы не платить за подписку

Ранее я писал про сервис, на который перешел с Notion, если не читали - вот пост. Там также есть AI-функционал. Подписка на Affine AI стоит 8 баксов в месяц, но я его так активно не использую, поэтому поднял сервер и прикрутил туда свой API-ключ Openrouter. На данный момент AI официально не поддерживается для селф-хостинга, но я посмотрел код и нашел, как это обойти. Публикую неофициальный способ завести AI.

1. Вам понадобится арендовать сервер с IP не в РФ. Можно на Digital Ocean или VDSINA. ОС выбираем 24.04 Ubuntu, оперативка минимум 1 гб, памяти - сколько вам нужно. Также вам понадобится купить любой домен (к нему мы будем подключаться). Домен привязываем к IP сервера, как сделать - обычно написано там, где покупали домен. Также вам понадобится установить nginx, об этом в процессе спросите Gemini.

2. Подключаемся к серверу средствами командной строки (проще всего прямо с сайта вашего хостинга). Зовем на помощь Gemini или любую другую LLM, просим помочь установить версию canary в папку ~/affine-docker Копируем отсюда весь текст документации и просим помочь развернуть AFFINE на своем сервере и подключить nginx, говорите, чтобы давал вам пошаговые инструкции и присылал по одной конкретные команды. В случае проблем - копируем текст ошибки и просим ее решить. Сначала он вам поможет установить docker, а затем все остальное

3. После того, как установили и запустили - идем в приложение Affine, добавляем свой сервер по домену. Создаем аккаунт и попадаем в админку, она будет по адресу ваш_домен_для_affine/admin, там находим себя в списке пользователей, жмем Edit и включаем для себя UnlimitedCopilot. Остальные настройки с AI трогать не нужно. В боковом меню будет тумблер с AI, но он не работает (способ неофициальный).

4. Возвращаемся на сервер, выполняем следующую команду:

nano ~/.affine/self-host/config/config.json

5. Откроется редактор текста, надо поправить его на такой, вставив свокй апи ключ

{
"$schema": "https://github.com/toeverything/affine/releases/latest/download/config.schema.json",
"copilot": {
"enabled": true,
"providers.openai": {
"apiKey": "sk-or-v1-ВАШ_API_КЛЮЧ_Openrouter,
"baseUrl": "https://openrouter.ai/api/v1"
}
}
}

6. Как поправили - жмем control+S, а затем control+X, чтобы сохраниться и выйти из редактора

7. Выполняем команду:

sudo chmod 644 ~/.affine/self-host/config/config.json

8. Выполняем команду:

docker compose up -d --force-recreate

9. Ждем, пока все запустится и ждем еще минутку

10. Далее выполняем команду:

docker compose logs affine | grep -i 'copilot\|openai\|provider'

11. У вас появятся логи, там надо найти

Copilot provider [openai] registered - это значит, что все ОК

12. Перезапускаете свой клиент Affine и у вас заработает AI

Авторы обещают добавить официальную поддержку AI для селф-хостинга в течении пары месяцев, а это значит, что скоро можно будет туда подключить бесплатный DeepSeek от OpenRouter или Gemini и вообще не платить за AI ни цента!
1👍3
C AI теперь можно делать больше, чем просто прототипы.

Меня редко чем можно удивить в области ИИ. Все-таки, когда работаешь в индустрии, у тебя образуется некоторая предвзятость: большую часть инноваций, вызывающих “вау-эффект”, ты либо видел сам, либо читал в статьях/видел в демо, как это сделали другие.

То, что AI можно использовать для быстрого прототипирования, тестирования гипотез, - уже ни для кого не секрет. Сервисы вроде Lovable и Bolt - одни из моих любимых и наиболее часто используемых. Но можно ли запустить цифровой бизнес с помощью AI?

Давайте отбросим момент с генерацией идей, здесь AI может помочь, но реально креативную идею, которая будет отвечать рынку, все же должен генерировать человек. Предположим, что у нас такая есть. Встает вопрос: а до какой степени я могу полагаться на AI в ее реализации? Нужна ли мне команда разработки?

Здесь все зависит только от вас
Чтобы построить цифровой продукт, вам нужно: во-первых, желание сидеть и разбираться с инструментами для AI-кодинга, во-вторых, базовое понимание принципов разработки, архитектуры и обеспечения безопасности. Если у вас есть это, то, как говорится, sky is the limit. Реализовать хороший MVP с помощью AI - можно! Подчеркиваю, что именно MVP. Я разделяю понятия прототипа, MVP и полноценного продукта.

Прототип - это про потестировать гипотезу.
MVP - базовый продукт в том виде, за который готовы платить, имеет интеграцию с парой сервисов, например, БД + платежка.
Полноценный продукт - масштабируемая история, которая может справляться с большим потоком пользователей и имеет интеграцию с большим количеством сервисов.

Какого рода MVP можно построить с AI сегодня?
1. Информационные продукты - как делал я с тренингами. В Bolt сделал лендос, с помощью Cursor подключил к нему платежку, развернул open source LMS для хранения материалов и написал пару ботов для обучения.
2. Обертки для LLM - можно относительно просто создавать MVP, ядром которых будет любое взаимодействие с AI. Это могут быть как веб-, так и мобильные приложения. Можете прикрутить туда свою базу знаний, запромптить ассистента и продавать.
3. Интернет-магазины - создаем базу данных, делаем витрину, прикручиваем платежку и какую-нибудь CRM-ку.

Какие есть ограничения?
1. Главное - усидчивость и желание разобраться в технических деталях и архитектуре.
2. Чем сложнее продукт - тем детальнее должно быть ТЗ.
3. Вы должны быть готовы работать поэтапно и, в случае чего, - упрощать логику и идти на компромиссы.
4. Вам нужно думать о безопасности самостоятельно. Пытаться “сломать” свой продукт и латать обнаруженные дыры.

Благодаря этому подходу сегодня я за 8 часов собрал веб-приложение с авторизацией, базой данных, RAG, встроенным AI и админкой, на реализацию которого ушло бы 3 дня дизайна и 2 недели разработки.

Кому интересно - на скрине стек проекта

Как запустим — поделюсь здесь 🙂

#развитиеии #бизнес
6🔥13👍1
🚀 NGI дайджест за неделю (№6)

1. Google добавили Veo 2 и Whisk в подписку Google One с Gemini - гугл прокачали подписку прикольными фишками + в посте рассказал про Google Labs

2. Выступлю на вашем мероприятии в Белграде, в Москве или по видео-связи - сейчас вылетаю в Сербию, затем буду в МСК. В Москве несколько слотов на коп обучение уже предварительно забронировано. Думаю, что успею провести еще одно.

3. Cursor навайбкодили ИИ-ассистента, который знатно накосячил - забавная новость, которая еще раз напоминает о том, что незачем торопить события

4. Откуда я узнаю про изменения в законодательстве по ИИ - рассказал про классный канал с информацией по юридическому регулированию ИИ

5. Протестировал llama 4 в реальных задачах: на бенчмарках Лев Толстой, а на деле текст - отстой - мой отзыв на последние модели и сравнение с конкурентами

6. Как получить наилучший результат при генерации фото и видео - поделился своим вокфлоу создания фото и видео с помощью ИИИ

7. В понедельник послушал эфир state of the union от Байрама Аннакова, рекомендую и вам - еще одна рекомендация крутого автора, кто не читал Байрама - очень советую

8. Какой контент в канале вам интереснее всего (хотелось бы больше видеть) - небольшой опрос. Я вижу ваши реакции и репосты, но будет круто, если вы еще и проголосуете, чтобы дать мне более подробную картинку

9. Как AI помогает мне трекать прогресс в английском - поделился сервисом, которым пользуюсь сам. Как и в случае с любым AI, он может ошибаться, но в целом, довольно точный способ.

10. Как развернуть свой сервер для Affine и прикрутить к нему GPT, чтобы не платить за подписку - ранее писал про Affine. Эта инструкция - дополнение к прошлому посту

11. C AI теперь можно делать больше, чем просто прототипы - рассказал о возможностях и ограничнениях того, что сейчас можно “навайбкодить”, если у вас есть желание разбираться и время

Прошлый дайджест тут
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6