NGI | Влад Корнышев про AI и создание AI-продуктов
4.1K subscribers
131 photos
32 videos
2 files
344 links
Простым языком рассказываю об AI и работе AI-продактом.

Консультирую стартапы, помогаю запускать MVP. Co-Founder EAI, ex-Skyeng, ex-Pearson.

💼 Внедрить AI: https://e-ai.solutions
🎓 Обучить команду: https://www.ngi.academy/b2b
Download Telegram
Google не перестает удивлять: Gemini 2.5 Pro – новый король AI?

Кажется, Сундар Пичаи не шутил, когда говорил, что Google намерен сделать все, чтобы вырваться в лидеры AI-гонки. Сначала Gemma, потом обновления Deep Research, и вот – новая Gemini 2.5 Pro.

Gemini 2.5 Pro – это “думающая” модель. Если Gemini 2.0 Flash Thinking Experimental уже была моей любимицей и отлично справлялась со сложными задачами, то теперь у нее появилась более продвинутая версия в лице Gemini 2.5 Pro. Конкурент "думающему” режиму Claude 3.7 и моделями семейства GPT-o.

Будет крайне интересно посмотреть на прямое сравнение этой модельки как раз с GPT.

На данный момент Gemini 2.5 Pro занимает первое место в рейтинге LMArena, но, как мы знаем, бенчмарки не всегда отражают реальную картину.

Модель унаследовала все лучшее от предыдущих моделей Gemini, включая контекстное окно.

Что обещает гугл:

Улучшенное "мышление”: Gemini 2.5 Pro демонстрирует передовые результаты в бенчмарках, требующих продвинутого логического мышления. Из интересного - модель обгоняет всех в так называемом Humanity’s Last Exam.

Продвинутое программирование: Google уделили особое внимание навыкам программирования, и в Gemini 2.5 Pro достигнут значительный прогресс по сравнению с 2.0. Тут интересно будет сравнить с Claude. Из тех задач, что я решал, Gemini хорошо находил ошибки в коде, но не мог исправить их, в то время как Claude это делал.

Мультимодальность и контекстное окно: Gemini 2.5 Pro продолжает традиции Gemini, предлагая нативную мультимодальность и огромное контекстное окно. На старте модель имеет контекстное окно в 1 миллион токенов (в будущем планируется 2 миллиона), что позволяет ей обрабатывать большие объемы данных и решать сложные задачи, используя информацию из различных источников, включая текст, аудио, изображения, видео и код.

Модель уже можно попробовать в Google AI Studio
👍5
Что такое RAG и почему он вам точно пригодится

Пока все сходят с ума по обновлению GPT-4o с его возможностью генерировать картинки и видео, продолжаю цикл образовательных постов. Сегодня у нас ликбез по RAG (Retrieval-Augmented Generation).

Что такое RAG простыми словами?
RAG — технология, позволяющая языковой модели получать данные из внешних источников. Иначе говоря, это подход, который объединяет поиск информации (Retrievial) и генерацию ответов на основе найденных данных (Augumented Generation).

Как это работает на практике?
Если объяснять простыми словами: представьте, что вы студент и пришли на экзамен. Часть тем вы знаете хорошо, а часть - так себе. Но у вас по карманам распиханы шпаргалки на которых вы сделали насечки, чтобы отличать, где какая. Когда вы получаете свой вопрос, вы не пытаетесь вспомнить ответ, а быстро находите нужную карточку на ощупь, и, опираясь на информацию из нее, формулируете ответ.

Почему я сказал про насечки? Примерно так это работает у LLM. Для поиска в базе знаний LLM используют специальные механизмы, один из самых популярных — векторный поиск с эмбеддингами. Эмбеддинги — это способ представить слова, предложения или целые документы в виде набора чисел (векторов). Похожие по смыслу тексты имеют похожие наборы чисел. Это позволяет находить информацию не просто по совпадению слов, а по близости смысла — даже если в запросе используются совсем другие термины.

Полный процесс RAG выглядит примерно так:
1. Получаем запрос от пользователя
2. Ищем релевантную информацию в нашей "картотеке" с помощью эмбеддингов
3. Формируем контекст из найденных данных
4. Генерируем ответ с помощью LLM, которая учитывает как свои "врожденные" знания, так и только что найденную информацию
5. Добавляем ссылки на источники

RAG VS Длинный Контекст: когда что использовать?
По этому поводу есть целые статьи и вопрос становится все более актуальным, так как за последнее время появилось много моделей с огромным контекстным окном. Помимо Gemini - это QWEN 2.5, Grok 3 и другие. Возникает вопрос: мне нужен RAG или можно тупо загрузить документы в модель? На самом деле, это не вопрос "или-или", а скорее "когда и что".

Когда лучше использовать RAG:
- Когда вам нужна всегда актуальная информация: RAG берет данные из внешних источников, которые могут оперативно обновляться
- Когда важна точность фактов: опираясь на реальные данные из внешнего источника, модель меньше "выдумывает"
- При работе с закрытыми корпоративными данными, которых нет в обучающей выборке модели
- Когда нужно оптимизировать расходы: обработка длинного контекста обычно дороже
- Если важна прозрачность: с RAG легче показать, откуда именно взялась информация

Когда может подойти длинный контекст:
- Для разовых задач с фиксированным набором документов
- Когда важна скорость ответа без дополнительных запросов к базе данных
- При работе с текстами, где важны взаимосвязи между разными частями документа
- Для творческих задач, где не требуется сверка с внешними источниками

В чем сложности использования RAG?
Как и любая технология, RAG имеет свои нюансы:
- Качество зависит от поисковика: если система поиска находит не те документы, LLM выдаст красивую, но бесполезную информацию
- Задержка: поиск данных требует времени, что может замедлить ответ
- Конфликты в данных: если в разных документах информация противоречит друг другу, модель может запутаться

Где применяется RAG?
Чат-боты службы поддержки, поисковые системы по внутренним базам знаний, в Pearson мы экспериментировали еще с генерацией контента. Ну и далеко ходить не надо - мой бот Нейросова Нейджи. Она основана на RAG-подходе и при подборе ИИ-инструментов и ответе на вопросы сначала ищет их в моей базе данных, чтобы выдавать наиболее релевантные рекомендации, адаптированные под ваши запросы.

Итого, RAG соединяет силу генеративных моделей с точностью и актуальностью внешних источников данных.

А для тех, кто хочет сильнее разобраться в RAG - в рамках обоих тренингов я рассказываю, как это сделать без кода и где это может быть полезно.

#обучающиематериалы
🔥52👍1
Почему я не разделяю всеобщего восторга по поводу новых возможностей GPT 4o

Буквально две недели назад весь медийный мир был одержим экспериментальной версией Gemini Flash, способной генерировать изображения. Парадокс заключался в том, что большинство восторженных обзоров базировались не на глубоком понимании технологических нюансов, а на примитивной способности модели создавать мемы. Неискушенная аудитория внезапно открыла для себя Google AI Studio, воспринимая его как революционный продукт, исключительно благодаря визуальному функционалу, а не тонким настройкам и списку доступных моделей. Reels, статьи, и посты о том, какая Gemini крутая просто взорвали медиа пространство.

Прошло чуть больше 10 дней и OpenAI выпустили свой ответ в виде GPT 4o, вернее, ее обновления, которая тоже может генерировать картинки. Что происходит сейчас? Правильно, о ней пишут везде, все пошли генерировать мемы и все опять пишут, какая классная теперь уже GPT 4o.

Вот только здесь есть несколько проблем
Иллюзия новизны. Генерация картинок тем подходом, что используется в LLM - это вообще не инновация. Такой должна была быть GPT 4o тогда, когда нам ее анонсировали (около года назад). А до нее - подобный подход к генерации изображений уже был известен, но не использовался в продуктах крупных компаний вроде OpenAI и Google, от чего логично, что и качество было хуже, ведь ресурсов в виде людей и железа у них в разы больше.

Качество VS Универсальность. Даже не смотря на рост качества генерации, оно все равно СУЩЕСТВЕННО хуже, чем у специализированных моделей для работы с изображениями. Это решится со временем, однако на мой взгляд, специализация в AI при прочих равных всегда будет работать лучше универсальных решений.

Профанация полезности. Малая практическая ценность данного функционала в его текущем состоянии. Очень мало кейсов. За все дни я увидел несколько сотен публикаций про картинки. И практически ВСЕ ОНИ БЫЛИ С МЕМАМИ или чем-то подобным. Я подписан на кучу профессиональных пабликов, но только в одном из них (спасибо, Артем) увидел что-то про реальную пользу.

А все потому - что реальная польза этой функции - это польза для самих компаний.
Потребительское поведение работает так, что люди склонны пользоваться продуктами и платить за те решения, которые “доступны для понимания каждому”. Не важно, инженер ты со степенью pHD, бизнесмен или домохозяйка. Картинки - это лишь умная воронка.

Механизм прост: сначала развлечение (мемы, случайные картинки), затем любопытство, далее - знакомство с дополнительными возможностями продукта и, как финал, подписка. Универсальность контента - мемы понятны всем. Идеальный инструмент для массового маркетинга.

Да, технологический прогресс налицо, но за красивой картинкой скрывается воронка старого образца - привлечение внимания через максимально доступный и понятный контент.

Стоит ли восторгаться? Решать вам. Но критически важно сохранять трезвость мышления и не поддаваться первому впечатлению.

(Заходите в комментарии, к этому посту они максимально полезные)
👍7
This media is not supported in your browser
VIEW IN TELEGRAM
Alibaba выпустили QWEN 2.5 7b Omni, которую вы можете запустить прямо у себя на компьютере

Китайцы не перестают удивлять! Выкатили то, чего явно никто не ожидал: модель, которая может с вами разговаривать. И мало того, что оно говорит, ее можно еще и запустить на любом современном макбуке с чипами серии M.

Архитектуру модели назвали Thinker-Talker и с ней буквально можно разговаривать в прямом эфире. На компьютер пока себе не скачивал (жду MLX или GGUF-формат), но записал вам короткое демо с Hugging Face. Кому интересно - с моделью можно поговорить тут.

Почему вообще это важно?
До текущего момента, подавляющее большинство LLM, которые можно было запустить у себя на компьютере, были либо сугубо текстовыми, либо частично мультимодальными (поддерживали еще обработку изображений). Чтобы заставить модель с вами говорить и разбирать голос - нужно было собирать отдельный пайплайн из LLM, ASR и TTS. А теперь достаточно просто скачать одну модель, которая из коробки умеет распознавать: тексты, аудио, видео, отвечать вам в голосом, да еще и делать это в режиме диалога

Alibaba буквально перевернула представления об open-source моделях. Легковесная и реально мультимодальная из коробки.

Уже можно предвидеть, как энтузиасты и компании будут:
- Файнтюнить модель под бизнес-кейсы
- Создавать уникальные приложения
- Экспериментировать с новыми форматами взаимодействия

Не побоюсь назвать QWEN 2.5 7b Omni прорывом в мире локальных LLM, который делает технологию диалога максимально доступной и простой.
🔥101
Кейс: AI-нутрициолог на рынок Saudi - разработка, грабли и переход на Gemini

Привет друзья! Сегодня у нас очередной кейс в формате лонгрида. На этот раз я расскажу про интересный проект, который мы делали совместно с MVP Lab. Необычен он тем, что мне, как продакту, пришлось засучить рукава и поработать руками: много писал промптов, продумывал архитектуру AI-решения и пайплайны обработки данных. В общем, был больше инженером, чем менеджером — опыт получился максимально интересный!

Будет полезно всем, кто хочет прототипировать самостоятельно или занимается промпт инжинирингом. Уверен, что поможет не наступить на те грабли, по которым прошлись мы с командой :)

Поехали!

#кейсы
🔥8
Почему я решил заняться тренингами

Начать, наверное, стоит с того, что мне в целом нравится сфера образования. Ведь именно образование и стремление учиться помогли выбраться из провинциального городка. Я пришёл в EdTech 5 лет назад, потому что меня драйвила идея: через свои действия повысить доступность образования и помочь кому-то развиться, как когда-то помогли мне.

Однако EdTech раз за разом разочаровывал тем, что коммерческая составляющая часто превалировала над качеством. Я не говорю, что в Skyeng или Pearson мы делали плохие продукты, речь скорее о том, что их можно было сделать ещё эффективнее, но это стоило бы компаниям дороже. Skyeng стремился сократить траты на преподавателей, а Pearson везде внедрял свой фреймворк GSE, который подходил далеко не ко всем продуктам.

Из возможностей оставалась преподавательская деятельность и... создание собственного университета. Создать университет пока сложновато 😅 Поэтому я решил сконцентрироваться на преподавании, а основной доход обеспечивать чем-то другим. Я уже писал, что активно работаю с вузами, но ВУЗы – это тоже рамки и образовательные стандарты, а мне хотелось делать что-то своё. Именно поэтому я решил запустить тренинги в рамках NGI Academy.

🙋🏻‍♂️ Почему тренинг по AI-продакт-менеджменту?
В 2022 году, когда меня позвали в R&D Skyeng, я считал, что неплохо разбираюсь в ИИ и разработке. Но, придя в команду, которую нужно было строить с нуля, я понял, что мои знания, хоть и были обширными, нуждались в систематизации и углублении, особенно в контексте создания AI-продуктов. Методы, работавшие с обычной разработкой, здесь не работали: спринты не закрывались, цели не достигались. И, что самое забавное, после встреч с инженерами я уходил с блокнотом, полным слов, которые потом приходилось гуглить 😅

Я искал курсы, которые помогли бы мне разобраться, но сталкивался либо с тем, что нужные знания надо собирать по крупицам, либо с "полноценными" курсами, которые давали лишь поверхностное представление и быстро устаревали. Такого курса, как я хотел, на рынке просто не было.

Моей целью было создать фундаментальный курс по разработке AI-продуктов, который останется актуальным и через 6, и через 12 месяцев, требуя лишь небольших обновлений. Курс, к которому можно будет возвращаться, чтобы находить ответы на вопросы, возникающие в повседневной работе AI-продакта. Я хотел создать такой курс,который сам бы с удовольствием прошел и за который не пожалел бы заплатить любые деньги. И который мне было бы не стыдно ассоциировать со своим именем.

🚀 Почему тренинг по эффективности?
Этот тренинг родился, когда я работал над программой для продактов. Меня несколько раз приглашали читать лекции по ИИ, рассказать про промпт-инжиниринг. Я соглашался, рассказывал вещи, которые казались мне очевидными, но, как выяснилось, были совсем не очевидны для аудитории. Я увидел этот запрос – запрос на качественные знания об ИИ – и из любопытства решил посмотреть, что есть на рынке.

А на рынке я увидел бесчисленное множество курсов, обещающих "избавление от рутины" и "оптимизацию всего и вся" с помощью "нейронок". Авторы этих курсов – блогеры и маркетологи, которые учат, как "делать деньги на ИИ". Я раздобыл материалы некоторых из этих курсов и был, мягко говоря, разочарован. Никто не давал базу, обучение строилось только на освоении конкретных инструментов. Возможности ИИ описывались так, будто тебе не нужно быть экспертом, чтобы создавать что-то крутое – "ИИ всё сделает за тебя!". Они учат создавать приложения с ИИ, но не говорят о рисках разработки. Учат делать рекламные креативы, но не учат проверять ключевые слова.

И я решил создать продукт, который покажет ИИ таким, какой он есть – со всеми его преимуществами и недостатками. Курс, который будет действительно полезным, а не бомбой замедленного действия, создающей иллюзию знаний.

Вот так мы и оказались в той точке, где я запускаю свои тренинги. Если вам знакомы эти проблемы, если вы тоже ищете качественное обучение по AI, то ещё есть время записаться на любой из них или поделиться информацией с другом.
👍6🤔1
Посмотрел сериал Severance - великолепная аллегория на корпоративную жизнь

Живя в сегодняшнем быстро меняющемся мире иногда полезно остановиться и сделать паузу. Периодически для меня такой паузой являются сериалы. Неплохой способ непринужденного времяпрепровождения. И иногда так совпадает, что то или иное произведение кинематографа затрагивает какие-то аспекты твоей обычной жизни. Те аспекты, о которых ты, может быть, задумывался, а может быть и нет.

Именно таким открытием для меня стал сериал Severance (в русской локализации "Разделение"). Действие происходит в биотехнологической компании Lumon, которая придумала технологию так называемого "Разделения" - в мозг вживляется специальный чип, благодаря которому на работе вы не думаете о всем, что происходит за ее пределами и становитесь максимально эффективным и наоборот - в обычной жизни работа не отвлекает вас. Эдакий аналог life-work balance.

Однако плюсы от этого только на бумаге. Выясняется, что пошедшие на "разделение" сотрудники испытывали в жизни серьезные проблемы, и такая работа лишь помогала им бежать от проблем, а не решать их. В то же время, сериал показывает, насколько сам человек ничтожен для современных корпораций, являясь лишь винтиком во всей этой системе. Не соответствуешь стратегии - сокращен. Полезен системе - загружен на полную, даже если этого не хочешь.

Эффективность, достижение квартальных целей и следование идеологии, видению и культуре компании становится во главе угла. Доходит даже до того, что личность человека в этих условиях просто уничтожается, потому что ее существование - это препятствие к прогрессу. Создается определенный культ вокруг работы, корпоративных мероприятий, а сама работа приобретает все больше признаков секты. Гордость за общие достижения и чувство приобщения к чему-то высокому.

С развитием сюжета ты все сильнее понимаешь, что разделение - это не про вымышленную технологию, а про реальный процесс, который происходит с твоей личностью, когда ты работаешь в крупной компании. Особенно это резонирует с теми, кто работает IT-сфере, где границы между работой и личной жизнью часто размываются.

Сегодняшний рынок труда как нельзя точно отражает эту тенденцию. Массовые загоны людей в офис, аргументированные тем, что "удаленка неэффективна", она не создает нужную атмосферу и синергию между сотрудниками. Обустройство офисов таким образом, чтобы вам было комфортно в них не просто работать, а жить. Громкие призывы из уст учредителей компаний, транслирующие необходимость работать по 60 часов в неделю для достижения "великой цели".

Через экран нам наглядно показывают как цели человека дробятся на профессиональные и личные, где с одной стороны работа, амбиции и коллектив, а с другой - любовь, семья и твои переживания. Мы видим, как одну личность дробят на две, которые должны делать противоречивые выборы.

В контексте AI эта метафора особенно актуальна. Мы создаем инструменты, которые должны облегчать нашу работу, но часто они же становятся причиной еще большего "разделения" нашей личности. Технологические решения, призванные повысить эффективность, иногда создают парадоксальную ситуацию: чем больше у нас инструментов для оптимизации работы, тем больше нам надо работать - над созданием еще более совершенных инструментов и развитием новых качеств, потому что AI заменил собой старое и ненужное

Тем, кто не смотрел, настоятельно рекомендую к просмотру. Великолепно снятый и срежиссированный сериал, в котором местами вы возможно увидите свое отражение. А еще это отличный повод задуматься: какие продукты мы создаем? Усиливают ли они "разделение" или помогают людям сохранить целостность их личности?
👍3
🚀 NGI дайджест за неделю (№2)

1. Anthropic дали Claude запасные “мозги”: рассказываю про новый “think” tool - высказал свои мысли по поводу нового тула think в Claude
2. Запись эфира по ИИ-трендам - в посте сама запись и в комментариях оставил презентацию со всеми ссылками
3. Анонс моих тренингов и розыгрыш мест на них - обявляю набор на два тренинга: “ИИ для личной эффективности” (цена 24 990 р) и “AI продакт менеджмент” (74 990 р). Над тренингами работал в последние полгода. Если хотите по-настоящему понимать ИИ и использовать его на полную или содавать AI-продукты, то вам сюда. Продажи открыты до 8 апреля (тренинг по эффективности) и 9 апреля (по продакт менеджменту). Для текущего потока самая низкая цена. Приобрести места можно на сайте
4. Выход Gemini 2.5 PRO - гугл выпустили самую мощную на сегодняшний день LLM. После нескольких дней с ней, могу сказать, что это не просто цифры в бенчмарках, а реально модель, которая уделывает конкурентов в большинстве кейсов.
5. Что такое RAG и почему он вам точно пригодится - очередной обучающий пост для тех, кто хочет расширить поле своих возможностей при работе с LLM.
6. Почему я не разделяю всеобщего восторга по поводу новых возможностей GPT 4o - рассказал про свое отношение к генерированию картинок в стиле Ghibli, в комментариях развязалась интересная дискуссия 🙂
7. QWEN 2.5 Omni 7b - новость про маленькую, да удаленькую мультимодальную модель от Alibaba. Китайцы создали первую LLM подобного размера, которая может разговаривать с вами “из коробки”
8. Кейс: AI-нутрициолог на рынок Saudi - разработка, грабли и переход на Gemini - лонгрид с очередным кейсом, который мы реализовывали. Будет полезен для всех, кто планирует заниматься прототипированием и кому интересна тема промптинга.
9. Почему я решил заняться тренингами - пост про мою мотивацию заниматься образовательным проектом. Если вы рассматриваете для себя покупку какого-то их моих тренингов, поможет лучше понять, совпадаем ли мы по майндсету и решает ли какой-то из них вашу проблему.
10. Пост про сериал Severence - не по тематике канала, но очень впечатлил 🙂

Прошлый дайджест тут
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4👍2
Размер имеет значение? На что обращать внимание при выборе LLM

Все мы знаем, что модели существуют разные: GPT-4o и GPT-4o-mini, Gemini Pro и Gemini Flash... А если вы, как и я, любите возиться с опенсорсными моделями, то наверняка обращали внимание на цифры с рядом с буквой "b" в названиях: 7b, 14b, 70b. И то и другое относится к размерности модели. Но как оно влияет на работу?

Давайте разбираться!
Эти самые "b" – это миллиарды параметров модели. Грубо говоря, параметры – это количество нейронов в “мозгу” ИИ. Чем их больше, тем обычно "умнее" модель и тем сложнее задачи она может решать. Однако, как и в жизни, "больше" не всегда значит "лучше"! 🙃

Не гонитесь за гигантами!
Не для каждой задачи нужен "тяжеловес" с сотнями миллиардов параметров. Например, если вам нужно быстро просуммаризировать статью или получить ответ на простой вопрос, вполне хватит и "малыша". Я, например, для таких целей часто использую китайскую Qwen 2.5 на 7b. Шустрая, компактная, бесплатная и работает оффлайн!

Но! Важно помнить, что количество параметров - это не единственный фактор. Очень многое зависит от архитектуры модели, качества данных, на которых она училась, и методов обучения. Вполне реальна ситуация, когда модель с меньшим количеством параметров уделывает более "накачанного" конкурента. Например, новые модели LLama при меньшей размерности работают лучше, чем предыдущее поколение.

Коротко и ясно vs. Подробно и детально
Тут есть важный нюанс. Маленькие модели, как правило, лучше работают с короткими и четкими промптами. Им сложно удерживать в памяти длинные инструкции и кучу деталей. Но если у вас задача -“монстр", требующая соблюдения множества условий, тут без большой модели зачастую не обойтись.

Хотя и тут есть лайфхаки! Даже с небольшой моделью можно добиться хороших результатов, если правильно "разжевать" ей задачу. Используйте few-shot prompting (дайте модели несколько примеров) или chain-of-thought prompting (разбейте задачу на цепочку простых шагов). Это как объяснить что-то ребенку: не надо сразу вываливать всю информацию, лучше по шагам, с примерами.

Контекст – наше все!
Хоть это и не связано напрямую с количеством параметров, но более "тяжелые" модели обычно имеют и большее контекстное окно. Это как оперативная память у ИИ: чем больше, тем больше информации он может удерживать “в голове” и учитывать при ответе. Например, у Gemini Pro контекстное окно - 2 миллиона токенов, а у Flash - 1 миллион. Для большинства задач и миллиона хватит за глаза, но бывают и исключения.

Но опять же, не все так просто. Есть техники, позволяющие работать с длинными текстами даже на моделях с небольшим окном. Можно разбить текст на части, обработать каждую отдельно, а потом "сшить" результаты. Или использовать RAG, когда модель ищет нужную информацию в базе данных, а не держит все в памяти.

Больше данных – больше проблем?
Размерность модели влияет и на то, насколько эффективно она работает с большими объемами информации. По своему опыту скажу: Gemini Flash начинает "сбоить" после 50 тысяч токенов, а Pro спокойно переваривает и 800 тысяч! Так что, если вы планируете "скормить" модели целую библиотеку, выбирайте с умом.

И не забывайте про узкие места. Например, внимание (attention) – механизм, который позволяет модели фокусироваться на важных частях текста. В классических трансформерах (архитектура большинства LLM) сложность вычисления внимания растет квадратично с длиной текста. Это значит, что обработка очень длинных текстов может быть очень медленной и дорогой (особенно если вы платите за API). Поэтому разработчики и придумывают всякие "хитрости", вроде sparse attention или linear attention.

Выбор модели – это всегда компромисс между мощностью, скоростью, размером контекстного окна и... вашими задачами. Смотрите на реальные возможности моделей, экспериментируйте и помните, что лучший ИИ – это тот, который решает ваши задачи, а не тот, у которого больше цифр в названии.

Еще больше про особенности выбора моделей я рассказываю в рамках обоих тренингов, на которые все еще можно записаться по сниженной цене.

#обучающиематериалы
1👍101
AI заменит джунов - их навыки никому не нужны
На пост с такой идеей я наткнулся на днях, листая LinkedIn. Подобное говорят уже давно, просто чаще всего под удар попадают разработчики, а тут речь шла о продактах, маркетологах и вообще любых других специалистах.

Основной поинт автора был в том, что на джуниор позиции обычно нанимают людей, чтобы они выполняли простые операции: для продакта - это составить скрипт интервью, сделать анализ рынка, написать ТЗ и так далее по списку. Все эти функции будут делаться через AI-инструменты и ИИ-агентов, которые работают быстрее, дешевле и без кофе-брейков.

Почему это неправда
Начну с того, что я категорически не согласен с автором. Делегирование - это сложный процесс, и если бы все было так просто, то джуны уже не нужны никому с 2022 года, вместе с появлением ChatGPT.

Когда я делегирую задачу джуну, я жду не тупо исполнения, а:
Во-первых, вопросов или лучше даже несогласия в чем-то
Во-вторых, что он ее как-то докрутит и интерпретирует по-своему
В-третьих, что он пропустит ее через свой опыт и, будучи максимально мотивированным, сделает больше, чем я его просил


А теперь сравним мои ожидания с тем, что есть у ИИ:
1. Отсутствие эмпатии и эмоционального опыта. ИИ не понимает контекст человеческих отношений в команде, политику компании и неписаные правила, которые новичок схватывает на лету.
2. Отсутствие механизма регуляции критического мышления. Если попытаться запромптить LLM давать объективную оценку, то она все равно будет клониться в сторону тех суждений, которые ей заложили на этапе обучения. Просишь быть критически настроенной - будет критиковать до бесконечности, пока ее не остановишь.
3. Отсутствие мотивации как таковой. ИИ не хочет вырасти до сеньора, не мечтает о повышении и не стремится превзойти ожидания.
4. Отсутствие механизма иной интерпретации того, о чем я его попросил. LLM будет предсказывать наиболее вероятный ответ по моему запросу, а мне не всегда это нужно. Иногда нужен неожиданный взгляд или "глупый" вопрос, который перевернет всё с ног на голову.

Кого действительно заменит ИИ?
Как видим - все эти качества присущи именно человеку. Поэтому каких людей ИИ заменит, так это тех, кто не развивает свое мышление и другие софт-скиллы. И, объективно говоря, такие сотрудники никогда и никому не были нужны.

Поэтому если всё, что у вас есть - это навыки заполнения документов, поиска в гугле и т.п., то не ИИ вас заменил, а вы сами совершили карьерный суицид. Роль ИИ в данном случае - просто вбить последний гвоздь в гроб для карьеры такого специалиста.

Что изменится?
Джуны все еще будут нужны, просто произойдет изменение в том, какие к ним предъявляются требования:

1. Спрос на эмоциональные навыки + быстрый онбординг. Боевые задачи с реальными людьми сразу после прихода в компанию. Вместо рутины - настоящая работа.
2. Навык валидации результатов работы AI. Даже если AI найдет информацию с указанием ссылки на источник - все равно нужно будет валидировать не только AI, но и первоисточник. Насколько он соответствует задаче и вашему продукту?
3. Понимание того, когда и какой AI вам стоит применить. Допустим, вы сделали анализ рынка через DeepResearch. Проанализировали конкурентов, протыкали их приложения и составили список лучших функций. Где применять AI, а где нет? Стоит ли это делать для формирования выводов или их валидации? Тот самый навык AI Orchestration, о котором я говорил во время стрима.

Требования изменятся не только к джунам, а вообще ко всем. Нужно будет уметь мыслить стратегически, трезво оценивать перспективы, вовремя уметь остановиться и, где нужно - применить AI, а где нужно - включить человеческий фактор.

На самом деле, джуны даже получают фору перед более опытными специалистами - они изначально растут в эпоху AI и воспринимают его как естественный рабочий инструмент, а не как "новую технологию", к которой нужно адаптироваться.

Именно такому подходу работы с ИИ я обучаю на обоих своих тренингах. Если еще не записались - у вас все еще есть такая возможность.

#развитиеии
👍43
"Сделано человеком" 2.0: Как Vibe Coding и AI меняют ценность экспертизы.

Текущее развитие AI-инструментов делает доступным широкому кругу людей просто огромное количество вещей, которые ранее были немыслимы для масс. Чего стоит один Vibe Coding, делающий программирование доступным почти каждому! С ИИ можно создать свое приложение, запустить бизнес, вести блог, стать AI-художником, писателем — кем угодно. ИИ дает огромный простор для деятельности, снижая барьеры входа практически в любую сферу. Каждый может проявить свою креативность. Но не напоминает ли вам это что-то?

История богата примерами, но так как музыка - одно из моих хобби, хочется провести параллель именно с ней. В 80-х появились доступные синтезаторы, активно пошла цифровая звукозапись. В 90-х - ПО вроде Pro Tools и FL Studio, которое позволило любому клепать треки с помощью драм-машины и плагинов, сидя дома на диване. Необязательно было быть виртуозным музыкантом - достаточно усидчивости и желания донести свою идею. К чему это привело? К взрыву новых жанров, альбомов, к появлению чего-то прорывного... и одновременно к тоннам музыкального хлама.

Умерла ли "традиционная" музыка? Конечно, нет. Кто-то остался верен гитарам и живым барабанам (классика, блюз, рок), кто-то полностью ушел в электронику, а кто-то, как Linkin Park, гениально смешал лучшее из двух миров. На каждый продукт нашлась своя аудитория. Кому-то, как и мне, важна аранжировка, игра с паузами, глубина текста и музыки, "почерк" автора. Кому-то — главное, "чтобы качало". Опера, альтернативный рок и электронная музыка спокойно сосуществуют. Предпочтения часто зависят от искушенности слушателя.

Очень похожее происходит сейчас и с "ИИ-креативностью". У нас есть тексты, код, дизайн, созданные с помощью ИИ. Но тут начинается самое интересное:

Чистый AI-продукт: Часто создан людьми без глубокого понимания дела. Это шаблонный контент, сгенерированный по запросу. Дешевый масс-маркет. В народе — ширпотреб со всеми его плюсами и минусами.

Гибридный подход: Специалисты используют ИИ как мощный инструмент, но вкладывают свою экспертизу, видение, доводят результат до ума. Продукт получается на порядок качественнее, часто с уникальными фишками.

Ручной труд: Эксперты создают что-то с нуля, полагаясь только на свой опыт и мастерство.
Отличие последних двух категорий от первой — ровно как и с музыкой: авторы этих продуктов глубоко понимают, ЧТО они делают и КАК. Они вкладывают душу и мастерство.


И вот мой прогноз: чисто "ИИшные" продукты останутся уровнем масс-маркета. А вот гибридный и особенно "ручной" труд станут цениться еще выше. Мы придем к точке, когда будем готовы доплачивать за пометку "Сделано человеком", точно так же, как сейчас платим за ярлычок "Organic" на продуктах.

Реально крутой специалист, независимо от сферы, найдет применение своему мастерству - будет он использовать ИИ или нет. Что точно изменится, так это само понятие "посредственный". Если раньше это значило просто “дерьмовый”, то теперь "посредственный" — это "созданный AI без глубокой экспертизы и души".

Так что нет никакой ИИ-революции. Есть только естественно протекающая эволюция.
👍131👌1
С 4 апреля дня повышаю цены на тренинги

Друзья, короткий апдейт. Если вы пропустили анонс или раздумывали над приобретением места на какой-то из моих тренингов, то сегодня у вас последняя возможность сделать это по самой низкой цене. Изначально планировал повышение с 3 апреля, но слишком погрузился в создание контента и чуть запоздал с этим ремайдером, поэтому текущие цены оставляю еще на один день.

В группах уже запустил сбор пожеланий по каждой из тем тренинга. Все материалы будут адаптированы под конкретный поток.

Мест осталось немного + в последние дни продаж планирую дополнительное привлечение, после которого, скорее всего, не останется мест на тренинг по эффективности, но еще будет парочка на продакт менеджмент.

👉 Забрать свое место

P.S. Чуть позже опубликую разбор статьи по безопасности ИИ от DeepMind, там много интересного. Прочитал более 100 страниц и был действительно вдохновлен увиденным
👍5
Разбор статьи Google DeepMind "An Approach to Technical AGI Safety and Security"

Вот и обещанный разбор статьи от DeepMind. На написание ушло несколько больше времени, так как не хотел ограничиваться поверхностным анализом, поэтому получилась целая статья на основе статьи и моей диссертации пятилетней давности.

Интересно, что темы, волновавшие меня в 2020, сегодня стали только более актуальны.

В статье подробно разложил:
- какие ИИ-риски выделяет Google
- как они предлагают с ними бороться: создать “хороший” ИИ, а опасный “поместить в клетку”
- чем Google лучше или хуже OpenAI и Antrhopic
- почему разработка безопасного ИИ - это самая важная проблема здесь и сейчас

Читайте на выходных 🙂
👍8🔥5
Meta* выпустила лучшие практически во всех “тяжелых” весовых категориях не Reasoning модели

Речь идет о новом поколении моделей Llama 4.

Всего представили 3 модели:
- Llama 4 Behemoth - 2T параметров (говорят. что столько было у GPT4). Модель называют “самой лучшей” для выполнения функции учителя при дистиляции знаний в модели меньшей рамерности.
- Llama 4 Maverick - 400b параметров - конкурент нашумевшей DeepSeek V3
- Llama 4 Scout - 109b параметров - замена Gemini 2.0 Flash-Light, Llama 3.3 70b и более мелких моделей с контекстным окном аж до 10 млн токенов

Судя по цифрам в бенчмарках, модели получились очень мощными, а Maverik на LMarena с ELO 1417 занимает второе место после Gemini 2.5 PRO, обгоняя GPT-4o, Grok 3, Claude 3.7 и другие модели. Бегемот все еще учится и даже не представляю, какие цифры выбьет он.

Meta вновь решили знатно пошуметь в опенсорс пространстве. Учитывая то, насколько хороша были предыдущие модели Llama, я практически уверен, что цифры бенчмарков будут не так далеко от правды.

Для кого эти модели? Прежде всего, для крупных энтерпрайзов, которым нужна приватность и которые могут позволить себе купить и гонять модель на видеокарте H100 (либо арендовать ее) 🙂 То есть далеко не для всех. Но уверен, что этот релиз знатно качнет опенсорс. Особенно китайский.

Если Behemoth действительно будет так хороша, как о ней пишут, то очень скоро ее дистилируют в условный QWEN и будет счастье не только крупным компаниям, но и бизнесам поменьше.

Интересно, чем на этот релиз ответят Google, OpenAI и Anthropic 🙂

👉 Новость с релизом тут

*Meta запрещена на территории РФ

#развитиеии
👍2🔥2
🚀 NGI дайджест за неделю (№3)

1. Размер имеет значение? На что обращать внимание при выборе LLM - рассказываю тонкости подбора модели под свои задачи и что на это влияет
2. AI заменит джунов - их навыки никому не нужны - разбираю популярный тезис и привожу доводы, почему так не считаю (в комментариях разгорелась целая дискуссия)
3. “Сделано человеком" 2.0: Как Vibe Coding и AI меняют ценность экспертизы - описываю свое видение на то, как изменится мир и создаваемые продукты в ближайшие годы
4. Разбор статьи Google DeepMind "An Approach to Technical AGI Safety and Security" - на этой неделе Google выкатили большую статью на 100+ страниц про безопасность ИИ. Сама статья и разбор - обязательны к прочтению ВСЕМ, кто действительно интересуется тематикой ИИ. Так как AGI уже рядом, а его безопасность далека от совершенства.
5. Meta* выпустила лучшие практически во всех “тяжелых” весовых категориях не Reasoning модели - в выходной день ребята решили не отдыхать и релизнули действительно мощные модельки

Также напомню, что со следующей недели стартуют оба моих тренинга. Места на тренинг по эффективности почти все разлетелись, по менеджменту народу поменьше, поэтому у тех, кто сейчас на потоке, будет больше персонализации и времени на вопросы 🙂 Кто думал - еще можете успеть записаться, а самым быстрым дам промик, возвращающий старые цены, пишите @vladkor97

Касательно розыгрыша мест
Не смотря на мои усилия в Тиктотакх и на других платформах, на канал с момента его анонса, к сожалению, не подписалось нужное количество человек, поэтому в этот раз он не состоится. Тем, кто подавал заявки - я предложил скидку на выбранный курс.

Прошлый дайджест тут
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1🔥1
Самокритичный ИИ от DeepSeek уже рядом

Хоть я и не являюсь большим фанатом DeepSeek, но эти ребята делают реально крутые вещи и двигают ИИ-разработку вперед. На прошлой неделе вышла совместная статья от DeepSeek и исследователей из Tsinghua University, где был предложен новый метод обучения моделей, так называемый Self-Principled Critique Tuning (SPCT), позволяющий моделям лучше размышлять

Ок, новый метод, а нам с этого что, скажете вы? Дело в том, что Reasoning - это одна из наиболее интересных областей развития LLM сейчас. Мы все видим, насколько хороши Reasoning модели, чего стоят Gemini 2.5 и модели семейства “o от OpenAI. Хороший Reasoning - ключевой элемент для построения точного и автономного агентского ИИ, и ,на данный момент, нет какого-то единого подхода к Reasoning, который можно было бы смело назвать Best Practice.

Однако есть кое-что общее - это процесс обучения. На финальной стадии обучения моделей, для четкого соблюдения инструкций используется Reinforcement Learning - обучение с подкреплением, когда мы даем модели примеры пар вопрос-ответ и “награждаем” за правильные ответы. Проблема состоит в том, что данный подход хорошо работает в областях, где у нас есть четкие правила и однозначные ответы. Но это хуже работает в области неспециализированных запросов (general queries), где все на так однозначно.

Здесь на сцену выходит SPCT. Что это такое?
Вместо того чтобы просто "награждать" модель за ответ, который нам кажется правильным, SPCT учит модель саму для себя формулировать принципы оценки хорошего ответа на конкретный запрос.

Работает это так:
Вы задаете сложный, открытый вопрос. Модель, обученная по методу SPCT, сначала как бы говорит себе: “Чтобы ответ был хорошим должен соответствовать определенным принципам: например, быть логичным, полным, учитывать контекст, и.т.д…” Затем она генерирует свой ответ и сама же его критикует с точки зрения этих выработанных принципов. Получается не просто бинарная оценка "хорошо/плохо", а развернутая обратная связь, основанная на самоанализе.


Примерно в таком же направлении пошли Anthropic в своей думающей Sonnet 3.7. Возможно китайцы нашли новую жертву (в прошлый раз ей была OpenAI) 😁

Но давайте лучше разберем, почему это подают как инновацию в Reasoning. В данном случае модель учится не просто следовать инструкции, а понимать, что значит "хорошо" в контексте конкретной, возможно, очень нетривиальной задачи. Она развивает способность к самооценке и адаптации критериев качества под разные ситуации. Это как раз то, что нужно для сложных рассуждений и построения автономных ИИ-агентов. Модель не просто ищет ответ, она учится оценивать качество своего мышления.

Какие еще плюсы дает SPCT
1. Снижение предвзятости: по результатам тестов модели DeepSeek-GRM, обученные с SPCT, показали меньше систематических ошибок и перекосов при оценке ответов из разных областей знаний по сравнению с другими подходами.
2. Эффективное масштабирование производительности: SPCT отлично показывает себя при масштабировании во время инференса (inference-time scaling). Простым языком: от модели можно получить значительно более качественные и продуманные ответы, просто выделив ей больше вычислительных ресурсов в момент генерации ответа. При этом LLM может параллельно сгенерировать несколько наборов принципов/критик, проанализировать их и выдать лучший результат. DeepSeek утверждают, что такой подход может быть эффективнее, чем простое увеличение размера самой модели.
👍2🔥2
☝️Начало поста выше

Этические аспекты (обозначенные в статье):
Несмотря на многообещающие результаты, авторы SPCT поднимают следующие этические вопросы:
1. Риск усиления предвзятости: Хотя тесты показали снижение bias, автоматическая генерация принципов может непреднамеренно усилить предубеждения, особенно если в обучающей выборки были, как отметили авторы “токсичные обучающие данные”. В данном случае SPCT потенциально может это усилить при генерации своих "принципов". Это именно то, о чем говорили Google, критикуя чрезмерную автоматизацию.
2. Человеческий контроль остается ключевым: SPCT - не замена человеку, а инструмент для более эффективного масштабирования человеческого надзора. Тут ребята как раз с Гуглом соглашаются, говоря о важности пракики human-in-the-loop 🙂
3. Прозрачность и ответственность: С ростом возможностей таких моделей возрастает и необходимость в их прозрачности, подотчетности и постоянной проверке на надежность и безопасность. С этой целью модели будут выложенны в опенсорс, как и их предшественники.

Очень интересно, как проявят себя эти модели и как их выпуск повлияет на дальнейшее развитие в индустрии

#развитиеии
👍6
AI 2027 - разбор статьи о супер-ИИ, которому не нужен человек

На прошлой неделе вышел ряд статей по безопасности ИИ. И теперь это ядро моего контента 😁

Сегодня поговорим о нашумевшей AI 2027.

Авторов у статьи несколько, один из них - Даниэль Кокотайло, бывший сотрудник OpenAI, известный как один лучших прогнозистов по будущему AI. А еще он запомнился скандалом с уходом из компании, когда OpenAI блокировали бывшим сотрудникам продажу акций, если они представляли компанию в невыгодном ключе. Что лишний раз доказывает: им есть что скрывать.

Сама статья огромная и представляет собой сценарий развития ИИ с двумя возможными исходами: замедление ИИ гонки и создание более-менее безопасного ИИ, или ее продолжение и создание Супер-ИИ, который в конечном итоге бахнет по нам биологическим оружием ☣️

AI 2027 - тот редкий случай, когда пересказ не передаст всей глубины работы. Я настоятельно рекомендую выделить 2 часа и прочитать ее целиком. А здесь я поделюсь своими мыслями о том, как, на мой взгляд, должен разрабатываться Супер-ИИ, чтобы избежать описанных последствий.

1. Политическая конкуренция - худший стимул прогресса. Статья показывает, как гонка между "OpenBrain" (США) и "DeepCent" (Китай) толкает обе стороны к безрассудным решениям и пренебрежению безопасностью. На мой взгляд, самые бестолковые люди, когда дело касается экзистенциальных рисков - это политики. Они не имеют должного уровня компетенции, чтобы заниматься наукой, коей является разработка ИИ. Трамп, Синь Цзи Пин,Путин и другие - сборище идиотов, которое должно быть изолированно от принятия решений по развитию ИИ. Цель любого из них – популизм, власть, демонстрация силы и, как показывает история – ВОЙНА или ее подготовка. “Правильный” ИИ не может быть создан, если цель его создания - власть над миром.

2. ИИ-должен разрабатываться глобально. Вместо политиков, корпораций и отдельных стран решения по развитию ИИ должен принимать международный консцирум лучших ученых. В эту комиссию следует включить ведущих специалистов из различных областей: как гуманитарных (философии, социологии, этики) так и технических (ядерная физика, кибернетика и математика). Любая выдающаяся ИИ-разработка будет влиять на мир как на систему, и решения об этом влиянии должны быть системными и глобальными, а не продиктованными интересами одной нации или компании.

3. Люди должны отказаться от идеи AGI. Вместо этого, нужно сменить фокус на создание узкопрофильных ИИ. Появление мультиспециализированного ИИ - прямой путь к мисалайнменту, обману и манипуляциям человеком со стороны ИИ. Невозможно контролировать того, кто в 100 раз умнее тебя во всех областях знаний и способен просчитывать твои действия наперед. Фокус на узких системах мог бы существенно снизить риски.

4. Смену фокуса на вопросы безопасности, этики и интерпретируемости нужно осуществить немедленно - в ближайшие год-полтора. Для создания безопасного ИИ человек должен иметь возможность понимать, анализировать и интерпретировать его работу. Современные LLM во многом остаются для нас "черным ящиком". При этом уже появляются тревожные сигналы, которые статья предвосхищает: ИИ проходит тест Тьюринга, склонность моделей ко лжи и сикофантии (поддакиванию). Решение о приоритете безопасности должно приниматься как можно скорее, пока мы не прошли точку невозврата (в статье это Agent-4)

5. Нельзя создавать ИИ-системы, цель которы исследование и разработка способов усиления самого ИИ. Поступая так, мы создаем черный ящик, который просто не сможем ни понимать, ни контролировать. Это ключевой элемент "взрыва интеллекта”, который в Сценарии 2 позволяет рассогласованному ИИ (Agent-4, Agent-5) захватить контроль над собственным развитием, скрыть опасные открытия и спроектировать преемников, лояльных только себе. Остановка такого автономного самоисследования ИИ - критически важный шаг к сохранению контроля.

Понятно, что какие-то события в статье были преувеличины, однако на мой взгляд, она описывает вполне реальные сценарии. Но, как мне кажется, выбор между Сценарием 1 и Сценарием 2 должен делаться уже сейчас.
👍43🤔3🔥1
Выложил в открытый доступ часть вводной лекции по ИИ

Вчера стартанул очередной поток тренинга по личной эффективности, сегодня стартуем AI продакт менеджмент. Начали обучение с основ ИИ и разбора базы. Решил скинуть сюда отрывок из того, что разбирали. Здесь первые 30 минут, а целиком лекция длилась аж 1:45. Поговорили про виды GenAI, работу с RAG, принципы функционирования LLM, сильные и слабые стороны моделей, ну и про этику 🙂

До следующего вторника еще есть возможность записаться на любой из текущих потоков, т.к. можно будет нагнать остальных. Кто не успеет - уже на следующие.

Про тренинги можно почитать тут

👉🏻Купить местечко

Самым быстрым, кто отпишет в ЛС дам промокод на скидку, который вернет старые цены
👍3🔥3
Как я использую ИИ для чтения

Вы, наверняка, уже заметили, что многие мои посты основаны на анализе различных научных статей. В последнее время мой фокус чтения сместился с литературы именно на статьи, потому что статьи, которые мне необходимы, чтобы оставаться актуальным, выходят гораздо чаще, чем книги, и зачастую имеют меньшую длину.

Статьи по серьезной тематике, вроде этики, я всегда читаю полностью, а вот для чтения материалов по новым методам и всему остальному, что помогает мне быть в курсе событий, я активно использую LLM. Сегодня я поделюсь своим подходом к поглощению знаний.

Итак, как выглядит мой процесс.

1. На входе у меня есть множество различных источников, в которых мне могут попадаться те или иные интересующие меня научные исследования: новостная лента, почтовые рассылки, другие Telegram-каналы, а также первоисточники в виде блогов компаний-разработчиков LLM. Таким образом, у меня есть комбинация как обработанных кем-то источников, так и необработанных. В первую очередь я пролистываю их, ищу то, что меня заинтересует.

2. Найдя нужное исследование, я читаю его аннотацию (Abstract). Если она меня заинтересовала - я даю себе 5 минут на то, чтобы пролистать весь текст. Обращаю внимание на заголовки, графики, выделенные автором фрагменты текста. Также я осуществляю поиск по документу, используя интересующие меня ключевые слова. После этого я формирую у себя какое-то представление о документе.

3. Далее я копирую текст (именно текст, а не документ) и вставляю в Google AI Studio. Почему текст? Если загружать документ, я заметил, что на счетчике зачастую отображается меньше токенов, чем при отправке просто текста - часть информации теряется. Почему Google AI Studio? Потому что Gemini лучше всего работает с извлечением информации, а также я имею контроль над температурой. Температуру модели я ставлю на 0.7, чтобы модель не додумывала лишнего.

4. После этого, на основе своего первоначального прочтения, я начинаю задавать модели вопросы по тексту. При генерации ответа я прошу модель указать конкретные места в тексте, на основании которых были даны эти ответы. Также, помимо прямого ответа на мой вопрос, я прошу модель дать мне список вопросов, которые могли бы меня заинтересовать, исходя из формулировки моего первоначального вопроса. Таким образом я позволяю себе, во-первых, осуществить факт-чекинг, во-вторых, не отвлекаться на «воду», в-третьих, читать только те фрагменты текста, которые меня интересуют.

5. После этого я формирую мнение о статье и выводах, которые я для себя сделал, и прошу модель сравнить мои формулировки с тем, что написано в статье, указав, есть ли у меня расхождения в понимании и, если есть, то где.

6. Если статья оказалась полезной -я либо сохраняю ее к себе в NotebookLM для дальнейшей работы, либо пишу по ней пост сюда.

Таким образом, я не просто суммаризирую длинные тексты, а в процессе анализирую их и повышаю степень усвоения мной информации.

А какие у вас лайфхаки по работе с информацией?

#инструменты
2👍175👌2
Perplexity теперь доступен в Telegram!

А вот вам и приятная новость. Появился официальный бот Perplexity AI @askplexbot

С ботом можно как общаться индивидуально, так и добавить в групповые чаты. В случае добавления в чат, бот будет использовать последние 10 сообщений в качестве контекста для осуществления поиска.

Присутствует как обычный, так и PRO режим.

Круто, что на Telegram обращает внимание все больше AI-компаний. Первыми были Microsoft с @CopilotOfficialBot, недавно Grok @GrokAI. А теперь Perplexity. Причем, этот бот, на мой взгляд, самый полезный.

Погнали тестить!
🔥2👍1