Media is too big
VIEW IN TELEGRAM
Небольшой эксперимент в AI Studio: попросил Google Gemini 2.5 сгенерировать игру «Жизнь» Конвея. Промпт максимально базовый:
Create a life game by Conway that will have regular default parameters, but that can be modified in fields. Like as a Senior Web Developer. Do in one file index.html. Use JS.
Без особой структуры, без нормального промпт-инжиниринга. Тем не менее — на выходе полноценный index.html с рабочей визуализацией и настраиваемыми параметрами.
Такую задачу обычно дают студентам 2–3 курса. Сейчас её можно закрыть одной фразой и сгенерировать за десятки секунд.
Понятно, что в таком виде это просто забава. Ни о каком серьёзном использовании или коде для прода речи не идёт. Но как пример того, как можно быстро пофаниться с идеей — вполне.
Create a life game by Conway that will have regular default parameters, but that can be modified in fields. Like as a Senior Web Developer. Do in one file index.html. Use JS.
Без особой структуры, без нормального промпт-инжиниринга. Тем не менее — на выходе полноценный index.html с рабочей визуализацией и настраиваемыми параметрами.
Такую задачу обычно дают студентам 2–3 курса. Сейчас её можно закрыть одной фразой и сгенерировать за десятки секунд.
Понятно, что в таком виде это просто забава. Ни о каком серьёзном использовании или коде для прода речи не идёт. Но как пример того, как можно быстро пофаниться с идеей — вполне.
👍3👀2👎1
Замечаю один повторяющийся паттерн: у людей сильно завышены ожидания от того, как нейронка «понимает» человека.
Многие продолжают думать, что достаточно набросать пару слов — и нейросеть должна выдать что-то широкое, продуманное, глубокое. Как будто она «догадается». Как будто она обязана интерпретировать нас лучше, чем мы сами себя выражаем.
Это не работает. И никогда не работало — ни с людьми, ни с машинами. Просто с людьми мы привыкли к длинному циклу недопонимания: в общении с коллегой, с руководителем, с партнёром. Мы на это тратим недели. А с нейронкой — разочарование приходит быстрее, потому что отклик мгновенный.
И вот что я понял: пока у нас нет прямых интерфейсов, чтобы загрузить мысль или интенцию «как есть», мы остаёмся с единственным реальным способом — учиться коммуницировать. Учиться передавать контекст, свою роль, свои ожидания. Прямо и развёрнуто. Учиться не надеяться на магию «одного промпта».
Да, это требует усилий. Но это и есть новая грамотность — уметь думать вместе с моделью, не загадывая, а объясняя.
Многие продолжают думать, что достаточно набросать пару слов — и нейросеть должна выдать что-то широкое, продуманное, глубокое. Как будто она «догадается». Как будто она обязана интерпретировать нас лучше, чем мы сами себя выражаем.
Это не работает. И никогда не работало — ни с людьми, ни с машинами. Просто с людьми мы привыкли к длинному циклу недопонимания: в общении с коллегой, с руководителем, с партнёром. Мы на это тратим недели. А с нейронкой — разочарование приходит быстрее, потому что отклик мгновенный.
И вот что я понял: пока у нас нет прямых интерфейсов, чтобы загрузить мысль или интенцию «как есть», мы остаёмся с единственным реальным способом — учиться коммуницировать. Учиться передавать контекст, свою роль, свои ожидания. Прямо и развёрнуто. Учиться не надеяться на магию «одного промпта».
Да, это требует усилий. Но это и есть новая грамотность — уметь думать вместе с моделью, не загадывая, а объясняя.
💯6👍2🔥1
Как меняется тон у Y Combinator — короткая заметка после свежего Requests for Startups (Summer 2025).
1. «Год AI-агентов» — чёрным по белому
YC открывает список со строкой: 2025 is indeed shaping up to be the "year of AI agents".
Дальше все 14 пунктов — вариации на тему:
- Full-stack AI-компании: не «продаём тул юристам», а сами становимся AI-юрфирмой и конкурируем с классическими лавками.
- Voice AI, персональные ассистенты, внутренние agent-builder’ы — инфраструктура, чтобы каждый сотрудник собирал себе ботов.
- AI-слои для науки, образования, финтеха, домашней безопасности — от подбора молекул до камер у входной двери.
2. Что исчезло из повестки
В предыдущих RFS ещё мелькали «новые SaaS-ERP», «вернуть производство в США», «open-source-платформы» — классический web-2 микс. Сейчас web-2 слова почти не встречаются: YC явно считает, что это инфраструктура, а не пространство прорыва.
3. Новый базовый договор
1. AI ≠ отдельная категория. Скорее «обязательный слой», без которого тезис не выглядит амбициозным.
2. От «tool-for-X» к «AI-замене X». Фонд подталкивает идти глубже в вертикаль, а не продавать лицензии старикам-динозаврам.
3. UX и бизнес-модели Web 2.0 всё ещё нужны. Но если они не работают в симбиозе с интеллектом модели, то это просто «ещё один сервис».
4. Практический вывод для нас с вами
Если идея звучит как «делаем платформу, куда люди приходят и что-то кликают», YC-линза в 2025-м спросит: какое место тут занимает агент?
Под «агентом» понимается не чат-обёртка, а рабочая единица, которая реально закрывает задачу до конца. В этом — вся разница между web-2 риторикой и новым total-AI-нарративом.
Лакмусовая бумажка: можете ли описать свой продукт фразой «мы сами та самая AI-компания в сфере X», а не «мы продаём AI-тул компаниям X»? Если да — вы в тренде YC-2025. Если нет — придётся добавить интеллект в саму сердцевину ценности.
Link: https://www.ycombinator.com/rfs
1. «Год AI-агентов» — чёрным по белому
YC открывает список со строкой: 2025 is indeed shaping up to be the "year of AI agents".
Дальше все 14 пунктов — вариации на тему:
- Full-stack AI-компании: не «продаём тул юристам», а сами становимся AI-юрфирмой и конкурируем с классическими лавками.
- Voice AI, персональные ассистенты, внутренние agent-builder’ы — инфраструктура, чтобы каждый сотрудник собирал себе ботов.
- AI-слои для науки, образования, финтеха, домашней безопасности — от подбора молекул до камер у входной двери.
2. Что исчезло из повестки
В предыдущих RFS ещё мелькали «новые SaaS-ERP», «вернуть производство в США», «open-source-платформы» — классический web-2 микс. Сейчас web-2 слова почти не встречаются: YC явно считает, что это инфраструктура, а не пространство прорыва.
3. Новый базовый договор
1. AI ≠ отдельная категория. Скорее «обязательный слой», без которого тезис не выглядит амбициозным.
2. От «tool-for-X» к «AI-замене X». Фонд подталкивает идти глубже в вертикаль, а не продавать лицензии старикам-динозаврам.
3. UX и бизнес-модели Web 2.0 всё ещё нужны. Но если они не работают в симбиозе с интеллектом модели, то это просто «ещё один сервис».
4. Практический вывод для нас с вами
Если идея звучит как «делаем платформу, куда люди приходят и что-то кликают», YC-линза в 2025-м спросит: какое место тут занимает агент?
Под «агентом» понимается не чат-обёртка, а рабочая единица, которая реально закрывает задачу до конца. В этом — вся разница между web-2 риторикой и новым total-AI-нарративом.
Лакмусовая бумажка: можете ли описать свой продукт фразой «мы сами та самая AI-компания в сфере X», а не «мы продаём AI-тул компаниям X»? Если да — вы в тренде YC-2025. Если нет — придётся добавить интеллект в саму сердцевину ценности.
Link: https://www.ycombinator.com/rfs
👍2👀2❤1🔥1
🛠️ 48-часовой спринт с n8n
Проверил, насколько далеко можно уехать в агентах с «no-code». За два дня в n8n собрал телеграм-бота-ассистента: у него есть память (RAG + simple memory), он читает и отправляет почту, складывает задачи в трекер, пишет заметки в Notion и управляется с календарём. Примерно 60 % повседневных тайм-менеджмент-дел закрываются автоматически уже сейчас.
Впечатления смешанные. Визуально видеть весь поток удобно, готовые интеграции экономят часы, для прототипов это почти идеальный инструмент. Но по мере роста сценария начинает чувствоваться жёсткая архитектура: хардкод, регулярки, узлы, которые ломают цепочку на ровном месте. В итоге 90 % процесса собираешь за минуты, оставшиеся 10 % дебажишь непропорционально долго. И если нужна гибкость, писать код напрямую оказывается проще, чем «двигать блоки».
При этом для команд и небольших бизнесов n8n выглядит отличным способом быстро получить ощутимый профит от LLM: поднять простого ассистента, снять рутину и оптимизировать человеческие процессы без больших вложений в разработку.
Так что n8n — отличная песочница для быстрых экспериментов и простых агентских флоу. А вот на серьёзные задачи лучше сразу переходить к LangGraph в связке с Cursor: гибкости в таком подходе куда больше, а кодить с вайб-подходами стало разительно удобнее.
Проверил, насколько далеко можно уехать в агентах с «no-code». За два дня в n8n собрал телеграм-бота-ассистента: у него есть память (RAG + simple memory), он читает и отправляет почту, складывает задачи в трекер, пишет заметки в Notion и управляется с календарём. Примерно 60 % повседневных тайм-менеджмент-дел закрываются автоматически уже сейчас.
Впечатления смешанные. Визуально видеть весь поток удобно, готовые интеграции экономят часы, для прототипов это почти идеальный инструмент. Но по мере роста сценария начинает чувствоваться жёсткая архитектура: хардкод, регулярки, узлы, которые ломают цепочку на ровном месте. В итоге 90 % процесса собираешь за минуты, оставшиеся 10 % дебажишь непропорционально долго. И если нужна гибкость, писать код напрямую оказывается проще, чем «двигать блоки».
При этом для команд и небольших бизнесов n8n выглядит отличным способом быстро получить ощутимый профит от LLM: поднять простого ассистента, снять рутину и оптимизировать человеческие процессы без больших вложений в разработку.
Так что n8n — отличная песочница для быстрых экспериментов и простых агентских флоу. А вот на серьёзные задачи лучше сразу переходить к LangGraph в связке с Cursor: гибкости в таком подходе куда больше, а кодить с вайб-подходами стало разительно удобнее.
👍3❤1🔥1
🦙 Открывать «внутрянку» стало модно — и это переворачивает рынок
Когда Meta на днях выложила Llama 3 целиком, главная новость даже не в самой модели: мы наблюдаем, как «открытые веса» перестают быть редким жестом энтузиастов. Китайский DeepSeek уже прокладывал эту тропу — тихо выпустил 236-миллиардную модель и кодовую версию с MIT-лицензией. Теперь к открытому столу присела и крупная западная корпорация. Две параллельные дороги сходятся в одну трассу.
Тренды меняются. Раньше доступ к передовому ИИ определялся тем, сколько у тебя денег на API-токены. Теперь ядро интеллекта становится общим ресурсом, как когда-то UNIX-подобные системы для серверов или HTML для веба. Это — перенос силы от нескольких «облаков» к миллионам разработчиков и небольших команд, которые могут запускать, дообучать и комбинировать модели под свои местные задачи.
Когда внутрянка лежит в свободном доступе, выигрывает не только стартап: выигрывает врач, которому нужен локальный ассистент без утечки данных; учитель, настраивающий тьютор под свой курс; город, строящий голосовую службу на муниципальных серверах. Открытый ИИ — это не столько «дёшево», сколько «гибко и подконтрольно».
Чем больше Llama- и DeepSeek-подобных релизов, тем меньше аргументов оставлять ИИ под замком. А значит, настоящая конкуренция будет уже не за доступ к модели, а за качество идей и сервисов, которые мы поверх неё построим. И здесь выигрывает тот, кто умеет видеть технологию не фетишем, а сырьём для новых форм человеческого творчества.
Правда это создает все больше вопросов про безопасность происходящего. Но стоит ли ставить страх заграждениями на пути прогресса? Время покажет.
Когда Meta на днях выложила Llama 3 целиком, главная новость даже не в самой модели: мы наблюдаем, как «открытые веса» перестают быть редким жестом энтузиастов. Китайский DeepSeek уже прокладывал эту тропу — тихо выпустил 236-миллиардную модель и кодовую версию с MIT-лицензией. Теперь к открытому столу присела и крупная западная корпорация. Две параллельные дороги сходятся в одну трассу.
Тренды меняются. Раньше доступ к передовому ИИ определялся тем, сколько у тебя денег на API-токены. Теперь ядро интеллекта становится общим ресурсом, как когда-то UNIX-подобные системы для серверов или HTML для веба. Это — перенос силы от нескольких «облаков» к миллионам разработчиков и небольших команд, которые могут запускать, дообучать и комбинировать модели под свои местные задачи.
Когда внутрянка лежит в свободном доступе, выигрывает не только стартап: выигрывает врач, которому нужен локальный ассистент без утечки данных; учитель, настраивающий тьютор под свой курс; город, строящий голосовую службу на муниципальных серверах. Открытый ИИ — это не столько «дёшево», сколько «гибко и подконтрольно».
Чем больше Llama- и DeepSeek-подобных релизов, тем меньше аргументов оставлять ИИ под замком. А значит, настоящая конкуренция будет уже не за доступ к модели, а за качество идей и сервисов, которые мы поверх неё построим. И здесь выигрывает тот, кто умеет видеть технологию не фетишем, а сырьём для новых форм человеческого творчества.
Правда это создает все больше вопросов про безопасность происходящего. Но стоит ли ставить страх заграждениями на пути прогресса? Время покажет.
❤3👀1
💳 Visa объявила, что откроет своим партнёрским AI-ассистентам (ChatGPT, Claude и др.) прямой доступ к платёжной сети: пользователь задаёт лимит и правила, а бот сам оплачивает билеты, продлевает подписки или заказывает подарок. Фрод-фильтры и токенизация уже встроены, поэтому Visa просто добавляет AI-SDK к существующим «рельсам» — логичное продолжение one-tap-модели в мобильном банкинге.
В web3 давно мечтают о децентрализованных кошельках для агентов, но как обычно прыжок в массмаркет упирается в UX и регуляции. По сути все что есть сейчас в этом, просто игрушки для дегенов. Классическим платёжным системам проще: они работают на инфраструктуре, где уже крутятся триллионы и где банкам понятны риски. Вероятность, что массовые AI-платежи появятся через гигантов вроде Visa и Stripe, намного выше, чем через on-chain-эксперименты.
Мы приближаемся к AI-first финансовой рутине: ассистент сравнит варианты, оформит заказ и пришлёт лаконичное «Подтвердите платеж?»
В web3 давно мечтают о децентрализованных кошельках для агентов, но как обычно прыжок в массмаркет упирается в UX и регуляции. По сути все что есть сейчас в этом, просто игрушки для дегенов. Классическим платёжным системам проще: они работают на инфраструктуре, где уже крутятся триллионы и где банкам понятны риски. Вероятность, что массовые AI-платежи появятся через гигантов вроде Visa и Stripe, намного выше, чем через on-chain-эксперименты.
Мы приближаемся к AI-first финансовой рутине: ассистент сравнит варианты, оформит заказ и пришлёт лаконичное «Подтвердите платеж?»
❤3👍3
🤖🧠 Как ИИ запоминает информацию
Представьте: вы рассказываете чат-боту, что предпочитаете капучино без сахара и по выходным катаетесь на велосипеде. Закрыли вкладку — и всё исчезло. Чтобы бот не спрашивал одно и то же каждый раз, ему нужна «долгая память». Существует несколько основных подходов.
1. Персистентная память (memory bank)
Ключевые факты кладут в отдельную базу — любимый напиток, город, текущие проекты. Перед ответом ИИ подмешивает нужные сведения в промпт и звучит так, будто давно вас знает. Пользователю меньше повторов, продукту — глубже персонализация.
2. RAG (retrieval-augmented generation)
Модель ничего не хранит «внутри», а на лету обращается к внутренней вики, PDF-архиву или базе FAQ. Добавили новый прайс — бот уже в теме. Весы переучивать не нужно, достаточно обновить источник данных.
3. Дополнительные методы
• Файн-тюнинг. Вшиваем информацию прямо в модель. Надёжно, но дорого и не меняется за минуту.
• Временный кэш. Запоминает детали сессии на несколько часов или дней — подходит для краткосрочных задач.
• Agent loops. Цепочка запросов, где каждый шаг сохраняет выводы в базу, а следующий их читает.
Зачем это пользователю и бизнесу? Чат перестаёт спрашивать одни и те же данные и выдаёт более точные рекомендации. Компания экономит время: «однажды объяснили — ИИ работает сам». При этом возрастает ответственность за хранение данных и необходимость кнопки «удалить всё». В результате мы получаем помощника, который действительно помнит контекст и отвечает релевантно.
Представьте: вы рассказываете чат-боту, что предпочитаете капучино без сахара и по выходным катаетесь на велосипеде. Закрыли вкладку — и всё исчезло. Чтобы бот не спрашивал одно и то же каждый раз, ему нужна «долгая память». Существует несколько основных подходов.
1. Персистентная память (memory bank)
Ключевые факты кладут в отдельную базу — любимый напиток, город, текущие проекты. Перед ответом ИИ подмешивает нужные сведения в промпт и звучит так, будто давно вас знает. Пользователю меньше повторов, продукту — глубже персонализация.
2. RAG (retrieval-augmented generation)
Модель ничего не хранит «внутри», а на лету обращается к внутренней вики, PDF-архиву или базе FAQ. Добавили новый прайс — бот уже в теме. Весы переучивать не нужно, достаточно обновить источник данных.
3. Дополнительные методы
• Файн-тюнинг. Вшиваем информацию прямо в модель. Надёжно, но дорого и не меняется за минуту.
• Временный кэш. Запоминает детали сессии на несколько часов или дней — подходит для краткосрочных задач.
• Agent loops. Цепочка запросов, где каждый шаг сохраняет выводы в базу, а следующий их читает.
Зачем это пользователю и бизнесу? Чат перестаёт спрашивать одни и те же данные и выдаёт более точные рекомендации. Компания экономит время: «однажды объяснили — ИИ работает сам». При этом возрастает ответственность за хранение данных и необходимость кнопки «удалить всё». В результате мы получаем помощника, который действительно помнит контекст и отвечает релевантно.
👍6❤2👀2🔥1
🧊 ИИ без данных? Встречайте «Absolute Zero» — самоучку среди моделей
Обычно ИИ учат на больших объёмах человеческих данных: сотни тысяч строк кода, задач, объяснений. Но команда исследователей пошла другим путём — они создали модель, которая обучается сама на себе. Она сама придумывает задачи, решает их и проверяет результат, исполняя сгенерированный код, чтобы понять, где ошиблась. Без единого внешнего датасета .
Проект назвали Absolute Zero — как точка, с которой начинается всё. Модель не полагается на накопленную человечеством информацию, а выходит в рост через диалог с собой.
В чем вся суть? Представьте ребёнка, у которого нет учителей, книг и YouTube, но он интуитивно начинает задаваться вопросами, играть в задачи, искать ошибки и учиться на этом. В реальности так не бывает — но с моделями вдруг получилось. И этот ИИ уже обгоняет классические подходы в ряде задач по математике и программированию.
Что это может изменить
• Стоимость обучения. Не нужно миллионы размеченных задач — ИИ сам их генерирует. Это делает обучение доступнее даже без крупных дата-центров.
• Гибкость. Модель может адаптироваться к новым задачам быстрее — она уже «привыкла учиться».
• Новый взгляд на интеллект. Возможно, интеллект — это не столько память, сколько способность задавать себе правильные вопросы и проверять гипотезы.
Будущее, где ИИ учится сам, как любопытный собеседник, а не просто «записанная Википедия», — ближе, чем кажется. И это одна из самых захватывающих линий в развитии AI в этом году.
Обычно ИИ учат на больших объёмах человеческих данных: сотни тысяч строк кода, задач, объяснений. Но команда исследователей пошла другим путём — они создали модель, которая обучается сама на себе. Она сама придумывает задачи, решает их и проверяет результат, исполняя сгенерированный код, чтобы понять, где ошиблась. Без единого внешнего датасета .
Проект назвали Absolute Zero — как точка, с которой начинается всё. Модель не полагается на накопленную человечеством информацию, а выходит в рост через диалог с собой.
В чем вся суть? Представьте ребёнка, у которого нет учителей, книг и YouTube, но он интуитивно начинает задаваться вопросами, играть в задачи, искать ошибки и учиться на этом. В реальности так не бывает — но с моделями вдруг получилось. И этот ИИ уже обгоняет классические подходы в ряде задач по математике и программированию.
Что это может изменить
• Стоимость обучения. Не нужно миллионы размеченных задач — ИИ сам их генерирует. Это делает обучение доступнее даже без крупных дата-центров.
• Гибкость. Модель может адаптироваться к новым задачам быстрее — она уже «привыкла учиться».
• Новый взгляд на интеллект. Возможно, интеллект — это не столько память, сколько способность задавать себе правильные вопросы и проверять гипотезы.
Будущее, где ИИ учится сам, как любопытный собеседник, а не просто «записанная Википедия», — ближе, чем кажется. И это одна из самых захватывающих линий в развитии AI в этом году.
😱5❤4🤔2👀1
This media is not supported in your browser
VIEW IN TELEGRAM
Теперь своими deep research будет делиться намного удобнее. В ChatGPT добавили функцию скачивания в pdf с нормальным форматированием. Мелкая, а важная фича.
❤4🤩3👍2
Media is too big
VIEW IN TELEGRAM
Manus теперь почти у всех — и это интересно, но не магия
Недавно Manus стал доступен широкой аудитории. Я тестировал его с инвайта пару недель назад — и да, это один из самых дружелюбных входов в тему AI-агентов на сегодня.
Идея простая: у тебя есть агент с собственной виртуалкой, он может сам написать сайт, задеплоить его у себя, что-то починить, если сломается. Всё — прямо в браузере.
Но важно: Manus — это не «всё сделает за тебя», а скорее первый шаг к агентам, у которых есть своя среда и контекст выполнения.
Похожий вектор — у OWL (на базе Camel AI). Он умеет открывать браузер, кликать по интерфейсу, заполнять формы. Пока сыровато, но ясно одно: мы двигаемся к агентам, которые не просто подсказывают, а работают в цифровом мире.
И Manus, и OWL — это ранние эксперименты. Но направление уже видно:
AI как цифровой коллега, у которого есть окружение, интерфейс и действия.
Следим за развитием. Скоро будет интересно.
#manus #owl
Manus: https://manus.dev
OWL (Camel AI): https://github.com/camel-ai/owl
P.S.: Что вы сами думаете про Manus, OWL и подобные проекты? Делитесь мнениями, впечатлениями и юзкейсами. Комментарии включил :)
Недавно Manus стал доступен широкой аудитории. Я тестировал его с инвайта пару недель назад — и да, это один из самых дружелюбных входов в тему AI-агентов на сегодня.
Идея простая: у тебя есть агент с собственной виртуалкой, он может сам написать сайт, задеплоить его у себя, что-то починить, если сломается. Всё — прямо в браузере.
Но важно: Manus — это не «всё сделает за тебя», а скорее первый шаг к агентам, у которых есть своя среда и контекст выполнения.
Похожий вектор — у OWL (на базе Camel AI). Он умеет открывать браузер, кликать по интерфейсу, заполнять формы. Пока сыровато, но ясно одно: мы двигаемся к агентам, которые не просто подсказывают, а работают в цифровом мире.
И Manus, и OWL — это ранние эксперименты. Но направление уже видно:
AI как цифровой коллега, у которого есть окружение, интерфейс и действия.
Следим за развитием. Скоро будет интересно.
#manus #owl
Manus: https://manus.dev
OWL (Camel AI): https://github.com/camel-ai/owl
P.S.: Что вы сами думаете про Manus, OWL и подобные проекты? Делитесь мнениями, впечатлениями и юзкейсами. Комментарии включил :)
❤4🤔2
Когда модели начинают “договариваться”: путь к коллективному ИИ
Новое исследование показало, что если дать языковым моделям пообщаться друг с другом в команде — они начинают вырабатывать свои “социальные нормы” и общий сленг. Без подсказок от людей.
В эксперименте несколько копий ChatGPT пытались вместе решить задачу и постепенно начали использовать одинаковые слова для обозначения объектов — фактически, изобрели свою микрокультуру внутри сессии. Всё это без предварительного обучения на таких правилах.
Звучит как игра, но на самом деле — очень серьёзный сигнал.
Пока индустрия сосредоточена на одиночных “супер” моделях, всё больше кейсов и исследований указывает на потенциал коллаборативных многоагентных систем. Представьте: не одна LLM, а команда агентов — каждый со своей специализацией, опытом, контекстом — которые умеют работать вместе над задачами, которые одному агенту не под силу.
Agent-флоу уже показывают свою силу в автоматизации. Но следующий виток — это коллективное самообучение, распределённая экспертиза и “цифровые команды” из ИИ, которые не просто исполняют, а сотрудничают.
И прикол в том, что такие эксперименты можно делать уже сейчас. С помощью LangGraph или даже на n8n можно собрать свою простую “ИИ-команду” из агентов, которые передают друг другу контекст и учатся договариваться. Поле для экспериментов — огромное.
Очень крутое направление. Следим.
Источник: arXiv: Emergent social conventions in LLM teams
Новое исследование показало, что если дать языковым моделям пообщаться друг с другом в команде — они начинают вырабатывать свои “социальные нормы” и общий сленг. Без подсказок от людей.
В эксперименте несколько копий ChatGPT пытались вместе решить задачу и постепенно начали использовать одинаковые слова для обозначения объектов — фактически, изобрели свою микрокультуру внутри сессии. Всё это без предварительного обучения на таких правилах.
Звучит как игра, но на самом деле — очень серьёзный сигнал.
Пока индустрия сосредоточена на одиночных “супер” моделях, всё больше кейсов и исследований указывает на потенциал коллаборативных многоагентных систем. Представьте: не одна LLM, а команда агентов — каждый со своей специализацией, опытом, контекстом — которые умеют работать вместе над задачами, которые одному агенту не под силу.
Agent-флоу уже показывают свою силу в автоматизации. Но следующий виток — это коллективное самообучение, распределённая экспертиза и “цифровые команды” из ИИ, которые не просто исполняют, а сотрудничают.
И прикол в том, что такие эксперименты можно делать уже сейчас. С помощью LangGraph или даже на n8n можно собрать свою простую “ИИ-команду” из агентов, которые передают друг другу контекст и учатся договариваться. Поле для экспериментов — огромное.
Очень крутое направление. Следим.
Источник: arXiv: Emergent social conventions in LLM teams
👀3❤2🔥2
Codex от OpenAI: шаг ближе к полноценному вайбкодингу
OpenAI выкатили Codex — отдельный продукт, заточенный под генерацию и сопровождение кода. По сути, это более специализированная версия GPT, дообученная на публичных репозиториях, с явным фокусом на разработку.
Codex — это не просто “ещё один Copilot”. Он может интерпретировать описание задач на обычном языке, генерировать функции, править ошибки, работать с файлами проекта — и всё это уже не в формате IDE-плагина, а как отдельный агент, готовый сопровождать процесс.
Интересно, что Codex как продукт появился параллельно с WindSurf — другим новым инструментом от OpenAI, где делается упор на интерактивную среду и multi-modal кодинг с голосом, UI и визуалами.
Пока не очень ясно: это конкуренция внутри? Или попытка нащупать разные формы “AI для разработчиков” — от IDE-интеграции до автономного агента.
Но точно ясно одно: это ещё один шаг к вайбкодингу, где ИИ — не просто дописчик, а соавтор.
Вопрос теперь в другом — пора уходить с Cursor и других IDE-прослоек? Или всё же связка “IDE + agent” останется эффективнее, чем отдельно живущий ассистент?
Будем тестить.
Ссылка: Introducing Codex
OpenAI выкатили Codex — отдельный продукт, заточенный под генерацию и сопровождение кода. По сути, это более специализированная версия GPT, дообученная на публичных репозиториях, с явным фокусом на разработку.
Codex — это не просто “ещё один Copilot”. Он может интерпретировать описание задач на обычном языке, генерировать функции, править ошибки, работать с файлами проекта — и всё это уже не в формате IDE-плагина, а как отдельный агент, готовый сопровождать процесс.
Интересно, что Codex как продукт появился параллельно с WindSurf — другим новым инструментом от OpenAI, где делается упор на интерактивную среду и multi-modal кодинг с голосом, UI и визуалами.
Пока не очень ясно: это конкуренция внутри? Или попытка нащупать разные формы “AI для разработчиков” — от IDE-интеграции до автономного агента.
Но точно ясно одно: это ещё один шаг к вайбкодингу, где ИИ — не просто дописчик, а соавтор.
Вопрос теперь в другом — пора уходить с Cursor и других IDE-прослоек? Или всё же связка “IDE + agent” останется эффективнее, чем отдельно живущий ассистент?
Будем тестить.
Ссылка: Introducing Codex
❤3👍1
🛰 Star Compute: когда нейросети улетают в космос
ADA Space отправила на орбиту первую дюжину «вычислительных» спутников. Каждый — это мини-сервер с 8-млрд-параметровой моделью и чипом на ≈ 744 TOPS. Вместе они уже дают ~5 POPS, а к концу десятилетия план — 2 800 аппаратов и эксафлопс-класс прямо над нами. Данные обрабатываются там же, лазерные каналы гонят результат вниз секунды спустя.
Звучит сложно, но посмотрите, насколько офигительные юзкейсы у такого решения! А можно будет, например:
• Молниеносно видеть пожары, наводнения и любые ЧП: кадр снят → модель отработала → сигнал спасателям.
• «Смотреть» на Землю как в Google Earth, только вживую: строить упрощённые 3-D копии местности, чтобы следить за строительством, трафиком, урожаем.
• Дать беспилотным кораблям и дронам подсказки без задержек—полезно, когда вокруг лишь океан.
• Получить научные плюшки: один спутник уже ловит гамма-всплески, чтобы астрономы реагировали мгновенно.
Это первый настоящий «облачный центр анализа данных» вне планеты: солнце = питание, космос = бесплатный радиатор, никакого углеродного следа дата-центров. А главное — модели приходят к данным, а не наоборот.
Думаю в следующих RFS от YCombinator мы увидем запросы на стартапы с применением и таких крутых инфраструктур. Если вы думаете о сервисах «предсказание катастроф», «умная логистика» или «AI-навигация для дронов» — рекомендую ждать запуска API и смотреть за Star Compute.
ADA Space отправила на орбиту первую дюжину «вычислительных» спутников. Каждый — это мини-сервер с 8-млрд-параметровой моделью и чипом на ≈ 744 TOPS. Вместе они уже дают ~5 POPS, а к концу десятилетия план — 2 800 аппаратов и эксафлопс-класс прямо над нами. Данные обрабатываются там же, лазерные каналы гонят результат вниз секунды спустя.
Звучит сложно, но посмотрите, насколько офигительные юзкейсы у такого решения! А можно будет, например:
• Молниеносно видеть пожары, наводнения и любые ЧП: кадр снят → модель отработала → сигнал спасателям.
• «Смотреть» на Землю как в Google Earth, только вживую: строить упрощённые 3-D копии местности, чтобы следить за строительством, трафиком, урожаем.
• Дать беспилотным кораблям и дронам подсказки без задержек—полезно, когда вокруг лишь океан.
• Получить научные плюшки: один спутник уже ловит гамма-всплески, чтобы астрономы реагировали мгновенно.
Это первый настоящий «облачный центр анализа данных» вне планеты: солнце = питание, космос = бесплатный радиатор, никакого углеродного следа дата-центров. А главное — модели приходят к данным, а не наоборот.
Думаю в следующих RFS от YCombinator мы увидем запросы на стартапы с применением и таких крутых инфраструктур. Если вы думаете о сервисах «предсказание катастроф», «умная логистика» или «AI-навигация для дронов» — рекомендую ждать запуска API и смотреть за Star Compute.
1❤3🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
Все пишут про вчерашнюю презентацию Google I/O. Ну, что сказать, то что творит теперь Google Flow с Veo 3 поражает, это значительный шажок вперед и большое подспорье тем, кто занимается видео.
В целом, я думаю что количество и качество релизов у Google на высоте. Они однозначно на какое-то время перехватили лидерство в гонке чуть ли не по всем показателям.
Отдельно круто, что появился и уже доступен новый NotebookLM в мобильных сторах. Это в целом крутейший продукт, который очень удобно и эффективно использовать для самообразования и потребления полезного контента.
Здорово, что Google пытается построить экосистему вместе со всеми разработками. А не просто наращивают объемы данных под обучение.
В целом, я думаю что количество и качество релизов у Google на высоте. Они однозначно на какое-то время перехватили лидерство в гонке чуть ли не по всем показателям.
Отдельно круто, что появился и уже доступен новый NotebookLM в мобильных сторах. Это в целом крутейший продукт, который очень удобно и эффективно использовать для самообразования и потребления полезного контента.
Здорово, что Google пытается построить экосистему вместе со всеми разработками. А не просто наращивают объемы данных под обучение.
🔥5👍3
Готовил сегодня пост про промпты, потерялся во времени, и в итоге посмотрел в лайве презентацию Anthropic. Ну что сказать, в отличии от Google I/O, где все — это экосистема, у ребят из Antropic серъезно сфокусированный подход. Все про кодинг. Это круто.
Мне понравилось, как за несколько часов Cloude Code с Opus на борту закодил фичу в большой опенсорсный проект. Выглядит прикольнее, чем Gemini, который генерит быстро HTML-странички с играми.
Еще понравилась фраза, про ожидание стартапа-единорога с командой всего из одного человека. Абсолютизм, конечно, но все движение направленно именно туда.
Обе новые 4 модельки, Sonet и Opus уже доступны, в том числе в Cursor. Последние 2 часа кодил с Sonet. Что сказать, рациональный подход этой нейронки к постановке задач из промпта, грамотная и последовательная реализация впечатляет. Если раньше я чаще кодил с Gemini, чем с 3.7, то теперь увидел буквально прыжок выше головы.
Рекомендую брать в процессы этих ребят и смотреть, что они могут самим.
Мне понравилось, как за несколько часов Cloude Code с Opus на борту закодил фичу в большой опенсорсный проект. Выглядит прикольнее, чем Gemini, который генерит быстро HTML-странички с играми.
Еще понравилась фраза, про ожидание стартапа-единорога с командой всего из одного человека. Абсолютизм, конечно, но все движение направленно именно туда.
Обе новые 4 модельки, Sonet и Opus уже доступны, в том числе в Cursor. Последние 2 часа кодил с Sonet. Что сказать, рациональный подход этой нейронки к постановке задач из промпта, грамотная и последовательная реализация впечатляет. Если раньше я чаще кодил с Gemini, чем с 3.7, то теперь увидел буквально прыжок выше головы.
Рекомендую брать в процессы этих ребят и смотреть, что они могут самим.
YouTube
Code with Claude Opening Keynote
Content begins at 26:28. Hear directly from Anthropic executives and product leaders at Code with Claude.
❤2👍1🔥1
🧩 AI vs AI — приём для быстрого критического разбора текста
Когда нужно оценить надёжность статьи, исследования или продуктового описания, вместо долгих поисков источников можно посадить модель «за обе стороны стола» и получить компактную дискуссию с фактами и возражениями. Это удобно, например, для проверки свежего научного препринта, чернового peer-review собственных материалов или быстрого аудита аргументации перед питчем.
Схема следующая
Делим роли и промпты на 3 этапа.
1. Аналитик
«Ты — аналитик. Прочитай текст, выдели ключевую идею, сильные и слабые аргументы и 3-4 самые показательные цитаты из текста».
2. Оппонент
«Ты оппонируешь прошлому ответу. Критикуй выводы аналитика. Найди аргументы для ослабления сильных сторон, выяви скрытые допущения, усили и расширь слабые стороны».
3. Арбитр
«Сверь позиции. Выдели, что подтвердилось у обеих сторон; какие вопросы остались открытыми; какие данные нужны для финального вывода».
Рекомендации
• Держите роли в отдельных сообщениях — так шанс смешения контекста ниже.
• Запрашивайте ссылки, цифры, пруфы, если аргумент требует подтверждения или хоть немного неочевиден вам.
• При необходимости запускайте ещё один цикл («Защитник», «Факт-чекер», etc).
Метод даёт концентрированное «за / против» без многочасового гуглинга и помогает быстро увидеть, где аргументация держится, а где нет. Так же помогает защитить себя от искажений и галюцинаций нейронок, особенно в специфичных темах.
Делитесь, какие промптинговые флоу вы используйте в рисерчах и других задачах, решаемых с LLM в комментах 🤘
Когда нужно оценить надёжность статьи, исследования или продуктового описания, вместо долгих поисков источников можно посадить модель «за обе стороны стола» и получить компактную дискуссию с фактами и возражениями. Это удобно, например, для проверки свежего научного препринта, чернового peer-review собственных материалов или быстрого аудита аргументации перед питчем.
Схема следующая
Делим роли и промпты на 3 этапа.
1. Аналитик
«Ты — аналитик. Прочитай текст, выдели ключевую идею, сильные и слабые аргументы и 3-4 самые показательные цитаты из текста».
2. Оппонент
«Ты оппонируешь прошлому ответу. Критикуй выводы аналитика. Найди аргументы для ослабления сильных сторон, выяви скрытые допущения, усили и расширь слабые стороны».
3. Арбитр
«Сверь позиции. Выдели, что подтвердилось у обеих сторон; какие вопросы остались открытыми; какие данные нужны для финального вывода».
Рекомендации
• Держите роли в отдельных сообщениях — так шанс смешения контекста ниже.
• Запрашивайте ссылки, цифры, пруфы, если аргумент требует подтверждения или хоть немного неочевиден вам.
• При необходимости запускайте ещё один цикл («Защитник», «Факт-чекер», etc).
Метод даёт концентрированное «за / против» без многочасового гуглинга и помогает быстро увидеть, где аргументация держится, а где нет. Так же помогает защитить себя от искажений и галюцинаций нейронок, особенно в специфичных темах.
Делитесь, какие промптинговые флоу вы используйте в рисерчах и других задачах, решаемых с LLM в комментах 🤘
❤5🔥3👍2
⚙️ Lean 4 × LLM: первые шаги к «логически-оснащённым» моделям
В свежем препринте исследователи показали интересную связку: берут привычную LLM, добавляют к ней Lean 4 — формальный доказатель, где каждое утверждение компилируется как строгий тип — и заставляют модель решать олимпиадную математику под надзором компилятора.
Результат: точность на бенчмарке MATH выросла почти на 5 пунктов. Не потому, что модель стала «умнее», а потому что Lean отсекает всё, что логически не проходит.
Это важный этап, потому что LLM-ы сильны в вероятностных догадках, но с формальной логикой у них беда: аргумент может звучать убедительно, но быть дырявым. Добавив Lean как внешний «слой проверки», мы даём модели то, чего ей хронически не хватало — жёсткое правило истинности.
Как устроен гибрид
1. Формализация. Текст задачи превращают в теорему Lean.
2. Генерация. Модель предлагает шаги доказательства.
3. Проверка. Lean компилирует: прошёл — принято, нет — ищем другой путь.
Это, по сути, первый зримый шаг к тому, чтобы языковые модели играли не только «на ощущениях», а с опорой на формальную базу. Если идея приживётся, гибридный подход может закрыть разрыв между ИИ и человеком в тех областях, где пока выигрывает строгая логика: проверка научных выкладок, сложные инженерные расчёты, критически важный код. Ну и понятно, что это пока только препринт, но направление мысли интересное.
Похоже, дальше интереснее: вместо наращивания миллиардов параметров мы начнём окутывать модели цепочками проверяемых правил. А значит — меньше «магии вероятностей», больше гарантированной корректности.
Источник: https://arxiv.org/abs/2505.23703
В свежем препринте исследователи показали интересную связку: берут привычную LLM, добавляют к ней Lean 4 — формальный доказатель, где каждое утверждение компилируется как строгий тип — и заставляют модель решать олимпиадную математику под надзором компилятора.
Результат: точность на бенчмарке MATH выросла почти на 5 пунктов. Не потому, что модель стала «умнее», а потому что Lean отсекает всё, что логически не проходит.
Это важный этап, потому что LLM-ы сильны в вероятностных догадках, но с формальной логикой у них беда: аргумент может звучать убедительно, но быть дырявым. Добавив Lean как внешний «слой проверки», мы даём модели то, чего ей хронически не хватало — жёсткое правило истинности.
Как устроен гибрид
1. Формализация. Текст задачи превращают в теорему Lean.
2. Генерация. Модель предлагает шаги доказательства.
3. Проверка. Lean компилирует: прошёл — принято, нет — ищем другой путь.
Это, по сути, первый зримый шаг к тому, чтобы языковые модели играли не только «на ощущениях», а с опорой на формальную базу. Если идея приживётся, гибридный подход может закрыть разрыв между ИИ и человеком в тех областях, где пока выигрывает строгая логика: проверка научных выкладок, сложные инженерные расчёты, критически важный код. Ну и понятно, что это пока только препринт, но направление мысли интересное.
Похоже, дальше интереснее: вместо наращивания миллиардов параметров мы начнём окутывать модели цепочками проверяемых правил. А значит — меньше «магии вероятностей», больше гарантированной корректности.
Источник: https://arxiv.org/abs/2505.23703
arXiv.org
Let's Reason Formally: Natural-Formal Hybrid Reasoning...
Enhancing the mathematical reasoning capabilities of LLMs has garnered significant attention in both the mathematical and computer science communities. Recent works have made substantial progress...
🤔3🔥1
CEO Zapier опубликовал твит об их новой политике — теперь, вне зависимости от позиции, компания требует быть fluent во взаимодействии с нейронками.
Сейчас нейросети сами по себе в разных сферах начинают становится незаменимым инструментов повышения эффективности в почти любой профессии. Такое уже случалось не раз: и с индустриальной революцией, и с появлением компьютеров совсем недавно.
Я бы рекомендовал всем взаимодействовать с нейросетями по большинству вопросов каждый день, буквально как с ассистентом, помощником, подопечным, советником. Единственный вариант быть готовым к резкому изменению в требованиях к выполнению задач — самому находится, по сути, в этом тренде.
Сейчас нейросети сами по себе в разных сферах начинают становится незаменимым инструментов повышения эффективности в почти любой профессии. Такое уже случалось не раз: и с индустриальной революцией, и с появлением компьютеров совсем недавно.
Я бы рекомендовал всем взаимодействовать с нейросетями по большинству вопросов каждый день, буквально как с ассистентом, помощником, подопечным, советником. Единственный вариант быть готовым к резкому изменению в требованиях к выполнению задач — самому находится, по сути, в этом тренде.
❤3👍3
📰 Business Insider отправил под нож почти четверть редакции в попытке перестроиться под новую эпоху
Раньше схема развития медиа была предсказуемой и понятной: пишем статью → затачиваем под SEO → ждём трафик из Google. Но когда люди задают вопрос не поиску, а ChatGPT, весь этот механизм ломается. Теперь первые «читатели» текста — не живые глаза, а языковая модель, которая проглатывает десяток ссылок и отдаёт мне, тебе, любому запросившему — уже готовую, персонально отфильтрованную выжимку.
Трафик у BI и коллег не просто «медленно снижается» — он впадает в пике. BuzzFeed, Vice, Insider — все дружно режут отделы, где контент жил только за счёт поисковых заходов. Клика больше нет, есть резюме от нейросети.
Что это значит? СМИ приходится становиться заметными для нейросетей. Чистая фактура, понятный Markdown-скелет, открытый RSS, доступны ли превью и API — всё, чтобы условный Claude мог съесть материал без костылей и сослаться на источник.
А внутри редакций идёт перевооружение: авто-ресёрч, инфосправки за секунды, генерация нескольких углов подачи, быстрый A/B-тест заголовков, проверки фактов не руками стажёра, а скриптом. Контент-фабрика на ИИ-рельсах, потому что иначе не нагонишь ту скорость, с которой «читает» робот-агрегатор.
Остаётся вопрос: что тогда ценного остаётся человеку? То, что плохо копируется алгоритмом: живые расследования, эксклюзивы, репортаж из точки Х в момент Y, комьюнити, офлайн-ивенты. Всё остальное модель перескажет в два твита, и, честно, сделает это прилично.
Business Insider просто первым сказал вслух то, что рынок почувствует очень скоро: медиа больше конкурируют не за место в поисковой выдаче, а за место в контексте нейронки. И у кого получится быть одновременно интересным людям и удобным машинам, тот переживёт очередной апокалипсис SEO. Остальные растворятся в одном абзаце AI-конспекта.
Как по вашему будут выглядеть медиа ближайшего будущего?
Раньше схема развития медиа была предсказуемой и понятной: пишем статью → затачиваем под SEO → ждём трафик из Google. Но когда люди задают вопрос не поиску, а ChatGPT, весь этот механизм ломается. Теперь первые «читатели» текста — не живые глаза, а языковая модель, которая проглатывает десяток ссылок и отдаёт мне, тебе, любому запросившему — уже готовую, персонально отфильтрованную выжимку.
Трафик у BI и коллег не просто «медленно снижается» — он впадает в пике. BuzzFeed, Vice, Insider — все дружно режут отделы, где контент жил только за счёт поисковых заходов. Клика больше нет, есть резюме от нейросети.
Что это значит? СМИ приходится становиться заметными для нейросетей. Чистая фактура, понятный Markdown-скелет, открытый RSS, доступны ли превью и API — всё, чтобы условный Claude мог съесть материал без костылей и сослаться на источник.
А внутри редакций идёт перевооружение: авто-ресёрч, инфосправки за секунды, генерация нескольких углов подачи, быстрый A/B-тест заголовков, проверки фактов не руками стажёра, а скриптом. Контент-фабрика на ИИ-рельсах, потому что иначе не нагонишь ту скорость, с которой «читает» робот-агрегатор.
Остаётся вопрос: что тогда ценного остаётся человеку? То, что плохо копируется алгоритмом: живые расследования, эксклюзивы, репортаж из точки Х в момент Y, комьюнити, офлайн-ивенты. Всё остальное модель перескажет в два твита, и, честно, сделает это прилично.
Business Insider просто первым сказал вслух то, что рынок почувствует очень скоро: медиа больше конкурируют не за место в поисковой выдаче, а за место в контексте нейронки. И у кого получится быть одновременно интересным людям и удобным машинам, тот переживёт очередной апокалипсис SEO. Остальные растворятся в одном абзаце AI-конспекта.
Как по вашему будут выглядеть медиа ближайшего будущего?
❤4👍1🔥1👏1
🧠 LLM как новая точка бифуркации для образования
Пока все обсуждают, как LLM меняют работу, кажется, что тихо происходит кое-что посерьёзнее — меняется само распределение образованности. И очень похоже, что мы стоим на пороге сдвига, сравнимого с появлением печатного станка или массового школьного образования.
Сценарий 1: «образованные»
Для тех, кто и так привык к мышлению, чтению и критике — LLM на первый взгляд может выглядеть как угроза. Мол, теперь меньше думаем, всё пишет ИИ, формулирует за нас, сводит источники — атрофируемся.
Но реальность чуть сложнее. Как и с калькулятором в прошлом, фокус сместится: не «думать меньше», а думать на другом уровне. Проверять, уточнять, докручивать.
ИИ отбирает у нас рутину — но если человек при этом перестаёт думать сам, проблема не в модели. Это вопрос привычки и среды.
Пока LLM ускоряет «первые черновики» — значит, появляется пространство, чтобы поглубже закопаться во «вторые».
По сути, возникает новая когнитивная зона роста: критика модели, комбинация её идей, сложные контексты.
Сценарий 2: «необразованные»
А вот тут начинается настоящее чудо.
Раньше чтобы получить доступ к знаниям, нужно было уметь:
— читать,
— понимать структуру текста,
— сравнивать источники,
— уметь задавать вопросы,
— иметь время, деньги, ментального ресурса.
Теперь всё это может собрать и адаптировать за тебя языковая модель. С голосом. На твоём языке. Под твой темп. Без унижения и страха.
Уже сейчас с помощью ChatGPT или Gemini можно:
— учиться читать,
— задавать вопросы по темам, которые ты не знаешь даже как формулировать,
— объяснить себе тему, пока не поймёшь.
В отчёте UNESCO подчёркивается, что LLM уже сегодня способны сократить глобальный образовательный разрыв — в том числе среди неграмотных взрослых, благодаря голосовому доступу и персонализации обучения.
А MIT в рамках пилота показал, что персонализированный ИИ-тьютор на уровне GPT-4o может обучить функциональной грамотности в 2 раза быстрее, чем классические онлайн-курсы.
И это пока в зачаточной стадии. Что будет, когда speech-to-text + GPT станут бесплатной инфраструктурой? Когда у каждого будет свой «учитель 24/7»? Это уже не «доступ к базе знаний», это доступ к самому пониманию. Массовый.
LLM — не просто новый инструмент. Это точка бифуркации в том, как распространяется образованность.
Одни будут думать, что они «отупевают», если не научатся выходить за рамки промпта.
Другие впервые получат шанс думать.
И если доступ к таким системам будет не только платным, не только на английском, и не только в UI с кнопками — то мир через 10 лет будет радикально более образованным, чем сегодня. Не в смысле дипломов, а в смысле способности понимать, задавать вопросы и переосмыслять.
Мы впервые в истории так близко подошли к моменту, когда понимание как сервис может стать почти бесплатным.
Источники:
https://www.nber.org/papers/w31161
https://www.unesco.org/en/digital-education/artificial-intelligence
#образование #тренды
Пока все обсуждают, как LLM меняют работу, кажется, что тихо происходит кое-что посерьёзнее — меняется само распределение образованности. И очень похоже, что мы стоим на пороге сдвига, сравнимого с появлением печатного станка или массового школьного образования.
Сценарий 1: «образованные»
Для тех, кто и так привык к мышлению, чтению и критике — LLM на первый взгляд может выглядеть как угроза. Мол, теперь меньше думаем, всё пишет ИИ, формулирует за нас, сводит источники — атрофируемся.
Но реальность чуть сложнее. Как и с калькулятором в прошлом, фокус сместится: не «думать меньше», а думать на другом уровне. Проверять, уточнять, докручивать.
ИИ отбирает у нас рутину — но если человек при этом перестаёт думать сам, проблема не в модели. Это вопрос привычки и среды.
Пока LLM ускоряет «первые черновики» — значит, появляется пространство, чтобы поглубже закопаться во «вторые».
По сути, возникает новая когнитивная зона роста: критика модели, комбинация её идей, сложные контексты.
Сценарий 2: «необразованные»
А вот тут начинается настоящее чудо.
Раньше чтобы получить доступ к знаниям, нужно было уметь:
— читать,
— понимать структуру текста,
— сравнивать источники,
— уметь задавать вопросы,
— иметь время, деньги, ментального ресурса.
Теперь всё это может собрать и адаптировать за тебя языковая модель. С голосом. На твоём языке. Под твой темп. Без унижения и страха.
Уже сейчас с помощью ChatGPT или Gemini можно:
— учиться читать,
— задавать вопросы по темам, которые ты не знаешь даже как формулировать,
— объяснить себе тему, пока не поймёшь.
В отчёте UNESCO подчёркивается, что LLM уже сегодня способны сократить глобальный образовательный разрыв — в том числе среди неграмотных взрослых, благодаря голосовому доступу и персонализации обучения.
А MIT в рамках пилота показал, что персонализированный ИИ-тьютор на уровне GPT-4o может обучить функциональной грамотности в 2 раза быстрее, чем классические онлайн-курсы.
И это пока в зачаточной стадии. Что будет, когда speech-to-text + GPT станут бесплатной инфраструктурой? Когда у каждого будет свой «учитель 24/7»? Это уже не «доступ к базе знаний», это доступ к самому пониманию. Массовый.
LLM — не просто новый инструмент. Это точка бифуркации в том, как распространяется образованность.
Одни будут думать, что они «отупевают», если не научатся выходить за рамки промпта.
Другие впервые получат шанс думать.
И если доступ к таким системам будет не только платным, не только на английском, и не только в UI с кнопками — то мир через 10 лет будет радикально более образованным, чем сегодня. Не в смысле дипломов, а в смысле способности понимать, задавать вопросы и переосмыслять.
Мы впервые в истории так близко подошли к моменту, когда понимание как сервис может стать почти бесплатным.
Источники:
https://www.nber.org/papers/w31161
https://www.unesco.org/en/digital-education/artificial-intelligence
#образование #тренды
1❤5👍2🔥2👏1