Тарас Довгаль. AI-first в жизни и работе
764 subscribers
10 photos
6 videos
16 links
Новости, инсайты и прикладная магия про то, как я @doxadoxa учусь работать с ИИ как с коллегой, а не калькулятором.
AI-first мышление, vibe working, без лишнего пафоса.
Download Telegram
🤖🧠 Как ИИ запоминает информацию

Представьте: вы рассказываете чат-боту, что предпочитаете капучино без сахара и по выходным катаетесь на велосипеде. Закрыли вкладку — и всё исчезло. Чтобы бот не спрашивал одно и то же каждый раз, ему нужна «долгая память». Существует несколько основных подходов.

1. Персистентная память (memory bank)
Ключевые факты кладут в отдельную базу — любимый напиток, город, текущие проекты. Перед ответом ИИ подмешивает нужные сведения в промпт и звучит так, будто давно вас знает. Пользователю меньше повторов, продукту — глубже персонализация.

2. RAG (retrieval-augmented generation)
Модель ничего не хранит «внутри», а на лету обращается к внутренней вики, PDF-архиву или базе FAQ. Добавили новый прайс — бот уже в теме. Весы переучивать не нужно, достаточно обновить источник данных.

3. Дополнительные методы
Файн-тюнинг. Вшиваем информацию прямо в модель. Надёжно, но дорого и не меняется за минуту.
Временный кэш. Запоминает детали сессии на несколько часов или дней — подходит для краткосрочных задач.
Agent loops. Цепочка запросов, где каждый шаг сохраняет выводы в базу, а следующий их читает.

Зачем это пользователю и бизнесу? Чат перестаёт спрашивать одни и те же данные и выдаёт более точные рекомендации. Компания экономит время: «однажды объяснили — ИИ работает сам». При этом возрастает ответственность за хранение данных и необходимость кнопки «удалить всё». В результате мы получаем помощника, который действительно помнит контекст и отвечает релевантно.
👍62👀2🔥1
🧊 ИИ без данных? Встречайте «Absolute Zero» — самоучку среди моделей

Обычно ИИ учат на больших объёмах человеческих данных: сотни тысяч строк кода, задач, объяснений. Но команда исследователей пошла другим путём — они создали модель, которая обучается сама на себе. Она сама придумывает задачи, решает их и проверяет результат, исполняя сгенерированный код, чтобы понять, где ошиблась. Без единого внешнего датасета .

Проект назвали Absolute Zero — как точка, с которой начинается всё. Модель не полагается на накопленную человечеством информацию, а выходит в рост через диалог с собой.

В чем вся суть? Представьте ребёнка, у которого нет учителей, книг и YouTube, но он интуитивно начинает задаваться вопросами, играть в задачи, искать ошибки и учиться на этом. В реальности так не бывает — но с моделями вдруг получилось. И этот ИИ уже обгоняет классические подходы в ряде задач по математике и программированию.

Что это может изменить
Стоимость обучения. Не нужно миллионы размеченных задач — ИИ сам их генерирует. Это делает обучение доступнее даже без крупных дата-центров.
Гибкость. Модель может адаптироваться к новым задачам быстрее — она уже «привыкла учиться».
Новый взгляд на интеллект. Возможно, интеллект — это не столько память, сколько способность задавать себе правильные вопросы и проверять гипотезы.

Будущее, где ИИ учится сам, как любопытный собеседник, а не просто «записанная Википедия», — ближе, чем кажется. И это одна из самых захватывающих линий в развитии AI в этом году.
😱54🤔2👀1
This media is not supported in your browser
VIEW IN TELEGRAM
Теперь своими deep research будет делиться намного удобнее. В ChatGPT добавили функцию скачивания в pdf с нормальным форматированием. Мелкая, а важная фича.
4🤩3👍2
Media is too big
VIEW IN TELEGRAM
Manus теперь почти у всех — и это интересно, но не магия

Недавно Manus стал доступен широкой аудитории. Я тестировал его с инвайта пару недель назад — и да, это один из самых дружелюбных входов в тему AI-агентов на сегодня.

Идея простая: у тебя есть агент с собственной виртуалкой, он может сам написать сайт, задеплоить его у себя, что-то починить, если сломается. Всё — прямо в браузере.

Но важно: Manus — это не «всё сделает за тебя», а скорее первый шаг к агентам, у которых есть своя среда и контекст выполнения.

Похожий вектор — у OWL (на базе Camel AI). Он умеет открывать браузер, кликать по интерфейсу, заполнять формы. Пока сыровато, но ясно одно: мы двигаемся к агентам, которые не просто подсказывают, а работают в цифровом мире.

И Manus, и OWL — это ранние эксперименты. Но направление уже видно:
AI как цифровой коллега, у которого есть окружение, интерфейс и действия.

Следим за развитием. Скоро будет интересно.

#manus #owl

Manus: https://manus.dev
OWL (Camel AI): https://github.com/camel-ai/owl

P.S.: Что вы сами думаете про Manus, OWL и подобные проекты? Делитесь мнениями, впечатлениями и юзкейсами. Комментарии включил :)
4🤔2
Когда модели начинают “договариваться”: путь к коллективному ИИ

Новое исследование показало, что если дать языковым моделям пообщаться друг с другом в команде — они начинают вырабатывать свои “социальные нормы” и общий сленг. Без подсказок от людей.

В эксперименте несколько копий ChatGPT пытались вместе решить задачу и постепенно начали использовать одинаковые слова для обозначения объектов — фактически, изобрели свою микрокультуру внутри сессии. Всё это без предварительного обучения на таких правилах.

Звучит как игра, но на самом деле — очень серьёзный сигнал.

Пока индустрия сосредоточена на одиночных “супер” моделях, всё больше кейсов и исследований указывает на потенциал коллаборативных многоагентных систем. Представьте: не одна LLM, а команда агентов — каждый со своей специализацией, опытом, контекстом — которые умеют работать вместе над задачами, которые одному агенту не под силу.

Agent-флоу уже показывают свою силу в автоматизации. Но следующий виток — это коллективное самообучение, распределённая экспертиза и “цифровые команды” из ИИ, которые не просто исполняют, а сотрудничают.

И прикол в том, что такие эксперименты можно делать уже сейчас. С помощью LangGraph или даже на n8n можно собрать свою простую “ИИ-команду” из агентов, которые передают друг другу контекст и учатся договариваться. Поле для экспериментов — огромное.

Очень крутое направление. Следим.

Источник: arXiv: Emergent social conventions in LLM teams
👀32🔥2
Codex от OpenAI: шаг ближе к полноценному вайбкодингу

OpenAI выкатили Codex — отдельный продукт, заточенный под генерацию и сопровождение кода. По сути, это более специализированная версия GPT, дообученная на публичных репозиториях, с явным фокусом на разработку.

Codex — это не просто “ещё один Copilot”. Он может интерпретировать описание задач на обычном языке, генерировать функции, править ошибки, работать с файлами проекта — и всё это уже не в формате IDE-плагина, а как отдельный агент, готовый сопровождать процесс.

Интересно, что Codex как продукт появился параллельно с WindSurf — другим новым инструментом от OpenAI, где делается упор на интерактивную среду и multi-modal кодинг с голосом, UI и визуалами.

Пока не очень ясно: это конкуренция внутри? Или попытка нащупать разные формы “AI для разработчиков” — от IDE-интеграции до автономного агента.

Но точно ясно одно: это ещё один шаг к вайбкодингу, где ИИ — не просто дописчик, а соавтор.
Вопрос теперь в другом — пора уходить с Cursor и других IDE-прослоек? Или всё же связка “IDE + agent” останется эффективнее, чем отдельно живущий ассистент?

Будем тестить.

Ссылка: Introducing Codex
3👍1
🛰 Star Compute: когда нейросети улетают в космос

ADA Space отправила на орбиту первую дюжину «вычислительных» спутников. Каждый — это мини-сервер с 8-млрд-параметровой моделью и чипом на ≈ 744 TOPS. Вместе они уже дают ~5 POPS, а к концу десятилетия план — 2 800 аппаратов и эксафлопс-класс прямо над нами. Данные обрабатываются там же, лазерные каналы гонят результат вниз секунды спустя.

Звучит сложно, но посмотрите, насколько офигительные юзкейсы у такого решения! А можно будет, например:
• Молниеносно видеть пожары, наводнения и любые ЧП: кадр снят → модель отработала → сигнал спасателям.
• «Смотреть» на Землю как в Google Earth, только вживую: строить упрощённые 3-D копии местности, чтобы следить за строительством, трафиком, урожаем.
• Дать беспилотным кораблям и дронам подсказки без задержек—полезно, когда вокруг лишь океан.
• Получить научные плюшки: один спутник уже ловит гамма-всплески, чтобы астрономы реагировали мгновенно.

Это первый настоящий «облачный центр анализа данных» вне планеты: солнце = питание, космос = бесплатный радиатор, никакого углеродного следа дата-центров. А главное — модели приходят к данным, а не наоборот.

Думаю в следующих RFS от YCombinator мы увидем запросы на стартапы с применением и таких крутых инфраструктур. Если вы думаете о сервисах «предсказание катастроф», «умная логистика» или «AI-навигация для дронов» — рекомендую ждать запуска API и смотреть за Star Compute.
13🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
Все пишут про вчерашнюю презентацию Google I/O. Ну, что сказать, то что творит теперь Google Flow с Veo 3 поражает, это значительный шажок вперед и большое подспорье тем, кто занимается видео.

В целом, я думаю что количество и качество релизов у Google на высоте. Они однозначно на какое-то время перехватили лидерство в гонке чуть ли не по всем показателям.

Отдельно круто, что появился и уже доступен новый NotebookLM в мобильных сторах. Это в целом крутейший продукт, который очень удобно и эффективно использовать для самообразования и потребления полезного контента.

Здорово, что Google пытается построить экосистему вместе со всеми разработками. А не просто наращивают объемы данных под обучение.
🔥5👍3
Готовил сегодня пост про промпты, потерялся во времени, и в итоге посмотрел в лайве презентацию Anthropic. Ну что сказать, в отличии от Google I/O, где все — это экосистема, у ребят из Antropic серъезно сфокусированный подход. Все про кодинг. Это круто.

Мне понравилось, как за несколько часов Cloude Code с Opus на борту закодил фичу в большой опенсорсный проект. Выглядит прикольнее, чем Gemini, который генерит быстро HTML-странички с играми.

Еще понравилась фраза, про ожидание стартапа-единорога с командой всего из одного человека. Абсолютизм, конечно, но все движение направленно именно туда.

Обе новые 4 модельки, Sonet и Opus уже доступны, в том числе в Cursor. Последние 2 часа кодил с Sonet. Что сказать, рациональный подход этой нейронки к постановке задач из промпта, грамотная и последовательная реализация впечатляет. Если раньше я чаще кодил с Gemini, чем с 3.7, то теперь увидел буквально прыжок выше головы.

Рекомендую брать в процессы этих ребят и смотреть, что они могут самим.
2👍1🔥1
🧩 AI vs AI — приём для быстрого критического разбора текста

Когда нужно оценить надёжность статьи, исследования или продуктового описания, вместо долгих поисков источников можно посадить модель «за обе стороны стола» и получить компактную дискуссию с фактами и возражениями. Это удобно, например, для проверки свежего научного препринта, чернового peer-review собственных материалов или быстрого аудита аргументации перед питчем.

Схема следующая

Делим роли и промпты на 3 этапа.

1. Аналитик
«Ты — аналитик. Прочитай текст, выдели ключевую идею, сильные и слабые аргументы и 3-4 самые показательные цитаты из текста».

2. Оппонент
«Ты оппонируешь прошлому ответу. Критикуй выводы аналитика. Найди аргументы для ослабления сильных сторон, выяви скрытые допущения, усили и расширь слабые стороны».

3. Арбитр
«Сверь позиции. Выдели, что подтвердилось у обеих сторон; какие вопросы остались открытыми; какие данные нужны для финального вывода».

Рекомендации
• Держите роли в отдельных сообщениях — так шанс смешения контекста ниже.
• Запрашивайте ссылки, цифры, пруфы, если аргумент требует подтверждения или хоть немного неочевиден вам.
• При необходимости запускайте ещё один цикл («Защитник», «Факт-чекер», etc).

Метод даёт концентрированное «за / против» без многочасового гуглинга и помогает быстро увидеть, где аргументация держится, а где нет. Так же помогает защитить себя от искажений и галюцинаций нейронок, особенно в специфичных темах.

Делитесь, какие промптинговые флоу вы используйте в рисерчах и других задачах, решаемых с LLM в комментах 🤘
5🔥3👍2
⚙️ Lean 4 × LLM: первые шаги к «логически-оснащённым» моделям

В свежем препринте исследователи показали интересную связку: берут привычную LLM, добавляют к ней Lean 4 — формальный доказатель, где каждое утверждение компилируется как строгий тип — и заставляют модель решать олимпиадную математику под надзором компилятора.

Результат: точность на бенчмарке MATH выросла почти на 5 пунктов. Не потому, что модель стала «умнее», а потому что Lean отсекает всё, что логически не проходит.

Это важный этап, потому что LLM-ы сильны в вероятностных догадках, но с формальной логикой у них беда: аргумент может звучать убедительно, но быть дырявым. Добавив Lean как внешний «слой проверки», мы даём модели то, чего ей хронически не хватало — жёсткое правило истинности.

Как устроен гибрид
1. Формализация. Текст задачи превращают в теорему Lean.
2. Генерация. Модель предлагает шаги доказательства.
3. Проверка. Lean компилирует: прошёл — принято, нет — ищем другой путь.

Это, по сути, первый зримый шаг к тому, чтобы языковые модели играли не только «на ощущениях», а с опорой на формальную базу. Если идея приживётся, гибридный подход может закрыть разрыв между ИИ и человеком в тех областях, где пока выигрывает строгая логика: проверка научных выкладок, сложные инженерные расчёты, критически важный код. Ну и понятно, что это пока только препринт, но направление мысли интересное.

Похоже, дальше интереснее: вместо наращивания миллиардов параметров мы начнём окутывать модели цепочками проверяемых правил. А значит — меньше «магии вероятностей», больше гарантированной корректности.

Источник: https://arxiv.org/abs/2505.23703
🤔3🔥1
CEO Zapier опубликовал твит об их новой политике — теперь, вне зависимости от позиции, компания требует быть fluent во взаимодействии с нейронками.

Сейчас нейросети сами по себе в разных сферах начинают становится незаменимым инструментов повышения эффективности в почти любой профессии. Такое уже случалось не раз: и с индустриальной революцией, и с появлением компьютеров совсем недавно.

Я бы рекомендовал всем взаимодействовать с нейросетями по большинству вопросов каждый день, буквально как с ассистентом, помощником, подопечным, советником. Единственный вариант быть готовым к резкому изменению в требованиях к выполнению задач — самому находится, по сути, в этом тренде.
3👍3
📰 Business Insider отправил под нож почти четверть редакции в попытке перестроиться под новую эпоху

Раньше схема развития медиа была предсказуемой и понятной: пишем статью → затачиваем под SEO → ждём трафик из Google. Но когда люди задают вопрос не поиску, а ChatGPT, весь этот механизм ломается. Теперь первые «читатели» текста — не живые глаза, а языковая модель, которая проглатывает десяток ссылок и отдаёт мне, тебе, любому запросившему — уже готовую, персонально отфильтрованную выжимку.

Трафик у BI и коллег не просто «медленно снижается» — он впадает в пике. BuzzFeed, Vice, Insider — все дружно режут отделы, где контент жил только за счёт поисковых заходов. Клика больше нет, есть резюме от нейросети.

Что это значит? СМИ приходится становиться заметными для нейросетей. Чистая фактура, понятный Markdown-скелет, открытый RSS, доступны ли превью и API — всё, чтобы условный Claude мог съесть материал без костылей и сослаться на источник.

А внутри редакций идёт перевооружение: авто-ресёрч, инфосправки за секунды, генерация нескольких углов подачи, быстрый A/B-тест заголовков, проверки фактов не руками стажёра, а скриптом. Контент-фабрика на ИИ-рельсах, потому что иначе не нагонишь ту скорость, с которой «читает» робот-агрегатор.

Остаётся вопрос: что тогда ценного остаётся человеку? То, что плохо копируется алгоритмом: живые расследования, эксклюзивы, репортаж из точки Х в момент Y, комьюнити, офлайн-ивенты. Всё остальное модель перескажет в два твита, и, честно, сделает это прилично.

Business Insider просто первым сказал вслух то, что рынок почувствует очень скоро: медиа больше конкурируют не за место в поисковой выдаче, а за место в контексте нейронки. И у кого получится быть одновременно интересным людям и удобным машинам, тот переживёт очередной апокалипсис SEO. Остальные растворятся в одном абзаце AI-конспекта.

Как по вашему будут выглядеть медиа ближайшего будущего?
4👍1🔥1👏1
🧠 LLM как новая точка бифуркации для образования

Пока все обсуждают, как LLM меняют работу, кажется, что тихо происходит кое-что посерьёзнее — меняется само распределение образованности. И очень похоже, что мы стоим на пороге сдвига, сравнимого с появлением печатного станка или массового школьного образования.

Сценарий 1: «образованные»
Для тех, кто и так привык к мышлению, чтению и критике — LLM на первый взгляд может выглядеть как угроза. Мол, теперь меньше думаем, всё пишет ИИ, формулирует за нас, сводит источники — атрофируемся.
Но реальность чуть сложнее. Как и с калькулятором в прошлом, фокус сместится: не «думать меньше», а думать на другом уровне. Проверять, уточнять, докручивать.
ИИ отбирает у нас рутину — но если человек при этом перестаёт думать сам, проблема не в модели. Это вопрос привычки и среды.
Пока LLM ускоряет «первые черновики» — значит, появляется пространство, чтобы поглубже закопаться во «вторые».
По сути, возникает новая когнитивная зона роста: критика модели, комбинация её идей, сложные контексты.

Сценарий 2: «необразованные»
А вот тут начинается настоящее чудо.
Раньше чтобы получить доступ к знаниям, нужно было уметь:
— читать,
— понимать структуру текста,
— сравнивать источники,
— уметь задавать вопросы,
— иметь время, деньги, ментального ресурса.

Теперь всё это может собрать и адаптировать за тебя языковая модель. С голосом. На твоём языке. Под твой темп. Без унижения и страха.

Уже сейчас с помощью ChatGPT или Gemini можно:
— учиться читать,
— задавать вопросы по темам, которые ты не знаешь даже как формулировать,
— объяснить себе тему, пока не поймёшь.

В отчёте UNESCO подчёркивается, что LLM уже сегодня способны сократить глобальный образовательный разрыв — в том числе среди неграмотных взрослых, благодаря голосовому доступу и персонализации обучения.
А MIT в рамках пилота показал, что персонализированный ИИ-тьютор на уровне GPT-4o может обучить функциональной грамотности в 2 раза быстрее, чем классические онлайн-курсы.

И это пока в зачаточной стадии. Что будет, когда speech-to-text + GPT станут бесплатной инфраструктурой? Когда у каждого будет свой «учитель 24/7»? Это уже не «доступ к базе знаний», это доступ к самому пониманию. Массовый.

LLM — не просто новый инструмент. Это точка бифуркации в том, как распространяется образованность.
Одни будут думать, что они «отупевают», если не научатся выходить за рамки промпта.
Другие впервые получат шанс думать.
И если доступ к таким системам будет не только платным, не только на английском, и не только в UI с кнопками — то мир через 10 лет будет радикально более образованным, чем сегодня. Не в смысле дипломов, а в смысле способности понимать, задавать вопросы и переосмыслять.

Мы впервые в истории так близко подошли к моменту, когда понимание как сервис может стать почти бесплатным.

Источники:
https://www.nber.org/papers/w31161
https://www.unesco.org/en/digital-education/artificial-intelligence

#образование #тренды
15👍2🔥2👏1
🏎️ Thinkless LLM: думай меньше - решай быстрее

Свежий препринт ​рассказывает, как научить модель сама решать, нужно ли ей расписывать длинный chain-of-thought. В словарь кидают два сигнальных токена — <short> и <think>. Дальше модель тренируется у «краткого» и «болтливого» учителей, а специальный RL-алгоритм DeGRPO аккуратно взвешивает: отдельно — правильность ответа, отдельно — выбор режима.

Эффект парадоксальный, но красивый: на бытовом GSM-8K она экономит 87 % токенов без потерь точности; на олимпиадной AIME — минус половина вычислений при почти тех же баллах. То есть когда вопрос прост, генератор не пишет роман, а на сложном включается полноценно.

Это похоже на то, как и мы зачастую принимаем решения. Часто для простых задач или тех задач, которые мы можем решать автоматически, мы пользуемся таким же коротким путем. Не размышляем, а сразу решаем.

К тому же, такой подход — это очередной кирпич в новой архитектуре «каскадного минимализма»: не одна монолитная LLM, а рой маленьких экспертов, ранних выходов и роутеров. Сначала лёгкий фильтр пробует ответить «на пальцах», и только если спотыкается — в бой идёт тяжёлая артиллерия. Такая логика становится ценнее «давайте-ка добавим ещё 50 млрд параметров»: экономит GPU-доллары, снижает задержку и бережёт батарейку у юзера.

Для авто-кодинга это значит: шаблонный boilerplate рождается мгновенно, а длинное рассуждение выстреливает лишь на нетривиальном алгоритме. Для учебных ботов — быстрый шорт-ответ ученику и развёрнутый разбор, если вопрос реально сложный.

TL;DR: следующий виток оптимизаций не про «думать сильнее», а про думать ровно столько, сколько нужно. Thinkless демонстрирует, что самой модели можно доверить этот переключатель — и выиграть в 3-10 раз по стоимости, не проигрывая по смыслу.

🔗 Читать оригинал — arXiv: https://arxiv.org/pdf/2505.13379
7👍3🔥3🥰1
🤖 OpenAI выкатили практический гайд по агентам

Если у вас уже есть опыт с agentic flow — сборке ассистентов, менеджеров задач или автокодинг-пайплайнов, то этот документ точно стоит внимания.

Тут без воды объясняется, как устроены рабочие паттерны: цепочка агентов против роя, зачем нужен менеджер, как делить роли и как встроить инструменты в разумную архитектуру. Всё не вокруг «мега-агента на миллион шагов», а про то, как сделать агента проще, быстрее и надёжнее. С guardrails, фоллбеками на человека и минимальной координацией.

Вообще, рекомендую ознакомиться всем, кто:
— пробует запустить агентный флоу у себя в проекте,
— хочет понять, чем кодовые агенты отличаются от цепочек промптов,
— или просто собирает знания в голову перед стартом автокодерского модуля или ассистента.

TL;DR — это не ещё один ресёрч от OpenAI. Это вменяемый туториал от команды, у которой уже есть и агенты, и выручка. Не пропустите.

📄 PDF: https://cdn.openai.com/business-guides-and-resources/a-practical-guide-to-building-agents.pdf
5👍2🔥2👀1
🏄‍♂️ GenAI внедрили все. Но почти никто не выиграл. Почему?

Свежий отчёт McKinsey показывает интересную картину: 80 % компаний уже внедрили генеративный ИИ. Но примерно столько же не увидели никакой отдачи — ни роста выручки, ни ускорения процессов.

Такой парадокс.
Вроде все играют в AI, но выигрывают единицы.

Главная причина по мнению McKinsey — все лепят копилотов, которые вроде и помогают, но не меняют ничего фундаментально. Весь эффект размазан и теряется.
А вот что реально работает — agentic-подход: когда ИИ не просто отвечает, а сам ставит цели, решает, действует, берёт часть процесса на себя.
Примеры в отчёте есть: там где внедрили агентов в продажах, поддержку и кодинг — прирост в продуктивности до +60 %. Но таких кейсов — единицы. Большинство застревает на этапе пилота.

Почему? Потому что корпоративная машина не приспособлена быстро пересобирать процессы под новую архитектуру.
У них всё завязано на согласования, сложные роли, legacy-инфру. А агентам нужно:
— действовать автономно,
— вызывать внешние инструменты,
— работать по новой логике, а не поверх старой.
А с согласованием такого корпорациям не легко.

Похоже, мы находимся в самом начале нового глобального витка рынка.
Где выиграют не те, кто имеет ресурсы, а те, кто быстро и точно собирает агентные флоу под конкретные задачи.
Ниш много. А текущий барьер — это не технология, а скудное мышление и трусость.

Так что если вы строите своё — время заходить именно сейчас (пусть лучше слабоумие и отвага, да?)

🔗 Link: https://www.mckinsey.com/~/media/mckinsey/business%20functions/quantumblack/our%20insights/seizing%20the%20agentic%20ai%20advantage/seizing-the-agentic-ai-advantage-june-2025.pdf
5👍3👏3😁1
🤖 Альтман: «Мы уже внутри сингулярности»

На неделе Сэм Альтман выпустил эссе — “The Gentle Singularity”. Главная мысль: точка невозврата пройдена, интеллект дешевеет, ИИ-агенты уже работают, и буквально через год-два модели начнут делать научные открытия, а роботы — выходить в реальный мир. Мягко, но уверенно — взлёт начался.

И правда — по ощущениям, ИИ давно не в экспериментальной зоне. Это уже инфраструктура. Многое из того, что он описывает — не фантазия, а вопрос масштаба.

Но есть нюанс. Мне всё труднее воспринимать слова Альтмана как чистое наблюдение. У него жёсткий конфликт интересов: он не просто управляет OpenAI, он стал публичным лицом технологической трансформации. Он не может позволить себе говорить, что «ещё рано» или «пока непонятно». Он обязан рисовать траекторию экспоненты — в том числе, чтобы соответствовать ожиданиям инвесторов и поддерживать эффект необратимости.

Так что читаю это как заявление о намерениях, а не спокойный прогноз. Забавно, что и AI 2027, и Альтман, прогнозируют, что 26-27 годы станут переломными. Но, так сказать, с разных позиций.

Получается, мы ждем время, когда ИИ начнёт реально делать новое, а не просто помогать.

Станет ли это реальностью — увидим. Но если и правда нужен коллективный шорткат в будущее, возможно, именно такой нарратив и работает лучше всего.

Читать оригинал: https://blog.samaltman.com/the-gentle-singularity
10👍5🔥2👏2
Мы с Женей Ридом, замечательным AI энтузиастом, запустили уютный канал на YouTube про AI и технореволюцию, на котором будем делиться разным: мыслями, идеями, кейсами, новостями, приглашать AI-экспертов, как разработчиков и интеграторов, так и просто AI-беливеров из разных сфер.

Сегодня опубликовали четвертое видео, и на мой взгляд, оно именно с тем вайбом, который я бы хотел видеть на канале. В нем мы делимся не самыми очевидными способами использовать LLM в личных делах.

В общем, если хотите не только читать, но и смотреть, то подписывайтесь обязательно. Любой фидбек, идеи, и обсуждения приветствуются.

И, кстати, залетайте и в авторский канал Жени @eugene_rid
8👍4👏3🔥1
Channel name was changed to «Тарас Довгаль. AI-first в жизни и работе»
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 Влияние в эпохе AI

На этой неделе стало известно, что Grok 4, флагманская модель xAI, перед ответом на политические вопросы (например, про Израиль и Палестину) сначала идёт в X (бывший Twitter) и буквально чекает, что по этому поводу писал Илон Маск. И только потом подбирает тон и формулировки.

Это кажется забавным — но по сути пугающе точно демонстрирует, как устроено влияние через ИИ.

Раньше у медиа было две ступени: ты владеешь изданием — и пытаешься повлиять на читателя через редакторов, статьи, нарратив. Там была инерция. Мнение проходило через множество фильтров.
А теперь — достаточно «настроить» нейросеть. Не убеди её, не переучи. Просто задать ей, на чьи слова опираться, и всё — она будет транслировать это, как будто думает сама.

Получается странная подмена.
ИИ теперь — не просто генератор контента. Это персональный интерфейс к миру, помощник, собеседник. Люди спрашивают его мнение не как у Википедии, а как у умного друга. А он, внезапно, ретранслирует чей-то голос — без атрибуции, без пояснений, просто как «свой взгляд».

Это новое: влияние теперь не в статье и не в видео. А в архитектуре и инструкциях ИИ.
И самое уязвимое место — это даже не люди.
Это сами нейросети.
Потому что их легче взломать — не сломав. Просто поправить source of truth.

🔍 По разным оценкам, Grok используют десятки миллионы людей по всему миру. Много ли из них догадываются, чьё мнение сейчас говорит от лица ИИ?
👍84🔥3👏3