ИИволюция 👾
9.97K subscribers
714 photos
324 videos
1 file
687 links
Авторский канал Сергея Пахандрина про AI, нейросети, вайб-разработку, ChatGPT (и другие LLM). Рассказываю о своём опыте и экспериментах с AI.

По всем вопросам: @pakhandrin
Download Telegram
Еще одно подтверждение слухов о грядущих новых моделях.

GPT-4.1 еще и разделят на 4.1, 4.1-nano и 4.1-mini.

Нас точно в будущем ждёт не AGI, а AGI-7.1-nano-mega-drive-II

ААААААААААААААААААА 😆

ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣39🔥6👍2👏2
Учителя начали добавлять в тестах в вопросы скрытую (текст белым цветом) промпт-инъекцию, чтобы при копипасте ученик не заметил, отправил в «чатик» целиком весь текст и конечно же получил неправильный ответ от AI, не думая выбрал этот ответ в тесте.

Думаю, что на части учеников точно будет работать какое-то время этот трюк.

ИИволюция
🤣52👍12
Неделя будет жаркой! Погода, надеюсь, тоже не подкачает!

Сэм Альтман упомянул в Твиттере, что готовят много классных “штук” к релизу на этой неделе.

О новых моделях мы уже знаем, но вдруг покажут что-то еще интересное!

ИИволюция
🔥185
Ну вот и оно! 10% людей на планете используют ChatGPT.

800 000 000 пользователей!

Ключевой milestone для OpenAI. Красиво 😍

ИИволюция
🔥34👍2
OpenAI захлопывает двери запускает верификацию организаций для доступа к продвинутым моделям в API (видимо, чтобы китайские компании не пользовались)

Теперь, чтобы использовать новые топовые модели OpenAI через API, нужно пройти верификацию организации. Это займёт всего пару минут (так заявляют) — потребуется только удостоверение личности (ID), выданное в одной из поддерживаемых стран. Поддерживают свыше 200 стран для верификации.

Что даёт верификация:
— Доступ к новым и продвинутым моделям.
— Новые фичи и возможности.

Что важно знать:
— На один документ нельзя верифицировать более 1 организации чаще чем в 90 дней.
— Не все организации пока могут пройти верификацию (нужно проверить в личном кабинете, есть ли кнопка Verify).
— Без верификации можно продолжать использовать текущие модели, но доступ к новым может быть ограничен.

Проверить статус и пройти верификацию можно в настройках организации на platform.openai.com

Больше деталей: в блоге openai

ИИволюция
👍10😢1🗿1
Media is too big
VIEW IN TELEGRAM
Ян Лекун:

“Меня больше не интересуют LLM’ки. Это уже история про продуктовых ребят в индустрии — выжимают максимум на краях: больше данных, больше вычислений, синтетика. А настоящие вопросы — совсем в другом.”

И вот, что по его мнению, действительно важно:

— Как научить ИИ понимать физический мир
— Как реализовать постоянную память (не то, что сейчас у LLM)
— Как заставить машины по-настоящему рассуждать и планировать

Он считает, что подход к reasoning у LLM сейчас — слишком примитивный.

Реально интересные вещи пока пылятся в академических статьях, о которых вспомнят только через пять лет.

Пока индустрия гонится за масштабом и хайпом, он — за качественным сдвигом.

ИИволюция
👍36🔥5
Сегодня будет жара!

Судя по намёкам, недавно объявившаяся (в начале апреля) модель Quasar Alpha на Openrouter увидит свет? Между прочим, модель с 1 млн контекстом!

ИИволюция
🔥11
Трансляция OpenAI вот-вот начнется.

Судя по обложке, GPT-4.1 в API (но видимо для тех, кто пройдет верификацию 😂).

Ссылка на трансляцию https://www.youtube.com/live/kA-P9ood-cE?si=fqMAP-qw1LZQO3HT

ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥12
Media is too big
VIEW IN TELEGRAM
OpenAI представила GPT-4.1

– 3 новые модели: GPT-4.1, GPT-4.1 Mini, GPT-4.1 Nano.
– Контекст расширен до 1 млн токенов (раньше было 128K).
– Удвоили output с 16К до 32К (размер ответа).
– Знания актуальны на 1 июля 2024.

Следование инструкциям: Модель стала лучше понимать и выполнять сложные инструкции, снижая необходимость в повторных уточнениях. Под это даже выпустили отдельный гайд по написания правильных промптов.

Улучшенная работа с кодом: GPT-4.1 показывает 54,6% на бенчмарке SWE-bench, что на 21% выше GPT-4o и на 27% выше GPT-4.5. Это тест, где модель должна как настоящий разработчик: понять задачу, разобраться в баге и выдать рабочий код.

Модели GPT-4.1 доступны только через API и не планируются для интеграции в ChatGPT. Явно будет куча вопросов: “Мы же платим подписку, а кто-то даже Pro за $200 и даже нам не завезут?”.

Цены (4.1 дешевле на 25% чем 4o):

– GPT-4.1: $2.00 за 1M токенов (ввод), $8.00 за 1M токенов (вывод).
– GPT-4.1 Mini: $0.40 за 1M токенов (ввод), $1.60 за 1M токенов (вывод).
– GPT-4.1 Nano: $0.10 за 1M токенов (ввод), $0.40 за 1M токенов (вывод).

OpenAI также объявила о прекращении поддержки GPT-4.5 в API с 14 июля 2025 года (дорого, богато, не выгодно).

Новые модели уже появились в API, и даже доступны бесплатно для теста в Widsurf и Cursor (вайб-разработчики ликуют 👨‍💻).

Кстати, в API доступно несколько альясов (названий) для каждой модели. Для полноценной 4.1 доступны: gpt-4.1, gpt-4.1-2025-04-14, gpt-4.1-long-context. И у меня вопрос к альясу gpt-4.1-long-context – длинный контекст доступен не во всех альясах модели в API?

GPT-5… всё ещё в пути. Ждём! А нейминг, конечно, получился весёлый: сначала была модель 4.5, теперь 4.1. Кажется, они делают это специально, чтобы мы больше обсуждали релизы OpenAI. Других объяснений у меня этому феномену нет 🎩

Ждем релиза o4-mini, o4-mini-high и o3 (вероятно, тоже на этой неделе), информация о них тоже уже утекала в сеть.

Новость в блоге OpenAI: https://openai.com/index/gpt-4-1/

ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
👍14🔥52
Судя по всему, GPT-5 увидим летом, видимо в июле-августе.

А пока развлекаемся с текущим зоопарком моделей 😬

ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
👍15🔥5🤣3🗿2
В Grok завезли Workspaces

Это своего рода Project в ChatGPT: позволяют объединять чаты одной темы в группу, составлять кастомные инструкции для такой группы, подгружать базу знаний в виде файлов.

В общем, все примерно делают одни и те же фичи и пока прорывных инноваций не видать (упёрлись в стену? Клепаем просто фичи!)

ИИволюция
👍18🔥4
В Google DeepMind открылась вакансия научного сотрудника для исследования пост-AGI эры.

Приведу перевод основных обязанностей:
В Google DeepMind мы создали уникальную культуру и рабочую среду, в которой может процветать амбициозное долгосрочное исследование. Мы ищем высокомотивированного научного сотрудника (Research Scientist), который присоединится к нашей команде и внесёт вклад в передовые исследования, сосредоточенные на том, что последует за достижением искусственного общего интеллекта (AGI). Среди ключевых вопросов — траектория развития от AGI к искусственному сверхинтеллекту (ASI), машинное сознание, а также влияние AGI на основы человеческого общества.

Роль
Мы ищем научного сотрудника, который будет исследовать глубокие последствия наступающей эры после AGI. Основные обязанности включают формулирование ключевых исследовательских вопросов в этих областях, сотрудничество с междисциплинарными командами для разработки инновационных решений и проведение экспериментов в рамках нашей миссии.

Основные обязанности
Руководить исследовательскими проектами, изучающими влияние AGI на такие области, как экономика, право, здравоохранение и благополучие, переход от AGI к ASI, машинное сознание и образование.

Разрабатывать и проводить углублённые исследования для анализа влияния AGI на общество в ключевых доменах.

Участвовать в совместной работе с межфункциональными командами, включая внешних партнёров, для продвижения исследований.

Глубоко погружаться в отдельные направления с целью улучшения понимания последствий появления AGI и создания карты потенциальных сценариев.

Создавать и совершенствовать инфраструктуру для измерений и оценочные фреймворки (evaluation frameworks) для систематической оценки воздействия ИИ на общество.


Вот это я понимаю горизонт планирования! Подаваться на позицию AGI эксперта тут.

Есть у меня на канале такие спецы? 😎

ИИволюция
🔥15👍81
Нажми на кнопку – получишь результат. И твоя мечта осуществится!

ИИволюция
🤣471
OpenAI, видимо, маловато просто делать нейросети — теперь ещё и соцсеть пилят.

Внутри ChatGPT уже тестируют ленту, где можно делиться сгенерёнными картинками.

Проект пока на ранней стадии, но Сэм Альтман лично показывает прототип знакомым и собирает фидбэк. То ли отдельное приложение будет, то ли встроят прямо в ChatGPT — пока непонятно.

Если запустят, у OpenAI появится свой поток пользовательского контента — как у X и Фб. Плюс ещё один способ удерживать внимание: генерируешь картинку → сразу постишь → ждёшь реакции.

ИИ сам всё придумает, нарисует и лайки соберёт. Осталось только не забыть включить уведомления.

🙂

ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
19🔥5👍2🗿2💊1
This media is not supported in your browser
VIEW IN TELEGRAM
Ну и главное на сегодня!

В ChatGPT появился раздел Library со всеми вашими сгенерированными картинками.

Давно ждал! Каеф!

ИИволюция
23🔥9🐳2🤣1🦄1
Media is too big
VIEW IN TELEGRAM
Воооу, вот это мега крутой эксперимент!

Исследователи поместили 1000 AI агентов на сервер Minecraft и те создали собственную цивилизацию с правительством, культурой и экономикой.

А теперь представьте что будет, когда эти AI агенты будут “жить” автономно в нашем реальном мире и как они будут влиять на жизнь людей!

ИИволюция
🔥28🤣5👾3👍21
Forwarded from Data Secrets
В LinkedIn найдено еще одно подтверждение того, что все пути в IT ведут на ферму

Классический роадмап ML-щика
🤣38🐳7🔥1
Сегодня покажут полноценную o3 и o4-mini.

Смотреть трансляцию: тут

ИИволюция
🦄8👍4👾1
This media is not supported in your browser
VIEW IN TELEGRAM
OpenAI представила новые модели o3 и o4-mini!

Сегодня вышли o3 и o4-mini — самые умные модели OpenAI на данный момент. Их главное отличие: они обучены агентно использовать ВСЕ инструменты ChatGPT — веб-поиск, код на Python, работу с файлами и графикой, создание изображений и даже мультимодальное мышление через картинки. Теперь модель сама решает, какой инструмент ей нужен для решения задачи, и делает это за считанные секунды.

Что умеет o3?

– Новый лидер в кодинге, математике, науке и визуальных задачах.
– Установил рекорды на бенчмарках Codeforces, SWE-bench, MMMU без специальных костылей.
– Модель анализирует изображения, графики и диаграммы лучше всех предшественников.
– Делает на 20% меньше крупных ошибок, чем o1, особенно в сложных реальных задачах (программирование, консалтинг, креатив).
– При этом стала куда разговорчивее и естественнее в диалогах — ощущение, будто общаешься с реальным человеком.

Что умеет o4-mini?

– Компактная, быстрая и дешёвая альтернатива для сложных задач.
– Рвёт все рекорды на AIME 2024/2025 по математике.
– Идеальна для массовых запросов: высокая пропускная способность + разумная стоимость.
– И да, она доступна даже бесплатным пользователям ChatGPT!

Тесты и бенчмарки:

– o3 и o4-mini обошли даже топовые версии Gemini 2.5 Pro Experimental.
– На задачах типа GPQA (PhD-уровень) и CharXiv (научные графики) — огромный прирост точности.
– Особенно впечатляет мультиформатная работа: модели понимают фото с доски, чертежи, даже если они размыты или плохо сняты. И могут на лету их обрабатывать и исправлять. 🖼️

Цены в API:

– o3 — $10/$40 за миллион токенов (на треть дешевле o1).
– o4-mini — $1.1/$4.4 за миллион (заменит собой o3-mini).

o1 и o3-mini скоро уберут из выбора — они полностью уступили новым моделям в эффективности и цене.

Модели уже доступны в ChatGPT для Plus, Pro и Team пользователей. Для Enterprise и Edu — через неделю.

В бесплатной версии можно будет попробовать o4-mini через режим «Think».

В ближайшие недели обещают выпустить ещё более продвинутую версию — o3-pro с поддержкой всех инструментов.

И новости из зоопарка: пообещали позже в этом году навести порядок в зоопарке моделей и объединить GPT и o-модели в одно, более мощное семейство моделей. GPT-5?

Официальная новость: в блоге OpenAI

ИИволюция
👍30🔥75🤣1
Не без ложки дёгтя для OpenAI в свежем тесте Aider polyglot coding benchmark:

– o3 дал 79,6% правильных ответов — выше, чем Gemini 2.5 Pro (72,9%), но стоит в 17 раз дороже — $111 против $6.32.

– o4-mini набрал 72%, то есть чуть хуже Gemini 2.5 Pro, и при этом оказался в 3 раза дороже — $19.64 против $6.32.

Выводы: по балансу цена/качество Gemini 2.5 Pro по-прежнему выглядит сильнее и интереснее для разработчиков, несмотря на крутость новых моделей OpenAI.

При этом Google вроде как готовит новую модель заточенную на разработку - Night Whisper и думаю, вполне могут прыгнуть выше по качеству сохранив при этом доступные цены.

ИИволюция
👍18💊4