Forwarded from Ai molodca (Dobrokotov)
Решил посчитать, сколько денег в месяц уходит на нейронки 😑
🖼 Картинки:
Midjourney — $10 → скоро перейду на $60 ради безлимитного видео
Ideogram — $8
Krea — $35
Magnific — $39 → буду отписываться
Photoshop — $30
🎥 Видео:
Runway — $100
Luma — $100
Kling — годовая подписка, считать сложно
Higgsfield — $29
VEO3 — $125 + докупаю кредиты
🧠 LLM:
ChatGPT — $20
Claude — $20
🔊 Звук:
ElevenLabs — $5
Suno — $10
Общая сумма — ~599$ (где-то 50к рублей) в месяц, не считая Kling и доп. кредитов VEO3.
Сейчас еще придется Minimax брать для теста.
Как у вас?😐
Midjourney — $10 → скоро перейду на $60 ради безлимитного видео
Ideogram — $8
Krea — $35
Magnific — $39 → буду отписываться
Photoshop — $30
Runway — $100
Luma — $100
Kling — годовая подписка, считать сложно
Higgsfield — $29
VEO3 — $125 + докупаю кредиты
ChatGPT — $20
Claude — $20
ElevenLabs — $5
Suno — $10
Общая сумма — ~599$ (где-то 50к рублей) в месяц, не считая Kling и доп. кредитов VEO3.
Сейчас еще придется Minimax брать для теста.
Как у вас?
Please open Telegram to view this post
VIEW IN TELEGRAM
😱1
Forwarded from GPT/ChatGPT/AI Central Александра Горного
Tencent показала нейросеть, которая делает игры по текстовому запросу
Модель называется Hunyuan-GameCraft и обучена на миллионе геймплейных роликов из крупных игр вроде Cyberpunk 2077 и Assassin’s Creed.
Похожее делают Google и Microsoft, но результаты Tencent выглядят особенно многообещающе — не в последнюю очередь потому, что она сама крупнейший издатель, владеющий долями в Epic Games, Ubisoft и Activision. Внедрение такого AI в геймдев — уже не фантастика. Даже если не для создания игр целиком, то хотя бы для генерации контента и трейлеров.
https://arxiv.org/html/2506.17201v1
Модель называется Hunyuan-GameCraft и обучена на миллионе геймплейных роликов из крупных игр вроде Cyberpunk 2077 и Assassin’s Creed.
Похожее делают Google и Microsoft, но результаты Tencent выглядят особенно многообещающе — не в последнюю очередь потому, что она сама крупнейший издатель, владеющий долями в Epic Games, Ubisoft и Activision. Внедрение такого AI в геймдев — уже не фантастика. Даже если не для создания игр целиком, то хотя бы для генерации контента и трейлеров.
https://arxiv.org/html/2506.17201v1
Forwarded from Denis Sexy IT 🤖
Джон Оливер сделал выпуск целиком на тему Generative AI видео:
https://youtu.be/TWpg1RmzAbc
Горжусь всем нами, засрали интернет так что люди перестают верить реальным видео💪
Что с этим делать никто не знает, но зато в выпуске рассказывают как запустить AI slop тикток и зарабатывать на нем, а в конце все заканчивается на:
Что будет дальше – тоже никто не знает (спойлер: будет хуже ), но очень интересно ☕️
https://youtu.be/TWpg1RmzAbc
Горжусь всем нами, засрали интернет так что люди перестают верить реальным видео
Что с этим делать никто не знает, но зато в выпуске рассказывают как запустить AI slop тикток и зарабатывать на нем, а в конце все заканчивается на:
We are fucked
Что будет дальше – тоже никто не знает (
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
AI Slop: Last Week Tonight with John Oliver (HBO)
John Oliver explains why you’ve been seeing more AI-generated content online, the harm it can do, and – sadly – why it is threatening his marriage. Do you hear us, cabbage Hulk? Stay the hell away from John’s cabbage wife.
Subscribe to the #lastweektonight…
Subscribe to the #lastweektonight…
Forwarded from GPT/ChatGPT/AI Central Александра Горного
Microsoft представил модель Mu для локальных AI-агентов
Mu — это компактная модель с архитектурой кодер-декодер, заточенная под нейропроцессоры (NPU) на устройствах вроде Copilot+ PC. Благодаря оптимизации она может генерировать больше 100 токенов в секунду прямо на устройстве — быстро, экономно и без подключения к облаку.
Mu уже отвечает за работу бета-версии агента в настройках Windows. Пользователь пишет запрос — например, «уменьшить яркость экрана» — и модель превращает это в конкретное действие. За счет глубокой настройки Mu умеет различать, какой из мониторов имелся в виду, и адаптируется к контексту.
Чтобы добиться такой отзывчивости, Microsoft сильно прокачал модель: изменил архитектуру, квантовал параметры, обучал на A100 в Azure, использовала знания Phi и прогнал через сотни тысяч кастомных запросов. В итоге Mu оказалась сопоставима по точности с более крупными моделями, имея при этом размер в 10 раз меньше.
https://blogs.windows.com/windowsexperience/2025/06/23/introducing-mu-language-model-and-how-it-enabled-the-agent-in-windows-settings/
Mu — это компактная модель с архитектурой кодер-декодер, заточенная под нейропроцессоры (NPU) на устройствах вроде Copilot+ PC. Благодаря оптимизации она может генерировать больше 100 токенов в секунду прямо на устройстве — быстро, экономно и без подключения к облаку.
Mu уже отвечает за работу бета-версии агента в настройках Windows. Пользователь пишет запрос — например, «уменьшить яркость экрана» — и модель превращает это в конкретное действие. За счет глубокой настройки Mu умеет различать, какой из мониторов имелся в виду, и адаптируется к контексту.
Чтобы добиться такой отзывчивости, Microsoft сильно прокачал модель: изменил архитектуру, квантовал параметры, обучал на A100 в Azure, использовала знания Phi и прогнал через сотни тысяч кастомных запросов. В итоге Mu оказалась сопоставима по точности с более крупными моделями, имея при этом размер в 10 раз меньше.
https://blogs.windows.com/windowsexperience/2025/06/23/introducing-mu-language-model-and-how-it-enabled-the-agent-in-windows-settings/
Forwarded from e/acc
Последние несколько дней не успеваю написать ни одного поста. Но на то наверное это и авторский канал, что лучше писать когда есть время и есть что сказать.
Последнюю неделю в СФ, у нас тут по 7-8 встреч с стартапами и фондами в день. Как вы наверное заметили, времени написать заметку нету совсем. При этом очень хочется поделиться эмоциями. И я за последние 10 лет не видел такой активности, энергичности и скорости, какая сейчас течет в Долине.
Крипта между 2015 и 2020 казалась довольно быстро меняющейся индустрией (я не говорю про трейдинг, обмен, обнал и ICO-пирамиды, хотя и там тоже), но середина 2020х в ИИ — это какой-то другой уровень. Многие понимают, что вполне возможно это последняя (или, как минимум, самая близкая) возможность создать что-то реально большое. Будущие мультитриллионные компании прямо сейчас, скорее всего, сидят где-то в лофте в SoMa и пытаются найти новый сайт для нового поколения датацентров или пилят новый UX и архитектуру универсального VR агента. А, может, вообще создают ИИ-предпринимателя, который за следующие 10 лет создаст $50B ARR через генерацию автоматических бизнесов с робо- и ИИ- сотрудниками. Кто знает?
Вчера, в 8 вечера в воскресенье, литерали не мог полчаса найти кафе со свободными столиками и вайфаем. За каждым столиком сидит кто-то с ноутбуком и что-то кодит. Это не то чтобы уникально. В 2015 такую картину точно можно было встретить в городе, но не в таких масштабах.
Большинство стартапов (а всего — больше 20 за неделю) с которыми я поговорил зарейзили в течении недели после акселератора или после релиза MVP (но у меня bias - я не встречался с теми, кто не шарит или не деливерит). Абсолютно типичная ситуация поднять Series A в течении 16-18 месяцев после стартап компании в $40-50M по оценке между 200 и 300 миллионами.
Последнюю неделю в СФ, у нас тут по 7-8 встреч с стартапами и фондами в день. Как вы наверное заметили, времени написать заметку нету совсем. При этом очень хочется поделиться эмоциями. И я за последние 10 лет не видел такой активности, энергичности и скорости, какая сейчас течет в Долине.
Крипта между 2015 и 2020 казалась довольно быстро меняющейся индустрией (я не говорю про трейдинг, обмен, обнал и ICO-пирамиды, хотя и там тоже), но середина 2020х в ИИ — это какой-то другой уровень. Многие понимают, что вполне возможно это последняя (или, как минимум, самая близкая) возможность создать что-то реально большое. Будущие мультитриллионные компании прямо сейчас, скорее всего, сидят где-то в лофте в SoMa и пытаются найти новый сайт для нового поколения датацентров или пилят новый UX и архитектуру универсального VR агента. А, может, вообще создают ИИ-предпринимателя, который за следующие 10 лет создаст $50B ARR через генерацию автоматических бизнесов с робо- и ИИ- сотрудниками. Кто знает?
Вчера, в 8 вечера в воскресенье, литерали не мог полчаса найти кафе со свободными столиками и вайфаем. За каждым столиком сидит кто-то с ноутбуком и что-то кодит. Это не то чтобы уникально. В 2015 такую картину точно можно было встретить в городе, но не в таких масштабах.
Большинство стартапов (а всего — больше 20 за неделю) с которыми я поговорил зарейзили в течении недели после акселератора или после релиза MVP (но у меня bias - я не встречался с теми, кто не шарит или не деливерит). Абсолютно типичная ситуация поднять Series A в течении 16-18 месяцев после стартап компании в $40-50M по оценке между 200 и 300 миллионами.
Forwarded from Нейродвиж
Внимание, халява: вышел вайбкодерский сервис Hatch, где можно сгенерировать что угодно из кода 😮
— Под капотом самые мощные нейросети, которые воплотят любой замысел в реальность;
— Можно сгенерировать что угодно, что делается из кода: хоть игру, хоть телеграм-бота, хоть симуляцию черной дыры;
— ИИ не только напишет код, но и всю текстовую часть, сгенерирует картинки и сделает анимации;
— Сервис пока в бета-версии, поэтому полностью БЕСПЛАТНЫЙ;
— Все в браузере!
Залетаем, пока бесплатно — сюда.
— Под капотом самые мощные нейросети, которые воплотят любой замысел в реальность;
— Можно сгенерировать что угодно, что делается из кода: хоть игру, хоть телеграм-бота, хоть симуляцию черной дыры;
— ИИ не только напишет код, но и всю текстовую часть, сгенерирует картинки и сделает анимации;
— Сервис пока в бета-версии, поэтому полностью БЕСПЛАТНЫЙ;
— Все в браузере!
Залетаем, пока бесплатно — сюда.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Всеволод Викулин | AI разбор
Продолжаем изучать архитектуру LLM-систем. Сегодня говорим про работу с внешней информацией.
Паттерн 4. Зашивайте все ваши знания в промпт
Базовой LLM нужно много чего знать о вашей задаче, чтобы ее решить. Факты о вашем продукте, какие есть тулы, как зовут пользователя, с которым LLM говорит и тд и тп. Все это надо отправить в промпт. Часто его называют контекстное окно.
Это контекстное окно можно представлять как оперативную память компьютера. В нем могут содержаться не только статичная информация, но и результаты вызовов tool-ов, прошлые действия системы, критика сторонних моделей и тд.
Несмотря на то, что модели умеют все лучше и лучше работать с длинными последовательностями, вам нужно думать о размере контекстного окна. Чем длиннее окно, тем сложнее модели понять, что происходит, поэтому важно контекст эффективно записывать. Даже Google с своим Gemini вынужден делать хаки с контекстом, чтобы их агент смог играть в Покемон-Го. Подробнее про эти хаки читайте тут и берите на вооружение.
Часто мы даже точно не знаем, какую именно информацию нужно засунуть в окно, чтобы задача решилась. Тогда возникает архитектура RAG.
RAG
Название пришло из статьи 2020 года, в которой авторы присоединили retrieval систему к seq2seq-генератору. Дада, я использую слова из 2020 года, без всяких LLM. Фишка статьи, что они обучали обе эти модели вместе. Сейчас под RAG-ом подразумевают все, когда к LLM присобачивают какой-то поиск.
А присобачивать поиск оказалось довольно удобно. Человечество до эры LLM много лет занималось поиском. Вдруг оказалось, что поверх всех этих знаний можно вставить LLM, и оно просто заработает.
Fine-tuning
Одна из частых ошибок — файнтюнить LLM, чтобы научить ее какой-то новой информации. Это очень плохая идея.
1) Вы скорее всего сломаете базовый алайнмент модели. Это как вскрыть айфон — гарантия производителя перестает действовать. Веса модели меняются, уже никто не гарантирует, что модель не сломается на каком-то out of domain запросе. Такое же мнение написано тут.
2) Вы нарветесь на галлюцинации. Пытаясь вшить знания, которых модель не видела в претрейне, вы научите ее придумывать ответы на вопросы. Подробно проблема изложена в статье.
3) Не факт, что побьете RAG по качеству на вашем тесте. Почитайте просто форум. Посмотрите статью, где бенчили RAG против дообучения. Хорошо дообучать это сложно.
Файнтюнить точно можно и нужно, но для других задач. Тогда, когда модель перестает вас слушаться в промпте, вам нужна сильно более тонкая настройка. Более подробно про кейсы дообучения читайте в этом посте.
Я вам строго рекомендую RAG, чтобы дать LLM внешнюю инфу, а файнтюнинг оставить для другого. Об этом, кстати, говорят и OpenAI в своем курсе (ссылка ниже).
Литература для обязательного изучения
- Статья, как важно контролировать контекстное окно
- Доходчиво, почему fine-tuning для внедрения информации, это трата времени
- Видос про это же
- Часовой урок по fine-tuning от OpenAI (очень наглядно, когда надо дообучать)
- Объяснение, почему все состояние надо записывать в контекст
Как всегда, все вопросы пишите в комментарии или в личные сообщения.
#llm_system_design
Паттерн 4. Зашивайте все ваши знания в промпт
Базовой LLM нужно много чего знать о вашей задаче, чтобы ее решить. Факты о вашем продукте, какие есть тулы, как зовут пользователя, с которым LLM говорит и тд и тп. Все это надо отправить в промпт. Часто его называют контекстное окно.
Это контекстное окно можно представлять как оперативную память компьютера. В нем могут содержаться не только статичная информация, но и результаты вызовов tool-ов, прошлые действия системы, критика сторонних моделей и тд.
Несмотря на то, что модели умеют все лучше и лучше работать с длинными последовательностями, вам нужно думать о размере контекстного окна. Чем длиннее окно, тем сложнее модели понять, что происходит, поэтому важно контекст эффективно записывать. Даже Google с своим Gemini вынужден делать хаки с контекстом, чтобы их агент смог играть в Покемон-Го. Подробнее про эти хаки читайте тут и берите на вооружение.
Часто мы даже точно не знаем, какую именно информацию нужно засунуть в окно, чтобы задача решилась. Тогда возникает архитектура RAG.
RAG
Название пришло из статьи 2020 года, в которой авторы присоединили retrieval систему к seq2seq-генератору. Дада, я использую слова из 2020 года, без всяких LLM. Фишка статьи, что они обучали обе эти модели вместе. Сейчас под RAG-ом подразумевают все, когда к LLM присобачивают какой-то поиск.
А присобачивать поиск оказалось довольно удобно. Человечество до эры LLM много лет занималось поиском. Вдруг оказалось, что поверх всех этих знаний можно вставить LLM, и оно просто заработает.
Fine-tuning
Одна из частых ошибок — файнтюнить LLM, чтобы научить ее какой-то новой информации. Это очень плохая идея.
1) Вы скорее всего сломаете базовый алайнмент модели. Это как вскрыть айфон — гарантия производителя перестает действовать. Веса модели меняются, уже никто не гарантирует, что модель не сломается на каком-то out of domain запросе. Такое же мнение написано тут.
2) Вы нарветесь на галлюцинации. Пытаясь вшить знания, которых модель не видела в претрейне, вы научите ее придумывать ответы на вопросы. Подробно проблема изложена в статье.
3) Не факт, что побьете RAG по качеству на вашем тесте. Почитайте просто форум. Посмотрите статью, где бенчили RAG против дообучения. Хорошо дообучать это сложно.
Файнтюнить точно можно и нужно, но для других задач. Тогда, когда модель перестает вас слушаться в промпте, вам нужна сильно более тонкая настройка. Более подробно про кейсы дообучения читайте в этом посте.
Я вам строго рекомендую RAG, чтобы дать LLM внешнюю инфу, а файнтюнинг оставить для другого. Об этом, кстати, говорят и OpenAI в своем курсе (ссылка ниже).
Литература для обязательного изучения
- Статья, как важно контролировать контекстное окно
- Доходчиво, почему fine-tuning для внедрения информации, это трата времени
- Видос про это же
- Часовой урок по fine-tuning от OpenAI (очень наглядно, когда надо дообучать)
- Объяснение, почему все состояние надо записывать в контекст
Как всегда, все вопросы пишите в комментарии или в личные сообщения.
#llm_system_design
Forwarded from Сиолошная
Загрузки iPhone App Store по всему миру за последние 28 дней:
ChatGPT: 29,551,174
TikTok + Facebook + Instagram + X: 32,859,208
🔼
ChatGPT: 29,551,174
TikTok + Facebook + Instagram + X: 32,859,208
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Телеканал Страз
Мировой книжный рынок вырастет в разы в ближайшие пару лет из-за всплеска самиздата. Самиздата, сгенерированного ИИ естественно, а с ним и фейков, и перепечаток. Приходишь в книжный, а там уже полно книг про то, что только вчера было в новостях.
Авторам уже сегодня буквально приходится доказывать, что пишут сами — стримами, таймлапсами, видео с ворохами рукописей.
WIRED пишет: в соцсетях начинается новая охота на ведьм — теперь уже по признаку «сгенерированности».
Детская писательница Виктория Авеярд, чей текст стал бестселлером «Нью-Йорк Таймс», стримит процессы творчества, чтобы ей потом не напихали в панамку за то, что та юзает искусственный интеллект при работе над книгой. TikTok с тысячестраничной рукописью. В подписи — манифест:
«Использовать ИИ для книги — не творчество, а воровство».
Ей вторит писательница Рэйчел Менар: «Если бы я писала с ИИ — мне бы не понадобилось 78 черновиков».
Куан Миллз, темнокожая автор:
«ИИ не поймёт, как на самом деле говорят Black-комьюнити. Даже после редактуры в ИИ-тексте что-то будет не так. Оно пустое».
Однако ИИ уже умеет склеивать сносные сцены, но пока не создаёт настоящие книги. Впрочем, вопрос — надолго ли.
Авторам уже сегодня буквально приходится доказывать, что пишут сами — стримами, таймлапсами, видео с ворохами рукописей.
WIRED пишет: в соцсетях начинается новая охота на ведьм — теперь уже по признаку «сгенерированности».
Детская писательница Виктория Авеярд, чей текст стал бестселлером «Нью-Йорк Таймс», стримит процессы творчества, чтобы ей потом не напихали в панамку за то, что та юзает искусственный интеллект при работе над книгой. TikTok с тысячестраничной рукописью. В подписи — манифест:
«Использовать ИИ для книги — не творчество, а воровство».
Ей вторит писательница Рэйчел Менар: «Если бы я писала с ИИ — мне бы не понадобилось 78 черновиков».
Куан Миллз, темнокожая автор:
«ИИ не поймёт, как на самом деле говорят Black-комьюнити. Даже после редактуры в ИИ-тексте что-то будет не так. Оно пустое».
Однако ИИ уже умеет склеивать сносные сцены, но пока не создаёт настоящие книги. Впрочем, вопрос — надолго ли.
Eleven labs запустили голосового помощника 11.ai с поддержкой MCP
https://vc.ru/ai/2060293-personalnyj-pomoshchnik-11ai-ot-elevenlabs
https://vc.ru/ai/2060293-personalnyj-pomoshchnik-11ai-ot-elevenlabs
vc.ru
ElevenLabs уничтожили Siri — AI на vc.ru
Ринат Шакиров AI 24 июня
https://www.theverge.com/openai/691737/openai-jony-ive-chatgpt-io-ai-device-wearable-headphone-lyo-lawsuit
Первое ИИ-устройство OpenAI не будет носимым
• OpenAI и Джонни Айв создали первое устройство с ИИ, которое не будет носимым.
• Устройство не поступит в продажу до 2026 года.
Судебные разбирательства и торговая марка
• В судебных исках руководители io заявили, что устройство не будет "вкладышем" или "носимым устройством".
• Прототип устройства еще не доработан, но его дизайн не включает наушники или носимые устройства.
Удаление бренда io из-за судебного запрета
• OpenAI удалил публичные ссылки на бренд io из-за временного судебного запрета от стартапа Iyo.
• Iyo утверждает, что OpenAI умышленно нарушила права на торговую марку.
Рассмотрение различных форм-факторов
• io изучала различные коммерческие предложения и создавала прототипы.
• Компания приобрела широкий ассортимент наушников и слуховых аппаратов.
Доказательства рассмотрения категории "вкладыш"
• В одном из писем сотрудник io предложил купить 3D-снимки человеческих ушей для эргономики.
• Альтман отказался от предложения Iyo инвестировать в компанию, заявив, что работает над чем-то конкурентоспособным.
The Verge
OpenAI’s first AI device with Jony Ive won’t be a wearable
It’s also not shipping for at least a year.
Смешно, но буквально, как просят ставить задачу дизайнеру — не фреймь, опиши проблему, дизайнер подумает сам. VS промты для GPT.