Пупырка AI
119 subscribers
739 photos
384 videos
1 file
719 links
AI, дизайн, продукт и слухи. Канал репостов, цитат и жвачки. Основной канал — @logicIntermission
Download Telegram
Forwarded from Ai molodca (Dobrokotov)
Решил посчитать, сколько денег в месяц уходит на нейронки 😑

🖼 Картинки:

Midjourney — $10 → скоро перейду на $60 ради безлимитного видео
Ideogram — $8
Krea — $35
Magnific — $39 → буду отписываться
Photoshop — $30

🎥 Видео:

Runway — $100
Luma — $100
Kling — годовая подписка, считать сложно
Higgsfield — $29
VEO3 — $125 + докупаю кредиты

🧠 LLM:

ChatGPT — $20
Claude — $20

🔊 Звук:

ElevenLabs — $5
Suno — $10

Общая сумма~599$ (где-то 50к рублей) в месяц, не считая Kling и доп. кредитов VEO3.
Сейчас еще придется Minimax брать для теста.
Как у вас? 😐
Please open Telegram to view this post
VIEW IN TELEGRAM
😱1
Tencent показала нейросеть, которая делает игры по текстовому запросу

Модель называется Hunyuan-GameCraft и обучена на миллионе геймплейных роликов из крупных игр вроде Cyberpunk 2077 и Assassin’s Creed.

Похожее делают Google и Microsoft, но результаты Tencent выглядят особенно многообещающе — не в последнюю очередь потому, что она сама крупнейший издатель, владеющий долями в Epic Games, Ubisoft и Activision. Внедрение такого AI в геймдев — уже не фантастика. Даже если не для создания игр целиком, то хотя бы для генерации контента и трейлеров.

https://arxiv.org/html/2506.17201v1
Forwarded from Denis Sexy IT 🤖
Джон Оливер сделал выпуск целиком на тему Generative AI видео:
https://youtu.be/TWpg1RmzAbc

Горжусь всем нами, засрали интернет так что люди перестают верить реальным видео 💪

Что с этим делать никто не знает, но зато в выпуске рассказывают как запустить AI slop тикток и зарабатывать на нем, а в конце все заканчивается на:
We are fucked


Что будет дальше – тоже никто не знает (спойлер: будет хуже), но очень интересно ☕️
Please open Telegram to view this post
VIEW IN TELEGRAM
Microsoft представил модель Mu для локальных AI-агентов

Mu — это компактная модель с архитектурой кодер-декодер, заточенная под нейропроцессоры (NPU) на устройствах вроде Copilot+ PC. Благодаря оптимизации она может генерировать больше 100 токенов в секунду прямо на устройстве — быстро, экономно и без подключения к облаку.

Mu уже отвечает за работу бета-версии агента в настройках Windows. Пользователь пишет запрос — например, «уменьшить яркость экрана» — и модель превращает это в конкретное действие. За счет глубокой настройки Mu умеет различать, какой из мониторов имелся в виду, и адаптируется к контексту.

Чтобы добиться такой отзывчивости, Microsoft сильно прокачал модель: изменил архитектуру, квантовал параметры, обучал на A100 в Azure, использовала знания Phi и прогнал через сотни тысяч кастомных запросов. В итоге Mu оказалась сопоставима по точности с более крупными моделями, имея при этом размер в 10 раз меньше.

https://blogs.windows.com/windowsexperience/2025/06/23/introducing-mu-language-model-and-how-it-enabled-the-agent-in-windows-settings/
ИИ-лихорадка:
Forwarded from e/acc
Последние несколько дней не успеваю написать ни одного поста. Но на то наверное это и авторский канал, что лучше писать когда есть время и есть что сказать.

Последнюю неделю в СФ, у нас тут по 7-8 встреч с стартапами и фондами в день. Как вы наверное заметили, времени написать заметку нету совсем. При этом очень хочется поделиться эмоциями. И я за последние 10 лет не видел такой активности, энергичности и скорости, какая сейчас течет в Долине.

Крипта между 2015 и 2020 казалась довольно быстро меняющейся индустрией (я не говорю про трейдинг, обмен, обнал и ICO-пирамиды, хотя и там тоже), но середина 2020х в ИИ — это какой-то другой уровень. Многие понимают, что вполне возможно это последняя (или, как минимум, самая близкая) возможность создать что-то реально большое. Будущие мультитриллионные компании прямо сейчас, скорее всего, сидят где-то в лофте в SoMa и пытаются найти новый сайт для нового поколения датацентров или пилят новый UX и архитектуру универсального VR агента. А, может, вообще создают ИИ-предпринимателя, который за следующие 10 лет создаст $50B ARR через генерацию автоматических бизнесов с робо- и ИИ- сотрудниками. Кто знает?

Вчера, в 8 вечера в воскресенье, литерали не мог полчаса найти кафе со свободными столиками и вайфаем. За каждым столиком сидит кто-то с ноутбуком и что-то кодит. Это не то чтобы уникально. В 2015 такую картину точно можно было встретить в городе, но не в таких масштабах.

Большинство стартапов (а всего — больше 20 за неделю) с которыми я поговорил зарейзили в течении недели после акселератора или после релиза MVP (но у меня bias - я не встречался с теми, кто не шарит или не деливерит). Абсолютно типичная ситуация поднять Series A в течении 16-18 месяцев после стартап компании в $40-50M по оценке между 200 и 300 миллионами.
Forwarded from Нейродвиж
Внимание, халява: вышел вайбкодерский сервис Hatch, где можно сгенерировать что угодно из кода 😮

— Под капотом самые мощные нейросети, которые воплотят любой замысел в реальность;
— Можно сгенерировать что угодно, что делается из кода: хоть игру, хоть телеграм-бота, хоть симуляцию черной дыры;
— ИИ не только напишет код, но и всю текстовую часть, сгенерирует картинки и сделает анимации;
— Сервис пока в бета-версии, поэтому полностью БЕСПЛАТНЫЙ;
— Все в браузере!

Залетаем, пока бесплатно — сюда.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Продолжаем изучать архитектуру LLM-систем. Сегодня говорим про работу с внешней информацией.

Паттерн 4. Зашивайте все ваши знания в промпт

Базовой LLM нужно много чего знать о вашей задаче, чтобы ее решить. Факты о вашем продукте, какие есть тулы, как зовут пользователя, с которым LLM говорит и тд и тп. Все это надо отправить в промпт. Часто его называют контекстное окно.

Это контекстное окно можно представлять как оперативную память компьютера. В нем могут содержаться не только статичная информация, но и результаты вызовов tool-ов, прошлые действия системы, критика сторонних моделей и тд.

Несмотря на то, что модели умеют все лучше и лучше работать с длинными последовательностями, вам нужно думать о размере контекстного окна. Чем длиннее окно, тем сложнее модели понять, что происходит, поэтому важно контекст эффективно записывать. Даже Google с своим Gemini вынужден делать хаки с контекстом, чтобы их агент смог играть в Покемон-Го. Подробнее про эти хаки читайте тут и берите на вооружение.

Часто мы даже точно не знаем, какую именно информацию нужно засунуть в окно, чтобы задача решилась. Тогда возникает архитектура RAG.

RAG

Название пришло из статьи 2020 года, в которой авторы присоединили retrieval систему к seq2seq-генератору. Дада, я использую слова из 2020 года, без всяких LLM. Фишка статьи, что они обучали обе эти модели вместе. Сейчас под RAG-ом подразумевают все, когда к LLM присобачивают какой-то поиск.

А присобачивать поиск оказалось довольно удобно. Человечество до эры LLM много лет занималось поиском. Вдруг оказалось, что поверх всех этих знаний можно вставить LLM, и оно просто заработает.

Fine-tuning

Одна из частых ошибок — файнтюнить LLM, чтобы научить ее какой-то новой информации. Это очень плохая идея.

1) Вы скорее всего сломаете базовый алайнмент модели. Это как вскрыть айфон — гарантия производителя перестает действовать. Веса модели меняются, уже никто не гарантирует, что модель не сломается на каком-то out of domain запросе. Такое же мнение написано тут.

2) Вы нарветесь на галлюцинации. Пытаясь вшить знания, которых модель не видела в претрейне, вы научите ее придумывать ответы на вопросы. Подробно проблема изложена в статье.

3) Не факт, что побьете RAG по качеству на вашем тесте. Почитайте просто форум. Посмотрите статью, где бенчили RAG против дообучения. Хорошо дообучать это сложно.

Файнтюнить точно можно и нужно, но для других задач. Тогда, когда модель перестает вас слушаться в промпте, вам нужна сильно более тонкая настройка. Более подробно про кейсы дообучения читайте в этом посте.

Я вам строго рекомендую RAG, чтобы дать LLM внешнюю инфу, а файнтюнинг оставить для другого. Об этом, кстати, говорят и OpenAI в своем курсе (ссылка ниже).


Литература для обязательного изучения

- Статья, как важно контролировать контекстное окно

- Доходчиво, почему fine-tuning для внедрения информации, это трата времени

- Видос про это же

- Часовой урок по fine-tuning от OpenAI (очень наглядно, когда надо дообучать)

- Объяснение, почему все состояние надо записывать в контекст

Как всегда, все вопросы пишите в комментарии или в личные сообщения.

#llm_system_design
Forwarded from Сиолошная
Загрузки iPhone App Store по всему миру за последние 28 дней:

ChatGPT: 29,551,174
TikTok + Facebook + Instagram + X: 32,859,208

🔼
Please open Telegram to view this post
VIEW IN TELEGRAM
Мировой книжный рынок вырастет в разы в ближайшие пару лет из-за всплеска самиздата. Самиздата, сгенерированного ИИ естественно, а с ним и фейков, и перепечаток. Приходишь в книжный, а там уже полно книг про то, что только вчера было в новостях.

Авторам уже сегодня буквально приходится доказывать, что пишут сами — стримами, таймлапсами, видео с ворохами рукописей.

WIRED пишет: в соцсетях начинается новая охота на ведьм — теперь уже по признаку «сгенерированности».

Детская писательница Виктория Авеярд, чей текст стал бестселлером «Нью-Йорк Таймс», стримит процессы творчества, чтобы ей потом не напихали в панамку за то, что та юзает искусственный интеллект при работе над книгой. TikTok с тысячестраничной рукописью. В подписи — манифест:
«Использовать ИИ для книги — не творчество, а воровство».

Ей вторит писательница Рэйчел Менар: «Если бы я писала с ИИ — мне бы не понадобилось 78 черновиков».

Куан Миллз, темнокожая автор:
«ИИ не поймёт, как на самом деле говорят Black-комьюнити. Даже после редактуры в ИИ-тексте что-то будет не так. Оно пустое».

Однако ИИ уже умеет склеивать сносные сцены, но пока не создаёт настоящие книги. Впрочем, вопрос — надолго ли.
https://www.theverge.com/openai/691737/openai-jony-ive-chatgpt-io-ai-device-wearable-headphone-lyo-lawsuit

Первое ИИ-устройство OpenAI не будет носимым
• OpenAI и Джонни Айв создали первое устройство с ИИ, которое не будет носимым.


• Устройство не поступит в продажу до 2026 года.



Судебные разбирательства и торговая марка
• В судебных исках руководители io заявили, что устройство не будет "вкладышем" или "носимым устройством".


• Прототип устройства еще не доработан, но его дизайн не включает наушники или носимые устройства.



Удаление бренда io из-за судебного запрета
• OpenAI удалил публичные ссылки на бренд io из-за временного судебного запрета от стартапа Iyo.


• Iyo утверждает, что OpenAI умышленно нарушила права на торговую марку.



Рассмотрение различных форм-факторов
• io изучала различные коммерческие предложения и создавала прототипы.


• Компания приобрела широкий ассортимент наушников и слуховых аппаратов.



Доказательства рассмотрения категории "вкладыш"
• В одном из писем сотрудник io предложил купить 3D-снимки человеческих ушей для эргономики.


• Альтман отказался от предложения Iyo инвестировать в компанию, заявив, что работает над чем-то конкурентоспособным.
Смешно, но буквально, как просят ставить задачу дизайнеру — не фреймь, опиши проблему, дизайнер подумает сам. VS промты для GPT.