Forwarded from Denis Sexy IT 🤖
This media is not supported in your browser
VIEW IN TELEGRAM
Генерить картинки диффузией конечно интересно, но как насчет генерации диффузионными моделями зданий в майнкрафте?
🤯5👍4⚡2
Чем пользуетесь каждый день?
Anonymous Poll
44%
ChatGPT
7%
Grok
6%
Gemini
30%
Deepseek
2%
Qwen
10%
другое
This media is not supported in your browser
VIEW IN TELEGRAM
#unrealneural #новое
MCPify
Можно протестировать и создать свой MCP-сервер с помощью MCPify
https://mcpify.ai/
MCPify
Можно протестировать и создать свой MCP-сервер с помощью MCPify
https://mcpify.ai/
⚡4👍4❤2
Media is too big
VIEW IN TELEGRAM
#ЛабораторияИИ #Эксперименты
Генерация планировки квартиры с помощью LLM модели
Работа над решением задачи генерации планировочных решений продолжается. LLM модели очень универсальны с точки зрения работы со структурами данных, поэтому наши эксперименты активно реализуются с этой технологией в том числе.
В рамках модуля R2.ОПР нашей платформы мы начали первые эксперименты с локально-запущенной моделью, которая ужа на уровне небольших доработок позволяет подступиться к задаче генерации планировочных решений.
Выводы по генерации планировки квартиры в связке с локальной LLM:
1. В целом квартиры получаются отвратительные, хуже чем было у базового WallPlan
2. В половине случаев возникают пересечения и наложения помещений
3. Редактирование по промпту работает, простую задачу (типа сделай санузел шире, добавь гардеробную) понимает и выполняет в ~70% случаях внутри простых контуров
4. Понимание непрямых углов есть, в простых непрямоугольных контурах пытается вписать непрямоугольные помещения, но на непрямоугольность как будто уходит много внимания и если есть непрямые углы, то больше ошибается в компоновке помещений
Следующие шаги по этому направлению:
1. Упрощение структуры генерации в целом и дополнительная работа над ней
2. Учитывать специфику пред обучения LLM-ки, для большей эффективности (например использовать другие единицы измерения)
3. Попробовать за основу брать разные модели
Генерация планировки квартиры с помощью LLM модели
Работа над решением задачи генерации планировочных решений продолжается. LLM модели очень универсальны с точки зрения работы со структурами данных, поэтому наши эксперименты активно реализуются с этой технологией в том числе.
В рамках модуля R2.ОПР нашей платформы мы начали первые эксперименты с локально-запущенной моделью, которая ужа на уровне небольших доработок позволяет подступиться к задаче генерации планировочных решений.
Выводы по генерации планировки квартиры в связке с локальной LLM:
1. В целом квартиры получаются отвратительные, хуже чем было у базового WallPlan
2. В половине случаев возникают пересечения и наложения помещений
3. Редактирование по промпту работает, простую задачу (типа сделай санузел шире, добавь гардеробную) понимает и выполняет в ~70% случаях внутри простых контуров
4. Понимание непрямых углов есть, в простых непрямоугольных контурах пытается вписать непрямоугольные помещения, но на непрямоугольность как будто уходит много внимания и если есть непрямые углы, то больше ошибается в компоновке помещений
Следующие шаги по этому направлению:
1. Упрощение структуры генерации в целом и дополнительная работа над ней
2. Учитывать специфику пред обучения LLM-ки, для большей эффективности (например использовать другие единицы измерения)
3. Попробовать за основу брать разные модели
👍7❤2⚡2
This media is not supported in your browser
VIEW IN TELEGRAM
#unrealneural
AICommand
Можно моделировать с помощью ChatGPT на Unity! Как именно это реализовано пока не смотрел, но выглядит очень перспективно
https://github.com/keijiro/AICommand
AICommand
Можно моделировать с помощью ChatGPT на Unity! Как именно это реализовано пока не смотрел, но выглядит очень перспективно
https://github.com/keijiro/AICommand
👍7❤3⚡3
Темпы появления новых моделей поражают
Январь
• DeepSeek R1
• Qwen 2.5-Max
• o3-mini
Февраль
• Gemini 2.0 Flash
• Gemini 2.0 Pro
• Grok 3
• Grok 3 mini
• Claude 3.7 (Sonnet)
• QwQ-Max (preview)
• GPT-4.5
Март
• Gemma 3 (1B • 4B • 12B • 27B)
• Gemini 2.5 Pro (public preview)
• Llama 4 Scout
• Llama 4 Maverick
Апрель
• GPT-4.1
• GPT-4.1-mini
• GPT-4.1-nano
• o3 (full)
• o4-mini
• Gemini 2.5 Flash (preview)
• Gemma 3 QAT (1B • 4B • 12B • 27B)
Что будет дальше?
Январь
• DeepSeek R1
• Qwen 2.5-Max
• o3-mini
Февраль
• Gemini 2.0 Flash
• Gemini 2.0 Pro
• Grok 3
• Grok 3 mini
• Claude 3.7 (Sonnet)
• QwQ-Max (preview)
• GPT-4.5
Март
• Gemma 3 (1B • 4B • 12B • 27B)
• Gemini 2.5 Pro (public preview)
• Llama 4 Scout
• Llama 4 Maverick
Апрель
• GPT-4.1
• GPT-4.1-mini
• GPT-4.1-nano
• o3 (full)
• o4-mini
• Gemini 2.5 Flash (preview)
• Gemma 3 QAT (1B • 4B • 12B • 27B)
Что будет дальше?
⚡9👍5❤2
Цифровое строительство
Я также сделал бы ставку на протокол MCP и подход Agent2Agent, которые позволят LLM-моделям взаимодействовать с любыми программами, включая проектные. Это снизит порог вхождения в профессию и ускорит выполнение задач.
Согласны про то, что такие инструменты понизят порог вхождения в профессию?
Anonymous Poll
45%
да
32%
нет
24%
🤷🏻🤷🏻🤷🏻
🤔3⚡1😁1🤯1
This media is not supported in your browser
VIEW IN TELEGRAM
#ЛабораторияИИ #эксперименты
25-этажная башня в 1 промпт
Новый эксперимент с генерацией 3д формы от нашей Лаборатории ИИ
25-этажная башня в 1 промпт
Новый эксперимент с генерацией 3д формы от нашей Лаборатории ИИ
⚡4❤3👍3
#новое #unrealneural
На просторах новостной ленты наткнулся на только что вышедшие модели от Xiaomi.
Пишут, что основное предназначение - это решение математических задач, логические рассуждения и генерация кода.
Вот некоторые особенности модели MiMo-7B-Base:
- Обучение с нуля
- Использование синтетических данных для логического мышления
- Особый подход к предобработке данных и стратегии предобучения
- Внедрение метода Multiple-Token Prediction (MTP) — предсказание нескольких токенов одновременно для улучшения качества и скорости вывода
https://huggingface.co/XiaomiMiMo
На просторах новостной ленты наткнулся на только что вышедшие модели от Xiaomi.
Пишут, что основное предназначение - это решение математических задач, логические рассуждения и генерация кода.
Вот некоторые особенности модели MiMo-7B-Base:
- Обучение с нуля
- Использование синтетических данных для логического мышления
- Особый подход к предобработке данных и стратегии предобучения
- Внедрение метода Multiple-Token Prediction (MTP) — предсказание нескольких токенов одновременно для улучшения качества и скорости вывода
https://huggingface.co/XiaomiMiMo
👍4⚡1😁1
#unrealneural
ИИ может предсказать работу вашего мозга на следующие 5 секунд.
В новой статье представлена модель Transformer, которая с высокой точностью прогнозирует активность мозга, используя данные фМРТ, полученные всего за 21 секунду.
🤯🤯🤯
https://arxiv.org/pdf/2412.19814v1
ИИ может предсказать работу вашего мозга на следующие 5 секунд.
В новой статье представлена модель Transformer, которая с высокой точностью прогнозирует активность мозга, используя данные фМРТ, полученные всего за 21 секунду.
🤯🤯🤯
https://arxiv.org/pdf/2412.19814v1
🤯8⚡3
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Krea Paint
Теперь вы можете визуально подсказывать ChatGPT с помощью стрелочек, базовых фигур, заметок и опорных изображений.
Выглядит нарядно. Сидит в Krea Images.
@cgevent
Теперь вы можете визуально подсказывать ChatGPT с помощью стрелочек, базовых фигур, заметок и опорных изображений.
Выглядит нарядно. Сидит в Krea Images.
@cgevent
👍7⚡2
Forwarded from Data Secrets
О, Cursor поделились статистикой самых популярных среди разработчиков моделей
Топ-5 самых популярных:
1. Claude 3.7 Sonnet
2. Gemini 2.5 Pro
3. Claude 3.5 Sonnet
4. GPT-4.1
5. GPT-4o
Топ-5 быстрее всего набирающих популярность:
1. o3
2. o4-mini
3. DeepSeek 3.1 (видимо после выхода свежего чекпоинта)
4. GPT-4.1
5. Grok 3
Кстати, на днях основатель Cursor также поделился тем, что сейчас их агент генерирует порядка миллиарда строк кода в день (и это только те, которым пользователь поставил апрув). Это при том, что во всем мире ежедневно пишется всего несколько миллиардов строчек😱
Топ-5 самых популярных:
1. Claude 3.7 Sonnet
2. Gemini 2.5 Pro
3. Claude 3.5 Sonnet
4. GPT-4.1
5. GPT-4o
Топ-5 быстрее всего набирающих популярность:
1. o3
2. o4-mini
3. DeepSeek 3.1 (видимо после выхода свежего чекпоинта)
4. GPT-4.1
5. Grok 3
Кстати, на днях основатель Cursor также поделился тем, что сейчас их агент генерирует порядка миллиарда строк кода в день (и это только те, которым пользователь поставил апрув). Это при том, что во всем мире ежедневно пишется всего несколько миллиардов строчек
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡6👌4❤2👍2🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
#эксперименты
«Архитектурная примерочная» фасадов серия 1
«Архитектурная примерочная» фасадов серия 1
🔥12👍7⚡4
#вкопилкуэрудита
Квантовое туннелирование — это процесс, при котором частица может пройти через барьер, на преодоление которого у нее обычно не хватает энергии. Это происходит потому, что частица имеет волновую природу и может существовать в суперпозиции состояний, то есть имеет ненулевую вероятность оказаться по ту сторону барьера. Квантовое туннелирование отвечает за ядерный синтез в звездах, радиоактивный распад и сканирующую туннельную микроскопию.
Квантовое туннелирование — это процесс, при котором частица может пройти через барьер, на преодоление которого у нее обычно не хватает энергии. Это происходит потому, что частица имеет волновую природу и может существовать в суперпозиции состояний, то есть имеет ненулевую вероятность оказаться по ту сторону барьера. Квантовое туннелирование отвечает за ядерный синтез в звездах, радиоактивный распад и сканирующую туннельную микроскопию.
👍9⚡5❤4
Forwarded from Data Secrets
This media is not supported in your browser
VIEW IN TELEGRAM
Anthropic анонсировали Интеграции: теперь к Claude можно присоединить любой источник ваших данных
Это работает так: вы присоединяете какое-то свое приложение (ну, например, базу знаний Confluence), и с этого момента во время поиска бот будет искать не только в Интернете, но и по вашей интеграции.
При этом, конечно, можно попросить поискать только в базе знаний, задать по ней любой вопрос, выгрузить оттуда код и поработать с ним и прочее и прочее и прочее, любые действия с этим контекстом.
По сути это верифицированные MCP внутри чат-бота. Сейчас в партнерах уже Atlassian, GitLab, Asana, PayPal, CloudFlare и еще с десяток сервисов. Их можно подсоединить в пару кликов. Если нужного вам сервиса среди них нет, то можно и свой добавить, но потребуется чуть больше времени и сил.
www.anthropic.com/news/integrations
Это работает так: вы присоединяете какое-то свое приложение (ну, например, базу знаний Confluence), и с этого момента во время поиска бот будет искать не только в Интернете, но и по вашей интеграции.
При этом, конечно, можно попросить поискать только в базе знаний, задать по ней любой вопрос, выгрузить оттуда код и поработать с ним и прочее и прочее и прочее, любые действия с этим контекстом.
По сути это верифицированные MCP внутри чат-бота. Сейчас в партнерах уже Atlassian, GitLab, Asana, PayPal, CloudFlare и еще с десяток сервисов. Их можно подсоединить в пару кликов. Если нужного вам сервиса среди них нет, то можно и свой добавить, но потребуется чуть больше времени и сил.
www.anthropic.com/news/integrations
⚡5🤔3👍2
This media is not supported in your browser
VIEW IN TELEGRAM
#эксперименты
«Архитектурная примерочная» фасадов серия 2
«Архитектурная примерочная» фасадов серия 2
👍7❤6⚡2👎1