Forwarded from Техно-Трендс
Найден самый простой и эффективный гайд по установке локальной языковой модели на ваш компьютер!
Теперь многофункциональную LLAMA 3 8B можно запустить локально, не передавая свои данные на сторонние серверы. Для этого достаточно ноутбука с GTX 1650 Ti и 4 GB VRAM. Вот как это сделать:
⤷ Зайдите на сайт LM Studio;
⤷ Скачайте установочный файл для вашей операционной системы;
⤷ В поиске введите «QuantFactory/Meta-Llama-3-8B-Instruct-GGUF» и выберите нужную версию;
⤷ Откройте окно нейронки и загрузите QuantFactory — готово!
2️⃣ Habr Media
Теперь многофункциональную LLAMA 3 8B можно запустить локально, не передавая свои данные на сторонние серверы. Для этого достаточно ноутбука с GTX 1650 Ti и 4 GB VRAM. Вот как это сделать:
⤷ Зайдите на сайт LM Studio;
⤷ Скачайте установочный файл для вашей операционной системы;
⤷ В поиске введите «QuantFactory/Meta-Llama-3-8B-Instruct-GGUF» и выберите нужную версию;
⤷ Откройте окно нейронки и загрузите QuantFactory — готово!
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Лама - это не только ценный мешь.
Это ещё и понимание меша как текстового описания.
Действительно: obj или usd - это же текст
Интерн из нвидии соорудил интересный проект из LLama и 3Д.
Там и генерация и "понимание" 3д и описание.
"Новый подход, который представляет координаты вершин и определения граней 3D-сетки в виде обычного текста, что позволяет напрямую интегрировать их с LLM без расширения словарного запаса."
Реп на гитхабе есть, но код ещё не залит.
https://research.nvidia.com/labs/toronto-ai/LLaMA-Mesh/
@cgevent
Это ещё и понимание меша как текстового описания.
Действительно: obj или usd - это же текст
Интерн из нвидии соорудил интересный проект из LLama и 3Д.
Там и генерация и "понимание" 3д и описание.
"Новый подход, который представляет координаты вершин и определения граней 3D-сетки в виде обычного текста, что позволяет напрямую интегрировать их с LLM без расширения словарного запаса."
Реп на гитхабе есть, но код ещё не залит.
https://research.nvidia.com/labs/toronto-ai/LLaMA-Mesh/
@cgevent
🔥1
ChatHouseDiffusion — это интересная нейросеть, которая сочетает в себе возможности больших языковых моделей и диффузионных сетей для генерации планировок на основе текстовых запросов. Она преобразует вводные текстовые данные о помещениях в структурированные JSON-форматы, что позволяет точно воссоздавать расположение комнат и их взаимосвязи. Помимо этого, модель поддерживает редактирование уже сгенерированных планов, что позволяет доработать результат без необходимости переработки всего проекта. Это подход имеет значительный потенциал для упрощения процесса проектирования и создания более гибких решений в архитектуре.
ChatHouseDiffusion: Prompt-Guided Generation and Editingof Floor Plans
ChatHouseDiffusion: Prompt-Guided Generation and Editingof Floor Plans
🔥5👍1
Forwarded from Art Hiteca
This media is not supported in your browser
VIEW IN TELEGRAM
Муравьи или люди?
🤯12👍5😱1🤩1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Ещё про Нвидия и 3Д.
Совсем забыл написать про ретоп от Nvidia под названием Meshtron.
Это "обтягиватель" пойнтклаудов полигонами с ретопологией.
Выглядит исключительно убойно, обязательно поглядите видосы, это прям хорошо.
Но кода я не нашёл...
Autoregressive mesh generator based on the Hourglass architecture and using sliding window attention; point cloud to mesh; txt2mesh; mesh2mesh
https://developer.nvidia.com/blog/high-fidelity-3d-mesh-generation-at-scale-with-meshtron/
@cgevent
Совсем забыл написать про ретоп от Nvidia под названием Meshtron.
Это "обтягиватель" пойнтклаудов полигонами с ретопологией.
Выглядит исключительно убойно, обязательно поглядите видосы, это прям хорошо.
Но кода я не нашёл...
Autoregressive mesh generator based on the Hourglass architecture and using sliding window attention; point cloud to mesh; txt2mesh; mesh2mesh
https://developer.nvidia.com/blog/high-fidelity-3d-mesh-generation-at-scale-with-meshtron/
@cgevent
🔥6❤1
Forwarded from Psy Eyes
Media is too big
VIEW IN TELEGRAM
Tripo3D: обновили интерфейс своего 3D генератора и сделали его более удобным.
Теперь можно контролировать количество полигонов (Face Limit) в настройках генерации, для баланса между качеством и скоростью.
На вход можно подавать как текст (который можно улучшить), так и одну картинку или множество изображений.
Сайт — сгенерите первую модель получите 300 кредитов. Или вот код:
Теперь можно контролировать количество полигонов (Face Limit) в настройках генерации, для баланса между качеством и скоростью.
На вход можно подавать как текст (который можно улучшить), так и одну картинку или множество изображений.
Сайт — сгенерите первую модель получите 300 кредитов. Или вот код:
USR9E6
👍4
This media is not supported in your browser
VIEW IN TELEGRAM
строим простую нейросеть прямо в браузере с возможностью ее обучить
https://playground.tensorflow.org/
https://playground.tensorflow.org/
🔥4👍1
CAD-MLLM: нейронная сеть для генерации CAD-моделей через мультимодальные данные
CAD-MLLM — это первая в своем роде система, способная генерировать параметрические CAD-модели, основываясь на мультимодальных данных: текстовых описаниях, изображениях, облаках точек или их комбинации.
Ключевая идея системы — использование последовательностей команд CAD-моделей. Вместо прямой реконструкции объекта система генерирует точные команды для его построения, такие как выдавливание, вращение или создание геометрии. Это делает модели параметрически корректными.
CAD-MLLM — это первая в своем роде система, способная генерировать параметрические CAD-модели, основываясь на мультимодальных данных: текстовых описаниях, изображениях, облаках точек или их комбинации.
Ключевая идея системы — использование последовательностей команд CAD-моделей. Вместо прямой реконструкции объекта система генерирует точные команды для его построения, такие как выдавливание, вращение или создание геометрии. Это делает модели параметрически корректными.
👏6👍1
Forwarded from AI для Всех (Artemii)
This media is not supported in your browser
VIEW IN TELEGRAM
ChatGPT теперь умеет создавать приложения.
Как я сделал приложение для изучения языка за пару минут
🔥 Важное обновление от OpenAI: Canvas теперь умеет делать артефакты, как у Claude! Это значит, что вы можете не просто писать код, но и сразу получать работающие проекты.
Я протестировал эту фичу и хочу рассказать, как с её помощью сделал приложение для изучения языка.
💡 Как это работает?
1️⃣ Генерируем идею и задачу
Сначала я попросил GPT-4o придумать детальный промпт для создания приложения. Хотел что-то простое: карточки с иностранными словами, переводом и кнопкой "выучено". GPT-4o справился на отлично!
2️⃣ Создаём артефакт с Canvas
Скопировал промпт, открыл Canvas и выбрал модель o1. Через минуту у меня было готовое приложение! А главное, Canvas сразу рендерит результат. Я тут же посмотрел, как всё выглядит — всё очень удобно и работает.
3️⃣ Результат: мини-приложение
Теперь у меня есть простое и полезное приложение для изучения языка. Я могу добавлять новые слова, повторять их и отслеживать прогресс. Всё это буквально за пару минут работы.
Попробуйте сами и убедитесь, как это круто! 🚀
Анонс
Как я сделал приложение для изучения языка за пару минут
🔥 Важное обновление от OpenAI: Canvas теперь умеет делать артефакты, как у Claude! Это значит, что вы можете не просто писать код, но и сразу получать работающие проекты.
Я протестировал эту фичу и хочу рассказать, как с её помощью сделал приложение для изучения языка.
💡 Как это работает?
1️⃣ Генерируем идею и задачу
Сначала я попросил GPT-4o придумать детальный промпт для создания приложения. Хотел что-то простое: карточки с иностранными словами, переводом и кнопкой "выучено". GPT-4o справился на отлично!
2️⃣ Создаём артефакт с Canvas
Скопировал промпт, открыл Canvas и выбрал модель o1. Через минуту у меня было готовое приложение! А главное, Canvas сразу рендерит результат. Я тут же посмотрел, как всё выглядит — всё очень удобно и работает.
3️⃣ Результат: мини-приложение
Теперь у меня есть простое и полезное приложение для изучения языка. Я могу добавлять новые слова, повторять их и отслеживать прогресс. Всё это буквально за пару минут работы.
Попробуйте сами и убедитесь, как это круто! 🚀
Анонс
👍6❤1
Hunyuan3D
генератор 3д геометрии с открытым исходным кодом
На вход можно подавать текст и изображение
https://github.com/YanWenKun/Hunyuan3D-2-WinPortable?tab=readme-ov-file
генератор 3д геометрии с открытым исходным кодом
На вход можно подавать текст и изображение
https://github.com/YanWenKun/Hunyuan3D-2-WinPortable?tab=readme-ov-file
🔥7❤1👍1
Transformer²: Самоадаптирующиеся трансформеры
Статья демонстрирует силу LLM, которая может самостоятельно адаптировать свои веса к своей среде. Вероятно в будущем граница между «предварительным обучением» и «после обучения» исчезнет, и наши модели и агенты будут постоянно адаптироваться и самосовершенствоваться. Такие системы проложат путь для нового поколения адаптивного ИИ, способного изменять свои собственные веса и архитектуру, чтобы адаптироваться к изменяющейся природе задач, с которыми они сталкиваются в среде.
https://arxiv.org/abs/2501.06252
https://sakana.ai/transformer-squared/
Статья демонстрирует силу LLM, которая может самостоятельно адаптировать свои веса к своей среде. Вероятно в будущем граница между «предварительным обучением» и «после обучения» исчезнет, и наши модели и агенты будут постоянно адаптироваться и самосовершенствоваться. Такие системы проложат путь для нового поколения адаптивного ИИ, способного изменять свои собственные веса и архитектуру, чтобы адаптироваться к изменяющейся природе задач, с которыми они сталкиваются в среде.
https://arxiv.org/abs/2501.06252
https://sakana.ai/transformer-squared/
⚡5
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Ну вот, пошли интеграции с Блендором для 3Д генераторов
На гитхабе у Хуньяня 3Д 2.0 появился блендор-аддон.
Правда рядом с Блендором вам придется поднять апи-сервер хунька.
Инструкции тут:
https://github.com/Tencent/Hunyuan3D-2?tab=readme-ov-file#blender-addon
@cgevent
На гитхабе у Хуньяня 3Д 2.0 появился блендор-аддон.
Правда рядом с Блендором вам придется поднять апи-сервер хунька.
Инструкции тут:
https://github.com/Tencent/Hunyuan3D-2?tab=readme-ov-file#blender-addon
@cgevent
⚡6
This media is not supported in your browser
VIEW IN TELEGRAM
«TinySwallow-1.5B» - отличный пример того что эффективная языковая модель это не всегда облачный сервис. Это может быть локальным продуктом даже на смартфоне без необходимости доступа в интернет.
Новый метод извлечения знаний под названием «Временно адаптивная интерполированная извлечение (TAID)» эффективно переносит знания из крупномасштабных языковых моделей (LLM) в более мелкие модели. Этот метод обеспечивает эффективную передачу знаний путем переноса знаний из крупномасштабной модели в соответствии с процессом обучения маломасштабной модели. Данное исследование было принято на ICLR 2025 — международной конференции в области машинного обучения.
Используя TAID, были перенесены знания из 32B параметров LLM в мелкомасштабную языковую модель с 1,5B параметрами, что составляет около 1/20 размера LLM. Затем превратилось в японскую модель TinySwallow. Компактный «TinySwallow-1.5B» позволяет вам общаться прямо на вашем смартфоне или ПК, не прибегая к внешнему API.
Демо: https://pub.sakana.ai/tinyswallow/
Бумага: https://arxiv.org/abs/2501.16937
ГитХаб: https://github.com/SakanaAI/TAID
Новый метод извлечения знаний под названием «Временно адаптивная интерполированная извлечение (TAID)» эффективно переносит знания из крупномасштабных языковых моделей (LLM) в более мелкие модели. Этот метод обеспечивает эффективную передачу знаний путем переноса знаний из крупномасштабной модели в соответствии с процессом обучения маломасштабной модели. Данное исследование было принято на ICLR 2025 — международной конференции в области машинного обучения.
Используя TAID, были перенесены знания из 32B параметров LLM в мелкомасштабную языковую модель с 1,5B параметрами, что составляет около 1/20 размера LLM. Затем превратилось в японскую модель TinySwallow. Компактный «TinySwallow-1.5B» позволяет вам общаться прямо на вашем смартфоне или ПК, не прибегая к внешнему API.
Демо: https://pub.sakana.ai/tinyswallow/
Бумага: https://arxiv.org/abs/2501.16937
ГитХаб: https://github.com/SakanaAI/TAID
👍3❤🔥2