Forwarded from CodeCamp
This media is not supported in your browser
VIEW IN TELEGRAM
Я чуть не пропустил, но там Canvas в ChatGPT теперь может запускать код.
На примере в видео чувак «сэмулировал» Windows 95 и запустил сапёр, блокнот и прочее.
У меня не хватит слов, чтобы передать словами, насколько это крутая фича, просто попробуйте.
На примере в видео чувак «сэмулировал» Windows 95 и запустил сапёр, блокнот и прочее.
У меня не хватит слов, чтобы передать словами, насколько это крутая фича, просто попробуйте.
🔥14👍2❤1🤔1
Alibaba выпустили Qwen Chat v0.2
В вебе доступен режим Артефакт - для кода, веб поиск, генерация картинок и видео!!!
Все это в одном интерфейсе.
Ещё есть интересный режим - соревнования моделей. Когда можно выбрать несколько моделей одновременно и они будут вместе отвечать на запрос - каждый отдельно.
см. на скрине.
Из моделей доступны:
Qwen2.5-Plus (текст)- 131К/8К токенов (вход/выход) - самая сильная, но по беглым тестам - слабее лидеров. С поиском сбилась с сути уже на втором вопросе. Забыла о чем было начало разговора.
QVQ-72B-Preview (текст, картинки)- 32К/8К
QwQ-32B-Preview (текст) - 130К/8К
Qwen2.5-Coder-32B-Instruct (текст, код) - 130К/8К
Qwen2-VL-Max (текст, картинки) - 32К/2К - распознавалка изображений. поэтому такой маленький контекст на генерацию.
Qwen2.5-Turbo (текст) - 1млн/8К - самый огромный контекст у Квена. Можно обсудить Войну и Мир
Qwen2.5-72B-Instruct (текст) - 130К/8К
Qwen2.5-32B-Instruct (текст) - 130К/8К
API пока стандартно через Алибабу.
Отдельно, как у остальных именно на qwenml.ai нет.
https://chat.qwenlm.ai/
Всё больше и больше китайских ИИ выходят за пределы Поднебесной.
До Китайского Нового Года осталось 3 дня. Подарок, получается :)
Но пока DeepSeek мне больше по качеству ответов нравится.
#qwen #Китай
———
@tsingular
В вебе доступен режим Артефакт - для кода, веб поиск, генерация картинок и видео!!!
Все это в одном интерфейсе.
Ещё есть интересный режим - соревнования моделей. Когда можно выбрать несколько моделей одновременно и они будут вместе отвечать на запрос - каждый отдельно.
см. на скрине.
Из моделей доступны:
Qwen2.5-Plus (текст)- 131К/8К токенов (вход/выход) - самая сильная, но по беглым тестам - слабее лидеров. С поиском сбилась с сути уже на втором вопросе. Забыла о чем было начало разговора.
QVQ-72B-Preview (текст, картинки)- 32К/8К
QwQ-32B-Preview (текст) - 130К/8К
Qwen2.5-Coder-32B-Instruct (текст, код) - 130К/8К
Qwen2-VL-Max (текст, картинки) - 32К/2К - распознавалка изображений. поэтому такой маленький контекст на генерацию.
Qwen2.5-Turbo (текст) - 1млн/8К - самый огромный контекст у Квена. Можно обсудить Войну и Мир
Qwen2.5-72B-Instruct (текст) - 130К/8К
Qwen2.5-32B-Instruct (текст) - 130К/8К
API пока стандартно через Алибабу.
Отдельно, как у остальных именно на qwenml.ai нет.
https://chat.qwenlm.ai/
Всё больше и больше китайских ИИ выходят за пределы Поднебесной.
До Китайского Нового Года осталось 3 дня. Подарок, получается :)
Но пока DeepSeek мне больше по качеству ответов нравится.
#qwen #Китай
———
@tsingular
👍12🔥4
🤯Они выпустили 2 модели с контекстом в 1 млн токенов в открытом виде!
Выпустили сразу две версии:
Qwen2.5-14B-Instruct-1M (14.7B)
Qwen2.5-7B-Instruct-1M (7.61B)
Но есть нюанс 😅 Для работы с миллионным контекстом нужно немножечко железа:
Для 14B версии - 320GB VRAM
Для 7B версии - 120GB VRAM
Интересно, что они реализовали свою версию vLLM с "разреженным вниманием" (sparse attention). Обещают ускорение в 3-7 раз для длинных последовательностей.
HuggingFace
Ждём когда нарежутоливье ollama варианты. Ну и Digits очень тоже ждём.
#Qwen #Китай
———
@tsingular
Выпустили сразу две версии:
Qwen2.5-14B-Instruct-1M (14.7B)
Qwen2.5-7B-Instruct-1M (7.61B)
Но есть нюанс 😅 Для работы с миллионным контекстом нужно немножечко железа:
Для 14B версии - 320GB VRAM
Для 7B версии - 120GB VRAM
Интересно, что они реализовали свою версию vLLM с "разреженным вниманием" (sparse attention). Обещают ускорение в 3-7 раз для длинных последовательностей.
HuggingFace
Ждём когда нарежут
#Qwen #Китай
———
@tsingular
🔥7👍4😁1
Forwarded from Machinelearning
Это прямой ответ на проект «Звездные врата».
Евросоюз: максимум, что мы можем сделать, — это выделить 10 миллиардов на ИИ регулирование.
@ai_machinelearning_big_data
#ai #news #stargate #llm
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9😁4
О, Гугл зашевелился. :)
Наша последняя модель Гемини с размышлениями будет:
- бесплатной
- очень мощной
- добавим поиск на этой неделе
- с большим контекстом
- 1.5 миллиарда бесплатных токенов ежедневно.
Пошла жара. DeepSeek не только сдвинул NASDAQ на 1% вниз, но и гиганты, вроде Гугла, зашевелились и стали поворачиваться к пользователю лицом.
:)
#deepseek #google
———
@tsingular
Наша последняя модель Гемини с размышлениями будет:
- бесплатной
- очень мощной
- добавим поиск на этой неделе
- с большим контекстом
- 1.5 миллиарда бесплатных токенов ежедневно.
Пошла жара. DeepSeek не только сдвинул NASDAQ на 1% вниз, но и гиганты, вроде Гугла, зашевелились и стали поворачиваться к пользователю лицом.
:)
#deepseek #google
———
@tsingular
⚡20🔥8❤5
This media is not supported in your browser
VIEW IN TELEGRAM
До тех пор, пока нейрорендер не сможет так чётко удерживать все детали, генерируя подобные по абсурдности ролики, считаю, он не готов :)
#рендер #танки #юмор
———
@tsingular
#рендер #танки #юмор
———
@tsingular
😁20🔥14👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Presenter: Мультиагентный ИИ-создатель голосовых презентаций
Интересный проект от разработчика rsrohan99 — мультиагентная система, которая превращает создание презентаций в AI-driven процесс.
Что умеет этот фреймворк:
- Генерирует презентации по любой теме с помощью нескольких AI-агентов, которые оценивают и переписывают презентацию на этапе генерации
- Создает диаграммы через Mermaid
- Пишет скрипты рассказа для каждого слайда с таймингом выступления
- Генерирует аудио-озвучку через ElevenLabs в параллельных потоках.
- Собирает итоговое видео с озвучкой через FFmpeg
Технически проект построен на:
LlamaIndex Workflows для оркестрации мультиагентной системы
markdown-slides + reveal.js для рендера презентаций
DeckTape для экспорта в PDF
Интересно, что автор реализовал полный pipeline: от генерации контента до создания готового видео с озвучкой. Причем все опенсорс и бесплатно! 🎉
Единственное "но" — нужны API-ключи OpenAI и ElevenLabs.
В принципе OpenAI спокойно меняется на Deepseek или на локальную ollama, а озвучка тоже через апи голосовых генераторов на HuggingFace делается.
Так что можно переписать на полностью бесплатный собственный генератор презентаций.
Если у кого получится, - делитесь.
#Presenter #презентации
———
@tsingular
Интересный проект от разработчика rsrohan99 — мультиагентная система, которая превращает создание презентаций в AI-driven процесс.
Что умеет этот фреймворк:
- Генерирует презентации по любой теме с помощью нескольких AI-агентов, которые оценивают и переписывают презентацию на этапе генерации
- Создает диаграммы через Mermaid
- Пишет скрипты рассказа для каждого слайда с таймингом выступления
- Генерирует аудио-озвучку через ElevenLabs в параллельных потоках.
- Собирает итоговое видео с озвучкой через FFmpeg
Технически проект построен на:
LlamaIndex Workflows для оркестрации мультиагентной системы
markdown-slides + reveal.js для рендера презентаций
DeckTape для экспорта в PDF
Интересно, что автор реализовал полный pipeline: от генерации контента до создания готового видео с озвучкой. Причем все опенсорс и бесплатно! 🎉
Единственное "но" — нужны API-ключи OpenAI и ElevenLabs.
В принципе OpenAI спокойно меняется на Deepseek или на локальную ollama, а озвучка тоже через апи голосовых генераторов на HuggingFace делается.
Так что можно переписать на полностью бесплатный собственный генератор презентаций.
Если у кого получится, - делитесь.
#Presenter #презентации
———
@tsingular
🔥10⚡2
Давос 2024: CEO больше не будут управлять только людьми
CEO Salesforce Марк Бениофф прогнозирует радикальное изменение структуры управления компаниями.
Нынешние руководители становятся последними, кто руководит исключительно человеческим персоналом.
К 2027 году ИИ-системы превзойдут людей в большинстве профессиональных областей.
41% работодателей намерены заменить часть штата автоматизированными решениями к 2030.
77% организаций готовят программы переквалификации сотрудников для взаимодействия с ИИ.
На самом деле это ещё и для CEO испытание своего рода, - научиться управлять ИИ персоналом.
Ну или нужен ЗГД под ИИ ( Chief AI Officer) :)
И это уже не как Директор по цифровой трансформации, а ближе к HR функции. Что то на стыке.
"ИИ кадры решают всё"
#Salesforce #Davos #Automation
-------
@tsingular
CEO Salesforce Марк Бениофф прогнозирует радикальное изменение структуры управления компаниями.
Нынешние руководители становятся последними, кто руководит исключительно человеческим персоналом.
К 2027 году ИИ-системы превзойдут людей в большинстве профессиональных областей.
41% работодателей намерены заменить часть штата автоматизированными решениями к 2030.
77% организаций готовят программы переквалификации сотрудников для взаимодействия с ИИ.
На самом деле это ещё и для CEO испытание своего рода, - научиться управлять ИИ персоналом.
Ну или нужен ЗГД под ИИ ( Chief AI Officer) :)
И это уже не как Директор по цифровой трансформации, а ближе к HR функции. Что то на стыке.
"ИИ кадры решают всё"
#Salesforce #Davos #Automation
-------
@tsingular
👍8
Groq уже разместил у себя Deepseek-R1-Distill-Llama-70b
Как вам модель с рассуждениями, которая генерит ответ со скоростью 275 токенов в секунду :)
Вот это реально ниша, которая может подвинуть акции NVidia на пару пунктов вниз. ИИ асики. Тема!
Ну или NVidia начнёт их выпускать сами.
Думаю они даже могли бы купить Groq, чтобы не мучаться.
#Groq #DeepSeek
———
@tsingular
Как вам модель с рассуждениями, которая генерит ответ со скоростью 275 токенов в секунду :)
Вот это реально ниша, которая может подвинуть акции NVidia на пару пунктов вниз. ИИ асики. Тема!
Ну или NVidia начнёт их выпускать сами.
Думаю они даже могли бы купить Groq, чтобы не мучаться.
#Groq #DeepSeek
———
@tsingular
🔥13
This media is not supported in your browser
VIEW IN TELEGRAM
Дрон DJI vs Unitree собаки.
Пока в формате развлечения бой на фейерверках.
К концу года фейерверки раздадут антропоморфам. (будем надеяться, что только фейерверки, конечно, но кого мы обманываем?!)
#Unitree #DJI #Китай #дроны
———
@tsingular
Пока в формате развлечения бой на фейерверках.
К концу года фейерверки раздадут антропоморфам. (будем надеяться, что только фейерверки, конечно, но кого мы обманываем?!)
#Unitree #DJI #Китай #дроны
———
@tsingular
🔥8👍4🤯3
DeepSeek лёг под нагрузкой.
не работает ни web ни API.
Вот это популярность.
Интересно как они будут мощности расширять. Карты для Китая то по идее запрещено завозить :)
UPD: ожил :)
UPD2: опять лёг ...
#DeepSeek #Китай
———
@tsingular
не работает ни web ни API.
Вот это популярность.
Интересно как они будут мощности расширять. Карты для Китая то по идее запрещено завозить :)
UPD: ожил :)
UPD2: опять лёг ...
#DeepSeek #Китай
———
@tsingular
😐12👻3❤2🗿2
This media is not supported in your browser
VIEW IN TELEGRAM
Самое прикольное в андроидах, что они эволиционируют по частям.
Вашему вниманию рука :)
Можно роботу поставить, можно собаке или дрону.
А можно так оставить.
Пусть спину чешет :)
#роботы
------
@tsingular
Вашему вниманию рука :)
Можно роботу поставить, можно собаке или дрону.
А можно так оставить.
Пусть спину чешет :)
#роботы
------
@tsingular
😁15🆒5👍4🥰1
Forwarded from Machinelearning
Релиз R1 и новости об инвестировании в развитие отрасли, вызвали падение акций американских ИТ-гигантов на бирже NASDAQ.
Но помимо R1 в этом месяце разработчики из Китая выпустили еще очень много интересных моделей 🔥 Китай набирает очень серьезные обороты,
Давайте посмотрим на список самых ярких релизов из Поднебесной за январь:
LLM:
✨ InternLM3-8B-Instruct
✨ MiniMax-Text-01
✨ RWKV-7 RNN + трансформер 👀
✨ Собственно сам DeepSeek-R1
✨ Baichuan-M1-14B медицинский LLM 🩺
✨ Qwen2.5-Math-PRM от Alibaba
✨ Qwen2.5 -1M
Модели кодинга:
✨ Tare от BytedanceTalk
TTS модели синтеза и генерации речи:
✨ T2A-01-HD от MiniMax AI
✨ LLaSA
МЛЛМ:
✨ Kimi k1.5 от Moonshot AI
✨ MiniCPM-o-2_6 от OpenBMB
✨ Sa2VA-4B от ByteDanceOSS
✨ VideoLLaMA 3 от Alibaba DAMO
✨ LLaVA-Mini от Китайской академии наук
✨Hunyuan-7B от TXhunyuan
✨ Hunyuan 3D 2.0
ИИ-агенты:
✨ UI-TARS от ByteDanceOSS
✨ GLM-PC
Датасеты:
✨ Fineweb-Edu-Chinese-V2.1
✨ Multimodal_textbook от Alibaba
✨ MME-Finance от Hithink AI
✨ GameFactory от KwaiVGI
📌 Полный список Релизов
#ai #ml #digest #china #deepseek #Alibaba
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥14👍8⚡3😁1
🔬 Janus-Pro - новый мультимодальный генератор от DeepSeek
Для понимания изображений: SigLIP-L энкодер (384x384)
Для генерации: Специализированный токенизатор с даунсемплингом 16x
Фундамент: DeepSeek-LLM-7B-base
Общая архитектура: единый трансформер для всех модальностей
Эффективное использование памяти благодаря раздельным путям обработки
💪 Где показывает превосходство:
Понимание изображений:
- Превосходит специализированные модели в задачах VQA
- Лучше справляется с абстрактными рассуждениями о визуальном контенте
Генерация:
- Качество на уровне специализированных моделей
- Более стабильное соответствие текстовым промптам
Мультизадачность:
- Свободное переключение между пониманием и генерацией
- Нет деградации производительности при смене режимов
🎯 Технические преимущества:
- Меньше конфликтов в обучении благодаря раздельным путям
- Лучшая масштабируемость архитектуры
- Более эффективное использование вычислительных ресурсов
Что особенно интересно: архитектура Janus-Pro решает фундаментальную проблему unified моделей, при этом не усложняя систему дополнительными компонентами. Это редкий случай, когда "простое решение" оказывается действительно эффективным.
🔮 Перспективы:
Судя по архитектуре, модель имеет серьезный потенциал для масштабирования. Особенно интересно будет увидеть версию на базе их 70B модели - теоретически, это может дать качественный скачок в обеих модальностях.
https://github.com/deepseek-ai/Janus
paper
Demo
АСТАНАВИТЕСЬ!!!111 Адин адин!!
Уважаемые DeepSeek, новый год через 2 дня. Идите уже отдыхать и закупать видеокарты :))))
#DeepSeek #Janus #multimodal
———
@tsingular
Для понимания изображений: SigLIP-L энкодер (384x384)
Для генерации: Специализированный токенизатор с даунсемплингом 16x
Фундамент: DeepSeek-LLM-7B-base
Общая архитектура: единый трансформер для всех модальностей
Эффективное использование памяти благодаря раздельным путям обработки
💪 Где показывает превосходство:
Понимание изображений:
- Превосходит специализированные модели в задачах VQA
- Лучше справляется с абстрактными рассуждениями о визуальном контенте
Генерация:
- Качество на уровне специализированных моделей
- Более стабильное соответствие текстовым промптам
Мультизадачность:
- Свободное переключение между пониманием и генерацией
- Нет деградации производительности при смене режимов
🎯 Технические преимущества:
- Меньше конфликтов в обучении благодаря раздельным путям
- Лучшая масштабируемость архитектуры
- Более эффективное использование вычислительных ресурсов
Что особенно интересно: архитектура Janus-Pro решает фундаментальную проблему unified моделей, при этом не усложняя систему дополнительными компонентами. Это редкий случай, когда "простое решение" оказывается действительно эффективным.
🔮 Перспективы:
Судя по архитектуре, модель имеет серьезный потенциал для масштабирования. Особенно интересно будет увидеть версию на базе их 70B модели - теоретически, это может дать качественный скачок в обеих модальностях.
https://github.com/deepseek-ai/Janus
paper
Demo
АСТАНАВИТЕСЬ!!!111 Адин адин!!
Уважаемые DeepSeek, новый год через 2 дня. Идите уже отдыхать и закупать видеокарты :))))
#DeepSeek #Janus #multimodal
———
@tsingular
🔥14😁4🤯2
This media is not supported in your browser
VIEW IN TELEGRAM
А вот это интересно!
Умельцы из Unsloth пожали Deepseek весом более 700 гигабайт в ~150-180
https://t.iss.one/seeallochnaya/2273
Т.е, внимание, - это 2 DIGITS!!!
Всего $6000 и R1 будет летать у вас ДОМА! :))
Потери в качестве минимальны. В примере видно, что она по прежнему генерит рабочий код.
Статья: https://unsloth.ai/blog/deepseekr1-dynamic
Главные технические моменты:
Архитектурный подход:
Они изучили архитектуру DeepSeek R1 и обнаружили, что модель использует MoE (Mixture of Experts) слои
Первые 3 слоя модели являются полностью плотными (не MoE)
MoE слои используют общих экспертов, занимая всего 1.5% весов
Стратегия квантизации:
Применили динамическую квантизацию, используя разные уровни точности для разных слоев:
Первые 3 плотных слоя (0.5% весов) оставили в 4-6 битном представлении
MoE слои с общими экспертами (1.5% весов) оставили в 6 битах
Модули внимания MLA (<5% весов) оставили в 4-6 битах
Основную массу весов (~88%) в MoE слоях сжали до 1.58 бит
Особое внимание к down_proj слоям:
Обнаружили, что down_proj матрицы особенно чувствительны к квантизации
Это связано с архитектурой SwiGLU, где down_proj должен масштабировать большие числа
Первые 3-6 MoE down_proj матриц оставили в высокой точности
Общие технические детали:
Размер модели уменьшился с 720GB до 131GB (сокращение на 80%)
Для работы требуется минимум 20GB RAM
Оптимальная производительность достигается при сумме VRAM + RAM ≥ 80GB
Скорость генерации около 140 токенов в секунду на 2x H100 80GB
#DeepSeek #Unsloth
———
@tsingular
Умельцы из Unsloth пожали Deepseek весом более 700 гигабайт в ~150-180
https://t.iss.one/seeallochnaya/2273
Т.е, внимание, - это 2 DIGITS!!!
Всего $6000 и R1 будет летать у вас ДОМА! :))
Потери в качестве минимальны. В примере видно, что она по прежнему генерит рабочий код.
Статья: https://unsloth.ai/blog/deepseekr1-dynamic
Главные технические моменты:
Архитектурный подход:
Они изучили архитектуру DeepSeek R1 и обнаружили, что модель использует MoE (Mixture of Experts) слои
Первые 3 слоя модели являются полностью плотными (не MoE)
MoE слои используют общих экспертов, занимая всего 1.5% весов
Стратегия квантизации:
Применили динамическую квантизацию, используя разные уровни точности для разных слоев:
Первые 3 плотных слоя (0.5% весов) оставили в 4-6 битном представлении
MoE слои с общими экспертами (1.5% весов) оставили в 6 битах
Модули внимания MLA (<5% весов) оставили в 4-6 битах
Основную массу весов (~88%) в MoE слоях сжали до 1.58 бит
Особое внимание к down_proj слоям:
Обнаружили, что down_proj матрицы особенно чувствительны к квантизации
Это связано с архитектурой SwiGLU, где down_proj должен масштабировать большие числа
Первые 3-6 MoE down_proj матриц оставили в высокой точности
Общие технические детали:
Размер модели уменьшился с 720GB до 131GB (сокращение на 80%)
Для работы требуется минимум 20GB RAM
Оптимальная производительность достигается при сумме VRAM + RAM ≥ 80GB
Скорость генерации около 140 токенов в секунду на 2x H100 80GB
#DeepSeek #Unsloth
———
@tsingular
🔥10👍4