Анализ данных (Data analysis)
46.3K subscribers
2.3K photos
264 videos
1 file
2.04K links
Data science, наука о данных.

@haarrp - админ

@itchannels_telegram - 🔥 главное в ит

@ai_machinelearning_big_data - ML

@machinelearning_interview - вопросы с собесдований по Ml

РКН: clck.ru/3FmyAp
Download Telegram
🧠 Cartridges: как ускорить LLM в 26 раз без потери качества

Что, если вместо того, чтобы каждый раз загонять в контекст LLM весь репозиторий, мы предварительно обучим мини-контекст — и будем просто вставлять его при генерации?

🔍 Это и есть идея Cartridges — небольшой KV-кэш, обученный заранее с помощью метода self-study (обучение во время инференса).

📦 Репозиторий: содержит код для тренировки "картриджа" — легкого представления большого текстового дампа (например, всей кодовой базы), которое вставляется в LLM как контекст.

📉 Проблема:
• Если вставлять много текста в LLM, KV-кэш раздувается, скорость падает, стоимость растёт

🚀 Решение:
• Обучаем маленький KV-кэш для документации или репо
• Используем его как "сжатый контекст" при генерации

📈 Результаты:
• До 26× ускорения
• Качество ответов сохраняется
• Простая реализация и универсальный подход

📖 Подробнее в статье: *Cartridges: Lightweight and general-purpose long context representations via self-study*

git clone https://github.com/HazyResearch/cartridges && cd cartridges
pip install uv
uv pip install -e .


📎 Идея простая, но мощная: пусть LLM "запоминает" ваш проект заранее — и работает с ним быстро, как с привычным знанием.

Github
👍128🔥3🤔1
Forwarded from Machinelearning
⚡️ Mistral выпустила ризонинг-модель Magistral.

Magistral — первая модель рассуждений от Mistral AI. Она сочетает глубокую логическую обработку с возможностью отслеживать каждый шаг её «мышления».

Модель получила поддержку 8 языков, включая русский и выпущена в 2 вариантах:

🟢опенсорсный Magistral Small с 24 млрд. параметров;

🟠корпоративный Magistral Medium.

Внутри Magistral работает в режиме рассуждений, разбивая задачи на цепочки логических шагов, а Flash Answers ускоряет вывод в 10 раз по сравнению с конкурентами. Для интеграции в рабочие процессы модель умеет взаимодействовать с внешними инструментами (API или базами данных).

В тестах Magistral Medium показал 73,6% точности на задачах AIME2024, демонстрируя силу в физических симуляциях и математических расчетах.

Для разработчиков доступны версии на Hugging Face, AWS и IBM WatsonX, а в будущем — на Azure и Google Cloud. Демо Magistral доступно в интерфейсе Le Chat или по API в La Plateforme.


📌Лицензирование: Apache 2.0 License.


🟡Статья
🟡Модель
🟡Техотчет
🟡Web Demo


@ai_machinelearning_big_data

#AI #ML #LLM #Magistral #MistralAI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍94🥰2👏1
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 NVIDIA представила гигантский синтетический датасет для беспилотных автомобилей!

🔥 Что внутри?
81,802 синтетических видео с разнообразными сценариями:
— Городские/шоссейные дороги
— Экстремальные погодные условия (дождь, снег, туман)
— Редкие ситуации (аварии, нестандартные ПДД)

Мультисенсорные данные:
— Камеры, лидары, радары
— Разметка объектов (пешеходы, машины, знаки)

Dataset: https://huggingface.co/datasets/nvidia/PhysicalAI-Autonomous-Vehicle-Cosmos-Drive-Dreams
Project Page: https://research.nvidia.com/labs/toronto-ai/cosmos_drive_dreams/

@data_analysis_ml
🔥235👍3
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
🔥 Manus Chat Mode — бесплатно и без ограничений для всех.

💬 Работает супер быстро прямо в чате.

🚀 Так же доступен Agent Mode с расширенными возможностями.

От простых вопросов до сложных задач — всё в одном окне : https://manus.im/

@ai_machinelearning_big_data

#news #ai #ml #manus
9👍2🔥1
🎉 cuOpt от NVIDIA стал open source!

Теперь можно легко ускорять задачи оптимизации —
🔸 линейное программирование (LP)
🔸 целочисленные задачи (MIP)
🔸 маршрутизацию транспорта (VRP)
— с помощью GPU, почти не меняя код.

💡 Работает с Python, REST API и CLI
💡 Поддерживает PuLP и AMPL
💡 Запускается локально или в облаке
💡 Настраивается за пару минут

pip install --extra-index-url=https://pypi.nvidia.com cuopt-server-cu12==25.5.* cuopt-sh==25.5.*

📈 Результат — решения почти в реальном времени, даже для сложных задач.

👉 Попробуй
9👍9🔥2❤‍🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
🧠 Text-to-LoRA — адаптеры LoRA по описанию задачи на естественном языке

Text-to-LoRA (T2L) — это гиперсеть, которая генерирует адаптер LoRA для LLM,
исходя только из текстового описания задачи. Без данных. Без обучения. Просто промпт → LoRA.

💡 Как работает:
▪️ Метаобученная гиперсеть принимает описание задачи
▪️ Генерирует task-specific LoRA в один шаг
▪️ Поддерживает сотни известных LoRA
▪️ Может обобщать на новые задачи

🚀 Почему это важно:
Традиционно адаптация LLM требует:
- большого датасета
- тонкой настройки
- вычислительных затрат

Text-to-LoRA делает то же самое в один шаг, просто по тексту. Это снижает технический порог и делает настройку доступной даже без ML-экспертизы.

🧬 Вдохновлено биологией:
Как зрение человека адаптируется к свету без обучения,
так и LLM может адаптироваться к задаче по описанию — через T2L.

📌 Новый шаг к адаптивным и доступным языковым системам.

📍 Представлено на #ICML2025

📄 Paper: https://arxiv.org/abs/2506.06105
💻 Code: https://github.com/SakanaAI/Text-to-Lora

@data_analysis_ml
🔥1310👍4🤔2🥰1
🚀 DiffusionRenderer (Cosmos): Neural Inverse and Forward Rendering with Video Diffusion Models

Cosmos DiffusionRenderer — это современный фреймворк для нейросетевого de-lighting и re-lighting видео и изображений.

Новый релиз даёт качественный скачок по сравнению с предыдущей версией: ещё более чистое удаление и добавление освещения благодаря архитектуре NVIDIA Cosmos и улучшенному пайплайну обработки данных.

🔧 Минимальные требования:
• Python 3.10
• NVIDIA GPU с минимум 16 ГБ VRAM (рекомендуется ≥24 ГБ)
• NVIDIA драйверы и CUDA 12.0+
• Свободно ≥70 ГБ на диске

Проект протестирован на Ubuntu 20.04 и видеокартах NVIDIA A100/A5000.

https://github.com/nv-tlabs/cosmos1-diffusion-renderer

@data_analysis_ml
🔥75👍2🥰1
🔥 Успех в IT = скорость + знания + окружение

Здесь ты найдёшь всё это — коротко, по делу и без воды.
Пока другие ищут, где “подглядеть решение”, ты уже используешь самые свежие инструменты!

AI: t.iss.one/ai_machinelearning_big_data
Python: t.iss.one/python_job_interview
Linux: t.iss.one/linuxacademiya
Собеседования DS: t.iss.one/machinelearning_interview
C++ t.iss.one/cpluspluc
Docker: t.iss.one/DevopsDocker
Хакинг: t.iss.one/linuxkalii
Devops: t.iss.one/DevOPSitsec
Data Science: t.iss.one/machinelearning_ru
Javascript: t.iss.one/javascriptv
C#: t.iss.one/csharp_ci
Java: t.iss.one/javatg
Базы данных: t.iss.one/sqlhub
Python собеседования: t.iss.one/python_job_interview
Мобильная разработка: t.iss.one/mobdevelop
Golang: t.iss.one/Golang_google
React: t.iss.one/react_tg
Rust: t.iss.one/rust_code
ИИ: t.iss.one/vistehno
PHP: t.iss.one/phpshka
Android: t.iss.one/android_its
Frontend: t.iss.one/front
Big Data: t.iss.one/bigdatai
МАТЕМАТИКА: t.iss.one/data_math
Kubernets: t.iss.one/kubernetc
Разработка игр: https://t.iss.one/gamedev
Haskell: t.iss.one/haskell_tg
Физика: t.iss.one/fizmat

💼 Папка с вакансиями: t.iss.one/addlist/_zyy_jQ_QUsyM2Vi
Папка Go разработчика: t.iss.one/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: t.iss.one/addlist/eEPya-HF6mkxMGIy
Папка ML: https://t.iss.one/addlist/2Ls-snqEeytkMDgy
Папка FRONTEND: https://t.iss.one/addlist/mzMMG3RPZhY2M2Iy

😆ИТ-Мемы: t.iss.one/memes_prog
🇬🇧Английский: t.iss.one/english_forprogrammers
🧠ИИ: t.iss.one/vistehno

🎓954ГБ ОПЕНСОРС КУРСОВ: @courses
📕Ит-книги бесплатно: https://t.iss.one/addlist/BkskQciUW_FhNjEy

Подпишись, если хочешь быть в числе тех, кого зовут в топовые проекты!
4👍2❤‍🔥1🔥1
🔥 AMD возвращается — и бросает вызов NVIDIA

Конец эпохи дефицита GPU?

На конференции Advancing AI AMD представила новые чипы MI350 и анонсировала серию MI400.

💥 MI350X:
• В 35 раз выше производительность инференса, чем у MI300
• На 40% энергоэффективнее, чем NVIDIA Blackwell
• Новый сервер Helios — до 72 чипов на стойку (ответ NVL72 от NVIDIA)

💬 Сэм Альтман (OpenAI) подтвердил партнёрство и участие в проектировании MI450
🧠 Microsoft, Meta, Oracle, xAI — уже на борту

🔓 AMD делает ставку на открытые стандарты (в отличие от CUDA)
♻️ Цель — 20-кратный рост энергоэффективности дата-центров к 2030

⚙️ AMD впервые всерьёз конкурирует с NVIDIA
Ставки: цена, открытость и масштабируемость.

MI350X выглядит как серьёзный конкурент Blackwell, а поддержка MI450 со стороны Альтмана — это далеко не пустой жест.

Если AMD продолжит продвигать открытые стандарты и энергоэффективность, мы наконец-то можем увидеть борьбу за рынок с NVIDIA на рынке GPU.

@data_analysis_ml
🔥2411👍9
Forwarded from Machinelearning
📌Реверс-инженерия GPT-2 методом трассировки цепей Cross-Layer Transcoders.

Goodfire AI, вдохновившись примером Anthropic в интерпретации внутренних процессов Claude, воспроизвели методы трассировки цепей межслойных транскодеров (Cross-Layer Transcoders, CLT) на GPT-2 Small, чтобы проверить их способность раскрывать известные механизмы трансформеров.

Выбор на GPT-2 Small пал не случайно, эта модель небольшая и уже была ранее подвергнута ручному реверс-инжинирингу.

Cross-Layer Transcoders выжимают из модели разреженные признаки, которые объясняют работу MLP-слоев. Визуализируют это через графы атрибуции — это карты влияния признака на выход модели.


Натренировали на 100M токенов из FineWeb, получили ~590K признаков. Точность CLT-реплики модели составила 59%, что близко к оригинальным статьям. Тестировали на задаче сравнения чисел («больше, чем»), идеальном полигоне, где уже известны ключевые механизмы.

Задача "Больше, чем" (ориг. "greater-than") взята из статьи Michael Hanna, она заставляет предсказывать большие числа для второго года в диапазоне дат.


▶️ Главный эксперимент:

Промпт «The war lasted from the year 1711 to 17». CLT построил граф, где признаки с токена «11» (последняя цифра года) активнее всего влияли на предсказание.

Дальше, выделили топ-160 признаков, для каждого построили логит-атрибуции — теплокарты, показывающие, как признак влияет на выходные годы (ZZ) при разных входных (YY).

▶️ Что нашли:

🟢Признаки «больше, чем»: Feature 425104 (слой 8) активируется на больших числах в хронологии (даты, войны). Но его теплокарта продвигает выходы >60, независимо от входа, а вот Feature 461858 работает только для YY=6–14 и продвигает ZZ=10–30.

Похоже, CLT подсветил кучу узкоспециализированных «сравнивателей», а не универсальные нейроны, как в ручных исследованиях.

🟢Сюрпризы: Feature 399423 — вообще не про числа. Он кодирует четность и контраст: активируется на «and» в «pros and cons», а в задаче продвигает четные ZZ при нечетных YY. Абстракция уровня «противоположность» — такого в прошлых работах не видели.

🟢Странности: Feature 402486 вообще саботирует задачу: продвигает малые числа. Или Feature 349410 — работает только для YY=11, хотя ее max-активации показывают числа до 30.

▶️ Выводы:

CLT автоматически находит интерпретируемые признаки, даже такие неочевидные, как абстрактная четность. Но их «разреженный» мир выглядит иначе, чем ручная трассировка цепей: тут больше узких признаков-«спецов» (Feature 461858 для диапазона 10–30) и меньше универсальных механизмов.

Возможно, дело в методе: CLT смотрит изолированные вклады фич, а в полной модели они взаимодействуют.

В общем, эксперименты с CLT показал, что под капотом языковых моделей не только четкие «сравниватели чисел», но и куча скрытых паттернов вроде детекторов контраста или любителей чисел, кратных 5. И да, полуавтономный анализ иногда видит то, что люди упускают.

🔜 Читать полную статью


@ai_machinelearning_big_data

#AI #ML #LLM #Research #CLT
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
10👍3🔥2
🧠 Спор о будущем: Дженсен Хуанг против Дарио Амодеи

CEO Nvidia Дженсен Хуанг и глава Anthropic Дарио Амодеи — по разные стороны баррикад, когда речь идёт о будущем рабочих мест в эпоху ИИ.

🔻 Амодеи бьёт тревогу:
ИИ может «съесть» до 50% начальных должностей уже в ближайшие 5 лет. Массовая безработица — реальный риск. Он также настаивает на жёстком регулировании разработки ИИ.

🔺 Хуанг с ним не согласен:
Он не верит в крах рынка труда. По его мнению, ИИ поднимет производительность и трансформирует рабочие процессы, создав новые рабочие места. Более того, он считает, что технологии должны развиваться открыто — как в медицине, чтобы вовремя выявлять риски.

🤔 Но…
Хуанг так и не объяснил, какие именно профессии появятся и почему люди в них будут лучше ИИ.

💬 Амодеи звучит убедительнее. Слепая вера в «появление новых рабочих мест» без конкретики — опасная иллюзия.

@data_analysis_ml
🔥8👍65🤔2😁1