Анализ данных (Data analysis)
46.3K subscribers
2.31K photos
264 videos
1 file
2.04K links
Data science, наука о данных.

@haarrp - админ

@itchannels_telegram - 🔥 главное в ит

@ai_machinelearning_big_data - ML

@machinelearning_interview - вопросы с собесдований по Ml

РКН: clck.ru/3FmyAp
Download Telegram
🚀 GitHub решил главную боль open-source ИИ-проектов — теперь inference доступен всем

Новая инициатива GitHub Models позволяет запускать LLM прямо из кода или CI,
⚡️ без API-ключей OpenAI, без развёртывания моделей, без костылей.

🔧 Как это работает:
- Полная совместимость с openai.ChatCompletion.create
- Поддержка GPT‑4o, Llama 3, DeepSeek и др.
- Авторизация через обычный GITHUB_TOKEN
- Бесплатно для OSS и личных аккаунтов
- Можно использовать даже в GitHub Actions (просто `permissions: models: read`)

💡 Зачем это нужно:
- Убирает барьер входа для пользователей и контрибьюторов
- Помогает легко добавлять ИИ‑фичи в open-source проекты
- Работает с OpenAI SDK, LangChain, Python, Node.js и другими библиотеками

📦 Теперь запускать AI в open-source так же просто, как git push.

📝 Подробности:
https://github.blog/ai-and-ml/llms/solving-the-inference-problem-for-open-source-ai-projects-with-github-models
17🔥7👍5
🧠ИИ открыл новые законы физики — понятным языком

Учёные из Университета Эмори (США) дали ИИ задачу не
«угадывать результаты», а самому вывести формулы. Вот что получилось.

🔍 Что исследовали
- Пыльная плазма — это горячий ионизированный газ, в котором летают микроскопические пылевые частицы.
- Частицы отталкиваются и притягиваются сложным образом; классическая теория не всё объясняла.

🧠 Как работал ИИ
- Ему показали короткие 3-D видеозаписи движения частиц (маленький датасет).
- В алгоритм заранее «вшили» базовые принципы: сопротивление воздуха, гравитацию.
- ИИ искал уравнения, которые лучше всего описывают траектории.

📈 Что открыл
- Нереципрокные силы: сила от A к B ≠ сила от B к A. Раньше про них только догадывались.
- Исправил старую ошибку: заряд частицы зависит от её размера иначе, чем считали.
- Показал, как быстро затухают взаимодействия с расстоянием — формула тоже обновилась.

🚀 Почему это важно
- Малый объём данных: хватает секундных видеороликов.
- Обычный ПК: нужен лишь настольный компьютер, не суперкомпьютер.
- Метод переносится на любые «многие частицы» — от порошковых материалов до клеток в биологии.

Вывод: ИИ уже способен не только анализировать данные, но и выводить новые законы природы. Скорость открытий растёт экспоненциально.

https://interestingengineering.com/innovation/ai-decodes-dusty-plasma-new-forces-physics

@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
25🔥13👍41
💡 GPT-5 получит встроенный детектор галлюцинаций. OpenAI разрабатывает новую архитектуру для GPT-5 с модулем Universal Verifier, который будет проверять каждое утверждение модели на достоверность. Источники The Information сообщают, что это значительно снизит количество ошибочных ответов.

Следующая версия модели, по слухам, будет обладать адаптивным распределением вычислительных ресурсов: модель сама будет выбирать, сколько мощности выделить на задачу. Также обещают улучшенную генерацию кода и способность решать сложные пользовательские проблемы, например, взаимодействие со службами поддержки.

🔗 Ссылка - *клик*

@data_analysis_ml
12🔥10👍2❤‍🔥1
Forwarded from Machinelearning
🔥 Новые модели OpenAI нашли в релизе Transformers 4.55

GPT-OSS — долгожданysq опенсорс для продвинутого reasoning и агентных задач.

🧠 Представленно два варианта:
GPT-OSS-120B — 117B параметров, запускается на одной H100 (80GB)
GPT-OSS-20B — 21B параметров, работает на 16GB GPU (или даже локально!)

💡 Оба варианта — MoE-модели (Mixture of Experts) с 4-битной квантизацией (MXFP4), что обеспечивает быстрое и дешёвое инференс-время (активны только 3.6B и 5.1B параметров).

✔️ Особенности:
• Архитектура Token-choice MoE с SwiGLU
• Контекст до 128K токенов с RoPE
• Чередуются full-attn и sliding-window слои
• Модель хорошо работает с CoT (chain-of-thought)
• Поддержка instruction-following и tool-use
• Совместима с transformers, vLLM, llama.cpp, ollama
• Используется тот же токенизатор, что и в GPT-4o
• Открытая лицензия Apache 2.0 (есть небольшое policy-дополнение)

Младшая модель может запускаться даже на локальном железе — идеально для on-device и edge-сценариев.

📎 Пример кода инференса уже доступен — достаточно 16GB GPU с mxfp4!

🏴‍☠️Лицензирование: Apache 2.0

https://github.com/huggingface/transformers/releases/tag/v4.55.0

@ai_machinelearning_big_data


#openai #opensource #chatgpt
Please open Telegram to view this post
VIEW IN TELEGRAM
👍76🔥5
🔥 Google представила новую игровую платформу для состязания искусственных интеллектов в стратегиях — начинается захватывающий чемпионат по шахматам между нейросетями! Сегодня стартовала онлайн-трансляция турнира, участие в котором принимают сразу восемь сильных претендентов, среди них модели o4-mini, Grok 4 и Claude Opus 4.

Каждый вечер зрителей ждут новые интригующие поединки, а финальный матч состоится уже 7 августа. Следите за ходом чемпионата и болейте за своего фаворита!

📌 Ссылка на стрим

@data_analysis_ml
9👍6🔥2
🔍 Как трансформеры меняют область NLP и что стоит за LLM?

На открытом уроке «Трансформеры как основа современного NLP» 12 августа в 18:00 МСК мы разберём, как архитектура трансформеров революционизирует обработку естественного языка. Вы познакомитесь с принципами работы трансформерных моделей и их применением в современных технологиях.

Это откроет вам доступ к самым актуальным методам NLP и поможет стать востребованным специалистом в Data Science.

🚀 Регистрируйтесь и получите скидку на курс «NLP / Natural Language Processing»: https://otus.pw/Jnvy/?erid=2W5zFK5eMyz

Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
3🔥3🤨1
🧠 Архитектурные фишки GPT-OSS: краткий разбор

gpt-oss — это MoE-трансформер в самом чистом виде. Минимум магии, максимум эффективности.

GPT-OSS использует передовые техники, собрав в себе лучшее из современных LLM:

1️⃣ Sliding Window Attention
📄 [arXiv:1901.02860](https://arxiv.org/abs/1901.02860)
Эффективное внимание для длинных контекстов без полной self-attention матрицы

2️⃣ Mixture of Experts (MoE)
📄 [arXiv:2101.03961](https://arxiv.org/abs/2101.03961)
Активация только части слоёв — масштаб + эффективность одновременно

3️⃣ RoPE + YaRN
📄 [arXiv:2309.00071](https://arxiv.org/abs/2309.00071)
Комбинация Rotary Embeddings с расширением контекста до 128K+

4️⃣ Attention Sinks
📄 [arXiv:2309.17453](https://arxiv.org/abs/2309.17453)
Стабильное стриминг-внимание для генерации в реальном времени

ПО итогу gpt-oss: - это максимально “стандартный” MoE-трансформер — и это неплохо

Модель собрана без лишних выкрутасов, но включает всё, что действительно работает. Вот несколько деталей:

🔹 Attention sinks (a.k.a. регистры) — помогают сохранить информацию между токенами
🔹 Sliding window attention — применяется через слой
🔹 YaRN — расширение контекста (до 128K)
🔹 RMSNorm без bias'ов
🔹 Нет QK normalization, нет attention softcap

⚙️ GPT-OSS — это не просто open-source альтернатива, а тщательно собранный набор проверенных инноваций для высокой скорости, длинного контекста и производительности на inference.

GPT-OSS-120B
GPT-OSS-20B

@data_analysis_ml
🔥84👍4
20 августа — последний день приёма статей по AI и последняя возможность получить приз 1 000 000 рублей! 🗓

Вы ещё успеваете войти в историю AI Journey 2025, представить свою работу по искусственному интеллекту и машинному обучению, получить признание и ценные призы:

✔️ публикацию в специальном выпуске журнала «Доклады Российской академии наук. Математика, информатика, процессы управления» и его англоязычной версии Doklady Mathematics

✔️ 1 000 000 рублей за лучшее исследование

Статья должна быть абсолютно оригинальна и написана на русском или английском языке.

Узнать о правилах и направить статью можно здесь – не упустите эту возможность!
👍43
🎓 Как обучить LLM с логическим мышлением — за один уикенд и на одном GPU

NVIDIA выпустили новый туториал, где показывают, как за 48 часов обучить свою модель рассуждений — без суперкомпьютеров.

Что внутри:

⚙️ Используется NVIDIA NeMo — фреймворк для обучения LLM
📦 Обучение на специализированных задачах reasoning (аналог GSM8K)
💻 Достаточно одного GPU, чтобы получить маленькую, но умную LLM

Это отличный способ понять, как LLM "думают", и собрать свою reasoning‑модель для внутренних задач или исследований.

📹 Видео: https://youtu.be/hMGikmMFLAU
🧠 Блог: https://developer.nvidia.com/blog/train-a-reasoning-capable-llm-in-one-weekend-with-nvidia-nemo
👍54🔥2