Машинное обучение RU
17.7K subscribers
1.57K photos
207 videos
11 files
2.04K links
Все о машинном обучении

админ - @workakkk

@data_analysis_ml - анализ даннных

@ai_machinelearning_big_data - Machine learning

@itchannels_telegram -лучшие ит-каналы

@pythonl - Python

@pythonlbooks- python 📚

@datascienceiot - 📚

РКН: clck.ru/3FmrUw
Download Telegram
🗺️ AI-генератор бесконечных карт

Nano Banana Infinimap — экспериментальный генератор карт, использующий ИИ для создания бесшовных тайлов. Проект демонстрирует возможности модели Nano Banana, позволяя генерировать огромные карты с учетом соседних тайлов.

🚀Основные моменты:
- 🗺️ Бесконечные карты с навигацией на базе Leaflet
- 🤖 Генерация тайлов с использованием модели Google Nano Banana
- 🔗 Учет соседних тайлов для плавных краев
- 💾 Локальное хранение данных

📌 GitHub: https://github.com/seezatnap/nano-banana-infinimap

#javascript
4👍2🔥2
🔒 MIT Sloan: 80% современных атак с выкупом работают на ИИ

ИИ стал главным оружием киберпреступников:
- LLM штампуют фишинговые письма и вредоносный код
- Голосовое клонирование подделывает звонки «от босса» или службы поддержки
- Автоматизация ломает пароли и обходит CAPTCHA в разы быстрее

🚨 Что это значит для бизнеса:
- Простых обновлений и ручного мониторинга уже недостаточно
- Системы должны сами лечить уязвимости и держать оборону 24/7
- «Zero trust» — новый стандарт: доверять нельзя никому, даже внутренним запросам

🛡 Три уровня защиты будущего:
1. Automation — авто-патчи и самовосстановление кода
2. Autonomous & deceptive defense — движущаяся цель + фейковые ловушки для хакеров
3. Augmented oversight — онлайн risk-score, прогноз ущерба и отчётность для руководителей

ИИ ускорил атаки — но он же помогает строить умную, автономную защиту.

🔗 MIT Sloan Report: https://mitsloan.mit.edu/ideas-made-to-matter/80-ransomware-attacks-now-use-artificial-intelligence

#AI #Cybersecurity #Ransomware #ZeroTrust #MIT
3👍1😁1
🤖 AI vs рекрутеры: кто лучше проводит собеседования?

Исследование Университета Чикаго и Erasmus University показало, что AI-интервьюеры могут иметь серьёзные преимущества перед людьми.

📊 Результаты на 67 000 соискателей (call-center, Филиппины):
• Кандидаты, прошедшие интервью у чат-бота Anna AI, на 12% чаще получали оффер.
• Среди получивших оффер — на 18% чаще выходили на работу.
• Соискатели вдвое реже жаловались на дискриминацию по полу.
• Anna AI охватывала в среднем 9 тем против 5 у рекрутеров.
• 71% кандидатов оценили опыт интервью с ботом позитивно.

⚠️ Минусы: 5% интервью заканчивались раньше времени, 7% имели техсбои.

💡 Почему это важно:
AI-интервью могут быть более объективными, масштабируемыми и удобными для кандидатов, чем живое интервью с рекрутером. Особенно это заметно в массовом найме для entry-level позиций.

📌 Полный разбор исследования
4🔥4👍1
This media is not supported in your browser
VIEW IN TELEGRAM
📁 Илон Маск о Optimus v3:

🤖 Робот получит:
- Человеко-подобную ловкость
- ИИ, понимающий реальность
- Массовое производство в объёмах, которых ещё не достигала ни одна робототехническая компания

Маск считает, что это может стать самым большим продуктом в истории.

💵 Цена:
- На старте: $30,000–$40,000 за единицу
- При масштабировании до ~1 млн роботов в год: падение цены до $20,000

👉 Если всё пойдёт по плану, Optimus станет не просто демонстрацией технологий, а реальным массовым продуктом, меняющим рынок труда и быта.
7👍4🔥2👏1😁1
🚀 Unsloth показал, как динамическая квантизация (Dynamic GGUFs) может радикально ускорить и облегчить работу LLM, не теряя качество.

В чём суть
Обычные методы квантизации уменьшают разрядность весов модели одинаково для всех слоёв.
Unsloth пошёл дальше: каждому слою подбирается своё число бит.
- Ключевые слои → 6–8 бит (чтобы сохранить точность).
- Второстепенные → 1–3 бита (для максимального сжатия).

Результаты, которых удалось добиться:
- 671B DeepSeek-V3.1: сжатие модели с 671GB до 192GB (–75%).
- 1-бит версия уже обгоняет GPT-4.1 и GPT-4.5 в «no-thinking» задачах.
- 3-бит версия превосходит Claude-4-Opus в «thinking» задачах.
- 5-бит версия догоняет и стабильно держит уровень SOTA.

🟢Почему это интересно:
- Сжатие → модели становятся доступнее для запуска на меньших GPU.
- Качество не падает, а иногда даже растёт за счёт умного распределения битности.
- Тесты на Aider Polyglot benchmark показывают лучшие результаты среди существующих quant-моделей.

🟢Итог
Dynamic GGUF от Unsloth — это не просто ещё один способ «урезать» модель, а технология, которая делает триллионные LLM компактными, быстрыми и при этом сверхточными.

Пост: https://docs.unsloth.ai/basics/unsloth-dynamic-ggufs-on-aider-polyglot

#Unsloth #LLM #Quantization #AI #AiderPolyglot
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
12👍4🔥3
🧠 ThinkMesh: Параллельное мышление для LLM

ThinkMesh — это библиотека на Python, позволяющая запускать различные пути рассуждений параллельно, используя внутренние сигналы уверенности для перераспределения вычислительных ресурсов. Она поддерживает оффлайн-работу с Hugging Face Transformers и API.

🚀 Основные моменты:
- Параллельное рассуждение с динамическим перераспределением бюджета
- Оффлайн-работа с Transformers и интеграция с OpenAI
- Асинхронное выполнение с динамическими микро-пакетами
- Поддержка пользовательских верификаторов и редукций
- Кэширование и метрики для отслеживания производительности

📌 GitHub: https://github.com/martianlantern/ThinkMesh

#python
🔥83👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Google Cloud добавил два новых расширения в Gemini CLI, которые делают работу с приложениями удобнее и безопаснее:

1️⃣ /deploy — деплой прямо в Cloud Run
2️⃣ /security:analyze — проверка кода на уязвимости

Теперь эти операции можно выполнять прямо из командной строки.
Подробнее: https://goo.gle/46aR6a0

#GoogleCloud #GeminiCLI #CloudRun #Security #DevTools
👍2
Forwarded from Machinelearning
🖥 HunyuanImage 2.1 теперь доступна в квантизованной версии!

Это text-image модель, которая может генерировать изображения в 2K.

Теперь модель можно запускать локально. Для этого необходимо минимум 24GB VRAM.

🟢Hugging Face: https://huggingface.co/tencent/HunyuanImage-2.1)
🟢Подробнее про модель: https://t.iss.one/machinelearning_interview/2161

@ai_machinelearning_big_data


#AI #HunyuanImage #StableDiffusion #ImageGeneration
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
5👍2🔥1🤩1
Forwarded from Machinelearning
🧠 mem-agent — агент с памятью в стиле Obsidian

Лёгкая LLM-модель, которая умеет хранить знания в человеко-читаемой памяти (Markdown-файлы) и использовать их для ответов. Агент не просто отвечает на запросы, а действительно «помнит» факты и обновляет их по ходу работы.

Это агент на 4B с локальной, совместимой памятью для Claude, ChatGPT и LM Studio.

Как работает память:
- Вся информация лежит в Markdown: memory/user.md и отдельные файлы для сущностей.
- Связи между файлами сделаны как в Obsidian: [[entity]].
- Агент может извлекать факты, обновлять их или задавать уточняющие вопросы, если запрос неполный.

Вместо огромных контекстов и упора в лимиты, Mem-Agent извлекает нужные фрагменты из локальных документов, сжимает их и передаёт агенту.

Как обучали:
- Базовая модель: Qwen3-4B-Thinking-2507.
- Использовали метод онлайн-RL (GSPO).
- Тестировали на md-memory-bench.

Результаты:
- mem-agent уверенно решает задачи памяти, близко к уровню больших моделей.
- Даже в сжатых версиях (4-bit и 8-bit) сохраняет почти то же качество.

Чем хорош:
- Память можно читать и редактировать вручную.
- Агент работает быстро и эффективно, даже в маленьком размере.
- Удобен как компонент в более крупных системах (например, через MCP).

🟠Model: https://huggingface.co/driaforall/mem-agent
🟠Blog: https://huggingface.co/blog/driaforall/mem-agent
🟠Repo: https://github.com/firstbatchxyz/mem-agent-mcp

@ai_machinelearning_big_data


#LLM #AI #Agents #MemAgent #Dria #MCP #LocalAI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
8👍2
🌐 Теория «Мёртвого интернета» в действии

1️⃣ Именно поэтому Цукерберг и его компания продвигают своих AI-компаньонов (Цитата Марка: *«у каждого должны быть AI-друзья»*) — потому что теория «мёртвого интернета» постепенно становится реальностью.

2️⃣ Интернет и социальные сети уже переполнены ботами на базе ИИ — и отличить человека от машины становится всё сложнее.

🤖 Граница между реальным общением и синтетическим присутствием всё больше размывается.
12👍3😱2👎1🔥1
Как стать востребованным специалистом в ML?
Получите актуальные знания и навыки на курсе «Machine Learning. Professional».

🔹Освойте современные инструменты на профессиональном уровне и получите навыки создания моделей машинного обучения от преподавателей-практиков.

🔹Мы вместе с преподавателями подготовили программу обучения, где много практики, чтобы вы использовали только актуальные инструменты 2025 года на реальных проектах во время обучения.

После обучения вы сможете:
• Работать с языковыми моделями (NLP)
• Прогнозировать временные ряды при помощи машинного обучения.
• Строить рекомендательные системы
готовить модели в продакшн
• Разрабатывать и создавать нейросетевые AI-модели
• Работать с AI-моделями
• Применять широкий спектр нейросетевых AI-моделей для разнообразных задач.

Записывайтесь на бесплатный вебинар
15 сентября в 20:00 мск.

🎁Участники вебинара смогут активировать скидку 5% на курс по промо-коду: ML_PRO_09 до 10.10.2025г. Регистрация на сайте.

Старт курса: 26 сентября.
Оставить заявку ➡️ OTUS.RU

Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576
👍21
Media is too big
VIEW IN TELEGRAM
🧠 SpikingBrain-7B: Модели, вдохновленные нейробиологией

SpikingBrain-7B представляет собой архитектуру, основанную на механизмах мозга, которая использует гибридное внимание и модули MoE для эффективного обучения. Она обеспечивает высокую производительность при минимальных затратах данных и адаптирована для кластеров без NVIDIA, что позволяет значительно ускорить обучение и вывод.

🚀Основные моменты:
- Интеграция гибридного внимания и MoE.
- Поддержка низкопрофильного обучения с использованием менее 2% данных.
- Оптимизирована для кластеров MetaX.
- Достигает более чем 100-кратного ускорения в обработке длинных последовательностей.
- Включает версии для HuggingFace и квантованную версию.

📌 GitHub: https://github.com/BICLab/SpikingBrain-7B
📌 Видео-разбор: https://www.youtube.com/watch?v=pLNheyBzA9o
8👍3
🚀 Обучение LLM-агентов для многоповоротного принятия решений

AgentGym-RL — это фреймворк для тренировки LLM-агентов, способных принимать решения в сложных многоповоротных сценариях с использованием методов усиленного обучения. Он предлагает разнообразные реальные сценарии и поддерживает популярные алгоритмы RL, улучшая производительность моделей до уровня коммерческих решений.

🚀 Основные моменты:
- Модульная система для гибкости и расширяемости.
- Поддержка различных реальных сред, включая веб-навигацию и глубокий поиск.
- Метод ScalingInter-RL для стабильного обучения агентов.
- Интерактивный интерфейс для визуализации взаимодействий.

📌 GitHub: https://github.com/WooooDyy/AgentGym-RL

#python
5👍2🔥1
🌐 DeepMind представила URL Context — теперь можно извлекать данные с любой веб-страницы, PDF или картинки просто по ссылке!

Что умеет:
- Подтягивает данные с до 20 URL за один запрос
- Никакой настройки — просто вставляешь ссылки в промпт
- Оплата только за токены, без доп. стоимости за инструмент

💡 Возможности:
▸ Вытаскивать цены, имена, ключевые факты из статей
▸ Сравнивать PDF, отчёты или статьи
▸ Генерировать резюме, посты и документы на основе разных источников
▸ Анализировать GitHub-репозитории и техдоки

👉 URL Context превращает LLM в универсальный инструмент для работы с реальными данными в сети.

https://ai.google.dev/gemini-api/docs/url-context?hl=ru
3👍1
Канал о серверной и облачной инфраструктуре для ИИ.

Подписывайся на Telegram-канал HOSTKEY — здесь вы найдете:

🔹тесты производительности и бенчмарки GPU-карт и серверного «железа»
🔹новости рынка и технологий
🔹лайфхаки и инструкции по интеграции ИИ в проекты
🔹практические советы для разработчиков и бизнеса

🔥 Последние популярные публикации канала:

🔹 Сравнение NVIDIA RTX 6000 Blackwell 96 ГБ с RTX 5090, A5000 и H100 в задачах LLM и генерации видео — результаты удивляют!
🔹Тестирование NVIDIA GeForce RTX 5090 в задачах ИИ.
🔹10 советов по Open WebUI, которые помогут в работе с нейросетями.
🔹Как добавить генерацию изображений через ComfyUI в Open WebUI.

🎁 А еще мы каждый месяц разыгрываем Telegram Premium среди подписчиков!

Если вы работаете с ИИ и нейросетями — вам точно будет интересно и полезно! 
Подписывайтесь! 

#реклама
О рекламодателе
3👍1
🤖 Build a Coding Agent from Scratch — Full Python Tutorial

Новый туториал показывает, как своими руками собрать мини-версию Claude Code-агента на Python.

Что внутри:
- 🧠 Создание reasoning-модуля («мозга» для принятия решений)
- 📝 Инструкции и ReAct-loop для пошагового мышления
- 🔧 Интеграция инструментов и памяти
- 🛡 Безопасное выполнение кода и песочница
- 📂 Работа с большими кодовыми базами (контекст-менеджмент)

Итог: агент, который умеет писать, тестировать, дебажить и итеративно улучшать код. Отличный материал, чтобы разобраться, как устроены современные coding-assistants под капотом.

🟢 Read: https://siddharthbharath.com/build-a-coding-agent-python-tutorial/
Please open Telegram to view this post
VIEW IN TELEGRAM
4👍2