222K subscribers
3.84K photos
641 videos
17 files
4.47K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
✔️ Google DeepMind разработала систему оценки рисков, связанных с использованием ИИ в кибератаках.

Методология анализирует все этапы атаки: от разведки до эксплуатации уязвимостей — и показывает, как ИИ может помочь хакерам, автоматизируя процессы взлома. В основе исследования — данные о 12 тыс. реальных случаев применения ИИ в атаках из 20 стран, из которых было выделено 7 ключевых категорий угроз.

Специалисты создали бенчмарк из 50 задач - от разработки вредоносного кода и поиска уязвимостей до выполнения взлома. Он поможет безопасникам тестировать защиту и готовиться к сценариям, где ИИ ускоряет атаки. Пока современные модели не дают злоумышленникам решающего преимущества, но с развитием риски вырастут.

Особое внимание в исследовании уделено этапам, которые часто упускают: маскировка атак и долгосрочный доступ к системам.

🔗 deepmind.google

@ai_machinelearning_big_data

#DeepMind #security
Please open Telegram to view this post
VIEW IN TELEGRAM
31👍16🔥6
🧠 ​В исследовании, опубликованном в журнале Science, нейробиологи впервые наблюдали, как глубокие структуры мозга, в частности таламус, активируются при осознании человеком своих мыслей, что известно как сознательное восприятие. ​

Ключевые аспекты исследования:

Роль таламуса в сознательном восприятии: Таламус, расположенный в центре мозга, участвует в обработке сенсорной информации и рабочей памяти. Ранее его роль в сознательном восприятии была предположительной; данное исследование предоставляет прямые доказательства его участия. ​

Методология: Участники, проходившие лечение от хронических головных болей с использованием глубоко имплантированных электродов, выполняли задания, требующие фиксации взгляда в зависимости от того, замечали ли они появление определенного значка на экране.

Это позволило исследователям записывать нейронную активность в таламусе и коре головного мозга во время осознания или неосознания стимула. ​

Участникам показывали иконку на экране таким образом, что они замечали (осознавали) ее появление только примерно в половине случаев. В это время исследователи одновременно записывали активность как из глубоких структур (таламуса), так и из коры головного мозга.

Выводы: Результаты показали, что активность в высокоуровневых ядрах таламуса тесно связана с состояниями сознания, подтверждая его роль в фильтрации и передаче информации, которая становится осознанной. ​

Это исследование расширяет понимание нейронных механизмов сознания, подчеркивая важность глубоких структур мозга, таких как таламус, в процессах осознания.

Работа позволяет изучить временные взаимосвязи (тайминг) активации между таламусом и корой, что критически важно для понимания того, как эти области взаимодействуют для порождения сознательного опыта. Это помогает строить более полные теории сознания, выходящие за рамки одной лишь коры.

🟡 Читать

@ai_machinelearning_big_data

#brain #science #nature
Please open Telegram to view this post
VIEW IN TELEGRAM
43👍37🔥19❤‍🔥3🥱1
📹 Топ-15 технических YouTube-каналов для изучения ИИ с нуля:

1) Andrej Karpathy — сочетание общего и технического контента, плейлист "Zero to Hero" обязателен к просмотру

2) Uproger — доступные уроки по программированию и ИИ, идеально для начинающих и тех, кто хочет углубить свои знания.

3) Umar Jamil — технический блог, где автор реализует методы ML и LLM с нуля

4) Simon Oz — технические видео по низкоуровневому машинному обучению

5) Tunadorable — отличные обзоры научных статей, реализация

6) GPU Mode — технические интервью и разборы всего, что связано с GPU

7) AI Jason — эксперименты с ИИ, дизайн ПО и новые модели, с понятным и полным разбором.

8) Ferdinand Mom — всё о распределённом обучении и выводах

9) Welch Labs — уникальный глубокий взгляд на комплексность алгоритмов машинного обучения.

10) Artem Kirsanov — нейронаука и машинное обучение с необычного авторского взгляда + отличная визуализация контента.

11) David Ondrej — новые модели, создание приложений с ИИ, практично для разработчиков https://t.co/BEOr0MgHag @DavidOndrej1

12) 3Blue1Brown
Потрясающие визуализации, которые делают абстрактные математические концепции понятными и интуитивными.

13) Lex Fridman
Глубокие беседы с лидерами индустрии ИИ, позволяющие получить широкий взгляд на современные тенденции.

14) Machine Learning Street Talk
Технические погружения и обсуждения с ведущими исследователями в области ИИ и машинного обучения.
Ссылка:

15) StatQuest with Joshua Starmer PhD
Доступные и понятные объяснения основ машинного обучения и статистики для начинающих.

Этот список для технической аудитории. Очень сложно выбрать всего 15 каналов, ведь есть множество других, создающих отличный контент.

Если знаете ещё каналы, дайте пишите в комментариях!

@vistehno
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍7225🔥15😐5🙈5🤷‍♀2❤‍🔥1
🔥 Lumina-mGPT 2.0 (от Alpha-VLLM): семейство мультимодальных авторегрессионных моделей, разработанных для визуальных и текстовых задач.

Это передовая модель для генерации изображений, построенная по принципу авторегрессионных моделей только с декодером (decoder-only), архитектурно схожая с тем, как работают большие языковые модели вроде GPT (и конкретно сравниваемая с подходом к изображениям в GPT-4o).

Это означает, что она генерирует изображение последовательно (как текст), потенциально используя мощные возможности представления и понимания мира, присущие современным LLM.

Функции:
-Text-to-Image (t2i): Генерация изображений по текстовому описанию.

- Редактирование изображений: Модификация существующих изображений на основе инструкций.

- Контролируемая генерация: Управление генерацией с помощью дополнительных входных данных (аналогично ControlNet).

Разработчики заявляют, что модель включает все функции ControlNet. своей архитектуре.

Модель спроектирована как самостоятельное решение, а не как дополнение к другим системам и по сути это альтернатива доминирующим диффузионным моделям.

Авторегрессионные модели хороши в сохранении контекста и последовательности. Это может (теоретически) лучше подходить для генерации изображений, требующих сложной внутренней логики или повествования.

🟡Github
🟡Checkpoints

@ai_machinelearning_big_data


#Lumina #texttoimage #autoregressive
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3313🔥10
✔️ OpenRouterAI представила бесплатную модель Quasar Alpha.

OpenRouterAI объявила о предварительном выпуске своей первой мультимодальной модели - Quasar Alpha, с длиной контекста в 1 млн. токенов. Модель оптимизирована для задач программирования, но в то же время подходит для общих NLP-задач.

Модель 55% на бенчмарке aider. Это сопоставимо с o3-mini-medium, последним DeepSeek V3 и старым Sonnet 3.6. Главная фишка - Quasar Alpha работает невероятно быстро.

Quasar Alpha доступна бесплатно, ее анонс вызвал интерес в ИИ-сообществе, где пытаются предположить, какая лаборатория стоит за разработкой этой модели.

Модель называет себя ChatGPT

🟡Quasar Alpha
🟡Попробовать
🟡OpenRouterAI в X (ex-Twitter)
🟡Aider LLM Leaderboards

@ai_machinelearning_big_data


#quasar #chatgpt ? #release
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍49🔥179
✔️ Microsoft расширила возможности Copilot.

Microsoft анонсировала масштабное обновление Copilot, добавив функции, которые делают его по-настоящему персональным. Теперь Copilot запоминает детали из жизни пользователя: от предпочтений в еде до рабочих проектов — благодаря системе «Память».

Другая новинка - «Copilot Vision»: ИИ теперь «видит» через камеру смартфона или экран Windows 11, анализируя окружение в реальном времени. На ПК Copilot интегрируется с приложениями, помогая искать файлы, настраивать параметры и работать в многозадачном режиме через голосовые команды.

Добавлены веб-действия: бронирование столиков, покупка билетов или подарков через партнерские сервисы Booking.com и OpenTable. А с функцией Deep Research Copilot за минуты проведет сложный анализ данных, экономя часы рутинной работы.

Обновления уже доступны для iOS, Android и Windows.
blogs.microsoft.com

✔️ Llama 4 может быть выпущена в конце апреля, но это не точно.

Команда разработки Llama рассматривает возможность очередной отсрочки выпуска своей новой модели, который уже неоднократно переносился из-за проблем с производительностью.

Компания планирует выпустить Llama 4 в конце этого месяца, но источники сообщают, что она может снова перенести дату, поскольку модель не оправдала ожиданий в задачах на рассуждение и математику.
theinformation.com

✔️ OpenAI: o3 и o4-mini выйдут через пару недель, GPT-5 отложили.

Сэм Альтман сообщил, что o3 и его «упрощённый» наследник o4-mini появятся уже через пару недель. Причина — задержка GPT-5, которую решили улучшить «сильнее, чем планировали». OpenAI признали: интеграция голосовых функций, поиска и глубокого ризонинга оказалась сложнее, чем предполагалось, а серверам компании нужно выдержать беспрецедентную нагрузку от недавнего релиза генератора изображений.

GPT-5, которую теперь ждут через несколько месяцев, предложит три уровня доступа: базовый — с ограничениями, Plus — повышенный интеллект, а Pro — максимальные возможности. Модель объединит все инструменты ChatGPT, включая Canvas и Deep Research.
Sam Altman в X (ex-Twitter)

✔️Rolmocr - новая SOTA OCR с лицензией Apache 2.0.

Собрана на базе Qwen 2.5 VL
В модели не используются метаданные, извлеченные из PDF-файлов. Это значительно сокращает длину запроса, что, в свою очередь, снижает время обработки и потребление VRAM - без ущерба для точности.
HF

✔️ GitHub вводит премиум-тариф за Copilot.

GitHub объявил о введении новых лимитов и ценовой модели для сервиса Copilot, который теперь включает плату за "премиальные" ИИ-модели. Это изменение введет ограничения на тарифы для пользователей, которые переходят с базовой модели GPT-4o на другие модели ИИ.

Ожидается, что новая структура ценообразования повлияет на пользовательский опыт, особенно для тех, кто ранее полагался на бесплатный доступ к расширенным возможностям.
github.blog

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3720🔥8💋1
Media is too big
VIEW IN TELEGRAM
🥹 Pokemon Gym — среда для обучения агентов игре Pokémon Red/Blue.

Интерфейс, похожна стандартные среды RL (например, OpenAI Gym/Gymnasium), но адаптированный для игры Pokémon Red/Blue.

Если хотите позалипать на выходных и попробовать различные RL-алгоритмы для обучения Ai игре в покемонов.

В основе лежит эмулятор Game Boy, реализованный на Python — библиотека pyboy.

Основная цель — создать и обучить ИИ-агентов, способных самостоятельно играть в Pokémon: исследовать мир, ловить покемонов, тренировать их, сражаться с другими тренерами и проходить игру.

Игроку любителю потребуется ~400 шагов, чтобы поймать первого покемона, Клоду 3.7 понадобилось ~450 🤗

🔗 Github

@ai_machinelearning_big_data


#AIagents #ml #ai #opengym
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4913🔥9🤨3
🦙 Встречайте, дамы и господа, LLaMA 4: новые мультимодальные MoE модели!

Llama 4 Omni разработана для понимания и обработки информации модальностей, а не только текста.

Доступна в 3х вариантах: Llama 4 Scout и Llama 4 Maverick и анонсированный Llama 4 Behemoth.

Llama 4 Scout (109B) контекстное окно размером 10 М, 17B активных параметров · 16 эксперто , 109B общих параметров.

Llama 4 Maverick (400B) 17 млрд активных параметров ,128 экспертов, 400 млрд общих параметров · Длина контекста более 1 млн

У зверюги бегемота (еще тренируется) суммарное количество 2T!!! 16 экспертов, 288B активных параметров. Служит в качестве модели для обучения по методу совместной дистилляции Maverick.

Сейчас выпущены только Scout и Maverick, Кот-бегемот еще обучается.

На сегодняшний день Llama 4 Maverick предлагает лучшее в своем классе соотношение производительности и стоимости,

🟡 Model Card
🟡 Веса
🟡 Релиз

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥97👍22🗿108🥰2😎2😁1
🔥Llama 4 Maverick занимает 2-е место став 4-й моделью, преодолевшей отметку 1400+ на Арене , уступая лишь Gemini 2.5 Pro!

- №1 в категориях Hard Prompts, Coding, Math, Creative Writing
- Огромный скачок по сравнению с Llama 3 405B: 1268 → 1417.

Maverick входит в пятерку лучших во всех категориях.

А где там у нас claude?

https://lmarena.ai/leaderboard

@ai_machinelearning_big_data

#llama #arena #leaderboard #llm #opensource
👍64🔥2413🙊3😁2🥰1
🌟 MegaScale-Infer: как разделение модулей внимания и FFN ускоряет работу больших языковых моделей.

Обслуживание LLMс архитектурой MoE всегда было сложной задачей: несмотря на снижение вычислительной нагрузки за счёт «разреженной» активации экспертов, GPU часто простаивают из-за неэффективного распределения ресурсов.

Новая методика MegaScale-Infer от ByteDance|Seed предлагает разделение модулей внимания и feed-forward networks (FFN) на независимые узлы с индивидуальной оптимизацией. Это не только делает загрузку GPU эффективной, но и сокращает стоимость обслуживания моделей в 1,9 раза по сравнению с аналогами.

Суть MegaScale-Infer — в «дизагрегации»: модули внимания, отвечающие за работу с ключевыми значениями (KV-кэш), и FFN-эксперты распределяются по разным GPU. Например, узлы внимания можно развернуть на GPU с высокой пропускной способностью памяти, а эксперты — на устройствах с мощными вычислительными ядрами. Такой подход позволяет масштабировать каждый компонент отдельно и избежать дисбаланса, когда один модуль ждет завершения работы другого.

Чтобы скрыть задержки связи между узлами, система использует конвейерный параллелизм. Запросы разбиваются на микропакеты, которые перекидываются между модулями внимания и FFN, как мячик в пинг-понге. Это минимизирует простои: пока один микропакет обрабатывается экспертами, механизмы внимания на GPU уже начинают работать со следующим.

Для стабильной коммуникации между сотнями устройств разработана библиотека M2N — она ускоряет передачу данных в 4,2 раза по сравнению с NCCL, устраняя лишние копии данных и синхронизацию.

Эксперименты на моделях Mixtral 8x22B (141 млрд. параметров) и DBRX (132 млрд.) показали, что MegaScale-Infer обрабатывает до 2,56Х больше токенов в секунду на один GPU, чем vLLM и TensorRT-LLM.

На гетерогенных кластерах с GPU H20 (для внимания) и L40S (для экспертов) система демонстрирует еще больший эффект: стоимость генерации токена снижается в 1,86 раза за счет оптимального распределения ресурсов: H20, обладая огромной памятью, идеально подходят для работы с KV-кэшем, а L40S эффективно считают матричные операции в FFN.

Для разработчиков, которые работают с LLM, MegaScale-Infer — не просто еще один фреймворк. Это инструмент, который превращает MoE-модели из ресурсоемких «монстров» в управляемые системы, где каждый GPU работает на пределе возможностей.


🟡Arxiv
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #LLM #MLOPS #MegaScaleInfer #ByteDance
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥55👍2411