223K subscribers
3.83K photos
640 videos
17 files
4.46K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
🤖 В России создадут первую национальную методику оценки финансовых эффектов от искусственного интеллекта

📄 На заседании клуба «ИИ в финансовой отрасли» эксперты поставили перед собой задачу разработать первую в России методику оценки экономической эффективности внедрения технологий искусственного интеллекта. Предполагается, что она станет основой для обоснования инвестиций искусственного интеллекта, а также измерения его экономической ценности и масштабирования решений в реальных условиях.

💬 Подробнее о запуске клуба и его флагманском проекте рассказал Александр Ведяхин, Первый заместитель Председателя Правления Сбербанка, Председатель Наблюдательного совета Альянса в сфере ИИ:
«Запуск отраслевого клуба «ИИ в финансовой отрасли» под эгидой Альянса в сфере ИИ и Ассоциацией ФинТех — важный шаг на пути к технологическому развитию в ключевом секторе экономики. Его флагманским проектом станет разработка единой методологии оценки финансовых эффектов внедрения ИИ — стратегически значимая инициатива, которая задаст стандарты эффективности, обоснованности и масштабируемости технологических решений. <...> Вместе мы формируем будущее, где искусственный интеллект работает на благо экономики и общества всей страны».

Сам же проект совместными усилиями реализуют 17 компаний финансовой отрасли во главе с Альянсом в сфере ИИ и ассоциацией ФинТех: Сбербанк, Альфа-Банк, Яндекс, Т-Банк, MTS AI, ДОМ.РФ, Газпромбанк, ВТБ, Московская биржа, ВСК, Промсвязьбанк, Россельхозбанк, ОТП Банк, Московский кредитный банк, Райффайзенбанк.

✔️ Предварительно, результат работы клуба будет представлен в июне 2025 года на Петербургском международном экономическом форуме.

@ai_machinelearning_big_data

#news #ai
😁62❤‍🔥17👍1311🤣9🥱7🔥3👏1🤨1👻1
🚨 xAI привлекает $5 млрд через выпуск облигаций + $300 млн через продажу акций при оценке в $113 млрд

Компания Илона Маска xA
I проводит две крупные финансовые операции:

Выпуск долговых обязательств на $5 млрд и продажу акций на $300 млн .

Подробности:
🔹 Облигации ($5 млрд)

Выпуск организует Morgan Stanley.
Средства пойдут на общие корпоративные нужды — например, развитие технологий, инфраструктуры или покрытие издержек.

🔹 Продажа акций ($300 млн)

Это вторичная эмиссия — компания не выпускает новые акции, а позволяет сотрудникам продать свои доли инвесторам , получив ликвидность (то есть выручку за свой "старый" пакет).

🔹 Оценка компании — $113 млрд

Это почти в 3,5 раза выше внутренней стоимости X (бывшего Twitter), который был куплен за $33 млрд.

Маск делает ставку на финансовые рынки, чтобы ускорить развитие xAI — раньше, чем компания представит зрелые решения.

Такой агрессивный подход может быть рискованным, но типичен для амбициозных технологических проектов и самого Маска.

Посмотрим, сыграет ли ставка 🤑

https://www.reuters.com/business/musks-xai-seeks-113-billion-valuation-300-million-share-sale-ft-reports-2025-06-02/

@ai_machinelearning_big_data

#elonmusk #grok #xai
98👍45🔥25🗿9
Media is too big
VIEW IN TELEGRAM
✔️ Microsoft запускает бесплатный видеогенератор.

Microsoft анонсировала Bing Video Creator, который превращает текстовые описания в короткие видео. Он основан на технологии Sora и доступен бесплатно через мобильное приложение Bing, а позже появится на десктопе и в Copilot Search. Пользователям нужно просто ввести запрос и ИИ сгенерирует 5-секундный ролик в вертикальном формате. (16:9 добавят позже).

За один запрос генерируется 3 видео, с выбором между быстрой и стандартной генерацией (первые 10 быстрых — бесплатно, далее за баллы Microsoft Rewards). Созданные видео будут храниться до 90 дней. Готовые ролики можно скачивать, делиться в соцсетях или по ссылке. Сервис стартует глобально, кроме Китая и России.
blogs.bing.com

✔️ Французский стартап H Company запустил сервис ИИ-агентов.

Стартап H представил три ИИ-агента: Runner, Surfer и Tester. Runner автоматизирует задачи: написание писем, и взаимодействует с приложениями. Бета-версия доступна бесплатно, но с ограничениями. Surfer — бесплатный инструмент для автономного серфинга в интернете. Tester (бета, платный) создан для тестирования сайтов: проверяет функционал меню, языковые настройки и валюту.

Стартап основан бывшими сотрудниками Google DeepMind год назад с инвестициями в €202 млн от Bernard Arnault, Amazon и Eric Schmidt.
H Company в сети X (ex-Twitter)

✔️ SketchAgent от MIT и Stanford рисует как человек по текстовому описанию.

MIT и Stanford создали SketchAgent, систему, которая превращает текстовые запросы в наброски, имитируя человеческий процесс рисования. Вместо обучения на базах данных, модель использует «язык рисования»: скетч разбивается на последовательность штрихов с пояснениями. Это позволяет генерировать эскизы предварительной тренировки.

Пока система не справляется с логотипами или сложными фигурами, а иногда интерпретирует планы рисования ошибочно. Ресерчеры планируют улучшить модель через синтетические данные и упростить интерфейс. В будущем инструмент может стать помощником в образовании или дизайне.
news.mit.edu

✔️ Firecrawl запускает endpoint API search для одновременного поиска и скрапинга данных.

Firecrawl прислушался к просьбам сообщества, которое давно просило функцию автоматизации с поиском. Теперь вместо двух этапов (сначала поиск, затем парсинг), все делается за раз. /search позиционируется как более простой и универсальный инструмент для работы с веб-данными. Использовать его можно через API, сторонние приложения или интерактивный Playground.

Сервис предлагает гибкую настройку: можно указать язык, регион, временной диапазон или формат вывода. Интеграция уже доступна в Zapier, n8n, MCP и других платформах, а в документации описаны примеры использования.

Команда также сообщила, что альфа-версии /llmstxt и /deep-research перестанут обновляться с 30 июня 2025 года, но останутся рабочими.
firecrawl.dev

✔️ TSMC запускает массовое производство 2-нм чипов.

Тайваньская фабрика вот-вот начнет выпуск 2-нм чипов, установив рекордный ценник — до $30 тыс. за пластину (а улучшенные версии подорожают до $45 тыс.). Это делает технологии доступными лишь для топовых клиентов AMD, Apple и MediaTek уже вложились: процессоры A20/A20 Pro для iPhone 18, M6 для Mac, новых серверов EPYC и флагманских смартфонов Mediatek 2025 года будут на этой архитектуре.

По данным поставщиков, мощности TSMC растут. К концу года выпуск достигнет 30 тыс. пластин в месяц. Эксперты отмечают: лидерство фабрики держится не на одном оборудовании, но еще и на опыте. Накопленные знания о производственных тонкостях трудно повторить.
ctee.com.tw

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
62👍33🔥16🥰5😢1
✔️ Llama Nemotron Nano VL от NVIDIA — один из лучших OCR инструментов для работы с документами.

Мультимодальная модель от NVIDIA уверенно занимает первое место на OCRBench v2, показав лучшую точность парсинга документов среди всех моделей.

📄 Что это такое:
Llama Nemotron Nano VL — лёгкая vision-language модель для интеллектуальной обработки документов (IDP), которая:
• разбирает PDF
• вытаскивает таблицы
• парсит графики и диаграммы
• работает на одной GPU

🔍 Заточена под:
– Вопрос-ответ по документам
– Извлечение таблиц
– Анализ графиков
– Понимание диаграмм и дешбордов

🧠 Под капотом — vision-энкодер C-RADIO v2 (distilled multi-teacher трансформер), который справляется даже с визуальным шумом и высоким разрешением.

📊 OCRBench v2 — крупнейший двухъязычный бенчмарк для визуального анализа текста, и именно NVIDIA Nano VL показывает лучший результат.

🟡Hf
🟡 Подробнее

@ai_machinelearning_big_data

#Nemotron #NVIDIA
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7022🔥12🥰8
✔️ Функционал облачной b2b-платформы MWS GPT серьезно расширен.

MWS GPT доступна в облаке с быстрым масштабированием и on-premise.

📄 Что дает платформа:
• Доступ к единой среде для сравнивания и тестирования моделей - в арсенале больше 40 LLM, включая Open Source
• Автоматизацию различных сценариев - за это отвечает поддержка мультиагентных архитектур в low-code-конструкторе
• ИИ-анализ объемных текстов и изображений благодаря RAG и Vision в ChatUI
• Создание голосовых ассистентов, а также обучение готовых языковых моделей под конкретные задачи благодаря FineTune

Последний инструмент пока доступен ограниченному числу пользователей, но скоро откроется для всех - следите за обновлениями.

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
🌭28👍1912🥰1
✔️ Holo1 — ИИ, который управляет веб-интерфейсами, как человек

Holo1 — новое семейство open-source моделей от H Company, созданных специально для понимания и автоматизации веб-интерфейсов.

Это Action VLM-модели, которые могут "видеть" сайт, распознавать кнопки, поля, меню и действовать, как реальный пользователь.

Доступно
Holo1-3B и Holo1-7B — последняя достигает 76.2% точности на UI-бенчмарках (лучший результат среди компактных моделей)
WebClick — датасет из 1 639 задач, имитирующих поведение человека в интерфейсе

💸 И главное:
Автоматизация реальных веб-задач (читать, кликать, вводить) с точностью 92.2% всего за $0.13 за задачу. Раньше за такую точность приходилось переплачивать в разы.

⚙️ Surfer-H — ИИ, который сам "читаeт", "думаeт", "кликаeт" и "проверяет"
Построен на базе Holo1 и работает прямо в браузере — никаких API и костылей.

Состоит из 3 модулей:
1. Policy — планирует поведение агента
2. Localizer — находит нужные элементы на экране
3. Validator — проверяет, всё ли сделано правильно

🔗 Hugging Face

@ai_machinelearning_big_dat

#Holo #web
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6932🔥23🤔7
Media is too big
VIEW IN TELEGRAM
✔️ OpenAI расширила возможности ChatGPT для бизнеса.

ChatGPT для корпоративных пользователей теперь поддерживает интеграцию с Dropbox, Box, SharePoint, OneDrive и Google Drive, позволяя анализировать данные из корпоративных хранилищ в реальном времени.

Плюс, добавили функцию record mode - это запись встреч с автоматической генерацией заметок, таймкодами и выделением задач. Это как у Zoom и Notion, но с возможностью превращать темы обсуждений в структурированные документы в Canvas.

Для Deep Research стали доступны бета-коннекторы к HubSpot, Linear и инструментам Microsoft/Google. А еще Pro, Team и Enterprise пользователи получили доступ к MCP .
OpenAI в сети X (ex-Twitter)

✔️ Anthropic добавила новые функции в план Claude Pro.

Anthropic обновила подписку Claude Pro, добавив в нее несколько полезных функций для тех, кто работает с кодом. Подписчикам плана стал доступен Claude Code - инструмент для работы с небольшими проектами (до 1000 строк кода). Правда, лимиты остаются: около 10-40 запросов каждые 5 часов, а модель Opus 4 здесь не поддерживается.

Еще одна возможность - Claude-Squad. Он позволяет запускать несколько агентов одновременно. Интеграция с VS Code и Cursor уже есть, а Figma добавила официальный MCP-сервер, который активируется в настройках.
Anthropic в сети Х (ex-Twitter)

✔️ OpenAudio S1: синтез речи с эмоциями на 12 языках.

OpenAudio (создатели FishSpeech) представила TTS-модель S1, способную воссоздавать естественную речь с эмоциями и акцентами. Обученная на 2 млн часов аудио, она использует архитектуру Qwen3 с 4 млрд параметров, RLHF-оптимизацию и кодек, подобный Descript Audio Codec.

Модель поддерживает метки точного контроля: от злых интонаций до шепота или смеха. S1 работает на 12 языках, включая русский. Старшая модель (4B) доступна только как сервис по цене $0.8 за час синтеза, а S1-mini (0.5 млрд параметров) опубликована для некоммерческого использования на HuggingFace.
openaudio.com

✔️ DeepSeek обвиняют в использовании данных конкурентов для обучения своей модели.

Исследователи подозревают, что часть обучающих данных модели DeepSeek R1-0528 могла быть взята из инференса Google Gemini. Независимые эксперты заметили сходство в выборе слов и логике работы. Модель «думает» так же, как Gemini.

Ранее DeepSeek уже обвиняли в копировании данных OpenAI. Их предыдущая версия, V3, иногда выдавала себя за ChatGPT. Microsoft и OpenAI тогда заявили, что через API-аккаунты компании якобы утекали данные.

В ответ на утечки усилили защиту: Google и Anthropic теперь скрывают процесс размышлений своих моделей, чтобы затруднить копирование.
techcrunch.com

✔️ ИИ научили определять границы своих знаний.

MIT через стартап Themis AI решила ключевую проблему современных ИИ-систем: их неспособность честно признать, когда они не уверены в ответе. Платформа Capsa модифицирует любую ML-модель, выявляя ненадежные выводы. Она анализирует паттерны обработки данных, сигнализирующие о неоднозначности, неполноте информации или скрытых смещениях.

Capsa может показать, основан ли прогноз на реальных данных или это чистая спекуляция модели. Так же она помогает большим языковым моделям "самоотчитываться" о своей уверенности в каждом ответе, отсеивая "галлюцинации".

Технология уже тестируется в телекоме, нефтегазе и фарме.
news.mit.edu

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
62👍37🔥14🥰4👌1
✔️ Cursor 1.0 — стабильный релиз с полезными фичами

Новая стабильная версия Cursor, и в ней появилось много обновлений, которые делают работу с кодом удобнее.

Вот что стоит отметить:

🐞 Bugbot
Автоматически проверяет Pull Request'ы на баги и предлагает исправления.
Можно внести правку прямо в редакторе — в один клик.

🧠 Memory (beta)
Cursor теперь запоминает контекст проекта, что помогает при командной работе и упрощает навигацию по коду.

⚙️ One-Click MCP Setup
Настройка подключения к Model Context Protocol — теперь через одну кнопку, без ручной конфигурации.

📌 Дополнительно в 1.0:
• Возможность редактировать несколько мест в коде одновременно
• Поддержка таблиц, Markdown и диаграмм Mermaid в чате
• Обновлённые настройки и админ-панель
• Фоновая работа агентов — можно интегрировать их со Slack и Jupyter Notebooks

Cursor постепенно становится более удобной средой для совместной работы с ИИ-помощником.

https://www.cursor.com/changelog

@ai_machinelearning_big_data

#CursorAI #AIcoding #DevTools #Jupyter #CodeAssistant
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
172🔥30👍19🤬3👀3🥰1
🌟 Microsoft GUI-Actor: взаимодействие ИИ с GUI без использования координат.

GUI-Actor — методика на базе VLM, которая вместо традиционной генерации координат текстом при визуальной обработке интерфейса использует внимание внутри модели.

Чтобы уйти от координатного подхода, в GUI-Actor используется специальный токен <ACTOR>, который "учится" связываться с визуальными патчами, соответствующими целевой области экрана. За один проход модель может запомнить сразу несколько кандидатов на действие.

Например, все кнопки "Сохранить" в сложном интерфейсе. Это очень похоже на человеческое восприятие: видеть сам элемент, а не его позиции по осям Х и Y.


Выбрать наиболее подходящий вариант из элементов-кандидатов помогает "верификатор". Это отдельная модель, оценивающая кандидатов от <ACTOR> и отбирающая самый подходящий для действия. Она не только улучшает точность, но и универсальна: ее можно подключить к другим моделям.

Обучение требует минимум ресурсов. Можно заморозить основную VLM (Qwen2-VL-7B) и дообучить только новый action head и токены. Это всего ~100М параметров для 7B-модели.

Комбинация из такого быстрого обучения + верификатор почти догоняет полноценно обученные аналоги, сохраняя общие способности базовой модели. Никакого "катастрофического забывания" - агент учится кликать интерфейсы, не разучиваясь описывать картинки.

Результаты тестов на сложном бенчмарке ScreenSpot-Pro с высоким разрешением и незнакомыми интерфейсами (CAD, научный софт) GUI-Actor-7B с Qwen2-VL показал 40.7 балла, а с Qwen2.5-VL — 44.6, обойдя даже UI-TARS-72B (38.1).

На других тестах (ScreenSpot, ScreenSpot-v2) он тоже лидирует, особенно в иконках и текстовых элементах, демонстрируя крутую адаптацию к разным разрешениям и версткам.

▶️В открытый доступ опубликованы веса моделей:

🟢GUI-Actor-7B-Qwen2-VL;
🟢GUI-Actor-2B-Qwen2-VL;
🟠GUI-Actor-Verifier-2B.

В планах - выпуск еще двух моделей на основе Qwen2.5-VL (3B и 7B), демо GUI-Actor, код для модели-верификатора и датасеты для обучения.


📌Лицензирование: MIT License.


🟡Страница проекта
🟡Набор моделей
🟡Arxiv
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #VLM #GUIActor #Microsoft
Please open Telegram to view this post
VIEW IN TELEGRAM
5👍4920🔥15🥰2
Reddit подаёт в суд на Anthropic за незаконное использование данных

Reddit обвиняет Anthropic в массовом парсинге сайта и коммерческом использовании данных.

Согласно иску:
🔹 Anthropic парсили Reddit более 100 000 раз, несмотря на заверения, об остановке сбора данных
🔹 Anthropic использовали пользовательский контент в коммерческих целях без лицензии
🔹 Reddit утверждает: это прямое нарушение соглашения и "поведение не в духе компании, называющей себя белым рыцарем AI-индустрии"

📣 Цитата из иска:
> “Reddit — одно из последних по-настоящему человеческих мест в интернете. И то, как поступает Anthropic, недопустимо.”

😬 На фоне миллиардных сделок с Google и OpenAI, это может стать прецедентом: что такое "честное использование" данных для ИИ?

Судебная битва за контент только начинается.

https://www.wsj.com/tech/ai/reddit-lawsuit-anthropic-ai-3b9624dd

@ai_machinelearning_big_data

#reddit #Anthropic #ai #claude
🔥77👍3219😁10👏7🤬7🤣6🗿5
⚡️Релиз Qwen3-Embedding и Qwen3-Reranker

Главное:
Модели на 0.6B, 4B и 8B параметров
Поддержка 119 языков
Sota на MMTEB, MTEB и MTEB-Code
Открытый код на Hugging Face, GitHub и ModelScope
Доступ через API на Alibaba Cloud

🔍 Применение:
Поиск документов, RAG, классификация, поиск кода и др.

🟡 Qwen3-Embedding: https://huggingface.co/collections/Qwen/qwen3-embedding-6841b2055b99c44d9a4c371f
🟡Qwen3-Reranker: https://huggingface.co/collections/Qwen/qwen3-reranker-6841b22d0192d7ade9cdefea
🟡GitHub: https://github.com/QwenLM/Qwen3-Embedding
🟡Modelscope: https://modelscope.cn/organization/qwen

@ai_machinelearning_big_data

#qwen
Please open Telegram to view this post
VIEW IN TELEGRAM
64👍31🔥19🥰5❤‍🔥2
✔️ Google представила превью обновлённой модели Gemini 2.5 0605

Новая версия уже доступна для тестирования и показывает заметные улучшения в:

🧠 кодинге
📊 логическом выводе
🔬 задачах по науке и математике

Pro-версия показывает прирост на 24 пункта Elo, удерживая лидерство на lmarena_ai с результатом 1470.

💬 Также улучшены стиль и структура ответов — Google учла фидбек пользователей.

Gemini обошёл Opus 4 в тестах на веб-разработку (WebDev Arena).

💰 Цены
— до 200 000 токенов: $1.25 вход / $10 выход (за 1M токенов)
— свыше 200 000 токенов: $2.50 вход / $15 выход (за 1M токенов)

🔧Модель достпна уже сейчас в:
- AI Studio
- Vertex AI
- Gemini app

https://blog.google/products/gemini/gemini-2-5-pro-latest-preview/

@ai_machinelearning_big_data

#Gemini #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5829🔥11🥰5
Media is too big
VIEW IN TELEGRAM
🎙️ ElevenLabs представила Eleven v3 (alpha) — самую выразительную модель озвучки текста

Самая выразительная модель озвучки текста на сегодня.
Поддерживает 70+ языков, многоголосовой режим, и теперь — аудио-теги, которые задают интонацию, эмоции и даже паузы в речи.

🧠 Новая архитектура лучше понимает текст и контекст, создавая естественные, "живые" аудио.

🗣️ Что умеет Eleven v3:
• Генерировать реалистичный диалог с несколькими голосами
• Считывать эмоциональные переходы
• Реагировать на контекст и менять тон в процессе речи

🎛 МОдель уаправляется через теги:
- Эмоции: [sad], [angry], [happily]
- Подача: [whispers], [shouts]
- Реакции: [laughs], [sighs], [clears throat]

📡 Публичный API обещают выкатить очень скоро.

⚠️ Это превью версия — может требовать точной настройки промптов. Но результат действительно впечатляет

💸 Весь июньдают 80% скидки на генерацию
🟡 Промпт-гайд для v3: https://elevenlabs.io/docs/best-practices/prompting/eleven-v3
Eleven v3.
🟡 Eleven v3: https://elevenlabs.io/v3

@ai_machinelearning_big_data

#ElevenLabs #tts
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥72👍3420😨6