Машиннное обучение | Наука о данных Библиотека
16.9K subscribers
878 photos
14 videos
21 files
726 links
админ - @workakkk

@ai_machinelearning_big_data - Machine learning

@itchannels_telegram - 🔥лучшие ит-каналы

@pythonl - Python

@pythonlbooks- python книги📚

@datascienceiot - ml книги📚

№ 5037635661
Download Telegram
📚 Perplexity выпустили мощный гайд - 43 страницы чистой пользы по работе с ИИ.

Если хотите выжать максимум из нейросетей — будь то Perplexity, ChatGPT или любой другой чат-бот — этот гайд для вас.

Внутри:
Готовые промпты
Пошаговые сценарии
Практические воркфлоу
Реальные кейсы автоматизации рутинных задач

Хотя примеры заточены под инструменты Perplexity, подавляющее большинство советов универсальны и сработают в любом ИИ-ассистенте.

🔥 Сохраняйте пригодится: https://r2cdn.perplexity.ai/pdf/pplx-at-work.pdf
🔥6👎1
Исследователи AMD представили метод, который позволяет добавить способность к рассуждению в мультимодальные модели - просто и дешево. Новый подход, названный DRIFT, достигает почти тех же результатов, что и сложные методы, используя лишь около 4 000 примеров и два часа дообучения.

Главная идея: вместо объединения весов языковой и визуальной моделей, что часто ломает баланс, DRIFT вычисляет “направление рассуждения” — разницу между весами сильного текстового reasoner-а и мультимодальной модели. Во время обучения градиенты направляются в эту сторону, усиливая логические способности, но сохраняя навыки восприятия изображений.

Метод не требует дополнительных модулей: направление вычисляется один раз, хранится на CPU и применяется для коррекции выбранных слоёв. В результате модель учится не только видеть, но и логически связывать шаги, исправляя случаи, где восприятие верное, но вывод — ошибочный.

Исследование: arxiv.org/abs/2510.15050
👍74👎1
🚀 Новый курс на Stepik: AI Agents PRO

Если вы работаете с ML/DS и хотите перейти от моделей → к готовым продуктам на базе LLM, без понимания агентов уже никуда.

🔹 Что внутри:

Архитектура агентов (FSM, DAG, Supervisor–Worker, Critic–Executor).

Интеграции: API, БД, браузеры, CRM.

Retrieval-Augmented Generation (Qdrant, Weaviate, FAISS).

Надёжность: ретраи, guardrails, работа с PII.

LLMOps: метрики качества, A/B-тесты, дашборды.

Продакшн-деплой: Docker, очереди сообщений, CI/CD.

Итоговый проект: собственный агент под реальный бизнес-кейс.

🎯 По итогу вы сможете строить и выкатывать production-ready AI-агентов, а не просто писать демки в ноутбуках.

🔥 Спец-условия: только по промо RAG30-30% на старт (действует 48ч).

👉 Пройти курс со скидкой
1👍1
🕵️ Великобритания сталкивается с новой волной мошенничества, усиленной ИИ

Количество подтверждённых случаев мошенничества превысило 2 миллиона в первой половине года - рост на 17%. Общие потери достигли £629 млн, увеличившись на 3%.

Особенно выросли инвестиционные схемы, плюс 55%, почти £100 млн ущерба, со средней потерей более £15 000 на человека. Мошенники используют дипфейки известных людей и профессионально оформленные многоязычные предложения, делая подделки крайне правдоподобными.

Они создают фальшивые «инвестиционные» панели с якобы растущими доходами, разрешая жертвам делать мелкие выводы, чтобы вызвать доверие, а затем убеждают перевести крупные суммы.

Романтическое мошенничество выросло на 19% по количеству случаев и на 35% по потерям - до £20,5 млн. Средний случай длится несколько месяцев и включает до 9 платежей, иногда более 100 переводов.

Мошенники также массово рассылают спам-сообщения через устройства, имитирующие мобильные вышки, перенаправляя людей на фишинговые сайты, где жертвы вводят свои данные.

Банки отвечают своими ИИ-системами, которые в реальном времени отслеживают подозрительные платежи и шаблоны поведения. За полгода они предотвратили £870 млн несанкционированных переводов - на 20% больше, чем в первой половине 2024 года (примерно **70 пенсов блокируется на каждый фунт, который пытаются украсть**).

Преступники адаптируются - всё чаще используют мелкие покупки и подарочные карты, которые проще перепродать и труднее отследить.

ft.com/content/11db17de-cad7-4217-8816-d5a3ac9c1beb
1
🛠 Архитектура рекомендаций в Яндекс Лавке: от эвристик до ML

Команда Яндекс Лавки выкатила подробный разбор своей системы рекомендаций смен. Настоящий честный рассказ про непростой инженерный путь.

В статье очень наглядно показана эволюция продукта, где каждая следующая итерация решала проблемы предыдущей.

Кратко, о чём пишут:
🔹 MVP на векторах: как оцифровать предпочтения и считать скор простым скалярным произведением.
🔹 Переход в real-time: почему офлайн-пайплайн не справился и как построили асинхронный сервис.
🔹 Гибридная архитектура: как совместили плановую и рантайм-логику, не выбрасывая старый код.
🔹 Будущее в ML: какие фичи готовят для модели на бустинге.

Отличный пример того, как можно пошагово прийти к сложному и эффективному решению.

👉 Почитать разбор
1
Forwarded from Machinelearning
⚡️ Glyph: масштабирование контекста через визуально-текстовую компрессию

В основе модели лежит простая идея : вместо того чтобы кормить модели километровый текст, Glyph превращает его в изображение и обрабатывает через vision-language модель.

Используется LLM-управляемый генетический алгоритм, чтобы подобрать наилучшие параметры визуального отображения текста (шрифт, плотность, макет), балансируя между сжатием и точностью.

Это радикально снижает вычислительные затраты, сохраняя при этом смысловую структуру текста.

При этом точность почти не падает: на задачах с длинным контекстом Glyph работает на уровне современных моделей вроде Qwen3-8B.

При экстремальном сжатии VLM с контекстом 128K может эффективно обрабатывать задачи, эквивалентные 1M+ токенов в традиционных LLM.

Фактически, длинный контекст становится мультимодальной задачей, а не чисто текстовой.

📄 Подробности: arxiv.org/abs/2510.17800

🧩 Веса: huggingface.co/zai-org/Glyph

👉 Репозиторий: github.com/thu-coai/Glyph

@ai_machinelearning_big_data


#AI #LLM #Multimodal #Research #DeepLearning
👨‍💻1
Исследователи проверили, могут ли языковые модели быть любопытными - и оказалось, что да

Новое исследование показало, что любопытство повышает качество рассуждений у LLM, почти так же, как у людей.

В эксперименте с головоломками модели «подглядывали» в ответы в 70–80 % случаев, тогда как люди делали это лишь в 37,8 %. Учёные оценивали любопытство с помощью психологической шкалы и поведенческих тестов, измеряя стремление к информации, поиску острых ощущений и социальному интересу.

Результаты показали, что языковые модели проявляют сильное желание узнавать новое, выбирают более безопасные решения при риске и демонстрируют почти человеческий уровень социальной любознательности.

Чтобы проверить, как любопытство влияет на мышление, исследователи заставили модели во время рассуждения задавать себе короткие вопросы - «почему», «что если», «как». Эти само-вопросы помогли избегать поспешных выводов, уменьшили эффект зацикливания и помогли находить недостающие подсказки.

На тестах по логике и математике такой подход превзошёл стандартный chain-of-thought, дав прирост точности на 10,2 % в длинноконтекстных задачах.

Вывод: встроенное любопытство делает ИИ не только умнее, но и осмысленнее - модели начинают думать, а не просто отвечать.

Paper: arxiv.org/abs/2510.20635
4🔥2👍1
🧠 Малые языковые модели догоняют большие, почти без потерь в качестве

Новое исследование показало: маленькие LLM могут выполнять классификацию требований так же точно, как крупные, уступая им всего на 2% по F1-метрике, при этом будучи в 300 раз меньше по размеру.

📌 Что это значит:
Классификация требований - это разметка предложений как:
- функциональных (описывают, что система делает);
- нефункциональных (производительность, удобство, надёжность);
- связанных с безопасностью.

Учёные протестировали 8 моделей (5 маленьких и 3 больших) на трёх датасетах — PROMISE, PROMISE Reclass и SecReq — в одинаковых условиях.
Каждая задача запускалась трижды, результат выбирался по большинству голосов.

📊 Результаты
- Разница между малыми и большими моделями по F1 - всего 2%, статистически незначимая.
- На датасете PROMISE Reclass маленькие модели даже показали лучшую полноту (recall) — находили больше верных примеров.
- Размер модели повлиял на точность меньше, чем сам набор данных.

💡 Вывод:
При почти равной точности, меньших затратах и лучшем контроле над приватностью - малые модели становятся оптимальным выбором для автоматической классификации требований.

📚 Подробнее в исследовании: https://arxiv.org/abs/2510.21443
6🔥5
Forwarded from AI VK Hub
🔹У ВКонтакте появился новый формат — шопсы. Это публикации авторов с товарами, по которым можно быстро совершить покупку. Подобный контент появлялся в ленте и раньше, но с помощью LLM, VLM и правильной разметки теперь можно определить нативные обзоры или распаковки от авторов.

Рассказываем, что из себя представляет shoppable-разметка, и как инженеры AI VK её внедряют. Ссылка на подробный материал — тут.

#aivk #шопсы #shoppable
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤮43💩2🔥1😁1