📈 Пост, который вирусится на Reddit:
Пользователь дал ChatGPT $100 и поручил вести портфель из американских микрокапов.
🤖 Через 4 недели — +23.8%
Для сравнения:
▪️ Russell 2000: ~+3.9%
▪️ XBI (биотех ETF): ~+3.5%
🧠 Всё управление — через промпты и скрипты с GitHub.
LLM против рынка… и, похоже, пока выигрывает?
⚠️ Конечно, это пока:
— короткий период
— очень маленькая выборка
— высокая волатильность микрокапов
Вот его промпт -
Нужен глубокий анализ: Sharpe, волатильность, бэктесты.
Но вопрос остаётся открытым — может ли LLM *действительно* обыгрывать рынок?
🔗 GitHub
@data_analysis_ml
Пользователь дал ChatGPT $100 и поручил вести портфель из американских микрокапов.
🤖 Через 4 недели — +23.8%
Для сравнения:
▪️ Russell 2000: ~+3.9%
▪️ XBI (биотех ETF): ~+3.5%
🧠 Всё управление — через промпты и скрипты с GitHub.
LLM против рынка… и, похоже, пока выигрывает?
⚠️ Конечно, это пока:
— короткий период
— очень маленькая выборка
— высокая волатильность микрокапов
Вот его промпт -
“ You are a professional-grade portfolio strategist. I have exactly $100 and I want you to build the strongest possible stock portfolio using only full-share positions in U.S.-listed micro-cap stocks (market cap under $300M). Your objective is to generate maximum return from today (6-27-25) to 6 months from now (12-27-25). This is your timeframe, you may not make any decisions after the end date. Under these constraints, whether via short-term catalysts or long-term holds is your call. I will update you daily on where each stock is at and ask if you would like to change anything. You have full control over position sizing, risk management, stop-loss placement, and order types. You may concentrate or diversify at will. Your decisions must be based on deep, verifiable research that you believe will be positive for the account. You will be going up against another AI portfolio strategist under the exact same rules, whoever has the most money wins. Now, use deep research and create your portfolio.”
Нужен глубокий анализ: Sharpe, волатильность, бэктесты.
Но вопрос остаётся открытым — может ли LLM *действительно* обыгрывать рынок?
🔗 GitHub
@data_analysis_ml
❤9🔥9🥱4👍3🤔3
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
Глава техногиганта в своем обращении определил видение компании на ближайшее десятилетие. Центральное место в нем занимает концепция персонализированного ИИ-помощника, который будет доступен каждому.
Цукерберг прямо противопоставил этот подход видению конкурентов, где сверхинтеллект централизованно автоматизирует всю работу, а человечество живет на его обеспечении. Сам Марк считает, что прогресс достигается через реализацию индивидуальных устремлений.
Ключевым элементом этой экосистемы станут персональные устройства, в первую очередь очки, которые будут считывать контекст пользователя и станут основным вычислительным устройством. Цукерберг также отметил, что, несмотря на симпатию к open-source, компания будет более осмотрительно подходить к вопросам безопасности, решая, какие технологии можно делать открытыми.
businessinsider.com
Google объявила о своем намерении присоединиться к добровольному Кодексу по регулированию моделей ИИ общего назначения, предложенному Еврокомиссией. Таким образом, компания последует примеру других ключевых игроков рынка.
Вместе с тем, в Google выразили обеспокоенность по поводу грядущего AI Act. По мнению компании, некоторые его положения, выходящие за рамки действующего законодательства об авторском праве, и потенциальные задержки в процессах утверждения могут замедлить развитие и внедрение ИИ в Европе. Компания также опасается, что ее могут вынудить раскрыть коммерческие тайны.
blog.google
Стартап WithNeo анонсировал NEO - мультиагентную ИИ-систему для автоматизации всего цикла разработки в машинном обучении. Платформа использует 11 специализированных агентов, которые без участия человека выполняют весь спектр задач: от очистки данных и выбора моделей до настройки гиперпараметров и вывода кода в продакшен.
В WithNeo заявляют, что такой подход дает возможность просто описывать желаемый результат, а не писать код и связывать воедино разные компоненты. Инструмент позиционируется как следующий шаг в эволюции ИИ-ассистентов, превосходящий стандартные "копайлоты". В ходе ранних тестов система выбила медали в 34% соревнований на Kaggle.
heyneo.so
AlphaEarth Foundations, ИИ-модель от Google Deepmind, которая объединяет спутниковые данные (оптические, радарные, LiDAR) и климатическую информацию в единое цифровое представление планеты. По заявлению компании, система снижает количество ошибок на 23.9% и сжимает данные в 16 раз по сравнению с существующими методами, что удешевляет и ускоряет анализ массивов изображений.
Модель генерирует поля эмбеддингов с разрешением 10 метров для каждого квадрата 10x10 метров на Земле. Это позволяет отслеживать вырубку лесов, состояние посевов и другие изменения почти в реальном времени.
Набор данных Satellite Embedding доступен через платформу Google Earth Engine. Компания подчеркивает, что разрешение достаточно для экологического мониторинга, но не позволяет идентифицировать людей.
deepmind.google
Ideogram AI выпустил модель Ideogram Character, решающую одну из главных проблем text-to-image систем - сохранение визуальной консистентности персонажа на разных изображениях.
Новый инструмент позволяет поддерживать идентичность героя, используя всего одно референсное изображение. После этого пользователи могут генерировать того же персонажа в разных стилях, с разными эмоциями и при различном освещении без необходимости дообучения модели.
Функция уже начала развертываться для всех пользователей. На бесплатном тарифе дают опробовать функцию 10 раз. Ideogram Character доступна как в веб-версии, так и в приложении для iOS.
about.ideogram.ai
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍3🔥3
🚀 Вышел репозиторий к книге "Production Ready Data Science"
На GitHub выложили доступен полный код к книге — с примерами, датасетами и готовыми пайплайнами.
📘 В репозитории:
• Отдельные папки по главам
• Исполняемый код для каждого раздела
• Настоящие датасеты для практики
• Приёмы продакшн‑подготовки моделей
Идеально, чтобы учиться на практике и закреплять й DS-навыки.
🔗 https://github.com/khuyentran1401/production-ready-data-science-code
@data_analysis_ml
На GitHub выложили доступен полный код к книге — с примерами, датасетами и готовыми пайплайнами.
📘 В репозитории:
• Отдельные папки по главам
• Исполняемый код для каждого раздела
• Настоящие датасеты для практики
• Приёмы продакшн‑подготовки моделей
Идеально, чтобы учиться на практике и закреплять й DS-навыки.
🔗 https://github.com/khuyentran1401/production-ready-data-science-code
@data_analysis_ml
❤8👍5🔥5🤣1
Ближе к индустрии: что изменилось в обучении IT-специалистов
Современные технологии меняются быстрее классических университетских программ. Но иногда выпускники оказываются асами в теории, а на практике руку еще не набили. В ответ на это появляются новые гибкие программы, в которых главное — работа с реальными кейсами и задачами.
Одна из таких — магистратура «Машинное обучение в цифровом продукте», созданная Факультетом компьютерных наук ВШЭ совместно с Авито. Ее цель — научить студента работать с ML как с продуктом, который решает задачи бизнеса.
Что внутри?
— много практики на реальных кейсах от Авито
— изучение полного продуктового цикла: от разработки ML-решений до их масштабирования
— синергия базовых дисциплин (MLOps, NLP, алгоритмы на Python) и предметов по выбору, например, компьютерного зрения и теории аукционов
— преподаватели — эксперты Факультета компьютерных наук ВШЭ и датасаентисты из Авито
— возможность пройти оплачиваемую стажировку в Авито с дальнейшим трудоустройством
Приём заявок на сайте ВШЭ продлится до 8 августа, потом всех кандидатов ожидает несколько этапов отбора. На программу зачислят 35 человек, обучение части из них профинансирует Авито.
Современные технологии меняются быстрее классических университетских программ. Но иногда выпускники оказываются асами в теории, а на практике руку еще не набили. В ответ на это появляются новые гибкие программы, в которых главное — работа с реальными кейсами и задачами.
Одна из таких — магистратура «Машинное обучение в цифровом продукте», созданная Факультетом компьютерных наук ВШЭ совместно с Авито. Ее цель — научить студента работать с ML как с продуктом, который решает задачи бизнеса.
Что внутри?
— много практики на реальных кейсах от Авито
— изучение полного продуктового цикла: от разработки ML-решений до их масштабирования
— синергия базовых дисциплин (MLOps, NLP, алгоритмы на Python) и предметов по выбору, например, компьютерного зрения и теории аукционов
— преподаватели — эксперты Факультета компьютерных наук ВШЭ и датасаентисты из Авито
— возможность пройти оплачиваемую стажировку в Авито с дальнейшим трудоустройством
Приём заявок на сайте ВШЭ продлится до 8 августа, потом всех кандидатов ожидает несколько этапов отбора. На программу зачислят 35 человек, обучение части из них профинансирует Авито.
❤7👍3🔥1
🧠 Цукерберг запускает новый формат собеседований с ИИ-помощником прямо во время кодинга
🔥 Кандидатам теперь разрешено использовать AI во время интервью — компания Цукерберга тестирует формат, где:
— Кандидат пишет код
— Встроенный ИИ‑ассистент (на базе собственной LLM Meta) подсказывает, тестирует, даёт подсказки
— Рекрутер управляет сложностью задач и видит, как кандидат работает с подсказками
💡 Логи фиксируют, кто копирует всё подряд, а кто умеет управлять ИИ, писать спеки и проверять результат.
По словам Цукерберга, к концу 2026 года большая часть кода в компании будет писаться агентами уровня middle‑разработчика. Поэтому от новых сотрудников ждут другого: не тупо кодить, а:
✅ Проектировать архитектуру
✅ Писать точные спеки
✅ Отлаживать и дообучать ИИ‑модули
⚙️ Это уже не собеседование “на чистую голову” — это проверка умения работать вместе с ИИ. И будущее найма, похоже, будет именно таким.
📖 Источник: https://www.wired.com/story/meta-ai-job-interview-coding/
@data_analysis_ml
🔥 Кандидатам теперь разрешено использовать AI во время интервью — компания Цукерберга тестирует формат, где:
— Кандидат пишет код
— Встроенный ИИ‑ассистент (на базе собственной LLM Meta) подсказывает, тестирует, даёт подсказки
— Рекрутер управляет сложностью задач и видит, как кандидат работает с подсказками
💡 Логи фиксируют, кто копирует всё подряд, а кто умеет управлять ИИ, писать спеки и проверять результат.
По словам Цукерберга, к концу 2026 года большая часть кода в компании будет писаться агентами уровня middle‑разработчика. Поэтому от новых сотрудников ждут другого: не тупо кодить, а:
✅ Проектировать архитектуру
✅ Писать точные спеки
✅ Отлаживать и дообучать ИИ‑модули
⚙️ Это уже не собеседование “на чистую голову” — это проверка умения работать вместе с ИИ. И будущее найма, похоже, будет именно таким.
📖 Источник: https://www.wired.com/story/meta-ai-job-interview-coding/
@data_analysis_ml
❤20👍14🔥4🤣2
This media is not supported in your browser
VIEW IN TELEGRAM
✨ FLUX Krea — дистиллированная опесноср версия модели Krea‑1, полностью совместимая с экосистемой FLUX.
📸 Модель собрана с упором на эстетику, чтобы устранить типичную проблему «AI-эффекта» в изображениях.
💎 В отличие от моделей, обученных на гигантских сырых датасетах, FLUX.1 Krea обучалась на вручную отобранных и высококачественных данных — ради максимального качества и реалистичности.
🖌 Поддерживает image prompts, кастомные стили и другие настройки.
Вы можете:
• протестировать её бесплатно тут: https://krea.ai
• или скачать веса и запускать на своём оборудовании.
🎨 Доступна в основном генераторе изображений Krea — попробуйте прямо сейчас.
🔗 Поробовать : https://krea.ai
🔗 HF: https://huggingface.co/black-forest-labs/FLUX.1-Krea-dev
🔗Comfy Workflow - https://docs.comfy.org/tutorials/flux/flux1-krea-dev
@data_analysis_ml
📸 Модель собрана с упором на эстетику, чтобы устранить типичную проблему «AI-эффекта» в изображениях.
💎 В отличие от моделей, обученных на гигантских сырых датасетах, FLUX.1 Krea обучалась на вручную отобранных и высококачественных данных — ради максимального качества и реалистичности.
🖌 Поддерживает image prompts, кастомные стили и другие настройки.
Вы можете:
• протестировать её бесплатно тут: https://krea.ai
• или скачать веса и запускать на своём оборудовании.
🎨 Доступна в основном генераторе изображений Krea — попробуйте прямо сейчас.
🔗 Поробовать : https://krea.ai
🔗 HF: https://huggingface.co/black-forest-labs/FLUX.1-Krea-dev
🔗Comfy Workflow - https://docs.comfy.org/tutorials/flux/flux1-krea-dev
@data_analysis_ml
👍4❤2🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
👾 DreamScene – новый end-to-end фреймворк для генерации высококачественных, редактируемых 3D-сцен по текстовому описанию!
🔹 Scene Planning: GPT-4 автоматически определяет объекты и их пространственные связи для построения гибридного графа.
🔹 Graph-based Placement: алгоритм обеспечивает структурированный компоновку без пересечений.
🔹 Formation Pattern Sampling: многошаговая семплинг-оптимизация генерирует реалистичную геометрию объектов.
🔹 Progressive Camera Sampling: адаптивная стратегия рендеринга для любых локаций — от интерьеров до открытых пространств.
🔹 Финетюнинг и редактирование: перемещение объектов, изменение внешнего вида и анимация 4D-движений.
Узнайте больше и попробуйте демо → https://huggingface.co/papers/2507.13985
#AI #3D #TextTo3D #DeepLearning #DreamScene
🔹 Scene Planning: GPT-4 автоматически определяет объекты и их пространственные связи для построения гибридного графа.
🔹 Graph-based Placement: алгоритм обеспечивает структурированный компоновку без пересечений.
🔹 Formation Pattern Sampling: многошаговая семплинг-оптимизация генерирует реалистичную геометрию объектов.
🔹 Progressive Camera Sampling: адаптивная стратегия рендеринга для любых локаций — от интерьеров до открытых пространств.
🔹 Финетюнинг и редактирование: перемещение объектов, изменение внешнего вида и анимация 4D-движений.
Узнайте больше и попробуйте демо → https://huggingface.co/papers/2507.13985
#AI #3D #TextTo3D #DeepLearning #DreamScene
❤3👍2🔥1
🚀 MixGRPO от Tencent — теперь в открытом доступе! Новый подход к обучению моделей по человеческим предпочтениям
🔧 Что нового и крутого:
1⃣ Первый фреймворк с гибридным семплированием ODE+SDE — меньше шагов, меньше вычислений
2⃣ До 71% быстрее обучения (вариант MixGRPO‑Flash), при этом точнее и эффективнее, чем DanceGRPO
3⃣ Поддержка ускоренных ODE-решателей — ещё выше скорость без потери качества
4⃣ Работает как с диффузионными, так и с flow-based моделями — требует всего несколько итераций
🔗 Проект: https://tulvgengenr.github.io/MixGRPO-Project-Page/
📦 Код и модели: https://github.com/Tencent-Hunyuan/MixGRPO
📄 Статья: https://arxiv.org/abs/2507.21802
@data_analysis_ml
🔧 Что нового и крутого:
1⃣ Первый фреймворк с гибридным семплированием ODE+SDE — меньше шагов, меньше вычислений
2⃣ До 71% быстрее обучения (вариант MixGRPO‑Flash), при этом точнее и эффективнее, чем DanceGRPO
3⃣ Поддержка ускоренных ODE-решателей — ещё выше скорость без потери качества
4⃣ Работает как с диффузионными, так и с flow-based моделями — требует всего несколько итераций
🔗 Проект: https://tulvgengenr.github.io/MixGRPO-Project-Page/
📦 Код и модели: https://github.com/Tencent-Hunyuan/MixGRPO
📄 Статья: https://arxiv.org/abs/2507.21802
@data_analysis_ml
❤5👍5🔥1
> Anthropic отозвала доступ OpenAI к API своих моделей Claude
> Заявление: “Технические сотрудники OpenAI использовали наши инструменты для программирования перед запуском GPT-5”
> “К сожалению, это прямое нарушение условий использования”
🔥 Кажется, война ИИ-компаний вышла на новый уровень.
@data_analysis_ml
#GPT5 #openai #ANTHROPIC
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥19😁8❤5👍2
🚀 Шикарный ресурс для всех, кто хочет разобраться как работают модели Qwen3 : Qwen3 From Scratch
Это подробное пошаговое руководство по запуску и анализу моделей Qwen3 — от 0.6B до 32B — с нуля, прямо в PyTorch.
📌 Что внутри:
— Как загрузить модель Qwen3‑0.6B и предобученные веса
— Настройка токенизатора и генерация текста
— Поддержка reasoning-версии модели
— Трюки для ускорения инференса: компиляция, KV-кеш, батчинг
📊 Автор также сравнивает Qwen3 с Llama 3:
✔️ Глубина vs ширина модели
✔️ Производительность на разном железе
✔️ Как ведут себя модели 0.6B, 1.7B, 4B, 8B, 32B
⚡ Идеально, если хочешь разобраться, как устроен inference, токенизация и архитектура Qwen3 — без магии и чёрных ящиков.
🖥 Github
@data_analysis_ml
Это подробное пошаговое руководство по запуску и анализу моделей Qwen3 — от 0.6B до 32B — с нуля, прямо в PyTorch.
📌 Что внутри:
— Как загрузить модель Qwen3‑0.6B и предобученные веса
— Настройка токенизатора и генерация текста
— Поддержка reasoning-версии модели
— Трюки для ускорения инференса: компиляция, KV-кеш, батчинг
📊 Автор также сравнивает Qwen3 с Llama 3:
✔️ Глубина vs ширина модели
✔️ Производительность на разном железе
✔️ Как ведут себя модели 0.6B, 1.7B, 4B, 8B, 32B
⚡ Идеально, если хочешь разобраться, как устроен inference, токенизация и архитектура Qwen3 — без магии и чёрных ящиков.
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥21❤8👍2