В нем представлены примеры кода для портфельной оптимизации, алгоритмической торговли , использования машинного обучения и разработки торговых стратегий.
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍17❤5🔥4
⚡️ Исследователи Microsoft выпустили лабораторию AIOpsLab: Комплексный ИИ-фреймворк с открытым исходным кодом для агентов AIOps
Исследователи Microsoft совместно с группой ученых из Калифорнийского университета в Беркли, Иллинойского университета в Урбане-Шампейне, Индийского научного института и колледжа Агнес Скотт разработали AIOpsLab - систему оценки, предназначенную для систематического проектирования, разработки и развития агентов AIOps.
Эта платформа с открытым исходным кодом охватывает весь жизненный цикл облачных операций - от обнаружения неисправностей до их устранения.
Предлагая модульную и адаптируемую платформу, AIOpsLab поддерживает исследователей и практиков в повышении надежности облачных систем и снижении зависимости в системах.
Фреймворк AIOpsLab включает в себя несколько ключевых компонентов.
Центральный модуль, обеспечивает взаимодействие между агентами и облачными средами, предоставляя описания задач, API-интерфейсы действий и обратную связь.
Генераторы отказов и рабочих нагрузок воспроизводят реальные условия для испытания тестируемых агентов.
Наблюдаемость, еще один краеугольный камень структуры, обеспечивает всесторонние телеметрические данные, такие как журналы, метрики и трассировки, для помощи в диагностике неисправностей.
▪Github
▪Запуск
▪Статья
@data_analysis_ml
Исследователи Microsoft совместно с группой ученых из Калифорнийского университета в Беркли, Иллинойского университета в Урбане-Шампейне, Индийского научного института и колледжа Агнес Скотт разработали AIOpsLab - систему оценки, предназначенную для систематического проектирования, разработки и развития агентов AIOps.
Эта платформа с открытым исходным кодом охватывает весь жизненный цикл облачных операций - от обнаружения неисправностей до их устранения.
Предлагая модульную и адаптируемую платформу, AIOpsLab поддерживает исследователей и практиков в повышении надежности облачных систем и снижении зависимости в системах.
Фреймворк AIOpsLab включает в себя несколько ключевых компонентов.
Центральный модуль, обеспечивает взаимодействие между агентами и облачными средами, предоставляя описания задач, API-интерфейсы действий и обратную связь.
Генераторы отказов и рабочих нагрузок воспроизводят реальные условия для испытания тестируемых агентов.
Наблюдаемость, еще один краеугольный камень структуры, обеспечивает всесторонние телеметрические данные, такие как журналы, метрики и трассировки, для помощи в диагностике неисправностей.
$ git clone <CLONE_PATH_TO_THE_REPO>
$ cd AIOpsLab
$ pip install poetry
$ poetry install -vvv
$ poetry shell
▪Github
▪Запуск
▪Статья
@data_analysis_ml
❤8👍8🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍20🔥7❤5
💡 Qwen выпустил QvQ 72B OpenAI o1-мультимодальную модель с ризонингом с возможностями зрения 🔥
TLDR
🏆SoTA мультимодальный с открытым исходным кодом
🧠 Способность к пошаговому рассуждению
💪🏾 Конкурентный балл MMMU с o1, GPT-4o и Sonnet 3.5
🔥 Выигрывает у GPT-4o и Sonnet 3.5 на MathVista и MathVision
> pip install mlx-vlm
https://huggingface.co/collections/mlx-community/qvq-72b-preview-676b345a6f93172ba980c0d5
TLDR
🏆SoTA мультимодальный с открытым исходным кодом
🧠 Способность к пошаговому рассуждению
💪🏾 Конкурентный балл MMMU с o1, GPT-4o и Sonnet 3.5
🔥 Выигрывает у GPT-4o и Sonnet 3.5 на MathVista и MathVision
> pip install mlx-vlm
https://huggingface.co/collections/mlx-community/qvq-72b-preview-676b345a6f93172ba980c0d5
❤8👍7🔥3👌1
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤14🔥8👍6
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6👍2❤1
This media is not supported in your browser
VIEW IN TELEGRAM
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11❤5🔥2
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8❤6👍3
Media is too big
VIEW IN TELEGRAM
❤6👍4🔥2⚡1
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9❤7🔥6
This media is not supported in your browser
VIEW IN TELEGRAM
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍15❤3🔥3🤔1
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍22❤9🔥5🤯1
This media is not supported in your browser
VIEW IN TELEGRAM
Хронология самых интересных ИИ релизов в 2024 году🔥
От Gemma до Llama 3.1 405B, от Sonnet 3.5 до o3 !
https://huggingface.co/spaces/reach-vb/2024-ai-timeline
@data_analysis_ml
От Gemma до Llama 3.1 405B, от Sonnet 3.5 до o3 !
https://huggingface.co/spaces/reach-vb/2024-ai-timeline
@data_analysis_ml
👍18❤6🔥6🤣2
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍14❤10🔥5
Please open Telegram to view this post
VIEW IN TELEGRAM
👍29🔥14❤5👌1
⚡️ 50 статей/моделей/блогов по 10 направлениям в AI: LLMs, Benchmarks, Prompting, RAG, Agents, CodeGen, Vision, Voice, Diffusion, Finetuning.
Если вы начинаете изучать мл с нуля, это хороший список.
Секция 1:топовые LLMs
- GPT1, GPT2, GPT3, Codex, InstructGPT, GPT4 статьи. GPT3.5, 4o, o1, и o3.
- Claude 3 и Gemini 1, Claude 3.5 Sonnet и Gemini 2.0 Flash/Flash Thinking. Gemma 2.
LLaMA 1, Llama 2, Llama 3 статьи для понимания внутреннего устройства моделей.
- Mistral 7B, Mixtral и Pixtral
- DeepSeek V1, Coder, MoE, V2, V3.
- Apple Intelligence
Секция 2: бенчмарки
- MMLU paper - the main knowledgebenchmark, next to GPQA and BIG-Bench. In 2025 frontier labs use MMLU Pro, GPQA Diamond, and BIG-Bench Hard.
- MuSR paper - evaluating long context, next to LongBench, BABILong, and RULER. Solving Lost in The Middle and other issues with Needle in a Haystack.
- MATH paper.
🔥 Полный список
Если вы начинаете изучать мл с нуля, это хороший список.
Секция 1:топовые LLMs
- GPT1, GPT2, GPT3, Codex, InstructGPT, GPT4 статьи. GPT3.5, 4o, o1, и o3.
- Claude 3 и Gemini 1, Claude 3.5 Sonnet и Gemini 2.0 Flash/Flash Thinking. Gemma 2.
LLaMA 1, Llama 2, Llama 3 статьи для понимания внутреннего устройства моделей.
- Mistral 7B, Mixtral и Pixtral
- DeepSeek V1, Coder, MoE, V2, V3.
- Apple Intelligence
Секция 2: бенчмарки
- MMLU paper - the main knowledgebenchmark, next to GPQA and BIG-Bench. In 2025 frontier labs use MMLU Pro, GPQA Diamond, and BIG-Bench Hard.
- MuSR paper - evaluating long context, next to LongBench, BABILong, and RULER. Solving Lost in The Middle and other issues with Needle in a Haystack.
- MATH paper.
🔥 Полный список
👍14🔥7❤5👌1
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍15🔥7❤2🥰1
Большая подборка интересных статей, посвященных LLM.
-The GPT-4 barrier was comprehensively broken
- Some of those GPT-4 models run on my laptop
- LLM prices crashed, thanks to competition and increased efficiency
- Multimodal vision is common, audio and video are starting to emerge
- Voice and live camera mode are science fiction come to life
-Prompt driven app generation is a commodity already
- Universal access to the best models lasted for just a few short months
- Agents” still haven’t really happened yet
- Evals really matter
- Apple Intelligence is bad, Apple’s MLX library is excellent
- The rise of inference-scaling “reasoning” models
- Was the best currently available LLM trained in China for less than $6m?
- The environmental impact got better
- The environmental impact got much, much worse
- The year of slop
- Synthetic training data works great
- LLMs somehow got even harder to use
- Knowledge is incredibly unevenly distributed
- LLMs need better criticism
⚡️ Полный обзор
@data_analysis_ml
-The GPT-4 barrier was comprehensively broken
- Some of those GPT-4 models run on my laptop
- LLM prices crashed, thanks to competition and increased efficiency
- Multimodal vision is common, audio and video are starting to emerge
- Voice and live camera mode are science fiction come to life
-Prompt driven app generation is a commodity already
- Universal access to the best models lasted for just a few short months
- Agents” still haven’t really happened yet
- Evals really matter
- Apple Intelligence is bad, Apple’s MLX library is excellent
- The rise of inference-scaling “reasoning” models
- Was the best currently available LLM trained in China for less than $6m?
- The environmental impact got better
- The environmental impact got much, much worse
- The year of slop
- Synthetic training data works great
- LLMs somehow got even harder to use
- Knowledge is incredibly unevenly distributed
- LLMs need better criticism
⚡️ Полный обзор
@data_analysis_ml
👍13❤6🔥4👏1💔1
This media is not supported in your browser
VIEW IN TELEGRAM
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥22❤6👍4