Data Science by ODS.ai 🦜
46.4K subscribers
623 photos
72 videos
7 files
1.72K links
First Telegram Data Science channel. Covering all technical and popular staff about anything related to Data Science: AI, Big Data, Machine Learning, Statistics, general Math and the applications of former. To reach editors contact: @malev
Download Telegram
Forwarded from Machinelearning
⚑️ SANA: ГСнСрация ΠΈΠ·ΠΎΠ±Ρ€Π°ΠΆΠ΅Π½ΠΈΠΉ ΠΈΠ·ΠΎΠ±Ρ€Π°ΠΆΠ΅Π½ΠΈΠΉ высокого Ρ€Π°Π·Ρ€Π΅ΡˆΠ΅Π½ΠΈΡ ΠΎΡ‚ Nvidia Labs.

Sana - сСмСйство ΠΌΠΎΠ΄Π΅Π»Π΅ΠΉ для Π³Π΅Π½Π΅Ρ€Π°Ρ†ΠΈΠΈ ΠΈΠ·ΠΎΠ±Ρ€Π°ΠΆΠ΅Π½ΠΈΠΉ с Ρ€Π°Π·Ρ€Π΅ΡˆΠ΅Π½ΠΈΠ΅ΠΌ Π΄ΠΎ 4096x4096 пиксСлСй. Π“Π»Π°Π²Π½ΠΎΠ΅ прСимущСство Sana - высокая ΡΠΊΠΎΡ€ΠΎΡΡ‚ΡŒ инфСрСнса ΠΈ Π½ΠΈΠ·ΠΊΠΈΠ΅ трСбования ΠΊ рСсурсам, ΠΌΠΎΠ΄Π΅Π»ΠΈ ΠΌΠΎΠΆΠ½ΠΎ Π·Π°ΠΏΡƒΡΡ‚ΠΈΡ‚ΡŒ Π΄Π°ΠΆΠ΅ Π½Π° Π½ΠΎΡƒΡ‚Π±ΡƒΠΊΠ΅.

Π‘Π΅ΠΊΡ€Π΅Ρ‚ эффСктивности Sana Π² Π΅Π΅ Π°Ρ€Ρ…ΠΈΡ‚Π΅ΠΊΡ‚ΡƒΡ€Π΅, которая состоит ΠΈΠ· Π½Π΅ΡΠΊΠΎΠ»ΡŒΠΊΠΈΡ… ΠΈΠ½Π½ΠΎΠ²Π°Ρ†ΠΈΠΎΠ½Π½Ρ‹Ρ… ΠΊΠΎΠΌΠΏΠΎΠ½Π΅Π½Ρ‚ΠΎΠ²:

🟒Deep Compression Autoencoder (DC-AE)
Π‘ΠΆΠΈΠΌΠ°Π΅Ρ‚ ΠΈΠ·ΠΎΠ±Ρ€Π°ΠΆΠ΅Π½ΠΈΠ΅ Π² 32 Ρ€Π°Π·Π°, Π² Ρ€Π΅Π·ΡƒΠ»ΡŒΡ‚Π°Ρ‚Π΅ Ρ‡Π΅Π³ΠΎ Π·Π½Π°Ρ‡ΠΈΡ‚Π΅Π»ΡŒΠ½ΠΎ сокращаСтся число Π»Π°Ρ‚Π΅Π½Ρ‚Π½Ρ‹Ρ… Ρ‚ΠΎΠΊΠ΅Π½ΠΎΠ², Ρ‡Ρ‚ΠΎ, Π² свою ΠΎΡ‡Π΅Ρ€Π΅Π΄ΡŒ, ΠΏΠΎΠ²Ρ‹ΡˆΠ°Π΅Ρ‚ ΡΡ„Ρ„Π΅ΠΊΡ‚ΠΈΠ²Π½ΠΎΡΡ‚ΡŒ обучСния ΠΈ позволяСт Π³Π΅Π½Π΅Ρ€ΠΈΡ€ΠΎΠ²Π°Ρ‚ΡŒ изобраТСния с Ρ€Π°Π·Ρ€Π΅ΡˆΠ΅Π½ΠΈΠ΅ΠΌ 4K.

🟒Linear Diffusion Transformer (Linear DiT)
Π˜ΡΠΏΠΎΠ»ΡŒΠ·ΡƒΠ΅Ρ‚ Π»ΠΈΠ½Π΅ΠΉΠ½ΠΎΠ΅ Π²Π½ΠΈΠΌΠ°Π½ΠΈΠ΅ вмСсто Ρ‚Ρ€Π°Π΄ΠΈΡ†ΠΈΠΎΠ½Π½ΠΎΠ³ΠΎ, ускоряя Π³Π΅Π½Π΅Ρ€Π°Ρ†ΠΈΡŽ с Ρ€Π°Π·Ρ€Π΅ΡˆΠ΅Π½ΠΈΠ΅ΠΌ 4K Π² 1.7 Ρ€Π°Π·Π°.

Π’ Linear DiT вмСсто модуля MLP-FFN ΠΈΡΠΏΠΎΠ»ΡŒΠ·ΡƒΠ΅Ρ‚ΡΡ Mix-FFN, ΠΊΠΎΡ‚ΠΎΡ€Ρ‹ΠΉ ΠΎΠ±ΡŠΠ΅Π΄ΠΈΠ½ΡΠ΅Ρ‚ Π² сСбС свСртку 3x3 ΠΈ Gated Linear Unit (GLU). Mix-FFN позволяСт ΠΎΡ‚ΠΊΠ°Π·Π°Ρ‚ΡŒΡΡ ΠΎΡ‚ ΠΏΠΎΠ·ΠΈΡ†ΠΈΠΎΠ½Π½ΠΎΠ³ΠΎ кодирования Π±Π΅Π· ΠΏΠΎΡ‚Π΅Ρ€ΠΈ качСства.

🟒Decoder-only Small LLM as Text Encoder
Π­Π½ΠΊΠΎΠ΄Π΅Ρ€, основанный Π½Π° LLM Gemma, ΠΊΠΎΡ‚ΠΎΡ€Ρ‹ΠΉ Π»ΡƒΡ‡ΡˆΠ΅ ΠΏΠΎΠ½ΠΈΠΌΠ°Π΅Ρ‚ тСкстовыС запросы ΠΏΠΎΠ»ΡŒΠ·ΠΎΠ²Π°Ρ‚Π΅Π»Ρ ΠΈ Ρ‚ΠΎΡ‡Π½Π΅Π΅ ΠΏΠ΅Ρ€Π΅Π΄Π°Π΅Ρ‚ ΠΈΡ… смысл Π½Π° Π³Π΅Π½Π΅Ρ€Π°Ρ†ΠΈΠΈ.

Для Ρ‚ΠΎΡ‡Π½ΠΎΠ³ΠΎ соотвСтствия "тСкст - ΠΈΠ·ΠΎΠ±Ρ€Π°ΠΆΠ΅Π½ΠΈΠ΅" ΠΏΡ€ΠΈ ΠΎΠ±ΡƒΡ‡Π΅Π½ΠΈΠΈ энкодСра ΠΏΡ€ΠΈΠΌΠ΅Π½ΡΠ»ΠΈΡΡŒ "слоТныС чСловСчСскиС инструкции" (CHI), ΠΊΠΎΡ‚ΠΎΡ€Ρ‹Π΅ Π½Π°ΡƒΡ‡ΠΈΠ»ΠΈ Gemma ΡƒΡ‡ΠΈΡ‚Ρ‹Π²Π°Ρ‚ΡŒ контСкст запроса.

Sana создавалась с ΠΏΠΎΠΌΠΎΡ‰ΡŒΡŽ ΡƒΠ½ΠΈΠΊΠ°Π»ΡŒΠ½ΠΎΠΉ стратСгии обучСния ΠΈ Π²Ρ‹Π±ΠΎΡ€ΠΊΠΈ. Π’ процСссС обучСния ΠΈΡΠΏΠΎΠ»ΡŒΠ·ΡƒΡŽΡ‚ΡΡ нСсколько VLM (VILA, InternVL2) для создания Ρ€Π°Π·Π»ΠΈΡ‡Π½Ρ‹Ρ… Π°Π½Π½ΠΎΡ‚Π°Ρ†ΠΈΠΉ ΠΊ ΠΊΠ°ΠΆΠ΄ΠΎΠΌΡƒ ΠΈΠ·ΠΎΠ±Ρ€Π°ΠΆΠ΅Π½ΠΈΡŽ. Π—Π°Ρ‚Π΅ΠΌ, Π½Π° основС CLIP-ΠΎΡ†Π΅Π½ΠΊΠΈ, Π±Ρ‹Π»ΠΈ ΠΎΡ‚ΠΎΠ±Ρ€Π°Π½Ρ‹ Π½Π°ΠΈΠ±ΠΎΠ»Π΅Π΅ подходящиС ΠΏΠ°Ρ€Ρ‹ "тСкст-ΠΈΠ·ΠΎΠ±Ρ€Π°ΠΆΠ΅Π½ΠΈΠ΅".

ΠžΠ±ΡƒΡ‡Π΅Π½ΠΈΠ΅ происходило постСпСнно, начиная с Ρ€Π°Π·Ρ€Π΅ΡˆΠ΅Π½ΠΈΡ 512x512 ΠΈ заканчивая 4096x4096, Π° Π°Π»Π³ΠΎΡ€ΠΈΡ‚ΠΌ Flow-DPM-Solver ускорил процСсс Π²Ρ‹Π±ΠΎΡ€ΠΊΠΈ, сократив количСство шагов ΠΏΠΎ ΡΡ€Π°Π²Π½Π΅Π½ΠΈΡŽ с Flow-Euler-Solver.

Π Π΅Π·ΡƒΠ»ΡŒΡ‚Π°Ρ‚Ρ‹ тСстирования Sana Π²ΠΏΠ΅Ρ‡Π°Ρ‚Π»ΡΡŽΡ‚:

🟠Sana-0.6B, Ρ€Π°Π±ΠΎΡ‚Π°ΡŽΡ‰Π°Ρ с изобраТСниями 512x512, Π² 5 Ρ€Π°Π· быстрСС, Ρ‡Π΅ΠΌ PixArt-Ξ£, ΠΏΡ€ΠΈ этом ΠΏΠΎΠΊΠ°Π·Ρ‹Π²Π°Π΅Ρ‚ Π»ΡƒΡ‡ΡˆΠΈΠ΅ Ρ€Π΅Π·ΡƒΠ»ΡŒΡ‚Π°Ρ‚Ρ‹ ΠΏΠΎ ΠΌΠ΅Ρ‚Ρ€ΠΈΠΊΠ°ΠΌ FID, Clip Score, GenEval ΠΈ DPG-Bench.

πŸŸ ΠŸΡ€ΠΈ Ρ€Π°Π·Ρ€Π΅ΡˆΠ΅Π½ΠΈΠΈ 1024x1024 Sana-0.6B Π² 40 Ρ€Π°Π· быстрСС PixArt-Ξ£.

🟠Sana-0.6B прСвосходит ΠΏΠΎ скорости Flux-12B Π² 39 Ρ€Π°Π· ΠΏΡ€ΠΈ Ρ€Π°Π·Ρ€Π΅ΡˆΠ΅Π½ΠΈΠΈ 1024x1024) ΠΈ ΠΌΠΎΠΆΠ΅Ρ‚ Π±Ρ‹Ρ‚ΡŒ Π·Π°ΠΏΡƒΡ‰Π΅Π½Π° Π½Π° Π½ΠΎΡƒΡ‚Π±ΡƒΠΊΠ΅ с 16 GB VRAM, гСнСрируя изобраТСния 1024x1024 ΠΌΠ΅Π½Π΅Π΅ Ρ‡Π΅ΠΌ Π·Π° сСкунду.


⚠️ Для локального инфСрСнса ΠΌΠΎΠ΄Π΅Π»ΠΈ 0.6B трСбуСтся 9GB VRAM, Π° для ΠΌΠΎΠ΄Π΅Π»ΠΈ 1.6B - 12GB VRAM.


▢️ Установка ΠΈ инфСрСнс c GradioUI:

# official online demo
DEMO_PORT=15432 \
python app/app_sana.py \
--config=configs/sana_config/1024ms/Sana_1600M_img1024.yaml \
--model_path=hf://Efficient-Large-Model/Sana_1600M_1024px/checkpoints/Sana_1600M_1024px.pth





πŸŸ‘Π‘Ρ‚Ρ€Π°Π½ΠΈΡ†Π° ΠΏΡ€ΠΎΠ΅ΠΊΡ‚Π°
πŸŸ‘ΠšΠΎΠ»Π»Π΅ΠΊΡ†ΠΈΡ ΠΌΠΎΠ΄Π΅Π»Π΅ΠΉ Π½Π° HF
🟑Arxiv
🟑Demo
πŸ–₯GitHub


@ai_machinelearning_big_data

#AI #ML #Diffusion #SANA #NVIDIA
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
πŸ”₯10πŸ‘7❀4
⚑️ Biggest open text dataset release of the year: SmolTalk is a 1M sample big synthetic dataset that was used to train SmolLM v2.

TL;DR;
🧩 New datasets: Smol-Magpie-Ultra (400K) for instruction tuning; Smol-contraints (36K) for precise output; Smol-rewrite (50K) & Smol-summarize (100K) for rewriting and summarization.
🀝 Public Dataset Integrations: OpenHermes2.5 (100K), MetaMathQA & NuminaMath-CoT, Self-Oss-Starcoder2-Instruct, LongAlign & SystemChats2.0
πŸ₯‡ Outperforms the new Orca-AgenInstruct 1M when trained with 1.7B and 7B models
πŸ† Outperform models trained on OpenHermes and Magpie Pro on IFEval and MT-Bench
distilabel to generate all new synthetic datasets
πŸ€— Released under Apache 2.0 on huggingface

Apache 2.0

Synthetic generation pipelines and training code released.

Dataset: https://huggingface.co/datasets/HuggingFaceTB/smoltalk
Generation Code: https://github.com/huggingface/smollm
Training Code: https://github.com/huggingface/alignment-handbook/tree/main/recipes/smollm2

@opendatascience
πŸ‘15❀5πŸ”₯5
Forwarded from Machinelearning
βœ”οΈ Stability AI выпустила ΠΌΠΎΠ΄Π΅Π»ΠΈ ControlNet для Stable Diffusion 3.5 Large.

Stability AI прСдставила 3 ΠΌΠΎΠ΄Π΅Π»ΠΈ ControlNet: Blur, Canny ΠΈ Depth, ΠΊΠΎΡ‚ΠΎΡ€Ρ‹Π΅ Ρ€Π°ΡΡˆΠΈΡ€ΡΡŽΡ‚ возмоТности Stable Diffusion 3.5 Large. МодСли доступны для коммСрчСского ΠΈ нСкоммСрчСского использования ΠΏΠΎΠ΄ Π»ΠΈΡ†Π΅Π½Π·ΠΈΠ΅ΠΉ Stability AI Community License..

МодСль Blur ΠΏΡ€Π΅Π΄Π½Π°Π·Π½Π°Ρ‡Π΅Π½Π° для апскСйла ΠΈΠ·ΠΎΠ±Ρ€Π°ΠΆΠ΅Π½ΠΈΠΉ Π΄ΠΎ Ρ€Π°Π·Ρ€Π΅ΡˆΠ΅Π½ΠΈΠΉ 8K ΠΈ 16K. Canny ΠΈΡΠΏΠΎΠ»ΡŒΠ·ΡƒΠ΅Ρ‚ ΠΊΠ°Ρ€Ρ‚Ρ‹ Π³Ρ€Π°Π½ΠΈΡ† для структурирования Π³Π΅Π½Π΅Ρ€ΠΈΡ€ΡƒΠ΅ΠΌΡ‹Ρ… ΠΈΠ·ΠΎΠ±Ρ€Π°ΠΆΠ΅Π½ΠΈΠΉ. МодСль Depth ΠΈΡΠΏΠΎΠ»ΡŒΠ·ΡƒΠ΅Ρ‚ ΠΊΠ°Ρ€Ρ‚Ρ‹ Π³Π»ΡƒΠ±ΠΈΠ½Ρ‹, созданныС DepthFM, для управлСния ΠΊΠΎΠΌΠΏΠΎΠ·ΠΈΡ†ΠΈΠ΅ΠΉ изобраТСния.

ControlNet для Stable Diffusion 3.5 Large ΡƒΠΆΠ΅ доступны Π½Π° Hugging Face ΠΈ ΠΏΠΎΠ΄Π΄Π΅Ρ€ΠΆΠΈΠ²Π°ΡŽΡ‚ΡΡ Π² Comfy UI.
stability.ai

βœ”οΈ IMAX внСдряСт ИИ для Ρ€Π°ΡΡˆΠΈΡ€Π΅Π½ΠΈΡ ΠΎΡ…Π²Π°Ρ‚Π° ΠΎΡ€ΠΈΠ³ΠΈΠ½Π°Π»ΡŒΠ½ΠΎΠ³ΠΎ ΠΊΠΎΠ½Ρ‚Π΅Π½Ρ‚Π°.

Канадская компания, извСстная своими ΠΎΠ³Ρ€ΠΎΠΌΠ½Ρ‹ΠΌΠΈ ΠΊΠΈΠ½ΠΎΡ‚Π΅Π°Ρ‚Ρ€Π°ΠΌΠΈ ΠΈ иммСрсивными впСчатлСниями ΠΎΡ‚ просмотра Ρ„ΠΈΠ»ΡŒΠΌΠΎΠ², объявила ΠΎ партнСрствС со стартапом Camb.ai, Π±Π°Π·ΠΈΡ€ΡƒΡŽΡ‰ΠΈΠΌΡΡ Π² Π”ΡƒΠ±Π°Π΅, для использования Π΅Π³ΠΎ ΠΌΠΎΠ΄Π΅Π»Π΅ΠΉ Ρ€Π΅Ρ‡Π΅Π²ΠΎΠ³ΠΎ ИИ для ΠΏΠ΅Ρ€Π΅Π²ΠΎΠ΄Π° ΠΎΡ€ΠΈΠ³ΠΈΠ½Π°Π»ΡŒΠ½ΠΎΠ³ΠΎ ΠΊΠΎΠ½Ρ‚Π΅Π½Ρ‚Π°.

Camb.ai ΠΏΡ€Π΅Π΄Π»Π°Π³Π°Π΅Ρ‚ свою модСль Boli для ΠΏΠ΅Ρ€Π΅Π²ΠΎΠ΄Π° Ρ€Π΅Ρ‡ΠΈ Π² тСкст ΠΈ Mars для эмуляции Ρ€Π΅Ρ‡ΠΈ. МодСли доступны Ρ‡Π΅Ρ€Π΅Π· ΠΏΠ»Π°Ρ‚Ρ„ΠΎΡ€ΠΌΡƒ DubStudio, которая ΠΏΠΎΠ΄Π΄Π΅Ρ€ΠΆΠΈΠ²Π°Π΅Ρ‚ 140 языков, Π²ΠΊΠ»ΡŽΡ‡Π°Ρ ΠΌΠ°Π»Ρ‹Π΅ языковыС Π³Ρ€ΡƒΠΏΠΏΡ‹. IMAX Π½Π°Ρ‡Π½Π΅Ρ‚ Π²Π½Π΅Π΄Ρ€ΡΡ‚ΡŒ ΠΏΠ΅Ρ€Π΅Π²ΠΎΠ΄Ρ‹ Π½Π° основС ИИ поэтапно, начиная с языков с большим объСмом Π΄Π°Π½Π½Ρ‹Ρ….
techcrunch.com

βœ”οΈ Anthropic Π΄ΠΎΠ±Π°Π²ΠΈΠ»Π° Ρ„ΡƒΠ½ΠΊΡ†ΠΈΡŽ ΠΏΠΎΠ»ΡŒΠ·ΠΎΠ²Π°Ρ‚Π΅Π»ΡŒΡΠΊΠΈΡ… стилСй Π² Claude AI.

Новая функция Claude - ΡΡ‚ΠΈΠ»ΡŒ ΠΎΡ‚Π²Π΅Ρ‚ΠΎΠ² Ρ‡Π°Ρ‚-Π±ΠΎΡ‚Π°. ОбновлСниС доступно для всСх ΠΏΠΎΠ»ΡŒΠ·ΠΎΠ²Π°Ρ‚Π΅Π»Π΅ΠΉ Claude AI ΠΈ Π΄Π°Ρ‘Ρ‚ Π²ΠΎΠ·ΠΌΠΎΠΆΠ½ΠΎΡΡ‚ΡŒ Π½Π°ΡΡ‚Ρ€ΠΎΠΈΡ‚ΡŒ ΡΡ‚ΠΈΠ»ΡŒ общСния ΠΈΠ»ΠΈ Π²Ρ‹Π±Ρ€Π°Ρ‚ΡŒ ΠΎΠ΄ΠΈΠ½ ΠΈΠ· прСдустановлСнных Π²Π°Ρ€ΠΈΠ°Π½Ρ‚ΠΎΠ², Ρ‡Ρ‚ΠΎΠ±Ρ‹ быстро ΠΈΠ·ΠΌΠ΅Π½ΠΈΡ‚ΡŒ Ρ‚ΠΎΠ½ ΠΈ ΡƒΡ€ΠΎΠ²Π΅Π½ΡŒ Π΄Π΅Ρ‚Π°Π»ΠΈΠ·Π°Ρ†ΠΈΠΈ.

ΠŸΠΎΠ»ΡŒΠ·ΠΎΠ²Π°Ρ‚Π΅Π»ΡΠΌ прСдлагаСтся Ρ‚Ρ€ΠΈ прСдустановлСнных стиля: Ρ„ΠΎΡ€ΠΌΠ°Π»ΡŒΠ½Ρ‹ΠΉ для Β«Ρ‡Π΅Ρ‚ΠΊΠΎΠ³ΠΎ ΠΈ ΠΎΡ‚Ρ‚ΠΎΡ‡Π΅Π½Π½ΠΎΠ³ΠΎΒ» тСкста, ΠΊΡ€Π°Ρ‚ΠΊΠΈΠΉ для Π±ΠΎΠ»Π΅Π΅ ΠΊΠΎΡ€ΠΎΡ‚ΠΊΠΈΡ… ΠΈ прямых ΠΎΡ‚Π²Π΅Ρ‚ΠΎΠ², ΠΈ ΠΏΠΎΡΡΠ½ΠΈΡ‚Π΅Π»ΡŒΠ½Ρ‹ΠΉ для ΠΎΠ±Ρ€Π°Π·ΠΎΠ²Π°Ρ‚Π΅Π»ΡŒΠ½Ρ‹Ρ… ΠΎΡ‚Π²Π΅Ρ‚ΠΎΠ². ΠŸΠΎΠ»ΡŒΠ·ΠΎΠ²Π°Ρ‚Π΅Π»ΠΈ Claude ΠΌΠΎΠ³ΡƒΡ‚ ΡΠΎΠ·Π΄Π°Π²Π°Ρ‚ΡŒ собствСнныС стили, Π·Π°Π³Ρ€ΡƒΠ·ΠΈΠ² ΠΏΡ€ΠΈΠΌΠ΅Ρ€Ρ‹ тСкстов, ΠΎΡ‚Ρ€Π°ΠΆΠ°ΡŽΡ‰ΠΈΡ… ΠΈΡ… ΠΏΡ€Π΅Π΄ΠΏΠΎΡ‡Ρ‚ΠΈΡ‚Π΅Π»ΡŒΠ½Ρ‹ΠΉ способ общСния.
theverge.com

βœ”οΈ Google запустила ΠΏΠ»Π°Ρ‚Ρ„ΠΎΡ€ΠΌΡƒ Health AI Developer Foundations (HAI-DEF) для Ρ€Π°Π·Ρ€Π°Π±ΠΎΡ‚ΠΊΠΈ ИИ Π² Π·Π΄Ρ€Π°Π²ΠΎΠΎΡ…Ρ€Π°Π½Π΅Π½ΠΈΠΈ.

Health AI Developer Foundations (HAI-DEF) - ΠΏΡƒΠ±Π»ΠΈΡ‡Π½Ρ‹ΠΉ рСсурс, ΠΊΠΎΡ‚ΠΎΡ€Ρ‹ΠΉ Π΄ΠΎΠ»ΠΆΠ΅Π½ ΠΏΠΎΠΌΠΎΡ‡ΡŒ Ρ€Π°Π·Ρ€Π°Π±ΠΎΡ‚Ρ‡ΠΈΠΊΠ°ΠΌ Π² создании ΠΈ Π²Π½Π΅Π΄Ρ€Π΅Π½ΠΈΠΈ ΠΌΠΎΠ΄Π΅Π»Π΅ΠΉ ИИ для здравоохранСния. HAI-DEF прСдоставляСт Ρ€Π°Π·Ρ€Π°Π±ΠΎΡ‚Ρ‡ΠΈΠΊΠ°ΠΌ ΠΌΠΎΠ΄Π΅Π»ΠΈ, ΠΎΠ±ΡƒΡ‡Π°ΡŽΡ‰ΠΈΠ΅ Π±Π»ΠΎΠΊΠ½ΠΎΡ‚Ρ‹ Colab ΠΈ ΠΏΠΎΠ΄Ρ€ΠΎΠ±Π½ΡƒΡŽ Π΄ΠΎΠΊΡƒΠΌΠ΅Π½Ρ‚Π°Ρ†ΠΈΡŽ для ΠΏΠΎΠ΄Π΄Π΅Ρ€ΠΆΠΊΠΈ ΠΊΠ°ΠΆΠ΄ΠΎΠ³ΠΎ этапа Ρ€Π°Π·Ρ€Π°Π±ΠΎΡ‚ΠΊΠΈ ИИ, ΠΎΡ‚ исслСдований Π΄ΠΎ ΠΊΠΎΠΌΠΌΠ΅Ρ€Ρ†ΠΈΠ°Π»ΠΈΠ·Π°Ρ†ΠΈΠΈ.

Π’ HAI-DEF входят 3 спСциализированныС ΠΌΠΎΠ΄Π΅Π»ΠΈ для мСдицинской Π²ΠΈΠ·ΡƒΠ°Π»ΠΈΠ·Π°Ρ†ΠΈΠΈ: CXR Foundation для рСнтгСновских снимков Π³Ρ€ΡƒΠ΄Π½ΠΎΠΉ ΠΊΠ»Π΅Ρ‚ΠΊΠΈ, Derm Foundation для ΠΈΠ·ΠΎΠ±Ρ€Π°ΠΆΠ΅Π½ΠΈΠΉ ΠΊΠΎΠΆΠΈ ΠΈ Path Foundation для Ρ†ΠΈΡ„Ρ€ΠΎΠ²ΠΎΠΉ ΠΏΠ°Ρ‚ΠΎΠ»ΠΎΠ³ΠΈΠΈ.
developers.google.com

βœ”οΈ Cursor ΠΏΠΎΠ»ΡƒΡ‡ΠΈΠ» ΠΎΠ±Π½ΠΎΠ²Π»Π΅Π½ΠΈΠ΅ с Π°Π²Ρ‚ΠΎΠ½ΠΎΠΌΠ½Ρ‹ΠΌΠΈ Π°Π³Π΅Π½Ρ‚Π°ΠΌΠΈ.

Cursor выпустила ΠΎΠ±Π½ΠΎΠ²Π»Π΅Π½ΠΈΠ΅ 0,43, ΠΊΠΎΡ‚ΠΎΡ€ΠΎΠ΅ обСспСчиваСт Ρ‡Π°ΡΡ‚ΠΈΡ‡Π½ΡƒΡŽ Π°Π²Ρ‚ΠΎΠΌΠ°Ρ‚ΠΈΠ·Π°Ρ†ΠΈΡŽ написания ΠΊΠΎΠ΄Π° с ΠΏΠΎΠΌΠΎΡ‰ΡŒΡŽ ИИ-Π°Π³Π΅Π½Ρ‚ΠΎΠ², способных ΡΠ°ΠΌΠΎΡΡ‚ΠΎΡΡ‚Π΅Π»ΡŒΠ½ΠΎ ΠΏΠ΅Ρ€Π΅ΠΌΠ΅Ρ‰Π°Ρ‚ΡŒΡΡ ΠΏΠΎ контСкстам ΠΈ Π²Ρ‹ΠΏΠΎΠ»Π½ΡΡ‚ΡŒ ΠΎΠΏΠ΅Ρ€Π°Ρ†ΠΈΠΈ Π² Ρ‚Π΅Ρ€ΠΌΠΈΠ½Π°Π»Π΅. ОбновлСниС позволяСт ИИ-Π°Π³Π΅Π½Ρ‚Π°ΠΌ Ρ€Π΅Π°Π³ΠΈΡ€ΠΎΠ²Π°Ρ‚ΡŒ Π½Π° сообщСния ΠΎΠ± ΠΎΡˆΠΈΠ±ΠΊΠ°Ρ… ΠΈ ΠΏΡ€ΠΈΠ½ΠΈΠΌΠ°Ρ‚ΡŒ Π°Π²Ρ‚ΠΎΠ½ΠΎΠΌΠ½Ρ‹Π΅ Ρ€Π΅ΡˆΠ΅Π½ΠΈΡ для устранСния ΠΏΡ€ΠΎΠ±Π»Π΅ΠΌ. Π’ дСмонстрации, ΠΎΠΏΡƒΠ±Π»ΠΈΠΊΠΎΠ²Π°Π½Π½ΠΎΠΉ Π² X, Cursor создаСт ΠΏΠΎΠ»Π½ΠΎΡ†Π΅Π½Π½ΠΎΠ΅ Π²Π΅Π±-ΠΏΡ€ΠΈΠ»ΠΎΠΆΠ΅Π½ΠΈΠ΅ сСкундомСра с использованиСм HTML, CSS ΠΈ JavaScript, Π²ΠΊΠ»ΡŽΡ‡Π°Ρ запуск Π²Π΅Π±-сСрвСра, всС это с ΠΏΠΎΠΌΠΎΡ‰ΡŒΡŽ ΠΎΠ΄Π½ΠΎΠΉ тСкстовой подсказки.

Cursor остаСтся бСсплатным для Π·Π°Π³Ρ€ΡƒΠ·ΠΊΠΈ ΠΈ Ρ€Π°Π±ΠΎΡ‚Π°Π΅Ρ‚ с GPT-4, Claude 3.5 Sonnet ΠΈ Llama, ΠΊΠ°ΠΊ локально, Ρ‚Π°ΠΊ ΠΈ Ρ‡Π΅Ρ€Π΅Π· API. ΠŸΠ»Π°Ρ‚Π½Π°Ρ подписка Pro Π·Π° 20 Π΄ΠΎΠ»Π»Π°Ρ€ΠΎΠ² Π² мСсяц ΠΎΡ‚ΠΊΡ€Ρ‹Π²Π°Π΅Ρ‚ доступ ΠΊ Π΄ΠΎΠΏΠΎΠ»Π½ΠΈΡ‚Π΅Π»ΡŒΠ½Ρ‹ΠΌ функциям, Π²ΠΊΠ»ΡŽΡ‡Π°Ρ Π½ΠΎΠ²Ρ‹Ρ… ИИ-Π°Π³Π΅Π½Ρ‚ΠΎΠ².
changelog.cursor.sh

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
πŸ‘7❀6πŸ”₯3
Forwarded from Machinelearning
🌟 cuPyNumeric: Π·Π°ΠΌΠ΅Π½Π° NumPy ΠΎΡ‚ NVIDIA.

По ΠΌΠ΅Ρ€Π΅ роста объСмов Π΄Π°Π½Π½Ρ‹Ρ… ΠΈ слоТности вычислСний, вычислСния Π½Π° Python ΠΈ NumPy, основанныС Π½Π° CPU, Π½ΡƒΠΆΠ΄Π°ΡŽΡ‚ΡΡ Π² ускорСнии для выполнСния соврСмСнных исслСдований.

cuPyNumeric Ρ€Π°Π·Ρ€Π°Π±ΠΎΡ‚Π°Π½Π°, Ρ‡Ρ‚ΠΎΠ±Ρ‹ ΡΡ‚Π°Ρ‚ΡŒ Π·Π°ΠΌΠ΅Π½ΠΎΠΉ Π±ΠΈΠ±Π»ΠΈΠΎΡ‚Π΅ΠΊΠΈ NumPy, прСдоставляя сообщСству Python распрСдСлСнныС ΠΈ ускорСнныС вычислСния Π½Π° ΠΏΠ»Π°Ρ‚Ρ„ΠΎΡ€ΠΌΠ΅ NVIDIA. cuPyNumeric позволяСт ΠΌΠ°ΡΡˆΡ‚Π°Π±ΠΈΡ€ΠΎΠ²Π°Ρ‚ΡŒ вычислСния Π±Π΅Π· измСнСния ΠΊΠΎΠ΄Π° ΠΏΡ€ΠΎΠ΅ΠΊΡ‚ΠΎΠ² с ΠΎΠ΄Π½ΠΎΠ³ΠΎ CPU Π΄ΠΎ ΡΡƒΠΏΠ΅Ρ€ΠΊΠΎΠΌΠΏΡŒΡŽΡ‚Π΅Ρ€ΠΎΠ² с нСсколькими GPU ΠΈ Π²Ρ‹Ρ‡ΠΈΡΠ»ΠΈΡ‚Π΅Π»ΡŒΠ½Ρ‹ΠΌΠΈ Π½ΠΎΠ΄Π°ΠΌΠΈ.

Π‘ΠΈΠ±Π»ΠΈΠΎΡ‚Π΅ΠΊΠ° построСна Π½Π° Legate, ΠΏΠΎΠ΄Π΄Π΅Ρ€ΠΆΠΈΠ²Π°Π΅Ρ‚ Ρ€ΠΎΠ΄Π½ΠΎΠΉ Python ΠΈ интСрфСйс NumPy. cuPyNumeric доступСн ΠΈΠ· conda (вСрсия Π½Π΅ Π½ΠΈΠΆΠ΅ 24.1) Π² legate channel. На систСмах с GPU ΠΏΠ°ΠΊΠ΅Ρ‚Ρ‹, ΠΏΠΎΠ΄Π΄Π΅Ρ€ΠΆΠΈΠ²Π°ΡŽΡ‰ΠΈΠ΅ графичСскиС ускоритСли Π±ΡƒΠ΄ΡƒΡ‚ Π²Ρ‹Π±Ρ€Π°Π½Ρ‹ автоматичСски Π²ΠΎ врСмя установки.

ΠŸΡ€ΠΈΠΌΠ΅Ρ€ эффСктивности cuPyNumeric - ΠΎΠ±Ρ€Π°Π±ΠΎΡ‚ΠΊΠ° 10 Π’Π‘ ΠΌΠΈΠΊΡ€ΠΎΠΈΠ·ΠΎΠ±Ρ€Π°ΠΆΠ΅Π½ΠΈΠΉ многоракурсной микроскопии Π² Π²ΠΈΠ΄Π΅ ΠΎΠ΄Π½ΠΎΠ³ΠΎ массива NumPy Π·Π° ΠΎΠ΄ΠΈΠ½ дСнь с Π²ΠΈΠ·ΡƒΠ°Π»ΠΈΠ·Π°Ρ†ΠΈΠΉ Π² Ρ€Π΅ΠΆΠΈΠΌΠ΅ Ρ€Π΅Π°Π»ΡŒΠ½ΠΎΠ³ΠΎ Π²Ρ€Π΅ΠΌΠ΅Π½ΠΈ.

▢️Установка ΠΈ тСст Π½Π° ΠΏΡ€ΠΈΠΌΠ΅Ρ€Π΅ ΠΈΠ· рСпозитория:

# Create new conda env
conda create -n myenv -c conda-forge -c legate cupynumeric

# Test via example from repo
$ legate examples/black_scholes.py
Running black scholes on 10K options...
Elapsed Time: 129.017 ms


πŸ“ŒΠ›ΠΈΡ†Π΅Π½Π·ΠΈΡ€ΠΎΠ²Π°Π½ΠΈΠ΅: Apache 2.0 License.


πŸŸ‘Π‘Ρ‚Π°Ρ‚ΡŒΡ
πŸŸ‘Π”ΠΎΠΊΡƒΠΌΠ΅Π½Ρ‚Π°Ρ†ΠΈΡ
πŸ–₯GitHub


@ai_machinelearning_big_data

#AI #ML #NumPy #NVIDIA #cuPyNumeric
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
πŸ‘15πŸ”₯6❀3
Forwarded from Postgres Professional
Π§Ρ‚ΠΎ происходит Π½Π° Ρ€Ρ‹Π½ΠΊΠ΅ систСм управлСния Π±Π°Π·Π°ΠΌΠΈ Π΄Π°Π½Π½Ρ‹Ρ…?

РСдакция TAdviser ΠΏΠΎΠ΄Π³ΠΎΡ‚ΠΎΠ²ΠΈΠ»Π° ΠΎΠ±Π·ΠΎΡ€ Ρ€Ρ‹Π½ΠΊΠ° Π‘Π£Π‘Π”: Ρ€Π΅Π·ΡƒΠ»ΡŒΡ‚Π°Ρ‚Ρ‹ Ρ€Π°Π·Ρ€Π°Π±ΠΎΡ‚Ρ‡ΠΈΠΊΠΎΠ² Π² 2023 Π³ΠΎΠ΄Ρƒ, ΠΎΠ±Π·ΠΎΡ€ Π½ΠΎΠ²Ρ‹Ρ… Ρ€Π΅ΡˆΠ΅Π½ΠΈΠΉ ΠΈ ΠΏΡ€ΠΎΠ΄ΡƒΠΊΡ‚ΠΎΠ², пСрспСктивы развития ΠΈ ΠΏΠ»Π°Π½Ρ‹ ΠΏΠΎ запуску Π½ΠΎΠ²Ρ‹Ρ… Π½Π°ΠΏΡ€Π°Π²Π»Π΅Π½ΠΈΠΉ. 

ΠšΠΎΡ€ΠΎΡ‚ΠΊΠΎ ΠΎ Π³Π»Π°Π²Π½ΠΎΠΌ:

βœ”οΈPostgres Professional β€” Π»ΠΈΠ΄Π΅Ρ€ Ρ€Ρ‹Π½ΠΊΠ° Π‘Π£Π‘Π”  

βœ”οΈΠ—Π°Π½ΠΈΠΌΠ°Π΅ΠΌ ΠΏΠ΅Ρ€Π²ΠΎΠ΅ мСсто ΠΏΠΎ количСству прСдставлСнных Π² 2023 Π³ΠΎΠ΄Ρƒ Π½ΠΎΠ²Ρ‹Ρ… Ρ€Π΅ΡˆΠ΅Π½ΠΈΠΉ, срСди Π½ΠΈΡ…: встроСнный отказоустойчивый кластСр BiHA, Postgres Pro Enterprise Manager, распрСдСлСнная рСляционная Π‘Π£Π‘Π” Postgres Pro Shardman 

βœ”οΈΠ—Π½Π°Ρ‡ΠΈΡ‚Π΅Π»ΡŒΠ½ΠΎ Ρ€Π°ΡΡˆΠΈΡ€ΠΈΠ»ΠΈ ΠΊΠ°Ρ€Ρ‚Ρƒ совмСстимости Postgres Pro β€” сСйчас Π² Π½Π΅ΠΉ Π±ΠΎΠ»Π΅Π΅ 300 Ρ€Π΅ΡˆΠ΅Π½ΠΈΠΉ. Π‘ΠΎ Π‘ΠΊΠ°Π»Π°^Ρ€ Ρ€Π°Π·Ρ€Π°Π±ΠΎΡ‚Π°Π»ΠΈ Π½ΠΎΠ²ΡƒΡŽ Π²Π΅Ρ€ΡΠΈΡŽ Β«ΠœΠ°ΡˆΠΈΠ½Ρ‹ Π±Π°Π· Π΄Π°Π½Π½Ρ‹Ρ… Π‘ΠΊΠ°Π»Π°^Ρ€ ΠœΠ‘Π”.П» Π½Π° Π±Π°Π·Π΅ сСртифицированной Π‘Π£Π‘Π” Postgres Pro Enterprise

βœ”οΈΠ’Π½Π΅Π΄Ρ€ΠΈΠ»ΠΈ Π‘Π£Π‘Π” Postgres Pro Π² ΠΊΡ€ΡƒΠΏΠ½Π΅ΠΉΡˆΠΈΡ… компаниях ΠΈ государствСнных структурах, срСди Π½Π°ΡˆΠΈΡ… Π·Π°ΠΊΠ°Π·Ρ‡ΠΈΠΊΠΎΠ²: Росатом, ПЀР, Π“Π°Π·ΠΏΡ€ΠΎΠΌ, Π Π–Π”, ΠŸΠ‘Π‘, Π’Ρ€Π°Π½ΡΠ½Π΅Ρ„Ρ‚ΡŒ, Π ΠΎΡΡΠ΅Π»ΡŒΡ…ΠΎΠ·Π±Π°Π½ΠΊ, Росагролизинг, Π€Π΅Π΄Π΅Ρ€Π°Π»ΡŒΠ½ΠΎΠ΅ ΠšΠ°Π·Π½Π°Ρ‡Π΅ΠΉΡΡ‚Π²ΠΎ

πŸ”– А Π΅Ρ‰Π΅ β€” ΡΠΏΠ΅Ρ†ΠΈΠ°Π»ΡŒΠ½ΠΎ для ΠΎΠ±Π·ΠΎΡ€Π° Иван ΠŸΠ°Π½Ρ‡Π΅Π½ΠΊΠΎ, Π·Π°ΠΌΠ΅ΡΡ‚ΠΈΡ‚Π΅Π»ΡŒ Π³Π΅Π½Π΅Ρ€Π°Π»ΡŒΠ½ΠΎΠ³ΠΎ Π΄ΠΈΡ€Π΅ΠΊΡ‚ΠΎΡ€Π° Postgres Professional, ΠΏΡ€ΠΎΠΊΠΎΠΌΠΌΠ΅Π½Ρ‚ΠΈΡ€ΠΎΠ²Π°Π» ΡΠΈΡ‚ΡƒΠ°Ρ†ΠΈΡŽ с ΠΈΠΌΠΏΠΎΡ€Ρ‚ΠΎΠ·Π°ΠΌΠ΅Ρ‰Π΅Π½ΠΈΠ΅ΠΌ ΠΈ массовым ΠΊΠ»ΠΎΠ½ΠΈΡ€ΠΎΠ²Π°Π½ΠΈΠ΅ΠΌ опСнсорс-систСм ΠΏΠΎΠ΄ Π²ΠΈΠ΄ΠΎΠΌ ΡΠ°ΠΌΠΎΡΡ‚ΠΎΡΡ‚Π΅Π»ΡŒΠ½Ρ‹Ρ… Ρ€Π΅ΡˆΠ΅Π½ΠΈΠΉ Π½Π° Ρ€Ρ‹Π½ΠΊΠ΅ Π‘Π£Π‘Π”. 

Π§ΠΈΡ‚Π°Ρ‚ΡŒ ΠΎΠ±Π·ΠΎΡ€ Ρ€Ρ‹Π½ΠΊΠ° TAdviser
Please open Telegram to view this post
VIEW IN TELEGRAM
πŸ”₯4πŸ‘1πŸ‘1
This media is not supported in your browser
VIEW IN TELEGRAM
⚑️ Structured Generation w/ SmolLM2 running in browser & WebGPU πŸ”₯

Powered by MLC Web-LLM & XGrammar ⚑

Define a JSON schema, Input free text, get structured data right in your browser - profit!!

To showcase how much you can do with just a 1.7B LLM, you pass free text, define a schema of parsing the text into a GitHub issue (title, description, categories, tags, etc) - Let MLC & XGrammar do the rest!

That's it, the code is super readable, try it out today!

β–ͺ Hf: https://huggingface.co/spaces/reach-vb/github-issue-generator-webgpu
β–ͺGithub: https://github.com/Vaibhavs10/github-issue-generator-webgpu

@opendatascience
πŸ‘8πŸ”₯4❀1πŸŽ‰1
Forwarded from Machinelearning
🌟 INTELLECT-1: Ρ€Π΅Π»ΠΈΠ· ΠΏΠ΅Ρ€Π²ΠΎΠΉ ΠΌΠΎΠ΄Π΅Π»ΠΈ Π΄Π΅Ρ†Π΅Π½Ρ‚Ρ€Π°Π»ΠΈΠ·ΠΎΠ²Π°Π½Π½ΠΎΠ³ΠΎ обучСния.

PRIME Intellect ΠΎΠΏΡƒΠ±Π»ΠΈΠΊΠΎΠ²Π°Π»Π° INTELLECT-1 (Instruct + Base), ΠΏΠ΅Ρ€Π²ΡƒΡŽ ΡΠ·Ρ‹ΠΊΠΎΠ²ΡƒΡŽ модСль с 10 ΠΌΠ»Ρ€Π΄. ΠΏΠ°Ρ€Π°ΠΌΠ΅Ρ‚Ρ€ΠΎΠ², совмСстно ΠΎΠ±ΡƒΡ‡Π΅Π½Π½ΡƒΡŽ Π·Π° 50 суток 30 участниками экспСримСнта ΠΏΠΎ всСму ΠΌΠΈΡ€Ρƒ.

PRIME Intellect использовала ΡΠΎΠ±ΡΡ‚Π²Π΅Π½Π½ΡƒΡŽ ΠΏΠ»Π°Ρ‚Ρ„ΠΎΡ€ΠΌΡƒ PRIME, Ρ€Π°Π·Ρ€Π°Π±ΠΎΡ‚Π°Π½Π½ΡƒΡŽ для Ρ€Π΅ΡˆΠ΅Π½ΠΈΡ Π³Π»Π°Π²Π½Ρ‹Ρ… ΠΏΡ€ΠΎΠ±Π»Π΅ΠΌ Π΄Π΅Ρ†Π΅Π½Ρ‚Ρ€Π°Π»ΠΈΠ·ΠΎΠ²Π°Π½Π½ΠΎΠ³ΠΎ обучСния: Π½Π΅Π½Π°Π΄Π΅ΠΆΠ½ΠΎΡΡ‚ΡŒ сСти ΠΈ динамичСскоС ΡƒΠΏΡ€Π°Π²Π»Π΅Π½ΠΈΠ΅ Π²Ρ‹Ρ‡ΠΈΡΠ»ΠΈΡ‚Π΅Π»ΡŒΠ½Ρ‹ΠΌΠΈ ΡƒΠ·Π»Π°ΠΌΠΈ.

ΠŸΠ»Π°Ρ‚Ρ„ΠΎΡ€ΠΌΠ° использовала ΡΠ΅Ρ‚ΡŒ ΠΈΠ· 112 GPU H100 Π½Π° 3 ΠΊΠΎΠ½Ρ‚ΠΈΠ½Π΅Π½Ρ‚Π°Ρ… ΠΈ ​​достигла коэффициСнта использования вычислСний Π² 96% ΠΏΡ€ΠΈ ΠΎΠΏΡ‚ΠΈΠΌΠ°Π»ΡŒΠ½Ρ‹Ρ… условиях.

ΠšΠΎΡ€ΠΏΡƒΡ обучСния составлял Π½Π° 1 Ρ‚Ρ€Π»Π½. Ρ‚ΠΎΠΊΠ΅Π½ΠΎΠ² ΠΏΡƒΠ±Π»ΠΈΡ‡Π½Ρ‹Ρ… датасСтов с ΠΏΡ€ΠΎΡ†Π΅Π½Ρ‚Π½Ρ‹ΠΌ ΡΠΎΠΎΡ‚Π½ΠΎΡˆΠ΅Π½ΠΈΠ΅ΠΌ: 55% fineweb-edu, 10% fineweb, 20% Stack V1, 10% dclm-baseline, 5% open-web-math.

▢️ВСхничСскиС характСристики:

🟒Parameters: 10B;
🟒Layers: 42;
🟒Attention Heads: 32;
🟒Hidden Size: 4096;
🟒Context Length: 8192;
🟒Vocabulary Size: 128256.

INTELLECT-1 достигла точности 37,5% Π½Π° тСстС MMLU ΠΈ 72,26% Π½Π° HellaSwag ΠΈ ΠΏΡ€Π΅Π²Π·ΠΎΡˆΠ»Π° нСсколько Π΄Ρ€ΡƒΠ³ΠΈΡ… ΠΌΠΎΠ΄Π΅Π»Π΅ΠΉ с ΠΎΡ‚ΠΊΡ€Ρ‹Ρ‚Ρ‹ΠΌ исходным ΠΊΠΎΠ΄ΠΎΠΌ Π² WinoGrande с Ρ€Π΅Π·ΡƒΠ»ΡŒΡ‚Π°Ρ‚ΠΎΠΌ 65,82%.

Π₯отя эти ΠΏΠΎΠΊΠ°Π·Π°Ρ‚Π΅Π»ΠΈ Π½Π΅ΠΌΠ½ΠΎΠ³ΠΎ ΠΎΡ‚ΡΡ‚Π°ΡŽΡ‚ ΠΎΡ‚ соврСмСнных популярных ΠΌΠΎΠ΄Π΅Π»Π΅ΠΉ, Ρ€Π΅Π·ΡƒΠ»ΡŒΡ‚Π°Ρ‚Ρ‹ экспСримСнта - ваТнСйший шаг ΠΊ Π΄Π΅ΠΌΠΎΠΊΡ€Π°Ρ‚ΠΈΠ·Π°Ρ†ΠΈΠΈ Ρ€Π°Π·Ρ€Π°Π±ΠΎΡ‚ΠΊΠΈ ИИ ΠΈ ΠΏΡ€Π΅Π΄ΠΎΡ‚Π²Ρ€Π°Ρ‰Π΅Π½ΠΈΡŽ консолидации возмоТностСй ИИ Π² Ρ€Π°ΠΌΠΊΠ°Ρ… Π½Π΅ΡΠΊΠΎΠ»ΡŒΠΊΠΈΡ… ΠΎΡ€Π³Π°Π½ΠΈΠ·Π°Ρ†ΠΈΠΉ.

β–ΆοΈΠšΠ²Π°Π½Ρ‚ΠΎΠ²Π°Π½Π½Ρ‹Π΅ Π² GGUF вСрсии INTELLECT-1_Instruct Π² разрядностях ΠΎΡ‚ 3-bit (5.46 GB) Π΄ΠΎ 8-bit(10.9 GB) ΠΎΡ‚ сообщСства LM Studio.

β–ΆοΈΠŸΡ€ΠΈΠΌΠ΅Ρ€ инфСрСнса Π½Π° Transformers:

import torch
from transformers import AutoModelForCausalLM, AutoTokenizer

torch.set_default_device("cuda")
model = AutoModelForCausalLM.from_pretrained("PrimeIntellect/INTELLECT-1")
tokenizer = AutoTokenizer.from_pretrained("PrimeIntellect/INTELLECT-1")

input_text = "%prompt%"
input_ids = tokenizer.encode(input_text, return_tensors="pt")
output_ids = model.generate(input_ids, max_length=50, num_return_sequences=1)
output_text = tokenizer.decode(output_ids[0], skip_special_tokens=True)

print(output_text)


πŸ“ŒΠ›ΠΈΡ†Π΅Π½Π·ΠΈΡ€ΠΎΠ²Π°Π½ΠΈΠ΅: Apache 2.0 License.


πŸŸ‘Π‘Ρ‚Π°Ρ‚ΡŒΡ
πŸŸ‘ΠΠ°Π±ΠΎΡ€ ΠΌΠΎΠ΄Π΅Π»Π΅ΠΉ HF
πŸŸ‘ΠΠ°Π±ΠΎΡ€ GGUF вСрсий
πŸŸ‘Π’Π΅Ρ…ΠΎΡ‚Ρ‡Π΅Ρ‚
🟑Demo
πŸ–₯GitHub


@ai_machinelearning_big_data

#AI #ML #LLM #Decentralizated
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
πŸ‘17❀5πŸ”₯4
Forwarded from Code Mining (Alexey Smirnov)
LLM-based agents for Software Engineering

Π’ сСнтябрС Π²Ρ‹ΡˆΠ΅Π» большой Ρ‚Ρ€ΡƒΠ΄ ΠΎΡ‚ китайских ΠΊΠΎΠ»Π»Π΅Π³: "Large Language Model-Based Agents for Software Engineering: A Survey".

Π‘Ρ‚Π°Ρ‚ΡŒΡ рассматриваСт аспСкты примСнСния LLM-основанных Π°Π³Π΅Π½Ρ‚ΠΎΠ² Π² Ρ€Π°Π·Π½Ρ‹Ρ… Π·Π°Π΄Π°Ρ‡Π°Ρ… ΠΏΡ€ΠΎΠ³Ρ€Π°ΠΌΠΌΠ½ΠΎΠΉ ΠΈΠ½ΠΆΠ΅Π½Π΅Ρ€ΠΈΠΈ (скрин). Π§Π΅Π³ΠΎ Ρ‚Π°ΠΌ Ρ‚ΠΎΠ»ΡŒΠΊΠΎ Π½Π΅Ρ‚! Добрая сотня Π΄ΠΎΠΌΠ΅Π½Π½Ρ‹Ρ… инструмСнтов, ΠΊΠΎΡ‚ΠΎΡ€Ρ‹Π΅ Π΅Ρ‰Ρ‘ ΠΈ ΡΡ€Π°Π²Π½ΠΈΠ²Π°ΡŽΡ‚ΡΡ ΠΌΠ΅ΠΆΠ΄Ρƒ собой ΠΈ ΠΈΠ΄Π΅Ρ‚ дискуссия ΠΎ Ρ‚ΠΎΠΌ ΠΊΠ°ΠΊ эти Π²Π΅Ρ‰ΠΈ принято ΡΡ‚Ρ€ΠΎΠΈΡ‚ΡŒ Π² Ρ€Π°Π·Π½Ρ‹Ρ… случаях.

Π‘ΡƒΠ΄Π΅ΠΌ ΡΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ согласно своим интСрСсам ΠΈ Ρ‡Ρ‚ΠΎ-Π½ΠΈΠ±ΡƒΠ΄ΡŒ ΠΎΠ±ΠΎΠ·Ρ€Π΅Π²Π°Ρ‚ΡŒ.

Если Π²Ρ‹ нашли Ρ‡Ρ‚ΠΎ-Ρ‚ΠΎ ΠΈΠ½Ρ‚Π΅Ρ€Π΅ΡΠ½Π΅Π½ΡŒΠΊΠΎΠ΅ β€” Π΄Π΅Π»ΠΈΡ‚Π΅ΡΡŒ Π² коммСнтариях.

Π”Π°, ΠΊ ΡΡ‚Π°Ρ‚ΡŒΠ΅ прилагаСтся Ρ€Π΅ΠΏΠΎ с большим количСством ссылок ΠΏΠΎ Ρ‚Π΅ΠΌΠ°ΠΌ: https://github.com/FudanSELab/Agent4SE-Paper-List.
πŸ”₯5❀4πŸ‘2😱1
This media is not supported in your browser
VIEW IN TELEGRAM
πŸŒ† AI system to generate 3D worlds from a single image. Check out some early results on our site, where you can interact with our scenes directly in the browser!

World Labs aims to address the challenges many creators face with existing genAI models: a lack of control and consistency. Given an input image, our system estimates 3D geometry, fills in unseen parts of the scene, invents new content so you can turn around, and generalizes to a wide variety of scene types and artistic styles.

Most generative models predict pixels. Predicting a 3D scene instead has many benefits: the scene won’t change if you look away and come back, and it obeys the basic physical rules of 3D geometry. The simplest way to visualize the 3D scene is a depth map, where each pixel is colored by its distance to the camera.

https://worldlabs.ai/blog

@opendatascience
πŸ‘8πŸ”₯7❀5πŸ₯°2
10 Π»Π΅Ρ‚ ΠΊΠ°ΠΊ ЯндСкс Π²Π½Π΅Π΄Ρ€ΠΈΠ» нСйросСти Π² Поиск β€” история развития πŸ”₯

> ΠŸΠ΅Ρ€Π²Ρ‹Π΅ Π½Π΅ΠΉΡ€ΠΎΠ½Π½Ρ‹Π΅ сСти для поиска ΠΏΠΎΡ…ΠΎΠΆΠΈΡ… ΠΊΠ°Ρ€Ρ‚ΠΈΠ½ΠΎΠΊ Π² Π΄Π΅ΠΊΠ°Π±Ρ€Π΅ 2014
> ΠŸΡ€ΠΈΠΌΠ΅Π½Π΅Π½ΠΈΠ΅ нСйросСтСй для ΡƒΠ»ΡƒΡ‡ΡˆΠ΅Π½ΠΈΡ поиска ΠΏΠΎ ΠΊΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΠ°ΠΌ ΠΏΠΎ тСкстовым запросам Π² 2015
> ΠŸΠ°Π»Π΅Ρ… ΠΈ ΠšΠΎΡ€ΠΎΠ»Ρ‘Π² для ранТирования тСкстов Π² 2016-2017
> ΠŸΡ€ΠΈΠΌΠ΅Π½Π΅Π½ΠΈΠ΅ нСйросСти Π² машинном ΠΏΠ΅Ρ€Π΅Π²ΠΎΠ΄Π΅ Π² 2017
> ВяТёлая нСйронная ΡΠ΅Ρ‚ΡŒ YATI с Ρ€Π΅ΠΊΠΎΡ€Π΄Π½Ρ‹ΠΌ ΡƒΠ»ΡƒΡ‡ΡˆΠ΅Π½ΠΈΠ΅ΠΌ качСства Π² 2020
> НСйро с VLM для Ρ€Π°Π±ΠΎΡ‚Ρ‹ с тСкстом ΠΈ изобраТСниями Π² 2024

Π’ΠΎΠΎΠ±Ρ‰Π΅, ΠΏΠ΅Ρ€Π²Ρ‹Π΅ экспСримСнты с нСйросСтями Π½Π°Ρ‡Π°Π»ΠΈΡΡŒ с ΠΏΡ€ΠΎΠ±ΠΎΠΊ (2012) ΠΈ Ρ€Π΅Ρ‡ΠΈ (2013), Π° сСгодня это основа поисковых Ρ‚Π΅Ρ…Π½ΠΎΠ»ΠΎΠ³ΠΈΠΉ πŸš€

ΠžΡ‚ ΡΠΊΡΠΏΠ΅Ρ€ΠΈΠΌΠ΅Π½Ρ‚Π°Π»ΡŒΠ½Ρ‹Ρ… Ρ€Π΅ΡˆΠ΅Π½ΠΈΠΉ Π΄ΠΎ Ρ‚Π΅Ρ…Π½ΠΎΠ»ΠΎΠ³ΠΈΠΉ, ΠΌΠ΅Π½ΡΡŽΡ‰ΠΈΡ… Ρ‚ΠΎ, ΠΊΠ°ΠΊ ΠΌΡ‹ ΠΈΡ‰Π΅ΠΌ ΠΈΠ½Ρ„ΠΎΡ€ΠΌΠ°Ρ†ΠΈΡŽ ΠΊΠ°ΠΆΠ΄Ρ‹ΠΉ дСнь.

https://habr.com/ru/companies/yandex/news/863768/

@opendatascience
πŸ‘23❀3🀑2πŸ”₯1
This media is not supported in your browser
VIEW IN TELEGRAM
⚑️ Introducing DeepThought-8B: Transparent reasoning model built on LLaMA-3.1 with test-time compute scaling.

- JSON-structured thought chains & controllable inference paths.
- ~16GB VRAM, competitive w/ 70B models.
- Open model weights, and inference scripts.

https://huggingface.co/ruliad/deepthought-8b-llama-v0.01-alpha

@opendatascience
πŸ”₯8❀5πŸ‘5❀‍πŸ”₯2
ΠœΡ‹ ΠΌΠ½ΠΎΠ³ΠΎ рассказываСм ΠΏΡ€ΠΎ свои ΠΏΡ€ΠΎΠ΅ΠΊΡ‚Ρ‹, связанныС с Ρ†Π΅Π½Ρ‚Ρ€ΠΎΠΌ ИИ, Π½ΠΎ Π²ΠΎΠΎΠ±Ρ‰Π΅ Π² ИВМО довольно ΠΌΠ½ΠΎΠ³ΠΎ интСрСсного опСнсорса ΠΈ Ρƒ Π΄Ρ€ΡƒΠ³ΠΈΡ… ΠΏΠΎΠ΄Ρ€Π°Π·Π΄Π΅Π»Π΅Π½ΠΈΠΉ ΠΈ Π»Π°Π±ΠΎΡ€Π°Ρ‚ΠΎΡ€ΠΈΠΉ.

ΠŸΠΎΡΡ‚ΠΎΠΌΡƒ Ρ€Π΅ΡˆΠΈΠ»ΠΈ ΡΠ΄Π΅Π»Π°Ρ‚ΡŒ Π½Π΅Π±ΠΎΠ»ΡŒΡˆΡƒΡŽ ΠΏΠΎΠ΄Π±ΠΎΡ€ΠΊΡƒ тСматичСских Ρ€Π°Π·Π΄Π΅Π»ΠΎΠ². Π’ качСствС Π·Π°Ρ‚Ρ€Π°Π²ΠΊΠΈ - 10 github-ΠΎΡ€Π³Π°Π½ΠΈΠ·Π°Ρ†ΠΈΠΉ:

1) aimclub - объСдинСниС ΠΎΡ‚ΠΊΡ€Ρ‹Ρ‚Ρ‹Ρ… ИИ-инструмСнтов Π·Π° авторством сообщСства AIM УнивСрситСта ИВМО.
Бсылки: сайт.
ΠŸΡ€ΠΈΠΌΠ΅Ρ€Ρ‹ ΠΏΡ€ΠΎΠ΅ΠΊΡ‚ΠΎΠ²: FEDOT, BAMT, GOLEM, GEFEST, rostok, iOpt.

2) itmo-nss-team - R&D-ΠΏΡ€ΠΎΠ΅ΠΊΡ‚Ρ‹ NSS Lab Π² области ИИ
Бсылки: сайт, tg, youtube, colab.
ΠŸΡ€ΠΈΠΌΠ΅Ρ€Ρ‹ ΠΏΡ€ΠΎΠ΅ΠΊΡ‚ΠΎΠ²: EPDE, torch_DE_solver.

3) Industrial-AI-Research-Lab - ΠΏΡ€ΠΎΠ΅ΠΊΡ‚Ρ‹ Π»Π°Π±ΠΎΡ€Π°Ρ‚ΠΎΡ€ΠΈΠΈ ΠΏΡ€ΠΎΠΌΡ‹ΡˆΠ»Π΅Π½Π½ΠΎΠ³ΠΎ ИИ.
ΠŸΡ€ΠΈΠΌΠ΅Ρ€Ρ‹ ΠΏΡ€ΠΎΠ΅ΠΊΡ‚ΠΎΠ²: rec4u.

4) AI-chem - ΠΏΡ€ΠΎΠ΅ΠΊΡ‚Ρ‹ Ρ†Π΅Π½Ρ‚Ρ€Π° "ИИ Π² Π₯ΠΈΠΌΠΈΠΈ".
ΠŸΡ€ΠΈΠΌΠ΅Ρ€Ρ‹ ΠΏΡ€ΠΎΠ΅ΠΊΡ‚ΠΎΠ²: GEMCODE, Nanomaterial_Morphology_Prediction.
Бсылки: сайт, tg.

5) BE2RLAB - ΠΏΡ€ΠΎΠ΅ΠΊΡ‚Ρ‹ Π»Π°Π±ΠΎΡ€Π°Ρ‚ΠΎΡ€ΠΈΠΈ Π±ΠΈΠΎΠΌΠ΅Ρ…Π°Ρ‚Ρ€ΠΎΠ½ΠΈΠΊΠΈ ΠΈ энСргоэффСктивной Ρ€ΠΎΠ±ΠΎΡ‚ΠΎΡ‚Π΅Ρ…Π½ΠΈΠΊΠΈ.
ΠŸΡ€ΠΈΠΌΠ΅Ρ€Ρ‹ ΠΏΡ€ΠΎΠ΅ΠΊΡ‚ΠΎΠ²: OpenSemanticMapping

6) airalab - ΠΏΡ€ΠΎΠ΅ΠΊΡ‚Ρ‹ Π»Π°Π±ΠΎΡ€Π°Ρ‚ΠΎΡ€ΠΈΠΈ ΠΌΡƒΠ»ΡŒΡ‚ΠΈΠ°Π³Π΅Π½Ρ‚Π½Ρ‹Ρ… систСм Π² ΡƒΠΌΠ½Ρ‹Ρ… Π³ΠΎΡ€ΠΎΠ΄Π°Ρ… ΠΈ индустрии 4.0.
ΠŸΡ€ΠΈΠΌΠ΅Ρ€Ρ‹ ΠΏΡ€ΠΎΠ΅ΠΊΡ‚ΠΎΠ²: robonomics.
Бсылки: сайт.

7) swarmtronics - ΠΏΡ€ΠΎΠ΅ΠΊΡ‚Ρ‹ Π»Π°Π±ΠΎΡ€Π°Ρ‚ΠΎΡ€ΠΈΠΈ посвящСны ΠΌΠΎΠ΄Π΅Π»ΠΈΡ€ΠΎΠ²Π°Π½ΠΈΡŽ Ρ€ΠΎΠ΅Π², состоящих ΠΈΠ· простых Ρ€ΠΎΠ±ΠΎΡ‚ΠΎΠ², способных ΠΊ самоорганизации ΠΈ Π²Ρ‹ΠΏΠΎΠ»Π½Π΅Π½ΠΈΡŽ слоТных Π·Π°Π΄Π°Ρ‡.
ΠŸΡ€ΠΈΠΌΠ΅Ρ€Ρ‹ ΠΏΡ€ΠΎΠ΅ΠΊΡ‚ΠΎΠ²: AMPy, swarmodroid
Бсылки: сайт.

8) Π‘TLab-ITMO ΠΈ CTLab (старый Ρ€Π΅ΠΏΠΎΠ·ΠΈΡ‚ΠΎΡ€ΠΈΠΉ) - ΠΏΡ€ΠΎΠ΅ΠΊΡ‚Ρ‹ ΡƒΡ‡Π΅Π±Π½ΠΎ-Π½Π°ΡƒΡ‡Π½ΠΎΠΉ Π»Π°Π±ΠΎΡ€Π°Ρ‚ΠΎΡ€ΠΈΠΈ ΠΊΠΎΠΌΠΏΡŒΡŽΡ‚Π΅Ρ€Π½Ρ‹Ρ… Ρ‚Π΅Ρ…Π½ΠΎΠ»ΠΎΠ³ΠΈΠΉ .
ΠŸΡ€ΠΈΠΌΠ΅Ρ€Ρ‹ ΠΏΡ€ΠΎΠ΅ΠΊΡ‚ΠΎΠ²: fgsea, GADMA, samovar, metafast, VGLib.
Бсылки: tg.

9) LISA-ITMO - ΠΏΡ€ΠΎΠ΅ΠΊΡ‚Ρ‹ ΡƒΡ‡Π΅Π±Π½ΠΎ-Π½Π°ΡƒΡ‡Π½ΠΎΠΉ Π»Π°Π±ΠΎΡ€Π°Ρ‚ΠΎΡ€ΠΈΠΈ LISA
ΠŸΡ€ΠΈΠΌΠ΅Ρ€Ρ‹ ΠΏΡ€ΠΎΠ΅ΠΊΡ‚ΠΎΠ²: edylytica.
Бсылки: tg.

10) ITMO-MMRM-lab - ΠΏΡ€ΠΎΠ΅ΠΊΡ‚Ρ‹ ΠΈΠ· области Π±ΠΈΠΎΠ»ΠΎΠ³ΠΈΠΈ ΠΎΡ‚ Π»Π°Π±ΠΎΡ€Π°Ρ‚ΠΎΡ€ΠΈΠΈ MMRM.

НавСрняка ΠΏΡ€ΠΎ ΠΊΠΎΠ³ΠΎ-Ρ‚ΠΎ Π½Π΅ Π·Π½Π°Π΅ΠΌ, поэтому Ссли Π²Π»Π°Π΄Π΅Π΅Ρ‚Π΅ ΠΈΠ½Ρ„ΠΎΡ€ΠΌΠ°Ρ†ΠΈΠ΅ΠΉ - ΠΏΠΈΡˆΠΈΡ‚Π΅ Π² ΠΊΠΎΠΌΠΌΠ΅Π½Ρ‚Π°Ρ€ΠΈΠΈ.
πŸ”₯9❀1
Forwarded from Machinelearning
πŸ“ŒΠ˜Π½Ρ‚Π΅Ρ€Π°ΠΊΡ‚ΠΈΠ²Π½ΠΎΠ΅ руководство ΠΏΠΎ Prompt Engineering для Ollama.

Π Π΅ΠΏΠΎΠ·ΠΈΡ‚ΠΎΡ€ΠΈΠΉ Π½Π° Github c Π½Π°Π±ΠΎΡ€ΠΎΠΌ ipynb-Ρ‚ΡƒΡ‚ΠΎΡ€ΠΈΠ°Π»ΠΎΠ² ΠΏΠΎ Prompt Engineering для освоСния ΠΌΠ΅Ρ‚ΠΎΠ΄ΠΎΠ² создания ΠΎΠΏΡ‚ΠΈΠΌΠ°Π»ΡŒΠ½Ρ‹Ρ… ΠΏΡ€ΠΎΠΌΠΏΡ‚ΠΎΠ² для ΠΌΠΎΠ΄Π΅Π»ΠΈ Qwen2.5-14B.

Руководство Ρ€Π°Π·Π΄Π΅Π»Π΅Π½ΠΎ Π½Π° 9 Π³Π»Π°Π² с практичСскими упраТнСниями ΠΈ ΠΏΡ€ΠΈΠ»ΠΎΠΆΠ΅Π½ΠΈΠ΅ΠΌ с "ΠΏΡ€ΠΎΠ΄Π²ΠΈΠ½ΡƒΡ‚Ρ‹ΠΌΠΈ" ΠΌΠ΅Ρ‚ΠΎΠ΄Π°ΠΌΠΈ. Π’ ΠΊΠ°ΠΆΠ΄ΠΎΠΉ Π³Π»Π°Π²Π΅ Π΅ΡΡ‚ΡŒ "Example Playground" для экспСримСнтов с ΠΏΡ€ΠΈΠΌΠ΅Ρ€Π°ΠΌΠΈ ΠΈ наблюдСния Π·Π° измСнСниями Π² инфСрСнсС Ollama.

Руководство ΠΈΡΠΏΠΎΠ»ΡŒΠ·ΡƒΠ΅Ρ‚ модСль Qwen 2.5-14B, Π½ΠΎ всС ΠΌΠ°Ρ‚Π΅Ρ€ΠΈΠ°Π»Ρ‹ подходят ΠΈ для ΠΌΠΎΠ΄Π΅Π»ΠΈ Qwen 2.5-7B.

▢️БодСрТаниС:

ΠΠ°Ρ‡Π°Π»ΡŒΠ½Ρ‹ΠΉ ΡƒΡ€ΠΎΠ²Π΅Π½ΡŒ

πŸŸ’Π“Π»Π°Π²Π° 1: Базовая структура ΠΏΡ€ΠΎΠΌΠΏΡ‚Π°.
πŸŸ’Π“Π»Π°Π²Π° 2: Π―ΡΠ½ΠΎΡΡ‚ΡŒ ΠΈ прямота.
πŸŸ’Π“Π»Π°Π²Π° 3: НазначСниС Ρ€ΠΎΠ»Π΅ΠΉ.

Π‘Ρ€Π΅Π΄Π½ΠΈΠΉ ΡƒΡ€ΠΎΠ²Π΅Π½ΡŒ

πŸŸ’Π“Π»Π°Π²Π° 4: ΠžΡ‚Π΄Π΅Π»Π΅Π½ΠΈΠ΅ Π΄Π°Π½Π½Ρ‹Ρ… ΠΎΡ‚ инструкций.
πŸŸ’Π“Π»Π°Π²Π° 5: Π€ΠΎΡ€ΠΌΠ°Ρ‚Ρ‹ Π΄Π°Π½Π½Ρ‹Ρ… инфСрСнса ΠΈ Ρ€Π΅Ρ‡ΡŒ для Ollama.
πŸŸ’Π“Π»Π°Π²Π° 6: РассуТдСниС (шаг Π·Π° шагом).
πŸŸ’Π“Π»Π°Π²Π° 7: ИспользованиС ΠΏΡ€ΠΈΠΌΠ΅Ρ€ΠΎΠ².

ΠŸΡ€ΠΎΠ΄Π²ΠΈΠ½ΡƒΡ‚Ρ‹ΠΉ ΡƒΡ€ΠΎΠ²Π΅Π½ΡŒ

πŸŸ Π“Π»Π°Π²Π° 8: ИзбСганиС Π³Π°Π»Π»ΡŽΡ†ΠΈΠ½Π°Ρ†ΠΈΠΉ.
πŸŸ Π“Π»Π°Π²Π° 9: Π‘ΠΎΠ·Π΄Π°Π½ΠΈΠ΅ слоТных ΠΏΡ€ΠΎΠΌΠΏΡ‚ΠΎΠ² (ΠΏΡ€ΠΈΠΌΠ΅Ρ€Ρ‹ использования для Ρ€Π΅Π°Π»ΡŒΠ½Ρ‹Ρ… Π·Π°Π΄Π°Ρ‡):

πŸŸ’Π‘Π»ΠΎΠΆΠ½Ρ‹Π΅ ΠΏΡ€ΠΎΠΌΠΏΡ‚Ρ‹ с нуля - Ρ‡Π°Ρ‚Π±ΠΎΡ‚;
πŸŸ’Π‘Π»ΠΎΠΆΠ½Ρ‹Π΅ ΠΏΡ€ΠΎΠΌΠΏΡ‚Ρ‹ с нуля ΠΏΠΎ ΡŽΡ€ΠΈΠ΄ΠΈΡ‡Π΅ΡΠΊΠΈΠΌ услугам;
πŸŸ’Π£ΠΏΡ€Π°ΠΆΠ½Π΅Π½ΠΈΠ΅: Π‘Π»ΠΎΠΆΠ½Ρ‹Π΅ ΠΏΡ€ΠΎΠΌΠΏΡ‚Ρ‹ для финансовых услуг;
πŸŸ’Π£ΠΏΡ€Π°ΠΆΠ½Π΅Π½ΠΈΠ΅: Π‘Π»ΠΎΠΆΠ½Ρ‹Π΅ ΠΏΡ€ΠΎΠΌΠΏΡ‚Ρ‹ для программирования.

ΠŸΡ€ΠΈΠ»ΠΎΠΆΠ΅Π½ΠΈΠ΅: Π—Π° ΠΏΡ€Π΅Π΄Π΅Π»Π°ΠΌΠΈ стандартных подсказок

πŸŸ Π¦Π΅ΠΏΠΎΡ‡ΠΊΠ° ΠΏΡ€ΠΎΠΌΠΏΡ‚ΠΎΠ².
🟠ИспользованиС инструмСнтов.


πŸ“ŒΠ›ΠΈΡ†Π΅Π½Π·ΠΈΡ€ΠΎΠ²Π°Π½ΠΈΠ΅: MIT License.


πŸ–₯GitHub


@ai_machinelearning_big_data

#AI #ML #LLM #Github #Tutorial #Ollama
Please open Telegram to view this post
VIEW IN TELEGRAM
πŸ‘12❀4πŸ”₯2
πŸ–₯ RAGHub β€” это ΠΊΠ°Ρ‚Π°Π»ΠΎΠ³ инструмСнтов, ΠΏΡ€ΠΎΠ΅ΠΊΡ‚ΠΎΠ² ΠΈ рСсурсов для Retrieval-Augmented Generation (RAG)!

🌟 ΠŸΡ€ΠΎΠ΅ΠΊΡ‚ ΠΏΡ€Π΅Π΄Π»Π°Π³Π°Π΅Ρ‚ ΠΈΠ½Ρ„ΠΎΡ€ΠΌΠ°Ρ†ΠΈΡŽ ΠΎ Ρ„Ρ€Π΅ΠΉΠΌΠ²ΠΎΡ€ΠΊΠ°Ρ…, Ρ‚Π°ΠΊΠΈΡ… ΠΊΠ°ΠΊ LangChain, Haystack ΠΈ Π΄Ρ€ΡƒΠ³ΠΈΡ…, Π° Ρ‚Π°ΠΊΠΆΠ΅ ΠΎ ΠΌΠ΅Ρ‚ΠΎΠ΄Π°Ρ… ΠΎΠΏΡ‚ΠΈΠΌΠΈΠ·Π°Ρ†ΠΈΠΈ, инструмСнтах ΠΎΡ†Π΅Π½ΠΊΠΈ ΠΈ ΠΏΡ€ΠΈΠΌΠ΅Ρ€Π°Ρ… использования RAG.

πŸ” ЛицСнзия: MIT

πŸ–₯ Github

@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
πŸ‘13❀7πŸ“3
Forwarded from Machinelearning
🌟 Apollo: сСмСйство ΠΌΡƒΠ»ΡŒΡ‚ΠΈΠΌΠΎΠ΄Π°Π»ΡŒΠ½Ρ‹Ρ… ΠΌΠΎΠ΄Π΅Π»Π΅ΠΉ для понимания ΠΌΠ΅Π΄ΠΈΠ°ΠΊΠΎΠ½Ρ‚Π΅Π½Ρ‚Π°.

Apollo - Π½Π°Π±ΠΎΡ€ MMLM, ΠΊΠΎΡ‚ΠΎΡ€Ρ‹Π΅ ΡƒΠΌΠ΅ΡŽΡ‚ Ρ€Π΅ΡˆΠ°Ρ‚ΡŒ Ρ€Π°Π·Π½Ρ‹Π΅ Π·Π°Π΄Π°Ρ‡ΠΈ с Π²ΠΈΠ΄Π΅ΠΎΠΊΠΎΠ½Ρ‚Π΅Π½Ρ‚ΠΎΠΌ. Они ΠΌΠΎΠ³ΡƒΡ‚ ΠΏΠΎΠ½ΠΈΠΌΠ°Ρ‚ΡŒ Π΄Π»ΠΈΠ½Π½Ρ‹Π΅ Π²ΠΈΠ΄Π΅ΠΎ, Ρ€Π°ΡΡΡƒΠΆΠ΄Π°Ρ‚ΡŒ ΠΎ событиях Π²ΠΎ Π²Ρ€Π΅ΠΌΠ΅Π½ΠΈ ΠΈ ΠΏΠΎΠ΄Π΄Π΅Ρ€ΠΆΠΈΠ²Π°Ρ‚ΡŒ многосторонниС Π²ΠΈΠ΄Π΅ΠΎ-Π΄ΠΈΠ°Π»ΠΎΠ³ΠΈ.

МодСли ΠΏΠΎΠΊΠ°Π·Ρ‹Π²Π°ΡŽΡ‚ Π²Ρ‹ΡΠΎΠΊΡƒΡŽ ΠΏΡ€ΠΎΠΈΠ·Π²ΠΎΠ΄ΠΈΡ‚Π΅Π»ΡŒΠ½ΠΎΡΡ‚ΡŒ Π΄Π°ΠΆΠ΅ ΠΏΡ€ΠΈ ΠΎΡ‚Π½ΠΎΡΠΈΡ‚Π΅Π»ΡŒΠ½ΠΎ нСбольшом Ρ€Π°Π·ΠΌΠ΅Ρ€Π΅ Π² 3 ΠΌΠ»Ρ€Π΄. ΠΏΠ°Ρ€Π°ΠΌΠ΅Ρ‚Ρ€ΠΎΠ², прСвосходя ΠΏΠΎ эффСктивности ΠΊΠΎΠ½ΠΊΡƒΡ€Π΅Π½Ρ‚ΠΎΠ² с модСлями Π² 7Π’-30Π’ ΠΏΠ°Ρ€Π°ΠΌΠ΅Ρ‚Ρ€ΠΎΠ².

Π­Ρ‚ΠΎΠ³ΠΎ ΡƒΠ΄Π°Π»ΠΎΡΡŒ Π΄ΠΎΡΡ‚ΠΈΡ‡ΡŒ благодаря Ρ‚Ρ‰Π°Ρ‚Π΅Π»ΡŒΠ½ΠΎΠΌΡƒ ΠΏΡ€ΠΎΠ΅ΠΊΡ‚ΠΈΡ€ΠΎΠ²Π°Π½ΠΈΡŽ ΠΈ ΠΊΠΎΠΌΠ±ΠΈΠ½ΠΈΡ€ΠΎΠ²Π°Π½ΠΈΡŽ SigLIP-SO400M (для ΠΈΠ·ΠΎΠ±Ρ€Π°ΠΆΠ΅Π½ΠΈΠΉ) ΠΈ InternVideo2 (для Π²ΠΈΠ΄Π΅ΠΎ). Π˜Ρ… синСргия Π΄Π°Π΅Ρ‚ Π±ΠΎΠ»Π΅Π΅ устойчивоС прСдставлСниС Π½Π° Π·Π°Π΄Π°Ρ‡Π°Ρ… Π²Ρ€Π΅ΠΌΠ΅Π½Π½Ρ‹Ρ… рассуТдСний.

▢️ БСмСйство состоит ΠΈΠ· Ρ‚Ρ€Π΅Ρ… ΠΌΠΎΠ΄Π΅Π»Π΅ΠΉ:

🟒Apollo 7B
🟒Apollo 3B
🟒Apollo 1.5B

⚠️ Код для Ρ‚ΠΎΠ½ΠΊΠΎΠΉ настройки, ΠΏΡ€ΠΈΠΌΠ΅Π½Π΅Π½ΠΈΠ΅ LoRA Π² Apollo ΠΈ Π΄ΠΎΠΊΡƒΠΌΠ΅Π½Ρ‚Π°Ρ†ΠΈΡŽ Ρ€Π°Π·Ρ€Π°Π±ΠΎΡ‚Ρ‡ΠΈΠΊΠΈ ΠΎΠ±Π΅Ρ‰Π°ΡŽΡ‚ ΠΎΠΏΡƒΠ±Π»ΠΈΠΊΠΎΠ²Π°Ρ‚ΡŒ ΠΏΠΎΠ·Π΄Π½Π΅Π΅. Пока Π² Ρ€Π΅ΠΏΠΎΠ·ΠΈΡ‚ΠΎΡ€ΠΈΠΈ ΠΏΡ€ΠΎΠ΅ΠΊΡ‚Π° Ρ€Π°Π·ΠΌΠ΅Ρ‰Π΅Π½ Ρ‚ΠΎΠ»ΡŒΠΊΠΎ ΠΏΡ€ΠΈΠΌΠ΅Ρ€ инфСрСнса Π½Π° Transformers.


πŸ“ŒΠ›ΠΈΡ†Π΅Π½Π·ΠΈΡ€ΠΎΠ²Π°Π½ΠΈΠ΅ ΠΊΠΎΠ΄Π° : Apache 2.0 License.


πŸŸ‘Π‘Ρ‚Ρ€Π°Π½ΠΈΡ†Π° ΠΏΡ€ΠΎΠ΅ΠΊΡ‚Π°
πŸŸ‘ΠΠ°Π±ΠΎΡ€ ΠΌΠΎΠ΄Π΅Π»Π΅ΠΉ
🟑Arxiv
🟑Demo Apollo-3B
πŸ–₯GitHub



@ai_machinelearning_big_data

#AI #ML #MMLM #Apollo
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
πŸ‘12πŸ”₯5❀2
⚑️ Byte Latent Transformer: Patches Scale Better Than Tokens

Byte Latent Transformer architecture (BLTs), a new byte-level LLM architecture that for the first time, matches tokenization-based LLM performance at scale, with significant improvements in inference efficiency and robustness.

BLT encodes bytes into dynamically sized patches, which serve as the primary units of computation. Patches are segmented dynamically based on the entropy of the next byte, allocating more compute and model capacity where there is more data complexity.

The BLT architecture includes new attention mechanisms to maximize the information flow between byte and patch hidden representations and a new type of byte-sequence memory. We present the first scaling study of byte-level models up to 8B parameters and 8T training bytes, showing for the first time that we can train a model end-to-end at scale from bytes with no tokenization or other preprocessing. Scaling trends reveal training and inference efficiency benefits from dynamically selecting very long patches on average, along with qualitative improvements with reasoning and long tail generalization from modeling byte-sequences.

πŸ–₯ Github: https://github.com/facebookresearch/blt

πŸ“• Paper: https://arxiv.org/abs/2412.09871v1

🌟 Dataset: https://paperswithcode.com/dataset/mmlu

@opendatascience
Please open Telegram to view this post
VIEW IN TELEGRAM
πŸ‘10❀2⚑1πŸ”₯1