Forwarded from Machinelearning
Sana - ΡΠ΅ΠΌΠ΅ΠΉΡΡΠ²ΠΎ ΠΌΠΎΠ΄Π΅Π»Π΅ΠΉ Π΄Π»Ρ Π³Π΅Π½Π΅ΡΠ°ΡΠΈΠΈ ΠΈΠ·ΠΎΠ±ΡΠ°ΠΆΠ΅Π½ΠΈΠΉ Ρ ΡΠ°Π·ΡΠ΅ΡΠ΅Π½ΠΈΠ΅ΠΌ Π΄ΠΎ 4096x4096 ΠΏΠΈΠΊΡΠ΅Π»Π΅ΠΉ. ΠΠ»Π°Π²Π½ΠΎΠ΅ ΠΏΡΠ΅ΠΈΠΌΡΡΠ΅ΡΡΠ²ΠΎ Sana - Π²ΡΡΠΎΠΊΠ°Ρ ΡΠΊΠΎΡΠΎΡΡΡ ΠΈΠ½ΡΠ΅ΡΠ΅Π½ΡΠ° ΠΈ Π½ΠΈΠ·ΠΊΠΈΠ΅ ΡΡΠ΅Π±ΠΎΠ²Π°Π½ΠΈΡ ΠΊ ΡΠ΅ΡΡΡΡΠ°ΠΌ, ΠΌΠΎΠ΄Π΅Π»ΠΈ ΠΌΠΎΠΆΠ½ΠΎ Π·Π°ΠΏΡΡΡΠΈΡΡ Π΄Π°ΠΆΠ΅ Π½Π° Π½ΠΎΡΡΠ±ΡΠΊΠ΅.
Π‘Π΅ΠΊΡΠ΅Ρ ΡΡΡΠ΅ΠΊΡΠΈΠ²Π½ΠΎΡΡΠΈ Sana Π² Π΅Π΅ Π°ΡΡ ΠΈΡΠ΅ΠΊΡΡΡΠ΅, ΠΊΠΎΡΠΎΡΠ°Ρ ΡΠΎΡΡΠΎΠΈΡ ΠΈΠ· Π½Π΅ΡΠΊΠΎΠ»ΡΠΊΠΈΡ ΠΈΠ½Π½ΠΎΠ²Π°ΡΠΈΠΎΠ½Π½ΡΡ ΠΊΠΎΠΌΠΏΠΎΠ½Π΅Π½ΡΠΎΠ²:
Π‘ΠΆΠΈΠΌΠ°Π΅Ρ ΠΈΠ·ΠΎΠ±ΡΠ°ΠΆΠ΅Π½ΠΈΠ΅ Π² 32 ΡΠ°Π·Π°, Π² ΡΠ΅Π·ΡΠ»ΡΡΠ°ΡΠ΅ ΡΠ΅Π³ΠΎ Π·Π½Π°ΡΠΈΡΠ΅Π»ΡΠ½ΠΎ ΡΠΎΠΊΡΠ°ΡΠ°Π΅ΡΡΡ ΡΠΈΡΠ»ΠΎ Π»Π°ΡΠ΅Π½ΡΠ½ΡΡ ΡΠΎΠΊΠ΅Π½ΠΎΠ², ΡΡΠΎ, Π² ΡΠ²ΠΎΡ ΠΎΡΠ΅ΡΠ΅Π΄Ρ, ΠΏΠΎΠ²ΡΡΠ°Π΅Ρ ΡΡΡΠ΅ΠΊΡΠΈΠ²Π½ΠΎΡΡΡ ΠΎΠ±ΡΡΠ΅Π½ΠΈΡ ΠΈ ΠΏΠΎΠ·Π²ΠΎΠ»ΡΠ΅Ρ Π³Π΅Π½Π΅ΡΠΈΡΠΎΠ²Π°ΡΡ ΠΈΠ·ΠΎΠ±ΡΠ°ΠΆΠ΅Π½ΠΈΡ Ρ ΡΠ°Π·ΡΠ΅ΡΠ΅Π½ΠΈΠ΅ΠΌ 4K.
ΠΡΠΏΠΎΠ»ΡΠ·ΡΠ΅Ρ Π»ΠΈΠ½Π΅ΠΉΠ½ΠΎΠ΅ Π²Π½ΠΈΠΌΠ°Π½ΠΈΠ΅ Π²ΠΌΠ΅ΡΡΠΎ ΡΡΠ°Π΄ΠΈΡΠΈΠΎΠ½Π½ΠΎΠ³ΠΎ, ΡΡΠΊΠΎΡΡΡ Π³Π΅Π½Π΅ΡΠ°ΡΠΈΡ Ρ ΡΠ°Π·ΡΠ΅ΡΠ΅Π½ΠΈΠ΅ΠΌ 4K Π² 1.7 ΡΠ°Π·Π°.
Π Linear DiT Π²ΠΌΠ΅ΡΡΠΎ ΠΌΠΎΠ΄ΡΠ»Ρ MLP-FFN ΠΈΡΠΏΠΎΠ»ΡΠ·ΡΠ΅ΡΡΡ Mix-FFN, ΠΊΠΎΡΠΎΡΡΠΉ ΠΎΠ±ΡΠ΅Π΄ΠΈΠ½ΡΠ΅Ρ Π² ΡΠ΅Π±Π΅ ΡΠ²Π΅ΡΡΠΊΡ 3x3 ΠΈ Gated Linear Unit (GLU). Mix-FFN ΠΏΠΎΠ·Π²ΠΎΠ»ΡΠ΅Ρ ΠΎΡΠΊΠ°Π·Π°ΡΡΡΡ ΠΎΡ ΠΏΠΎΠ·ΠΈΡΠΈΠΎΠ½Π½ΠΎΠ³ΠΎ ΠΊΠΎΠ΄ΠΈΡΠΎΠ²Π°Π½ΠΈΡ Π±Π΅Π· ΠΏΠΎΡΠ΅ΡΠΈ ΠΊΠ°ΡΠ΅ΡΡΠ²Π°.
ΠΠ½ΠΊΠΎΠ΄Π΅Ρ, ΠΎΡΠ½ΠΎΠ²Π°Π½Π½ΡΠΉ Π½Π° LLM Gemma, ΠΊΠΎΡΠΎΡΡΠΉ Π»ΡΡΡΠ΅ ΠΏΠΎΠ½ΠΈΠΌΠ°Π΅Ρ ΡΠ΅ΠΊΡΡΠΎΠ²ΡΠ΅ Π·Π°ΠΏΡΠΎΡΡ ΠΏΠΎΠ»ΡΠ·ΠΎΠ²Π°ΡΠ΅Π»Ρ ΠΈ ΡΠΎΡΠ½Π΅Π΅ ΠΏΠ΅ΡΠ΅Π΄Π°Π΅Ρ ΠΈΡ ΡΠΌΡΡΠ» Π½Π° Π³Π΅Π½Π΅ΡΠ°ΡΠΈΠΈ.
ΠΠ»Ρ ΡΠΎΡΠ½ΠΎΠ³ΠΎ ΡΠΎΠΎΡΠ²Π΅ΡΡΡΠ²ΠΈΡ "ΡΠ΅ΠΊΡΡ - ΠΈΠ·ΠΎΠ±ΡΠ°ΠΆΠ΅Π½ΠΈΠ΅" ΠΏΡΠΈ ΠΎΠ±ΡΡΠ΅Π½ΠΈΠΈ ΡΠ½ΠΊΠΎΠ΄Π΅ΡΠ° ΠΏΡΠΈΠΌΠ΅Π½ΡΠ»ΠΈΡΡ "ΡΠ»ΠΎΠΆΠ½ΡΠ΅ ΡΠ΅Π»ΠΎΠ²Π΅ΡΠ΅ΡΠΊΠΈΠ΅ ΠΈΠ½ΡΡΡΡΠΊΡΠΈΠΈ" (CHI), ΠΊΠΎΡΠΎΡΡΠ΅ Π½Π°ΡΡΠΈΠ»ΠΈ Gemma ΡΡΠΈΡΡΠ²Π°ΡΡ ΠΊΠΎΠ½ΡΠ΅ΠΊΡΡ Π·Π°ΠΏΡΠΎΡΠ°.
Sana ΡΠΎΠ·Π΄Π°Π²Π°Π»Π°ΡΡ Ρ ΠΏΠΎΠΌΠΎΡΡΡ ΡΠ½ΠΈΠΊΠ°Π»ΡΠ½ΠΎΠΉ ΡΡΡΠ°ΡΠ΅Π³ΠΈΠΈ ΠΎΠ±ΡΡΠ΅Π½ΠΈΡ ΠΈ Π²ΡΠ±ΠΎΡΠΊΠΈ. Π ΠΏΡΠΎΡΠ΅ΡΡΠ΅ ΠΎΠ±ΡΡΠ΅Π½ΠΈΡ ΠΈΡΠΏΠΎΠ»ΡΠ·ΡΡΡΡΡ Π½Π΅ΡΠΊΠΎΠ»ΡΠΊΠΎ VLM (VILA, InternVL2) Π΄Π»Ρ ΡΠΎΠ·Π΄Π°Π½ΠΈΡ ΡΠ°Π·Π»ΠΈΡΠ½ΡΡ Π°Π½Π½ΠΎΡΠ°ΡΠΈΠΉ ΠΊ ΠΊΠ°ΠΆΠ΄ΠΎΠΌΡ ΠΈΠ·ΠΎΠ±ΡΠ°ΠΆΠ΅Π½ΠΈΡ. ΠΠ°ΡΠ΅ΠΌ, Π½Π° ΠΎΡΠ½ΠΎΠ²Π΅ CLIP-ΠΎΡΠ΅Π½ΠΊΠΈ, Π±ΡΠ»ΠΈ ΠΎΡΠΎΠ±ΡΠ°Π½Ρ Π½Π°ΠΈΠ±ΠΎΠ»Π΅Π΅ ΠΏΠΎΠ΄Ρ ΠΎΠ΄ΡΡΠΈΠ΅ ΠΏΠ°ΡΡ "ΡΠ΅ΠΊΡΡ-ΠΈΠ·ΠΎΠ±ΡΠ°ΠΆΠ΅Π½ΠΈΠ΅".
ΠΠ±ΡΡΠ΅Π½ΠΈΠ΅ ΠΏΡΠΎΠΈΡΡ ΠΎΠ΄ΠΈΠ»ΠΎ ΠΏΠΎΡΡΠ΅ΠΏΠ΅Π½Π½ΠΎ, Π½Π°ΡΠΈΠ½Π°Ρ Ρ ΡΠ°Π·ΡΠ΅ΡΠ΅Π½ΠΈΡ 512x512 ΠΈ Π·Π°ΠΊΠ°Π½ΡΠΈΠ²Π°Ρ 4096x4096, Π° Π°Π»Π³ΠΎΡΠΈΡΠΌ Flow-DPM-Solver ΡΡΠΊΠΎΡΠΈΠ» ΠΏΡΠΎΡΠ΅ΡΡ Π²ΡΠ±ΠΎΡΠΊΠΈ, ΡΠΎΠΊΡΠ°ΡΠΈΠ² ΠΊΠΎΠ»ΠΈΡΠ΅ΡΡΠ²ΠΎ ΡΠ°Π³ΠΎΠ² ΠΏΠΎ ΡΡΠ°Π²Π½Π΅Π½ΠΈΡ Ρ Flow-Euler-Solver.
Π Π΅Π·ΡΠ»ΡΡΠ°ΡΡ ΡΠ΅ΡΡΠΈΡΠΎΠ²Π°Π½ΠΈΡ Sana Π²ΠΏΠ΅ΡΠ°ΡΠ»ΡΡΡ:
β οΈ ΠΠ»Ρ Π»ΠΎΠΊΠ°Π»ΡΠ½ΠΎΠ³ΠΎ ΠΈΠ½ΡΠ΅ΡΠ΅Π½ΡΠ° ΠΌΠΎΠ΄Π΅Π»ΠΈ 0.6B ΡΡΠ΅Π±ΡΠ΅ΡΡΡ 9GB VRAM, Π° Π΄Π»Ρ ΠΌΠΎΠ΄Π΅Π»ΠΈ 1.6B - 12GB VRAM.
# official online demo
DEMO_PORT=15432 \
python app/app_sana.py \
--config=configs/sana_config/1024ms/Sana_1600M_img1024.yaml \
--model_path=hf://Efficient-Large-Model/Sana_1600M_1024px/checkpoints/Sana_1600M_1024px.pth
@ai_machinelearning_big_data
#AI #ML #Diffusion #SANA #NVIDIA
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
π₯10π7β€4
β‘οΈ Biggest open text dataset release of the year: SmolTalk is a 1M sample big synthetic dataset that was used to train SmolLM v2.
TL;DR;
π§© New datasets: Smol-Magpie-Ultra (400K) for instruction tuning; Smol-contraints (36K) for precise output; Smol-rewrite (50K) & Smol-summarize (100K) for rewriting and summarization.
π€ Public Dataset Integrations: OpenHermes2.5 (100K), MetaMathQA & NuminaMath-CoT, Self-Oss-Starcoder2-Instruct, LongAlign & SystemChats2.0
π₯ Outperforms the new Orca-AgenInstruct 1M when trained with 1.7B and 7B models
π Outperform models trained on OpenHermes and Magpie Pro on IFEval and MT-Bench
distilabel to generate all new synthetic datasets
π€ Released under Apache 2.0 on huggingface
Apache 2.0
Synthetic generation pipelines and training code released.
Dataset: https://huggingface.co/datasets/HuggingFaceTB/smoltalk
Generation Code: https://github.com/huggingface/smollm
Training Code: https://github.com/huggingface/alignment-handbook/tree/main/recipes/smollm2
@opendatascience
TL;DR;
π§© New datasets: Smol-Magpie-Ultra (400K) for instruction tuning; Smol-contraints (36K) for precise output; Smol-rewrite (50K) & Smol-summarize (100K) for rewriting and summarization.
π€ Public Dataset Integrations: OpenHermes2.5 (100K), MetaMathQA & NuminaMath-CoT, Self-Oss-Starcoder2-Instruct, LongAlign & SystemChats2.0
π₯ Outperforms the new Orca-AgenInstruct 1M when trained with 1.7B and 7B models
π Outperform models trained on OpenHermes and Magpie Pro on IFEval and MT-Bench
distilabel to generate all new synthetic datasets
π€ Released under Apache 2.0 on huggingface
Apache 2.0
Synthetic generation pipelines and training code released.
Dataset: https://huggingface.co/datasets/HuggingFaceTB/smoltalk
Generation Code: https://github.com/huggingface/smollm
Training Code: https://github.com/huggingface/alignment-handbook/tree/main/recipes/smollm2
@opendatascience
π15β€5π₯5
Forwarded from Machinelearning
Stability AI ΠΏΡΠ΅Π΄ΡΡΠ°Π²ΠΈΠ»Π° 3 ΠΌΠΎΠ΄Π΅Π»ΠΈ ControlNet: Blur, Canny ΠΈ Depth, ΠΊΠΎΡΠΎΡΡΠ΅ ΡΠ°ΡΡΠΈΡΡΡΡ Π²ΠΎΠ·ΠΌΠΎΠΆΠ½ΠΎΡΡΠΈ Stable Diffusion 3.5 Large. ΠΠΎΠ΄Π΅Π»ΠΈ Π΄ΠΎΡΡΡΠΏΠ½Ρ Π΄Π»Ρ ΠΊΠΎΠΌΠΌΠ΅ΡΡΠ΅ΡΠΊΠΎΠ³ΠΎ ΠΈ Π½Π΅ΠΊΠΎΠΌΠΌΠ΅ΡΡΠ΅ΡΠΊΠΎΠ³ΠΎ ΠΈΡΠΏΠΎΠ»ΡΠ·ΠΎΠ²Π°Π½ΠΈΡ ΠΏΠΎΠ΄ Π»ΠΈΡΠ΅Π½Π·ΠΈΠ΅ΠΉ Stability AI Community License..
ΠΠΎΠ΄Π΅Π»Ρ Blur ΠΏΡΠ΅Π΄Π½Π°Π·Π½Π°ΡΠ΅Π½Π° Π΄Π»Ρ Π°ΠΏΡΠΊΠ΅ΠΉΠ»Π° ΠΈΠ·ΠΎΠ±ΡΠ°ΠΆΠ΅Π½ΠΈΠΉ Π΄ΠΎ ΡΠ°Π·ΡΠ΅ΡΠ΅Π½ΠΈΠΉ 8K ΠΈ 16K. Canny ΠΈΡΠΏΠΎΠ»ΡΠ·ΡΠ΅Ρ ΠΊΠ°ΡΡΡ Π³ΡΠ°Π½ΠΈΡ Π΄Π»Ρ ΡΡΡΡΠΊΡΡΡΠΈΡΠΎΠ²Π°Π½ΠΈΡ Π³Π΅Π½Π΅ΡΠΈΡΡΠ΅ΠΌΡΡ ΠΈΠ·ΠΎΠ±ΡΠ°ΠΆΠ΅Π½ΠΈΠΉ. ΠΠΎΠ΄Π΅Π»Ρ Depth ΠΈΡΠΏΠΎΠ»ΡΠ·ΡΠ΅Ρ ΠΊΠ°ΡΡΡ Π³Π»ΡΠ±ΠΈΠ½Ρ, ΡΠΎΠ·Π΄Π°Π½Π½ΡΠ΅ DepthFM, Π΄Π»Ρ ΡΠΏΡΠ°Π²Π»Π΅Π½ΠΈΡ ΠΊΠΎΠΌΠΏΠΎΠ·ΠΈΡΠΈΠ΅ΠΉ ΠΈΠ·ΠΎΠ±ΡΠ°ΠΆΠ΅Π½ΠΈΡ.
ControlNet Π΄Π»Ρ Stable Diffusion 3.5 Large ΡΠΆΠ΅ Π΄ΠΎΡΡΡΠΏΠ½Ρ Π½Π° Hugging Face ΠΈ ΠΏΠΎΠ΄Π΄Π΅ΡΠΆΠΈΠ²Π°ΡΡΡΡ Π² Comfy UI.
stability.ai
ΠΠ°Π½Π°Π΄ΡΠΊΠ°Ρ ΠΊΠΎΠΌΠΏΠ°Π½ΠΈΡ, ΠΈΠ·Π²Π΅ΡΡΠ½Π°Ρ ΡΠ²ΠΎΠΈΠΌΠΈ ΠΎΠ³ΡΠΎΠΌΠ½ΡΠΌΠΈ ΠΊΠΈΠ½ΠΎΡΠ΅Π°ΡΡΠ°ΠΌΠΈ ΠΈ ΠΈΠΌΠΌΠ΅ΡΡΠΈΠ²Π½ΡΠΌΠΈ Π²ΠΏΠ΅ΡΠ°ΡΠ»Π΅Π½ΠΈΡΠΌΠΈ ΠΎΡ ΠΏΡΠΎΡΠΌΠΎΡΡΠ° ΡΠΈΠ»ΡΠΌΠΎΠ², ΠΎΠ±ΡΡΠ²ΠΈΠ»Π° ΠΎ ΠΏΠ°ΡΡΠ½Π΅ΡΡΡΠ²Π΅ ΡΠΎ ΡΡΠ°ΡΡΠ°ΠΏΠΎΠΌ Camb.ai, Π±Π°Π·ΠΈΡΡΡΡΠΈΠΌΡΡ Π² ΠΡΠ±Π°Π΅, Π΄Π»Ρ ΠΈΡΠΏΠΎΠ»ΡΠ·ΠΎΠ²Π°Π½ΠΈΡ Π΅Π³ΠΎ ΠΌΠΎΠ΄Π΅Π»Π΅ΠΉ ΡΠ΅ΡΠ΅Π²ΠΎΠ³ΠΎ ΠΠ Π΄Π»Ρ ΠΏΠ΅ΡΠ΅Π²ΠΎΠ΄Π° ΠΎΡΠΈΠ³ΠΈΠ½Π°Π»ΡΠ½ΠΎΠ³ΠΎ ΠΊΠΎΠ½ΡΠ΅Π½ΡΠ°.
Camb.ai ΠΏΡΠ΅Π΄Π»Π°Π³Π°Π΅Ρ ΡΠ²ΠΎΡ ΠΌΠΎΠ΄Π΅Π»Ρ Boli Π΄Π»Ρ ΠΏΠ΅ΡΠ΅Π²ΠΎΠ΄Π° ΡΠ΅ΡΠΈ Π² ΡΠ΅ΠΊΡΡ ΠΈ Mars Π΄Π»Ρ ΡΠΌΡΠ»ΡΡΠΈΠΈ ΡΠ΅ΡΠΈ. ΠΠΎΠ΄Π΅Π»ΠΈ Π΄ΠΎΡΡΡΠΏΠ½Ρ ΡΠ΅ΡΠ΅Π· ΠΏΠ»Π°ΡΡΠΎΡΠΌΡ DubStudio, ΠΊΠΎΡΠΎΡΠ°Ρ ΠΏΠΎΠ΄Π΄Π΅ΡΠΆΠΈΠ²Π°Π΅Ρ 140 ΡΠ·ΡΠΊΠΎΠ², Π²ΠΊΠ»ΡΡΠ°Ρ ΠΌΠ°Π»ΡΠ΅ ΡΠ·ΡΠΊΠΎΠ²ΡΠ΅ Π³ΡΡΠΏΠΏΡ. IMAX Π½Π°ΡΠ½Π΅Ρ Π²Π½Π΅Π΄ΡΡΡΡ ΠΏΠ΅ΡΠ΅Π²ΠΎΠ΄Ρ Π½Π° ΠΎΡΠ½ΠΎΠ²Π΅ ΠΠ ΠΏΠΎΡΡΠ°ΠΏΠ½ΠΎ, Π½Π°ΡΠΈΠ½Π°Ρ Ρ ΡΠ·ΡΠΊΠΎΠ² Ρ Π±ΠΎΠ»ΡΡΠΈΠΌ ΠΎΠ±ΡΠ΅ΠΌΠΎΠΌ Π΄Π°Π½Π½ΡΡ .
techcrunch.com
ΠΠΎΠ²Π°Ρ ΡΡΠ½ΠΊΡΠΈΡ Claude - ΡΡΠΈΠ»Ρ ΠΎΡΠ²Π΅ΡΠΎΠ² ΡΠ°Ρ-Π±ΠΎΡΠ°. ΠΠ±Π½ΠΎΠ²Π»Π΅Π½ΠΈΠ΅ Π΄ΠΎΡΡΡΠΏΠ½ΠΎ Π΄Π»Ρ Π²ΡΠ΅Ρ ΠΏΠΎΠ»ΡΠ·ΠΎΠ²Π°ΡΠ΅Π»Π΅ΠΉ Claude AI ΠΈ Π΄Π°ΡΡ Π²ΠΎΠ·ΠΌΠΎΠΆΠ½ΠΎΡΡΡ Π½Π°ΡΡΡΠΎΠΈΡΡ ΡΡΠΈΠ»Ρ ΠΎΠ±ΡΠ΅Π½ΠΈΡ ΠΈΠ»ΠΈ Π²ΡΠ±ΡΠ°ΡΡ ΠΎΠ΄ΠΈΠ½ ΠΈΠ· ΠΏΡΠ΅Π΄ΡΡΡΠ°Π½ΠΎΠ²Π»Π΅Π½Π½ΡΡ Π²Π°ΡΠΈΠ°Π½ΡΠΎΠ², ΡΡΠΎΠ±Ρ Π±ΡΡΡΡΠΎ ΠΈΠ·ΠΌΠ΅Π½ΠΈΡΡ ΡΠΎΠ½ ΠΈ ΡΡΠΎΠ²Π΅Π½Ρ Π΄Π΅ΡΠ°Π»ΠΈΠ·Π°ΡΠΈΠΈ.
ΠΠΎΠ»ΡΠ·ΠΎΠ²Π°ΡΠ΅Π»ΡΠΌ ΠΏΡΠ΅Π΄Π»Π°Π³Π°Π΅ΡΡΡ ΡΡΠΈ ΠΏΡΠ΅Π΄ΡΡΡΠ°Π½ΠΎΠ²Π»Π΅Π½Π½ΡΡ ΡΡΠΈΠ»Ρ: ΡΠΎΡΠΌΠ°Π»ΡΠ½ΡΠΉ Π΄Π»Ρ Β«ΡΠ΅ΡΠΊΠΎΠ³ΠΎ ΠΈ ΠΎΡΡΠΎΡΠ΅Π½Π½ΠΎΠ³ΠΎΒ» ΡΠ΅ΠΊΡΡΠ°, ΠΊΡΠ°ΡΠΊΠΈΠΉ Π΄Π»Ρ Π±ΠΎΠ»Π΅Π΅ ΠΊΠΎΡΠΎΡΠΊΠΈΡ ΠΈ ΠΏΡΡΠΌΡΡ ΠΎΡΠ²Π΅ΡΠΎΠ², ΠΈ ΠΏΠΎΡΡΠ½ΠΈΡΠ΅Π»ΡΠ½ΡΠΉ Π΄Π»Ρ ΠΎΠ±ΡΠ°Π·ΠΎΠ²Π°ΡΠ΅Π»ΡΠ½ΡΡ ΠΎΡΠ²Π΅ΡΠΎΠ². ΠΠΎΠ»ΡΠ·ΠΎΠ²Π°ΡΠ΅Π»ΠΈ Claude ΠΌΠΎΠ³ΡΡ ΡΠΎΠ·Π΄Π°Π²Π°ΡΡ ΡΠΎΠ±ΡΡΠ²Π΅Π½Π½ΡΠ΅ ΡΡΠΈΠ»ΠΈ, Π·Π°Π³ΡΡΠ·ΠΈΠ² ΠΏΡΠΈΠΌΠ΅ΡΡ ΡΠ΅ΠΊΡΡΠΎΠ², ΠΎΡΡΠ°ΠΆΠ°ΡΡΠΈΡ ΠΈΡ ΠΏΡΠ΅Π΄ΠΏΠΎΡΡΠΈΡΠ΅Π»ΡΠ½ΡΠΉ ΡΠΏΠΎΡΠΎΠ± ΠΎΠ±ΡΠ΅Π½ΠΈΡ.
theverge.com
Health AI Developer Foundations (HAI-DEF) - ΠΏΡΠ±Π»ΠΈΡΠ½ΡΠΉ ΡΠ΅ΡΡΡΡ, ΠΊΠΎΡΠΎΡΡΠΉ Π΄ΠΎΠ»ΠΆΠ΅Π½ ΠΏΠΎΠΌΠΎΡΡ ΡΠ°Π·ΡΠ°Π±ΠΎΡΡΠΈΠΊΠ°ΠΌ Π² ΡΠΎΠ·Π΄Π°Π½ΠΈΠΈ ΠΈ Π²Π½Π΅Π΄ΡΠ΅Π½ΠΈΠΈ ΠΌΠΎΠ΄Π΅Π»Π΅ΠΉ ΠΠ Π΄Π»Ρ Π·Π΄ΡΠ°Π²ΠΎΠΎΡ ΡΠ°Π½Π΅Π½ΠΈΡ. HAI-DEF ΠΏΡΠ΅Π΄ΠΎΡΡΠ°Π²Π»ΡΠ΅Ρ ΡΠ°Π·ΡΠ°Π±ΠΎΡΡΠΈΠΊΠ°ΠΌ ΠΌΠΎΠ΄Π΅Π»ΠΈ, ΠΎΠ±ΡΡΠ°ΡΡΠΈΠ΅ Π±Π»ΠΎΠΊΠ½ΠΎΡΡ Colab ΠΈ ΠΏΠΎΠ΄ΡΠΎΠ±Π½ΡΡ Π΄ΠΎΠΊΡΠΌΠ΅Π½ΡΠ°ΡΠΈΡ Π΄Π»Ρ ΠΏΠΎΠ΄Π΄Π΅ΡΠΆΠΊΠΈ ΠΊΠ°ΠΆΠ΄ΠΎΠ³ΠΎ ΡΡΠ°ΠΏΠ° ΡΠ°Π·ΡΠ°Π±ΠΎΡΠΊΠΈ ΠΠ, ΠΎΡ ΠΈΡΡΠ»Π΅Π΄ΠΎΠ²Π°Π½ΠΈΠΉ Π΄ΠΎ ΠΊΠΎΠΌΠΌΠ΅ΡΡΠΈΠ°Π»ΠΈΠ·Π°ΡΠΈΠΈ.
Π HAI-DEF Π²Ρ ΠΎΠ΄ΡΡ 3 ΡΠΏΠ΅ΡΠΈΠ°Π»ΠΈΠ·ΠΈΡΠΎΠ²Π°Π½Π½ΡΠ΅ ΠΌΠΎΠ΄Π΅Π»ΠΈ Π΄Π»Ρ ΠΌΠ΅Π΄ΠΈΡΠΈΠ½ΡΠΊΠΎΠΉ Π²ΠΈΠ·ΡΠ°Π»ΠΈΠ·Π°ΡΠΈΠΈ: CXR Foundation Π΄Π»Ρ ΡΠ΅Π½ΡΠ³Π΅Π½ΠΎΠ²ΡΠΊΠΈΡ ΡΠ½ΠΈΠΌΠΊΠΎΠ² Π³ΡΡΠ΄Π½ΠΎΠΉ ΠΊΠ»Π΅ΡΠΊΠΈ, Derm Foundation Π΄Π»Ρ ΠΈΠ·ΠΎΠ±ΡΠ°ΠΆΠ΅Π½ΠΈΠΉ ΠΊΠΎΠΆΠΈ ΠΈ Path Foundation Π΄Π»Ρ ΡΠΈΡΡΠΎΠ²ΠΎΠΉ ΠΏΠ°ΡΠΎΠ»ΠΎΠ³ΠΈΠΈ.
developers.google.com
Cursor Π²ΡΠΏΡΡΡΠΈΠ»Π° ΠΎΠ±Π½ΠΎΠ²Π»Π΅Π½ΠΈΠ΅ 0,43, ΠΊΠΎΡΠΎΡΠΎΠ΅ ΠΎΠ±Π΅ΡΠΏΠ΅ΡΠΈΠ²Π°Π΅Ρ ΡΠ°ΡΡΠΈΡΠ½ΡΡ Π°Π²ΡΠΎΠΌΠ°ΡΠΈΠ·Π°ΡΠΈΡ Π½Π°ΠΏΠΈΡΠ°Π½ΠΈΡ ΠΊΠΎΠ΄Π° Ρ ΠΏΠΎΠΌΠΎΡΡΡ ΠΠ-Π°Π³Π΅Π½ΡΠΎΠ², ΡΠΏΠΎΡΠΎΠ±Π½ΡΡ ΡΠ°ΠΌΠΎΡΡΠΎΡΡΠ΅Π»ΡΠ½ΠΎ ΠΏΠ΅ΡΠ΅ΠΌΠ΅ΡΠ°ΡΡΡΡ ΠΏΠΎ ΠΊΠΎΠ½ΡΠ΅ΠΊΡΡΠ°ΠΌ ΠΈ Π²ΡΠΏΠΎΠ»Π½ΡΡΡ ΠΎΠΏΠ΅ΡΠ°ΡΠΈΠΈ Π² ΡΠ΅ΡΠΌΠΈΠ½Π°Π»Π΅. ΠΠ±Π½ΠΎΠ²Π»Π΅Π½ΠΈΠ΅ ΠΏΠΎΠ·Π²ΠΎΠ»ΡΠ΅Ρ ΠΠ-Π°Π³Π΅Π½ΡΠ°ΠΌ ΡΠ΅Π°Π³ΠΈΡΠΎΠ²Π°ΡΡ Π½Π° ΡΠΎΠΎΠ±ΡΠ΅Π½ΠΈΡ ΠΎΠ± ΠΎΡΠΈΠ±ΠΊΠ°Ρ ΠΈ ΠΏΡΠΈΠ½ΠΈΠΌΠ°ΡΡ Π°Π²ΡΠΎΠ½ΠΎΠΌΠ½ΡΠ΅ ΡΠ΅ΡΠ΅Π½ΠΈΡ Π΄Π»Ρ ΡΡΡΡΠ°Π½Π΅Π½ΠΈΡ ΠΏΡΠΎΠ±Π»Π΅ΠΌ. Π Π΄Π΅ΠΌΠΎΠ½ΡΡΡΠ°ΡΠΈΠΈ, ΠΎΠΏΡΠ±Π»ΠΈΠΊΠΎΠ²Π°Π½Π½ΠΎΠΉ Π² X, Cursor ΡΠΎΠ·Π΄Π°Π΅Ρ ΠΏΠΎΠ»Π½ΠΎΡΠ΅Π½Π½ΠΎΠ΅ Π²Π΅Π±-ΠΏΡΠΈΠ»ΠΎΠΆΠ΅Π½ΠΈΠ΅ ΡΠ΅ΠΊΡΠ½Π΄ΠΎΠΌΠ΅ΡΠ° Ρ ΠΈΡΠΏΠΎΠ»ΡΠ·ΠΎΠ²Π°Π½ΠΈΠ΅ΠΌ HTML, CSS ΠΈ JavaScript, Π²ΠΊΠ»ΡΡΠ°Ρ Π·Π°ΠΏΡΡΠΊ Π²Π΅Π±-ΡΠ΅ΡΠ²Π΅ΡΠ°, Π²ΡΠ΅ ΡΡΠΎ Ρ ΠΏΠΎΠΌΠΎΡΡΡ ΠΎΠ΄Π½ΠΎΠΉ ΡΠ΅ΠΊΡΡΠΎΠ²ΠΎΠΉ ΠΏΠΎΠ΄ΡΠΊΠ°Π·ΠΊΠΈ.
Cursor ΠΎΡΡΠ°Π΅ΡΡΡ Π±Π΅ΡΠΏΠ»Π°ΡΠ½ΡΠΌ Π΄Π»Ρ Π·Π°Π³ΡΡΠ·ΠΊΠΈ ΠΈ ΡΠ°Π±ΠΎΡΠ°Π΅Ρ Ρ GPT-4, Claude 3.5 Sonnet ΠΈ Llama, ΠΊΠ°ΠΊ Π»ΠΎΠΊΠ°Π»ΡΠ½ΠΎ, ΡΠ°ΠΊ ΠΈ ΡΠ΅ΡΠ΅Π· API. ΠΠ»Π°ΡΠ½Π°Ρ ΠΏΠΎΠ΄ΠΏΠΈΡΠΊΠ° Pro Π·Π° 20 Π΄ΠΎΠ»Π»Π°ΡΠΎΠ² Π² ΠΌΠ΅ΡΡΡ ΠΎΡΠΊΡΡΠ²Π°Π΅Ρ Π΄ΠΎΡΡΡΠΏ ΠΊ Π΄ΠΎΠΏΠΎΠ»Π½ΠΈΡΠ΅Π»ΡΠ½ΡΠΌ ΡΡΠ½ΠΊΡΠΈΡΠΌ, Π²ΠΊΠ»ΡΡΠ°Ρ Π½ΠΎΠ²ΡΡ ΠΠ-Π°Π³Π΅Π½ΡΠΎΠ².
changelog.cursor.sh
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
π7β€6π₯3
Forwarded from Machinelearning
ΠΠΎ ΠΌΠ΅ΡΠ΅ ΡΠΎΡΡΠ° ΠΎΠ±ΡΠ΅ΠΌΠΎΠ² Π΄Π°Π½Π½ΡΡ ΠΈ ΡΠ»ΠΎΠΆΠ½ΠΎΡΡΠΈ Π²ΡΡΠΈΡΠ»Π΅Π½ΠΈΠΉ, Π²ΡΡΠΈΡΠ»Π΅Π½ΠΈΡ Π½Π° Python ΠΈ NumPy, ΠΎΡΠ½ΠΎΠ²Π°Π½Π½ΡΠ΅ Π½Π° CPU, Π½ΡΠΆΠ΄Π°ΡΡΡΡ Π² ΡΡΠΊΠΎΡΠ΅Π½ΠΈΠΈ Π΄Π»Ρ Π²ΡΠΏΠΎΠ»Π½Π΅Π½ΠΈΡ ΡΠΎΠ²ΡΠ΅ΠΌΠ΅Π½Π½ΡΡ ΠΈΡΡΠ»Π΅Π΄ΠΎΠ²Π°Π½ΠΈΠΉ.
cuPyNumeric ΡΠ°Π·ΡΠ°Π±ΠΎΡΠ°Π½Π°, ΡΡΠΎΠ±Ρ ΡΡΠ°ΡΡ Π·Π°ΠΌΠ΅Π½ΠΎΠΉ Π±ΠΈΠ±Π»ΠΈΠΎΡΠ΅ΠΊΠΈ NumPy, ΠΏΡΠ΅Π΄ΠΎΡΡΠ°Π²Π»ΡΡ ΡΠΎΠΎΠ±ΡΠ΅ΡΡΠ²Ρ Python ΡΠ°ΡΠΏΡΠ΅Π΄Π΅Π»Π΅Π½Π½ΡΠ΅ ΠΈ ΡΡΠΊΠΎΡΠ΅Π½Π½ΡΠ΅ Π²ΡΡΠΈΡΠ»Π΅Π½ΠΈΡ Π½Π° ΠΏΠ»Π°ΡΡΠΎΡΠΌΠ΅ NVIDIA. cuPyNumeric ΠΏΠΎΠ·Π²ΠΎΠ»ΡΠ΅Ρ ΠΌΠ°ΡΡΡΠ°Π±ΠΈΡΠΎΠ²Π°ΡΡ Π²ΡΡΠΈΡΠ»Π΅Π½ΠΈΡ Π±Π΅Π· ΠΈΠ·ΠΌΠ΅Π½Π΅Π½ΠΈΡ ΠΊΠΎΠ΄Π° ΠΏΡΠΎΠ΅ΠΊΡΠΎΠ² Ρ ΠΎΠ΄Π½ΠΎΠ³ΠΎ CPU Π΄ΠΎ ΡΡΠΏΠ΅ΡΠΊΠΎΠΌΠΏΡΡΡΠ΅ΡΠΎΠ² Ρ Π½Π΅ΡΠΊΠΎΠ»ΡΠΊΠΈΠΌΠΈ GPU ΠΈ Π²ΡΡΠΈΡΠ»ΠΈΡΠ΅Π»ΡΠ½ΡΠΌΠΈ Π½ΠΎΠ΄Π°ΠΌΠΈ.
ΠΠΈΠ±Π»ΠΈΠΎΡΠ΅ΠΊΠ° ΠΏΠΎΡΡΡΠΎΠ΅Π½Π° Π½Π° Legate, ΠΏΠΎΠ΄Π΄Π΅ΡΠΆΠΈΠ²Π°Π΅Ρ ΡΠΎΠ΄Π½ΠΎΠΉ Python ΠΈ ΠΈΠ½ΡΠ΅ΡΡΠ΅ΠΉΡ NumPy. cuPyNumeric Π΄ΠΎΡΡΡΠΏΠ΅Π½ ΠΈΠ· conda (Π²Π΅ΡΡΠΈΡ Π½Π΅ Π½ΠΈΠΆΠ΅ 24.1) Π² legate channel. ΠΠ° ΡΠΈΡΡΠ΅ΠΌΠ°Ρ Ρ GPU ΠΏΠ°ΠΊΠ΅ΡΡ, ΠΏΠΎΠ΄Π΄Π΅ΡΠΆΠΈΠ²Π°ΡΡΠΈΠ΅ Π³ΡΠ°ΡΠΈΡΠ΅ΡΠΊΠΈΠ΅ ΡΡΠΊΠΎΡΠΈΡΠ΅Π»ΠΈ Π±ΡΠ΄ΡΡ Π²ΡΠ±ΡΠ°Π½Ρ Π°Π²ΡΠΎΠΌΠ°ΡΠΈΡΠ΅ΡΠΊΠΈ Π²ΠΎ Π²ΡΠ΅ΠΌΡ ΡΡΡΠ°Π½ΠΎΠ²ΠΊΠΈ.
ΠΡΠΈΠΌΠ΅Ρ ΡΡΡΠ΅ΠΊΡΠΈΠ²Π½ΠΎΡΡΠΈ cuPyNumeric - ΠΎΠ±ΡΠ°Π±ΠΎΡΠΊΠ° 10 Π’Π ΠΌΠΈΠΊΡΠΎΠΈΠ·ΠΎΠ±ΡΠ°ΠΆΠ΅Π½ΠΈΠΉ ΠΌΠ½ΠΎΠ³ΠΎΡΠ°ΠΊΡΡΡΠ½ΠΎΠΉ ΠΌΠΈΠΊΡΠΎΡΠΊΠΎΠΏΠΈΠΈ Π² Π²ΠΈΠ΄Π΅ ΠΎΠ΄Π½ΠΎΠ³ΠΎ ΠΌΠ°ΡΡΠΈΠ²Π° NumPy Π·Π° ΠΎΠ΄ΠΈΠ½ Π΄Π΅Π½Ρ Ρ Π²ΠΈΠ·ΡΠ°Π»ΠΈΠ·Π°ΡΠΈΠΉ Π² ΡΠ΅ΠΆΠΈΠΌΠ΅ ΡΠ΅Π°Π»ΡΠ½ΠΎΠ³ΠΎ Π²ΡΠ΅ΠΌΠ΅Π½ΠΈ.
# Create new conda env
conda create -n myenv -c conda-forge -c legate cupynumeric
# Test via example from repo
$ legate examples/black_scholes.py
Running black scholes on 10K options...
Elapsed Time: 129.017 ms
@ai_machinelearning_big_data
#AI #ML #NumPy #NVIDIA #cuPyNumeric
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
π15π₯6β€3
Forwarded from Postgres Professional
Π§ΡΠΎ ΠΏΡΠΎΠΈΡΡ
ΠΎΠ΄ΠΈΡ Π½Π° ΡΡΠ½ΠΊΠ΅ ΡΠΈΡΡΠ΅ΠΌ ΡΠΏΡΠ°Π²Π»Π΅Π½ΠΈΡ Π±Π°Π·Π°ΠΌΠΈ Π΄Π°Π½Π½ΡΡ
?
Π Π΅Π΄Π°ΠΊΡΠΈΡ TAdviser ΠΏΠΎΠ΄Π³ΠΎΡΠΎΠ²ΠΈΠ»Π° ΠΎΠ±Π·ΠΎΡ ΡΡΠ½ΠΊΠ° Π‘Π£ΠΠ: ΡΠ΅Π·ΡΠ»ΡΡΠ°ΡΡ ΡΠ°Π·ΡΠ°Π±ΠΎΡΡΠΈΠΊΠΎΠ² Π² 2023 Π³ΠΎΠ΄Ρ, ΠΎΠ±Π·ΠΎΡ Π½ΠΎΠ²ΡΡ ΡΠ΅ΡΠ΅Π½ΠΈΠΉ ΠΈ ΠΏΡΠΎΠ΄ΡΠΊΡΠΎΠ², ΠΏΠ΅ΡΡΠΏΠ΅ΠΊΡΠΈΠ²Ρ ΡΠ°Π·Π²ΠΈΡΠΈΡ ΠΈ ΠΏΠ»Π°Π½Ρ ΠΏΠΎ Π·Π°ΠΏΡΡΠΊΡ Π½ΠΎΠ²ΡΡ Π½Π°ΠΏΡΠ°Π²Π»Π΅Π½ΠΈΠΉ.
ΠΠΎΡΠΎΡΠΊΠΎ ΠΎ Π³Π»Π°Π²Π½ΠΎΠΌ:
βοΈPostgres Professional β Π»ΠΈΠ΄Π΅Ρ ΡΡΠ½ΠΊΠ° Π‘Π£ΠΠ
βοΈΠΠ°Π½ΠΈΠΌΠ°Π΅ΠΌ ΠΏΠ΅ΡΠ²ΠΎΠ΅ ΠΌΠ΅ΡΡΠΎ ΠΏΠΎ ΠΊΠΎΠ»ΠΈΡΠ΅ΡΡΠ²Ρ ΠΏΡΠ΅Π΄ΡΡΠ°Π²Π»Π΅Π½Π½ΡΡ Π² 2023 Π³ΠΎΠ΄Ρ Π½ΠΎΠ²ΡΡ ΡΠ΅ΡΠ΅Π½ΠΈΠΉ, ΡΡΠ΅Π΄ΠΈ Π½ΠΈΡ : Π²ΡΡΡΠΎΠ΅Π½Π½ΡΠΉ ΠΎΡΠΊΠ°Π·ΠΎΡΡΡΠΎΠΉΡΠΈΠ²ΡΠΉ ΠΊΠ»Π°ΡΡΠ΅Ρ BiHA, Postgres Pro Enterprise Manager, ΡΠ°ΡΠΏΡΠ΅Π΄Π΅Π»Π΅Π½Π½Π°Ρ ΡΠ΅Π»ΡΡΠΈΠΎΠ½Π½Π°Ρ Π‘Π£ΠΠ Postgres Pro Shardman
βοΈΠΠ½Π°ΡΠΈΡΠ΅Π»ΡΠ½ΠΎ ΡΠ°ΡΡΠΈΡΠΈΠ»ΠΈ ΠΊΠ°ΡΡΡ ΡΠΎΠ²ΠΌΠ΅ΡΡΠΈΠΌΠΎΡΡΠΈ Postgres Pro β ΡΠ΅ΠΉΡΠ°Ρ Π² Π½Π΅ΠΉ Π±ΠΎΠ»Π΅Π΅ 300 ΡΠ΅ΡΠ΅Π½ΠΈΠΉ. Π‘ΠΎ Π‘ΠΊΠ°Π»Π°^Ρ ΡΠ°Π·ΡΠ°Π±ΠΎΡΠ°Π»ΠΈ Π½ΠΎΠ²ΡΡ Π²Π΅ΡΡΠΈΡ Β«ΠΠ°ΡΠΈΠ½Ρ Π±Π°Π· Π΄Π°Π½Π½ΡΡ Π‘ΠΊΠ°Π»Π°^Ρ ΠΠΠ.ΠΒ» Π½Π° Π±Π°Π·Π΅ ΡΠ΅ΡΡΠΈΡΠΈΡΠΈΡΠΎΠ²Π°Π½Π½ΠΎΠΉ Π‘Π£ΠΠ Postgres Pro Enterprise
βοΈΠΠ½Π΅Π΄ΡΠΈΠ»ΠΈ Π‘Π£ΠΠ Postgres Pro Π² ΠΊΡΡΠΏΠ½Π΅ΠΉΡΠΈΡ ΠΊΠΎΠΌΠΏΠ°Π½ΠΈΡΡ ΠΈ Π³ΠΎΡΡΠ΄Π°ΡΡΡΠ²Π΅Π½Π½ΡΡ ΡΡΡΡΠΊΡΡΡΠ°Ρ , ΡΡΠ΅Π΄ΠΈ Π½Π°ΡΠΈΡ Π·Π°ΠΊΠ°Π·ΡΠΈΠΊΠΎΠ²: Π ΠΎΡΠ°ΡΠΎΠΌ, ΠΠ€Π , ΠΠ°Π·ΠΏΡΠΎΠΌ, Π ΠΠ, ΠΠ‘Π, Π’ΡΠ°Π½ΡΠ½Π΅ΡΡΡ, Π ΠΎΡΡΠ΅Π»ΡΡ ΠΎΠ·Π±Π°Π½ΠΊ, Π ΠΎΡΠ°Π³ΡΠΎΠ»ΠΈΠ·ΠΈΠ½Π³, Π€Π΅Π΄Π΅ΡΠ°Π»ΡΠ½ΠΎΠ΅ ΠΠ°Π·Π½Π°ΡΠ΅ΠΉΡΡΠ²ΠΎ
π Π Π΅ΡΠ΅ β ΡΠΏΠ΅ΡΠΈΠ°Π»ΡΠ½ΠΎ Π΄Π»Ρ ΠΎΠ±Π·ΠΎΡΠ° ΠΠ²Π°Π½ ΠΠ°Π½ΡΠ΅Π½ΠΊΠΎ, Π·Π°ΠΌΠ΅ΡΡΠΈΡΠ΅Π»Ρ Π³Π΅Π½Π΅ΡΠ°Π»ΡΠ½ΠΎΠ³ΠΎ Π΄ΠΈΡΠ΅ΠΊΡΠΎΡΠ° Postgres Professional, ΠΏΡΠΎΠΊΠΎΠΌΠΌΠ΅Π½ΡΠΈΡΠΎΠ²Π°Π» ΡΠΈΡΡΠ°ΡΠΈΡ Ρ ΠΈΠΌΠΏΠΎΡΡΠΎΠ·Π°ΠΌΠ΅ΡΠ΅Π½ΠΈΠ΅ΠΌ ΠΈ ΠΌΠ°ΡΡΠΎΠ²ΡΠΌ ΠΊΠ»ΠΎΠ½ΠΈΡΠΎΠ²Π°Π½ΠΈΠ΅ΠΌ ΠΎΠΏΠ΅Π½ΡΠΎΡΡ-ΡΠΈΡΡΠ΅ΠΌ ΠΏΠΎΠ΄ Π²ΠΈΠ΄ΠΎΠΌ ΡΠ°ΠΌΠΎΡΡΠΎΡΡΠ΅Π»ΡΠ½ΡΡ
ΡΠ΅ΡΠ΅Π½ΠΈΠΉ Π½Π° ΡΡΠ½ΠΊΠ΅ Π‘Π£ΠΠ.
Π§ΠΈΡΠ°ΡΡ ΠΎΠ±Π·ΠΎΡ ΡΡΠ½ΠΊΠ° TAdviser
Π Π΅Π΄Π°ΠΊΡΠΈΡ TAdviser ΠΏΠΎΠ΄Π³ΠΎΡΠΎΠ²ΠΈΠ»Π° ΠΎΠ±Π·ΠΎΡ ΡΡΠ½ΠΊΠ° Π‘Π£ΠΠ: ΡΠ΅Π·ΡΠ»ΡΡΠ°ΡΡ ΡΠ°Π·ΡΠ°Π±ΠΎΡΡΠΈΠΊΠΎΠ² Π² 2023 Π³ΠΎΠ΄Ρ, ΠΎΠ±Π·ΠΎΡ Π½ΠΎΠ²ΡΡ ΡΠ΅ΡΠ΅Π½ΠΈΠΉ ΠΈ ΠΏΡΠΎΠ΄ΡΠΊΡΠΎΠ², ΠΏΠ΅ΡΡΠΏΠ΅ΠΊΡΠΈΠ²Ρ ΡΠ°Π·Π²ΠΈΡΠΈΡ ΠΈ ΠΏΠ»Π°Π½Ρ ΠΏΠΎ Π·Π°ΠΏΡΡΠΊΡ Π½ΠΎΠ²ΡΡ Π½Π°ΠΏΡΠ°Π²Π»Π΅Π½ΠΈΠΉ.
ΠΠΎΡΠΎΡΠΊΠΎ ΠΎ Π³Π»Π°Π²Π½ΠΎΠΌ:
βοΈPostgres Professional β Π»ΠΈΠ΄Π΅Ρ ΡΡΠ½ΠΊΠ° Π‘Π£ΠΠ
βοΈΠΠ°Π½ΠΈΠΌΠ°Π΅ΠΌ ΠΏΠ΅ΡΠ²ΠΎΠ΅ ΠΌΠ΅ΡΡΠΎ ΠΏΠΎ ΠΊΠΎΠ»ΠΈΡΠ΅ΡΡΠ²Ρ ΠΏΡΠ΅Π΄ΡΡΠ°Π²Π»Π΅Π½Π½ΡΡ Π² 2023 Π³ΠΎΠ΄Ρ Π½ΠΎΠ²ΡΡ ΡΠ΅ΡΠ΅Π½ΠΈΠΉ, ΡΡΠ΅Π΄ΠΈ Π½ΠΈΡ : Π²ΡΡΡΠΎΠ΅Π½Π½ΡΠΉ ΠΎΡΠΊΠ°Π·ΠΎΡΡΡΠΎΠΉΡΠΈΠ²ΡΠΉ ΠΊΠ»Π°ΡΡΠ΅Ρ BiHA, Postgres Pro Enterprise Manager, ΡΠ°ΡΠΏΡΠ΅Π΄Π΅Π»Π΅Π½Π½Π°Ρ ΡΠ΅Π»ΡΡΠΈΠΎΠ½Π½Π°Ρ Π‘Π£ΠΠ Postgres Pro Shardman
βοΈΠΠ½Π°ΡΠΈΡΠ΅Π»ΡΠ½ΠΎ ΡΠ°ΡΡΠΈΡΠΈΠ»ΠΈ ΠΊΠ°ΡΡΡ ΡΠΎΠ²ΠΌΠ΅ΡΡΠΈΠΌΠΎΡΡΠΈ Postgres Pro β ΡΠ΅ΠΉΡΠ°Ρ Π² Π½Π΅ΠΉ Π±ΠΎΠ»Π΅Π΅ 300 ΡΠ΅ΡΠ΅Π½ΠΈΠΉ. Π‘ΠΎ Π‘ΠΊΠ°Π»Π°^Ρ ΡΠ°Π·ΡΠ°Π±ΠΎΡΠ°Π»ΠΈ Π½ΠΎΠ²ΡΡ Π²Π΅ΡΡΠΈΡ Β«ΠΠ°ΡΠΈΠ½Ρ Π±Π°Π· Π΄Π°Π½Π½ΡΡ Π‘ΠΊΠ°Π»Π°^Ρ ΠΠΠ.ΠΒ» Π½Π° Π±Π°Π·Π΅ ΡΠ΅ΡΡΠΈΡΠΈΡΠΈΡΠΎΠ²Π°Π½Π½ΠΎΠΉ Π‘Π£ΠΠ Postgres Pro Enterprise
βοΈΠΠ½Π΅Π΄ΡΠΈΠ»ΠΈ Π‘Π£ΠΠ Postgres Pro Π² ΠΊΡΡΠΏΠ½Π΅ΠΉΡΠΈΡ ΠΊΠΎΠΌΠΏΠ°Π½ΠΈΡΡ ΠΈ Π³ΠΎΡΡΠ΄Π°ΡΡΡΠ²Π΅Π½Π½ΡΡ ΡΡΡΡΠΊΡΡΡΠ°Ρ , ΡΡΠ΅Π΄ΠΈ Π½Π°ΡΠΈΡ Π·Π°ΠΊΠ°Π·ΡΠΈΠΊΠΎΠ²: Π ΠΎΡΠ°ΡΠΎΠΌ, ΠΠ€Π , ΠΠ°Π·ΠΏΡΠΎΠΌ, Π ΠΠ, ΠΠ‘Π, Π’ΡΠ°Π½ΡΠ½Π΅ΡΡΡ, Π ΠΎΡΡΠ΅Π»ΡΡ ΠΎΠ·Π±Π°Π½ΠΊ, Π ΠΎΡΠ°Π³ΡΠΎΠ»ΠΈΠ·ΠΈΠ½Π³, Π€Π΅Π΄Π΅ΡΠ°Π»ΡΠ½ΠΎΠ΅ ΠΠ°Π·Π½Π°ΡΠ΅ΠΉΡΡΠ²ΠΎ
Π§ΠΈΡΠ°ΡΡ ΠΎΠ±Π·ΠΎΡ ΡΡΠ½ΠΊΠ° TAdviser
Please open Telegram to view this post
VIEW IN TELEGRAM
π₯4π1π1
This media is not supported in your browser
VIEW IN TELEGRAM
β‘οΈ Structured Generation w/ SmolLM2 running in browser & WebGPU π₯
Powered by MLC Web-LLM & XGrammar β‘
Define a JSON schema, Input free text, get structured data right in your browser - profit!!
To showcase how much you can do with just a 1.7B LLM, you pass free text, define a schema of parsing the text into a GitHub issue (title, description, categories, tags, etc) - Let MLC & XGrammar do the rest!
That's it, the code is super readable, try it out today!
βͺ Hf: https://huggingface.co/spaces/reach-vb/github-issue-generator-webgpu
βͺGithub: https://github.com/Vaibhavs10/github-issue-generator-webgpu
@opendatascience
Powered by MLC Web-LLM & XGrammar β‘
Define a JSON schema, Input free text, get structured data right in your browser - profit!!
To showcase how much you can do with just a 1.7B LLM, you pass free text, define a schema of parsing the text into a GitHub issue (title, description, categories, tags, etc) - Let MLC & XGrammar do the rest!
That's it, the code is super readable, try it out today!
βͺ Hf: https://huggingface.co/spaces/reach-vb/github-issue-generator-webgpu
βͺGithub: https://github.com/Vaibhavs10/github-issue-generator-webgpu
@opendatascience
π8π₯4β€1π1
Forwarded from Machinelearning
PRIME Intellect ΠΎΠΏΡΠ±Π»ΠΈΠΊΠΎΠ²Π°Π»Π° INTELLECT-1 (Instruct + Base), ΠΏΠ΅ΡΠ²ΡΡ ΡΠ·ΡΠΊΠΎΠ²ΡΡ ΠΌΠΎΠ΄Π΅Π»Ρ Ρ 10 ΠΌΠ»ΡΠ΄. ΠΏΠ°ΡΠ°ΠΌΠ΅ΡΡΠΎΠ², ΡΠΎΠ²ΠΌΠ΅ΡΡΠ½ΠΎ ΠΎΠ±ΡΡΠ΅Π½Π½ΡΡ Π·Π° 50 ΡΡΡΠΎΠΊ 30 ΡΡΠ°ΡΡΠ½ΠΈΠΊΠ°ΠΌΠΈ ΡΠΊΡΠΏΠ΅ΡΠΈΠΌΠ΅Π½ΡΠ° ΠΏΠΎ Π²ΡΠ΅ΠΌΡ ΠΌΠΈΡΡ.
PRIME Intellect ΠΈΡΠΏΠΎΠ»ΡΠ·ΠΎΠ²Π°Π»Π° ΡΠΎΠ±ΡΡΠ²Π΅Π½Π½ΡΡ ΠΏΠ»Π°ΡΡΠΎΡΠΌΡ PRIME, ΡΠ°Π·ΡΠ°Π±ΠΎΡΠ°Π½Π½ΡΡ Π΄Π»Ρ ΡΠ΅ΡΠ΅Π½ΠΈΡ Π³Π»Π°Π²Π½ΡΡ ΠΏΡΠΎΠ±Π»Π΅ΠΌ Π΄Π΅ΡΠ΅Π½ΡΡΠ°Π»ΠΈΠ·ΠΎΠ²Π°Π½Π½ΠΎΠ³ΠΎ ΠΎΠ±ΡΡΠ΅Π½ΠΈΡ: Π½Π΅Π½Π°Π΄Π΅ΠΆΠ½ΠΎΡΡΡ ΡΠ΅ΡΠΈ ΠΈ Π΄ΠΈΠ½Π°ΠΌΠΈΡΠ΅ΡΠΊΠΎΠ΅ ΡΠΏΡΠ°Π²Π»Π΅Π½ΠΈΠ΅ Π²ΡΡΠΈΡΠ»ΠΈΡΠ΅Π»ΡΠ½ΡΠΌΠΈ ΡΠ·Π»Π°ΠΌΠΈ.
ΠΠ»Π°ΡΡΠΎΡΠΌΠ° ΠΈΡΠΏΠΎΠ»ΡΠ·ΠΎΠ²Π°Π»Π° ΡΠ΅ΡΡ ΠΈΠ· 112 GPU H100 Π½Π° 3 ΠΊΠΎΠ½ΡΠΈΠ½Π΅Π½ΡΠ°Ρ ΠΈ ββΠ΄ΠΎΡΡΠΈΠ³Π»Π° ΠΊΠΎΡΡΡΠΈΡΠΈΠ΅Π½ΡΠ° ΠΈΡΠΏΠΎΠ»ΡΠ·ΠΎΠ²Π°Π½ΠΈΡ Π²ΡΡΠΈΡΠ»Π΅Π½ΠΈΠΉ Π² 96% ΠΏΡΠΈ ΠΎΠΏΡΠΈΠΌΠ°Π»ΡΠ½ΡΡ ΡΡΠ»ΠΎΠ²ΠΈΡΡ .
ΠΠΎΡΠΏΡΡ ΠΎΠ±ΡΡΠ΅Π½ΠΈΡ ΡΠΎΡΡΠ°Π²Π»ΡΠ» Π½Π° 1 ΡΡΠ»Π½. ΡΠΎΠΊΠ΅Π½ΠΎΠ² ΠΏΡΠ±Π»ΠΈΡΠ½ΡΡ Π΄Π°ΡΠ°ΡΠ΅ΡΠΎΠ² Ρ ΠΏΡΠΎΡΠ΅Π½ΡΠ½ΡΠΌ ΡΠΎΠΎΡΠ½ΠΎΡΠ΅Π½ΠΈΠ΅ΠΌ: 55% fineweb-edu, 10% fineweb, 20% Stack V1, 10% dclm-baseline, 5% open-web-math.
INTELLECT-1 Π΄ΠΎΡΡΠΈΠ³Π»Π° ΡΠΎΡΠ½ΠΎΡΡΠΈ 37,5% Π½Π° ΡΠ΅ΡΡΠ΅ MMLU ΠΈ 72,26% Π½Π° HellaSwag ΠΈ ΠΏΡΠ΅Π²Π·ΠΎΡΠ»Π° Π½Π΅ΡΠΊΠΎΠ»ΡΠΊΠΎ Π΄ΡΡΠ³ΠΈΡ ΠΌΠΎΠ΄Π΅Π»Π΅ΠΉ Ρ ΠΎΡΠΊΡΡΡΡΠΌ ΠΈΡΡ ΠΎΠ΄Π½ΡΠΌ ΠΊΠΎΠ΄ΠΎΠΌ Π² WinoGrande Ρ ΡΠ΅Π·ΡΠ»ΡΡΠ°ΡΠΎΠΌ 65,82%.
Π₯ΠΎΡΡ ΡΡΠΈ ΠΏΠΎΠΊΠ°Π·Π°ΡΠ΅Π»ΠΈ Π½Π΅ΠΌΠ½ΠΎΠ³ΠΎ ΠΎΡΡΡΠ°ΡΡ ΠΎΡ ΡΠΎΠ²ΡΠ΅ΠΌΠ΅Π½Π½ΡΡ ΠΏΠΎΠΏΡΠ»ΡΡΠ½ΡΡ ΠΌΠΎΠ΄Π΅Π»Π΅ΠΉ, ΡΠ΅Π·ΡΠ»ΡΡΠ°ΡΡ ΡΠΊΡΠΏΠ΅ΡΠΈΠΌΠ΅Π½ΡΠ° - Π²Π°ΠΆΠ½Π΅ΠΉΡΠΈΠΉ ΡΠ°Π³ ΠΊ Π΄Π΅ΠΌΠΎΠΊΡΠ°ΡΠΈΠ·Π°ΡΠΈΠΈ ΡΠ°Π·ΡΠ°Π±ΠΎΡΠΊΠΈ ΠΠ ΠΈ ΠΏΡΠ΅Π΄ΠΎΡΠ²ΡΠ°ΡΠ΅Π½ΠΈΡ ΠΊΠΎΠ½ΡΠΎΠ»ΠΈΠ΄Π°ΡΠΈΠΈ Π²ΠΎΠ·ΠΌΠΎΠΆΠ½ΠΎΡΡΠ΅ΠΉ ΠΠ Π² ΡΠ°ΠΌΠΊΠ°Ρ Π½Π΅ΡΠΊΠΎΠ»ΡΠΊΠΈΡ ΠΎΡΠ³Π°Π½ΠΈΠ·Π°ΡΠΈΠΉ.
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
torch.set_default_device("cuda")
model = AutoModelForCausalLM.from_pretrained("PrimeIntellect/INTELLECT-1")
tokenizer = AutoTokenizer.from_pretrained("PrimeIntellect/INTELLECT-1")
input_text = "%prompt%"
input_ids = tokenizer.encode(input_text, return_tensors="pt")
output_ids = model.generate(input_ids, max_length=50, num_return_sequences=1)
output_text = tokenizer.decode(output_ids[0], skip_special_tokens=True)
print(output_text)
@ai_machinelearning_big_data
#AI #ML #LLM #Decentralizated
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
π17β€5π₯4
Forwarded from Code Mining (Alexey Smirnov)
LLM-based agents for Software Engineering
Π ΡΠ΅Π½ΡΡΠ±ΡΠ΅ Π²ΡΡΠ΅Π» Π±ΠΎΠ»ΡΡΠΎΠΉ ΡΡΡΠ΄ ΠΎΡ ΠΊΠΈΡΠ°ΠΉΡΠΊΠΈΡ ΠΊΠΎΠ»Π»Π΅Π³: "Large Language Model-Based Agents for Software Engineering: A Survey".
Π‘ΡΠ°ΡΡΡ ΡΠ°ΡΡΠΌΠ°ΡΡΠΈΠ²Π°Π΅Ρ Π°ΡΠΏΠ΅ΠΊΡΡ ΠΏΡΠΈΠΌΠ΅Π½Π΅Π½ΠΈΡ LLM-ΠΎΡΠ½ΠΎΠ²Π°Π½Π½ΡΡ Π°Π³Π΅Π½ΡΠΎΠ² Π² ΡΠ°Π·Π½ΡΡ Π·Π°Π΄Π°ΡΠ°Ρ ΠΏΡΠΎΠ³ΡΠ°ΠΌΠΌΠ½ΠΎΠΉ ΠΈΠ½ΠΆΠ΅Π½Π΅ΡΠΈΠΈ (ΡΠΊΡΠΈΠ½). Π§Π΅Π³ΠΎ ΡΠ°ΠΌ ΡΠΎΠ»ΡΠΊΠΎ Π½Π΅Ρ! ΠΠΎΠ±ΡΠ°Ρ ΡΠΎΡΠ½Ρ Π΄ΠΎΠΌΠ΅Π½Π½ΡΡ ΠΈΠ½ΡΡΡΡΠΌΠ΅Π½ΡΠΎΠ², ΠΊΠΎΡΠΎΡΡΠ΅ Π΅ΡΡ ΠΈ ΡΡΠ°Π²Π½ΠΈΠ²Π°ΡΡΡΡ ΠΌΠ΅ΠΆΠ΄Ρ ΡΠΎΠ±ΠΎΠΉ ΠΈ ΠΈΠ΄Π΅Ρ Π΄ΠΈΡΠΊΡΡΡΠΈΡ ΠΎ ΡΠΎΠΌ ΠΊΠ°ΠΊ ΡΡΠΈ Π²Π΅ΡΠΈ ΠΏΡΠΈΠ½ΡΡΠΎ ΡΡΡΠΎΠΈΡΡ Π² ΡΠ°Π·Π½ΡΡ ΡΠ»ΡΡΠ°ΡΡ .
ΠΡΠ΄Π΅ΠΌ ΡΠΌΠΎΡΡΠ΅ΡΡ ΡΠΎΠ³Π»Π°ΡΠ½ΠΎ ΡΠ²ΠΎΠΈΠΌ ΠΈΠ½ΡΠ΅ΡΠ΅ΡΠ°ΠΌ ΠΈ ΡΡΠΎ-Π½ΠΈΠ±ΡΠ΄Ρ ΠΎΠ±ΠΎΠ·ΡΠ΅Π²Π°ΡΡ.
ΠΡΠ»ΠΈ Π²Ρ Π½Π°ΡΠ»ΠΈ ΡΡΠΎ-ΡΠΎ ΠΈΠ½ΡΠ΅ΡΠ΅ΡΠ½Π΅Π½ΡΠΊΠΎΠ΅ β Π΄Π΅Π»ΠΈΡΠ΅ΡΡ Π² ΠΊΠΎΠΌΠΌΠ΅Π½ΡΠ°ΡΠΈΡΡ .
ΠΠ°, ΠΊ ΡΡΠ°ΡΡΠ΅ ΠΏΡΠΈΠ»Π°Π³Π°Π΅ΡΡΡ ΡΠ΅ΠΏΠΎ Ρ Π±ΠΎΠ»ΡΡΠΈΠΌ ΠΊΠΎΠ»ΠΈΡΠ΅ΡΡΠ²ΠΎΠΌ ΡΡΡΠ»ΠΎΠΊ ΠΏΠΎ ΡΠ΅ΠΌΠ°ΠΌ: https://github.com/FudanSELab/Agent4SE-Paper-List.
Π ΡΠ΅Π½ΡΡΠ±ΡΠ΅ Π²ΡΡΠ΅Π» Π±ΠΎΠ»ΡΡΠΎΠΉ ΡΡΡΠ΄ ΠΎΡ ΠΊΠΈΡΠ°ΠΉΡΠΊΠΈΡ ΠΊΠΎΠ»Π»Π΅Π³: "Large Language Model-Based Agents for Software Engineering: A Survey".
Π‘ΡΠ°ΡΡΡ ΡΠ°ΡΡΠΌΠ°ΡΡΠΈΠ²Π°Π΅Ρ Π°ΡΠΏΠ΅ΠΊΡΡ ΠΏΡΠΈΠΌΠ΅Π½Π΅Π½ΠΈΡ LLM-ΠΎΡΠ½ΠΎΠ²Π°Π½Π½ΡΡ Π°Π³Π΅Π½ΡΠΎΠ² Π² ΡΠ°Π·Π½ΡΡ Π·Π°Π΄Π°ΡΠ°Ρ ΠΏΡΠΎΠ³ΡΠ°ΠΌΠΌΠ½ΠΎΠΉ ΠΈΠ½ΠΆΠ΅Π½Π΅ΡΠΈΠΈ (ΡΠΊΡΠΈΠ½). Π§Π΅Π³ΠΎ ΡΠ°ΠΌ ΡΠΎΠ»ΡΠΊΠΎ Π½Π΅Ρ! ΠΠΎΠ±ΡΠ°Ρ ΡΠΎΡΠ½Ρ Π΄ΠΎΠΌΠ΅Π½Π½ΡΡ ΠΈΠ½ΡΡΡΡΠΌΠ΅Π½ΡΠΎΠ², ΠΊΠΎΡΠΎΡΡΠ΅ Π΅ΡΡ ΠΈ ΡΡΠ°Π²Π½ΠΈΠ²Π°ΡΡΡΡ ΠΌΠ΅ΠΆΠ΄Ρ ΡΠΎΠ±ΠΎΠΉ ΠΈ ΠΈΠ΄Π΅Ρ Π΄ΠΈΡΠΊΡΡΡΠΈΡ ΠΎ ΡΠΎΠΌ ΠΊΠ°ΠΊ ΡΡΠΈ Π²Π΅ΡΠΈ ΠΏΡΠΈΠ½ΡΡΠΎ ΡΡΡΠΎΠΈΡΡ Π² ΡΠ°Π·Π½ΡΡ ΡΠ»ΡΡΠ°ΡΡ .
ΠΡΠ΄Π΅ΠΌ ΡΠΌΠΎΡΡΠ΅ΡΡ ΡΠΎΠ³Π»Π°ΡΠ½ΠΎ ΡΠ²ΠΎΠΈΠΌ ΠΈΠ½ΡΠ΅ΡΠ΅ΡΠ°ΠΌ ΠΈ ΡΡΠΎ-Π½ΠΈΠ±ΡΠ΄Ρ ΠΎΠ±ΠΎΠ·ΡΠ΅Π²Π°ΡΡ.
ΠΡΠ»ΠΈ Π²Ρ Π½Π°ΡΠ»ΠΈ ΡΡΠΎ-ΡΠΎ ΠΈΠ½ΡΠ΅ΡΠ΅ΡΠ½Π΅Π½ΡΠΊΠΎΠ΅ β Π΄Π΅Π»ΠΈΡΠ΅ΡΡ Π² ΠΊΠΎΠΌΠΌΠ΅Π½ΡΠ°ΡΠΈΡΡ .
ΠΠ°, ΠΊ ΡΡΠ°ΡΡΠ΅ ΠΏΡΠΈΠ»Π°Π³Π°Π΅ΡΡΡ ΡΠ΅ΠΏΠΎ Ρ Π±ΠΎΠ»ΡΡΠΈΠΌ ΠΊΠΎΠ»ΠΈΡΠ΅ΡΡΠ²ΠΎΠΌ ΡΡΡΠ»ΠΎΠΊ ΠΏΠΎ ΡΠ΅ΠΌΠ°ΠΌ: https://github.com/FudanSELab/Agent4SE-Paper-List.
π₯5β€4π2π±1
This media is not supported in your browser
VIEW IN TELEGRAM
π AI system to generate 3D worlds from a single image. Check out some early results on our site, where you can interact with our scenes directly in the browser!
World Labs aims to address the challenges many creators face with existing genAI models: a lack of control and consistency. Given an input image, our system estimates 3D geometry, fills in unseen parts of the scene, invents new content so you can turn around, and generalizes to a wide variety of scene types and artistic styles.
Most generative models predict pixels. Predicting a 3D scene instead has many benefits: the scene wonβt change if you look away and come back, and it obeys the basic physical rules of 3D geometry. The simplest way to visualize the 3D scene is a depth map, where each pixel is colored by its distance to the camera.
https://worldlabs.ai/blog
@opendatascience
World Labs aims to address the challenges many creators face with existing genAI models: a lack of control and consistency. Given an input image, our system estimates 3D geometry, fills in unseen parts of the scene, invents new content so you can turn around, and generalizes to a wide variety of scene types and artistic styles.
Most generative models predict pixels. Predicting a 3D scene instead has many benefits: the scene wonβt change if you look away and come back, and it obeys the basic physical rules of 3D geometry. The simplest way to visualize the 3D scene is a depth map, where each pixel is colored by its distance to the camera.
https://worldlabs.ai/blog
@opendatascience
π8π₯7β€5π₯°2
10 Π»Π΅Ρ ΠΊΠ°ΠΊ Π―Π½Π΄Π΅ΠΊΡ Π²Π½Π΅Π΄ΡΠΈΠ» Π½Π΅ΠΉΡΠΎΡΠ΅ΡΠΈ Π² ΠΠΎΠΈΡΠΊ β ΠΈΡΡΠΎΡΠΈΡ ΡΠ°Π·Π²ΠΈΡΠΈΡ π₯
> ΠΠ΅ΡΠ²ΡΠ΅ Π½Π΅ΠΉΡΠΎΠ½Π½ΡΠ΅ ΡΠ΅ΡΠΈ Π΄Π»Ρ ΠΏΠΎΠΈΡΠΊΠ° ΠΏΠΎΡ ΠΎΠΆΠΈΡ ΠΊΠ°ΡΡΠΈΠ½ΠΎΠΊ Π² Π΄Π΅ΠΊΠ°Π±ΡΠ΅ 2014
> ΠΡΠΈΠΌΠ΅Π½Π΅Π½ΠΈΠ΅ Π½Π΅ΠΉΡΠΎΡΠ΅ΡΠ΅ΠΉ Π΄Π»Ρ ΡΠ»ΡΡΡΠ΅Π½ΠΈΡ ΠΏΠΎΠΈΡΠΊΠ° ΠΏΠΎ ΠΊΠ°ΡΡΠΈΠ½ΠΊΠ°ΠΌ ΠΏΠΎ ΡΠ΅ΠΊΡΡΠΎΠ²ΡΠΌ Π·Π°ΠΏΡΠΎΡΠ°ΠΌ Π² 2015
> ΠΠ°Π»Π΅Ρ ΠΈ ΠΠΎΡΠΎΠ»ΡΠ² Π΄Π»Ρ ΡΠ°Π½ΠΆΠΈΡΠΎΠ²Π°Π½ΠΈΡ ΡΠ΅ΠΊΡΡΠΎΠ² Π² 2016-2017
> ΠΡΠΈΠΌΠ΅Π½Π΅Π½ΠΈΠ΅ Π½Π΅ΠΉΡΠΎΡΠ΅ΡΠΈ Π² ΠΌΠ°ΡΠΈΠ½Π½ΠΎΠΌ ΠΏΠ΅ΡΠ΅Π²ΠΎΠ΄Π΅ Π² 2017
> Π’ΡΠΆΡΠ»Π°Ρ Π½Π΅ΠΉΡΠΎΠ½Π½Π°Ρ ΡΠ΅ΡΡ YATI Ρ ΡΠ΅ΠΊΠΎΡΠ΄Π½ΡΠΌ ΡΠ»ΡΡΡΠ΅Π½ΠΈΠ΅ΠΌ ΠΊΠ°ΡΠ΅ΡΡΠ²Π° Π² 2020
> ΠΠ΅ΠΉΡΠΎ Ρ VLM Π΄Π»Ρ ΡΠ°Π±ΠΎΡΡ Ρ ΡΠ΅ΠΊΡΡΠΎΠΌ ΠΈ ΠΈΠ·ΠΎΠ±ΡΠ°ΠΆΠ΅Π½ΠΈΡΠΌΠΈ Π² 2024
ΠΠΎΠΎΠ±ΡΠ΅, ΠΏΠ΅ΡΠ²ΡΠ΅ ΡΠΊΡΠΏΠ΅ΡΠΈΠΌΠ΅Π½ΡΡ Ρ Π½Π΅ΠΉΡΠΎΡΠ΅ΡΡΠΌΠΈ Π½Π°ΡΠ°Π»ΠΈΡΡ Ρ ΠΏΡΠΎΠ±ΠΎΠΊ (2012) ΠΈ ΡΠ΅ΡΠΈ (2013), Π° ΡΠ΅Π³ΠΎΠ΄Π½Ρ ΡΡΠΎ ΠΎΡΠ½ΠΎΠ²Π° ΠΏΠΎΠΈΡΠΊΠΎΠ²ΡΡ ΡΠ΅Ρ Π½ΠΎΠ»ΠΎΠ³ΠΈΠΉ π
ΠΡ ΡΠΊΡΠΏΠ΅ΡΠΈΠΌΠ΅Π½ΡΠ°Π»ΡΠ½ΡΡ ΡΠ΅ΡΠ΅Π½ΠΈΠΉ Π΄ΠΎ ΡΠ΅Ρ Π½ΠΎΠ»ΠΎΠ³ΠΈΠΉ, ΠΌΠ΅Π½ΡΡΡΠΈΡ ΡΠΎ, ΠΊΠ°ΠΊ ΠΌΡ ΠΈΡΠ΅ΠΌ ΠΈΠ½ΡΠΎΡΠΌΠ°ΡΠΈΡ ΠΊΠ°ΠΆΠ΄ΡΠΉ Π΄Π΅Π½Ρ.
https://habr.com/ru/companies/yandex/news/863768/
@opendatascience
> ΠΠ΅ΡΠ²ΡΠ΅ Π½Π΅ΠΉΡΠΎΠ½Π½ΡΠ΅ ΡΠ΅ΡΠΈ Π΄Π»Ρ ΠΏΠΎΠΈΡΠΊΠ° ΠΏΠΎΡ ΠΎΠΆΠΈΡ ΠΊΠ°ΡΡΠΈΠ½ΠΎΠΊ Π² Π΄Π΅ΠΊΠ°Π±ΡΠ΅ 2014
> ΠΡΠΈΠΌΠ΅Π½Π΅Π½ΠΈΠ΅ Π½Π΅ΠΉΡΠΎΡΠ΅ΡΠ΅ΠΉ Π΄Π»Ρ ΡΠ»ΡΡΡΠ΅Π½ΠΈΡ ΠΏΠΎΠΈΡΠΊΠ° ΠΏΠΎ ΠΊΠ°ΡΡΠΈΠ½ΠΊΠ°ΠΌ ΠΏΠΎ ΡΠ΅ΠΊΡΡΠΎΠ²ΡΠΌ Π·Π°ΠΏΡΠΎΡΠ°ΠΌ Π² 2015
> ΠΠ°Π»Π΅Ρ ΠΈ ΠΠΎΡΠΎΠ»ΡΠ² Π΄Π»Ρ ΡΠ°Π½ΠΆΠΈΡΠΎΠ²Π°Π½ΠΈΡ ΡΠ΅ΠΊΡΡΠΎΠ² Π² 2016-2017
> ΠΡΠΈΠΌΠ΅Π½Π΅Π½ΠΈΠ΅ Π½Π΅ΠΉΡΠΎΡΠ΅ΡΠΈ Π² ΠΌΠ°ΡΠΈΠ½Π½ΠΎΠΌ ΠΏΠ΅ΡΠ΅Π²ΠΎΠ΄Π΅ Π² 2017
> Π’ΡΠΆΡΠ»Π°Ρ Π½Π΅ΠΉΡΠΎΠ½Π½Π°Ρ ΡΠ΅ΡΡ YATI Ρ ΡΠ΅ΠΊΠΎΡΠ΄Π½ΡΠΌ ΡΠ»ΡΡΡΠ΅Π½ΠΈΠ΅ΠΌ ΠΊΠ°ΡΠ΅ΡΡΠ²Π° Π² 2020
> ΠΠ΅ΠΉΡΠΎ Ρ VLM Π΄Π»Ρ ΡΠ°Π±ΠΎΡΡ Ρ ΡΠ΅ΠΊΡΡΠΎΠΌ ΠΈ ΠΈΠ·ΠΎΠ±ΡΠ°ΠΆΠ΅Π½ΠΈΡΠΌΠΈ Π² 2024
ΠΠΎΠΎΠ±ΡΠ΅, ΠΏΠ΅ΡΠ²ΡΠ΅ ΡΠΊΡΠΏΠ΅ΡΠΈΠΌΠ΅Π½ΡΡ Ρ Π½Π΅ΠΉΡΠΎΡΠ΅ΡΡΠΌΠΈ Π½Π°ΡΠ°Π»ΠΈΡΡ Ρ ΠΏΡΠΎΠ±ΠΎΠΊ (2012) ΠΈ ΡΠ΅ΡΠΈ (2013), Π° ΡΠ΅Π³ΠΎΠ΄Π½Ρ ΡΡΠΎ ΠΎΡΠ½ΠΎΠ²Π° ΠΏΠΎΠΈΡΠΊΠΎΠ²ΡΡ ΡΠ΅Ρ Π½ΠΎΠ»ΠΎΠ³ΠΈΠΉ π
ΠΡ ΡΠΊΡΠΏΠ΅ΡΠΈΠΌΠ΅Π½ΡΠ°Π»ΡΠ½ΡΡ ΡΠ΅ΡΠ΅Π½ΠΈΠΉ Π΄ΠΎ ΡΠ΅Ρ Π½ΠΎΠ»ΠΎΠ³ΠΈΠΉ, ΠΌΠ΅Π½ΡΡΡΠΈΡ ΡΠΎ, ΠΊΠ°ΠΊ ΠΌΡ ΠΈΡΠ΅ΠΌ ΠΈΠ½ΡΠΎΡΠΌΠ°ΡΠΈΡ ΠΊΠ°ΠΆΠ΄ΡΠΉ Π΄Π΅Π½Ρ.
https://habr.com/ru/companies/yandex/news/863768/
@opendatascience
π23β€3π€‘2π₯1
This media is not supported in your browser
VIEW IN TELEGRAM
β‘οΈ Introducing DeepThought-8B: Transparent reasoning model built on LLaMA-3.1 with test-time compute scaling.
- JSON-structured thought chains & controllable inference paths.
- ~16GB VRAM, competitive w/ 70B models.
- Open model weights, and inference scripts.
https://huggingface.co/ruliad/deepthought-8b-llama-v0.01-alpha
@opendatascience
- JSON-structured thought chains & controllable inference paths.
- ~16GB VRAM, competitive w/ 70B models.
- Open model weights, and inference scripts.
https://huggingface.co/ruliad/deepthought-8b-llama-v0.01-alpha
@opendatascience
π₯8β€5π5β€βπ₯2
Forwarded from ΠΠ°ΡΡΠ½ΡΠΉ ΠΎΠΏΠ΅Π½ΡΠΎΡΡ (Nikolay Nikitin)
ΠΡ ΠΌΠ½ΠΎΠ³ΠΎ ΡΠ°ΡΡΠΊΠ°Π·ΡΠ²Π°Π΅ΠΌ ΠΏΡΠΎ ΡΠ²ΠΎΠΈ ΠΏΡΠΎΠ΅ΠΊΡΡ, ΡΠ²ΡΠ·Π°Π½Π½ΡΠ΅ Ρ ΡΠ΅Π½ΡΡΠΎΠΌ ΠΠ, Π½ΠΎ Π²ΠΎΠΎΠ±ΡΠ΅ Π² ΠΠ’ΠΠ Π΄ΠΎΠ²ΠΎΠ»ΡΠ½ΠΎ ΠΌΠ½ΠΎΠ³ΠΎ ΠΈΠ½ΡΠ΅ΡΠ΅ΡΠ½ΠΎΠ³ΠΎ ΠΎΠΏΠ΅Π½ΡΠΎΡΡΠ° ΠΈ Ρ Π΄ΡΡΠ³ΠΈΡ
ΠΏΠΎΠ΄ΡΠ°Π·Π΄Π΅Π»Π΅Π½ΠΈΠΉ ΠΈ Π»Π°Π±ΠΎΡΠ°ΡΠΎΡΠΈΠΉ.
ΠΠΎΡΡΠΎΠΌΡ ΡΠ΅ΡΠΈΠ»ΠΈ ΡΠ΄Π΅Π»Π°ΡΡ Π½Π΅Π±ΠΎΠ»ΡΡΡΡ ΠΏΠΎΠ΄Π±ΠΎΡΠΊΡ ΡΠ΅ΠΌΠ°ΡΠΈΡΠ΅ΡΠΊΠΈΡ ΡΠ°Π·Π΄Π΅Π»ΠΎΠ². Π ΠΊΠ°ΡΠ΅ΡΡΠ²Π΅ Π·Π°ΡΡΠ°Π²ΠΊΠΈ - 10 github-ΠΎΡΠ³Π°Π½ΠΈΠ·Π°ΡΠΈΠΉ:
1) aimclub - ΠΎΠ±ΡΠ΅Π΄ΠΈΠ½Π΅Π½ΠΈΠ΅ ΠΎΡΠΊΡΡΡΡΡ ΠΠ-ΠΈΠ½ΡΡΡΡΠΌΠ΅Π½ΡΠΎΠ² Π·Π° Π°Π²ΡΠΎΡΡΡΠ²ΠΎΠΌ ΡΠΎΠΎΠ±ΡΠ΅ΡΡΠ²Π° AIM Π£Π½ΠΈΠ²Π΅ΡΡΠΈΡΠ΅ΡΠ° ΠΠ’ΠΠ.
Π‘ΡΡΠ»ΠΊΠΈ: ΡΠ°ΠΉΡ.
ΠΡΠΈΠΌΠ΅ΡΡ ΠΏΡΠΎΠ΅ΠΊΡΠΎΠ²: FEDOT, BAMT, GOLEM, GEFEST, rostok, iOpt.
2) itmo-nss-team - R&D-ΠΏΡΠΎΠ΅ΠΊΡΡ NSS Lab Π² ΠΎΠ±Π»Π°ΡΡΠΈ ΠΠ
Π‘ΡΡΠ»ΠΊΠΈ: ΡΠ°ΠΉΡ, tg, youtube, colab.
ΠΡΠΈΠΌΠ΅ΡΡ ΠΏΡΠΎΠ΅ΠΊΡΠΎΠ²: EPDE, torch_DE_solver.
3) Industrial-AI-Research-Lab - ΠΏΡΠΎΠ΅ΠΊΡΡ Π»Π°Π±ΠΎΡΠ°ΡΠΎΡΠΈΠΈ ΠΏΡΠΎΠΌΡΡΠ»Π΅Π½Π½ΠΎΠ³ΠΎ ΠΠ.
ΠΡΠΈΠΌΠ΅ΡΡ ΠΏΡΠΎΠ΅ΠΊΡΠΎΠ²: rec4u.
4) AI-chem - ΠΏΡΠΎΠ΅ΠΊΡΡ ΡΠ΅Π½ΡΡΠ° "ΠΠ Π² Π₯ΠΈΠΌΠΈΠΈ".
ΠΡΠΈΠΌΠ΅ΡΡ ΠΏΡΠΎΠ΅ΠΊΡΠΎΠ²: GEMCODE, Nanomaterial_Morphology_Prediction.
Π‘ΡΡΠ»ΠΊΠΈ: ΡΠ°ΠΉΡ, tg.
5) BE2RLAB - ΠΏΡΠΎΠ΅ΠΊΡΡ Π»Π°Π±ΠΎΡΠ°ΡΠΎΡΠΈΠΈ Π±ΠΈΠΎΠΌΠ΅Ρ Π°ΡΡΠΎΠ½ΠΈΠΊΠΈ ΠΈ ΡΠ½Π΅ΡΠ³ΠΎΡΡΡΠ΅ΠΊΡΠΈΠ²Π½ΠΎΠΉ ΡΠΎΠ±ΠΎΡΠΎΡΠ΅Ρ Π½ΠΈΠΊΠΈ.
ΠΡΠΈΠΌΠ΅ΡΡ ΠΏΡΠΎΠ΅ΠΊΡΠΎΠ²: OpenSemanticMapping
6) airalab - ΠΏΡΠΎΠ΅ΠΊΡΡ Π»Π°Π±ΠΎΡΠ°ΡΠΎΡΠΈΠΈ ΠΌΡΠ»ΡΡΠΈΠ°Π³Π΅Π½ΡΠ½ΡΡ ΡΠΈΡΡΠ΅ΠΌ Π² ΡΠΌΠ½ΡΡ Π³ΠΎΡΠΎΠ΄Π°Ρ ΠΈ ΠΈΠ½Π΄ΡΡΡΡΠΈΠΈ 4.0.
ΠΡΠΈΠΌΠ΅ΡΡ ΠΏΡΠΎΠ΅ΠΊΡΠΎΠ²: robonomics.
Π‘ΡΡΠ»ΠΊΠΈ: ΡΠ°ΠΉΡ.
7) swarmtronics - ΠΏΡΠΎΠ΅ΠΊΡΡ Π»Π°Π±ΠΎΡΠ°ΡΠΎΡΠΈΠΈ ΠΏΠΎΡΠ²ΡΡΠ΅Π½Ρ ΠΌΠΎΠ΄Π΅Π»ΠΈΡΠΎΠ²Π°Π½ΠΈΡ ΡΠΎΠ΅Π², ΡΠΎΡΡΠΎΡΡΠΈΡ ΠΈΠ· ΠΏΡΠΎΡΡΡΡ ΡΠΎΠ±ΠΎΡΠΎΠ², ΡΠΏΠΎΡΠΎΠ±Π½ΡΡ ΠΊ ΡΠ°ΠΌΠΎΠΎΡΠ³Π°Π½ΠΈΠ·Π°ΡΠΈΠΈ ΠΈ Π²ΡΠΏΠΎΠ»Π½Π΅Π½ΠΈΡ ΡΠ»ΠΎΠΆΠ½ΡΡ Π·Π°Π΄Π°Ρ.
ΠΡΠΈΠΌΠ΅ΡΡ ΠΏΡΠΎΠ΅ΠΊΡΠΎΠ²: AMPy, swarmodroid
Π‘ΡΡΠ»ΠΊΠΈ: ΡΠ°ΠΉΡ.
8) Π‘TLab-ITMO ΠΈ CTLab (ΡΡΠ°ΡΡΠΉ ΡΠ΅ΠΏΠΎΠ·ΠΈΡΠΎΡΠΈΠΉ) - ΠΏΡΠΎΠ΅ΠΊΡΡ ΡΡΠ΅Π±Π½ΠΎ-Π½Π°ΡΡΠ½ΠΎΠΉ Π»Π°Π±ΠΎΡΠ°ΡΠΎΡΠΈΠΈ ΠΊΠΎΠΌΠΏΡΡΡΠ΅ΡΠ½ΡΡ ΡΠ΅Ρ Π½ΠΎΠ»ΠΎΠ³ΠΈΠΉ .
ΠΡΠΈΠΌΠ΅ΡΡ ΠΏΡΠΎΠ΅ΠΊΡΠΎΠ²: fgsea, GADMA, samovar, metafast, VGLib.
Π‘ΡΡΠ»ΠΊΠΈ: tg.
9) LISA-ITMO - ΠΏΡΠΎΠ΅ΠΊΡΡ ΡΡΠ΅Π±Π½ΠΎ-Π½Π°ΡΡΠ½ΠΎΠΉ Π»Π°Π±ΠΎΡΠ°ΡΠΎΡΠΈΠΈ LISA
ΠΡΠΈΠΌΠ΅ΡΡ ΠΏΡΠΎΠ΅ΠΊΡΠΎΠ²: edylytica.
Π‘ΡΡΠ»ΠΊΠΈ: tg.
10) ITMO-MMRM-lab - ΠΏΡΠΎΠ΅ΠΊΡΡ ΠΈΠ· ΠΎΠ±Π»Π°ΡΡΠΈ Π±ΠΈΠΎΠ»ΠΎΠ³ΠΈΠΈ ΠΎΡ Π»Π°Π±ΠΎΡΠ°ΡΠΎΡΠΈΠΈ MMRM.
ΠΠ°Π²Π΅ΡΠ½ΡΠΊΠ° ΠΏΡΠΎ ΠΊΠΎΠ³ΠΎ-ΡΠΎ Π½Π΅ Π·Π½Π°Π΅ΠΌ, ΠΏΠΎΡΡΠΎΠΌΡ Π΅ΡΠ»ΠΈ Π²Π»Π°Π΄Π΅Π΅ΡΠ΅ ΠΈΠ½ΡΠΎΡΠΌΠ°ΡΠΈΠ΅ΠΉ - ΠΏΠΈΡΠΈΡΠ΅ Π² ΠΊΠΎΠΌΠΌΠ΅Π½ΡΠ°ΡΠΈΠΈ.
ΠΠΎΡΡΠΎΠΌΡ ΡΠ΅ΡΠΈΠ»ΠΈ ΡΠ΄Π΅Π»Π°ΡΡ Π½Π΅Π±ΠΎΠ»ΡΡΡΡ ΠΏΠΎΠ΄Π±ΠΎΡΠΊΡ ΡΠ΅ΠΌΠ°ΡΠΈΡΠ΅ΡΠΊΠΈΡ ΡΠ°Π·Π΄Π΅Π»ΠΎΠ². Π ΠΊΠ°ΡΠ΅ΡΡΠ²Π΅ Π·Π°ΡΡΠ°Π²ΠΊΠΈ - 10 github-ΠΎΡΠ³Π°Π½ΠΈΠ·Π°ΡΠΈΠΉ:
1) aimclub - ΠΎΠ±ΡΠ΅Π΄ΠΈΠ½Π΅Π½ΠΈΠ΅ ΠΎΡΠΊΡΡΡΡΡ ΠΠ-ΠΈΠ½ΡΡΡΡΠΌΠ΅Π½ΡΠΎΠ² Π·Π° Π°Π²ΡΠΎΡΡΡΠ²ΠΎΠΌ ΡΠΎΠΎΠ±ΡΠ΅ΡΡΠ²Π° AIM Π£Π½ΠΈΠ²Π΅ΡΡΠΈΡΠ΅ΡΠ° ΠΠ’ΠΠ.
Π‘ΡΡΠ»ΠΊΠΈ: ΡΠ°ΠΉΡ.
ΠΡΠΈΠΌΠ΅ΡΡ ΠΏΡΠΎΠ΅ΠΊΡΠΎΠ²: FEDOT, BAMT, GOLEM, GEFEST, rostok, iOpt.
2) itmo-nss-team - R&D-ΠΏΡΠΎΠ΅ΠΊΡΡ NSS Lab Π² ΠΎΠ±Π»Π°ΡΡΠΈ ΠΠ
Π‘ΡΡΠ»ΠΊΠΈ: ΡΠ°ΠΉΡ, tg, youtube, colab.
ΠΡΠΈΠΌΠ΅ΡΡ ΠΏΡΠΎΠ΅ΠΊΡΠΎΠ²: EPDE, torch_DE_solver.
3) Industrial-AI-Research-Lab - ΠΏΡΠΎΠ΅ΠΊΡΡ Π»Π°Π±ΠΎΡΠ°ΡΠΎΡΠΈΠΈ ΠΏΡΠΎΠΌΡΡΠ»Π΅Π½Π½ΠΎΠ³ΠΎ ΠΠ.
ΠΡΠΈΠΌΠ΅ΡΡ ΠΏΡΠΎΠ΅ΠΊΡΠΎΠ²: rec4u.
4) AI-chem - ΠΏΡΠΎΠ΅ΠΊΡΡ ΡΠ΅Π½ΡΡΠ° "ΠΠ Π² Π₯ΠΈΠΌΠΈΠΈ".
ΠΡΠΈΠΌΠ΅ΡΡ ΠΏΡΠΎΠ΅ΠΊΡΠΎΠ²: GEMCODE, Nanomaterial_Morphology_Prediction.
Π‘ΡΡΠ»ΠΊΠΈ: ΡΠ°ΠΉΡ, tg.
5) BE2RLAB - ΠΏΡΠΎΠ΅ΠΊΡΡ Π»Π°Π±ΠΎΡΠ°ΡΠΎΡΠΈΠΈ Π±ΠΈΠΎΠΌΠ΅Ρ Π°ΡΡΠΎΠ½ΠΈΠΊΠΈ ΠΈ ΡΠ½Π΅ΡΠ³ΠΎΡΡΡΠ΅ΠΊΡΠΈΠ²Π½ΠΎΠΉ ΡΠΎΠ±ΠΎΡΠΎΡΠ΅Ρ Π½ΠΈΠΊΠΈ.
ΠΡΠΈΠΌΠ΅ΡΡ ΠΏΡΠΎΠ΅ΠΊΡΠΎΠ²: OpenSemanticMapping
6) airalab - ΠΏΡΠΎΠ΅ΠΊΡΡ Π»Π°Π±ΠΎΡΠ°ΡΠΎΡΠΈΠΈ ΠΌΡΠ»ΡΡΠΈΠ°Π³Π΅Π½ΡΠ½ΡΡ ΡΠΈΡΡΠ΅ΠΌ Π² ΡΠΌΠ½ΡΡ Π³ΠΎΡΠΎΠ΄Π°Ρ ΠΈ ΠΈΠ½Π΄ΡΡΡΡΠΈΠΈ 4.0.
ΠΡΠΈΠΌΠ΅ΡΡ ΠΏΡΠΎΠ΅ΠΊΡΠΎΠ²: robonomics.
Π‘ΡΡΠ»ΠΊΠΈ: ΡΠ°ΠΉΡ.
7) swarmtronics - ΠΏΡΠΎΠ΅ΠΊΡΡ Π»Π°Π±ΠΎΡΠ°ΡΠΎΡΠΈΠΈ ΠΏΠΎΡΠ²ΡΡΠ΅Π½Ρ ΠΌΠΎΠ΄Π΅Π»ΠΈΡΠΎΠ²Π°Π½ΠΈΡ ΡΠΎΠ΅Π², ΡΠΎΡΡΠΎΡΡΠΈΡ ΠΈΠ· ΠΏΡΠΎΡΡΡΡ ΡΠΎΠ±ΠΎΡΠΎΠ², ΡΠΏΠΎΡΠΎΠ±Π½ΡΡ ΠΊ ΡΠ°ΠΌΠΎΠΎΡΠ³Π°Π½ΠΈΠ·Π°ΡΠΈΠΈ ΠΈ Π²ΡΠΏΠΎΠ»Π½Π΅Π½ΠΈΡ ΡΠ»ΠΎΠΆΠ½ΡΡ Π·Π°Π΄Π°Ρ.
ΠΡΠΈΠΌΠ΅ΡΡ ΠΏΡΠΎΠ΅ΠΊΡΠΎΠ²: AMPy, swarmodroid
Π‘ΡΡΠ»ΠΊΠΈ: ΡΠ°ΠΉΡ.
8) Π‘TLab-ITMO ΠΈ CTLab (ΡΡΠ°ΡΡΠΉ ΡΠ΅ΠΏΠΎΠ·ΠΈΡΠΎΡΠΈΠΉ) - ΠΏΡΠΎΠ΅ΠΊΡΡ ΡΡΠ΅Π±Π½ΠΎ-Π½Π°ΡΡΠ½ΠΎΠΉ Π»Π°Π±ΠΎΡΠ°ΡΠΎΡΠΈΠΈ ΠΊΠΎΠΌΠΏΡΡΡΠ΅ΡΠ½ΡΡ ΡΠ΅Ρ Π½ΠΎΠ»ΠΎΠ³ΠΈΠΉ .
ΠΡΠΈΠΌΠ΅ΡΡ ΠΏΡΠΎΠ΅ΠΊΡΠΎΠ²: fgsea, GADMA, samovar, metafast, VGLib.
Π‘ΡΡΠ»ΠΊΠΈ: tg.
9) LISA-ITMO - ΠΏΡΠΎΠ΅ΠΊΡΡ ΡΡΠ΅Π±Π½ΠΎ-Π½Π°ΡΡΠ½ΠΎΠΉ Π»Π°Π±ΠΎΡΠ°ΡΠΎΡΠΈΠΈ LISA
ΠΡΠΈΠΌΠ΅ΡΡ ΠΏΡΠΎΠ΅ΠΊΡΠΎΠ²: edylytica.
Π‘ΡΡΠ»ΠΊΠΈ: tg.
10) ITMO-MMRM-lab - ΠΏΡΠΎΠ΅ΠΊΡΡ ΠΈΠ· ΠΎΠ±Π»Π°ΡΡΠΈ Π±ΠΈΠΎΠ»ΠΎΠ³ΠΈΠΈ ΠΎΡ Π»Π°Π±ΠΎΡΠ°ΡΠΎΡΠΈΠΈ MMRM.
ΠΠ°Π²Π΅ΡΠ½ΡΠΊΠ° ΠΏΡΠΎ ΠΊΠΎΠ³ΠΎ-ΡΠΎ Π½Π΅ Π·Π½Π°Π΅ΠΌ, ΠΏΠΎΡΡΠΎΠΌΡ Π΅ΡΠ»ΠΈ Π²Π»Π°Π΄Π΅Π΅ΡΠ΅ ΠΈΠ½ΡΠΎΡΠΌΠ°ΡΠΈΠ΅ΠΉ - ΠΏΠΈΡΠΈΡΠ΅ Π² ΠΊΠΎΠΌΠΌΠ΅Π½ΡΠ°ΡΠΈΠΈ.
π₯9β€1
Forwarded from Machinelearning
Π Π΅ΠΏΠΎΠ·ΠΈΡΠΎΡΠΈΠΉ Π½Π° Github c Π½Π°Π±ΠΎΡΠΎΠΌ ipynb-ΡΡΡΠΎΡΠΈΠ°Π»ΠΎΠ² ΠΏΠΎ Prompt Engineering Π΄Π»Ρ ΠΎΡΠ²ΠΎΠ΅Π½ΠΈΡ ΠΌΠ΅ΡΠΎΠ΄ΠΎΠ² ΡΠΎΠ·Π΄Π°Π½ΠΈΡ ΠΎΠΏΡΠΈΠΌΠ°Π»ΡΠ½ΡΡ ΠΏΡΠΎΠΌΠΏΡΠΎΠ² Π΄Π»Ρ ΠΌΠΎΠ΄Π΅Π»ΠΈ Qwen2.5-14B.
Π ΡΠΊΠΎΠ²ΠΎΠ΄ΡΡΠ²ΠΎ ΡΠ°Π·Π΄Π΅Π»Π΅Π½ΠΎ Π½Π° 9 Π³Π»Π°Π² Ρ ΠΏΡΠ°ΠΊΡΠΈΡΠ΅ΡΠΊΠΈΠΌΠΈ ΡΠΏΡΠ°ΠΆΠ½Π΅Π½ΠΈΡΠΌΠΈ ΠΈ ΠΏΡΠΈΠ»ΠΎΠΆΠ΅Π½ΠΈΠ΅ΠΌ Ρ "ΠΏΡΠΎΠ΄Π²ΠΈΠ½ΡΡΡΠΌΠΈ" ΠΌΠ΅ΡΠΎΠ΄Π°ΠΌΠΈ. Π ΠΊΠ°ΠΆΠ΄ΠΎΠΉ Π³Π»Π°Π²Π΅ Π΅ΡΡΡ "Example Playground" Π΄Π»Ρ ΡΠΊΡΠΏΠ΅ΡΠΈΠΌΠ΅Π½ΡΠΎΠ² Ρ ΠΏΡΠΈΠΌΠ΅ΡΠ°ΠΌΠΈ ΠΈ Π½Π°Π±Π»ΡΠ΄Π΅Π½ΠΈΡ Π·Π° ΠΈΠ·ΠΌΠ΅Π½Π΅Π½ΠΈΡΠΌΠΈ Π² ΠΈΠ½ΡΠ΅ΡΠ΅Π½ΡΠ΅ Ollama.
Π ΡΠΊΠΎΠ²ΠΎΠ΄ΡΡΠ²ΠΎ ΠΈΡΠΏΠΎΠ»ΡΠ·ΡΠ΅Ρ ΠΌΠΎΠ΄Π΅Π»Ρ Qwen 2.5-14B, Π½ΠΎ Π²ΡΠ΅ ΠΌΠ°ΡΠ΅ΡΠΈΠ°Π»Ρ ΠΏΠΎΠ΄Ρ ΠΎΠ΄ΡΡ ΠΈ Π΄Π»Ρ ΠΌΠΎΠ΄Π΅Π»ΠΈ Qwen 2.5-7B.
ΠΠ°ΡΠ°Π»ΡΠ½ΡΠΉ ΡΡΠΎΠ²Π΅Π½Ρ
Π‘ΡΠ΅Π΄Π½ΠΈΠΉ ΡΡΠΎΠ²Π΅Π½Ρ
ΠΡΠΎΠ΄Π²ΠΈΠ½ΡΡΡΠΉ ΡΡΠΎΠ²Π΅Π½Ρ
ΠΡΠΈΠ»ΠΎΠΆΠ΅Π½ΠΈΠ΅: ΠΠ° ΠΏΡΠ΅Π΄Π΅Π»Π°ΠΌΠΈ ΡΡΠ°Π½Π΄Π°ΡΡΠ½ΡΡ ΠΏΠΎΠ΄ΡΠΊΠ°Π·ΠΎΠΊ
@ai_machinelearning_big_data
#AI #ML #LLM #Github #Tutorial #Ollama
Please open Telegram to view this post
VIEW IN TELEGRAM
π12β€4π₯2
Forwarded from ΠΠ½Π°Π»ΠΈΠ· Π΄Π°Π½Π½ΡΡ
(Data analysis)
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
π13β€7π3
Forwarded from Machinelearning
Apollo - Π½Π°Π±ΠΎΡ MMLM, ΠΊΠΎΡΠΎΡΡΠ΅ ΡΠΌΠ΅ΡΡ ΡΠ΅ΡΠ°ΡΡ ΡΠ°Π·Π½ΡΠ΅ Π·Π°Π΄Π°ΡΠΈ Ρ Π²ΠΈΠ΄Π΅ΠΎΠΊΠΎΠ½ΡΠ΅Π½ΡΠΎΠΌ. ΠΠ½ΠΈ ΠΌΠΎΠ³ΡΡ ΠΏΠΎΠ½ΠΈΠΌΠ°ΡΡ Π΄Π»ΠΈΠ½Π½ΡΠ΅ Π²ΠΈΠ΄Π΅ΠΎ, ΡΠ°ΡΡΡΠΆΠ΄Π°ΡΡ ΠΎ ΡΠΎΠ±ΡΡΠΈΡΡ Π²ΠΎ Π²ΡΠ΅ΠΌΠ΅Π½ΠΈ ΠΈ ΠΏΠΎΠ΄Π΄Π΅ΡΠΆΠΈΠ²Π°ΡΡ ΠΌΠ½ΠΎΠ³ΠΎΡΡΠΎΡΠΎΠ½Π½ΠΈΠ΅ Π²ΠΈΠ΄Π΅ΠΎ-Π΄ΠΈΠ°Π»ΠΎΠ³ΠΈ.
ΠΠΎΠ΄Π΅Π»ΠΈ ΠΏΠΎΠΊΠ°Π·ΡΠ²Π°ΡΡ Π²ΡΡΠΎΠΊΡΡ ΠΏΡΠΎΠΈΠ·Π²ΠΎΠ΄ΠΈΡΠ΅Π»ΡΠ½ΠΎΡΡΡ Π΄Π°ΠΆΠ΅ ΠΏΡΠΈ ΠΎΡΠ½ΠΎΡΠΈΡΠ΅Π»ΡΠ½ΠΎ Π½Π΅Π±ΠΎΠ»ΡΡΠΎΠΌ ΡΠ°Π·ΠΌΠ΅ΡΠ΅ Π² 3 ΠΌΠ»ΡΠ΄. ΠΏΠ°ΡΠ°ΠΌΠ΅ΡΡΠΎΠ², ΠΏΡΠ΅Π²ΠΎΡΡ ΠΎΠ΄Ρ ΠΏΠΎ ΡΡΡΠ΅ΠΊΡΠΈΠ²Π½ΠΎΡΡΠΈ ΠΊΠΎΠ½ΠΊΡΡΠ΅Π½ΡΠΎΠ² Ρ ΠΌΠΎΠ΄Π΅Π»ΡΠΌΠΈ Π² 7Π-30Π ΠΏΠ°ΡΠ°ΠΌΠ΅ΡΡΠΎΠ².
ΠΡΠΎΠ³ΠΎ ΡΠ΄Π°Π»ΠΎΡΡ Π΄ΠΎΡΡΠΈΡΡ Π±Π»Π°Π³ΠΎΠ΄Π°ΡΡ ΡΡΠ°ΡΠ΅Π»ΡΠ½ΠΎΠΌΡ ΠΏΡΠΎΠ΅ΠΊΡΠΈΡΠΎΠ²Π°Π½ΠΈΡ ΠΈ ΠΊΠΎΠΌΠ±ΠΈΠ½ΠΈΡΠΎΠ²Π°Π½ΠΈΡ SigLIP-SO400M (Π΄Π»Ρ ΠΈΠ·ΠΎΠ±ΡΠ°ΠΆΠ΅Π½ΠΈΠΉ) ΠΈ InternVideo2 (Π΄Π»Ρ Π²ΠΈΠ΄Π΅ΠΎ). ΠΡ ΡΠΈΠ½Π΅ΡΠ³ΠΈΡ Π΄Π°Π΅Ρ Π±ΠΎΠ»Π΅Π΅ ΡΡΡΠΎΠΉΡΠΈΠ²ΠΎΠ΅ ΠΏΡΠ΅Π΄ΡΡΠ°Π²Π»Π΅Π½ΠΈΠ΅ Π½Π° Π·Π°Π΄Π°ΡΠ°Ρ Π²ΡΠ΅ΠΌΠ΅Π½Π½ΡΡ ΡΠ°ΡΡΡΠΆΠ΄Π΅Π½ΠΈΠΉ.
β οΈ ΠΠΎΠ΄ Π΄Π»Ρ ΡΠΎΠ½ΠΊΠΎΠΉ Π½Π°ΡΡΡΠΎΠΉΠΊΠΈ, ΠΏΡΠΈΠΌΠ΅Π½Π΅Π½ΠΈΠ΅ LoRA Π² Apollo ΠΈ Π΄ΠΎΠΊΡΠΌΠ΅Π½ΡΠ°ΡΠΈΡ ΡΠ°Π·ΡΠ°Π±ΠΎΡΡΠΈΠΊΠΈ ΠΎΠ±Π΅ΡΠ°ΡΡ ΠΎΠΏΡΠ±Π»ΠΈΠΊΠΎΠ²Π°ΡΡ ΠΏΠΎΠ·Π΄Π½Π΅Π΅. ΠΠΎΠΊΠ° Π² ΡΠ΅ΠΏΠΎΠ·ΠΈΡΠΎΡΠΈΠΈ ΠΏΡΠΎΠ΅ΠΊΡΠ° ΡΠ°Π·ΠΌΠ΅ΡΠ΅Π½ ΡΠΎΠ»ΡΠΊΠΎ ΠΏΡΠΈΠΌΠ΅Ρ ΠΈΠ½ΡΠ΅ΡΠ΅Π½ΡΠ° Π½Π° Transformers.
@ai_machinelearning_big_data
#AI #ML #MMLM #Apollo
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
π12π₯5β€2
β‘οΈ Byte Latent Transformer: Patches Scale Better Than Tokens
Byte Latent Transformer architecture (BLTs), a new byte-level LLM architecture that for the first time, matches tokenization-based LLM performance at scale, with significant improvements in inference efficiency and robustness.
BLT encodes bytes into dynamically sized patches, which serve as the primary units of computation. Patches are segmented dynamically based on the entropy of the next byte, allocating more compute and model capacity where there is more data complexity.
The BLT architecture includes new attention mechanisms to maximize the information flow between byte and patch hidden representations and a new type of byte-sequence memory. We present the first scaling study of byte-level models up to 8B parameters and 8T training bytes, showing for the first time that we can train a model end-to-end at scale from bytes with no tokenization or other preprocessing. Scaling trends reveal training and inference efficiency benefits from dynamically selecting very long patches on average, along with qualitative improvements with reasoning and long tail generalization from modeling byte-sequences.
π₯ Github: https://github.com/facebookresearch/blt
π Paper: https://arxiv.org/abs/2412.09871v1
π Dataset: https://paperswithcode.com/dataset/mmlu
@opendatascience
Byte Latent Transformer architecture (BLTs), a new byte-level LLM architecture that for the first time, matches tokenization-based LLM performance at scale, with significant improvements in inference efficiency and robustness.
BLT encodes bytes into dynamically sized patches, which serve as the primary units of computation. Patches are segmented dynamically based on the entropy of the next byte, allocating more compute and model capacity where there is more data complexity.
The BLT architecture includes new attention mechanisms to maximize the information flow between byte and patch hidden representations and a new type of byte-sequence memory. We present the first scaling study of byte-level models up to 8B parameters and 8T training bytes, showing for the first time that we can train a model end-to-end at scale from bytes with no tokenization or other preprocessing. Scaling trends reveal training and inference efficiency benefits from dynamically selecting very long patches on average, along with qualitative improvements with reasoning and long tail generalization from modeling byte-sequences.
π Dataset: https://paperswithcode.com/dataset/mmlu
@opendatascience
Please open Telegram to view this post
VIEW IN TELEGRAM
π10β€2β‘1π₯1