Forwarded from گیتهاب فارسی
Prompt_Engineering
این مخزن مجموعهای گسترده از راهنماها و پیادهسازیها برای روشهای Prompt Engineering را از مفاهیم پایه تا استراتژیهای پیشرفته ارائه میدهد.
این منبع مهمی برای یادگیری هنر تعامل مؤثر با مدلهای زبانی بزرگ و استفاده از آنها در برنامههای هوش مصنوعی است.
5️⃣ GitHub
این مخزن مجموعهای گسترده از راهنماها و پیادهسازیها برای روشهای Prompt Engineering را از مفاهیم پایه تا استراتژیهای پیشرفته ارائه میدهد.
این منبع مهمی برای یادگیری هنر تعامل مؤثر با مدلهای زبانی بزرگ و استفاده از آنها در برنامههای هوش مصنوعی است.
5️⃣ GitHub
🔥2
این بلاگ اصلا نیاز به توضیح نداره.
اگه یه جوری کارتون به دیفیوژن گره خورده، کاملترین توضیح رو میتونین اینجا پیدا کنین:
https://goyalpramod.github.io/blogs/demysitifying_diffusion_models/
اگه یه جوری کارتون به دیفیوژن گره خورده، کاملترین توضیح رو میتونین اینجا پیدا کنین:
https://goyalpramod.github.io/blogs/demysitifying_diffusion_models/
Pramod’s Blog
Demystifying Diffusion Models
Diffusion models like Stable Diffusion, Flux, Dall-e etc are an enigma built upon multiple ideas and mathematical breakthroughs. So is the nature of it that most tutorials on the topic are extremely complicated or even when simplified talk a lot about it…
❤2👍1
Forwarded from System 2 - Spring 2025
🎥 فیلم جلسه اول درس System 2
🔸 موضوع: Introduction & Motivation
🔸 مدرسین: دکتر رهبان و آقای سمیعی
🔸 تاریخ: ۲۱ بهمن ۱۴۰۳
🔸لینک یوتیوب
🔸 لینک آپارات
🔸 موضوع: Introduction & Motivation
🔸 مدرسین: دکتر رهبان و آقای سمیعی
🔸 تاریخ: ۲۱ بهمن ۱۴۰۳
🔸لینک یوتیوب
🔸 لینک آپارات
توضیح خیلی سرراست روی موضوع ELBO یا Lower Variational Bound که هم توی VAE و هم توی Diffusion Models استفاده شده.
یه مروری روی اینکه مساله چیه:
و این روش چجوری بهمون کمک میکنه که بتونیم این رو دور بزنیم:
برای جزییات بیشتر، میتونین به این بلاگ سر بزنین :)
https://jaketae.github.io/study/elbo/
یه مروری روی اینکه مساله چیه:
محاسبه احتمال واقعی فضای input میدونیم intractable هست.
و این روش چجوری بهمون کمک میکنه که بتونیم این رو دور بزنیم:
راهحل اینه که ما میخوایم احتمال فضای input رو افزایش بدیم به کمک فریمورک Maximum Likelihood، خب حالا به جای اینکه خود احتمال که intractable هست رو maximize کنیم، یک کران پایین از احتمال به دست میاریم و سعی میکنیم که این کران پایین رو maximize کنیم. تو این حالت پس میتونیم انتظار داشته باشیم که خود احتمال هم افزایش پیدا میکنه (البته با یه اختلافی بین کران پایین و مقدار واقعی)
برای جزییات بیشتر، میتونین به این بلاگ سر بزنین :)
https://jaketae.github.io/study/elbo/
Jake Tae
From ELBO to DDPM
In this short post, we will take a look at variational lower bound, also referred to as the evidence lower bound or ELBO for short. While I have referenced ELBO in a previous blog post on VAEs, the proofs and formulations presented in the post seems somewhat…
👌2
ML & AI resources
این بلاگ اصلا نیاز به توضیح نداره. اگه یه جوری کارتون به دیفیوژن گره خورده، کاملترین توضیح رو میتونین اینجا پیدا کنین: https://goyalpramod.github.io/blogs/demysitifying_diffusion_models/
بلاگ پیشنهادی دکتر Yang Song (شروع کننده تعبیر شبکه های score-based از شبکه های دیفیوژنی)، برای شروع درک دیفیوژن:
https://baincapitalventures.notion.site/Diffusion-Without-Tears-14e1469584c180deb0a9ed9aa6ff7a4c
https://baincapitalventures.notion.site/Diffusion-Without-Tears-14e1469584c180deb0a9ed9aa6ff7a4c
baincapitalventures on Notion
Diffusion Without Tears | Notion
Slater Stich, Bain Capital Ventures
🔥1👌1
Forwarded from DeepMind AI Expert (Farzad 🦅)
اینجا سایت مشهور arxiv اومده مدلهای بزرگ o3 mini و claude و جمنای رو به سایتش اضافه کرده و میتونین با مقالات چت کنین خلاصه کنید مقایسه کنید و...
https://www.alphaxiv.org/explore
#علوم_پزشکی #ایده_جذاب # #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
https://www.alphaxiv.org/explore
#علوم_پزشکی #ایده_جذاب # #مقاله
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
alphaXiv
Discuss, discover, and read arXiv papers.
🔥2❤1
یه فرصت اینترنشیپ برای دانشجوهای کارشناسی که به حوزه تصویر و سه بعدی علاقه مند هستن :)
یکی از گروههای مطرح ویژن تو دنیا هستن. اگه میتونین اصلا این فرصت رو از دست ندین :)
https://www.linkedin.com/feed/update/urn:li:activity:7318101340667199488?updateEntityUrn=urn%3Ali%3Afs_updateV2%3A%28urn%3Ali%3Aactivity%3A7318101340667199488%2CFEED_DETAIL%2CEMPTY%2CDEFAULT%2Cfalse%29
یکی از گروههای مطرح ویژن تو دنیا هستن. اگه میتونین اصلا این فرصت رو از دست ندین :)
https://www.linkedin.com/feed/update/urn:li:activity:7318101340667199488?updateEntityUrn=urn%3Ali%3Afs_updateV2%3A%28urn%3Ali%3Aactivity%3A7318101340667199488%2CFEED_DETAIL%2CEMPTY%2CDEFAULT%2Cfalse%29
Linkedin
🚀 We’re hiring!
The KAIST Visual AI Group is looking for Summer 2025… | Minhyuk Sung
The KAIST Visual AI Group is looking for Summer 2025… | Minhyuk Sung
🚀 We’re hiring!
The KAIST Visual AI Group is looking for Summer 2025 undergraduate interns.
Interested in:
🌀 Diffusion / Flow / AR models (images, videos, text, more)
🧠 VLMs / LLMs / Foundation models
🧊 3D generation & neural rendering
Apply now 👉 http…
The KAIST Visual AI Group is looking for Summer 2025 undergraduate interns.
Interested in:
🌀 Diffusion / Flow / AR models (images, videos, text, more)
🧠 VLMs / LLMs / Foundation models
🧊 3D generation & neural rendering
Apply now 👉 http…
👍1
Forwarded from DeepMind AI Expert (Farzad 🦅)
این دوره بشدت خوب و کامل از سباستین راسچکا بزرگ که دارای چندین کتاب خوب و کاربردی دیگری هم هست این دوره #یادگیری_عمیق و مدلهای مولد رو ارائه داده علاقمندان این حوزه ببینید
▪️ Intro to Deep Learning and Generative Models by Sebastian Raschka.
#منابع #مدل_مولد #مولد #هوش_مصنوعی #پایتون #برنامه_نویسی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
▪️ Intro to Deep Learning and Generative Models by Sebastian Raschka.
#منابع #مدل_مولد #مولد #هوش_مصنوعی #پایتون #برنامه_نویسی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
❤1👍1
Strong recommend for this book and the JAX/TPU docs, even if you are using Torch / GPUs. Clean notation and mental model for some challenging ideas.
https://github.com/jax-ml/scaling-book/
https://github.com/jax-ml/scaling-book/discussions/25
https://docs.jax.dev/en/latest/notebooks/shard_map.html
Post: https://x.com/srush_nlp/status/1925942348082516432
https://github.com/jax-ml/scaling-book/
https://github.com/jax-ml/scaling-book/discussions/25
https://docs.jax.dev/en/latest/notebooks/shard_map.html
Post: https://x.com/srush_nlp/status/1925942348082516432
❤1
I feel like half of my social media feed is composed of AI grifters saying software developers are not going to make it. Combine that sentiment with some economic headwinds and it's easy to feel like we're all screwed. I think that's bullshit. The best days of our industry lie ahead.
https://dustinewers.com/ignore-the-grifters/
https://dustinewers.com/ignore-the-grifters/
🤔1
Why you should read this book?
Most deep learning projects start out by training a model to convergence on data specific to your task, then using that model to drive predictions on future data. The more difficult the task, the larger the model needed to perform it, and the longer it takes to train. Many deep learning models used in production systems today have training times measured in days. This has multiple adverse effects:
- High training costs.
- Slow iteration cycles.
- Hardware resource constraints.
- Poor prediction latency once deployed.
These issues are well-documented in production at companies like Google, Facebook, Reddit, etcetera. Luckily they have driven research and development into tools and techniques that can help reduce these costs and remove these barriers.
This book attempts to serve as a simple introduction to the world of “architecture-independent” model optimization from the perspective of a PyTorch practitioner. We cover techniques like model quantization, model pruning, data-distributed training, mixed-precision training, and just-in-time compilation. We include code samples to help you get started and benchmarks showing the power of these techniques on example models of interest.
https://residentmario.github.io/pytorch-training-performance-guide/intro.html
Most deep learning projects start out by training a model to convergence on data specific to your task, then using that model to drive predictions on future data. The more difficult the task, the larger the model needed to perform it, and the longer it takes to train. Many deep learning models used in production systems today have training times measured in days. This has multiple adverse effects:
- High training costs.
- Slow iteration cycles.
- Hardware resource constraints.
- Poor prediction latency once deployed.
These issues are well-documented in production at companies like Google, Facebook, Reddit, etcetera. Luckily they have driven research and development into tools and techniques that can help reduce these costs and remove these barriers.
This book attempts to serve as a simple introduction to the world of “architecture-independent” model optimization from the perspective of a PyTorch practitioner. We cover techniques like model quantization, model pruning, data-distributed training, mixed-precision training, and just-in-time compilation. We include code samples to help you get started and benchmarks showing the power of these techniques on example models of interest.
https://residentmario.github.io/pytorch-training-performance-guide/intro.html
❤1
یه کتاب به نظر جامع برای یادگیری سریع Diffusion
خودم هنوز فرصت نکردم بخونم ولی به نظر به عنوان یه منبع تقریبا آکادمیک و کتابطور، منبع مناسبیه
https://arxiv.org/pdf/2406.08929
خودم هنوز فرصت نکردم بخونم ولی به نظر به عنوان یه منبع تقریبا آکادمیک و کتابطور، منبع مناسبیه
https://arxiv.org/pdf/2406.08929
❤3
سایت Scholar inbox به شما این قابلیت رو میده که personal digest داشته باشین؛ یعنی پیپرهای مرتبط به فیلدتون رو روزانه بهتون بده (مثل scholar alert ولی همراه با قابلیتهای دیگه مثل مپ و ...)
https://arxiv.org/pdf/2504.08385v1
https://arxiv.org/pdf/2504.08385v1
🔥2👍1