Python3
200 subscribers
100 photos
6 videos
26 files
518 links
🎓 آموزش و پروژه‌های Python
آموزش‌های کاربردی و پروژه‌های عملی Python برای همه سطوح. 🚀
Download Telegram
آموزش Flask در پایتون در 15 دقیقه کامل و خفن🤓❤️✌️
آموزش کامل و جامع برنامه نویسی HTML 5 خیلی خیلی ساده در 2 ساعت:
https://aparat.com/v/insdwxi

لطفا کانالم رو فالو کنید❤️.
حرومه این پیام رو دیدی و نه لایک کردی نه فالو😂❤️:
https://www.aparat.com/Amir_1234_ka
👍1
This media is not supported in your browser
VIEW IN TELEGRAM
🔴 ایلان ماسک دوباره با یه اختراع فوق خفن برگشت!

ایلان ماسک: محصول بعدی ما "Blindsight" به کسایی که بینایی خودشونو از دست دادن این امکان رو میده که دوباره ببینند!
فرقی نمیکنه بینایی‌شون رو چطوری از دست داده باشن، حتی کسایی که نابینا بدنیا اومدن هم با کمک این اختراع ما میتونن بینا بشن!
آموزش نصب برنامه V2RayNG
https://aparat.com/v/eooqrb1

کانالمو فالو کن تا ویدیو های بعدی رو از دست ندی🌸:
https://aparat.com/Amir_1234_ka
چنل پروکسی و کانفیگ های ما رو هم داشته باشید🤓:
https://t.iss.one/V2RayNGProxy0
Forwarded from گوربه
🎓 آموزش معماری Mamba

📍 قسمت ۱: مقدمه – چرا باید Mamba رو بشناسیم؟

سلام رفقا 👋
می‌خوایم تو این سری آموزش ۶ قسمتی، یکی از باحال‌ترین معماری‌های جدید هوش مصنوعی رو یاد بگیریم:
اسمش Mamba ـه 🐍



🤔 چرا باید دنبال جایگزین برای ترنسفورمر بگردیم؟

ترنسفورمرها مثل GPT و BERT، فوق‌العاده قوی هستن
اما... یه مشکل دارن!

وقتی بخوای اونا رو تو دنیای واقعی و با منابع محدود اجرا کنی، این مشکلات پیدا می‌شن:

* 🔋 رم زیادی می‌خوان
* 🐢 کندن مخصوصاً برای متن‌های طولانی
* 🔥 نیاز به GPU دارن
* 💣 و با بزرگ‌تر شدن متن، مصرف منابع‌شون شدیدتر می‌شه!

به‌عبارتی، ترنسفورمر بیشتر مناسب دیتاسنتره، نه لپ‌تاپ من و تو!



🔄 اینجا Mamba وارد میشه

Mamba با یه رویکرد انقلابی می‌گه:
"بیا attention رو کلاً بذار کنار!"

😲 آره... Mamba اصلاً از self-attention استفاده نمی‌کنه
و به‌جاش از یه مفهوم به‌نام State Space Model استفاده می‌کنه

یعنی چی؟
یعنی بجای اینکه هر کلمه با همه‌ی کلمات دیگه مقایسه بشه (مثل GPT)،
فقط وضعیت فعلی و قبلی رو بررسی می‌کنه، و این کارو خیلی سریع انجام می‌ده!



Mamba چه مزایایی داره؟

* بدون نیاز به attention کار می‌کنه
* رم خیلی کمتری مصرف می‌کنه
* روی CPU به‌راحتی اجرا می‌شه
* برای متن‌های خیلی بلند عالیه
* مدل‌های کوچیکش رو می‌تونی با لپ‌تاپ اجرا کنی!



🔧 یه مقایسه ذهنی ساده

ترنسفورمر رو مثل آدمی تصور کن که می‌خواد حرف بزنه، ولی قبلش باید کل تاریخ رو بخونه!
اما Mamba یه آدم باهوشه که فقط با دونستن حرف‌های قبلی، می‌فهمه الان چی باید بگه.
سریع‌تره، سبک‌تره، و هنوزم باهوشه!



📌 چرا این آموزش رو باید دنبال کنی؟

اگه دنبال ساختن مدل‌های زبانی، چت‌بات، تحلیل متن، یا حتی یه مدل سبک برای موبایل یا لپ‌تاپت هستی،
Mamba دقیقاً همون چیزیه که باید یاد بگیری.

تو قسمت‌های بعدی قراره:

* بفهمیم Mamba چجوری کار می‌کنه
* کدش رو بررسی کنیم
* یه مدل واقعی روی CPU بسازیم
* و کلی نکته‌ی خفن یاد بگیریم!



📢 منتظر قسمت ۲ باش!
اونجا قدم‌به‌قدم Mamba رو باز می‌کنیم و ساختار درونی‌شو یاد می‌گیریم، بدون اینکه تو فرمول‌ها غرق بشیم...


📅 ادامه آموزش به‌زودی...
1
🎓 آموزش معماری Mamba

📍 قسمت ۲: Mamba چطوری کار می‌کنه؟ (بدون پیچوندن ذهن!)

سلام مجدد رفقای مشتاق یادگیری! 🌱
تو قسمت قبل فهمیدیم چرا باید Mamba رو جدی گرفت، مخصوصاً اگه سیستم‌مون معمولیه و می‌خوایم مدل زبان بسازیم یا اجرا کنیم.

اما حالا وقتشه بریم سراغ اصل ماجرا:
Mamba چجوری کار می‌کنه؟



🧠 اول یه مرور سریع:

ترنسفورمر چی کار می‌کنه؟
به هر کلمه نگاه می‌کنه و اونو با *همه‌ی کلمات قبل و بعدش* مقایسه می‌کنه
(یعنی self-attention)

این کار باعث می‌شه حافظه و زمان مصرفی مدل، به‌شدت بالا بره مخصوصاً برای متن‌های طولانی.



اما Mamba چی کار می‌کنه؟

Mamba از یه مفهوم به اسم State Space Model استفاده می‌کنه.
ولی نگران نباش... نمی‌خوایم بریم تو ریاضی سنگین!

بیایید ساده تصور کنیم:

فرض کن یه نفر داره قصه گوش می‌ده.
اون نمی‌خواد کل داستانو همزمان حفظ کنه.
فقط همین براش مهمه:

> «تا این لحظه چی شنیدم، و الان دارم چی می‌شنوم؟»

🧩 این دقیقاً کاریه که Mamba انجام می‌ده.



🎯 یه مثال ساده:

فرض کن یه مدل زبانی می‌خوای بسازی برای جمله زیر:

> «من امروز خیلی خوشحال بودم چون امتحانمو خوب دادم.»

ترنسفورمر می‌ره کلمه «خوشحال» رو با «من»، «امروز»، «بودم»، «چون»، «امتحان»، «خوب»، «دادم»... همه رو با هم مقایسه می‌کنه 😵

اما Mamba فقط نگاه می‌کنه به اینکه:

* قبلش چی بوده؟
* الان چی اومده؟
* وضعیت حافظه‌اش در حال حاضر چیه؟

مثل یه ذهن خلاصه‌ساز!
اون فقط یه حالت (state) تو حافظه‌اش نگه می‌داره، و با اومدن هر کلمه جدید، این حالت به‌روزرسانی می‌شه.



📦 مغز Mamba چیه؟

تو معماری داخلی، Mamba چند تا چیز داره:

1. Input Projection – تبدیل توکن ورودی به بردار عددی
2. State Update – به‌روزرسانی وضعیت حافظه (state)
3. Gating – مشخص می‌کنه چقدر اطلاعات جدید وارد بشه، چقدر از قبلی‌ها حفظ بشه
4. Output – تولید خروجی نهایی برای هر توکن

ولی همه‌ی اینا رو با یک الگوریتم خطی انجام می‌ده!
و این یعنی:
سرعت بالا
حافظه کم
پردازش ترتیبی (مثل RNN ولی هوشمندتر)



🧪 تشبیه نهایی:

فکر کن داری دفتر خاطرات می‌نویسی
هر روز یه جمله می‌نویسی، ولی فقط آخرین جمله رو مرور می‌کنی برای نوشتن بعدی

💡 این همون چیزیه که Mamba داره انجام می‌ده
نه به جدول مقایسه نیاز داره
نه حافظه رو با اطلاعات همه‌ی روزها پر می‌کنه



📌 چرا این مهمه؟

چون باعث می‌شه مدل حتی اگه روی یه CPU ساده اجرا بشه، بتونه متن‌های بلند رو بدون هنگ کردن پردازش کنه.

👨‍💻 واسه همین Mamba تبدیل شده به یه گزینه جدی برای ساخت مدل‌های زبانی آفلاین، سبک و پرسرعت.



🛠 تو قسمت بعد می‌ریم سراغ یه مثال عملی و واقعی از Mamba:
چطور یه جمله ساده رو با استفاده از ساختار Mamba تحلیل می‌کنه؟

حاضری بریم سراغ مغز واقعی Mamba؟ 🤖
2
Forwarded from گوربه
🎓 آموزش معماری Mamba

📍 قسمت ۳: یک مثال واقعی – Mamba چطور یه جمله رو می‌فهمه؟

سلام به هوش‌مصنوعی‌بازهای آینده! 🧠
تو قسمت قبل فهمیدیم Mamba برخلاف ترنسفورمر، متن رو به شکل ترتیبی و کم‌هزینه پردازش می‌کنه.

حالا بیایید با یه مثال واقعی ببینیم دقیقاً چه اتفاقی داخل Mamba می‌افته وقتی یه جمله ساده واردش می‌کنیم.



📝 جمله‌ای که می‌خوایم بررسی کنیم:

> «علی امروز فوتبال بازی کرد.»

می‌خوایم ببینیم مدل Mamba چطور این جمله رو مرحله‌به‌مرحله پردازش می‌کنه.



🔄 مرحله ۱: تبدیل کلمات به بردار

هر کلمه اول تبدیل می‌شه به یه بردار عددی (مثل ترنسفورمرها)

مثلاً:

* «علی» → \[0.3, 0.1, 0.9, ...]
* «امروز» → \[0.7, 0.2, 0.4, ...]
* و همین‌طور بقیه

🔹 این کار با Embedding Layer انجام می‌شه. یعنی متن رو به زبان ریاضی تبدیل می‌کنیم.



🔄 مرحله ۲: به‌روزرسانی حافظه (State Update)

حالا Mamba شروع می‌کنه هر کلمه رو به‌ترتیب بررسی کردن:

1. اول «علی» وارد می‌شه → مدل یه "وضعیت اولیه" (state) براش می‌سازه
2. بعد «امروز» میاد → با وضعیت قبلی ترکیب می‌شه → وضعیت جدید ساخته می‌شه
3. بعد «فوتبال» میاد → دوباره وضعیت قبلی به‌روزرسانی می‌شه
4. همین‌طور ادامه می‌ده تا به «کرد» برسه

🔁 تو هر مرحله فقط یه وضعیت کوچیک (یه بردار چندعددی) به‌روزرسانی می‌شه، نه اینکه کل جمله بازنگری بشه!



🔄 مرحله ۳: گیت‌ها (Gating)

Mamba از یه چیزی شبیه دریچه (gate) استفاده می‌کنه که تصمیم می‌گیره:

* چه مقدار از اطلاعات جدید وارد حافظه بشه
* چه مقدار از اطلاعات قبلی حفظ بشه
* و چی باید از بین بره

این باعث می‌شه فقط چیزای مهم باقی بمونن. مثل حافظه‌ی فعال مغز ما که چیزای بی‌ربط رو فراموش می‌کنه!



🔄 مرحله ۴: تولید خروجی

وقتی همه‌ی کلمات خونده شدن، مدل می‌تونه برای هر کلمه یه خروجی بده.
مثلاً:

* تصمیم بگیره جمله درباره کیه (علی)
* چه کاری انجام داده (بازی کرده)
* کِی (امروز)

و این خروجی می‌تونه تو کارهای مختلف استفاده بشه:

* پیش‌بینی کلمه بعدی
* خلاصه‌سازی
* ترجمه
* یا تولید پاسخ تو چت‌بات



🧠 تفاوت کلیدی با ترنسفورمر:

ترنسفورمر به کل جمله همزمان نگاه می‌کنه.
Mamba ولی یه حافظه‌ی زنده داره که دائم آپدیت می‌شه.

🌊 شبیه یه جریان هست، نه یه عکس از کل جمله!
و این یعنی سرعت و مصرف کمتر، بدون افت عملکرد.



📌 نتیجه‌گیری پارت ۳:

* هر کلمه به‌ترتیب وارد مدل می‌شه
* یه وضعیت کوچیک (state) با هر ورودی آپدیت می‌شه
* مدل فقط اطلاعات لازم رو حفظ می‌کنه
* در نهایت خروجی دقیق و با معنا تولید می‌کنه
* بدون نیاز به attention یا محاسبات سنگین!



🔜 در قسمت بعد (پارت ۴):
می‌ریم سراغ ساختار داخلی Mamba به زبان خیلی ساده
تا بفهمیم دقیقاً این «state update» و «gate» چطور توی کد کار می‌کنن!
3
سلام خدمت تمامی عزیزان این کانال❤️
من AmirRM هستم و میخوام بزرگترین و فعال ترین کانال آپارات برنامه نویسی پایتون رو بهتون معرفی کنم🤓❤️
این کانال هر روز فعاله و برای خودم هست🤑
حتما حتما حتما فالوش کنید و ویدیو هاشو ببینید و اگر خوشتون اومد لایکشون کنید✌️
لینک کانال:
https://www.aparat.com/Amir_1234_ka

لینک گروه برنامه نویسان پایتون:
https://t.iss.one/programming_languages_390

لینک کانال برنامه نویسی پایتون:
https://t.iss.one/programming_languages390
آموزش نصب کدوم رو بزاریم؟؟؟ همشون به همراه کرک هست😁
Anonymous Poll
30%
IntelliJ : Java, Kotlin, Dart
24%
PHPStorm : PHP, Js, HTML
51%
Pycharm : Python, Typescript, Django
39%
VS Code insider
محیط IntelliJ برای جاوا و کاتلین و اندروید نویسی:
https://www.aparat.com/v/nnv03j7
محیط PHPStorm برای پی اچ پی و وردپرس:
https://www.aparat.com/v/qgkb68f
محیط Pycharm برای پایتون و جنگو:
https://www.aparat.com/v/fiqn76j
محیط VS Code Insider برای همه زبان ها:
https://www.aparat.com/v/ymqwhdz
بالا بردن کیفیت دوربین شیائومی | ترفند جدید برای کیفیت عکس و فیلم در شیائومی:

https://aparat.com/v/emtl6z6

کانال آپارات رو فالو کن تا ویدیو های بعدی رو از دست ندی😎:
https://www.aparat.com/Amir_1234_ka
آموزش کامل کار با گیت هاب دسکتاپ:
https://aparat.com/v/ijt89ds

کانال رو فالو کنید ممنون🌸:
https://www.aparat.com/Amir_1234_ka