The Best Python Cheat Sheet.pdf
435.5 KB
The Best Python Cheat Sheet 🔰
Unlock Python mastery with The Best Python Cheat Sheet Perfect for coders and data scientists, this comprehensive guide covers Python 3.8+ syntax, built-in functions, flow control, lists, dictionaries, generators, decorators, regex, OOP, error handling, and more.
Includes ready-to-use code snippets, operator precedence rules, context managers, match-case patterns, and advanced topics like scope management and execution environments.
Ideal for quick reference, interviews, or daily coding tasks.
#پایتون #cheat_sheet
🆔 @programmers_street
Unlock Python mastery with The Best Python Cheat Sheet Perfect for coders and data scientists, this comprehensive guide covers Python 3.8+ syntax, built-in functions, flow control, lists, dictionaries, generators, decorators, regex, OOP, error handling, and more.
Includes ready-to-use code snippets, operator precedence rules, context managers, match-case patterns, and advanced topics like scope management and execution environments.
Ideal for quick reference, interviews, or daily coding tasks.
#پایتون #cheat_sheet
🆔 @programmers_street
🔷 شهروندان مراقب پیامکها و ماموران قلابی پستی باشند
🔹 شرکت ملی پست از شهروندان خواست که مراقب ماموران قلابی باشند.
🔹 بدینوسیله به آگاهی میرساند، اطلاعرسانیهای این شرکت تنها با سرشماره (IRANPOST) انجام میشود، بنابراین هر پیامکی که با سرشمارهای دیگر و به نام شرکت ملی پست ارسال شود، جعلی است.
🔸 ایرنا
@programmers_street
🔹 شرکت ملی پست از شهروندان خواست که مراقب ماموران قلابی باشند.
🔹 بدینوسیله به آگاهی میرساند، اطلاعرسانیهای این شرکت تنها با سرشماره (IRANPOST) انجام میشود، بنابراین هر پیامکی که با سرشمارهای دیگر و به نام شرکت ملی پست ارسال شود، جعلی است.
🔸 ایرنا
@programmers_street
❤1
در بحبوحهی شرایط سخت و محدودیتهای ناشی از جنگ، حجازیزاده — یکی از چهرههای فعال در حوزه آموزش برنامهنویسی و یادگیری ماشین — تصمیمی ارزشمند گرفت:
او تمامی دورههای آموزشیاش در پلتفرم پایتوپیا را به صورت رایگان در اختیار عموم قرار داد.
این دورهها طیف وسیعی از موضوعات مهم را در بر میگیرند؛ از مقدمات پایتون گرفته تا یادگیری ماشین، آمار و احتمالات، گیت و گیتهاب و چندین مهارت دیگر که برای هر برنامهنویس یا علاقهمند به حوزه داده ضروری است.
افراد میتوانند بهسادگی در سایت pytopia.ai ثبتنام کنند و بهصورت دائمی به محتوای دورهها دسترسی داشته باشند.
در روزگاری که آموزش با چالشهای زیادی روبهروست، این حرکت سخاوتمندانه یک نمونهی واقعی از تعهد به جامعهی یادگیرندگان است. 👏
🆔 @programmers_street
او تمامی دورههای آموزشیاش در پلتفرم پایتوپیا را به صورت رایگان در اختیار عموم قرار داد.
این دورهها طیف وسیعی از موضوعات مهم را در بر میگیرند؛ از مقدمات پایتون گرفته تا یادگیری ماشین، آمار و احتمالات، گیت و گیتهاب و چندین مهارت دیگر که برای هر برنامهنویس یا علاقهمند به حوزه داده ضروری است.
افراد میتوانند بهسادگی در سایت pytopia.ai ثبتنام کنند و بهصورت دائمی به محتوای دورهها دسترسی داشته باشند.
در روزگاری که آموزش با چالشهای زیادی روبهروست، این حرکت سخاوتمندانه یک نمونهی واقعی از تعهد به جامعهی یادگیرندگان است. 👏
🆔 @programmers_street
👍13❤1
Free course to build AI Agents in LangChain(Most popular framework for building AI Agents)
https://www.youtube.com/playlist?list=PLqZXAkvF1bPNQER9mLmDbntNfSpzdDIU5
#هوش_مصنوعی
🆔 @programmers_street
https://www.youtube.com/playlist?list=PLqZXAkvF1bPNQER9mLmDbntNfSpzdDIU5
#هوش_مصنوعی
🆔 @programmers_street
Turn documents, resources, or content into context for chats with LLMs
🔗 https://github.com/Mintplex-Labs/anything-llm
🆔 @programmers_street
🔗 https://github.com/Mintplex-Labs/anything-llm
🆔 @programmers_street
👍1
دوره رایگان یادگیری عمیق MIT 2025 برای مبتدیان
این دوره پروژ محو شامل مبانی شبکههای عصبی (Neural Networks)، CNNs، RNNs و LLMs است
https://introtodeeplearning.com/
#یادگیری_ماشین #یادگیری_عمیق
🆔 @programmers_street
این دوره پروژ محو شامل مبانی شبکههای عصبی (Neural Networks)، CNNs، RNNs و LLMs است
https://introtodeeplearning.com/
#یادگیری_ماشین #یادگیری_عمیق
🆔 @programmers_street
FREE Statistics Courses
https://www.mltut.com/best-free-online-courses-for-statistics/
🆔 @programmers_street
https://www.mltut.com/best-free-online-courses-for-statistics/
🆔 @programmers_street
❤2
Animations and visualizations of machinelearning concepts using Manim
🔗https://github.com/helblazer811/ManimML
#هوش_مصنوعی #یادگیری_ماشین
🆔 @programmers_street
🔗https://github.com/helblazer811/ManimML
#هوش_مصنوعی #یادگیری_ماشین
🆔 @programmers_street
Free AI Agents Crash Course. Link in comment.
🔗 https://www.youtube.com/watch?v=VkryCO8uNwc
#هوش_مصنوعی #یادگیری_ماشین
🆔 @programmers_street
🔗 https://www.youtube.com/watch?v=VkryCO8uNwc
#هوش_مصنوعی #یادگیری_ماشین
🆔 @programmers_street
❤1
10 free Python PDF ebooks :
Think Python
https://greenteapress.com/thinkpython2/thinkpython2.pdf
Python Data Science Handbook
https://github.com/terencetachiona/Python-Data-Science-Handbook/blob/master/Python%20Data%20Science%20Handbook%20-%20Jake%20VanderPlas.pdf
Elements of Data Science
https://allendowney.github.io/ElementsOfDataScience/
Open Data Structures
https://opendatastructures.org/ods-python.pdf
Cracking Codes with Python
https://inventwithpython.com/cracking/
Python beyond the Basics
https://inventwithpython.com/beyond/
The Big Book of Small Python Projects
https://inventwithpython.com/bigbookpython/
Automate the Boring Stuff with Python
https://automatetheboringstuff.com/
Python for Data Analysis
https://wesmckinney.com/book/
Think Bayes
https://allendowney.github.io/ThinkBayes2/
#پایتون #Python #علم_داده
🆔 @programmers_street
Think Python
https://greenteapress.com/thinkpython2/thinkpython2.pdf
Python Data Science Handbook
https://github.com/terencetachiona/Python-Data-Science-Handbook/blob/master/Python%20Data%20Science%20Handbook%20-%20Jake%20VanderPlas.pdf
Elements of Data Science
https://allendowney.github.io/ElementsOfDataScience/
Open Data Structures
https://opendatastructures.org/ods-python.pdf
Cracking Codes with Python
https://inventwithpython.com/cracking/
Python beyond the Basics
https://inventwithpython.com/beyond/
The Big Book of Small Python Projects
https://inventwithpython.com/bigbookpython/
Automate the Boring Stuff with Python
https://automatetheboringstuff.com/
Python for Data Analysis
https://wesmckinney.com/book/
Think Bayes
https://allendowney.github.io/ThinkBayes2/
#پایتون #Python #علم_داده
🆔 @programmers_street
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
This GitHub repo is a gold mine for EVERY data scientist!
DS Interactive Python repo has interactive dashboards to learn statistics, ML models, and other DS concepts.
Topics include PCA, bagging & boosting, clustering, neural networks, etc.
Fully open-source and free!
https://github.com/GeostatsGuy/DataScienceInteractivePython
#پایتون #Python #علم_داده
🆔 @programmers_street
DS Interactive Python repo has interactive dashboards to learn statistics, ML models, and other DS concepts.
Topics include PCA, bagging & boosting, clustering, neural networks, etc.
Fully open-source and free!
https://github.com/GeostatsGuy/DataScienceInteractivePython
#پایتون #Python #علم_داده
🆔 @programmers_street
❤1
تحقیقات نشان داده شده که تسلط بر جبر خطی و معادلات دیفرانسیل و انتگرال میتواند عملکرد مدلهای یادگیری ماشین را تا ۳۰٪ بهبود بخشد
این کتاب به بررسی عمیق پایه های ریاضی یادگیری ماشین می پردازد و منبع کاملی برای آموزش ریاضیات مخصوص یادگیری ماشین است
500-pages a wonderful book for practicing mathematics for ML
"Mathematics for both Data Science and Machine Learning."
A good book for understanding and practicing, mathematics for ML
https://people.smp.uq.edu.au/DirkKroese/DSML/DSML.pdf
#یادگیری_ماشین #علم_داده
🆔 @programmers_street
این کتاب به بررسی عمیق پایه های ریاضی یادگیری ماشین می پردازد و منبع کاملی برای آموزش ریاضیات مخصوص یادگیری ماشین است
500-pages a wonderful book for practicing mathematics for ML
"Mathematics for both Data Science and Machine Learning."
A good book for understanding and practicing, mathematics for ML
https://people.smp.uq.edu.au/DirkKroese/DSML/DSML.pdf
#یادگیری_ماشین #علم_داده
🆔 @programmers_street
❤5
یکی از دوستانم که اصلاً تو خط تکنولوژی نیست، ازم میپرسید ChatGPT چطوری کار میکنه. منم سعی کردم یه توضیح ساده و سریع بدم. گفتم اینجا هم بذارمش که بعداً به کار بقیه هم بیاد!
البته جزییات فنیش خیلی بیشتر از اینه، ولی این یه خلاصه TL;DR بود که امیدوارم به دردتون بخوره :))
How LLMs works ?
فرض کن میخوایم از صفر شروع کنیم. LLM در اصل یه جور سیستم خیلی پیشرفتهست که با متن (و گاهی چیزای دیگه) کار میکنه. اول کار، هر متنی که بهش میدیم رو به یه زبون عددی تبدیل میکنه که خودش بفهمه. به این کار میگن tokenization. یعنی متن رو به تکههای کوچیک (مثل کلمه یا بخشی از کلمه) تبدیل میکنه و به هر تکه یه شماره میده که بهش میگن token. مثلاً کلمه "سلام" ممکنه یه token بشه، یا یه کلمه پیچیدهتر مثل "ناباورانه" بشکنه به "نا" و "باورانه". این کار با الگوریتمهایی مثل Byte Pair Encoding (BPE) انجام میشه و یه دایره لغات درست میکنه که مثلاً تو GPT-4 حدود 100 هزار token داره. حالا متن ما به یه رشته عدد تبدیل شده که مدل میتونه باهاش کار کنه.
بعدش میرسیم به اصل ماجرا: LLMs از یه neural network به اسم Transformer استفاده میکنن. این شبکه یه سری عدد (همون tokenها) رو میگیره و حدس میزنه که بعدش چه tokenای باید بیاد. این حدس زدن بر اساس احتمالاتیه که مدل تو مرحله pre-training یاد گرفته. تو این مرحله، مدل رو با مقدار عظیمی داده (مثلاً 15 تریلیون token از اینترنت) تمرین میدن که بتونه الگوهای زبون رو بفهمه. کارش اینه که ببینه تو این دادهها، بعد از یه جمله یا یه کلمه، معمولاً چی میاد. اینجوری میلیاردها parameter (وزنهای داخل شبکه) رو تنظیم میکنه تا پیشبینیهاش دقیقتر بشه.
وقتی مدل آموزشش تموم شد، میتونی ازش استفاده کنی. به این کار میگن inference. یه متن اولیه (مثلاً یه سوال) بهش میدی، اون شروع میکنه به پیشبینی token بعدی، یه نمونه از احتمالات انتخاب میکنه، به متن اضافه میکنه و همینجوری ادامه میده. مثل یه سیستم autocomplete خیلی باهوشه که جملهبهجمله میسازه. چون انتخاب tokenها یه مقدار تصادفیه، هر بار که اجرا میکنی ممکنه جواب یه کم فرق کنه.
تا اینجا، این یه base modelه، یعنی فقط میتونه متنایی شبیه چیزایی که تو اینترنت دیده تولید کنه. ولی برای اینکه واقعاً بهدردبخور بشه (مثلاً جواب سوال بده)، باید یه مرحله دیگه بره که بهش میگن post-training. اینجا دو تا تکنیک اصلی داره:
اولی : Supervised Fine-Tuning (SFT) به مدل یاد میدن که چجوری مثل یه دستیار جواب بده، مثلاً با تمرین روی مکالمهها یا سوالوجوابها.
دومی : Reinforcement Learning (RL)مدل رو با پاداش دادن به جوابهای درست (مثلاً تو ریاضی یا کدزنی) بهتر میکنن تا بتونه استدلال کنه و مثلاً مسائل رو قدمبهقدم حل کنه.
تا اینجا، تقریبا کل داستان LLMs خلاصه گفتیم: متن رو به token تبدیل میکنه، با Transformer پیشبینی میکنه چی باید بیاد، و با post-training به بلوغ میرسه:))
مدلهای multimodalهم بدونی بد نیست . اینا همون LLMsن، ولی یه قدم جلوتر. اینجا دیگه فقط با متن کار نمیکنن، بلکه با چیزای دیگه مثل عکس، صدا یا حتی ویدئو هم کار میکنن. چجوری؟
مثل قبل، همهچیز با tokenization شروع میشه. ولی حالا فقط متن نیست. مثلاً یه عکس رو به تکههای کوچیک (مثل پچهای تصویر) تقسیم میکنن و بهشون token میدن. یا یه فایل صوتی رو به شکل موج صوتی (مثل spectrogram) درمیآرن و به token تبدیل میکنن.
بعدش، همون Transformer که برای متن بود، این tokenهای جدید رو هم میفهمه. فرقی نمیکنه که token از متن باشه، عکس باشه یا صدا مدل فقط یه رشته token میبینه و پیشبینی میکنه که بعدش چی باید بیاد.
تو مرحله آموزش، مدل رو با دادههای مخلوط (مثلاً متن + عکس) تمرین میدن که بتونه ارتباط بین اینا رو بفهمه. مثلاً یاد میگیره که یه عکس رو توصیف کنه یا از یه صدا متن بسازه.
در کل مدلهای multimodal همون سیستم LLMن، ولی گسترش پیدا کردن که همهچیز رو به شکل token ببینن و بتونن بین نوعای مختلف داده (مثل متن و تصویر) ارتباط برقرار کنن.
اگر دوست داشتید عمیق تر راجب این موضوع مطالعه داشته باشید این ویدئو از آقای Andrej Karpathy رو پیشنهاد میکنم :
https://youtu.be/7xTGNNLPyMI?list=TLGGF2qs5wlgDR4zMDA0MjAyNQ
خیلی خوب و کامل توضیح دادن .
منبع
#LLM #AI #Machine_Learning
#یادگیری_ماشین #هوش_مصنوعی
🆔 @programmers_street
البته جزییات فنیش خیلی بیشتر از اینه، ولی این یه خلاصه TL;DR بود که امیدوارم به دردتون بخوره :))
How LLMs works ?
فرض کن میخوایم از صفر شروع کنیم. LLM در اصل یه جور سیستم خیلی پیشرفتهست که با متن (و گاهی چیزای دیگه) کار میکنه. اول کار، هر متنی که بهش میدیم رو به یه زبون عددی تبدیل میکنه که خودش بفهمه. به این کار میگن tokenization. یعنی متن رو به تکههای کوچیک (مثل کلمه یا بخشی از کلمه) تبدیل میکنه و به هر تکه یه شماره میده که بهش میگن token. مثلاً کلمه "سلام" ممکنه یه token بشه، یا یه کلمه پیچیدهتر مثل "ناباورانه" بشکنه به "نا" و "باورانه". این کار با الگوریتمهایی مثل Byte Pair Encoding (BPE) انجام میشه و یه دایره لغات درست میکنه که مثلاً تو GPT-4 حدود 100 هزار token داره. حالا متن ما به یه رشته عدد تبدیل شده که مدل میتونه باهاش کار کنه.
بعدش میرسیم به اصل ماجرا: LLMs از یه neural network به اسم Transformer استفاده میکنن. این شبکه یه سری عدد (همون tokenها) رو میگیره و حدس میزنه که بعدش چه tokenای باید بیاد. این حدس زدن بر اساس احتمالاتیه که مدل تو مرحله pre-training یاد گرفته. تو این مرحله، مدل رو با مقدار عظیمی داده (مثلاً 15 تریلیون token از اینترنت) تمرین میدن که بتونه الگوهای زبون رو بفهمه. کارش اینه که ببینه تو این دادهها، بعد از یه جمله یا یه کلمه، معمولاً چی میاد. اینجوری میلیاردها parameter (وزنهای داخل شبکه) رو تنظیم میکنه تا پیشبینیهاش دقیقتر بشه.
وقتی مدل آموزشش تموم شد، میتونی ازش استفاده کنی. به این کار میگن inference. یه متن اولیه (مثلاً یه سوال) بهش میدی، اون شروع میکنه به پیشبینی token بعدی، یه نمونه از احتمالات انتخاب میکنه، به متن اضافه میکنه و همینجوری ادامه میده. مثل یه سیستم autocomplete خیلی باهوشه که جملهبهجمله میسازه. چون انتخاب tokenها یه مقدار تصادفیه، هر بار که اجرا میکنی ممکنه جواب یه کم فرق کنه.
تا اینجا، این یه base modelه، یعنی فقط میتونه متنایی شبیه چیزایی که تو اینترنت دیده تولید کنه. ولی برای اینکه واقعاً بهدردبخور بشه (مثلاً جواب سوال بده)، باید یه مرحله دیگه بره که بهش میگن post-training. اینجا دو تا تکنیک اصلی داره:
اولی : Supervised Fine-Tuning (SFT) به مدل یاد میدن که چجوری مثل یه دستیار جواب بده، مثلاً با تمرین روی مکالمهها یا سوالوجوابها.
دومی : Reinforcement Learning (RL)مدل رو با پاداش دادن به جوابهای درست (مثلاً تو ریاضی یا کدزنی) بهتر میکنن تا بتونه استدلال کنه و مثلاً مسائل رو قدمبهقدم حل کنه.
تا اینجا، تقریبا کل داستان LLMs خلاصه گفتیم: متن رو به token تبدیل میکنه، با Transformer پیشبینی میکنه چی باید بیاد، و با post-training به بلوغ میرسه:))
مدلهای multimodalهم بدونی بد نیست . اینا همون LLMsن، ولی یه قدم جلوتر. اینجا دیگه فقط با متن کار نمیکنن، بلکه با چیزای دیگه مثل عکس، صدا یا حتی ویدئو هم کار میکنن. چجوری؟
مثل قبل، همهچیز با tokenization شروع میشه. ولی حالا فقط متن نیست. مثلاً یه عکس رو به تکههای کوچیک (مثل پچهای تصویر) تقسیم میکنن و بهشون token میدن. یا یه فایل صوتی رو به شکل موج صوتی (مثل spectrogram) درمیآرن و به token تبدیل میکنن.
بعدش، همون Transformer که برای متن بود، این tokenهای جدید رو هم میفهمه. فرقی نمیکنه که token از متن باشه، عکس باشه یا صدا مدل فقط یه رشته token میبینه و پیشبینی میکنه که بعدش چی باید بیاد.
تو مرحله آموزش، مدل رو با دادههای مخلوط (مثلاً متن + عکس) تمرین میدن که بتونه ارتباط بین اینا رو بفهمه. مثلاً یاد میگیره که یه عکس رو توصیف کنه یا از یه صدا متن بسازه.
در کل مدلهای multimodal همون سیستم LLMن، ولی گسترش پیدا کردن که همهچیز رو به شکل token ببینن و بتونن بین نوعای مختلف داده (مثل متن و تصویر) ارتباط برقرار کنن.
اگر دوست داشتید عمیق تر راجب این موضوع مطالعه داشته باشید این ویدئو از آقای Andrej Karpathy رو پیشنهاد میکنم :
https://youtu.be/7xTGNNLPyMI?list=TLGGF2qs5wlgDR4zMDA0MjAyNQ
خیلی خوب و کامل توضیح دادن .
منبع
#LLM #AI #Machine_Learning
#یادگیری_ماشین #هوش_مصنوعی
🆔 @programmers_street
YouTube
Deep Dive into LLMs like ChatGPT
This is a general audience deep dive into the Large Language Model (LLM) AI technology that powers ChatGPT and related products. It is covers the full training stack of how the models are developed, along with mental models of how to think about their "psychology"…
❤5👍2