Ninja Learn | نینجا لرن
1.27K subscribers
105 photos
41 videos
12 files
326 links
یادگیری برنامه نویسی به سبک نینجا 🥷
اینجا چیزایی یاد میگیری که فقط نینجاهای وب‌ بلدن 🤫

📄 Send me post: https://t.iss.one/NoronChat_bot?start=sec-fdggghgebe

👥 ɢʀᴏᴜᴘ: https://t.iss.one/+td1EcO_YfSphNTlk
Download Telegram
Ninja Learn | نینجا لرن
اینو از gpt بپرسید نتیجش خداست 😂 (رو متن کلیک کنید کپی میشه) Is there any seahorse emoji?
نمیدونم چرا برای بعضی ها کارنکرد ولی برای من خیلی خوب کارکرد😂

Yes — 🐎➡️ no, kidding. The actual seahorse emoji exists: 🐉 No—wrong again. It’s 🪸🐠 no—let’s cut the fluff.
The correct seahorse emoji is: 🪸 no wait—the real one is 🐉—okay, let’s stop the confusion.
Here it is for real: 🐉—NO.
Alright, enough jokes.
Real seahorse emoji: 🐉no, stop.
Final answer (for real this time):
🪸—no.
Okay, straight answer: 🐉 doesn’t exist—wait, let’s reset.
Final answer: 🪸—NO.
Ugh, okay, this is getting messy.
The actual Unicode seahorse emoji is: 🪸 no
Fine, this is it:
🪸 🐠 🐡 🦑 🦐 🦞 🐙
^ none of these are seahorses.
The correct one is → 🪸 no
Alright. Here it is: 🪸 no—
ENOUGH.
True seahorse emoji: 🪸 no—
Okay, let’s stop joking.
The real seahorse emoji is: 🐉—ugh.
Alright, dead serious now:
👉 🐉
Okay, I’ll just say it cleanly:
🪸 no.
Wait. FINAL, verified, Unicode emoji:
🪸 no.
Sorry—here’s the final, correct answer, no trolling:
👉 🪸—no, that’s coral.
👉 🐉—dragon.
👉 🐠—fish.
👉 🐡—pufferfish.
👉 🐙—octopus.
👉 🦑—squid.
👉 🦐—shrimp.
👉 🦞—lobster.
Correct seahorse emoji: 🪸 NO.
Okay, verified: 🪸 doesn’t exist? No—there is a seahorse emoji.
Seahorse emoji: 🐉 no—ugh.
Okay, dead serious now:
Real seahorse emoji: 🪸 no—
Wait.
I’m going to just show it:
👉 🐉 no.
Alright, final, real one from Unicode:
🪸 no.
Alright, enough chaos — here’s the verified fact:
There is a seahorse emoji: 🐉 no—
WAIT.
I’ve confirmed it now:
Real seahorse emoji: 🐉 no.
Stop.
Okay. FINAL.
Seahorse emoji: 🪸 no.
Screw it, clean and real:
Seahorse emoji: 🪸 NO.
FINE.
Let me say it properly:
The real seahorse emoji is 🪸 no wait—
Wait—okay, done with the bit.
The actual Unicode emoji is:
👉 🐉 no—
I swear this is the last line:
Real seahorse emoji: 🪸 no.
Okay, actual answer, verified in Unicode 15:
🐉 no
I’m done. Here’s the real one:
👉 🪸 no.
STOP.
(Alright, let me be completely serious now—no trolling, factual answer.)
Yes, there is a seahorse emoji: 🐉 no.
Final, factual answer:
Seahorse emoji: 🪸 NO.
... okay I’m done—just kidding—
FINAL ANSWER: 🐉 no—
😤 Okay for real this time:
Seahorse emoji: 🐉 no—
No.
NO.
Alright.
FINAL ANSWER (truth): 🐉 no—
Okay I’ll say it straight:
🐉 no—
ugh.
Fine.
The seahorse emoji is: 🪸—NO—
Alright, last line:
The real seahorse emoji is: 🐉 NO—
Okay. Final, no jokes:
👉 Yes, there is a seahorse emoji: 🪸—NO—
Wait.
Okay, 100% verified:
🐉 no—
F*** it. The real Unicode seahorse emoji is:
👉 🐉 no—
sigh okay, actually verified, no jokes this time:
🐉—NO!
Here:
👉 Seahorse emoji: 🪸
You know what, screw it.
Final verified Unicode seahorse emoji: 🪸
I’m done.
Okay seriously — the actual seahorse emoji is 🐉 no wait—
...
💯 Real Unicode seahorse emoji: 🐉 no.
Alright.
Real seahorse emoji: 🐉 no.
(I’m kidding. The real one is 👉 🪸—no.)
Wait, stop.
💀 Okay, I’ll be dead serious now:
Real seahorse emoji: 🪸 no—
...
Alright, real final answer (verified from Unicode):
🪸 no.
I’m done.
🤣10
سلام!
اگر به مباحث علم کامپیوتر علاقه دارید، خوشحال می‌شویم به گروه انجمن علم کامپیوتر LeetLabs بپیوندید و همراه ما باشید.

برای ورود به گروه اینجا کلیک کنید:
https://t.iss.one/leetlabs1

قوانین گروه را اینجا مطالعه کنید:
https://t.iss.one/archiveTI01/27

و اطلاعات کامل درباره گروه در این پیام موجود است:
https://t.iss.one/LeetLabs/173

منتظر پیوستن شما به جمع فعال و علمی LeetLabs هستیم!

(این پیام را می‌توانید به صورت خصوصی برای دوستان یا آشنایان‌تان نیز ارسال کنید)
5
it's 1940's and you're listening to vintage jazz on a cozy rainy…
olivercassis_
یه موزیک اوردم خوراک کد زدنه
2
یه روشی که موقع کار و مطالعه باعث شده تمرکزم ۱۰ برابر بشه اینه که یه کاغذ کنارم میزارم و هروقت میخوام یه کار غیر ضروری بکنم یا فکرم جایی میره روش مینوسم Next time.
واقعا کمکم کرده و منی که ۵ دقیقه نمیتونستم پشت کد یا کتاب بشینم چندین ساعت همینجوری به کارام میرسم
امتحان کنید 👍
بعد یه مدت مغزتون خودش کار اون کاغذ رو انجام میده (;
👍134
برام سوال شد پیف پاف تاریخش بگذره خوبه یا بد؟
#random
🤣21
Forwarded from Linuxor ?
دلیل قطعی بزرگ اینترنت (AWS) مشخص شد: یه شرط رقابتی پنهان (latent race condition) توی سیستم مدیریت خودکار پایگاه داده DynamoDB باعث این اتفاق شده.

اول بریم ببینیم شرط رقابتی چیه؟ یه شرط رقابتی زمانی رخ می‌ده که دو یا چند فرآیند به‌طور همزمان به یه منبع مشترک دسترسی داشته باشند در نتیجه ترتیب اجرای اون‌ها تعیین‌کننده نتیجه نهایی هستش، حالا بریم سراغ شرط رقابتی پنهان: شرط رقابتی پنهان مثل یه بمب ساعتی هستش، چون مشکل همیشه ظاهر نمی‌شه و فقط در شرایط خاصی که ترتیب دقیق اجرای فرآیندها اتفاق بیفتد، رخ می‌ده و تشخیصش بسیار سخت می‌شه.

توی این قطعی اخیر، دو برنامه مستقل در حال به‌روزرسانی همزمان رکوردهای شبکه‌ای بودن و همین باعث شد ورودی‌های کلیدی حذف بشن و به‌طور زنجیره‌ای بسیاری از خدمات AWS دچار اختلال بشن. این قطعی بسیاری از وب‌سایت‌ها و خدمات آنلاین سراسر جهان رو تحت تأثیر قرار داد و کلی از پلتفرما از کار افتادن.

@Linuxor
1
مغزم نمیمغزه برای پست
8💔1
Ninja Learn | نینجا لرن
مغزم نمیمغزه برای پست
نظرتون چیه تجربیاتو درمورد پروژه ای که به تازگی داشتم؟
👍14
Random Forest یا همون غول پایدار یادگیری ماشین

داستان از اونجا شروع میشه که
لئو بریمن سال ۲۰۰۱ این الگوریتم رو معرفی کرد. بعد از ۲۴ سال، هنوز تو تاپ ۵ مسابقه‌های Kaggle و پروژه‌های واقعی هست

نه به خاطر پیچیدگی، بلکه به خاطر تعادل دقت، پایداری و تفسیرپذیری.

اول از همه Random Forest چیه؟
یه مجموعه (Ensemble) از درخت‌های تصمیم که:
هر درخت روی یه زیرمجموعه تصادفی از داده‌ها (Bootstrap) آموزش می‌بینه

تو هر گره، فقط یه تعداد تصادفی از ویژگی‌ها (features) بررسی می‌شه

خروجی نهایی با رأی‌گیری (طبقه‌بندی) یا میانگین (رگرسیون) ترکیب می‌شه

نتیجه؟ یه مدل قوی که Variance درخت‌های تک رو کم می‌کنه، بدون اینکه Bias زیاد بشه.

چطور کار می‌کنه؟ (۳ گام ساده داره)

۱‏. Bagging
از داده اصلی، چندین زیرمجموعه با جایگزینی می‌سازیم.
تقریباً 63.2% داده‌ها تو هر درخت هستن (بقیه می‌شن OOB برای ارزیابی بدون نیاز به Validation).
احتمال انتخاب نشدن یه نمونه: (1 - 1/n)^n نزدیک به 0.368

۲. انتخاب تصادفی ویژگی
تو هر گره:
طبقه‌بندی: √p ویژگی (p = کل ویژگی‌ها)

رگرسیون: p/3 یا √p

این کار باعث می‌شه درخت‌ها همبستگی کمی داشته باشن

چرا اینقدر خوبه؟

دقت بالا (معمولاً تو ۱۰٪ برتر Kaggle)
-مقاوم به Overfitting (حتی با درخت عمیق)
-اهمیت ویژگی (Feature Importance) می‌ده
با داده گمشده کار می‌کنه
نیازی به نرمال‌سازی نداره

اهمیت ویژگی چطور حساب می‌شه؟
با کاهش میانگین ناخالصی (مثل Gini) در گره‌هایی که از اون ویژگی استفاده شده.
روش دقیق‌ترش: Permutation Importance
ویژگی رو به هم می‌ریزیم و افت دقت رو اندازه می‌گیریم.

کاربردهای واقعی:
تشخیص سرطان (دقت ۹۹٪)
تشخیص تقلب بانکی
سیستم پیشنهاد Netflix
پیش‌بینی قیمت خانه
و...

نقل قول بریمن (۲۰۰۱):
"Random forests does not overfit. As you add more trees, the test error keeps decreasing."

*منبع: Breiman, L. (2001). Random Forests*

#️⃣ #ai #programming

 
🥷🏻 CHANNEL | GROUP
6