Dev Perfects
40 subscribers
9.23K photos
1.26K videos
468 files
13K links
بخوام خیلی خلاصه بگم
این کانال میاد مطالب کانالای خفن تو حوزه تکنولوژی و برنامه نویسی رو جمع میکنه

پست پین رو بخونید
https://t.iss.one/dev_perfects/455


ارتباط:
https://t.iss.one/HidenChat_Bot?start=936082426
Download Telegram
Forwarded from a pessimistic researcher (Kc)
آقا یه پیشنهادی دارم که مطمئنم دست رد به سینه‌اش نمی‌زنید.
هر ایرانی، هر کجای این گیتی زندگی میکنه، یک قدم به اثبات P!=NP و دو قدم به اثبات P=NP نزدیک تر بشه، در ازاش سه قدم از مقاله ساختن با کتک زدن LLM فاصله بگیره.
Forwarded from a pessimistic researcher (Kc)
پسر جدی کاش از این جلوتر نمیرفتیم
Forwarded from a pessimistic researcher (Kc)
تو مقاله بعدی تعارف شابدوالعظیمی یاد LLM بدید و Ultra AGI رو خلق کنید
Forwarded from a pessimistic researcher (Kc)
آقا اینو آپدیت کردم :)
به چه دلیلی نمیدونم، ولی #اینترنت از دیروز #اختلال داره ...

🔍 ircf.space
@ircfspace
Forwarded from Reza Jafari
نگاهی به مقاله جدید ماکروسافت، آیا in-context learning واقعا یادگیریه؟

برای شروع، ساده بگم که in-context learning یا همون ICL چیه. وقتی یک مدل زبانی بزرگ (LLM) بدون تغییر در وزن‌ها یا حافظه‌ی بلندمدتش، فقط از روی مثال‌هایی که داخل prompt دریافت می‌کنه الگو می‌گیره و پاسخ تولید می‌کنه، در واقع داره ICL انجام می‌ده. یعنی مدل همون لحظه با ترکیب مثال‌های ارائه‌شده و دانشی که از قبل داره، تصمیم می‌گیره چه جوابی بده.

مایکروسافت در یک پژوهش گسترده (بیش از ۱.۸ میلیون پیش‌بینی روی ۴ مدل و ۹ تسک مختلف) این پرسش رو بررسی کرده که آیا ICL واقعاً نوعی «یادگیری» محسوب می‌شه یا فقط تکرار طوطی‌وار. نتیجه اینه که از نظر ریاضی، ICL یادگیری حساب می‌شه؛ اما نوعی یادگیری شکننده است که بیشتر به الگوهای سطحی موجود در prompt وابسته است تا درک عمیق ساختار مسئله.

نتایج مطالعه نشون می‌ده تعداد مثال‌ها نقش کلیدی داره. برخلاف تصور رایج در few-shot learning که چند نمونه کافی به نظر می‌رسه، بهترین عملکرد زمانی حاصل می‌شه که حدود ۵۰ تا ۱۰۰ مثال در prompt وجود داشته باشه. به بیان ساده، ICL برای بهبود پایدار به داده‌ی بیشتری نیاز داره.

یکی از یافته‌های جالب این بود که اهمیت دستور نوشتن prompt در طول زمان کاهش پیدا می‌کنه. حتی اگر دستورها با متن بی‌معنی (word salad) جایگزین بشن، در نهایت دقت مدل‌ها به سطح اصلی برمی‌گرده، البته به شرطی که مثال‌ها تغییر نکرده باشن. اما اگر خود مثال‌ها به‌هم ریخته بشن (salad-of-thought)، عملکرد مدل‌ها به شدت افت می‌کنه.

با این حال، ICL در مواجهه با داده‌های خارج از توزیع (out-of-distribution) ضعف جدی داره. زمانی که داده‌ی تست با داده‌های موجود در prompt تفاوت زیادی داشته باشه، دقت مدل‌ها به طور محسوسی کاهش پیدا می‌کنه. روش‌هایی مثل chain-of-thought و automated prompt optimisation در این شرایط آسیب‌پذیری بیشتری نشون می‌دن.

همچنین همه‌ی تسک‌ها به یک اندازه ساده یا دشوار نیستن. برخی مسائل مثل pattern matching تقریباً حل‌شده تلقی می‌شن، در حالی‌که کارهایی مانند string reversal یا برخی محاسبات ریاضی همچنان برای مدل‌ها دشوار باقی موندن. حتی وظایف مشابه می‌تونن تا ۳۱٪ اختلاف دقت داشته باشن. جالب اینکه در نیمی از وظایف آزمایش‌شده، الگوریتم‌های سنتی مثل decision tree یا kNN عملکرد بهتری نسبت به ICL داشتن.

پیامی که این تحقیق برای توسعه‌دهنده‌های هوش مصنوعی داره روشنه: روی few-shot ICL برای وظایف پیچیده حساب باز نکنید، مدل‌تون رو حتماً در قالب‌های مختلف prompt و روی داده‌های متنوع آزمایش کنید، انتظار شکنندگی در شرایط جدید رو داشته باشید و فراموش نکنید که در برخی موارد، استفاده از مدل‌های کلاسیک می‌تونه نتیجه‌ی بهتری بده.

🔤🔤🔤🔤🔤🔤🔤

🥇 اهورا اولین اپراتور هوش مصنوعی راهبردی ایران در حوزه ارائه خدمات و سرویس‌های زیرساخت هوش مصنوعی

🌐 لینک ارتباط با اهورا

@reza_jafari_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from یه شعر (Poem Bot)
حافظ | غزلیات | غزل شمارهٔ ۳۴

رواق منظر چشم من آشیانه توست
کرم نما و فرود آ که خانه خانه توست
به لطف خال و خط از عارفان ربودی دل
لطیفه های عجب زیر دام و دانه توست
دلت به وصل گل ای بلبل صبا خوش باد
که در چمن همه گلبانگ عاشقانه توست
علاج ضعف دل ما به لب حوالت کن
که این مفرح یاقوت در خزانه توست
به تن مقصرم از دولت ملازمتت
ولی خلاصه جان خاک آستانه توست
من آن نیم که دهم نقد دل به هر شوخی
در خزانه به مهر تو و نشانه توست
تو خود چه لعبتی ای شهسوار شیرین کار
که توسنی چو فلک رام تازیانه توست
چه جای من که بلغزد سپهر شعبده باز
از این حیل که در انبانه بهانه توست
سرود مجلست اکنون فلک به رقص آرد
که شعر حافظ شیرین سخن ترانه توست

#حافظ | گنجور
📍@iipoem
Forwarded from Gopher Academy
🔵 عنوان مقاله
Memory Allocation in Go

🟢 خلاصه مقاله:
مدیریت و تخصیص کارای حافظه، پایه‌ی عملکرد و پایداری برنامه‌های Go است. این مقاله با مجموعه‌ای از نمودارهای روشن، پشت‌پرده‌ی تخصیص حافظه در Go را شرح می‌دهد: از نحوه‌ی درخواست حافظه از سیستم‌عامل و سازمان‌دهی آن در runtime تا تعامل آن با garbage collector و تأثیر الگوهای تخصیص بر فشار GC، تأخیر و کارایی. هدف مقاله ایجاد یک مدل ذهنی عملی است تا—even با تکیه بر پیش‌فرض‌های منطقی Go—بتوانید بهتر پروفایل‌ها را بخوانید، درباره‌ی تأخیر نتیجه‌گیری کنید و از تله‌های رایج عملکردی دور بمانید.

#Go #Golang #MemoryManagement #GarbageCollection #Performance #GoRuntime #SystemsProgramming

🟣لینک مقاله:
https://golangweekly.com/link/174413/web


👑 @gopher_academy
در آپدیت جدید از #فیلترشکن متن‌باز و رایگان #ProxyCloud برای اندروید، امکان پشتیبانی از کانفیگ‌های Trojan فراهم شده.
همچنین در این‌نسخه آدرس جدید برای سرور کانفیگ جایگزین شده، تنظیمات مزاحم باتری در اجرای اولیه برنامه حذف شده، سرعت برنامه بهبود داده شده و ...

👉 github.com/code3-dev/ProxyCloud/releases/latest

🔍 ircf.space/software
@ircfspace
Forwarded from a pessimistic researcher (Kc)
یه آفر دیگه،
هر ایرانی در هر تایم زونی، یک قدم به تفسیر فلسفی کارای گودل نزدیک بشه، و دو قدم از AGI نامیدن هر لاطائلاتی فاصله بگیره.
استفاده از LLM با APIهای رایگان openrouter

برید اینجا و مدل‌هایی که به صورت رایگان در دسترس هستن لیست شدن:
https://openrouter.ai/models?max_price=0

روی هر مدلی که خواستید کلیک کنید، اگر provider داشت می‌تونید بدون مشکل ازش استفاده کنید.

@DevTwitter | <Ali Moameri/>
Forwarded from Gopher Academy
🔵 عنوان مقاله
Google Gen AI Go SDK v1.25.0

🟢 خلاصه مقاله: ا
اSDK جدید Google Gen AI Go SDK v1.25.0 یک کتابخانه آماده‌ٔ تولید است که ادغام مدل‌های مولد Google مثل Gemini را از طریق Gemini API و Vertex AI در برنامه‌های نوشته‌شده با Go آسان می‌کند. این SDK احراز هویت با API key یا Google Cloud credentials، انتخاب مدل، مدیریت prompt و پاسخ، استریم خروجی، تنظیمات ایمنی و دستورالعمل‌های سیستمی را ساده می‌سازد و با الگوهای رایج Go مثل context.Context سازگار است. برای ساخت دستیارهای گفتگو، تولید محتوا و کد، خلاصه‌سازی و پرسش‌وپاسخ روی اسناد کاربرد دارد. نسخه v1.25.0 بهبودهای پایداری و کارایی و تجربهٔ توسعه‌دهنده را ارائه می‌دهد و با نسخه‌های جدید Gemini و کاتالوگ Vertex AI همسو شده است؛ برای جزئیات، مراجعه به release notes توصیه می‌شود.

#Go #Golang #GenerativeAI #Google #Gemini #VertexAI #SDK #AIIntegration

🟣لینک مقاله:
https://golangweekly.com/link/174429/web


👑 @gopher_academy
Forwarded from Linuxor ?
دیپ‌سیک تونسته مشکل حل مسائل استدلالی رو برطرف کنه!

توی مقاله چند روز پیشش توضیح داده که به‌جای آموزش سنتی با مثال‌های انسانی، مدل رو مثل یک بازی ویدیویی آموزش داده: فقط وقتی پاداش می‌گرفت که جواب نهایی درست بود. همین باعث شد مدل خودش یاد بگیره استراتژی‌های بهتر پیدا کنه، جواب‌های طولانی‌تر و منطقی‌تر بنویسه و حتی وسط حل مسئله مکث کنه و دوباره بررسی کنه.

نسخه‌ی اول (R1-Zero) فقط با آزمون‌وخطا آموزش دید و رفتارهای غیرمنتظره مثل خوداندیشی از خودش نشون داد. نسخه‌ی بعدی (R1) مشکلات زبانی و خوانایی رو رفع کرد و نوشتن طبیعی‌تر شد. نتیجه این شد که توی ریاضی، کدنویسی و آزمون‌های علمی حتی از انسان‌ها و مدل‌های قبلی بهتر عمل کرد. البته هنوز محدودیت‌هایی مثل زیادی فکر کردن یا قاطی کردن زبان‌ها داره، اما نشون داده که هوش مصنوعی می‌تونه بدون آموزش انسانی، فقط با پاداش گرفتن برای جواب درست، استدلال رو خودش یاد بگیره.


@Linuxor
Forwarded from Python BackendHub (Mani)
تو بحث کردن دو روش داریم:
Strawman: یعنی ضعیف‌ترین و دم‌دستی‌ترین برداشت از حرف طرف مقابل رو می‌گیری و همونو می‌کوبی.
Steelman: یعنی قوی‌ترین و منطقی‌ترین نسخه از حرف طرف مقابل رو تصور می‌کنی و بعد اونو نقد می‌کنی.

تو بحث‌های تکنیکال و تو حوزه خودمون، حداقل steelman باشید. یعنی قبل از اینکه یه ایده رو بکوبید، سعی کنید بهترین حالت ممکنش رو در بیارید و بعد نقد کنید. ولی می‌بینم یک عده اخیرا کلا دلیلی نمیارن؛ ایده رو از بیسیک می‌زنن و میگن «کلا خوب نیست» بدون حتی یه خط استدلال! جملشون هم انگلیسی مینویسن که مثلا جذبه بیشتری داشته باشه :)) اینطوری نه بحث جلو میره، نه کسی چیزی یاد می‌گیره. اگه می‌خواید نقد کنید، اول قوی‌ترین نسخه‌ی ایده رو بسازید، بعد برید سراغ نقد.

@PyBackendHub
Forwarded from محتوای آزاد سهراب (Sohrab)
خب آموزش گنو/لینوکس رو دوباره از سر گرفتم، این دفعه از صفر شروع کردیم و مستقیماً با خود پارچ آموزش دادن رو شروع کردم.


در آینده به سراغ مسائل دیگه‌ای از قبیل دستورات، مدیریت سرویس‌ها، مدیریت توزیع و .... خواهیم رفت.


تماشا از یوتوب


تماشا از پیرتوب


تماشا از آپارات


@SohrabContents
Forwarded from Python BackendHub (Mani)
یک سوال رو میخوام مطرح کنم , شما یک فانکشن parent دارید. داخل این فانکشن شما باید یوزر رو بگیرید (`getUser`) و بعد سه تا فانکشن inner1 و inner2 و inner3 رو صدا بزنید و یوزر رو بهشون بدید تا یک پردازشی تو دیتابیس انجام بده.
فانکشن inner1 و inner2 یوزر آیدی میگیرن و نیاز دارن یوزر لاک باشه تو دیتابیس وگرنه ممکنه ریس کاندیشن بخوره. ولی فانکشن ۳ براش مهم نیست چون پردازشی که میکنه ریس کاندیشن نمیخوره.

سوالی که پیش میاد اینه که شما چطور توابعتون رو طراحی میکنید که این مشکل به وجود نیاد؟ کدتون احتمالا این شکلیه.


def parent():
user = get_user(lock=True)
inner1(user)
inner2(user)
inner3(user)


همونطور که میبینید نحوه استفاده inner1 و inner2 کاپل شده به یوزر. من اگه حواسم نباشه lock=true رو نذارم کدم در برابر ریس کاندیشن سیف نیست. اگه یک نفر دیگه یک جای دیگه دوباره inner1 رو استفاده کنه و یادش بره یوزر رو لاک کنه بازم همین مشکلو داریم. درواقع یک استیت مشترک بین چند فانکشن داریم که فقط میشه چشمی دنبالش کرد... قبل اینکه پست بعدیو بخونید یکم بهش فکر کنید ببینید راه حلی داره این موضوع؟


@PyBackendHub
Forwarded from Python BackendHub (Mani)
برند تایپ یا همون New Type یعنی یه تایپ جدید بسازی رو همون تایپ قدیمی، بدون این که تو ران‌تایم هیچ خرجی داشته باشه. یه جورایی مثل اینه که سابکلس بسازی ولی واقعاً سابکلس نکردی.

فایده‌ش چیه؟ به تایپ‌چکر می‌فهمونی مثلا UserId با یه string فرق داره. تو ران‌تایم هردوش استرینگن ولی تو تایپ دیگه یکی نیستن.

تو مثال ما، یه UserId درست می‌کنیم، بعد یه برند جنریک به اسم Locked<T>. اگه تو getUser(true) صدا بزنیم خروجیش میشه Locked<UserId>. حالا توابعی که می‌خوان یوزر لاک شده باشه فقط همینو قبول می‌کنن. یعنی دولوپر مجبوره قبل استفاده یوزر رو لاک کنه، وگرنه تایپ‌چکر گیر میده و کدت دیپلوی نمیشه.

اگه اینو نداشتیم، باید تو هر تابع دوباره یوزر رو لاک می‌کردیم که هم تکراری میشه هم ران‌تایم گرون‌تر.

مزایا:
- جلوی خطا رو می‌گیره
- خودش یه جور داکیومنت زنده‌ست
- یه بار لاک می‌کنی، ران‌تایم سریع‌تره
- نگه داری کدتون رو راحت تر میکنه (maintainability)

ضررش؟ فقط دو سه خط تایپ بیشتر می‌نویسی، همین. که البته مقایسه کنی با کدی که باید بیشتر مینوشتی چون این تایپا رو نداشتی هیچ بود.

@PyBackendHub
اخیراً فرصتی شد که سراغ Goravel برم و کمی باهاش کار کنم.
فریموورک Goravel در واقع یک فریم‌ورک شبیه به Laravel اما برای زبان Go هست. چیزی که برام خیلی جالب بود اینه که دقیقا همون حس و حال لاراول رو منتقل می‌کنه؛ از ساختار پوشه‌ها گرفته تا ORM به سبک Eloquent، migrationها و حتی سیستم queue و job.
اگر قبلاً با Laravel کار کرده باشید، ورود به Goravel خیلی راحت میشه و می‌تونید سریع پروژه‌هاتون رو توی Go استارت بزنید. سرعت بالای Go هم در کنار معماری آشنا و تمیز لاراول باعث میشه تجربه جذابی باشه.
به نظرم برای کسایی که دنبال قدرت و سرعت Go هستن ولی در عین حال نمی‌خوان از دنیای راحتی و productivity لاراول جدا بشن، Goravel می‌تونه انتخاب خیلی خوبی باشه.
لینک پروژه:
https://goravel.dev

@DevTwitter | <ehsan moradi/>