Dev Perfects
40 subscribers
9.23K photos
1.26K videos
468 files
13K links
بخوام خیلی خلاصه بگم
این کانال میاد مطالب کانالای خفن تو حوزه تکنولوژی و برنامه نویسی رو جمع میکنه

پست پین رو بخونید
https://t.iss.one/dev_perfects/455


ارتباط:
https://t.iss.one/HidenChat_Bot?start=936082426
Download Telegram
برای وب‌اپ روی موبایل یه pdf viewer ساختیم که سبک و بهینه‌ست . برای نمایش فایل‌های pdf روی گوشی طراحی شده و بهتون امکان زوم و دارک مود هم برای مطالعه راحتتر میده url رو هم داینامیک از urlbar میخونه و میتونید همه جا ازش استفاده کنید

به طور کامل با pdf.js پیاده‌سازی شده و صفحه‌ی فعلی و صفحات مجاور رو رندر میکنه و برای استفاده روی موبایل میتونه گزینه‌ی خوبی باشه

https://github.com/ERFouX/PDFouX-Viewer

@DevTwitter | <ERFouX/>
Forwarded from Codino School (ایمان غفوری)
Media is too big
VIEW IN TELEGRAM
ترفند تست‌نویسی (برای دستور check:fqcn در میکروسکوپ)

البته فراموش کردم بگم که ما فقط به phpunit نیاز داشتیم و از توابع کمکی تست فریم ورک استفاده‌ای نکردیم.

@codino
یه نکته‌ی خیلی جالب درباره‌ی مدل‌های هوش مصنوعی مخصوصا اونایی که تصویر تولید می‌کنن (مثل Stable Diffusion یا MidJourney) اینه که تقریباً همیشه توی یه چیز گیر می‌کنن:

فرضا بهشون بگید:

عکس یه آدمی رو بکش که با دست چپش داره می‌نویسه.


حدس می‌زنید نتیجه چیه؟!
۹۹٪ مواقع طرف رو در حال نوشتن با دست راست می‌کشه!‌ 😅😐

دلیلش هم خیلی سخت نیست:
🔹 تو دنیا فقط حدود ۱۰٪ آدم‌ها چپ‌دستن. پس دیتایی که این مدل‌ها باهاش آموزش دیدن، پر از عکس و تصویر آدم‌های راست‌دست بوده.
🔹 توی متادیتا یا توضیحات اون تصاویر هم هیچ‌وقت نوشته نشده «این آدم راست‌دسته». پس مدل یاد گرفته «نوشتن = راست دست».

یعنی وقتی شما می‌گی "left hand writing"، مدل مفهوم "چپ" رو می‌فهمه، "نوشتن" رو هم می‌فهمه، ولی باز همون الگوی غالب رو اجرا می‌کنه: نوشتن با دست راست.

این یه نمونه‌ی واضح از بایاس داده‌ها توی هوش مصنوعیه. چیزی که توی جامعه وجود داره (۹۰٪ راست‌دست)، وقتی میاد توی دیتای آموزش، تبدیل می‌شه به یه عادت سخت توی مدل.

پس همیشه مدل مقصر نیست. دیتا نداشته بنده خدا :)))

@code2_ir

کانال کد۲ رو دنبال کنید
Forwarded from NetSentinel24Support
🌐 ربات NetSentinel24 اینجاست تا خیالت راحت باشه! 😎

از سرورها و سایت‌هاتون 24/7 مراقبت می‌کنیم
اگه قطعی پیش بیاد فوراً بهت خبر میدیم 🚨

📡 قابلیت‌ها:
• مانیتورینگ با ICMP | HTTP | TCP | SSL
• هشدار فوری ⚡️
• پشتیبانی از چندین سایت و سرور 📊
• گزارش لحظه‌ای 📈

🤖 شروع کن با ربات: @NetSentinel24Bot
📌 کانال: @NetSentinel24
🤝 پشتیبانی: @NetSentinel24Support

🔥 حرفه‌ای‌ها همیشه یه نگهبان دارن!
Forwarded from Linuxor ?
This media is not supported in your browser
VIEW IN TELEGRAM
وقتی یه C کار یه پایتونی می‌بینه.


@Linuxor
Forwarded from a pessimistic researcher (Kc)
روزای خوبی برای استقلالی بودن نیست :(
بالاخره پروژه مدیریت فروشگاهی که با WPF توسعه دادم، به یک نقطه قابل قبول رسید!
این اپلیکیشن دسکتاپ با هدف پیاده‌سازی یک معماری تمیز و اصولی با NET. و الگوهایی مثل MVVM ساخته شده. فکر می‌کنم می‌تونه یک مثال خوب و کاربردی برای علاقه‌مندان به WPF باشه.
پروژه کاملاً متن‌باز هست و خوشحال میشم شما هم نگاهی بهش بندازید.

https://github.com/aht9/StoreManagement

@DevTwitter | <Amir Hossein/>
Forwarded from Linuxor ?
This media is not supported in your browser
VIEW IN TELEGRAM
ویدیو رو ببینید، Flowise یه پلتفرم اوپن‌سورس برای طراحی و اجرای جریان‌های هوش مصنوعی به صورت بصریه. باهاش می‌تونین بدون نوشتن کد زیاد، نودهای مختلف مانند ورودی کاربر، پردازش متن با مدل‌های زبانی، مسیریابی شرطی و ذخیره‌سازی داده‌ها رو کنار هم چید و یه عامل (agent) هوشمند ساخت. Flowise شامل رابط کاربری گرافیکی، بخش بک‌اند برای منطق و API، و قابلیت اضافه کردن نودهای سفارشیه و می‌تونه روی سرور خودتون به صورت self-hosted اجرا بشه.

نصب و مستندات :
flowiseai.com

@Linuxor
Forwarded from Ninja Learn | نینجا لرن (Mohammad)
خدا بخیر کنه 🫡
ی پِیست بین درست کردم که کاملا serverless عه، روی edge ران میشه و برای ذخیره سازی داده هم از s3 استفاده شده. به زودی آپدیت های جدید هم براش میاد!

اگه میخواید تستش کنید:
https://edgepaste.amirparsab9.arvanedge.ir/app

اگه میخواید کدشو ببینید/کانتریبیوت کنید:

@DevTwitter | <Amirparsa Baghdadi/>
Forwarded from a pessimistic researcher (Kc)
آقا یه پسره هست این تقریبا دکتری‌شو با من شروع کرده. توی CMU هم درس میخونه. این همزمان با من کارش رو روی Concurrent Testing شروع کرد. یه پروژه همزمان با من شروع کرد به اسم Fray. منم از اول دکتری یه ابزار مشابهی دارم می‌سازم به اسم JMC. ابزار اونا یعنی Fray فقط میتونه Random Testing انجام بده. تازه Runtime ای هم که نوشتن برای سینک کردن تردها و زمان‌بندی شون از wait و notify استفاده میکنه که کلی سربار و باگ داره. ابزار ما یعنی JMC علاوه بر Random Testing فقط ۳ تا الگوریتم مدل چکینگ داره که هر ۳ مبتنی بر DPOR اند ( به قدری درک این مدل الگوریتم‌ها سخته که خودم ۶ ماه طول کشید تا فقط بفهمم DPOR چیه). تازه از این ۳ تا الگوریتم یکیش رو خودمون توسعه دادیم از صفر و اون دوتای دیگه رو هم ارتقاع دادیم. Runtime ما به جای wait و notify از future و yield استفاده میکنه که سربار مموری نداره و باگ فری هم هستش. اگر برید توی بخش Contribution هر دو پروژه متوجه میشید که تعداد LOC ای که ما push کردیم حداقل ۲ برابر اونا بوده. همه اینا رو گفتم، تازه ابزار ما میتونه برنامه‌های جاوا تو ستینگ distirbuted systems رو هم تست و وریفای کنه که fray نمیتونه.

با همه‌ی این تفاسیر سوالی که خیلی آزارم میده اینه که چطوری اونا توسنتن این همه attention رو جلب کنند به خودشون؟ ۲۸۴ تا star داره پروژه‌شون برای ما ۲۴ تا که نصفش دوستامن. ۹ تا فورک داره پروژه‌شون مال ما رو سگ هم نگاه نکرده. تازه issues هم ملت رفتن باز کردن براشون. من حسود پلاستیکی نیستم اما خدایی کجای کار رو اشتباه کردیم که کار ما دیده نمیشه؟ اینم بگم که تقریبا اولین مقاله‌ی هر دومون همزمان چاپ شده، با این تفاسیر که من مقاله‌ام رو رفتم ارائه هم دادم، اما کنفرانس اونا هنوز برگزار هم نشده...

جدی این همه جون میکنه آدم و این همه سختی میکشه تهش هم وضع میشه این. اصلا نمیخوام :(
Forwarded from Geek Alerts
گوگل DeepMind و OpenAI هر دو اعلام کردن که مدل‌هاشون در فینال مسابقات جهانی ICPC امسال،‌ به مدال طلا دست پیدا کردن.

اول از همه اینکه ICPC یکی از معتبرترین و مشهورترین مسابقات برنامه‌نویسی الگوریتمی دانشگاهی دنیاست، سوالات بسیار پیچیده‌ای داره و هرساله تیم‌های مختلف از برترین دانشگاه‌های دنیا در اون شرکت می‌کنن و به مدال‌های مختلف می‌رسن. حالا امسال تیم‌های دیپ‌مایند و OpenAI به طور رسمی در این مسابقات شرکت کردن و تونستن به مدال طلا برسن، نکته مهم اینه که قوانین شرکت برای مدل‌ها دقیقا مشابه انسان‌ها بوده و در محدودیت زمانی ۵ ساعته به سوالات پاسخ دادن.

اپن‌ای‌آی نوشته که از "سیستم استدلال"شون استفاده کردن و مدل رو ذکر نکردن ولی گفتن که روی سوالات آموزش دیده نشده بوده و یک سیستم جنرال سوالات رو حل کرده و همزمان این سوالات رو به GPT-5 هم دادن و از ۱۲ سوال تونسته ۱۱ سوال رو حل کنه، اما سیستم آزمایشی‌شون تونسته ۱۲ سوال رو کامل و امتیاز ۱۱ تا از این سوالات رو فقط با یک بار ارسال جواب دریافت کرده و خب بین تیم‌های دانشگاهی می‌تونست اون رو در رتبه اول قرار بده. [L]

تیم دیپ‌مایند گوگل هم در وبلاگ‌شون نوشتن که از یک نسخه پیشرفته Deep Think استفاده کردن و تونسته ۱۰ مسئله رو حل کنه، ۴۵ دقیقه برای حل ۸ سوال و دو مسئله دیگر رو در سه ساعت حل کرده و درنهایت اگر محدودیت زمانی آزمون رو ۱۱ ساعت در نظر بگیریم، تونسته به مقام دوم بین تیم‌های دانشگاهی برسه. طبق نموداری که نشون دادن این مدل فقط تونسته دو سوال رو با یک بار ارسال جواب حل کنه. راه‌‌ حل‌های سوالات رو در این لینک می‌تونید ببینید. [L]

hadi @geekalerts
Forwarded from Geek Alerts
Forwarded from a pessimistic researcher (Kc)
تازه یه چیزی رو اشتباه گفتم...

پسره سال آخر دکتری‌ست و ۳ سال قبل من دکتری‌اش رو شروع کرده :(
Forwarded from Golden Code (@lix)
یکی از دغدغه‌های مهم در طراحی API اینه که اطلاعات اضافی نفرستیم.

چون:

حجم ریسپانس ها زیاد میشه و حجم منابع سرور افزایش پیدا میکنه و...

لاراول یه راهکار خیلی تمیز برای این موضوع داره: استفاده از API Resource‌ها.

🔹 مشکل رایج

فرض کنید می‌خوایم اطلاعات یک کاربر رو همراه با پست‌هاش برگردونیم.
معمولا شاید اینطوری عمل کنیم:
return [
'id' => $this->id,
'name' => $this->name,
'posts' => PostResource::collection($this->posts),
];

اینجا یه مشکل هست: حتی اگر posts رو لود نکرده باشیم، باز هم کلید posts توی JSON میاد (و معمولا query اضافه اجرا میشه).

لاراول متودی به اسم whenLoaded داره. این متود بررسی میکنه که آیا relation مورد نظر واقعاً لود شده یا نه.
return [
'id' => $this->id,
'name' => $this->name,
'posts' => PostResource::collection($this->whenLoaded('posts')),
];

نتیجه:

اگر توی query نوشتیم:
User::with('posts')->get();

اون موقع posts داخل JSON میاد.

اگر with('posts') رو ننوشتیم، اصلا posts توی خروجی دیده نمیشه.


📌 مزایا

شماره ۱ : API سبک‌تر → فقط دیتاهایی که لازم داری ارسال میشن.


شماره ۲: کد تمیزتر → دیگه خبری از if/else‌ های شلوغ داخل Resource نیست.


شماره۳: کنترل کامل → هر relation فقط وقتی لود شده باشه به خروجی اضافه میشه.

خلاصه که:

وقتی داری API میسازی، همیشه به این فکر کن که چه دیتا ای لازمه سمت کاربر بیاد.
با استفاده از whenLoaded در لاراول، میتونی خروجی‌هات رو بهینه، تمیز و حرفه‌ای نگه داری.

@GoldenCodeir

#Laravel #لاراول

(به منبع و مثالش دقت کنید 👇🏾)
https://x.com/wendell_adriel/status/1967917256446267886?t=nJdmRFIvFlZGiL09jL8LuQ&s=35
👍1
Forwarded from Ninja Learn | نینجا لرن (Mohammad)
جت برین اعصاب نداره