Forwarded from code2 - تکنولوژی و فناوری
یه نکتهی خیلی جالب دربارهی مدلهای هوش مصنوعی مخصوصا اونایی که تصویر تولید میکنن (مثل Stable Diffusion یا MidJourney) اینه که تقریباً همیشه توی یه چیز گیر میکنن:
فرضا بهشون بگید:
حدس میزنید نتیجه چیه؟!
۹۹٪ مواقع طرف رو در حال نوشتن با دست راست میکشه! 😅😐
دلیلش هم خیلی سخت نیست:
🔹 تو دنیا فقط حدود ۱۰٪ آدمها چپدستن. پس دیتایی که این مدلها باهاش آموزش دیدن، پر از عکس و تصویر آدمهای راستدست بوده.
🔹 توی متادیتا یا توضیحات اون تصاویر هم هیچوقت نوشته نشده «این آدم راستدسته». پس مدل یاد گرفته «نوشتن = راست دست».
یعنی وقتی شما میگی "left hand writing"، مدل مفهوم "چپ" رو میفهمه، "نوشتن" رو هم میفهمه، ولی باز همون الگوی غالب رو اجرا میکنه: نوشتن با دست راست.
این یه نمونهی واضح از بایاس دادهها توی هوش مصنوعیه. چیزی که توی جامعه وجود داره (۹۰٪ راستدست)، وقتی میاد توی دیتای آموزش، تبدیل میشه به یه عادت سخت توی مدل.
پس همیشه مدل مقصر نیست. دیتا نداشته بنده خدا :)))
@code2_ir
کانال کد۲ رو دنبال کنید
فرضا بهشون بگید:
عکس یه آدمی رو بکش که با دست چپش داره مینویسه.
حدس میزنید نتیجه چیه؟!
۹۹٪ مواقع طرف رو در حال نوشتن با دست راست میکشه! 😅😐
دلیلش هم خیلی سخت نیست:
🔹 تو دنیا فقط حدود ۱۰٪ آدمها چپدستن. پس دیتایی که این مدلها باهاش آموزش دیدن، پر از عکس و تصویر آدمهای راستدست بوده.
🔹 توی متادیتا یا توضیحات اون تصاویر هم هیچوقت نوشته نشده «این آدم راستدسته». پس مدل یاد گرفته «نوشتن = راست دست».
یعنی وقتی شما میگی "left hand writing"، مدل مفهوم "چپ" رو میفهمه، "نوشتن" رو هم میفهمه، ولی باز همون الگوی غالب رو اجرا میکنه: نوشتن با دست راست.
این یه نمونهی واضح از بایاس دادهها توی هوش مصنوعیه. چیزی که توی جامعه وجود داره (۹۰٪ راستدست)، وقتی میاد توی دیتای آموزش، تبدیل میشه به یه عادت سخت توی مدل.
پس همیشه مدل مقصر نیست. دیتا نداشته بنده خدا :)))
@code2_ir
کانال کد۲ رو دنبال کنید
Forwarded from NetSentinel24Support
🌐 ربات NetSentinel24 اینجاست تا خیالت راحت باشه! 😎
از سرورها و سایتهاتون 24/7 مراقبت میکنیم ⏰
اگه قطعی پیش بیاد فوراً بهت خبر میدیم 🚨
📡 قابلیتها:
• مانیتورینگ با ICMP | HTTP | TCP | SSL
• هشدار فوری ⚡️
• پشتیبانی از چندین سایت و سرور 📊
• گزارش لحظهای 📈
🤖 شروع کن با ربات: @NetSentinel24Bot
📌 کانال: @NetSentinel24
🤝 پشتیبانی: @NetSentinel24Support
🔥 حرفهایها همیشه یه نگهبان دارن!
از سرورها و سایتهاتون 24/7 مراقبت میکنیم ⏰
اگه قطعی پیش بیاد فوراً بهت خبر میدیم 🚨
📡 قابلیتها:
• مانیتورینگ با ICMP | HTTP | TCP | SSL
• هشدار فوری ⚡️
• پشتیبانی از چندین سایت و سرور 📊
• گزارش لحظهای 📈
🤖 شروع کن با ربات: @NetSentinel24Bot
📌 کانال: @NetSentinel24
🤝 پشتیبانی: @NetSentinel24Support
🔥 حرفهایها همیشه یه نگهبان دارن!
Forwarded from a pessimistic researcher (Kc)
روزای خوبی برای استقلالی بودن نیست :(
Forwarded from DevTwitter | توییت برنامه نویسی
بالاخره پروژه مدیریت فروشگاهی که با WPF توسعه دادم، به یک نقطه قابل قبول رسید!
این اپلیکیشن دسکتاپ با هدف پیادهسازی یک معماری تمیز و اصولی با NET. و الگوهایی مثل MVVM ساخته شده. فکر میکنم میتونه یک مثال خوب و کاربردی برای علاقهمندان به WPF باشه.
پروژه کاملاً متنباز هست و خوشحال میشم شما هم نگاهی بهش بندازید.
https://github.com/aht9/StoreManagement
@DevTwitter | <Amir Hossein/>
این اپلیکیشن دسکتاپ با هدف پیادهسازی یک معماری تمیز و اصولی با NET. و الگوهایی مثل MVVM ساخته شده. فکر میکنم میتونه یک مثال خوب و کاربردی برای علاقهمندان به WPF باشه.
پروژه کاملاً متنباز هست و خوشحال میشم شما هم نگاهی بهش بندازید.
https://github.com/aht9/StoreManagement
@DevTwitter | <Amir Hossein/>
Forwarded from Linuxor ?
This media is not supported in your browser
VIEW IN TELEGRAM
ویدیو رو ببینید، Flowise یه پلتفرم اوپنسورس برای طراحی و اجرای جریانهای هوش مصنوعی به صورت بصریه. باهاش میتونین بدون نوشتن کد زیاد، نودهای مختلف مانند ورودی کاربر، پردازش متن با مدلهای زبانی، مسیریابی شرطی و ذخیرهسازی دادهها رو کنار هم چید و یه عامل (agent) هوشمند ساخت. Flowise شامل رابط کاربری گرافیکی، بخش بکاند برای منطق و API، و قابلیت اضافه کردن نودهای سفارشیه و میتونه روی سرور خودتون به صورت self-hosted اجرا بشه.
نصب و مستندات :
flowiseai.com
@Linuxor
نصب و مستندات :
flowiseai.com
@Linuxor
Forwarded from DevTwitter | توییت برنامه نویسی
ی پِیست بین درست کردم که کاملا serverless عه، روی edge ران میشه و برای ذخیره سازی داده هم از s3 استفاده شده. به زودی آپدیت های جدید هم براش میاد!
اگه میخواید تستش کنید:
https://edgepaste.amirparsab9.arvanedge.ir/app
اگه میخواید کدشو ببینید/کانتریبیوت کنید:
@DevTwitter | <Amirparsa Baghdadi/>
اگه میخواید تستش کنید:
https://edgepaste.amirparsab9.arvanedge.ir/app
اگه میخواید کدشو ببینید/کانتریبیوت کنید:
@DevTwitter | <Amirparsa Baghdadi/>
Forwarded from a pessimistic researcher (Kc)
آقا یه پسره هست این تقریبا دکتریشو با من شروع کرده. توی CMU هم درس میخونه. این همزمان با من کارش رو روی Concurrent Testing شروع کرد. یه پروژه همزمان با من شروع کرد به اسم Fray. منم از اول دکتری یه ابزار مشابهی دارم میسازم به اسم JMC. ابزار اونا یعنی Fray فقط میتونه Random Testing انجام بده. تازه Runtime ای هم که نوشتن برای سینک کردن تردها و زمانبندی شون از wait و notify استفاده میکنه که کلی سربار و باگ داره. ابزار ما یعنی JMC علاوه بر Random Testing فقط ۳ تا الگوریتم مدل چکینگ داره که هر ۳ مبتنی بر DPOR اند ( به قدری درک این مدل الگوریتمها سخته که خودم ۶ ماه طول کشید تا فقط بفهمم DPOR چیه). تازه از این ۳ تا الگوریتم یکیش رو خودمون توسعه دادیم از صفر و اون دوتای دیگه رو هم ارتقاع دادیم. Runtime ما به جای wait و notify از future و yield استفاده میکنه که سربار مموری نداره و باگ فری هم هستش. اگر برید توی بخش Contribution هر دو پروژه متوجه میشید که تعداد LOC ای که ما push کردیم حداقل ۲ برابر اونا بوده. همه اینا رو گفتم، تازه ابزار ما میتونه برنامههای جاوا تو ستینگ distirbuted systems رو هم تست و وریفای کنه که fray نمیتونه.
با همهی این تفاسیر سوالی که خیلی آزارم میده اینه که چطوری اونا توسنتن این همه attention رو جلب کنند به خودشون؟ ۲۸۴ تا star داره پروژهشون برای ما ۲۴ تا که نصفش دوستامن. ۹ تا فورک داره پروژهشون مال ما رو سگ هم نگاه نکرده. تازه issues هم ملت رفتن باز کردن براشون. من حسود پلاستیکی نیستم اما خدایی کجای کار رو اشتباه کردیم که کار ما دیده نمیشه؟ اینم بگم که تقریبا اولین مقالهی هر دومون همزمان چاپ شده، با این تفاسیر که من مقالهام رو رفتم ارائه هم دادم، اما کنفرانس اونا هنوز برگزار هم نشده...
جدی این همه جون میکنه آدم و این همه سختی میکشه تهش هم وضع میشه این. اصلا نمیخوام :(
با همهی این تفاسیر سوالی که خیلی آزارم میده اینه که چطوری اونا توسنتن این همه attention رو جلب کنند به خودشون؟ ۲۸۴ تا star داره پروژهشون برای ما ۲۴ تا که نصفش دوستامن. ۹ تا فورک داره پروژهشون مال ما رو سگ هم نگاه نکرده. تازه issues هم ملت رفتن باز کردن براشون. من حسود پلاستیکی نیستم اما خدایی کجای کار رو اشتباه کردیم که کار ما دیده نمیشه؟ اینم بگم که تقریبا اولین مقالهی هر دومون همزمان چاپ شده، با این تفاسیر که من مقالهام رو رفتم ارائه هم دادم، اما کنفرانس اونا هنوز برگزار هم نشده...
جدی این همه جون میکنه آدم و این همه سختی میکشه تهش هم وضع میشه این. اصلا نمیخوام :(
GitHub
GitHub - cmu-pasta/fray: A controlled concurrency testing framework for the JVM
A controlled concurrency testing framework for the JVM - cmu-pasta/fray
Forwarded from Geek Alerts
گوگل DeepMind و OpenAI هر دو اعلام کردن که مدلهاشون در فینال مسابقات جهانی ICPC امسال، به مدال طلا دست پیدا کردن.
اول از همه اینکه ICPC یکی از معتبرترین و مشهورترین مسابقات برنامهنویسی الگوریتمی دانشگاهی دنیاست، سوالات بسیار پیچیدهای داره و هرساله تیمهای مختلف از برترین دانشگاههای دنیا در اون شرکت میکنن و به مدالهای مختلف میرسن. حالا امسال تیمهای دیپمایند و OpenAI به طور رسمی در این مسابقات شرکت کردن و تونستن به مدال طلا برسن، نکته مهم اینه که قوانین شرکت برای مدلها دقیقا مشابه انسانها بوده و در محدودیت زمانی ۵ ساعته به سوالات پاسخ دادن.
اپنایآی نوشته که از "سیستم استدلال"شون استفاده کردن و مدل رو ذکر نکردن ولی گفتن که روی سوالات آموزش دیده نشده بوده و یک سیستم جنرال سوالات رو حل کرده و همزمان این سوالات رو به GPT-5 هم دادن و از ۱۲ سوال تونسته ۱۱ سوال رو حل کنه، اما سیستم آزمایشیشون تونسته ۱۲ سوال رو کامل و امتیاز ۱۱ تا از این سوالات رو فقط با یک بار ارسال جواب دریافت کرده و خب بین تیمهای دانشگاهی میتونست اون رو در رتبه اول قرار بده. [L]
تیم دیپمایند گوگل هم در وبلاگشون نوشتن که از یک نسخه پیشرفته Deep Think استفاده کردن و تونسته ۱۰ مسئله رو حل کنه، ۴۵ دقیقه برای حل ۸ سوال و دو مسئله دیگر رو در سه ساعت حل کرده و درنهایت اگر محدودیت زمانی آزمون رو ۱۱ ساعت در نظر بگیریم، تونسته به مقام دوم بین تیمهای دانشگاهی برسه. طبق نموداری که نشون دادن این مدل فقط تونسته دو سوال رو با یک بار ارسال جواب حل کنه. راه حلهای سوالات رو در این لینک میتونید ببینید. [L]
hadi @geekalerts
اول از همه اینکه ICPC یکی از معتبرترین و مشهورترین مسابقات برنامهنویسی الگوریتمی دانشگاهی دنیاست، سوالات بسیار پیچیدهای داره و هرساله تیمهای مختلف از برترین دانشگاههای دنیا در اون شرکت میکنن و به مدالهای مختلف میرسن. حالا امسال تیمهای دیپمایند و OpenAI به طور رسمی در این مسابقات شرکت کردن و تونستن به مدال طلا برسن، نکته مهم اینه که قوانین شرکت برای مدلها دقیقا مشابه انسانها بوده و در محدودیت زمانی ۵ ساعته به سوالات پاسخ دادن.
اپنایآی نوشته که از "سیستم استدلال"شون استفاده کردن و مدل رو ذکر نکردن ولی گفتن که روی سوالات آموزش دیده نشده بوده و یک سیستم جنرال سوالات رو حل کرده و همزمان این سوالات رو به GPT-5 هم دادن و از ۱۲ سوال تونسته ۱۱ سوال رو حل کنه، اما سیستم آزمایشیشون تونسته ۱۲ سوال رو کامل و امتیاز ۱۱ تا از این سوالات رو فقط با یک بار ارسال جواب دریافت کرده و خب بین تیمهای دانشگاهی میتونست اون رو در رتبه اول قرار بده. [L]
تیم دیپمایند گوگل هم در وبلاگشون نوشتن که از یک نسخه پیشرفته Deep Think استفاده کردن و تونسته ۱۰ مسئله رو حل کنه، ۴۵ دقیقه برای حل ۸ سوال و دو مسئله دیگر رو در سه ساعت حل کرده و درنهایت اگر محدودیت زمانی آزمون رو ۱۱ ساعت در نظر بگیریم، تونسته به مقام دوم بین تیمهای دانشگاهی برسه. طبق نموداری که نشون دادن این مدل فقط تونسته دو سوال رو با یک بار ارسال جواب حل کنه. راه حلهای سوالات رو در این لینک میتونید ببینید. [L]
hadi @geekalerts
Forwarded from a pessimistic researcher (Kc)
تازه یه چیزی رو اشتباه گفتم...
پسره سال آخر دکتریست و ۳ سال قبل من دکتریاش رو شروع کرده :(
پسره سال آخر دکتریست و ۳ سال قبل من دکتریاش رو شروع کرده :(
Forwarded from Golden Code (@lix)
یکی از دغدغههای مهم در طراحی API اینه که اطلاعات اضافی نفرستیم.
چون:
حجم ریسپانس ها زیاد میشه و حجم منابع سرور افزایش پیدا میکنه و...
لاراول یه راهکار خیلی تمیز برای این موضوع داره: استفاده از API Resourceها.
🔹 مشکل رایج
فرض کنید میخوایم اطلاعات یک کاربر رو همراه با پستهاش برگردونیم.
معمولا شاید اینطوری عمل کنیم:
اینجا یه مشکل هست: حتی اگر posts رو لود نکرده باشیم، باز هم کلید posts توی JSON میاد (و معمولا query اضافه اجرا میشه).
لاراول متودی به اسم whenLoaded داره. این متود بررسی میکنه که آیا relation مورد نظر واقعاً لود شده یا نه.
✅ نتیجه:
اگر توی query نوشتیم:
اون موقع posts داخل JSON میاد.
اگر with('posts') رو ننوشتیم، اصلا posts توی خروجی دیده نمیشه.
📌 مزایا
شماره ۱ : API سبکتر → فقط دیتاهایی که لازم داری ارسال میشن.
شماره ۲: کد تمیزتر → دیگه خبری از if/else های شلوغ داخل Resource نیست.
شماره۳: کنترل کامل → هر relation فقط وقتی لود شده باشه به خروجی اضافه میشه.
خلاصه که:
وقتی داری API میسازی، همیشه به این فکر کن که چه دیتا ای لازمه سمت کاربر بیاد.
با استفاده از whenLoaded در لاراول، میتونی خروجیهات رو بهینه، تمیز و حرفهای نگه داری.
@GoldenCodeir
#Laravel #لاراول
(به منبع و مثالش دقت کنید 👇🏾)
https://x.com/wendell_adriel/status/1967917256446267886?t=nJdmRFIvFlZGiL09jL8LuQ&s=35
چون:
حجم ریسپانس ها زیاد میشه و حجم منابع سرور افزایش پیدا میکنه و...
لاراول یه راهکار خیلی تمیز برای این موضوع داره: استفاده از API Resourceها.
🔹 مشکل رایج
فرض کنید میخوایم اطلاعات یک کاربر رو همراه با پستهاش برگردونیم.
معمولا شاید اینطوری عمل کنیم:
return [
'id' => $this->id,
'name' => $this->name,
'posts' => PostResource::collection($this->posts),
];
اینجا یه مشکل هست: حتی اگر posts رو لود نکرده باشیم، باز هم کلید posts توی JSON میاد (و معمولا query اضافه اجرا میشه).
لاراول متودی به اسم whenLoaded داره. این متود بررسی میکنه که آیا relation مورد نظر واقعاً لود شده یا نه.
return [
'id' => $this->id,
'name' => $this->name,
'posts' => PostResource::collection($this->whenLoaded('posts')),
];
✅ نتیجه:
اگر توی query نوشتیم:
User::with('posts')->get();اون موقع posts داخل JSON میاد.
اگر with('posts') رو ننوشتیم، اصلا posts توی خروجی دیده نمیشه.
📌 مزایا
شماره ۱ : API سبکتر → فقط دیتاهایی که لازم داری ارسال میشن.
شماره ۲: کد تمیزتر → دیگه خبری از if/else های شلوغ داخل Resource نیست.
شماره۳: کنترل کامل → هر relation فقط وقتی لود شده باشه به خروجی اضافه میشه.
خلاصه که:
وقتی داری API میسازی، همیشه به این فکر کن که چه دیتا ای لازمه سمت کاربر بیاد.
با استفاده از whenLoaded در لاراول، میتونی خروجیهات رو بهینه، تمیز و حرفهای نگه داری.
@GoldenCodeir
#Laravel #لاراول
(به منبع و مثالش دقت کنید 👇🏾)
https://x.com/wendell_adriel/status/1967917256446267886?t=nJdmRFIvFlZGiL09jL8LuQ&s=35
X (formerly Twitter)
Wendell Adriel (@wendell_adriel) on X
Laravel Tip 🚀
Ship lighter APIs with Resources that only include loaded relations! ☁️
Laravel allows us to easily control the payload without if/else spaghetti! 🫶
Check the example to learn how! 🔥
Ship lighter APIs with Resources that only include loaded relations! ☁️
Laravel allows us to easily control the payload without if/else spaghetti! 🫶
Check the example to learn how! 🔥
👍1
Forwarded from a pessimistic researcher (Kc)
This media is not supported in your browser
VIEW IN TELEGRAM
Forwarded from linuxtnt(linux tips and tricks) (hosein seilany https://seilany.ir/)
فرصت شغلی کارآموز الکترونیک
شرکت راهکارصنعت آواپرداز
🔹ما به دنبال همکار آیندهمان در تیم الکترونیک هستیم.
🔸 در این نقش چه خواهید کرد؟
- مستقیماً در مراحل طراحی، شبیهسازی، مونتاژ و عیبیابی بردهای الکترونیکی مشارکت خواهید داشت.
- بر روی پروژههای واقعی شرکت کار خواهید کرد.
- تحت نظر مهندسین، مسئولیت بخشهایی از یک پروژه را بر عهده خواهید گرفت.
🔹شرایط همکاری:
- دانشجو یا فارغالتحصیل رشتههای مهندسی الکترونیک یا مرتبط
- آشنایی مقدماتی با مفاهیم پایه الکترونیک (مدارها، قطعات، میکروکنترلرها)
- اشتیاق و علاقه برای یادگیری
- دارای روحیه تیمی، پشتکار و دقت بالا
📄 ارسال رزومه:
کلیک برای ارسال رزمه
شرکت راهکارصنعت آواپرداز
🔹ما به دنبال همکار آیندهمان در تیم الکترونیک هستیم.
🔸 در این نقش چه خواهید کرد؟
- مستقیماً در مراحل طراحی، شبیهسازی، مونتاژ و عیبیابی بردهای الکترونیکی مشارکت خواهید داشت.
- بر روی پروژههای واقعی شرکت کار خواهید کرد.
- تحت نظر مهندسین، مسئولیت بخشهایی از یک پروژه را بر عهده خواهید گرفت.
🔹شرایط همکاری:
- دانشجو یا فارغالتحصیل رشتههای مهندسی الکترونیک یا مرتبط
- آشنایی مقدماتی با مفاهیم پایه الکترونیک (مدارها، قطعات، میکروکنترلرها)
- اشتیاق و علاقه برای یادگیری
- دارای روحیه تیمی، پشتکار و دقت بالا
📄 ارسال رزومه:
کلیک برای ارسال رزمه
Forwarded from a pessimistic researcher (Kc)
چلسی هم امشب ۳ - ۱ باخت به بایرن
جدی دیگه وقتشه بخوابم و Just call it a fucked up day
جدی دیگه وقتشه بخوابم و Just call it a fucked up day