Dev Perfects
40 subscribers
9.23K photos
1.26K videos
468 files
13K links
بخوام خیلی خلاصه بگم
این کانال میاد مطالب کانالای خفن تو حوزه تکنولوژی و برنامه نویسی رو جمع میکنه

پست پین رو بخونید
https://t.iss.one/dev_perfects/455


ارتباط:
https://t.iss.one/HidenChat_Bot?start=936082426
Download Telegram
نسخه جدید از #فیلترشکن رایگان #دیفیکس حالا از طریق گوگل‌پلی و اپ‌استور برای گوشی‌های #اندروید و #آیفون در دسترس قرار گرفته.

مهمترین بروزرسانی این نسخه اضافه‌شدن هسته ایکس‌ری برای بهبود اتصال کاربران بوده، اما علاوه بر اون، بروزرسانی API به نسخه ۳، بازنویسی انیمیشن‌ها برای بهبود سرعت و عملکرد برنامه، نمایش بهتر لاگ‌ها و تغییرات عمده در هسته #DXcore به‌جهت افزایش پایداری، از دیگر تغییرات تازه‌ی #Defyx هستن.

همچنین قراره در آپدیت‌های بعدی علاوه بر رفع مشکلات موجود، ویژگی جدیدی به نام #ترجیحات اضافه بشه، که این امکان رو میده تا رفتار هسته‌ی برنامه رو متناسب با نیازها و وضعیت اتصال اینترنتی خودتون تنظیم کنین.

1️⃣ play.google.com/store/apps/details?id=de.unboundtech.defyxvpn
2️⃣ apps.apple.com/us/app/defyx/id6746811872

🔍 ircf.space
@ircfspace
#php

با یک دکمه, سرعت خروجی سایت با لاراول از 38ms به 8ms تغییر کرد,
و میزان مصرف رم در هر درخواست از 11mb به 0.26mb تغییر کرد
دکمه فعال سازی opcache در بخش تنظمات php سیپنل نسخه 8.4
میدونستم خوبه ولی این حجم از تغییر رو انتظار نداشتم

@DevTwitter | <Masoud Derakhshi/>
👍1
Forwarded from 🎄 یک برنامه نویس تنبل (Lazy 🌱)
This media is not supported in your browser
VIEW IN TELEGRAM
🔶 بالاخره پروژه مرن استک تسک پایر به پایان رسید.
نسخه اولیه منتشر شد.

پروزه بر پایه سلف هاست است.

@TheRaymondDev
Forwarded from Reza Jafari
نگاهی بر مقاله جدید OpenAI ، چرا مدل‌های زبانی دست از توهم برنمی‌دارن؟

مقاله جدید OpenAI توجه زیادی رو جلب کرده چون به ریشه اصلی پدیده hallucination در LLM‌ها می‌پردازه و حتی راه‌حلی برای کاهش اون ارائه می‌ده. Hallucination به معنای تولید خروجی‌هایی هست که ظاهراً معتبر و منطقی به نظر می‌رسن اما در واقع غلط هستن. این مسئله باعث کاهش اعتماد کاربران به مدل‌ها می‌شه، چون وقتی یه مدل با اطمینان کامل چیزی رو اشتباه می‌گه، دیگه سخت می‌شه به جواب‌های درستش هم اعتماد کرد. نکته مهمی که مقاله روی اون تأکید می‌کنه اینه که hallucination‌ها «بگ» یا خطاهای غیرمنتظره نیستن، بلکه بخشی طبیعی از فرآیند آموزش و ارزیابی مدل‌ها هستن.

در مرحله pretraining، مدل‌ها زبان رو از روی داده‌های عظیم یاد می‌گیرن. این داده‌ها به‌طور طبیعی پر از اشتباهات، ناقص بودن‌ها و نیمه‌حقیقت‌ها هستن. اما نکته کلیدی‌تر اینجاست: حتی اگر داده‌ها کاملاً بی‌نقص و بدون خطا هم باشن (که در عمل غیرممکنه)، باز هم هدف آموزشی و معیارهایی مثل cross-entropy loss باعث می‌شن مدل‌ها اشتباه کنن. دلیلش اینه که مدل‌ها برای تولید همیشه مجبور به انتخاب یه پاسخ هستن و آموزش اون‌ها طوری طراحی شده که به جای گفتن «نمی‌دونم» باید حتماً جواب بدن. این ساختار باعث می‌شه hallucination‌ها به‌صورت آماری اجتناب‌ناپذیر باشن. مقاله یادآوری می‌کنه که تولید یک پاسخ درست بسیار سخت‌تر از تشخیص درستی یا نادرستی یک پاسخ آماده‌ست. چون تعداد جواب‌های غلط بی‌نهایت زیاده و مدل باید از بین همه اون‌ها اجتناب کنه. برای همین hallucination مثل ویژگی ذاتی مدل‌های زبانی فعلی عمل می‌کنه، نه یه استثناء.

یکی از مثال‌های واضح، داده‌های مربوط به تاریخ تولد افراد هست. اگر در داده‌های آموزشی یک تاریخ تولد فقط یک بار ظاهر بشه، مدل احتمالاً نمی‌تونه اون رو درست به خاطر بسپره. پس وقتی بعداً ازش سؤال می‌شه، به جای «نمی‌دونم»، معمولاً یه تاریخ مشخص اما اشتباه رو با اعتمادبه‌نفس جواب می‌ده. در واقع، تخمین مقاله اینه که اگر ۲۰٪ از داده‌های مربوط به تولدها فقط یک بار در آموزش ظاهر شده باشن، همون مقدار hallucination روی این دسته از اطلاعات ناگزیر خواهد بود.

اما مشکل فقط به pretraining محدود نمی‌شه. در مرحله post-training که شامل روش‌هایی مثل RLHF یا DPO هست، تلاش می‌شه تا hallucination کاهش پیدا کنه. با این حال، این مرحله هم مشکل رو به طور کامل حل نمی‌کنه. دلیلش برمی‌گرده به شیوه ارزیابی مدل‌ها. بیشتر benchmark‌های مهم مثل MMLU، GPQA، SWE-bench یا HLE از متریک‌های binary accuracy استفاده می‌کنن. توی این متریک‌ها، جواب درست یک امتیاز داره، جواب غلط صفر، و «نمی‌دونم» هم صفر. بنابراین مدل‌ها هیچ پاداشی برای ابراز عدم اطمینان نمی‌گیرن. این سیستم باعث می‌شه بهترین استراتژی برای مدل «بلوف زدن» باشه، یعنی حتی وقتی مطمئن نیستن، با اعتمادبه‌نفس یه جواب مشخص بدن. درست مثل دانش‌آموزی که توی آزمون چندگزینه‌ای وقتی مطمئن نیست، حدس می‌زنه چون حداقل شانس گرفتن امتیاز وجود داره، اما اگر خالی بذاره مطمئناً صفر می‌گیره.

مقاله به یه نکته جالب هم اشاره می‌کنه: hallucination‌ها معمولاً خیلی خاص و با جزئیات هستن. مثلاً به جای گفتن «پاییز»، مدل می‌گه «۳۰ سپتامبر»، حتی اگر اشتباه باشه. این به خاطر همون ساختار ارزیابی هست که مدل‌ها رو به سمت جواب‌های مشخص و مطمئن سوق می‌ده، نه پاسخ‌های کلی‌تر یا «نمی‌دونم».

راه‌حل پیشنهادی مقاله به جای طراحی تست‌های جدید، تغییر در mainstream evaluation‌هاست. نویسنده‌ها پیشنهاد می‌کنن سیستم امتیازدهی اصلاح بشه به طوری که مدل برای «جواب ندادن» یا abstention تنبیه نشه. مثلاً: +۱ برای جواب درست، ۰ برای «نمی‌دونم»، و -۱ برای جواب غلط. اینطوری مدل‌ها یاد می‌گیرن فقط وقتی جواب بدن که از یه آستانه مشخص (مثلاً ۷۵٪) مطمئن‌تر باشن. این روش که بهش behavioral calibration می‌گن، باعث می‌شه مدل‌ها رفتار صادقانه‌تری داشته باشن و یاد بگیرن بین جواب دادن یا جواب ندادن بر اساس سطح اعتماد تصمیم بگیرن.

جالب اینجاست که همین حالا هم نشونه‌هایی از این تغییر در نسل جدید مدل‌ها دیده می‌شه. مثلاً بعضی گزارش‌ها از GPT-5 نشون می‌ده که وقتی مطمئن نیست، مستقیماً می‌گه «نمی‌دونم» و توضیح می‌ده چرا نمی‌تونه جواب دقیق بده. این رفتار باعث شد حتی چهره‌هایی مثل Elon Musk هم از اون تحسین کنن. در واقع، چنین پاسخی به مراتب بهتر و قابل‌اعتمادتر از یک hallucination پرجزئیاته.

1/2

@reza_jafari_ai
Forwarded from Reza Jafari
نتیجه نهایی مقاله روشنه: hallucination‌ها از ساختار آماری pretraining سرچشمه می‌گیرن و با post-training و سیستم‌های ارزیابی فعلی زنده می‌مونن چون این سیستم‌ها «بلوف زدن» رو تشویق می‌کنن. اما اگر معیارهای ارزیابی و فرآیند یادگیری تقویتی اصلاح بشن، می‌شه به مدل‌هایی رسید که وقتی مطمئن نیستن، شفاف می‌گن «نمی‌دونم» و فقط زمانی جواب می‌دن که واقعاً به پاسخ خودشون اعتماد دارن. این تغییر می‌تونه اعتماد به هوش مصنوعی رو به شکل قابل‌توجهی افزایش بده و راه رو برای استفاده گسترده‌تر از مدل‌های زبانی هموار کنه.

2/2

🔤🔤🔤🔤🔤🔤🔤

🥇 اهورا اولین اپراتور هوش مصنوعی راهبردی ایران در حوزه ارائه خدمات و سرویس‌های زیرساخت هوش مصنوعی

🛍کد تخفیف ۱۰ درصدی محصولات اهورا برای اعضای کانال
AHURA5

🌐 لینک وب‌سایت اهورا

@reza_jafari_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
اخیرا طی تسکی که توی دوره آزمایشی ام دارم میگذرونم باید یه مدل سه بعدی رو روی نقشه load میکردم و یه سری کارا روش انجام میدادم.

تجربه هایی که این تسک برام داشت .
کار کردن با THREE js برای نور پردازی و ایجاد بستر برای مدل ۳ بعدی
اضافه کردن مدل GLTF/GLB
کار کردن با پکیج turf برای bearing و محاسبه فواصل
https://github.com/MahdiKgz/THREE_map


@DevTwitter | <Mahdi Khoshghadam zadeh/>
Forwarded from tiivik️
یک منبع ارزشمند برای همه متخصصان #امنیت_سایبری و هر کسی که علاقه مند به به روز ماندن در مورد آخرین تهدیدات سایبری و خطرات دیجیتال است، مجموعه ای جامع از تجزیه و تحلیل تهدید و...
🆔@tiivik
Forwarded from 🎄 یک برنامه نویس تنبل (  MΞ)
Forwarded from Linuxor ?
کد WebAssembly (WASM) به صورت مستقیم توسط انسان خیلی سخت قابل خوندنه، چون یه باینری فشرده است این یه کامپایلر + زبان برنامه‌نویسی شبیه تایپ‌اسکریپت برای تولید WebAssembly هستش

www.assemblyscript.org

@Linuxor
Forwarded from Linuxor ?
این یه چیت شیت به قول خودشون VIP برای ماشین لرنینگ CS 229 از دانشگاه استنفورده که توش مفاهیم کلیدی و مهم دوره یادگیری ماشین و فرضیات، فرمول‌ها، الگوریتم‌ها، نکات مهم، روابط بین مفاهیم و پیش‌نیازها ها رو جمع کرده یجا؛ ورژن فارسی هم داره

github.com/afshinea/stanford-cs-229-machine-learning


@Linuxor
Forwarded from Python Hints
Bruno
نسخه vscode-extension رو هم منتشر کرد.
Forwarded from linuxtnt(linux tips and tricks) (hosein seilany https://seilany.ir/)
کتاب فارسی 1001 مثال عملی پایتون، منتشر شد.
1001 Practical Python Examples

https://t.iss.one/linuxtnt/4516
Forwarded from 🎄 یک برنامه نویس تنبل (Lazy 🌱)
🔶 مستندات تسک پایر نوشتم و لوگو هم طراحی کردم.

https://github.com/Rayiumir/TaskPire

هم اکنون شرکت ها و فریلنسر برای مدیریت تسک ها می توانند از تسک پایر استفاده کنن.

برای نصب نیازمند سرور مجازی است.

@TheRaymondDev
Forwarded from Linuxor ?
Forwarded from Linuxor ?
یه روز یه بک‌اندی با یه دختر فرانت کار آمریکایی ازدواج می‌کنه اسم بچشون رو می‌زارن JASON.

@Linuxor
Forwarded from Reza Jafari
راه‌حل؟
حد تعریف کنید.
برای من اینطوری بوده که مشخص کردم ۳/۴ از روزم رو باید عمل کنم و ۱/۴ از روزم رو به یادگیری اختصاص بدم.
و اینکه عمل کردن و پیاده سازی رو جدا از یادگیری ندونید، شما فکر می‌کنید موضوعی رو بلدید تا اینکه مجبور می‌شید اون رو پیاده کنید، اون وقتی که پیاده می‌کنید فرایند یادگیریتون تکمیل می‌شه.

@reza_jafari_ai
Forwarded from یه شعر (Poem Bot)
مولانا | دیوان شمس | رباعیات | رباعی شمارهٔ ۱۶

ای اشک روان بگو دل افزای مرا
آن باغ و بهار و آن تماشای مرا
چون یاد کنی شبی تو شبهای مرا
اندیشه مکن بی ادبیهای مرا

#مولانا | گنجور
📍@iipoem
Forwarded from Gopher Academy
🔵 عنوان مقاله
'GoLand Can Do That?' Ten Secret Superpowers You Might Not Know

🟢 خلاصه مقاله:
** خلاصه فارسی: این مجموعه با عنوان «‏GoLand می‌تواند این کار را بکند؟ ده توانایی مخفی که شاید ندانید» بر ویژگی‌های کمترشناخته‌شده‌ی GoLand تمرکز دارد که بهره‌وری برنامه‌نویسان Go را بالا می‌برد. در ادامه، جان آرندل با استفاده از مسئله‌ی «فیلسوفان غذاخور» چالش‌های هم‌زمانی در Go—مانند بن‌بست، گرسنگی و شرایط رقابتی—را به‌صورت مفهومی و عملی بررسی می‌کند. همچنین آنیس سواعد به‌صورت انتقادی تجربه‌ی مهاجرت از Docker به Podman را مرور می‌کند و مزایا و ملاحظات این تغییر را از منظر کارکرد، سازگاری و جریان کار توضیح می‌دهد. در مجموع، این مطالب—with مشارکت جان آرندل، آنیس سواعد و دومینیک شیمانسکی—می‌کوشند میان مهارت در ابزار IDE، درک عمیق هم‌زمانی، و انتخاب آگاهانه ابزارهای کانتینری پیوند برقرار کنند.

🟣لینک مقاله:
https://golangweekly.com/link/174073/web


👑 @gopher_academy
🔥 نسخه VirtualBox 7.2.2 با دو ویژگی KVM APIs و آداپتور 82583V منتشر شد

ماژول KVM (Kernel-based Virtual Machine) ی در کرنل لینوکسه که اجازه می‌ده پردازنده‌ی سیستم (Intel VT-x یا AMD-V) مستقیماً برای اجرای ماشین مجازی استفاده بشه.

📄 نرم افزار VirtualBox به طور سنتی هایپروایزر خودش رو داشت (ring-0, VT-x driver و ...).

حالا با پشتیبانی از KVM APIs، VirtualBox می‌تونه مستقیماً از زیرساخت کرنل لینوکس (نسخه 6.16 به بالا) استفاده کنه به جای این که همه‌چیز رو خودش پیاده‌سازی کنه.

📄 در VirtualBox هر ماشین مجازی یک کارت شبکه مجازی (NIC emulation) داره که برای مهمان مثل یه کارت واقعی دیده می‌شه.

مدل e1000 یکی از emulationهای پرکاربرده (Intel PRO/1000).
حالا مدل 82583V اضافه شده که یک نسخه جدیدتر از سری e1000 هست.

امکانات سخت‌افزاری بیشتر مثل پشتیبانی بهتر از MSI (Message Signaled Interrupts) یا بهینه‌سازی‌های شبکه‌ای ،تست نرم‌افزارهایی که نیاز به کارت شبکه خاص دارند

سطح پست : #عمومی
@MehrdadLinuxchannel
#Linux #لینوکس
#Utility
Forwarded from linuxtnt(linux tips and tricks) (hosein seilany https://seilany.ir/)
⭐️یادش بخیر:
🔹دیسک نرم‌افزاری مربوط به AT&T UNIX System V است.

🔹نسخه مشخص‌شده روی این CD: Version 2.1 از Release 4 می‌باشد.

🔹این همان UNIX System V Release 4 (SVR4) است که توسط AT&T توسعه یافته بود و یکی از نسخه‌های مهم و تاریخی سیستم‌عامل یونیکس به شمار می‌رود.این نسخه UNIX System V Release 4 (SVR4) در سال ۱۹۸۹ توسط AT&T به همراه Sun Microsystems منتشر شد. این نسخه در واقع بهبود‌یافته‌ی SVR4 اصلی (۱۹۸۹) بود و بیشتر روی پایداری، رفع باگ‌ها و پشتیبانی از سخت‌افزارهای جدیدتر تمرکز داشت.
این نسخه یک نقطه عطف بود چون برای اولین بار چند شاخه‌ی مختلف یونیکس را یکپارچه کرد:

System V (نسخه‌های قبلی AT&T)
BSD (ویژگی‌هایی مثل sockets و job control)
SunOS
Xenix (مایکروسافت)

🔹اما SVR4 تلاش کرد یک استاندارد واحد برای UNIX بسازد و بعدها پایه بسیاری از سیستم‌های تجاری و متن‌باز (مثل Solaris، UnixWare و حتی تأثیر بر Linux) شد.