Forwarded from Linuxor ?
Forwarded from 🎄 یک برنامه نویس تنبل (Lazy 🌱)
🔶 مهندسان نرمافزار عزیز،
سعی کنید پیچیدگی کدهای خود را کاهش دهید.
به نفر بعدی رحم کنید، شما همیشه آنجا نخواهید بود.
این یک توصیه بسیار مهم در مهندسی نرمافزار و توسعه پایدار است. کدی که امروز مینویسید، ممکن است فردا توسط شخص دیگری نگهداری شود. اگر پیچیده و بی مستند باشد، نه تنها روند توسعه کند میشود بلکه هزینه نگهداری، اشکال زدایی و توسعههای آینده را هم بالا میبرد.
#توییت
@TheRaymondDev
سعی کنید پیچیدگی کدهای خود را کاهش دهید.
به نفر بعدی رحم کنید، شما همیشه آنجا نخواهید بود.
این یک توصیه بسیار مهم در مهندسی نرمافزار و توسعه پایدار است. کدی که امروز مینویسید، ممکن است فردا توسط شخص دیگری نگهداری شود. اگر پیچیده و بی مستند باشد، نه تنها روند توسعه کند میشود بلکه هزینه نگهداری، اشکال زدایی و توسعههای آینده را هم بالا میبرد.
#توییت
@TheRaymondDev
Forwarded from Laravel News
Implementing User Confirmation Dialogs in Laravel Livewire with wire:confirm https://laravel-news.com/wire-confirm
Laravel News
Implementing User Confirmation Dialogs in Laravel Livewire with wire:confirm - Laravel News
Implement confirmation dialogs in Laravel Livewire using the wire:confirm directive. This feature provides native browser confirmations for critical actions, with support for dynamic messages and advanced prompt-based confirmations for enhanced user safety.
Forwarded from Laravel News
Adding Autocomplete to Your Laravel Applications https://laravel-news.com/adding-autocomplete-to-your-laravel-applications
Laravel News
Adding Autocomplete to Your Laravel Applications - Laravel News
In this tutorial, we will build a movie application with autocomplete leveraging MongoDB Atlas Search with Laravel
Forwarded from Morteza Bashsiz مرتضی باشسیز
بنده خدا نمیدونه ویدیوهای من با قرص خوابآور فرقی نداره
😂
😂
Forwarded from 🎄 یک برنامه نویس تنبل (Lazy 🌱)
🔶 پخش زنده : رژه نظامی چین 2025
پ . ن : پشمی برام نموند. نظمشون فوق العادست.
#منهای_برنامه_نویسی
https://www.youtube.com/watch?v=-aH6rGs-_Q4
@TheRaymondDev
پ . ن : پشمی برام نموند. نظمشون فوق العادست.
#منهای_برنامه_نویسی
https://www.youtube.com/watch?v=-aH6rGs-_Q4
@TheRaymondDev
YouTube
China military parade 2025 LIVE: Putin, Kim Jong Un attend as weapons on display
Watch live as China marks the 80th anniversary of the end of World War II with a military parade in Beijing. Russia's Vladimir Putin and North Korea's Kim Jong Un will attend.
#china #victoryday #parade #live
#china #victoryday #parade #live
Forwarded from Laravel News
Use Amazon's new Fair Queue Feature With SQS in Laravel 12.27 https://laravel-news.com/laravel-12-27-0
Laravel News
Use Amazon's new Fair Queue Feature With SQS in Laravel 12.27 - Laravel News
The Laravel team released version 12.27.0 this week, introducing support for SQS FIFO queue message group IDs in Laravel. Group IDs unlock the ability to utilize Amazon's fair queue feature in SQS.
Forwarded from Linuxor ?
Media is too big
VIEW IN TELEGRAM
چند دقیقه با سزو قسمت 2
دیروز یکی از بزرگ ترین حملات DDOS تاریخ روی کلادفلر خورد، بررسی نوع حمله و مقایسه اون با حملات بزرگ دیگه
@Linuxor
دیروز یکی از بزرگ ترین حملات DDOS تاریخ روی کلادفلر خورد، بررسی نوع حمله و مقایسه اون با حملات بزرگ دیگه
@Linuxor
Forwarded from Software Engineer Labdon
جدا از مهندسی پشت تلگرام که بهینه نوشته شده، تلگرام چیزی داره به اسم Update Queue. چیزی که ۱ سال از دوران جوونیم رو صرف مهندسی معکوسش کردم.
تلگرام برای پوش کردن تغییرات مثل پیام جدید، ادیت، ری اکشن، تایپینگ و… به کلاینتها از سرویس Updates تو پروتکل MTProto استفاده میکنه، ایده ی کلی و کلیدی خیلی ساده اس و اینه که کلاینت ها یه state محلی نگه میدارن و آپدیتارو دقیقا با ترتیب درست اعمال میکنن؛ اگه شکافی بینشون افتاد، Difference میگیرن و دوباره پرش میکنن.
چرا اینکارو کرده و کلا چالشا چیه؟
• ترتیبش مهمه چون ممکنه یه اپدیت وابسته به چیزی باشه که توی خود همون پچ میاد
• تحویل دقیق باید انجام بشه و هیچی گم نشه
• مقیاسش هم میلیونها کاربر همزمان باید بگیرنش، مثل کانال های بزرگ
از اونجایی که هر پیامرسان منبع عظیمی از اتفاقاتیه که هر لحظه میوفته ما میتونیم اسم این اتفاقات رو event بزاریم. تلگرام هم یه پیامرسان مولتی کلاینته، یعنی هر کاربر میتونه چندین دیوایس برای یه حساب داشته باشه، پس وقتی یه ایونت اتفاق میوفته که باید یه کاربر از اون خبردار بشه باید اون ایونت رو به دیوایس های دیگه ی کاربر هم بفرسته، حدودا با مرتبه زمانی On^2.
مکانیزم اینجوریه که وقتی دیوایسی انلاین باشه و سوکت همون سوکتی باشه که keep alive هست یا اخرین rpc رو کال کرده سرور ایونت رو توی queue برای اون دیوایس نگه نمیداره و مستقیم میفرسته به کلاینت، حالا از اونجایی که کلاینت های دیگه ممکنه افلاین باشن یا حتی توی بکگراند پروسسشون کیل شده باشه عقب میمونن. حالا وقتی اون دیوایسی که عقب مونده بود با باز شدن سوکتش درخواست گرفتن اپدیت هارو وقتی که افلاین بوده رو از سرور میکنه و اطلاعات لوکالش رو میفرسته به سرور، من برای ساده شدنش اینجوری میگم که دیوایس میاد به سرور میگه من تا این زمان t رو داشتم و بعد این رو بهم بده، سرور هم میاد حساب کتابش رو میکنه و جواب رو توی یه پچ میفرسته! حالا چی توی این پچ هست و چی رو میفرسته رو میتونم یه رشته توییت دیگه در موردش بزنم.
حالا اگه اعدادی که توی پچ میاد با اعداد توی کلاینت نخونه عملا میگیم گپ اتفاق افتاده، برای همین هم کلاینت باید رکویست getDiff رو بزنه.
رکویست updates.getDifference به کلاینت اجازه میده بگه:
من الان pts = X و seq = Y هستم و هر چی بین این و حالت جدید هست بهم بده.
• سرور ممکنه جواب بده:
difference: همه ی آپدیت های گمشده
differenceSlice: بخشی از آپدیت ها یعنی هنوز باید به فچ کردن ادامه بدی
differenceEmpty: چیزی تغییر نکرده
جالبترش اینه که توی نسخه های جدیدترش برای کانال ها مکانیسم جدا getChannelDifference هست، چون هر کانال pts مستقل داره و این باعث میشه شما فقط کانال هایی رو بگیری که تغییر کردن! برای سوپر گروه هم مکانیزم همینه.
این باعث میشه حتی اگر چند ساعت آفلاین باشی، بعد از اتصال دوباره دقیقاً همهچی رو بگیری و هیچ پیامی رو از دست ندی
حتی با packet loss یا reconnect، state کلاینت خراب نمیشه و سرور مجبور نیست برای هر کلاینت همه چی رو دوباره بفرسته. فقط gap ها sync میشن
<Abolfazl/>
تلگرام برای پوش کردن تغییرات مثل پیام جدید، ادیت، ری اکشن، تایپینگ و… به کلاینتها از سرویس Updates تو پروتکل MTProto استفاده میکنه، ایده ی کلی و کلیدی خیلی ساده اس و اینه که کلاینت ها یه state محلی نگه میدارن و آپدیتارو دقیقا با ترتیب درست اعمال میکنن؛ اگه شکافی بینشون افتاد، Difference میگیرن و دوباره پرش میکنن.
چرا اینکارو کرده و کلا چالشا چیه؟
• ترتیبش مهمه چون ممکنه یه اپدیت وابسته به چیزی باشه که توی خود همون پچ میاد
• تحویل دقیق باید انجام بشه و هیچی گم نشه
• مقیاسش هم میلیونها کاربر همزمان باید بگیرنش، مثل کانال های بزرگ
از اونجایی که هر پیامرسان منبع عظیمی از اتفاقاتیه که هر لحظه میوفته ما میتونیم اسم این اتفاقات رو event بزاریم. تلگرام هم یه پیامرسان مولتی کلاینته، یعنی هر کاربر میتونه چندین دیوایس برای یه حساب داشته باشه، پس وقتی یه ایونت اتفاق میوفته که باید یه کاربر از اون خبردار بشه باید اون ایونت رو به دیوایس های دیگه ی کاربر هم بفرسته، حدودا با مرتبه زمانی On^2.
مکانیزم اینجوریه که وقتی دیوایسی انلاین باشه و سوکت همون سوکتی باشه که keep alive هست یا اخرین rpc رو کال کرده سرور ایونت رو توی queue برای اون دیوایس نگه نمیداره و مستقیم میفرسته به کلاینت، حالا از اونجایی که کلاینت های دیگه ممکنه افلاین باشن یا حتی توی بکگراند پروسسشون کیل شده باشه عقب میمونن. حالا وقتی اون دیوایسی که عقب مونده بود با باز شدن سوکتش درخواست گرفتن اپدیت هارو وقتی که افلاین بوده رو از سرور میکنه و اطلاعات لوکالش رو میفرسته به سرور، من برای ساده شدنش اینجوری میگم که دیوایس میاد به سرور میگه من تا این زمان t رو داشتم و بعد این رو بهم بده، سرور هم میاد حساب کتابش رو میکنه و جواب رو توی یه پچ میفرسته! حالا چی توی این پچ هست و چی رو میفرسته رو میتونم یه رشته توییت دیگه در موردش بزنم.
حالا اگه اعدادی که توی پچ میاد با اعداد توی کلاینت نخونه عملا میگیم گپ اتفاق افتاده، برای همین هم کلاینت باید رکویست getDiff رو بزنه.
رکویست updates.getDifference به کلاینت اجازه میده بگه:
من الان pts = X و seq = Y هستم و هر چی بین این و حالت جدید هست بهم بده.
• سرور ممکنه جواب بده:
difference: همه ی آپدیت های گمشده
differenceSlice: بخشی از آپدیت ها یعنی هنوز باید به فچ کردن ادامه بدی
differenceEmpty: چیزی تغییر نکرده
جالبترش اینه که توی نسخه های جدیدترش برای کانال ها مکانیسم جدا getChannelDifference هست، چون هر کانال pts مستقل داره و این باعث میشه شما فقط کانال هایی رو بگیری که تغییر کردن! برای سوپر گروه هم مکانیزم همینه.
این باعث میشه حتی اگر چند ساعت آفلاین باشی، بعد از اتصال دوباره دقیقاً همهچی رو بگیری و هیچ پیامی رو از دست ندی
حتی با packet loss یا reconnect، state کلاینت خراب نمیشه و سرور مجبور نیست برای هر کلاینت همه چی رو دوباره بفرسته. فقط gap ها sync میشن
<Abolfazl/>
Forwarded from Reza Jafari
گزارشی بر gpt-oss
شرکت OpenAI بعد از سالها اولین بار با معرفی خانوادهی GPT-OSS دوباره سراغ مدلهای باز رفت. این مجموعه شامل دو مدل reasoning با وزن باز (open-weight) به نامهای GPT-OSS-20B و GPT-OSS-120B هست که از زمان انتشار GPT-2، بزرگترین حرکت OpenAI در این حوزه محسوب میشه. تفاوت اصلی این مدلها با نسخههای قبلی اینه که هم وزنهاشون منتشر شده و هم برای اجرا روی سختافزارهای عمومی بهینه شدن. نسخهی ۲۰ میلیارد پارامتری (20B) برای استفادههای لوکال و سبکتر طراحی شده ، در حالیکه نسخهی بزرگتر یعنی 120B توان پردازشی نزدیک به مدلهای سری o-mini رو ارائه میده و برای پروژههای سنگینتر مناسبتره. هر دو مدل روی معماری Mixture-of-Experts (MoE) ساخته شدن و با context window حدود ۱۲۸ هزار توکن، توانایی پردازش ورودیهای طولانی رو دارن.
البته همچنان باید همهی پارامترها توی حافظه بارگذاری بشن و همینجاست که بحث Quantization اهمیت پیدا میکنه. بهطور سنتی، مدلهای زبانی با precision بالاتر مثل 32bit یا 16bit آموزش داده میشن. این روشها پایدارن ولی باعث میشن مدلها بسیار حجیم و پرمصرف باشن. در سالهای اخیر، با پیشرفت GPUها، امکان استفاده از precision پایینتر مثل 8bit، 6bit یا حتی 4bit فراهم شده. مشکل اینجاست که هرچه precision پایینتر بیاد، ریسک ناپایداری، افت کیفیت و خطاهای عددی بیشتر میشه.
اوایل امسال DeepSeek یک framework با FP8 معرفی کرد و بعدش Meta هم تونست مدل Llama4 رو با همین precision آموزش بده. اما OpenAI این بار پا رو فراتر گذاشته و از فرمت جدیدی به نام MXFP4 استفاده کرده که معادل حدود ۴.۲۵ بیت هست. این فرمت که در سال ۲۰۲۴ توسط Open Compute Project استاندارد شد، با طراحی خاص خودش—یعنی تقسیم دادهها به بلوکهای کوچک و استفاده از یک scale مشترک برای هر بلوک—باعث میشه حتی با این precision پایین هم دقت مدل حفظ بشه. همین نوآوری باعث شده مدلهای GPT-OSS هم سبکتر باشن و هم پایدار باقی بمونن.نتیجهی عملی اینه که مدل GPT-OSS-20B فقط با حدود ۱۶ گیگابایت حافظه قابل اجراست.
در مجموع، خانوادهی GPT-OSS نشون میده که میشه بین شفافیت، کارایی و دسترسپذیری تعادل ایجاد کرد. کاربران حالا میتونن این مدلها رو بهصورت لوکال روی لپتاپ یا GPUهای استاندارد اجرا کنن، از قدرت reasoning بالاشون استفاده کنن، و در عین حال از مزیتهای معماری MoE و کوانتیزیشن MXFP4 برای سرعت و بهینگی بهرهمند بشن. این حرکت OpenAI اگرچه به معنای «کاملاً متنباز بودن» نیست چون دادهها و کدهای آموزش منتشر نشده، اما بدون شک یک گام بزرگ در جهت بازتر کردن هوش مصنوعی برای جامعهی تحقیقاتی و توسعهدهندههاست.
🔗 لینک صفحه hf مدلها
🔤 🔤 🔤 🔤 🔤 🔤 🔤
🥇 اهورا اولین اپراتور هوش مصنوعی راهبردی ایران در حوزه ارائه خدمات و سرویسهای زیرساخت هوش مصنوعی
🛍 کد تخفیف ۱۰ درصدی محصولات اهورا برای اعضای کانال
🌐 لینک وبسایت اهورا
@reza_jafari_ai
شرکت OpenAI بعد از سالها اولین بار با معرفی خانوادهی GPT-OSS دوباره سراغ مدلهای باز رفت. این مجموعه شامل دو مدل reasoning با وزن باز (open-weight) به نامهای GPT-OSS-20B و GPT-OSS-120B هست که از زمان انتشار GPT-2، بزرگترین حرکت OpenAI در این حوزه محسوب میشه. تفاوت اصلی این مدلها با نسخههای قبلی اینه که هم وزنهاشون منتشر شده و هم برای اجرا روی سختافزارهای عمومی بهینه شدن. نسخهی ۲۰ میلیارد پارامتری (20B) برای استفادههای لوکال و سبکتر طراحی شده ، در حالیکه نسخهی بزرگتر یعنی 120B توان پردازشی نزدیک به مدلهای سری o-mini رو ارائه میده و برای پروژههای سنگینتر مناسبتره. هر دو مدل روی معماری Mixture-of-Experts (MoE) ساخته شدن و با context window حدود ۱۲۸ هزار توکن، توانایی پردازش ورودیهای طولانی رو دارن.
البته همچنان باید همهی پارامترها توی حافظه بارگذاری بشن و همینجاست که بحث Quantization اهمیت پیدا میکنه. بهطور سنتی، مدلهای زبانی با precision بالاتر مثل 32bit یا 16bit آموزش داده میشن. این روشها پایدارن ولی باعث میشن مدلها بسیار حجیم و پرمصرف باشن. در سالهای اخیر، با پیشرفت GPUها، امکان استفاده از precision پایینتر مثل 8bit، 6bit یا حتی 4bit فراهم شده. مشکل اینجاست که هرچه precision پایینتر بیاد، ریسک ناپایداری، افت کیفیت و خطاهای عددی بیشتر میشه.
اوایل امسال DeepSeek یک framework با FP8 معرفی کرد و بعدش Meta هم تونست مدل Llama4 رو با همین precision آموزش بده. اما OpenAI این بار پا رو فراتر گذاشته و از فرمت جدیدی به نام MXFP4 استفاده کرده که معادل حدود ۴.۲۵ بیت هست. این فرمت که در سال ۲۰۲۴ توسط Open Compute Project استاندارد شد، با طراحی خاص خودش—یعنی تقسیم دادهها به بلوکهای کوچک و استفاده از یک scale مشترک برای هر بلوک—باعث میشه حتی با این precision پایین هم دقت مدل حفظ بشه. همین نوآوری باعث شده مدلهای GPT-OSS هم سبکتر باشن و هم پایدار باقی بمونن.نتیجهی عملی اینه که مدل GPT-OSS-20B فقط با حدود ۱۶ گیگابایت حافظه قابل اجراست.
در مجموع، خانوادهی GPT-OSS نشون میده که میشه بین شفافیت، کارایی و دسترسپذیری تعادل ایجاد کرد. کاربران حالا میتونن این مدلها رو بهصورت لوکال روی لپتاپ یا GPUهای استاندارد اجرا کنن، از قدرت reasoning بالاشون استفاده کنن، و در عین حال از مزیتهای معماری MoE و کوانتیزیشن MXFP4 برای سرعت و بهینگی بهرهمند بشن. این حرکت OpenAI اگرچه به معنای «کاملاً متنباز بودن» نیست چون دادهها و کدهای آموزش منتشر نشده، اما بدون شک یک گام بزرگ در جهت بازتر کردن هوش مصنوعی برای جامعهی تحقیقاتی و توسعهدهندههاست.
AHURA5@reza_jafari_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from linuxtnt(linux tips and tricks) (hosein seilany https://seilany.ir/)
🛠 ساخت و فعالسازی حافظه Swap در لینوکس
1️⃣ ساخت فایل Swap (اینجا 8 گیگ):
2️⃣ تغییر سطح دسترسی (خیلی مهم!):
3️⃣ فرمت کردن فایل به Swap:
4️⃣ فعالکردن Swap:
5️⃣ بررسی وضعیت Swap:
اگر میخواید بعد از ریبوت هم فعال بمونه، این خط رو به /etc/fstab اضافه کنید:
نویسنده: حسین سیلانی
https://learninghive.ir
1️⃣ ساخت فایل Swap (اینجا 8 گیگ):
sudo fallocate -l 8G /swapfile
2️⃣ تغییر سطح دسترسی (خیلی مهم!):
sudo chmod 600 /swapfile
3️⃣ فرمت کردن فایل به Swap:
sudo mkswap /swapfile
4️⃣ فعالکردن Swap:
sudo swapon /swapfile
5️⃣ بررسی وضعیت Swap:
swapon --show
free -h
اگر میخواید بعد از ریبوت هم فعال بمونه، این خط رو به /etc/fstab اضافه کنید:
/swapfile none swap sw 0 0
نویسنده: حسین سیلانی
https://learninghive.ir
Forwarded from InAppify | ایناپیفای
مبلغ فعالسازی پلن تیم:(30 روزه)
1 کاربره: 330 هزار تومان
5 کاربره: 950 هزار تومان
مبلغ فعالسازی پلن پلاس شخصی:
3 ماهه به ارزش 60 دلار: 1.990 میلیون تومان
اعتماد نداری ⁉️
#رضایت مشتری هارو از اینجا ببین و با اطمینان کامل خرید کن
سوالات متداول :
+ چرا قیمت ها نسبت به ماه های قبل و سایر فروشگاه ها ارزون تره آیا اکانت ها هکی هستن ؟
- اکانت ها کاملا قانونی و با ضمانت ارائه میشن دلیل ارزون بودنش هم تخفیفی هست که به صورت مستقیم خود OpenAI داره ارائه میده
+ ظرفیت های اکانت به چه صورت هست ؟
- به صورت تک کاربره و 5 کاربره بهتون ارائه میدیم . جفت ظرفیت ها اختصاصی هست یعنی هیچکس به چت های شما دسترسی نداره و هر فرد یک اکانت جداگانه داره
+ من قبلا اکانت خریدم ولی قبل از موعود ۳۰ روزه دی اکتیو شده برای شما هم اینطور میشه ؟
- خیر، اکانت ها به صورت پیپالی ساخته میشن و از کیفیت بسیار بالایی برخوردار هستن و برای هر اکانت یک کارت و پیپال متفاوت استفاده میشه که ریسک بن شدن رو خیلی کم میکنه. همچنین اکانت ها ضمانت کامل ۳۰ روزه هم دارن که اگه مشکلی پیش بیاد جایگزین تحویل داده میشه
+ اکانت های پنج کاربره به چه صورت هست ؟
- شما یه اکانت مادر خریداری می کنید بعد از خریداری می تونید حداکثر تا 5 ایمیل به پلتفرم معرفی کنید و هر ایمیل تبدیل به اکانت پرمیوم به صورت جداگانه و مجزا میشه ( 5 تا اکانت جدا نه اینکه یک اکانت رو 5 نفره استفاده کنید )
+ فرق اکانت معمولی با اکانت Plus
چیه ؟
- نسخه پلاس سریع تر ، هوشمند تر ، پاسخ های بهتر و با باگ های کمتر و مهم تر از همه بدون محدودیت روی موتور GPT-5 در پاسخ گویی هست که میتونه براتون کد بزنه ، عکس و انیمیشن بسازه و …
برای اطلاعات بیشتر از تفاوت های رایگان و
پلاس توی گوگل جست و جو کنید
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Linuxor ?
قبلا درباره ماشین لرنینگ پست گداشته بودم اینم یه لیستی از نوت بوک های جوپیتر پایتون برای دیپ لرنینگ، کافیه جوپیتر پایتون رو نصب کنید و کد هارو توی هر درس بخش به بخش روی سیستم خودتون اجرا کنید و نتیجه خروجی رو ببینید اینطوری بهتر از تئوری یاد میگیرید:
برای شروع برید توی دایرکتوری ویرایش دوم second_edition ، اگر هم سیستمون ضعیفه روی Colab اجرا کنید راهنماش داخل توضیحاتش هست :
github.com/fchollet/deep-learning-with-python-notebooks
@Linuxor
برای شروع برید توی دایرکتوری ویرایش دوم second_edition ، اگر هم سیستمون ضعیفه روی Colab اجرا کنید راهنماش داخل توضیحاتش هست :
github.com/fchollet/deep-learning-with-python-notebooks
@Linuxor
Forwarded from 🎄 یک برنامه نویس تنبل (Lazy 🌱)
🔶 در حال توسعه پروژه MERN مدیریت وظایف هستم که کار با دیتابیس آنلاین اطلس کلود (Mongo DB) خیلی دردسر داره.
توی احزار هویت ورود و عضویتش اینکه درخواست عضویت می فرستیم انجام میشه و اما درخواست لاگین انجام میدیم, وارد نمیشه.
با اینکه پیش فرض پورت آن 5000 است و کدها دوباره بررسی کردم مشکلی نداشت!
اینم مسیر API ورود و عضویت :
توی فکر بودم که مدیریت دیتابیس از حالت آنلاین خارج شیم و به صورت دیتابیس لوکال هاست پیش ببریم.
ببینم این روش مشکل حل می کنه یا خیر ...
#mern
@TheRaymondDev
توی احزار هویت ورود و عضویتش اینکه درخواست عضویت می فرستیم انجام میشه و اما درخواست لاگین انجام میدیم, وارد نمیشه.
با اینکه پیش فرض پورت آن 5000 است و کدها دوباره بررسی کردم مشکلی نداشت!
اینم مسیر API ورود و عضویت :
export const API_URL = 'https://localhost:5000';
AUTH: {
LOGIN: "/api/auth/login",
REGISTER: "/api/auth/register",
},
توی فکر بودم که مدیریت دیتابیس از حالت آنلاین خارج شیم و به صورت دیتابیس لوکال هاست پیش ببریم.
ببینم این روش مشکل حل می کنه یا خیر ...
#mern
@TheRaymondDev
Forwarded from 🎄 یک برنامه نویس تنبل (Lazy 🌱)
This media is not supported in your browser
VIEW IN TELEGRAM
Forwarded from linuxtnt(linux tips and tricks) (hosein seilany https://seilany.ir/)
🛠 افزایش حافظه Swap در لینوکس
غیر فعال کردن swap فعلی
1️⃣ تغییر اندازه فایل Swap (اینجا 10 گیگ):
2️⃣ تغییر سطح دسترسی (خیلی مهم!):
3️⃣ فرمت کردن فایل به Swap:
4️⃣ فعالکردن Swap:
5️⃣ بررسی وضعیت Swap:
اگر میخواید بعد از ریبوت هم فعال بمونه، این خط رو به /etc/fstab اضافه کنید:
نویسنده: حسین سیلانی
https://learninghive.ir
غیر فعال کردن swap فعلی
sudo swapoff /swapfile
1️⃣ تغییر اندازه فایل Swap (اینجا 10 گیگ):
sudo fallocate -l 10G /swapfile
2️⃣ تغییر سطح دسترسی (خیلی مهم!):
sudo chmod 600 /swapfile
3️⃣ فرمت کردن فایل به Swap:
sudo mkswap /swapfile
4️⃣ فعالکردن Swap:
sudo swapon /swapfile
5️⃣ بررسی وضعیت Swap:
swapon --show
free -h
اگر میخواید بعد از ریبوت هم فعال بمونه، این خط رو به /etc/fstab اضافه کنید:
/swapfile none swap sw 0 0
نویسنده: حسین سیلانی
https://learninghive.ir