Forwarded from Software Engineer Labdon
جدا از مهندسی پشت تلگرام که بهینه نوشته شده، تلگرام چیزی داره به اسم Update Queue. چیزی که ۱ سال از دوران جوونیم رو صرف مهندسی معکوسش کردم.
تلگرام برای پوش کردن تغییرات مثل پیام جدید، ادیت، ری اکشن، تایپینگ و… به کلاینتها از سرویس Updates تو پروتکل MTProto استفاده میکنه، ایده ی کلی و کلیدی خیلی ساده اس و اینه که کلاینت ها یه state محلی نگه میدارن و آپدیتارو دقیقا با ترتیب درست اعمال میکنن؛ اگه شکافی بینشون افتاد، Difference میگیرن و دوباره پرش میکنن.
چرا اینکارو کرده و کلا چالشا چیه؟
• ترتیبش مهمه چون ممکنه یه اپدیت وابسته به چیزی باشه که توی خود همون پچ میاد
• تحویل دقیق باید انجام بشه و هیچی گم نشه
• مقیاسش هم میلیونها کاربر همزمان باید بگیرنش، مثل کانال های بزرگ
از اونجایی که هر پیامرسان منبع عظیمی از اتفاقاتیه که هر لحظه میوفته ما میتونیم اسم این اتفاقات رو event بزاریم. تلگرام هم یه پیامرسان مولتی کلاینته، یعنی هر کاربر میتونه چندین دیوایس برای یه حساب داشته باشه، پس وقتی یه ایونت اتفاق میوفته که باید یه کاربر از اون خبردار بشه باید اون ایونت رو به دیوایس های دیگه ی کاربر هم بفرسته، حدودا با مرتبه زمانی On^2.
مکانیزم اینجوریه که وقتی دیوایسی انلاین باشه و سوکت همون سوکتی باشه که keep alive هست یا اخرین rpc رو کال کرده سرور ایونت رو توی queue برای اون دیوایس نگه نمیداره و مستقیم میفرسته به کلاینت، حالا از اونجایی که کلاینت های دیگه ممکنه افلاین باشن یا حتی توی بکگراند پروسسشون کیل شده باشه عقب میمونن. حالا وقتی اون دیوایسی که عقب مونده بود با باز شدن سوکتش درخواست گرفتن اپدیت هارو وقتی که افلاین بوده رو از سرور میکنه و اطلاعات لوکالش رو میفرسته به سرور، من برای ساده شدنش اینجوری میگم که دیوایس میاد به سرور میگه من تا این زمان t رو داشتم و بعد این رو بهم بده، سرور هم میاد حساب کتابش رو میکنه و جواب رو توی یه پچ میفرسته! حالا چی توی این پچ هست و چی رو میفرسته رو میتونم یه رشته توییت دیگه در موردش بزنم.
حالا اگه اعدادی که توی پچ میاد با اعداد توی کلاینت نخونه عملا میگیم گپ اتفاق افتاده، برای همین هم کلاینت باید رکویست getDiff رو بزنه.
رکویست updates.getDifference به کلاینت اجازه میده بگه:
من الان pts = X و seq = Y هستم و هر چی بین این و حالت جدید هست بهم بده.
• سرور ممکنه جواب بده:
difference: همه ی آپدیت های گمشده
differenceSlice: بخشی از آپدیت ها یعنی هنوز باید به فچ کردن ادامه بدی
differenceEmpty: چیزی تغییر نکرده
جالبترش اینه که توی نسخه های جدیدترش برای کانال ها مکانیسم جدا getChannelDifference هست، چون هر کانال pts مستقل داره و این باعث میشه شما فقط کانال هایی رو بگیری که تغییر کردن! برای سوپر گروه هم مکانیزم همینه.
این باعث میشه حتی اگر چند ساعت آفلاین باشی، بعد از اتصال دوباره دقیقاً همهچی رو بگیری و هیچ پیامی رو از دست ندی
حتی با packet loss یا reconnect، state کلاینت خراب نمیشه و سرور مجبور نیست برای هر کلاینت همه چی رو دوباره بفرسته. فقط gap ها sync میشن
<Abolfazl/>
تلگرام برای پوش کردن تغییرات مثل پیام جدید، ادیت، ری اکشن، تایپینگ و… به کلاینتها از سرویس Updates تو پروتکل MTProto استفاده میکنه، ایده ی کلی و کلیدی خیلی ساده اس و اینه که کلاینت ها یه state محلی نگه میدارن و آپدیتارو دقیقا با ترتیب درست اعمال میکنن؛ اگه شکافی بینشون افتاد، Difference میگیرن و دوباره پرش میکنن.
چرا اینکارو کرده و کلا چالشا چیه؟
• ترتیبش مهمه چون ممکنه یه اپدیت وابسته به چیزی باشه که توی خود همون پچ میاد
• تحویل دقیق باید انجام بشه و هیچی گم نشه
• مقیاسش هم میلیونها کاربر همزمان باید بگیرنش، مثل کانال های بزرگ
از اونجایی که هر پیامرسان منبع عظیمی از اتفاقاتیه که هر لحظه میوفته ما میتونیم اسم این اتفاقات رو event بزاریم. تلگرام هم یه پیامرسان مولتی کلاینته، یعنی هر کاربر میتونه چندین دیوایس برای یه حساب داشته باشه، پس وقتی یه ایونت اتفاق میوفته که باید یه کاربر از اون خبردار بشه باید اون ایونت رو به دیوایس های دیگه ی کاربر هم بفرسته، حدودا با مرتبه زمانی On^2.
مکانیزم اینجوریه که وقتی دیوایسی انلاین باشه و سوکت همون سوکتی باشه که keep alive هست یا اخرین rpc رو کال کرده سرور ایونت رو توی queue برای اون دیوایس نگه نمیداره و مستقیم میفرسته به کلاینت، حالا از اونجایی که کلاینت های دیگه ممکنه افلاین باشن یا حتی توی بکگراند پروسسشون کیل شده باشه عقب میمونن. حالا وقتی اون دیوایسی که عقب مونده بود با باز شدن سوکتش درخواست گرفتن اپدیت هارو وقتی که افلاین بوده رو از سرور میکنه و اطلاعات لوکالش رو میفرسته به سرور، من برای ساده شدنش اینجوری میگم که دیوایس میاد به سرور میگه من تا این زمان t رو داشتم و بعد این رو بهم بده، سرور هم میاد حساب کتابش رو میکنه و جواب رو توی یه پچ میفرسته! حالا چی توی این پچ هست و چی رو میفرسته رو میتونم یه رشته توییت دیگه در موردش بزنم.
حالا اگه اعدادی که توی پچ میاد با اعداد توی کلاینت نخونه عملا میگیم گپ اتفاق افتاده، برای همین هم کلاینت باید رکویست getDiff رو بزنه.
رکویست updates.getDifference به کلاینت اجازه میده بگه:
من الان pts = X و seq = Y هستم و هر چی بین این و حالت جدید هست بهم بده.
• سرور ممکنه جواب بده:
difference: همه ی آپدیت های گمشده
differenceSlice: بخشی از آپدیت ها یعنی هنوز باید به فچ کردن ادامه بدی
differenceEmpty: چیزی تغییر نکرده
جالبترش اینه که توی نسخه های جدیدترش برای کانال ها مکانیسم جدا getChannelDifference هست، چون هر کانال pts مستقل داره و این باعث میشه شما فقط کانال هایی رو بگیری که تغییر کردن! برای سوپر گروه هم مکانیزم همینه.
این باعث میشه حتی اگر چند ساعت آفلاین باشی، بعد از اتصال دوباره دقیقاً همهچی رو بگیری و هیچ پیامی رو از دست ندی
حتی با packet loss یا reconnect، state کلاینت خراب نمیشه و سرور مجبور نیست برای هر کلاینت همه چی رو دوباره بفرسته. فقط gap ها sync میشن
<Abolfazl/>
Forwarded from Reza Jafari
گزارشی بر gpt-oss
شرکت OpenAI بعد از سالها اولین بار با معرفی خانوادهی GPT-OSS دوباره سراغ مدلهای باز رفت. این مجموعه شامل دو مدل reasoning با وزن باز (open-weight) به نامهای GPT-OSS-20B و GPT-OSS-120B هست که از زمان انتشار GPT-2، بزرگترین حرکت OpenAI در این حوزه محسوب میشه. تفاوت اصلی این مدلها با نسخههای قبلی اینه که هم وزنهاشون منتشر شده و هم برای اجرا روی سختافزارهای عمومی بهینه شدن. نسخهی ۲۰ میلیارد پارامتری (20B) برای استفادههای لوکال و سبکتر طراحی شده ، در حالیکه نسخهی بزرگتر یعنی 120B توان پردازشی نزدیک به مدلهای سری o-mini رو ارائه میده و برای پروژههای سنگینتر مناسبتره. هر دو مدل روی معماری Mixture-of-Experts (MoE) ساخته شدن و با context window حدود ۱۲۸ هزار توکن، توانایی پردازش ورودیهای طولانی رو دارن.
البته همچنان باید همهی پارامترها توی حافظه بارگذاری بشن و همینجاست که بحث Quantization اهمیت پیدا میکنه. بهطور سنتی، مدلهای زبانی با precision بالاتر مثل 32bit یا 16bit آموزش داده میشن. این روشها پایدارن ولی باعث میشن مدلها بسیار حجیم و پرمصرف باشن. در سالهای اخیر، با پیشرفت GPUها، امکان استفاده از precision پایینتر مثل 8bit، 6bit یا حتی 4bit فراهم شده. مشکل اینجاست که هرچه precision پایینتر بیاد، ریسک ناپایداری، افت کیفیت و خطاهای عددی بیشتر میشه.
اوایل امسال DeepSeek یک framework با FP8 معرفی کرد و بعدش Meta هم تونست مدل Llama4 رو با همین precision آموزش بده. اما OpenAI این بار پا رو فراتر گذاشته و از فرمت جدیدی به نام MXFP4 استفاده کرده که معادل حدود ۴.۲۵ بیت هست. این فرمت که در سال ۲۰۲۴ توسط Open Compute Project استاندارد شد، با طراحی خاص خودش—یعنی تقسیم دادهها به بلوکهای کوچک و استفاده از یک scale مشترک برای هر بلوک—باعث میشه حتی با این precision پایین هم دقت مدل حفظ بشه. همین نوآوری باعث شده مدلهای GPT-OSS هم سبکتر باشن و هم پایدار باقی بمونن.نتیجهی عملی اینه که مدل GPT-OSS-20B فقط با حدود ۱۶ گیگابایت حافظه قابل اجراست.
در مجموع، خانوادهی GPT-OSS نشون میده که میشه بین شفافیت، کارایی و دسترسپذیری تعادل ایجاد کرد. کاربران حالا میتونن این مدلها رو بهصورت لوکال روی لپتاپ یا GPUهای استاندارد اجرا کنن، از قدرت reasoning بالاشون استفاده کنن، و در عین حال از مزیتهای معماری MoE و کوانتیزیشن MXFP4 برای سرعت و بهینگی بهرهمند بشن. این حرکت OpenAI اگرچه به معنای «کاملاً متنباز بودن» نیست چون دادهها و کدهای آموزش منتشر نشده، اما بدون شک یک گام بزرگ در جهت بازتر کردن هوش مصنوعی برای جامعهی تحقیقاتی و توسعهدهندههاست.
🔗 لینک صفحه hf مدلها
🔤 🔤 🔤 🔤 🔤 🔤 🔤
🥇 اهورا اولین اپراتور هوش مصنوعی راهبردی ایران در حوزه ارائه خدمات و سرویسهای زیرساخت هوش مصنوعی
🛍 کد تخفیف ۱۰ درصدی محصولات اهورا برای اعضای کانال
🌐 لینک وبسایت اهورا
@reza_jafari_ai
شرکت OpenAI بعد از سالها اولین بار با معرفی خانوادهی GPT-OSS دوباره سراغ مدلهای باز رفت. این مجموعه شامل دو مدل reasoning با وزن باز (open-weight) به نامهای GPT-OSS-20B و GPT-OSS-120B هست که از زمان انتشار GPT-2، بزرگترین حرکت OpenAI در این حوزه محسوب میشه. تفاوت اصلی این مدلها با نسخههای قبلی اینه که هم وزنهاشون منتشر شده و هم برای اجرا روی سختافزارهای عمومی بهینه شدن. نسخهی ۲۰ میلیارد پارامتری (20B) برای استفادههای لوکال و سبکتر طراحی شده ، در حالیکه نسخهی بزرگتر یعنی 120B توان پردازشی نزدیک به مدلهای سری o-mini رو ارائه میده و برای پروژههای سنگینتر مناسبتره. هر دو مدل روی معماری Mixture-of-Experts (MoE) ساخته شدن و با context window حدود ۱۲۸ هزار توکن، توانایی پردازش ورودیهای طولانی رو دارن.
البته همچنان باید همهی پارامترها توی حافظه بارگذاری بشن و همینجاست که بحث Quantization اهمیت پیدا میکنه. بهطور سنتی، مدلهای زبانی با precision بالاتر مثل 32bit یا 16bit آموزش داده میشن. این روشها پایدارن ولی باعث میشن مدلها بسیار حجیم و پرمصرف باشن. در سالهای اخیر، با پیشرفت GPUها، امکان استفاده از precision پایینتر مثل 8bit، 6bit یا حتی 4bit فراهم شده. مشکل اینجاست که هرچه precision پایینتر بیاد، ریسک ناپایداری، افت کیفیت و خطاهای عددی بیشتر میشه.
اوایل امسال DeepSeek یک framework با FP8 معرفی کرد و بعدش Meta هم تونست مدل Llama4 رو با همین precision آموزش بده. اما OpenAI این بار پا رو فراتر گذاشته و از فرمت جدیدی به نام MXFP4 استفاده کرده که معادل حدود ۴.۲۵ بیت هست. این فرمت که در سال ۲۰۲۴ توسط Open Compute Project استاندارد شد، با طراحی خاص خودش—یعنی تقسیم دادهها به بلوکهای کوچک و استفاده از یک scale مشترک برای هر بلوک—باعث میشه حتی با این precision پایین هم دقت مدل حفظ بشه. همین نوآوری باعث شده مدلهای GPT-OSS هم سبکتر باشن و هم پایدار باقی بمونن.نتیجهی عملی اینه که مدل GPT-OSS-20B فقط با حدود ۱۶ گیگابایت حافظه قابل اجراست.
در مجموع، خانوادهی GPT-OSS نشون میده که میشه بین شفافیت، کارایی و دسترسپذیری تعادل ایجاد کرد. کاربران حالا میتونن این مدلها رو بهصورت لوکال روی لپتاپ یا GPUهای استاندارد اجرا کنن، از قدرت reasoning بالاشون استفاده کنن، و در عین حال از مزیتهای معماری MoE و کوانتیزیشن MXFP4 برای سرعت و بهینگی بهرهمند بشن. این حرکت OpenAI اگرچه به معنای «کاملاً متنباز بودن» نیست چون دادهها و کدهای آموزش منتشر نشده، اما بدون شک یک گام بزرگ در جهت بازتر کردن هوش مصنوعی برای جامعهی تحقیقاتی و توسعهدهندههاست.
AHURA5@reza_jafari_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from linuxtnt(linux tips and tricks) (hosein seilany https://seilany.ir/)
🛠 ساخت و فعالسازی حافظه Swap در لینوکس
1️⃣ ساخت فایل Swap (اینجا 8 گیگ):
2️⃣ تغییر سطح دسترسی (خیلی مهم!):
3️⃣ فرمت کردن فایل به Swap:
4️⃣ فعالکردن Swap:
5️⃣ بررسی وضعیت Swap:
اگر میخواید بعد از ریبوت هم فعال بمونه، این خط رو به /etc/fstab اضافه کنید:
نویسنده: حسین سیلانی
https://learninghive.ir
1️⃣ ساخت فایل Swap (اینجا 8 گیگ):
sudo fallocate -l 8G /swapfile
2️⃣ تغییر سطح دسترسی (خیلی مهم!):
sudo chmod 600 /swapfile
3️⃣ فرمت کردن فایل به Swap:
sudo mkswap /swapfile
4️⃣ فعالکردن Swap:
sudo swapon /swapfile
5️⃣ بررسی وضعیت Swap:
swapon --show
free -h
اگر میخواید بعد از ریبوت هم فعال بمونه، این خط رو به /etc/fstab اضافه کنید:
/swapfile none swap sw 0 0
نویسنده: حسین سیلانی
https://learninghive.ir
Forwarded from InAppify | ایناپیفای
مبلغ فعالسازی پلن تیم:(30 روزه)
1 کاربره: 330 هزار تومان
5 کاربره: 950 هزار تومان
مبلغ فعالسازی پلن پلاس شخصی:
3 ماهه به ارزش 60 دلار: 1.990 میلیون تومان
اعتماد نداری ⁉️
#رضایت مشتری هارو از اینجا ببین و با اطمینان کامل خرید کن
سوالات متداول :
+ چرا قیمت ها نسبت به ماه های قبل و سایر فروشگاه ها ارزون تره آیا اکانت ها هکی هستن ؟
- اکانت ها کاملا قانونی و با ضمانت ارائه میشن دلیل ارزون بودنش هم تخفیفی هست که به صورت مستقیم خود OpenAI داره ارائه میده
+ ظرفیت های اکانت به چه صورت هست ؟
- به صورت تک کاربره و 5 کاربره بهتون ارائه میدیم . جفت ظرفیت ها اختصاصی هست یعنی هیچکس به چت های شما دسترسی نداره و هر فرد یک اکانت جداگانه داره
+ من قبلا اکانت خریدم ولی قبل از موعود ۳۰ روزه دی اکتیو شده برای شما هم اینطور میشه ؟
- خیر، اکانت ها به صورت پیپالی ساخته میشن و از کیفیت بسیار بالایی برخوردار هستن و برای هر اکانت یک کارت و پیپال متفاوت استفاده میشه که ریسک بن شدن رو خیلی کم میکنه. همچنین اکانت ها ضمانت کامل ۳۰ روزه هم دارن که اگه مشکلی پیش بیاد جایگزین تحویل داده میشه
+ اکانت های پنج کاربره به چه صورت هست ؟
- شما یه اکانت مادر خریداری می کنید بعد از خریداری می تونید حداکثر تا 5 ایمیل به پلتفرم معرفی کنید و هر ایمیل تبدیل به اکانت پرمیوم به صورت جداگانه و مجزا میشه ( 5 تا اکانت جدا نه اینکه یک اکانت رو 5 نفره استفاده کنید )
+ فرق اکانت معمولی با اکانت Plus
چیه ؟
- نسخه پلاس سریع تر ، هوشمند تر ، پاسخ های بهتر و با باگ های کمتر و مهم تر از همه بدون محدودیت روی موتور GPT-5 در پاسخ گویی هست که میتونه براتون کد بزنه ، عکس و انیمیشن بسازه و …
برای اطلاعات بیشتر از تفاوت های رایگان و
پلاس توی گوگل جست و جو کنید
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Linuxor ?
قبلا درباره ماشین لرنینگ پست گداشته بودم اینم یه لیستی از نوت بوک های جوپیتر پایتون برای دیپ لرنینگ، کافیه جوپیتر پایتون رو نصب کنید و کد هارو توی هر درس بخش به بخش روی سیستم خودتون اجرا کنید و نتیجه خروجی رو ببینید اینطوری بهتر از تئوری یاد میگیرید:
برای شروع برید توی دایرکتوری ویرایش دوم second_edition ، اگر هم سیستمون ضعیفه روی Colab اجرا کنید راهنماش داخل توضیحاتش هست :
github.com/fchollet/deep-learning-with-python-notebooks
@Linuxor
برای شروع برید توی دایرکتوری ویرایش دوم second_edition ، اگر هم سیستمون ضعیفه روی Colab اجرا کنید راهنماش داخل توضیحاتش هست :
github.com/fchollet/deep-learning-with-python-notebooks
@Linuxor
Forwarded from 🎄 یک برنامه نویس تنبل (Lazy 🌱)
🔶 در حال توسعه پروژه MERN مدیریت وظایف هستم که کار با دیتابیس آنلاین اطلس کلود (Mongo DB) خیلی دردسر داره.
توی احزار هویت ورود و عضویتش اینکه درخواست عضویت می فرستیم انجام میشه و اما درخواست لاگین انجام میدیم, وارد نمیشه.
با اینکه پیش فرض پورت آن 5000 است و کدها دوباره بررسی کردم مشکلی نداشت!
اینم مسیر API ورود و عضویت :
توی فکر بودم که مدیریت دیتابیس از حالت آنلاین خارج شیم و به صورت دیتابیس لوکال هاست پیش ببریم.
ببینم این روش مشکل حل می کنه یا خیر ...
#mern
@TheRaymondDev
توی احزار هویت ورود و عضویتش اینکه درخواست عضویت می فرستیم انجام میشه و اما درخواست لاگین انجام میدیم, وارد نمیشه.
با اینکه پیش فرض پورت آن 5000 است و کدها دوباره بررسی کردم مشکلی نداشت!
اینم مسیر API ورود و عضویت :
export const API_URL = 'https://localhost:5000';
AUTH: {
LOGIN: "/api/auth/login",
REGISTER: "/api/auth/register",
},
توی فکر بودم که مدیریت دیتابیس از حالت آنلاین خارج شیم و به صورت دیتابیس لوکال هاست پیش ببریم.
ببینم این روش مشکل حل می کنه یا خیر ...
#mern
@TheRaymondDev
Forwarded from 🎄 یک برنامه نویس تنبل (Lazy 🌱)
This media is not supported in your browser
VIEW IN TELEGRAM
Forwarded from linuxtnt(linux tips and tricks) (hosein seilany https://seilany.ir/)
🛠 افزایش حافظه Swap در لینوکس
غیر فعال کردن swap فعلی
1️⃣ تغییر اندازه فایل Swap (اینجا 10 گیگ):
2️⃣ تغییر سطح دسترسی (خیلی مهم!):
3️⃣ فرمت کردن فایل به Swap:
4️⃣ فعالکردن Swap:
5️⃣ بررسی وضعیت Swap:
اگر میخواید بعد از ریبوت هم فعال بمونه، این خط رو به /etc/fstab اضافه کنید:
نویسنده: حسین سیلانی
https://learninghive.ir
غیر فعال کردن swap فعلی
sudo swapoff /swapfile
1️⃣ تغییر اندازه فایل Swap (اینجا 10 گیگ):
sudo fallocate -l 10G /swapfile
2️⃣ تغییر سطح دسترسی (خیلی مهم!):
sudo chmod 600 /swapfile
3️⃣ فرمت کردن فایل به Swap:
sudo mkswap /swapfile
4️⃣ فعالکردن Swap:
sudo swapon /swapfile
5️⃣ بررسی وضعیت Swap:
swapon --show
free -h
اگر میخواید بعد از ریبوت هم فعال بمونه، این خط رو به /etc/fstab اضافه کنید:
/swapfile none swap sw 0 0
نویسنده: حسین سیلانی
https://learninghive.ir
Forwarded from AiSegaro 👾
Media is too big
VIEW IN TELEGRAM
ساخت یک هوش مصنوعی بلادرنگ با تماس تلفنی
بچها این ویدیو یکم تخصصی هست برای کسایی که حرفه ای هستند , با این روش شما میتونید یه شماره بخرید وصل کنید به یک هوش مصنوعی و سایر منابع و به شماره زنگ بزنید و تلفنی بهش بگید چیکار کنه و براتون انجام میده
امین تو توییتر یه توییت زد در این مورد سریع براتون ویدیوش رو زیرنویس کردم که ایده بگیرید برای کارهای خیلی خفنتر
مثلا شما با همین روش میتونید با ویس با تلگرام همه اینگارهارو انجام بدید ع ویس بفرستید و ربات تلگرامتون همه کارهارو براتون انجام بده
کدهای آماده پروژه
https://github.com/megaconfidence/stripe-store-agent
📽 زیرنویس فارسی و انگلیسی
🧠 مناسب برای همه، چه مبتدی چه حرفهای
🌐 ترجمه این دوره با وبسایت isega.ro انجام شده — حتماً سر بزن!
☯️ 💳 با حمایت (Donate) از من، محتوای بیشتری در آینده قرار میدهم. لینک دونیت (ریالی و کریپتو): donate.isega.ro
📌 برای دیدن قسمتهای بعدی کانال رو دنبال کن:
📺🌐 @AiSegaro
🚀 هر روز یک قدم نزدیکتر به آیندهای هوشمند!
📤 بازنشر آزاد با ذکر منبع 🙏❤️
بچها این ویدیو یکم تخصصی هست برای کسایی که حرفه ای هستند , با این روش شما میتونید یه شماره بخرید وصل کنید به یک هوش مصنوعی و سایر منابع و به شماره زنگ بزنید و تلفنی بهش بگید چیکار کنه و براتون انجام میده
امین تو توییتر یه توییت زد در این مورد سریع براتون ویدیوش رو زیرنویس کردم که ایده بگیرید برای کارهای خیلی خفنتر
مثلا شما با همین روش میتونید با ویس با تلگرام همه اینگارهارو انجام بدید ع ویس بفرستید و ربات تلگرامتون همه کارهارو براتون انجام بده
کدهای آماده پروژه
https://github.com/megaconfidence/stripe-store-agent
📽 زیرنویس فارسی و انگلیسی
🧠 مناسب برای همه، چه مبتدی چه حرفهای
🌐 ترجمه این دوره با وبسایت isega.ro انجام شده — حتماً سر بزن!
☯️ 💳 با حمایت (Donate) از من، محتوای بیشتری در آینده قرار میدهم. لینک دونیت (ریالی و کریپتو): donate.isega.ro
📌 برای دیدن قسمتهای بعدی کانال رو دنبال کن:
📺🌐 @AiSegaro
🚀 هر روز یک قدم نزدیکتر به آیندهای هوشمند!
📤 بازنشر آزاد با ذکر منبع 🙏❤️
Forwarded from The Catcher in the Rye
چند وقت پیش چیزی در مورد «عشق ابدی» توی توئیتر نوشتم که باعث بدفهمی و ناراحتی عدهای شد. در صورتی که هدف من چیز دیگهای بود.
در هر حال، وقتی کمسنوسالتر بودم، آدم تندروتر و سختگیرتری بودم، شاید با لحن تندی در مورد «ابتذال» برخی چیزها نظرمو میگفتم. اما الان واقعا برام مهم نیست کی چی میبینه. حتی با دید تحقیر یا از بالا به پایین هم بهش نگاه نمیکنم.
همین الان هم خواهر و برادر کوچکتر خودم از این چیزها میبینن و اصلا کاری به کارشون ندارم.
بالاخره جامعه نمیتونه یکرنگ باشه و سلایق مختلف لازمهی جامعهان. همه که نباید تارکوفسکی و بلا تار ببینن -برتری خاصی هم ندارن. من خودم خیلی فیلمهای کمدی، اکشن یا اصطلاحا غیرفاخر تماشا میکنم و خوشم هم میاد.
اما با وجود همهی اینها، آیا باید راه «نقد» رو بست؟ یعنی هرکس با گفتن اینکه فلان چیز سلیقهمه، دوست دارم، به تو ربطی نداره، تو خوبی و... راه گفتوگو رو ببنده؟
در هر حال، وقتی کمسنوسالتر بودم، آدم تندروتر و سختگیرتری بودم، شاید با لحن تندی در مورد «ابتذال» برخی چیزها نظرمو میگفتم. اما الان واقعا برام مهم نیست کی چی میبینه. حتی با دید تحقیر یا از بالا به پایین هم بهش نگاه نمیکنم.
همین الان هم خواهر و برادر کوچکتر خودم از این چیزها میبینن و اصلا کاری به کارشون ندارم.
بالاخره جامعه نمیتونه یکرنگ باشه و سلایق مختلف لازمهی جامعهان. همه که نباید تارکوفسکی و بلا تار ببینن -برتری خاصی هم ندارن. من خودم خیلی فیلمهای کمدی، اکشن یا اصطلاحا غیرفاخر تماشا میکنم و خوشم هم میاد.
اما با وجود همهی اینها، آیا باید راه «نقد» رو بست؟ یعنی هرکس با گفتن اینکه فلان چیز سلیقهمه، دوست دارم، به تو ربطی نداره، تو خوبی و... راه گفتوگو رو ببنده؟
Forwarded from The Catcher in the Rye
بیننده فقط مصرفکننده نیست؛ خودش تبدیل میشه به بخشی از چرخهی تولید
هر کلیک، هر بازدید، هر فالو یه رأی اقتصادیه. پس بیتفاوتی نسبت به برخی چیزها و بستن راه نقد، نتیجهی خوبی برای جامعه نداره.
وجود برنامهها و فیلمهای ساده، سطحی یا حتی «بد»، بستر مقایسه و ارزشگذاری رو برای کارهای جدیتر فراهم میکنه.
اما از طرف دیگه، مسألهی ابتذالِ سازمانیافته و بازارمحور فرق میکنه. وقتی سرمایهگذارها و پلتفرمها میبینن که فلان برنامهی زرد یا جنسیتزده میلیونها بازدید میگیره، طبیعتاً پول بیشتری میذارن روی بازتولید همون محتوا و دیگه برای چیزای جدیتر سرمایهگذاری نمیکنن. یعنی تماشای مردم، مثل رأی اقتصادی عمل میکنه و سمتوسوی تولید رو مشخص میکنه. اینجا بحث صرفاً «سلیقه شخصی» نیست؛ پای چرخه اقتصادی-فرهنگی وسط میاد که در بلندمدت میتونه عادتهای فکری و فرهنگی جامعه رو شکل بده.
اینجاست که نقش نقد و آگاهیرسانی مهم میشه. نه برای اینکه همه مجبور شن تارکوفسکی ببینن، بلکه برای اینکه مصرفکننده بدونه پشت بعضی انتخابها چه سازوکارهایی هست. کسی که میخواد محتوای سطحی ببینه، آزاده که ببینه، اما دستکم چشمبسته مصرف نکنه و بدونه که این «سرگرمی بیضرر» شاید در سطح اجتماعی حامل پیامهای مشکلداری باشه.
باید توجه داشت که سلبریتیهایی مثل کیم کارداشیان با همین جلب توجهها، تبدیل شدن بهنوعی ماشین تولید سلیقه برای جامعه. «استاندارد زیبایی» رو همین افراد برای خیلیها تعریف میکنن. توی چرخهی ترند-مصرف چیزهایی مثل «اندام ساعتشنی» مد میشه و...
در کل نقش سلبریتیها در «کنترل نرم» جامعه مهمه و تبدیل میشن به الگوهای استاندارد زندگی؛ بدن ایدهآل، سبک لباس، شیوه مصرف و... که نتیجهش میشه اضطراب درباره ظاهر، وسواس روی وزن، ورزش افراطی یا حتی افسردگی (مخصوصا برای نوجوانها). طرف حتی اگه بدن سالم و طبیعی داشته باشه با توجه با این معیارها فکر میکنه شکست خورده.
البته که مشخصه در نهایت سود اقتصادیش برای چه کسانیه.
هر کلیک، هر بازدید، هر فالو یه رأی اقتصادیه. پس بیتفاوتی نسبت به برخی چیزها و بستن راه نقد، نتیجهی خوبی برای جامعه نداره.
وجود برنامهها و فیلمهای ساده، سطحی یا حتی «بد»، بستر مقایسه و ارزشگذاری رو برای کارهای جدیتر فراهم میکنه.
اما از طرف دیگه، مسألهی ابتذالِ سازمانیافته و بازارمحور فرق میکنه. وقتی سرمایهگذارها و پلتفرمها میبینن که فلان برنامهی زرد یا جنسیتزده میلیونها بازدید میگیره، طبیعتاً پول بیشتری میذارن روی بازتولید همون محتوا و دیگه برای چیزای جدیتر سرمایهگذاری نمیکنن. یعنی تماشای مردم، مثل رأی اقتصادی عمل میکنه و سمتوسوی تولید رو مشخص میکنه. اینجا بحث صرفاً «سلیقه شخصی» نیست؛ پای چرخه اقتصادی-فرهنگی وسط میاد که در بلندمدت میتونه عادتهای فکری و فرهنگی جامعه رو شکل بده.
اینجاست که نقش نقد و آگاهیرسانی مهم میشه. نه برای اینکه همه مجبور شن تارکوفسکی ببینن، بلکه برای اینکه مصرفکننده بدونه پشت بعضی انتخابها چه سازوکارهایی هست. کسی که میخواد محتوای سطحی ببینه، آزاده که ببینه، اما دستکم چشمبسته مصرف نکنه و بدونه که این «سرگرمی بیضرر» شاید در سطح اجتماعی حامل پیامهای مشکلداری باشه.
باید توجه داشت که سلبریتیهایی مثل کیم کارداشیان با همین جلب توجهها، تبدیل شدن بهنوعی ماشین تولید سلیقه برای جامعه. «استاندارد زیبایی» رو همین افراد برای خیلیها تعریف میکنن. توی چرخهی ترند-مصرف چیزهایی مثل «اندام ساعتشنی» مد میشه و...
در کل نقش سلبریتیها در «کنترل نرم» جامعه مهمه و تبدیل میشن به الگوهای استاندارد زندگی؛ بدن ایدهآل، سبک لباس، شیوه مصرف و... که نتیجهش میشه اضطراب درباره ظاهر، وسواس روی وزن، ورزش افراطی یا حتی افسردگی (مخصوصا برای نوجوانها). طرف حتی اگه بدن سالم و طبیعی داشته باشه با توجه با این معیارها فکر میکنه شکست خورده.
البته که مشخصه در نهایت سود اقتصادیش برای چه کسانیه.
Forwarded from Agora (Alireza)
راجع به این ماجرا یکمقداری بیشتر حرف دارم. با تیکههاییش هم مخالفم به شکلی. فرصت بشه دوست دارم که اون چند خط که خودم فکر میکنم رو هم به این صحبتهای میلاد اضافه کنم.
Forwarded from 🎄 یک برنامه نویس تنبل (Lazy 🌱)
🔶 وردپرس یه کاری می کنه که توسعه افزونه سخت و پیچیده کند و به سمت ماژولار بودن بلوک ها حرکت می کند و هم میخواست با Gutenberg یک ویرایشگر مدرن مثل Webflow یا Wix داشته باشه. برای این کار به React و معماری بلوکی رو آورد.
قبلا افزونه وردپرس به صورت PHP با توابع آن می نویسیم و الان باید سمت کامپایل کردن کدها پیش بریم.
#خبر
#وردپرس
@TheRaymondDev
قبلا افزونه وردپرس به صورت PHP با توابع آن می نویسیم و الان باید سمت کامپایل کردن کدها پیش بریم.
#خبر
#وردپرس
@TheRaymondDev
WordPress Developer Blog
Refactoring the multi-block plugin: Build smarter, register cleaner, scale easier
Refactor your multi-block plugin with a cleaner structure, support for all block types, and smarter registration, bundling, and asset handling.
Forwarded from AiSegaro 👾
یه آپدیت روی
https://transcript.isega.ro
دادم و اومدم مدل جمنای + متن کامل ترنسکریپت هم به همه مدل ها اضافه کردم
زبان فارسی و اکثر زبانها رو ساپورت میکنه میتونید خودتون تست بکنید
آقا خیلی خفنه شده , حالا با 3تا مدل میتونید به صورت رایگان زیرنویس جنریت کنید , جمنای رو با پرامپت دارم کنترل میکنم و بنظرم میتونید بهترین خروجی رو نسبت به دو سرویس دیگه بگیرید , چون تو جمنای میتونیم احساس و لحن و صداهای متفرقه و ... تشخیص بدیم و تو خروجی هم دریافتش کنیم , خیلی کارهای خفنتری میشه کرد که در آینده به صورت انتخابی در اختیار کاربر میزارم که توی خروجیش بتونه بهترینش رو دریافت کنه,با کلید خودتون ازش استفاده کنید
از جمنای برای فایل های خیلی طولانی استفاده نکنید اصلا به چند دلیل فنی , یکیش تایم اوت ریسپانس هست و دیگری توهم مدل , هرچی کانتکس ما بزرگ میشه ممکنه مدل توهم بزنه و نتونه خروجی بهینه ای برگردونه , بهتره برای فایل های زیر 30 دقیقه ازش استفاده کنید
در آینده خیلی روی جمنای آپدیت میدم
https://transcript.isega.ro
دادم و اومدم مدل جمنای + متن کامل ترنسکریپت هم به همه مدل ها اضافه کردم
زبان فارسی و اکثر زبانها رو ساپورت میکنه میتونید خودتون تست بکنید
آقا خیلی خفنه شده , حالا با 3تا مدل میتونید به صورت رایگان زیرنویس جنریت کنید , جمنای رو با پرامپت دارم کنترل میکنم و بنظرم میتونید بهترین خروجی رو نسبت به دو سرویس دیگه بگیرید , چون تو جمنای میتونیم احساس و لحن و صداهای متفرقه و ... تشخیص بدیم و تو خروجی هم دریافتش کنیم , خیلی کارهای خفنتری میشه کرد که در آینده به صورت انتخابی در اختیار کاربر میزارم که توی خروجیش بتونه بهترینش رو دریافت کنه,با کلید خودتون ازش استفاده کنید
از جمنای برای فایل های خیلی طولانی استفاده نکنید اصلا به چند دلیل فنی , یکیش تایم اوت ریسپانس هست و دیگری توهم مدل , هرچی کانتکس ما بزرگ میشه ممکنه مدل توهم بزنه و نتونه خروجی بهینه ای برگردونه , بهتره برای فایل های زیر 30 دقیقه ازش استفاده کنید
در آینده خیلی روی جمنای آپدیت میدم
Forwarded from یه شعر (Poem Bot)
حافظ | غزلیات | غزل شمارهٔ ۸۰
عیب رندان مکن ای زاهد پاکیزه سرشت
که گناه دگران بر تو نخواهند نوشت
من اگر نیکم و گر بد تو برو خود را باش
هر کسی آن درود عاقبت کار که کشت
همه کس طالب یارند چه هشیار و چه مست
همه جا خانه عشق است چه مسجد چه کنشت
سر تسلیم من و خشت در میکده ها
مدعی گر نکند فهم سخن گو سر و خشت
ناامیدم مکن از سابقه لطف ازل
تو پس پرده چه دانی که که خوب است و که زشت
نه من از پرده تقوا به درافتادم و بس
پدرم نیز بهشت ابد از دست بهشت
حافظا روز اجل گر به کف آری جامی
یک سر از کوی خرابات برندت به بهشت
#حافظ | گنجور
📍@iipoem
عیب رندان مکن ای زاهد پاکیزه سرشت
که گناه دگران بر تو نخواهند نوشت
من اگر نیکم و گر بد تو برو خود را باش
هر کسی آن درود عاقبت کار که کشت
همه کس طالب یارند چه هشیار و چه مست
همه جا خانه عشق است چه مسجد چه کنشت
سر تسلیم من و خشت در میکده ها
مدعی گر نکند فهم سخن گو سر و خشت
ناامیدم مکن از سابقه لطف ازل
تو پس پرده چه دانی که که خوب است و که زشت
نه من از پرده تقوا به درافتادم و بس
پدرم نیز بهشت ابد از دست بهشت
حافظا روز اجل گر به کف آری جامی
یک سر از کوی خرابات برندت به بهشت
#حافظ | گنجور
📍@iipoem