document.pdf
1 MB
چند سالیه که سازمان جهانی کار روی کاهش روزهای کاری داره تاکید میکنه؛ با اتفاقاتی که پاندمی رقم زد و باعث ایجاد تغییرات اساسی در فرهنگ کاری شد، دوباره موضوع «کاهش روزهای کاری به هفتهای چهار روز» سر زبونها افتاده. کشورهایی مثل ایسلند، اسپانیا و نیوزلند مدتی که دارن این طرح رو به صورت آزمایشی اجرا میکنن.
اخیرا ایسلند نتایج این طرح آزمایشی رو منتشر کرده و اعلام کرده که ۴ روز کار در هفته بسیار موفقیت آمیز بوده.
به گفته محققان این طرح آزمایشی در ایسلند، همه کارکنان به همان میزان همیشگی حقوق دریافت کردند و بهرهوری در اکثر محلهای کاری ثابت بوده یا بهبود پیدا کرده!
ضمن اینکه باعث افزایش رضایت از زندگی کارکنان و رفاه اجتماعی شده.
#jobs #job #work #world #time
اخیرا ایسلند نتایج این طرح آزمایشی رو منتشر کرده و اعلام کرده که ۴ روز کار در هفته بسیار موفقیت آمیز بوده.
به گفته محققان این طرح آزمایشی در ایسلند، همه کارکنان به همان میزان همیشگی حقوق دریافت کردند و بهرهوری در اکثر محلهای کاری ثابت بوده یا بهبود پیدا کرده!
ضمن اینکه باعث افزایش رضایت از زندگی کارکنان و رفاه اجتماعی شده.
#jobs #job #work #world #time
Forwarded from Academy and Foundation unixmens | Your skills, Your future
document.pdf
1 MB
چند سالیه که سازمان جهانی کار روی کاهش روزهای کاری داره تاکید میکنه؛ با اتفاقاتی که پاندمی رقم زد و باعث ایجاد تغییرات اساسی در فرهنگ کاری شد، دوباره موضوع «کاهش روزهای کاری به هفتهای چهار روز» سر زبونها افتاده. کشورهایی مثل ایسلند، اسپانیا و نیوزلند مدتی که دارن این طرح رو به صورت آزمایشی اجرا میکنن.
اخیرا ایسلند نتایج این طرح آزمایشی رو منتشر کرده و اعلام کرده که ۴ روز کار در هفته بسیار موفقیت آمیز بوده.
به گفته محققان این طرح آزمایشی در ایسلند، همه کارکنان به همان میزان همیشگی حقوق دریافت کردند و بهرهوری در اکثر محلهای کاری ثابت بوده یا بهبود پیدا کرده!
ضمن اینکه باعث افزایش رضایت از زندگی کارکنان و رفاه اجتماعی شده.
#jobs #job #work #world #time
اخیرا ایسلند نتایج این طرح آزمایشی رو منتشر کرده و اعلام کرده که ۴ روز کار در هفته بسیار موفقیت آمیز بوده.
به گفته محققان این طرح آزمایشی در ایسلند، همه کارکنان به همان میزان همیشگی حقوق دریافت کردند و بهرهوری در اکثر محلهای کاری ثابت بوده یا بهبود پیدا کرده!
ضمن اینکه باعث افزایش رضایت از زندگی کارکنان و رفاه اجتماعی شده.
#jobs #job #work #world #time
Forwarded from Academy and Foundation unixmens | Your skills, Your future
document.pdf
1 MB
چند سالیه که سازمان جهانی کار روی کاهش روزهای کاری داره تاکید میکنه؛ با اتفاقاتی که پاندمی رقم زد و باعث ایجاد تغییرات اساسی در فرهنگ کاری شد، دوباره موضوع «کاهش روزهای کاری به هفتهای چهار روز» سر زبونها افتاده. کشورهایی مثل ایسلند، اسپانیا و نیوزلند مدتی که دارن این طرح رو به صورت آزمایشی اجرا میکنن.
اخیرا ایسلند نتایج این طرح آزمایشی رو منتشر کرده و اعلام کرده که ۴ روز کار در هفته بسیار موفقیت آمیز بوده.
به گفته محققان این طرح آزمایشی در ایسلند، همه کارکنان به همان میزان همیشگی حقوق دریافت کردند و بهرهوری در اکثر محلهای کاری ثابت بوده یا بهبود پیدا کرده!
ضمن اینکه باعث افزایش رضایت از زندگی کارکنان و رفاه اجتماعی شده.
#jobs #job #work #world #time
اخیرا ایسلند نتایج این طرح آزمایشی رو منتشر کرده و اعلام کرده که ۴ روز کار در هفته بسیار موفقیت آمیز بوده.
به گفته محققان این طرح آزمایشی در ایسلند، همه کارکنان به همان میزان همیشگی حقوق دریافت کردند و بهرهوری در اکثر محلهای کاری ثابت بوده یا بهبود پیدا کرده!
ضمن اینکه باعث افزایش رضایت از زندگی کارکنان و رفاه اجتماعی شده.
#jobs #job #work #world #time
مفهوم Time Series چیه؟
دادههای سری زمانی، دادههایی هستن که به ترتیب زمان ثبت میشن؛ مثلاً دادههای سنسورها، لاگ سیستمها، یا حتی قیمت ارز توی بازار. نکتهی کلیدی اینه که زمان، محور اصلی تحلیله.
چالشهای این نوع دادهها:
نرخ بالای ورود داده (High Ingestion Rate)
تحلیل لحظهای (Real-time Analytics)
کاردینالیتی بالا؛ یعنی میلیونها سنسور یا دستگاه یکتا
نیاز به توابع خاص مثل average، sampling، downsampling، backfill و غیره
تکنولوژیهایی که مطرحن:
۱. InfluxDB
یکی از معروفترینها، خیلی راحت راه میافته ولی تو کاردینالیتی بالا و ورودی خیلی زیاد کم میاره.
۲. TimescaleDB
بر پایه PostgreSQL، اگه تیم آشنا با SQL باشه عالیه. اما مقیاسپذیری افقی محدوده.
۳. QuestDB
سریع و جمعوجوره، برای پروژههای سبک تا متوسط خیلی خوبه.
۴. ClickHouse
اگه تحلیل پیچیده و سریع real-time بخوایم، این عالیه. بیشتر به درد data analytics میخوره.
۵. HoraeDB
جدید و خیلی پیشرفتهست، برای دادههای سری زمانی با کاردینالیتی بالا طراحی شده. با Rust نوشته شده، cloud-native و zero-disk هم هست، یعنی بخش ذخیرهسازی و محاسبات جداست. هنوز نوپاست ولی آیندهداره.
۶. ScyllaDB / Cassandra
برای write-heavy عالیان. اگر مدل داده رو خوب طراحی کنیم، میتونه حجم بسیار بالای داده رو سریع ذخیره کنه.
مثال در DevOps Metrics :
۱. average (میانگین)
کاربرد:
محاسبهی میانگین زمان پاسخ (Average Response Time)
محاسبهی میانگین زمان استقرار (Average Deployment Time)
تحلیل Load average روی سرورها
مثال:
فرض کن Prometheus از endpoint اپلیکیشن، latency را برمیدارد:
avg_over_time(http_request_duration_seconds[5m])
میانگین زمان پاسخگویی در ۵ دقیقهی گذشته را محاسبه میکند.
📉 ۲. sampling (نمونهبرداری)
کاربرد:
کاهش دادههای ذخیرهشده در زمان طولانی
بررسی نمای کلی بدون بار زیاد روی سیستم
ایجاد alertها بدون چک کردن ۱۰۰٪ دادهها
مثال:
در ابزارهای مانیتورینگ مثل Datadog یا NewRelic، بهجای بررسی تمام ترافیک، تنها 10٪ نمونهبرداری میشود:
Sampling rate = 0.1 (10% of total traffic)
⬇️ ۳. downsampling (کاهش نرخ دادههای زمانی)
کاربرد:
نمایش داشبوردهای گرافانا با سرعت بالا
نگهداری long-term metrics (مثلاً ۱ سال اخیر، فقط داده ساعتی)
کاهش بار حافظه/دیسک برای دادههای time-series
مثال با Prometheus:
avg_over_time(cpu_usage[1h])
دادههای دقیقهای CPU را به دادههای ساعتی تبدیل میکند (میانگین هر ساعت).
در Grafana هم میتونیم تنظیم کنیم که هر بار فقط 1 نقطه در هر 5 دقیقه نمایش داده بشه، نه همهی 1000 دادهی خام.
🧩 ۴. backfill (پر کردن دادهی گمشده با مقادیر آینده)
کاربرد:
وقتی سرویس مانیتورینگ قطع شده و بعداً reconnect میشود
بازیابی گرافها برای تحلیل گذشته (retroactive metrics)
مثال:
فرض کن alertها با دادههای ناقص کار نمیکنن. پس از reconnect شدن agent مانیتورینگ، سیستم مقدار بعدی رو backward propagate میکنه:
If data at 10:00 is missing,
use 10:01 value to fill 10:00 slot (backfill)
در ابزارهایی مثل VictoriaMetrics، InfluxDB و TimescaleDB، backfill یکی از ابزارهای مهم در pre-processing دادههاست.
✨ ترکیب کاربردها در سناریوی واقعی
🔧 فرض: داری latency یک microservice رو در Grafana نشون میدی و باید alert بذاری که وقتی latency بیش از ۵۰۰ms شد، هشدار بده.
برای اینکه سیستم نترکه از انبوه داده، چه میکنی؟
با sampling فقط 10٪ داده رو بررسی میکنی
با downsampling گراف رو روی میانگین 1 دقیقهای میذاری
با average دادههای noisy رو صاف میکنی
اگر دادهای نبود، backfill یا forward fill میکنی که alertها skip نشن
#database #time #series #bigdata #InfluxDB #ScyllaDB #Cassandra #ClickHouse #QuestDB #TimescaleDB #HoraeDB
https://t.iss.one/unixmens
دادههای سری زمانی، دادههایی هستن که به ترتیب زمان ثبت میشن؛ مثلاً دادههای سنسورها، لاگ سیستمها، یا حتی قیمت ارز توی بازار. نکتهی کلیدی اینه که زمان، محور اصلی تحلیله.
چالشهای این نوع دادهها:
نرخ بالای ورود داده (High Ingestion Rate)
تحلیل لحظهای (Real-time Analytics)
کاردینالیتی بالا؛ یعنی میلیونها سنسور یا دستگاه یکتا
نیاز به توابع خاص مثل average، sampling، downsampling، backfill و غیره
تکنولوژیهایی که مطرحن:
۱. InfluxDB
یکی از معروفترینها، خیلی راحت راه میافته ولی تو کاردینالیتی بالا و ورودی خیلی زیاد کم میاره.
۲. TimescaleDB
بر پایه PostgreSQL، اگه تیم آشنا با SQL باشه عالیه. اما مقیاسپذیری افقی محدوده.
۳. QuestDB
سریع و جمعوجوره، برای پروژههای سبک تا متوسط خیلی خوبه.
۴. ClickHouse
اگه تحلیل پیچیده و سریع real-time بخوایم، این عالیه. بیشتر به درد data analytics میخوره.
۵. HoraeDB
جدید و خیلی پیشرفتهست، برای دادههای سری زمانی با کاردینالیتی بالا طراحی شده. با Rust نوشته شده، cloud-native و zero-disk هم هست، یعنی بخش ذخیرهسازی و محاسبات جداست. هنوز نوپاست ولی آیندهداره.
۶. ScyllaDB / Cassandra
برای write-heavy عالیان. اگر مدل داده رو خوب طراحی کنیم، میتونه حجم بسیار بالای داده رو سریع ذخیره کنه.
مثال در DevOps Metrics :
۱. average (میانگین)
کاربرد:
محاسبهی میانگین زمان پاسخ (Average Response Time)
محاسبهی میانگین زمان استقرار (Average Deployment Time)
تحلیل Load average روی سرورها
مثال:
فرض کن Prometheus از endpoint اپلیکیشن، latency را برمیدارد:
avg_over_time(http_request_duration_seconds[5m])
میانگین زمان پاسخگویی در ۵ دقیقهی گذشته را محاسبه میکند.
📉 ۲. sampling (نمونهبرداری)
کاربرد:
کاهش دادههای ذخیرهشده در زمان طولانی
بررسی نمای کلی بدون بار زیاد روی سیستم
ایجاد alertها بدون چک کردن ۱۰۰٪ دادهها
مثال:
در ابزارهای مانیتورینگ مثل Datadog یا NewRelic، بهجای بررسی تمام ترافیک، تنها 10٪ نمونهبرداری میشود:
Sampling rate = 0.1 (10% of total traffic)
⬇️ ۳. downsampling (کاهش نرخ دادههای زمانی)
کاربرد:
نمایش داشبوردهای گرافانا با سرعت بالا
نگهداری long-term metrics (مثلاً ۱ سال اخیر، فقط داده ساعتی)
کاهش بار حافظه/دیسک برای دادههای time-series
مثال با Prometheus:
avg_over_time(cpu_usage[1h])
دادههای دقیقهای CPU را به دادههای ساعتی تبدیل میکند (میانگین هر ساعت).
در Grafana هم میتونیم تنظیم کنیم که هر بار فقط 1 نقطه در هر 5 دقیقه نمایش داده بشه، نه همهی 1000 دادهی خام.
🧩 ۴. backfill (پر کردن دادهی گمشده با مقادیر آینده)
کاربرد:
وقتی سرویس مانیتورینگ قطع شده و بعداً reconnect میشود
بازیابی گرافها برای تحلیل گذشته (retroactive metrics)
مثال:
فرض کن alertها با دادههای ناقص کار نمیکنن. پس از reconnect شدن agent مانیتورینگ، سیستم مقدار بعدی رو backward propagate میکنه:
If data at 10:00 is missing,
use 10:01 value to fill 10:00 slot (backfill)
در ابزارهایی مثل VictoriaMetrics، InfluxDB و TimescaleDB، backfill یکی از ابزارهای مهم در pre-processing دادههاست.
✨ ترکیب کاربردها در سناریوی واقعی
🔧 فرض: داری latency یک microservice رو در Grafana نشون میدی و باید alert بذاری که وقتی latency بیش از ۵۰۰ms شد، هشدار بده.
برای اینکه سیستم نترکه از انبوه داده، چه میکنی؟
با sampling فقط 10٪ داده رو بررسی میکنی
با downsampling گراف رو روی میانگین 1 دقیقهای میذاری
با average دادههای noisy رو صاف میکنی
اگر دادهای نبود، backfill یا forward fill میکنی که alertها skip نشن
#database #time #series #bigdata #InfluxDB #ScyllaDB #Cassandra #ClickHouse #QuestDB #TimescaleDB #HoraeDB
https://t.iss.one/unixmens