یک ابزار دیگه هم هست که میشه باهاش کار شبیه سازی محاسبات لبه رو انجام داد به نام EdgeSimPy این ابزار هم میشه در کنار ifogsime و sumo استفاده بشه. اینو خودم همین الان باهاش آشنا شدم توی جست و جو هام و خیلی جالب بود. مثل اینکه تا چشم کار میکنه شبیه ساز ریخته ولی کد نریخته . پس اگر مقاله ای مینویسید کد ها رو پابلیک کنید تا ما هم بتونیم کار شما رو تایید کنیم خسته شدم اینقدر دنبال کد و شبیه سازی گشتم :)
ادیت:
یک شبیه ساز دیگه هم هست به اسم mogFogSim که اومده ifogSim رو گسترش داده و بهش ویژگی اضافه کرده ولی چیزی که توی گیتهابش جالب بوده گفته بود برای اینکه شبیه ساز خودتو بسازی باید چه مراحلی رو طی کنی .
یک شبیه ساز دیگه هم هست به نام PureEdgeSim که این هم یک شبیه ساز سبک بر اساس جاوا است که برای شبکه های سیار با گره های پویا نوشته شده
ادیت:
یک شبیه ساز دیگه هم هست به اسم mogFogSim که اومده ifogSim رو گسترش داده و بهش ویژگی اضافه کرده ولی چیزی که توی گیتهابش جالب بوده گفته بود برای اینکه شبیه ساز خودتو بسازی باید چه مراحلی رو طی کنی .
یک شبیه ساز دیگه هم هست به نام PureEdgeSim که این هم یک شبیه ساز سبک بر اساس جاوا است که برای شبکه های سیار با گره های پویا نوشته شده
GitHub
EdgeSimPy
Python-based modeling and simulation framework for Edge Computing resource management policies - EdgeSimPy
🤔1
بالاخره طبق حرفی که زده بودم لوگوی کانال رو عوض کردم. این به این خاطر بود که بچها الان دیگه واسه خودشون یک کانال دیگه دارن و توی کانال فعالیت ندارن.
این لگوی جدید قراره بیانگر base station باشه. همونطور که میدونید BS ها در دنیای امروزی و آینده خیلی مهم هستند و امروزه شبکه های بی سیم مرکز توجه محقق هاست. چیزی بهتر از این نمیتونه برای یک کانال با تمرکز روی شبکه باشه.
محتوا کانال چیزی تغییری نمیکنه و همون مطالبی که قبلا میزاشتیم و آموزش و منابع و معرفی ها هنوز سر جاشه فقط توجه و تمرکز بر روی شبکه های کامپیوتری هست.
اسم کانال رو فعلا تغییر نمیدونم چون تغییر یکهو اتفاق نمی افته.
ایشالله قراره خوش بگذره بهمون :)
این لگوی جدید قراره بیانگر base station باشه. همونطور که میدونید BS ها در دنیای امروزی و آینده خیلی مهم هستند و امروزه شبکه های بی سیم مرکز توجه محقق هاست. چیزی بهتر از این نمیتونه برای یک کانال با تمرکز روی شبکه باشه.
محتوا کانال چیزی تغییری نمیکنه و همون مطالبی که قبلا میزاشتیم و آموزش و منابع و معرفی ها هنوز سر جاشه فقط توجه و تمرکز بر روی شبکه های کامپیوتری هست.
اسم کانال رو فعلا تغییر نمیدونم چون تغییر یکهو اتفاق نمی افته.
ایشالله قراره خوش بگذره بهمون :)
❤2👏1😁1
من که الان یکم با هوش مصنوعی درگیر شدم و دسته پنجه نرم میکنم یک کتابی هست به اسم deep reinforcement learning with python که تازه باهاش آشنا شدم به نظرم چیز جالب و مقدماتی خوبی میومد.
چیزی که جالبه این که این کتاب اولش از کتابخانه های پایتون آماده برای ساخت بازی های ساده و مبتنی بر عامل استفاده میکنه ولی بعدش از زنجیره های مارکو برای طراحی استفاده میکنه. البته اولاش هم تا جای لازم خواننده رو با مفاهیم اولیه آشنا میکنه. مباحثی که دربارش صحبت میکنه شامل روش های یاد گیری Q و policy gradiant ، sarsa و actor critic هم میشه. این ها روش های مختلفی هستند که برای پیاده سازی عامل هوشمند استفاده میشه.
همین نویسنده یک کتاب دیگه هم تازه نوشته که با همون نام هست ولی مبحث آن پیشرفته تره و باهاش دیگه صرفا بازی طراحی نمیکنه و در واقع هدفش ساخت عامل برای مدل های بزرگ هست. مباحثی که دربارش صحبت میشه مربوط به ماشین های خودران، ربات ها و... هست. این کتاب دومیه مباحث کتاب اولیه رو هم پوشش میده ولی مباحث اضافه هم داره.
بنظرم این کتاب دومیه میتونه خیلی برای کارهای پژوهشی و ارائه مدل بهتر باشه چون مباحثی که داره توی پژوهش هایی که خوندم بیشتر استفاده شده مثل مبحث DDQN که برای مقیاس های بزرگ استفاده میشه.
توی کانال debrary هم یکی از بچها یک کتابی قرارداده در همین زمینه. این کتاب برای عموم توصیه نمیشه و رویکرد آکادمیک و ریاضیاتی داره ولی از نظر ریاضیاتی و الگوریتمی خوب کار کرده برعکس کتاب های قبلی که رویکرد پیاده سازی با زبان پایتون دارن.
توی مقالات با استفاده از این روش های هوش مصنوعی برای حل مسائل NP-hard خیلی زیاد استفاده میشه و توی شبکه های آینده هوش مصنوعی به عنوان محور اصلی این شبکه ها شناخته میشه. پس چه بخوایم چه نخواییم آش کشک خالته بخوری پا ته نخوری ...
یک کتاب دیگه هم دیده بودم که خود نویسنده اومده از روش کورس ساخته ولی پیداش نکردم اونم جالب بود.
چیزی که جالبه این که این کتاب اولش از کتابخانه های پایتون آماده برای ساخت بازی های ساده و مبتنی بر عامل استفاده میکنه ولی بعدش از زنجیره های مارکو برای طراحی استفاده میکنه. البته اولاش هم تا جای لازم خواننده رو با مفاهیم اولیه آشنا میکنه. مباحثی که دربارش صحبت میکنه شامل روش های یاد گیری Q و policy gradiant ، sarsa و actor critic هم میشه. این ها روش های مختلفی هستند که برای پیاده سازی عامل هوشمند استفاده میشه.
همین نویسنده یک کتاب دیگه هم تازه نوشته که با همون نام هست ولی مبحث آن پیشرفته تره و باهاش دیگه صرفا بازی طراحی نمیکنه و در واقع هدفش ساخت عامل برای مدل های بزرگ هست. مباحثی که دربارش صحبت میشه مربوط به ماشین های خودران، ربات ها و... هست. این کتاب دومیه مباحث کتاب اولیه رو هم پوشش میده ولی مباحث اضافه هم داره.
بنظرم این کتاب دومیه میتونه خیلی برای کارهای پژوهشی و ارائه مدل بهتر باشه چون مباحثی که داره توی پژوهش هایی که خوندم بیشتر استفاده شده مثل مبحث DDQN که برای مقیاس های بزرگ استفاده میشه.
توی کانال debrary هم یکی از بچها یک کتابی قرارداده در همین زمینه. این کتاب برای عموم توصیه نمیشه و رویکرد آکادمیک و ریاضیاتی داره ولی از نظر ریاضیاتی و الگوریتمی خوب کار کرده برعکس کتاب های قبلی که رویکرد پیاده سازی با زبان پایتون دارن.
توی مقالات با استفاده از این روش های هوش مصنوعی برای حل مسائل NP-hard خیلی زیاد استفاده میشه و توی شبکه های آینده هوش مصنوعی به عنوان محور اصلی این شبکه ها شناخته میشه. پس چه بخوایم چه نخواییم آش کشک خالته بخوری پا ته نخوری ...
یک کتاب دیگه هم دیده بودم که خود نویسنده اومده از روش کورس ساخته ولی پیداش نکردم اونم جالب بود.
Telegram
Debrary
The Art of Reinforcement Learning: Fundamentals, Mathematics, and Implementations with Python - Michael Hu - Apress - 2023
@debrary
@debrary
👏2👍1
This media is not supported in your browser
VIEW IN TELEGRAM
وقتی میگن deepseek نیاز به تعامل کمتری داره با انسان برای تایید گرفتن تا gpt منظور چیه
😁2👏1
توی هوش مصنوعی یک روش یا الگوریتم بهینه سازی وجود داره به نام PSO یا particle swarm optimization که یک الگریتم اکتشافی است. از این الگریتم برای بیشینه یا کمینه کردن استفاده میکنن. البته بیشتر برای کمینه کردن دیدم استفاده میشه.
روش کار این الگریتم اینجوریه که شما تعداد زیادی گره دارین که توی فضای جست و جوشون ممکنه توی نقطه کمینه محلی بمونن ولی هدف اینکه همه این گره ها به کمینه سراسری برسن.
مثلا فرض کنید توی همین مسئله خودمون خودروها دارای وظایف هستند که این وظایف رو همون گره ها درنظر بگیرید. این وظایف باید بر روی گره های پردازشی لبه برونسپاری بشن چون خودرو منابع کافی نداره. حالا گره لبه باید ترتیب اجرایی (یا همون زمانبندی کردن) پیدا کنه که تاخیر پردازش کل سیستم کمینه بشه. از طرفی هم این وظایف باید تا قبل از خروج خودرو از محدوده پوششی ایستگاه پایه پردازش بشن و جواب به اونها بر گرده بنابراین این وظایف دارای یک مهلت انجام هستند.
خوب حالا سوالی که مطرح میشه اینکه چجوری زمانبندی کنم که تاخیر پردازش کاهش پیدا کنه و بتونم وظایف بیشتری نسبت به مهلتشون پردازش کنم؟
اینجاست که شما یک فضای جست و جوی به اندازه تعداد وظایف داری که باید بررسی کنی. روش pso میاد این کار رو سریعتر از روش های قدیمی انجام میده. برای اینکار میاد موقعیت یا وضعیت فعلی سیستم رو برسی میکنه. بعد میاد بر اساس اون وظایف رو مرتب میکنه و برای اجرا بر روی گره لبه زمانبندی میشن. حالا این زمانبندی بستگی به مهلت داره که این مهلت سرعت converge کردن الگریتم به یک کمینه سراسری رو فراهم میکنه. در واقعیت سرعت همگرا شدن الگوریتم به پارامترهای زیادی بستگی و فقط این نیست. این سرعت رو بر اساس قدم یا step میگن که در هر قدم گره ها یا همون وظایف به هدف نزدیکتر میشن.
حالا هدف چجوری مشخص میشه؟ برای این کار معمولا از روش های مدل سازی و توابع ریاضیاتی که باید بهینه بشن استفاده میکنن. مثلا یکی از روش هایی که من خیلی خیلی باهاش مواجه بودن روش MILP که برای نوشتن تابع هدف استفاده میشه.
برای فهم دقیقتر و بهتر این قضیه هم میتونید به این لینک برید.
روش کار این الگریتم اینجوریه که شما تعداد زیادی گره دارین که توی فضای جست و جوشون ممکنه توی نقطه کمینه محلی بمونن ولی هدف اینکه همه این گره ها به کمینه سراسری برسن.
مثلا فرض کنید توی همین مسئله خودمون خودروها دارای وظایف هستند که این وظایف رو همون گره ها درنظر بگیرید. این وظایف باید بر روی گره های پردازشی لبه برونسپاری بشن چون خودرو منابع کافی نداره. حالا گره لبه باید ترتیب اجرایی (یا همون زمانبندی کردن) پیدا کنه که تاخیر پردازش کل سیستم کمینه بشه. از طرفی هم این وظایف باید تا قبل از خروج خودرو از محدوده پوششی ایستگاه پایه پردازش بشن و جواب به اونها بر گرده بنابراین این وظایف دارای یک مهلت انجام هستند.
خوب حالا سوالی که مطرح میشه اینکه چجوری زمانبندی کنم که تاخیر پردازش کاهش پیدا کنه و بتونم وظایف بیشتری نسبت به مهلتشون پردازش کنم؟
اینجاست که شما یک فضای جست و جوی به اندازه تعداد وظایف داری که باید بررسی کنی. روش pso میاد این کار رو سریعتر از روش های قدیمی انجام میده. برای اینکار میاد موقعیت یا وضعیت فعلی سیستم رو برسی میکنه. بعد میاد بر اساس اون وظایف رو مرتب میکنه و برای اجرا بر روی گره لبه زمانبندی میشن. حالا این زمانبندی بستگی به مهلت داره که این مهلت سرعت converge کردن الگریتم به یک کمینه سراسری رو فراهم میکنه. در واقعیت سرعت همگرا شدن الگوریتم به پارامترهای زیادی بستگی و فقط این نیست. این سرعت رو بر اساس قدم یا step میگن که در هر قدم گره ها یا همون وظایف به هدف نزدیکتر میشن.
حالا هدف چجوری مشخص میشه؟ برای این کار معمولا از روش های مدل سازی و توابع ریاضیاتی که باید بهینه بشن استفاده میکنن. مثلا یکی از روش هایی که من خیلی خیلی باهاش مواجه بودن روش MILP که برای نوشتن تابع هدف استفاده میشه.
برای فهم دقیقتر و بهتر این قضیه هم میتونید به این لینک برید.
YouTube
The Particle Swarm Optimization Algorithm
A deep dive into the Particle Swarm Optimization algorithm (PSO).
This video was voiced using Elevenlabs for privacy reasons. If you want to try it out yourself, you can sign up using my affiliate link, which supports me with a small commission with no additional…
This video was voiced using Elevenlabs for privacy reasons. If you want to try it out yourself, you can sign up using my affiliate link, which supports me with a small commission with no additional…
👏1
Stanford’s CS230 - Deep Learning
All the lecture notes, exam questions are now available free.
https://cs230.stanford.edu/files/
https://cs230.stanford.edu/
All the lecture notes, exam questions are now available free.
https://cs230.stanford.edu/files/
https://cs230.stanford.edu/
👏1
من چندین ماه پیش یک مقاله مروری میخوندم که توی اون مقاله از یک مقاله ای نام برد برای زمانبندی که با استفاده از temporal netwok thory یا dynamic network theory اومده بود سیستم رو مدل کرده بود. آقا ما هم که تا اسم تئوری میاد کف میکنیم و شور اشتیاق رفتیم دیدم عجب چیز خوبیه. چیز جالب تری که فهمیدم این تئوری نو پا و جوانه ولی کارای زیادی در زمینه های مختلفی مثل شیمی، پزشکی، روابط اجتماعی، برق، هوش مصنوعی و صد البته کامپیوتر ازش استفاده کردند.
قضیه از این قراره کرده که میگه فرض کن شما یک شبکه ای از گراف داری که گره ها با یال به هم دیگر وصل هستند. حالا مسئله اینجاست که این یال ها ممکنه همیشه بر قرار نباشن. ممکنه یک زمان هایی باشن یک زمان های دیگه نباشن. این یعنی اتصالات و ارتباطات بین گره ها میتونه در یک زمان هایی وجود نداشته باشه. این بشدت برای مدل سازی و ارزیابی سیستم در دنیای واقعی خوبه.
کلا خوبی گراف اینکه میشه رفتار سیستم رو سنجید. مثلا چقدر قسمت های مختلف سیتم میتونن روی همدیگر اثر بزارن یا مثلا سیستم چه درجه ای از بهینگی رو داره و...
از طرف دیگه کسایی که درس ارزیابی کارایی سیستم های کامپیوتری توی ارشد خوندن و عاشق این درس شدن با این مبحث میتونن برن فضا. این فیلد بر اساس نظریه های گراف ها است و برای ارزیابی این سیستم میشه از مارکو است. زحمت بکشید عبارت markovian temporal network رو جست و جو کنید. یا برای نمونه این مقاله رو ببینید.
مثلا یکی از تفاوت هایی که وجود داره transitivity در یال ها توی این تئوری وجود نداره. شاید بعضی جا ها بد قلق و بد دست بشه ولی میشه تحملش کرد. توی توضیحات مقالش یک جمله ای داره که بنظرم حق مطلب رو عدا میکنه:
این زمینه پزوهشی توی سال 2011 توسط آقای peter holme معرفی شد تحت این مقاله (نسخه قشنگترش) که بنظرم علاقه دارین حتما یک نکاهی بندازین. P. holme یک ارائه داره که درباره این فیلد صحبت میکنه (چندتا کتاب هم توی این زمینه معرفی میکنه). این آقا توی دانشگاه آلتو استاد و کارش network science هست. این ارائه جدید تری هست که میتونید ببینید.
ایده اصلی این فیلد هم از اونجایی میاد که آقای holme و دوستانش داشتن توی زمینه روسپیگری در فضای مجازی مطالعه میکردن. میخواستن ببین روند رشد روسپی گری و ارتباط آنها چی بوده. میخواستن به طور دقیق بفهمن ترتیب رویداد ها چجوری بوده.
چیزی که جالبه آقای holme میگه دکتری داره توی فیزیک ولی هیچ وقت فیزیک نخونده :) من که نفهمیدم یعنی چی ولی قبول بعدش میگه همیشه علاقه به ارتباطات انسان ها داشته. من نمیدونم مگه اونهایی که فیزیک میخونن جامعه گریز و منزوی نیستن؟! شایدم من دارم بیل میرم نمیدونم.
یک ارائه دیگه از موسسه سانتافه (ماشینش نه) یک جلسه ای داره در این باره صحبت میکنه. بنظرم یک جمله قشنک این ارائه:
توی دوران کوید یا کرونا این مقاله از این روش برای مدل کردن شیوع این بیماری استفاده کرده.
چیزی که به طور کلی متوجه شدم اینکه کلمات when و data توی این فیلد بسیار مهم و حیاتی هستند. این data هستند که روابط و وزن ها را تعیین میکنه.
بنظرم فیلد قشنگ و خوبیه که حداقل ازش اطلاعاتی داشته باشیم :)
قضیه از این قراره کرده که میگه فرض کن شما یک شبکه ای از گراف داری که گره ها با یال به هم دیگر وصل هستند. حالا مسئله اینجاست که این یال ها ممکنه همیشه بر قرار نباشن. ممکنه یک زمان هایی باشن یک زمان های دیگه نباشن. این یعنی اتصالات و ارتباطات بین گره ها میتونه در یک زمان هایی وجود نداشته باشه. این بشدت برای مدل سازی و ارزیابی سیستم در دنیای واقعی خوبه.
کلا خوبی گراف اینکه میشه رفتار سیستم رو سنجید. مثلا چقدر قسمت های مختلف سیتم میتونن روی همدیگر اثر بزارن یا مثلا سیستم چه درجه ای از بهینگی رو داره و...
از طرف دیگه کسایی که درس ارزیابی کارایی سیستم های کامپیوتری توی ارشد خوندن و عاشق این درس شدن با این مبحث میتونن برن فضا. این فیلد بر اساس نظریه های گراف ها است و برای ارزیابی این سیستم میشه از مارکو است. زحمت بکشید عبارت markovian temporal network رو جست و جو کنید. یا برای نمونه این مقاله رو ببینید.
مثلا یکی از تفاوت هایی که وجود داره transitivity در یال ها توی این تئوری وجود نداره. شاید بعضی جا ها بد قلق و بد دست بشه ولی میشه تحملش کرد. توی توضیحات مقالش یک جمله ای داره که بنظرم حق مطلب رو عدا میکنه:
In the light of traditional network theory, one can see this framework as moving the information of when things happen from the dynamical system on the network, to the network itself.
این زمینه پزوهشی توی سال 2011 توسط آقای peter holme معرفی شد تحت این مقاله (نسخه قشنگترش) که بنظرم علاقه دارین حتما یک نکاهی بندازین. P. holme یک ارائه داره که درباره این فیلد صحبت میکنه (چندتا کتاب هم توی این زمینه معرفی میکنه). این آقا توی دانشگاه آلتو استاد و کارش network science هست. این ارائه جدید تری هست که میتونید ببینید.
ایده اصلی این فیلد هم از اونجایی میاد که آقای holme و دوستانش داشتن توی زمینه روسپیگری در فضای مجازی مطالعه میکردن. میخواستن ببین روند رشد روسپی گری و ارتباط آنها چی بوده. میخواستن به طور دقیق بفهمن ترتیب رویداد ها چجوری بوده.
چیزی که جالبه آقای holme میگه دکتری داره توی فیزیک ولی هیچ وقت فیزیک نخونده :) من که نفهمیدم یعنی چی ولی قبول بعدش میگه همیشه علاقه به ارتباطات انسان ها داشته. من نمیدونم مگه اونهایی که فیزیک میخونن جامعه گریز و منزوی نیستن؟! شایدم من دارم بیل میرم نمیدونم.
یک ارائه دیگه از موسسه سانتافه (ماشینش نه) یک جلسه ای داره در این باره صحبت میکنه. بنظرم یک جمله قشنک این ارائه:
becasee something works one way does not necesserly means works other way
توی دوران کوید یا کرونا این مقاله از این روش برای مدل کردن شیوع این بیماری استفاده کرده.
چیزی که به طور کلی متوجه شدم اینکه کلمات when و data توی این فیلد بسیار مهم و حیاتی هستند. این data هستند که روابط و وزن ها را تعیین میکنه.
بنظرم فیلد قشنگ و خوبیه که حداقل ازش اطلاعاتی داشته باشیم :)
arXiv.org
Temporal Networks
A great variety of systems in nature, society and technology -- from the web of sexual contacts to the Internet, from the nervous system to power grids -- can be modeled as graphs of vertices...
❤3👏1
آقا چند وقت پیش من به یک کتابی بخورد کردم در زمینه آمار و احتمالات که مبانی و سطح مبتدیه. کتاب های خوب تو زمینه آمار و احتمالات زیاد هست و اینم بنظرم کتاب خوبیه چون هم شبیه سازی داره و هم سایت داره که مباحث کتاب رو آورده و کد های شبیه سازیش را داره. اسم کتاب هم Introduction to Probability, Statistics, and Random Processes هست.
👏2
توی بحث آنالیز کردن یک فیلدی هست به نام survival analysis. با اسمی که داره آدم شاخ هاش تیز میشه که ببینه این چیه و اصلا چه کاری میکنن باهاش. برای راحتی خودم خلاصه مینویسم SA.
به طور کلی مدت زمانی که یک رویداد قرار هست رخ بده رو مطالعه کنند. مثلا فرض کنید که شما تازه وارد دانشگاه شدید و قراره ارشد بخونید و 2 سال پر از حس خوب رو قراره سپری کنید :) حالا شما قراره یک روز فارغ التحصیل بشید دیگه (چون دانشگاه آزاد نیستید که همش پول بدی ترم بخری). حالا از زمانی که شما وارد دانشگاه میشید و قرار هست فارغ بشید رو میان آنالیز میکنن.
اما واقعا این زمینه کاری نیست توی این مطالعه میان زندگی و حیات رو آنالیز میکنند. به طور واضح تر میان فاصله بین زندگی تا مرگت رو آنالیز میکنند. مثلا احتمال اینکه شما بیشتر از 75 سال عمر کنید.
توی این مدت زندگی زمان توی آنالیز کردن میتونه گسسته و پیوسته باشه و کلی متغیر تصادفی وجود داشته باشه. حتی تیکه های زمانی میتونن براساس رخ دادن یک اتفاق تقسیم بشن. حالا توی انالیز ممکنه میزان مصرف غدا و آب و داروهایی که استفاده میکنید که روی طول عمرتون موثر یا حتی بیماری هایی که دارید میتونه تاثیر گذار باشه.
اما کار راحتی هم نیستا چون مثلا شما میتونید توی توزیع های احتمالی یا PDF ها بر اساس زمان یک نموداری ترسیم کنید ولی توی SA نمیشه. چون نمیدونید که چه رویدادی در چه زمانی رخ بده. توی PDF میشه فهمید چه رویدادی احتمال وقوع داره و چه رویدادی احتمال نداره رخ بده.
توی SA یک تابعی هست به نام survival function. که بر اساس این تابع میان آنالیز میکنن احتمال اینکه مثلا شما بیشتر از 75 سال عمر کنید چقدره (احتمال آنکه آن رویداد از یک نقطه ای به قبل رخ نده) به جای انکه بگن تا 75 سال عمر کنید. پس خیلی مهم هست که سوال رو چجوری میپرسید و به چه سوالی قراره جواب بدین.
در دنیای واقعی ساختن این تابع خیلی سخته قاعدتا برای همین از داده های جمع آور شده استفاده میکنند تا یک نمودار CDF بسازن.
توی این آنالیز یک چیزی هست به نام سانسور (واسه ما دیگه جزوی از زندگی مونه). این سانسور ها عواملی هستند که باعث میشه ما نبینیم آیا رویداد رخ داده یا نه. مثلا شخصی رفته واکسن تازه ساخته شده برای کوید ساخت ایران رو روش تست کنن بعد یکهو بپیچه بره و کسی نفهمه طرف چه بلایی سرش اومده. حالا این سانسور کردن ها هم بر اساس تاثیری که دارند به انواع مختلفی تقسیم میشن.
تا اینجا خیلی اطلاعات داده شده. پس میتونید خودتون دنبال کنید.
درباره یک نوع تابع دیگه به نام hazard function صخبت نمیکنم. میتونید از کسی که جایزه نوبل رو برده شروع کنید sir david cox.
یکی از مهم ترین مقالاتی که توی زمینه منتشر شده و خیلی تحسین شده چون تاثیر بسازی توی این حوزه داشته به نام non-parametric stimation from incomplete observations بوده که نویسنده هاش kaplan & meier هستن. این افراد تونستن یک روش رو بیارن که توی محاسبه تابع احتمالی ای PDF کمک زیادی بکنه.
برای فهم بهتر میتونید به لینک مراجعه کنید
به طور کلی مدت زمانی که یک رویداد قرار هست رخ بده رو مطالعه کنند. مثلا فرض کنید که شما تازه وارد دانشگاه شدید و قراره ارشد بخونید و 2 سال پر از حس خوب رو قراره سپری کنید :) حالا شما قراره یک روز فارغ التحصیل بشید دیگه (چون دانشگاه آزاد نیستید که همش پول بدی ترم بخری). حالا از زمانی که شما وارد دانشگاه میشید و قرار هست فارغ بشید رو میان آنالیز میکنن.
اما واقعا این زمینه کاری نیست توی این مطالعه میان زندگی و حیات رو آنالیز میکنند. به طور واضح تر میان فاصله بین زندگی تا مرگت رو آنالیز میکنند. مثلا احتمال اینکه شما بیشتر از 75 سال عمر کنید.
توی این مدت زندگی زمان توی آنالیز کردن میتونه گسسته و پیوسته باشه و کلی متغیر تصادفی وجود داشته باشه. حتی تیکه های زمانی میتونن براساس رخ دادن یک اتفاق تقسیم بشن. حالا توی انالیز ممکنه میزان مصرف غدا و آب و داروهایی که استفاده میکنید که روی طول عمرتون موثر یا حتی بیماری هایی که دارید میتونه تاثیر گذار باشه.
اما کار راحتی هم نیستا چون مثلا شما میتونید توی توزیع های احتمالی یا PDF ها بر اساس زمان یک نموداری ترسیم کنید ولی توی SA نمیشه. چون نمیدونید که چه رویدادی در چه زمانی رخ بده. توی PDF میشه فهمید چه رویدادی احتمال وقوع داره و چه رویدادی احتمال نداره رخ بده.
توی SA یک تابعی هست به نام survival function. که بر اساس این تابع میان آنالیز میکنن احتمال اینکه مثلا شما بیشتر از 75 سال عمر کنید چقدره (احتمال آنکه آن رویداد از یک نقطه ای به قبل رخ نده) به جای انکه بگن تا 75 سال عمر کنید. پس خیلی مهم هست که سوال رو چجوری میپرسید و به چه سوالی قراره جواب بدین.
در دنیای واقعی ساختن این تابع خیلی سخته قاعدتا برای همین از داده های جمع آور شده استفاده میکنند تا یک نمودار CDF بسازن.
توی این آنالیز یک چیزی هست به نام سانسور (واسه ما دیگه جزوی از زندگی مونه). این سانسور ها عواملی هستند که باعث میشه ما نبینیم آیا رویداد رخ داده یا نه. مثلا شخصی رفته واکسن تازه ساخته شده برای کوید ساخت ایران رو روش تست کنن بعد یکهو بپیچه بره و کسی نفهمه طرف چه بلایی سرش اومده. حالا این سانسور کردن ها هم بر اساس تاثیری که دارند به انواع مختلفی تقسیم میشن.
تا اینجا خیلی اطلاعات داده شده. پس میتونید خودتون دنبال کنید.
درباره یک نوع تابع دیگه به نام hazard function صخبت نمیکنم. میتونید از کسی که جایزه نوبل رو برده شروع کنید sir david cox.
یکی از مهم ترین مقالاتی که توی زمینه منتشر شده و خیلی تحسین شده چون تاثیر بسازی توی این حوزه داشته به نام non-parametric stimation from incomplete observations بوده که نویسنده هاش kaplan & meier هستن. این افراد تونستن یک روش رو بیارن که توی محاسبه تابع احتمالی ای PDF کمک زیادی بکنه.
برای فهم بهتر میتونید به لینک مراجعه کنید
YouTube
The Statistics of Life and Death | Survival Analysis
Survival analysis is one of the most important topics in statistics. This video talks about some of the core ideas and models in this area.
OTHER CHANNEL LINKS
🗞️ Substack — https://verynormal.substack.com
☕ Buy me a Ko-fi! — https://ko-fi.com/verynormal…
OTHER CHANNEL LINKS
🗞️ Substack — https://verynormal.substack.com
☕ Buy me a Ko-fi! — https://ko-fi.com/verynormal…
👍2👏1
This media is not supported in your browser
VIEW IN TELEGRAM
فردا شنبه است و کمی حق از پروفسور Richard Feynman
❤7👏1
فان فکت درباره feynman
ایشون توی اغلب مقالاتی که منتشر میکرده انتگرال رو اشتباه حساب میکرده ولی تونسته فرد تاثیر گزاری باشه توی کوانتوم باشه.
وقتی که فاینمن به عناون باهوش ترین مرد دنیا شناخته میشه و با مادرش مصاحبه میکنند مادرش میگه: ریچارد؟ باهوشترین مرد؟ خدا به دادمون برسه.
من این دو تا رو یادم بود میتونید توی کامنت ها شما دانسته ها تون رو بگین 👌
یک سایت خیلی باخال است مختص این مرد بزرگ حتما یک نگاه بندازید
به نظرم الگوی خیلی خیلی خوبی میتونه باشه برامون
ایشون توی اغلب مقالاتی که منتشر میکرده انتگرال رو اشتباه حساب میکرده ولی تونسته فرد تاثیر گزاری باشه توی کوانتوم باشه.
وقتی که فاینمن به عناون باهوش ترین مرد دنیا شناخته میشه و با مادرش مصاحبه میکنند مادرش میگه: ریچارد؟ باهوشترین مرد؟ خدا به دادمون برسه.
من این دو تا رو یادم بود میتونید توی کامنت ها شما دانسته ها تون رو بگین 👌
یک سایت خیلی باخال است مختص این مرد بزرگ حتما یک نگاه بندازید
به نظرم الگوی خیلی خیلی خوبی میتونه باشه برامون
Feynman
Richard Feynman – Scientist. Teacher. Raconteur. Musician
Richard Feynman, scientist, teacher, raconteur, and drummer. He assisted in the development of the atomic bomb, expanded the understanding of quantumelectrodynamics, translated Mayan hieroglyphics, and cut to the heart of the Challenger disaster.
❤3👍1
a pessimistic researcher
وبسایت رو ما طراحی میکنیم. host اش رو هم محمد میده." واقعا جی از این ایده بهتر. با همفکری هم اسم این وبسایت رو گذاشتیم uplan.ir و روی hosting محمد راهاندازیش کردیم. اولین سفارشمون رو هم گرفتیم که قرار شد مشتریش ۵۰ هزار تومن بهمون بده. ما سایت رو بهش تحویل دادیم ولی پولمون رو نداد. مهدی خیلی زحمت کشید سرش و واقعا به عنوان اولین تجربه خیلی حالگیری بود.
my pov:
این داستان ها رو که محمد توی کانالش تعریف کرد باعث شد من تو فکر فرو برم و خاطراتم رو دوباره زندگی کنم.
ما زمانی که سایت رو بردیم روی wordpress و داشتیم با محیطش آشنا میشدیم فهمیدیم که یک چیزی هست به نام plugin. چون واسمون تازگی داشت من و محمد اینقدر پلاگین نصب کردیم و دیلیت کردیم که نگو. یک روزی یکمون یک پلاگین نصب کرد که توی یک روز آمار سایت رسید به 20 هزار بازدید. ما باورمون نمیشد واقعا. فرداش یکهو دیدیم سایت از دسترس خارج شده چون نمیتونسته درخواست ها رو پردازش کنه😂😂
منم همزمان با این داستان داشتم با یک نفر دیگه ای کار میکردم به نام سپهر. سپهر از دوستان دوم راهنمایی تا دبیرستانم بود. من با محمد حسین سایت داشتن رو تجربه کردم و دیدم چقدر لذت بخشه هیچ وقت تجربه سایت ubrowser یادم نمیره. از طرفی هم تجربه کار با سپهر رو هم یادم نمیره. آقا این بشر نمیدونم چش بود مازوخیزم داشت؟! یا چی. این بنده خدا هر روز سایت میزد و برای ما هم کلی تعریف و تمجید میکرد که میخوام این کار رو کنم و... ما هم هر دفعه گول این حقه باز رو میخوردیم. آقا این بشر سایت رو میساخت من پست میزاشتم فرداش میدیدم سایت دیگه بالا نمیاد. این اتفاق اگر بگم بالای 10 بار افتاد باورتون نمیشه.
بعد از 5 سال از طریق دوست مشترکمون فهمیدم این موجود ناشناخته میومده سایت ها رو به درخواست یکی دیگه میساخته بعد همون رو میفروخته😂😂
بله دوستان رفاقت هم .... هعی
(این داستان بر اساس واقعیت میباشد)
باز دم محمد حسین گرم که با تعریف کردن کاملش اون دوران رو باز آفرینی کرد.
این داستان ها رو که محمد توی کانالش تعریف کرد باعث شد من تو فکر فرو برم و خاطراتم رو دوباره زندگی کنم.
ما زمانی که سایت رو بردیم روی wordpress و داشتیم با محیطش آشنا میشدیم فهمیدیم که یک چیزی هست به نام plugin. چون واسمون تازگی داشت من و محمد اینقدر پلاگین نصب کردیم و دیلیت کردیم که نگو. یک روزی یکمون یک پلاگین نصب کرد که توی یک روز آمار سایت رسید به 20 هزار بازدید. ما باورمون نمیشد واقعا. فرداش یکهو دیدیم سایت از دسترس خارج شده چون نمیتونسته درخواست ها رو پردازش کنه😂😂
منم همزمان با این داستان داشتم با یک نفر دیگه ای کار میکردم به نام سپهر. سپهر از دوستان دوم راهنمایی تا دبیرستانم بود. من با محمد حسین سایت داشتن رو تجربه کردم و دیدم چقدر لذت بخشه هیچ وقت تجربه سایت ubrowser یادم نمیره. از طرفی هم تجربه کار با سپهر رو هم یادم نمیره. آقا این بشر نمیدونم چش بود مازوخیزم داشت؟! یا چی. این بنده خدا هر روز سایت میزد و برای ما هم کلی تعریف و تمجید میکرد که میخوام این کار رو کنم و... ما هم هر دفعه گول این حقه باز رو میخوردیم. آقا این بشر سایت رو میساخت من پست میزاشتم فرداش میدیدم سایت دیگه بالا نمیاد. این اتفاق اگر بگم بالای 10 بار افتاد باورتون نمیشه.
بعد از 5 سال از طریق دوست مشترکمون فهمیدم این موجود ناشناخته میومده سایت ها رو به درخواست یکی دیگه میساخته بعد همون رو میفروخته😂😂
بله دوستان رفاقت هم .... هعی
(این داستان بر اساس واقعیت میباشد)
باز دم محمد حسین گرم که با تعریف کردن کاملش اون دوران رو باز آفرینی کرد.
❤7
تابستون امسال داشتم یک مقاله ای در زمینه زمانبندی میخوندم که بنظرم جالب بود.
یکی از مشکلاتی که الگوریتم های زمانبندی دارند مسئله مقیاس پذیری این الگریتم هاست. وقتی گره ها افزایش پیدا میکنند مسئله با چه سرعتی به حواب همگرا میشه. خب طبیعی هست که وقتی گره ها افزایش پیدا کنند سرعت همگرا شدن مسئله به جواب کاهش پیدا کنه اما در چه Scale کاهش پیدا میکنه؟
توی مسئله های زمانبندی چون تعداد گره ها بسیار زیاد است (گره های کاربر، گره های پردازشی، گره های کنترلی) این مقیاس پذیری بسیار مهم است. حالا توی این مقاله اومده بود از یک تئوری توی نظریه گراف ها برای بهبود مقیاس شبکه استفاده کرده بود. اسم اون تئوری dominated set هست.
حالا قضیه چیه ؟ توی نظریه گراف ها ما یک تئوری داریم به نام dominated set. توی این مسئله هدف پیدا کردن زیر گراف کمینه از گراف اصلی است طوری که همه گره های گراف اصلی داخل زیر گراف باشن یا همسایه ای داخل این زیر گراف داشته باشن. نمونه خیلی کاربردی این قضیه k-dominating set هست.
حالا توی این مقاله چی گفته بود؟ میگه توی محیط های خودرویی رو در نظر بگیر. خودرو وظیفه رو ارسال میکنه به BS حالا این BS یکسری گره های پردازشی ثابت داره به نام RSU. این RSU ها توی محدوده این BS میتونن زیاد باشن چونکه شعاع پوششی این RSU ها خیلی کمه یک چیزی بین 200 تا 500 متر هستش. بنابراین تعدادشون میتونه زیاد بشه.
حالا چون تعداد اینها زیاد میشه ما باید مقیاس شبکه رو مدیریت و کنترل کنیم. توی این مقاله با استفاده از dominated set میومد بین RSU هایی که تنها با هم یک hop فاصله داشتن رو بهم متصل میکرد و جوری این هارو خوشه بندی میکرد که هر خوشه سه ویژگی داشته باشه: 1. با دیگر خوشه ها در ارتباط باشه 2. میزان منابع کافی برای پردازش وظایف را داشته باشه (نشان دهنده تعداد RSU است) 3. این الگوریتم بتونه خودش رو با افزایش این گره ها تطبیق بده و مقیاس شبکه را بهینه نگه داره.
بعد از اینکه خوشه بندی کرد وظیفه رو میومد به زیر وظیفه تقسیم میکرد و آن ها را بین گره های این خوشه تقسیم میکرد و توی هر خوشه یک الگریتم HEFT راه می انداخت.
این مقاله توسنته بود که مقیاس شبکه را بصورت لگاریتمی کاهش بده و برای شبیه سازی اون هم از کتابخانه Networkx استفاده کرده بود.
کلید اسرار این قسمت:
مقیاس شبکه فاکتور خیلی مهمیه. اگر مقیاس شبکه رو نشه کنترل کرد و کم کرد زمان این الگریتم های زمانبندی بشدت افزایشی میشه. اینجوری پیچیدگی مسئله هم افزایش پیدا میکنه و مجبور میشی که هوش مصنوعی استفاده کنی. اما اگر بتونی کنترلش کنی نیازی به استفاده از هوش مصنوعی نیست و میتونی کی الگریتمی بنویسی که بعدا هم بشه proof و verify کرد. از طرف دیگه میشه ترافیک بین گره ها برای ارسال داده های هر قسمت از وظیفه رو میشه کنترل و مدیریت کرد
یکی از مشکلاتی که الگوریتم های زمانبندی دارند مسئله مقیاس پذیری این الگریتم هاست. وقتی گره ها افزایش پیدا میکنند مسئله با چه سرعتی به حواب همگرا میشه. خب طبیعی هست که وقتی گره ها افزایش پیدا کنند سرعت همگرا شدن مسئله به جواب کاهش پیدا کنه اما در چه Scale کاهش پیدا میکنه؟
توی مسئله های زمانبندی چون تعداد گره ها بسیار زیاد است (گره های کاربر، گره های پردازشی، گره های کنترلی) این مقیاس پذیری بسیار مهم است. حالا توی این مقاله اومده بود از یک تئوری توی نظریه گراف ها برای بهبود مقیاس شبکه استفاده کرده بود. اسم اون تئوری dominated set هست.
حالا قضیه چیه ؟ توی نظریه گراف ها ما یک تئوری داریم به نام dominated set. توی این مسئله هدف پیدا کردن زیر گراف کمینه از گراف اصلی است طوری که همه گره های گراف اصلی داخل زیر گراف باشن یا همسایه ای داخل این زیر گراف داشته باشن. نمونه خیلی کاربردی این قضیه k-dominating set هست.
حالا توی این مقاله چی گفته بود؟ میگه توی محیط های خودرویی رو در نظر بگیر. خودرو وظیفه رو ارسال میکنه به BS حالا این BS یکسری گره های پردازشی ثابت داره به نام RSU. این RSU ها توی محدوده این BS میتونن زیاد باشن چونکه شعاع پوششی این RSU ها خیلی کمه یک چیزی بین 200 تا 500 متر هستش. بنابراین تعدادشون میتونه زیاد بشه.
حالا چون تعداد اینها زیاد میشه ما باید مقیاس شبکه رو مدیریت و کنترل کنیم. توی این مقاله با استفاده از dominated set میومد بین RSU هایی که تنها با هم یک hop فاصله داشتن رو بهم متصل میکرد و جوری این هارو خوشه بندی میکرد که هر خوشه سه ویژگی داشته باشه: 1. با دیگر خوشه ها در ارتباط باشه 2. میزان منابع کافی برای پردازش وظایف را داشته باشه (نشان دهنده تعداد RSU است) 3. این الگوریتم بتونه خودش رو با افزایش این گره ها تطبیق بده و مقیاس شبکه را بهینه نگه داره.
بعد از اینکه خوشه بندی کرد وظیفه رو میومد به زیر وظیفه تقسیم میکرد و آن ها را بین گره های این خوشه تقسیم میکرد و توی هر خوشه یک الگریتم HEFT راه می انداخت.
این مقاله توسنته بود که مقیاس شبکه را بصورت لگاریتمی کاهش بده و برای شبیه سازی اون هم از کتابخانه Networkx استفاده کرده بود.
کلید اسرار این قسمت:
مقیاس شبکه فاکتور خیلی مهمیه. اگر مقیاس شبکه رو نشه کنترل کرد و کم کرد زمان این الگریتم های زمانبندی بشدت افزایشی میشه. اینجوری پیچیدگی مسئله هم افزایش پیدا میکنه و مجبور میشی که هوش مصنوعی استفاده کنی. اما اگر بتونی کنترلش کنی نیازی به استفاده از هوش مصنوعی نیست و میتونی کی الگریتمی بنویسی که بعدا هم بشه proof و verify کرد. از طرف دیگه میشه ترافیک بین گره ها برای ارسال داده های هر قسمت از وظیفه رو میشه کنترل و مدیریت کرد
❤3👍2
دوستان از سال آینده علاوه بر مباحث ابتدایی میخواییم یکم بیشتر شبکه ای صحبت کنیم و درباره ژورنال های مهم و اشخاص صاحب نام در شبکه هم بگیم. پس سال نو رو یکم مباحث پیشرفته تر و تخصصی هم توی کانال کار میکنم.
شاید اینجوری بشه فنجانی از اقیانوس شبکه رو نمایش داد
شاید اینجوری بشه فنجانی از اقیانوس شبکه رو نمایش داد
❤10👏2