This media is not supported in your browser
VIEW IN TELEGRAM
فردا شنبه است و کمی حق از پروفسور Richard Feynman
❤7👏1
فان فکت درباره feynman
ایشون توی اغلب مقالاتی که منتشر میکرده انتگرال رو اشتباه حساب میکرده ولی تونسته فرد تاثیر گزاری باشه توی کوانتوم باشه.
وقتی که فاینمن به عناون باهوش ترین مرد دنیا شناخته میشه و با مادرش مصاحبه میکنند مادرش میگه: ریچارد؟ باهوشترین مرد؟ خدا به دادمون برسه.
من این دو تا رو یادم بود میتونید توی کامنت ها شما دانسته ها تون رو بگین 👌
یک سایت خیلی باخال است مختص این مرد بزرگ حتما یک نگاه بندازید
به نظرم الگوی خیلی خیلی خوبی میتونه باشه برامون
ایشون توی اغلب مقالاتی که منتشر میکرده انتگرال رو اشتباه حساب میکرده ولی تونسته فرد تاثیر گزاری باشه توی کوانتوم باشه.
وقتی که فاینمن به عناون باهوش ترین مرد دنیا شناخته میشه و با مادرش مصاحبه میکنند مادرش میگه: ریچارد؟ باهوشترین مرد؟ خدا به دادمون برسه.
من این دو تا رو یادم بود میتونید توی کامنت ها شما دانسته ها تون رو بگین 👌
یک سایت خیلی باخال است مختص این مرد بزرگ حتما یک نگاه بندازید
به نظرم الگوی خیلی خیلی خوبی میتونه باشه برامون
Feynman
Richard Feynman – Scientist. Teacher. Raconteur. Musician
Richard Feynman, scientist, teacher, raconteur, and drummer. He assisted in the development of the atomic bomb, expanded the understanding of quantumelectrodynamics, translated Mayan hieroglyphics, and cut to the heart of the Challenger disaster.
❤3👍1
a pessimistic researcher
وبسایت رو ما طراحی میکنیم. host اش رو هم محمد میده." واقعا جی از این ایده بهتر. با همفکری هم اسم این وبسایت رو گذاشتیم uplan.ir و روی hosting محمد راهاندازیش کردیم. اولین سفارشمون رو هم گرفتیم که قرار شد مشتریش ۵۰ هزار تومن بهمون بده. ما سایت رو بهش تحویل دادیم ولی پولمون رو نداد. مهدی خیلی زحمت کشید سرش و واقعا به عنوان اولین تجربه خیلی حالگیری بود.
my pov:
این داستان ها رو که محمد توی کانالش تعریف کرد باعث شد من تو فکر فرو برم و خاطراتم رو دوباره زندگی کنم.
ما زمانی که سایت رو بردیم روی wordpress و داشتیم با محیطش آشنا میشدیم فهمیدیم که یک چیزی هست به نام plugin. چون واسمون تازگی داشت من و محمد اینقدر پلاگین نصب کردیم و دیلیت کردیم که نگو. یک روزی یکمون یک پلاگین نصب کرد که توی یک روز آمار سایت رسید به 20 هزار بازدید. ما باورمون نمیشد واقعا. فرداش یکهو دیدیم سایت از دسترس خارج شده چون نمیتونسته درخواست ها رو پردازش کنه😂😂
منم همزمان با این داستان داشتم با یک نفر دیگه ای کار میکردم به نام سپهر. سپهر از دوستان دوم راهنمایی تا دبیرستانم بود. من با محمد حسین سایت داشتن رو تجربه کردم و دیدم چقدر لذت بخشه هیچ وقت تجربه سایت ubrowser یادم نمیره. از طرفی هم تجربه کار با سپهر رو هم یادم نمیره. آقا این بشر نمیدونم چش بود مازوخیزم داشت؟! یا چی. این بنده خدا هر روز سایت میزد و برای ما هم کلی تعریف و تمجید میکرد که میخوام این کار رو کنم و... ما هم هر دفعه گول این حقه باز رو میخوردیم. آقا این بشر سایت رو میساخت من پست میزاشتم فرداش میدیدم سایت دیگه بالا نمیاد. این اتفاق اگر بگم بالای 10 بار افتاد باورتون نمیشه.
بعد از 5 سال از طریق دوست مشترکمون فهمیدم این موجود ناشناخته میومده سایت ها رو به درخواست یکی دیگه میساخته بعد همون رو میفروخته😂😂
بله دوستان رفاقت هم .... هعی
(این داستان بر اساس واقعیت میباشد)
باز دم محمد حسین گرم که با تعریف کردن کاملش اون دوران رو باز آفرینی کرد.
این داستان ها رو که محمد توی کانالش تعریف کرد باعث شد من تو فکر فرو برم و خاطراتم رو دوباره زندگی کنم.
ما زمانی که سایت رو بردیم روی wordpress و داشتیم با محیطش آشنا میشدیم فهمیدیم که یک چیزی هست به نام plugin. چون واسمون تازگی داشت من و محمد اینقدر پلاگین نصب کردیم و دیلیت کردیم که نگو. یک روزی یکمون یک پلاگین نصب کرد که توی یک روز آمار سایت رسید به 20 هزار بازدید. ما باورمون نمیشد واقعا. فرداش یکهو دیدیم سایت از دسترس خارج شده چون نمیتونسته درخواست ها رو پردازش کنه😂😂
منم همزمان با این داستان داشتم با یک نفر دیگه ای کار میکردم به نام سپهر. سپهر از دوستان دوم راهنمایی تا دبیرستانم بود. من با محمد حسین سایت داشتن رو تجربه کردم و دیدم چقدر لذت بخشه هیچ وقت تجربه سایت ubrowser یادم نمیره. از طرفی هم تجربه کار با سپهر رو هم یادم نمیره. آقا این بشر نمیدونم چش بود مازوخیزم داشت؟! یا چی. این بنده خدا هر روز سایت میزد و برای ما هم کلی تعریف و تمجید میکرد که میخوام این کار رو کنم و... ما هم هر دفعه گول این حقه باز رو میخوردیم. آقا این بشر سایت رو میساخت من پست میزاشتم فرداش میدیدم سایت دیگه بالا نمیاد. این اتفاق اگر بگم بالای 10 بار افتاد باورتون نمیشه.
بعد از 5 سال از طریق دوست مشترکمون فهمیدم این موجود ناشناخته میومده سایت ها رو به درخواست یکی دیگه میساخته بعد همون رو میفروخته😂😂
بله دوستان رفاقت هم .... هعی
(این داستان بر اساس واقعیت میباشد)
باز دم محمد حسین گرم که با تعریف کردن کاملش اون دوران رو باز آفرینی کرد.
❤7
تابستون امسال داشتم یک مقاله ای در زمینه زمانبندی میخوندم که بنظرم جالب بود.
یکی از مشکلاتی که الگوریتم های زمانبندی دارند مسئله مقیاس پذیری این الگریتم هاست. وقتی گره ها افزایش پیدا میکنند مسئله با چه سرعتی به حواب همگرا میشه. خب طبیعی هست که وقتی گره ها افزایش پیدا کنند سرعت همگرا شدن مسئله به جواب کاهش پیدا کنه اما در چه Scale کاهش پیدا میکنه؟
توی مسئله های زمانبندی چون تعداد گره ها بسیار زیاد است (گره های کاربر، گره های پردازشی، گره های کنترلی) این مقیاس پذیری بسیار مهم است. حالا توی این مقاله اومده بود از یک تئوری توی نظریه گراف ها برای بهبود مقیاس شبکه استفاده کرده بود. اسم اون تئوری dominated set هست.
حالا قضیه چیه ؟ توی نظریه گراف ها ما یک تئوری داریم به نام dominated set. توی این مسئله هدف پیدا کردن زیر گراف کمینه از گراف اصلی است طوری که همه گره های گراف اصلی داخل زیر گراف باشن یا همسایه ای داخل این زیر گراف داشته باشن. نمونه خیلی کاربردی این قضیه k-dominating set هست.
حالا توی این مقاله چی گفته بود؟ میگه توی محیط های خودرویی رو در نظر بگیر. خودرو وظیفه رو ارسال میکنه به BS حالا این BS یکسری گره های پردازشی ثابت داره به نام RSU. این RSU ها توی محدوده این BS میتونن زیاد باشن چونکه شعاع پوششی این RSU ها خیلی کمه یک چیزی بین 200 تا 500 متر هستش. بنابراین تعدادشون میتونه زیاد بشه.
حالا چون تعداد اینها زیاد میشه ما باید مقیاس شبکه رو مدیریت و کنترل کنیم. توی این مقاله با استفاده از dominated set میومد بین RSU هایی که تنها با هم یک hop فاصله داشتن رو بهم متصل میکرد و جوری این هارو خوشه بندی میکرد که هر خوشه سه ویژگی داشته باشه: 1. با دیگر خوشه ها در ارتباط باشه 2. میزان منابع کافی برای پردازش وظایف را داشته باشه (نشان دهنده تعداد RSU است) 3. این الگوریتم بتونه خودش رو با افزایش این گره ها تطبیق بده و مقیاس شبکه را بهینه نگه داره.
بعد از اینکه خوشه بندی کرد وظیفه رو میومد به زیر وظیفه تقسیم میکرد و آن ها را بین گره های این خوشه تقسیم میکرد و توی هر خوشه یک الگریتم HEFT راه می انداخت.
این مقاله توسنته بود که مقیاس شبکه را بصورت لگاریتمی کاهش بده و برای شبیه سازی اون هم از کتابخانه Networkx استفاده کرده بود.
کلید اسرار این قسمت:
مقیاس شبکه فاکتور خیلی مهمیه. اگر مقیاس شبکه رو نشه کنترل کرد و کم کرد زمان این الگریتم های زمانبندی بشدت افزایشی میشه. اینجوری پیچیدگی مسئله هم افزایش پیدا میکنه و مجبور میشی که هوش مصنوعی استفاده کنی. اما اگر بتونی کنترلش کنی نیازی به استفاده از هوش مصنوعی نیست و میتونی کی الگریتمی بنویسی که بعدا هم بشه proof و verify کرد. از طرف دیگه میشه ترافیک بین گره ها برای ارسال داده های هر قسمت از وظیفه رو میشه کنترل و مدیریت کرد
یکی از مشکلاتی که الگوریتم های زمانبندی دارند مسئله مقیاس پذیری این الگریتم هاست. وقتی گره ها افزایش پیدا میکنند مسئله با چه سرعتی به حواب همگرا میشه. خب طبیعی هست که وقتی گره ها افزایش پیدا کنند سرعت همگرا شدن مسئله به جواب کاهش پیدا کنه اما در چه Scale کاهش پیدا میکنه؟
توی مسئله های زمانبندی چون تعداد گره ها بسیار زیاد است (گره های کاربر، گره های پردازشی، گره های کنترلی) این مقیاس پذیری بسیار مهم است. حالا توی این مقاله اومده بود از یک تئوری توی نظریه گراف ها برای بهبود مقیاس شبکه استفاده کرده بود. اسم اون تئوری dominated set هست.
حالا قضیه چیه ؟ توی نظریه گراف ها ما یک تئوری داریم به نام dominated set. توی این مسئله هدف پیدا کردن زیر گراف کمینه از گراف اصلی است طوری که همه گره های گراف اصلی داخل زیر گراف باشن یا همسایه ای داخل این زیر گراف داشته باشن. نمونه خیلی کاربردی این قضیه k-dominating set هست.
حالا توی این مقاله چی گفته بود؟ میگه توی محیط های خودرویی رو در نظر بگیر. خودرو وظیفه رو ارسال میکنه به BS حالا این BS یکسری گره های پردازشی ثابت داره به نام RSU. این RSU ها توی محدوده این BS میتونن زیاد باشن چونکه شعاع پوششی این RSU ها خیلی کمه یک چیزی بین 200 تا 500 متر هستش. بنابراین تعدادشون میتونه زیاد بشه.
حالا چون تعداد اینها زیاد میشه ما باید مقیاس شبکه رو مدیریت و کنترل کنیم. توی این مقاله با استفاده از dominated set میومد بین RSU هایی که تنها با هم یک hop فاصله داشتن رو بهم متصل میکرد و جوری این هارو خوشه بندی میکرد که هر خوشه سه ویژگی داشته باشه: 1. با دیگر خوشه ها در ارتباط باشه 2. میزان منابع کافی برای پردازش وظایف را داشته باشه (نشان دهنده تعداد RSU است) 3. این الگوریتم بتونه خودش رو با افزایش این گره ها تطبیق بده و مقیاس شبکه را بهینه نگه داره.
بعد از اینکه خوشه بندی کرد وظیفه رو میومد به زیر وظیفه تقسیم میکرد و آن ها را بین گره های این خوشه تقسیم میکرد و توی هر خوشه یک الگریتم HEFT راه می انداخت.
این مقاله توسنته بود که مقیاس شبکه را بصورت لگاریتمی کاهش بده و برای شبیه سازی اون هم از کتابخانه Networkx استفاده کرده بود.
کلید اسرار این قسمت:
مقیاس شبکه فاکتور خیلی مهمیه. اگر مقیاس شبکه رو نشه کنترل کرد و کم کرد زمان این الگریتم های زمانبندی بشدت افزایشی میشه. اینجوری پیچیدگی مسئله هم افزایش پیدا میکنه و مجبور میشی که هوش مصنوعی استفاده کنی. اما اگر بتونی کنترلش کنی نیازی به استفاده از هوش مصنوعی نیست و میتونی کی الگریتمی بنویسی که بعدا هم بشه proof و verify کرد. از طرف دیگه میشه ترافیک بین گره ها برای ارسال داده های هر قسمت از وظیفه رو میشه کنترل و مدیریت کرد
❤3👍2
دوستان از سال آینده علاوه بر مباحث ابتدایی میخواییم یکم بیشتر شبکه ای صحبت کنیم و درباره ژورنال های مهم و اشخاص صاحب نام در شبکه هم بگیم. پس سال نو رو یکم مباحث پیشرفته تر و تخصصی هم توی کانال کار میکنم.
شاید اینجوری بشه فنجانی از اقیانوس شبکه رو نمایش داد
شاید اینجوری بشه فنجانی از اقیانوس شبکه رو نمایش داد
❤10👏2
De.coder
دوستان از سال آینده علاوه بر مباحث ابتدایی میخواییم یکم بیشتر شبکه ای صحبت کنیم و درباره ژورنال های مهم و اشخاص صاحب نام در شبکه هم بگیم. پس سال نو رو یکم مباحث پیشرفته تر و تخصصی هم توی کانال کار میکنم. شاید اینجوری بشه فنجانی از اقیانوس شبکه رو نمایش داد
امروز دکتر شهریاری توی گروه بچها یک پستی گذاشت درباره آقای Andrej Karpath. ایشون یکی از بنیان گذار های OpenAI هستند که توی دانشگاه stanford تحصیل کرده.
آقای Andrej Karpath یک سری پست هایی رو دارن توی کانال یوتیوب شان قرار میدن که قراره یکسری توضیحات بسیاری خوبی درباره مدل های chatGPT و بطور کلی مدل های مبتنی بر LLM که مدل های بزرگی هستند ارائه بدن. کلا platform هایی مانند GPT مبتنی بر LLM هستند. ایشون توی این مجموعه ویدئو ها میخواهد درباره پشت صحنه این مدل ها صحبت کنه. مثلا توی این ویدئو اومده درباره مدل LLM صحبت های خیلی خوبی کرده و درباره این مدل توضیحاتی داده که برای عموم ملت قابل فهم هست و صرفا تخصصی نیست. پیش نیاز این مجموعه ویدئو ها انگیزه و دانش اندکی از هوش مصنوعی است. توی این ویدئو هم اومده درباره کاربرد های این مدل صحبت کرده.
اما اگر میخوایید کلا مجموعه ویدئوهای ایشون رو دنبال کنید از این ویدئو شروع کنید به دیدن.
چرا اینو توی کانال گذاشتم؟! اول اینکه هوش مصنوعی در دنیای شبکه های نسل آینده بسیار مهم و کاربردی هست طوری که هوش مصنوعی قراره به عنوان زیر ساخت یا یک سرویس ارائه بشه. از اونجایی هم که chatGPT توانسته قدرت هوش مصنوعی رو نشون بده پس به عنوان کاربردی مهم در نظر گرفت. مثلا شبکه های نسل 4 به بعد قراره خودشون پیکربندی رو انجاب بدن و حضور انسان ها برای مدیریت شبکه کمتر باشه. یکی از vision هایی که سازمان AT&T و 3GPP برای شبکه های نسل 6 دیده اند قابلیت self-configuration و مدیریت و بازیابی اتوماتیک است. البته توی شبکه ما کاری به مدل نداریم.
حالا طبق حرفی که زدم درباره قابلیت ها و نسل های شبکه قراره توی کانال کلی صحبت کنیم و جزئیات بیشتری بگیم. فعلا این رو از من بپذیرید.
دوما یکی از خوبی های این کانال این بود که ما توش خیلی منبع معرفی کردیم. از ویدئو گرفته تا کتاب و lecture خواستیم کلکسیون رو همچنان تازه نگه داریم.
PS:
چینی ها هم آدم های بدی نیستند ها. اگر اون ها کد های deepseek رو opensource نمیکردند بعید میدونم این جماعت میومدن درباره پشت صحنه صحبت میکردند.
آقای Andrej Karpath یک سری پست هایی رو دارن توی کانال یوتیوب شان قرار میدن که قراره یکسری توضیحات بسیاری خوبی درباره مدل های chatGPT و بطور کلی مدل های مبتنی بر LLM که مدل های بزرگی هستند ارائه بدن. کلا platform هایی مانند GPT مبتنی بر LLM هستند. ایشون توی این مجموعه ویدئو ها میخواهد درباره پشت صحنه این مدل ها صحبت کنه. مثلا توی این ویدئو اومده درباره مدل LLM صحبت های خیلی خوبی کرده و درباره این مدل توضیحاتی داده که برای عموم ملت قابل فهم هست و صرفا تخصصی نیست. پیش نیاز این مجموعه ویدئو ها انگیزه و دانش اندکی از هوش مصنوعی است. توی این ویدئو هم اومده درباره کاربرد های این مدل صحبت کرده.
اما اگر میخوایید کلا مجموعه ویدئوهای ایشون رو دنبال کنید از این ویدئو شروع کنید به دیدن.
چرا اینو توی کانال گذاشتم؟! اول اینکه هوش مصنوعی در دنیای شبکه های نسل آینده بسیار مهم و کاربردی هست طوری که هوش مصنوعی قراره به عنوان زیر ساخت یا یک سرویس ارائه بشه. از اونجایی هم که chatGPT توانسته قدرت هوش مصنوعی رو نشون بده پس به عنوان کاربردی مهم در نظر گرفت. مثلا شبکه های نسل 4 به بعد قراره خودشون پیکربندی رو انجاب بدن و حضور انسان ها برای مدیریت شبکه کمتر باشه. یکی از vision هایی که سازمان AT&T و 3GPP برای شبکه های نسل 6 دیده اند قابلیت self-configuration و مدیریت و بازیابی اتوماتیک است. البته توی شبکه ما کاری به مدل نداریم.
حالا طبق حرفی که زدم درباره قابلیت ها و نسل های شبکه قراره توی کانال کلی صحبت کنیم و جزئیات بیشتری بگیم. فعلا این رو از من بپذیرید.
دوما یکی از خوبی های این کانال این بود که ما توش خیلی منبع معرفی کردیم. از ویدئو گرفته تا کتاب و lecture خواستیم کلکسیون رو همچنان تازه نگه داریم.
PS:
چینی ها هم آدم های بدی نیستند ها. اگر اون ها کد های deepseek رو opensource نمیکردند بعید میدونم این جماعت میومدن درباره پشت صحنه صحبت میکردند.
YouTube
Deep Dive into LLMs like ChatGPT
This is a general audience deep dive into the Large Language Model (LLM) AI technology that powers ChatGPT and related products. It is covers the full training stack of how the models are developed, along with mental models of how to think about their "psychology"…
👍5❤1
This media is not supported in your browser
VIEW IN TELEGRAM
حرکت زیبا در بازی battlefield 2042 ببینم😁
اینو دلم نیومد برای گیمرای کانال نزارم
اینو دلم نیومد برای گیمرای کانال نزارم
👍4
بچه های شبکه یک درس بسیار زیبایی دارند به نام طراحی و مدلسازی شبکه. توی این درس دانشجو های شبکه یاد میگرن که چجوری یک شبکه را طراحی کنند که پارامترهای مختلفی همچون QoS، GoS و عملکرد و هزینه را بهینه کنند. البته این درس تنها به این مباحث ختم نمیشه بلکه درباره بهینه سازی شبکه و استفاده از تکنولوژی و طراحی یک نقشه یا برنامه ریزی برای توسعه شبکه را هم شامل میشه. کلا بگم این درس مادر شبکه است. الان این درس توی دانشکده مهندسی کامپیوتر امیرکبیر ارائه شده و استاد خرسندی مدرس این درس هستند. من کلا با ژانر استاد خرسندی خیلی حال میکنم. درسهایی که ارائه میدن، اخلاق کاری ای که دارند و اهل شوخی و خنده هستند رو خیلی دوست دارم.
استاد خرسندی در کلاس یک تئوری رو معرفی کردند به نام teleTraffic Theory که یک نظریه فوق العاده است. توی این نظریه میاد درباره مدیریت و کنترل ترافیک در شبکه صحبت میکنه. این نظریه اساس طراحی شبکه های مدرن است.
استاد خرسندی در کلاس یک تئوری رو معرفی کردند به نام teleTraffic Theory که یک نظریه فوق العاده است. توی این نظریه میاد درباره مدیریت و کنترل ترافیک در شبکه صحبت میکنه. این نظریه اساس طراحی شبکه های مدرن است.
❤4👍1
یکی از افرادی که توی این حوزه بشدت تاثیر گذار و در واقع بنیان گذار teleTraffic Theory است آقای Agner Krarup Erlang بود. بله درست حدس زدید توزیع Erlang به خاطر ایشون هست که وجود دارد. این دانشمند دانمارکی پژوهش های زیادی در زمینه نظریه صف، آمار و مخصوصا مهندسی ترافیک کرده است.
اما متاسفانه نمیدونم چرا ایشون اینقدر گمنام هستند و بچهای شبکه اطلاعی ندارند. بنظرم یکم درباره ایشون و کارهایی که کرده اند باید بپردازیم. اما قبل از اون باید کمی درباره نوع شبکه بگیم.
ما انواع شبکه داریم شبکه های PSTN، PDN,PSDN,ISDN,... هستند. این شبکه ها تنها بر اساس نوع داده ای که حمل میکنند دسته بندی شده اند. مثلا یکی از دسته بندی های انواع شبکه packet-switching و ATM میباشد که بر اساس تکنولوژی است. erlang بر روی شبکه های تلفنی PSTN کار میکرد. زمانیکه برای زنگ زدن باید اول با اپراتور صحبت میکردی تا تماس را بر قرار کند و بعد آن شد شبکه های سوئیچینگ خودکار.
اما Agner Erlang کی بود؟؟؟
اما متاسفانه نمیدونم چرا ایشون اینقدر گمنام هستند و بچهای شبکه اطلاعی ندارند. بنظرم یکم درباره ایشون و کارهایی که کرده اند باید بپردازیم. اما قبل از اون باید کمی درباره نوع شبکه بگیم.
ما انواع شبکه داریم شبکه های PSTN، PDN,PSDN,ISDN,... هستند. این شبکه ها تنها بر اساس نوع داده ای که حمل میکنند دسته بندی شده اند. مثلا یکی از دسته بندی های انواع شبکه packet-switching و ATM میباشد که بر اساس تکنولوژی است. erlang بر روی شبکه های تلفنی PSTN کار میکرد. زمانیکه برای زنگ زدن باید اول با اپراتور صحبت میکردی تا تماس را بر قرار کند و بعد آن شد شبکه های سوئیچینگ خودکار.
اما Agner Erlang کی بود؟؟؟
دو سال بعد از آنکه اکساندر گراهامبل مخترع تلفن، آغاز عصر جدید ارتباطات را در روزنامه ها اعلام کرد شخصی به نام Agner Krarup Erlang در یک خانواده روستایی و فقیر متولد شد. مادر erlang برخلاف عقاید خانوادگی که بیان میکرد باید تمام مردان خانواده کشیش مسیحی شوند و زن ها با یک روحانی ازدواج کنند، با یک معلم روستایی ازدواج کرد. حاصل این ازدواج چهار فرزند بود که Agner فرزند دوم این خانواده بود.
خانواده Agner او را اینگونه توصیف کردند:
او در دوران دانش آموزی به همراه خواهران و برادرش در مدرسه ای که پدرش معلم بود تحصیل کرد و سپس وقتی برای دانشگاه اقدام کرده بود دو سال مشغول تدریس در مدرسه پدرش شد. سپس در سال 1896توسط دانشگاه copenhagen بورسیه شد. توی دانشگاه ریاضیات خواند و عاشق مثلثات شد. بعد از فارغ التحصیلی در سال 1901 به مدت 7 سال مدرس بود. نتیجه این تدریس ها توانایی فوق العاده او در آموزش بود.
بعد از آن عضو انجمن ریاضیات شد و با ریاضیدانی به نام J.L.W.V. Jensen آشنا شد. بعد آقای jensen آو را به F. Johanssen که مدیر شرکت تلفنی Copenhagen بود معرفی کرد. johanssen کسی بود که احتمالات را در تلفن به کاربرده بود و مشوق Agner در این زمینه بود. سپس این شرکت یک آزمایشگاه با مسئولیت Agner راه انداخت.
آشنایان Agner را شخصی ساکت و شوخ طبع ولی صرفه جو میدانستند. به دلیل این صرفه جویی بود که در آزمایشگاه خود تصمیم گرفت تا اساس و چهار چوب نظریه صف را برای کاربردهای تلفنی بنا کند و تعداد اپراتور ها را برای هر تماس موفق مشخص کند. این اتفاق برای اولین بار در شرکت مخابرات Copenhagen رخ داد. برای اینکار erlang یک سوال مهم پرسید. یک شرکت چه تعداد سوئیچ و اپراتور نیاز دارد؟
برای پاسخ به این سوال او اول نرخ ورود تماس ها را باید بدست می آورد که متوجه شد توزیع poisson دارند. سپس باید مدت زمانی که شخص باید پشت تلفن باشد تا تماسش بر قرار شود را محاسبه کرد که متوجه شد توزیع نمایی دارد. سوال بعدی آن بود که اگر 100 تا اپراتور و 100 تا سوئیچ داشته باشیم احتمال آنکه همه تماس ها بخواهد بر قرار شود چیست؟
مقاله ای با عنوان The Theory of Probability and Telephone Conversations در سال 1909 توسط Agner درباره توزیع poisson تماس های ورودی نوشته شد که اولین مقاله در زمینه نظریه صف بود.
خانواده Agner او را اینگونه توصیف کردند:
... او پسر آرام و صلحطلبی بود که مطالعه را به بازی با دیگر پسران ترجیح میداد. عصرها، او و برادر بزرگترش اغلب کتابی را با هم میخواندند؛ روش معمول آنها این بود که برادرش، فردریک، کتاب را به شیوهی معمول بخواند، در حالی که Agner که روبروی او پشت میز نشسته بود، کتاب را وارونه میخواند.
- the life and works of A.K. Erlang
او در دوران دانش آموزی به همراه خواهران و برادرش در مدرسه ای که پدرش معلم بود تحصیل کرد و سپس وقتی برای دانشگاه اقدام کرده بود دو سال مشغول تدریس در مدرسه پدرش شد. سپس در سال 1896توسط دانشگاه copenhagen بورسیه شد. توی دانشگاه ریاضیات خواند و عاشق مثلثات شد. بعد از فارغ التحصیلی در سال 1901 به مدت 7 سال مدرس بود. نتیجه این تدریس ها توانایی فوق العاده او در آموزش بود.
بعد از آن عضو انجمن ریاضیات شد و با ریاضیدانی به نام J.L.W.V. Jensen آشنا شد. بعد آقای jensen آو را به F. Johanssen که مدیر شرکت تلفنی Copenhagen بود معرفی کرد. johanssen کسی بود که احتمالات را در تلفن به کاربرده بود و مشوق Agner در این زمینه بود. سپس این شرکت یک آزمایشگاه با مسئولیت Agner راه انداخت.
آشنایان Agner را شخصی ساکت و شوخ طبع ولی صرفه جو میدانستند. به دلیل این صرفه جویی بود که در آزمایشگاه خود تصمیم گرفت تا اساس و چهار چوب نظریه صف را برای کاربردهای تلفنی بنا کند و تعداد اپراتور ها را برای هر تماس موفق مشخص کند. این اتفاق برای اولین بار در شرکت مخابرات Copenhagen رخ داد. برای اینکار erlang یک سوال مهم پرسید. یک شرکت چه تعداد سوئیچ و اپراتور نیاز دارد؟
برای پاسخ به این سوال او اول نرخ ورود تماس ها را باید بدست می آورد که متوجه شد توزیع poisson دارند. سپس باید مدت زمانی که شخص باید پشت تلفن باشد تا تماسش بر قرار شود را محاسبه کرد که متوجه شد توزیع نمایی دارد. سوال بعدی آن بود که اگر 100 تا اپراتور و 100 تا سوئیچ داشته باشیم احتمال آنکه همه تماس ها بخواهد بر قرار شود چیست؟
مقاله ای با عنوان The Theory of Probability and Telephone Conversations در سال 1909 توسط Agner درباره توزیع poisson تماس های ورودی نوشته شد که اولین مقاله در زمینه نظریه صف بود.
❤3👍1
بعد از این مقاله در سال 1917 یک مقاله دیگری به عنوان Solution of Some Problems in the Theory of Probabilities of Significance in Automatic Telephone Exchanges نوشت که این شناخته شده ترین مقاله ایشان برای شبکه های تلفنی سوئیچینگ خودکار است. توی این مقاله توزیع احتمالی زمان انتظار تماس ها و احتمال loss شدن تماس ها را محاسبه کرده بود. بعدها Agner مفهومی به نام statistical equilibrium را معرفی کرد که اساس فرضیات مقالات امروزی در حالت ergodic است (مربوط به ارزیابی کارایی سیستم است). به طور کلی این فرضیات متوسط یک تابع در زمان های مختلف را میتوان بجای متوسط آن در مکان های مختلف به کاربرد.
اما erlang آدم کم حوصله ای بود، برای همین اکثر مقالاتی که مینوشت بسیار کلی نگری داشت و از اثبات ها معمولا خودداری میکرد. برای همین پژوهش های این شخص بعد از مدتی توسط دیگر دانشمندان به اثبات میرسید.
او سال های زیادی با خواهر کوچکترش زندگی میکرد. خواهرش درباره او اینگونه میگوید:
بعد از مدت ها Agner عاشق خانمی شده بود که آن خانم با یکی از همکاران Agner ازدواج میکنه. بعد از آن Agner هیچ وقت عاشق کس دیگه ای نشد و دیگر ازدواج نکرد.
اما erlang آدم کم حوصله ای بود، برای همین اکثر مقالاتی که مینوشت بسیار کلی نگری داشت و از اثبات ها معمولا خودداری میکرد. برای همین پژوهش های این شخص بعد از مدتی توسط دیگر دانشمندان به اثبات میرسید.
او سال های زیادی با خواهر کوچکترش زندگی میکرد. خواهرش درباره او اینگونه میگوید:
ارلانگ شخصیتی قابل توجه و منحصربهفردی داشت. او شخصی مسیحی، صادق و همدل بود و در عین حال، سرشار از طنز و ظرافت طعنهآمیز. ظاهراً، ریشِ قرمز و پرپشت و همینطور شیوهی پوشش او، حالتی هنرمندانه به ظاهرش میبخشید. بسیار متواضع و بیآزار بود و فضای آرام اتاق مطالعهاش را به گردهماییهای اجتماعی و جشنها ترجیح میداد. او هرگز مشروبات الکلی نمینوشید و دخانیات مصرف نمیکرد. ارلانگ مردی نیکوکار بود؛ با زندگی سادهای که داشت، توانایی کمک به دیگران را نیز داشت و این کار را تا حد بسیار زیادی انجام میداد.
او کتابخانهی بزرگی از کتابها جمعآوری کرده بود که عمدتاً در زمینهی ریاضیات، نجوم و فیزیک بودند، اما به تاریخ، فلسفه و شعر نیز علاقهمند بود. دوستانش او را منبعی خوب و سخاوتمند از اطلاعات در موضوعات مختلف میدانستند. او به عنوان فردی خیرخواه شناخته میشد و نیازمندان اغلب برای کمک به او در آزمایشگاه مراجعه میکردند، و او معمولاً بهصورتی بیآزار و بدون جلب توجه به آنها کمک میکرد.
- The life and works of A.K. Erlang
بعد از مدت ها Agner عاشق خانمی شده بود که آن خانم با یکی از همکاران Agner ازدواج میکنه. بعد از آن Agner هیچ وقت عاشق کس دیگه ای نشد و دیگر ازدواج نکرد.
❤2🤔1
آقای Erlang در زمان شبکه های تلفنی یا PSTN یک فیلد آنالیزی تاسیس کرد به نام Telephone Network Analysis که ترافیک های تلفنی شبکه را بررسی میکرد. بیست سال بعد از مرگ Agner یعنی سال 1948 کتابی به یاد ایشان با نام The life and works of A.K. Erlang نوشته شد تا زندگی و دست آورد های این شخص بزرگ در تاریخ ثبت شود.
سی و یک سال بعد از مرگ آقای erlang تلفن های سوچینگ خودکار در دنیا پذیرفته و عرضه شد. دست آوردهای این شخص در شبکه مدرن همچنان استفاده میشود. مقالات نوشته شده ایشان امروزه نیز مورد توجه پژوهشگران قرار گرفته و از مفاهیم آن همچنان استفاده میشود.
سی و یک سال بعد از مرگ آقای erlang تلفن های سوچینگ خودکار در دنیا پذیرفته و عرضه شد. دست آوردهای این شخص در شبکه مدرن همچنان استفاده میشود. مقالات نوشته شده ایشان امروزه نیز مورد توجه پژوهشگران قرار گرفته و از مفاهیم آن همچنان استفاده میشود.
❤1🤔1
خب حالا که با آقای Agner آشنا شدید نوبت به معرفی یکی از با ارزش ترین دست آورد های ایشون در حوزه مدیریت ترافیک میخواییم صحبت کنیم...
توی شبکه از زمان حضرت آدم تا الان :) همیشه یکی از بحث هایی که خیلی مهم بوده هزینه و QoS در شبکه بوده است. منظورم از هزینه چیه؟
الان شرکت های بزرگ مانند Google و AT&T و CISCO دنبال کاهش هزینه یا افزایش بهره وری از شبکه به همراه کاهش هزینه هستند. کلا میخوان از چیزی که سرمایه گذاری میکنند بیشترین سود رو بگیرن. برای اینکار بحث بهینه سازی توی شبکه مطرح میشه. اگر هزینه شبکه یعنی هزینه های نگهداری کاهش پیدا کنه طبیعتا شرکت سرمایه بیشتری برای بهبود QoS کنار میزاره. از طرفی QoS تنها یک پارامتر نیست خودش چندین پارامتر مانند performance، درصد تلفات بسته، زمان رفت و برگشت و... رو شامل میشه که روی کیفیت سرویسی که شرکت ارائه میده تاثیر میگذارد.
حالا همه اینها به کنار بحث دیگه که خیلی مطرح هست مربوط به مقیاس پذیری و درصد خطاست.
امروزه تجارت ها شکل مدرن و مخابراتی به خود گرفته که طبیعتا ترافیک ها هم افزایش پیدا میکنه و چون این ترافیک ها معمولا از یک سرویس استفاده میکنند روی همدیگه اثر میزارن. از طرف دیگه رفتار کاربران هم توی شبکه ها بشدت مهم هست و روی ضریب خطا توی محاسبات تاثیر گزاره.برای همین انتخاب تکنولوژی خیلی مهم هست.
خب همه اینها برای کسی که میخاد یک شبکه راه بندازه چالش هست دیگه. اینا که گفتیم خیلی کم بودن مثلا پارامتر های امنیتی و تحلیل ریسک هم باید به اونها اضافه کنیم. حتی باید compatibility بین پروتکل ها و تکنولوژی های شبکه رو هم بر رسی کنیم. خب اینا همش مسئله است که باید به آنها پرداخت و حل کرد. باید چیکار کنیم؟؟
برای پاسخ دادن به همه این مباحث باید به مباحث طراحی و پیاده سازی شبکه بپردازیم اما برای پاسخ به کنترل و مدیریت ترافیک به همراه مقیاس پذیری شبکه و تحلیل ترافیک شبکه باید از نظریه teleTraffic استفاده کنیم که موضوع این پست هست.
این نظریه میاد به بهینگی شبکه کمک میکنه و همچنین سعی میکنه تا مشکلات QoS را در هر شبکه با هر فناوری حل بکنه. حالا از این تکنیک در SDN ها زیاد استفاده میشه و مدیران شبکه هم نه زیاد ولی از آن استفاده میکنن. اما چیزی که مشخص است این نظریه بر اساس احتمالات و آمار هست بنابراین نیاز به پیش زمینه عمیقی از ریاضیات و ارزیابی کارایی دارد. خروجی حاصل از این آنالیز ها فهمیدن رفتار کاربران با شبکه و پیدا کردن بهینه ترین پیکربندی در شبکه است.
حالا برای درک بهتر بزارید یک مثالی بزنم:
یک شهر کوچک را فرض کنید که دارای 1000 نفر جمعیت است. حالا تمام فامیل های این ها در یک شهر کوچک دیگر هستند. این دو تا شهر هر کدام دارای یک مرکز تلفن هستند که این دو مرکز بطور مستقیم به هم متصل هستند. حال سوال اینجا مطرح میشود که اگر این دو شهر بخواهند با یکدیگر صحبت کنند به چه تعداد خط تلفن نیاز داریم تا این دو مرکز تلفن را به یکدیگر متصل کنیم؟
چیزی که مشخص است اینکه با 1000 تا خط تلفن کار میتونه راه بیافته اما از طرفی هم این روش بهینه نیست و بشدت منابع هدر میره. چون احتمال اینکه همه با هم یک دفعه ارتباط بر قرار کنند خیلی کمه. اگر تعداد خطوط رو یک بگیریم هم به کافی نیست به احتمال بسیار زیادی تماس ها نا موفق میشن. یعنی یکجورایی شرایط رقابتی به وجود میاد. چه کنیم؟
اینجاست که teleTraffic میتونه کمک کند. با صرف نظر از جزئیات روش میتوان پی برد که اگر تعداد خطوط تلفن برابر 64 باشد و بطور میانگین هر نفر در هر ساعت 6 دقیقه صحبت کند آنگاه احتمال موفق بودن تماس ها برابر 99 درصد است. این احتمال اصلا کم نیست.
بزارید یک مثال امروزی بزنم ولی فکر کردنش با شما:
یک سیستم انتقال داده را در نظر بگیرید که طول بسته ها 2400 بیت بوده و سه بسته بطور تصادفی در هر ثانیه وارد سیستم میشود. سوالی که مطرح میشه اینکه 4 خط با سرعت 2400 بیت بر ثانیه بدیم یا یک خط با سرعت 9600 بیت بر ثانیه؟
اینها نمونه سوالاتی هستند که ما را در طراحی شبکه کمک میکنند تا بتونیم بهینه ترین و به صرفه ترین حالت را در نظر بگیریم.
البته این سوالات برای شبکه های نسل سه به قبل بود. الان توی طراحی شبکه و ارزیابی ترافیک، کاربران و مدل های سرویسی که شبکه ارائه میدهد را هم در نظر میگیریم.
زمانی که آقای erlang زمینه های مختلفی برای آنالیز ترافیک ها و رابطه های احتمالی در شبکه ها را بدست آورد به افتخار ایشون هر واحد traffic load را ارلنگ مینامند و با erl نمایش میدهند.
عبارت traffic load یا traffic intencity به مدت زمان بر قراری ارتباط ها در هر واحد زمان است. مثلا فرض کنید که سه تا تماس به مدت زمان 5و10و15 دقیقه در هر ساعت بر قرار میشود. حالا traffic load چند است؟
(5+10+15) / 60 = 0.5 [erl]
توی شبکه از زمان حضرت آدم تا الان :) همیشه یکی از بحث هایی که خیلی مهم بوده هزینه و QoS در شبکه بوده است. منظورم از هزینه چیه؟
الان شرکت های بزرگ مانند Google و AT&T و CISCO دنبال کاهش هزینه یا افزایش بهره وری از شبکه به همراه کاهش هزینه هستند. کلا میخوان از چیزی که سرمایه گذاری میکنند بیشترین سود رو بگیرن. برای اینکار بحث بهینه سازی توی شبکه مطرح میشه. اگر هزینه شبکه یعنی هزینه های نگهداری کاهش پیدا کنه طبیعتا شرکت سرمایه بیشتری برای بهبود QoS کنار میزاره. از طرفی QoS تنها یک پارامتر نیست خودش چندین پارامتر مانند performance، درصد تلفات بسته، زمان رفت و برگشت و... رو شامل میشه که روی کیفیت سرویسی که شرکت ارائه میده تاثیر میگذارد.
حالا همه اینها به کنار بحث دیگه که خیلی مطرح هست مربوط به مقیاس پذیری و درصد خطاست.
امروزه تجارت ها شکل مدرن و مخابراتی به خود گرفته که طبیعتا ترافیک ها هم افزایش پیدا میکنه و چون این ترافیک ها معمولا از یک سرویس استفاده میکنند روی همدیگه اثر میزارن. از طرف دیگه رفتار کاربران هم توی شبکه ها بشدت مهم هست و روی ضریب خطا توی محاسبات تاثیر گزاره.برای همین انتخاب تکنولوژی خیلی مهم هست.
خب همه اینها برای کسی که میخاد یک شبکه راه بندازه چالش هست دیگه. اینا که گفتیم خیلی کم بودن مثلا پارامتر های امنیتی و تحلیل ریسک هم باید به اونها اضافه کنیم. حتی باید compatibility بین پروتکل ها و تکنولوژی های شبکه رو هم بر رسی کنیم. خب اینا همش مسئله است که باید به آنها پرداخت و حل کرد. باید چیکار کنیم؟؟
برای پاسخ دادن به همه این مباحث باید به مباحث طراحی و پیاده سازی شبکه بپردازیم اما برای پاسخ به کنترل و مدیریت ترافیک به همراه مقیاس پذیری شبکه و تحلیل ترافیک شبکه باید از نظریه teleTraffic استفاده کنیم که موضوع این پست هست.
این نظریه میاد به بهینگی شبکه کمک میکنه و همچنین سعی میکنه تا مشکلات QoS را در هر شبکه با هر فناوری حل بکنه. حالا از این تکنیک در SDN ها زیاد استفاده میشه و مدیران شبکه هم نه زیاد ولی از آن استفاده میکنن. اما چیزی که مشخص است این نظریه بر اساس احتمالات و آمار هست بنابراین نیاز به پیش زمینه عمیقی از ریاضیات و ارزیابی کارایی دارد. خروجی حاصل از این آنالیز ها فهمیدن رفتار کاربران با شبکه و پیدا کردن بهینه ترین پیکربندی در شبکه است.
حالا برای درک بهتر بزارید یک مثالی بزنم:
یک شهر کوچک را فرض کنید که دارای 1000 نفر جمعیت است. حالا تمام فامیل های این ها در یک شهر کوچک دیگر هستند. این دو تا شهر هر کدام دارای یک مرکز تلفن هستند که این دو مرکز بطور مستقیم به هم متصل هستند. حال سوال اینجا مطرح میشود که اگر این دو شهر بخواهند با یکدیگر صحبت کنند به چه تعداد خط تلفن نیاز داریم تا این دو مرکز تلفن را به یکدیگر متصل کنیم؟
چیزی که مشخص است اینکه با 1000 تا خط تلفن کار میتونه راه بیافته اما از طرفی هم این روش بهینه نیست و بشدت منابع هدر میره. چون احتمال اینکه همه با هم یک دفعه ارتباط بر قرار کنند خیلی کمه. اگر تعداد خطوط رو یک بگیریم هم به کافی نیست به احتمال بسیار زیادی تماس ها نا موفق میشن. یعنی یکجورایی شرایط رقابتی به وجود میاد. چه کنیم؟
اینجاست که teleTraffic میتونه کمک کند. با صرف نظر از جزئیات روش میتوان پی برد که اگر تعداد خطوط تلفن برابر 64 باشد و بطور میانگین هر نفر در هر ساعت 6 دقیقه صحبت کند آنگاه احتمال موفق بودن تماس ها برابر 99 درصد است. این احتمال اصلا کم نیست.
بزارید یک مثال امروزی بزنم ولی فکر کردنش با شما:
یک سیستم انتقال داده را در نظر بگیرید که طول بسته ها 2400 بیت بوده و سه بسته بطور تصادفی در هر ثانیه وارد سیستم میشود. سوالی که مطرح میشه اینکه 4 خط با سرعت 2400 بیت بر ثانیه بدیم یا یک خط با سرعت 9600 بیت بر ثانیه؟
اینها نمونه سوالاتی هستند که ما را در طراحی شبکه کمک میکنند تا بتونیم بهینه ترین و به صرفه ترین حالت را در نظر بگیریم.
البته این سوالات برای شبکه های نسل سه به قبل بود. الان توی طراحی شبکه و ارزیابی ترافیک، کاربران و مدل های سرویسی که شبکه ارائه میدهد را هم در نظر میگیریم.
زمانی که آقای erlang زمینه های مختلفی برای آنالیز ترافیک ها و رابطه های احتمالی در شبکه ها را بدست آورد به افتخار ایشون هر واحد traffic load را ارلنگ مینامند و با erl نمایش میدهند.
عبارت traffic load یا traffic intencity به مدت زمان بر قراری ارتباط ها در هر واحد زمان است. مثلا فرض کنید که سه تا تماس به مدت زمان 5و10و15 دقیقه در هر ساعت بر قرار میشود. حالا traffic load چند است؟
(5+10+15) / 60 = 0.5 [erl]
👍3👏2
حالا اگر traffic load در یک اتصال یا trunck (اتصال فیزیکی) را محاسبه کنیم احتمال مشغول بودن آن trunk است. اگر در گروهی از trunk ها را محاسبه کنیم متوسط تعداد مورد انتظار trunk های مشغول را به ما میدهد.
بریم سراغ مقالات
من چند تا مقاله در این زمینه مطالعه کردم و به نتایجی رسیدم.
با استفاده از تلترافیک میان حد تاخیر شبکه را بدست میارن. اما روش های مختلفی برای تخمین زدن میزان دقیق تاخیر وجود داره. مثلا یک روش تخمین حد تاخیر در شبکه استفاده از fractal teletraffic delay bound است. فرض کن چندین اتصال به سرور وجود داره که میخواییم QoS آن اتصالات رو بهبود دهیم. حال از کجا بفهمیم که QoS برای کی بهتر میشه آیا برای یک اتصال بهتر میشه یا برای همه. توی اغلب مقالات میان QoS کلی شبکه و سیستم را بررسی میکنند نه صرفا یک اتصال. حالا در شبکه هایی که QoS آنها در یک بازه زمانی یکسان و تکراری است (از نظر آماری) میشه از FTDB استفاده کرد.
با تلترافیک یک روش جدید برای NOMA پیشنهاد میکنند. توی شبکه های نسل 4 به قبل از روش OMA استفاده میکردن که تداخل سیگنال وجود ندارد اما توی شبکه های نسل 5 به بعد از NOMA استفاده میکنند. NOMA یک روش دسترسی چندگانه است که اجازه تداخل کنترل شده روی سیگنال ها Non-Orthegonal رو میده. این سیگنال ها نسبت به هم عمود نیستند برای همین تداخل دارن. مزیت NOMA استفاده بهینه بر اساس شرایط کانال و همچنین به تعداد کاربر بیشتری با QoS متفاوت میشه سرویس داد.
از این نظریه توی شبکه های برق و شبکه های نوری و حتی ATM ها نیز استفاده شده که توی این مقال نمی گنجد :)
یکی از مهم و تخصصی ترین کنفرانس ها ITC است. این اولین و قدیمی ترین کنفرانس در حوزه traffic و ارتباطات شبکه است. الان نویسندگان به درخواست این کنفرانس دارن یک کتابی تهیه میکنن به نام 100Most Frequent Errors که 100 اشتباه رایج در ارزیابی ها را بیان میکنه.
اوایل این کنفرانس مباحثی برای مشکلات ترافیکی برای چند رسانه ای ها؛ مدل سازی ترافیک در شبکه های سیار و شبکه های ISDN بود. اما بعدا موضوعاتی مانند کاربرد teletraffic در شبکه های نسل 5 و هوش مصنوعی، ارزیابی شبکه های مجازی، QoE و کاربرد teletraffic در دنیای هوشمند را نیز اضافه کرد.
و یک چیز شوک آور اینکه کنفرانس های دیگه به پای این کنفرانس نمیرسن. یعنی بقیه کنفرانس ها و ژورنال ها بیشتر زمینه ارزیابی کارایی رو شامل میشن. اما ITC صرفا برای ترافیک شبکه و مدل سازی شبکه است.
موارد زیر در زمینه ارزیابی کارایی با تمرکز بیشتر بر روی شبکه خوب هستند:
1. ACM Transactions on Modeling and Performance Evaluation of Computing Systems
2. ACM SIGMETRICS (IMC )
3. ACM SIGCOMM Computer Communication Review
الان که دارم اینو مینویسم اینقدر مطلب جدید توی این حوزه و کاربرد مدل های نظریه جدید توی شبکه یاد گرفتم که نمیتونم اینجا بگم. به مرور زمان و میان پست ها بگم شاید بهتر باشه. ولی خدایی فکرشم نمیکردم که اینقدر نظریه توی مدل و طراحی شبکه داشته باشیم. واقعا دلچسب و زیادی حجم شون نا امید کننده است :)
هرچند اگر بخواییم این مسیر رو ادامه بدیم فکر کنم باید به مسائل ارزیابی کارایی هم اشاره بکنیم.
اینا رو گفتم صرفا درباره نظریه teletraffic اما بنظرم حق مطلب ادا نمیشه. بزارید یکم درباره اشخاص سر شناس توی حوزه ارزیابی شبکه صحبت کنیم. الان شبکه های بی سیم نسل 5 و 6 بسیار مورد توجه هستند و این اشخاص هم دارن روی ارزیابی این شبکه ها کار میکنند.
1. Michela Meo
2. Markus Fiedler
3. Tobias Hossfeld
4. Fabrice Guillemin
5. Michael Menth
6. Dario Rossi
7. Benny Van Houdt
خودم به شخص با Markus Fiedler زیاد حال نکردم چون زمینه پژوهشی اش اصلا برام جالب نیست. این آقا کلا داره روی VR و ارزیابی این برنامه ها کار میکنه.
آقای Benny Van Houdt هم صرفا پژوهش هاش درباره مدل های مارکوی و کمی الگوریتمی است تا شبکه.
آقای Michael Menth به نظرم خیلی شبکه ای هست و خیلی تخصصی روی SDN و امنیت کار میکنه. اما قدیما بیشتر روی SDN کار میکرد نمیدونم کی گولش زده.
خانم Michela Meo هم بنظرم خیلی کارای ارزیابی شبکه اش خوبه من خیلی خوشم اومد. اتفاقا ایشون یک صحبتی درباره این داره که چرا ما باید ارزیابی کارایی رو به دانشجو های شبکه یاد بدیم که حتما بعدا دربارش صحبت میکنم.
چیزی که بشدت جالبه اقلیت اینا حداقل یک مقاله توی زمینه quantum دادن مثلا آقای Fabrice Guillemin یک مقاله درباره الگوریتم مسیریابی توی quantum network ها داده.
بقیه خیلی ارزیابی کارایی کار میکردن تا شبکه برای همین بهشون نمی پردازم.
اما هنوز به محقق مورد علاقم توی شبکه اشاره نکردم. این آقا کسی بود که علاقه من رو برای ورود به دنیای شبکه بیشتر کرد. پژوهش های این شخص رو خیلی دوست دارم بعدا درباره این شخص هم صحبت میکنم.
بریم سراغ مقالات
من چند تا مقاله در این زمینه مطالعه کردم و به نتایجی رسیدم.
با استفاده از تلترافیک میان حد تاخیر شبکه را بدست میارن. اما روش های مختلفی برای تخمین زدن میزان دقیق تاخیر وجود داره. مثلا یک روش تخمین حد تاخیر در شبکه استفاده از fractal teletraffic delay bound است. فرض کن چندین اتصال به سرور وجود داره که میخواییم QoS آن اتصالات رو بهبود دهیم. حال از کجا بفهمیم که QoS برای کی بهتر میشه آیا برای یک اتصال بهتر میشه یا برای همه. توی اغلب مقالات میان QoS کلی شبکه و سیستم را بررسی میکنند نه صرفا یک اتصال. حالا در شبکه هایی که QoS آنها در یک بازه زمانی یکسان و تکراری است (از نظر آماری) میشه از FTDB استفاده کرد.
با تلترافیک یک روش جدید برای NOMA پیشنهاد میکنند. توی شبکه های نسل 4 به قبل از روش OMA استفاده میکردن که تداخل سیگنال وجود ندارد اما توی شبکه های نسل 5 به بعد از NOMA استفاده میکنند. NOMA یک روش دسترسی چندگانه است که اجازه تداخل کنترل شده روی سیگنال ها Non-Orthegonal رو میده. این سیگنال ها نسبت به هم عمود نیستند برای همین تداخل دارن. مزیت NOMA استفاده بهینه بر اساس شرایط کانال و همچنین به تعداد کاربر بیشتری با QoS متفاوت میشه سرویس داد.
از این نظریه توی شبکه های برق و شبکه های نوری و حتی ATM ها نیز استفاده شده که توی این مقال نمی گنجد :)
یکی از مهم و تخصصی ترین کنفرانس ها ITC است. این اولین و قدیمی ترین کنفرانس در حوزه traffic و ارتباطات شبکه است. الان نویسندگان به درخواست این کنفرانس دارن یک کتابی تهیه میکنن به نام 100Most Frequent Errors که 100 اشتباه رایج در ارزیابی ها را بیان میکنه.
اوایل این کنفرانس مباحثی برای مشکلات ترافیکی برای چند رسانه ای ها؛ مدل سازی ترافیک در شبکه های سیار و شبکه های ISDN بود. اما بعدا موضوعاتی مانند کاربرد teletraffic در شبکه های نسل 5 و هوش مصنوعی، ارزیابی شبکه های مجازی، QoE و کاربرد teletraffic در دنیای هوشمند را نیز اضافه کرد.
و یک چیز شوک آور اینکه کنفرانس های دیگه به پای این کنفرانس نمیرسن. یعنی بقیه کنفرانس ها و ژورنال ها بیشتر زمینه ارزیابی کارایی رو شامل میشن. اما ITC صرفا برای ترافیک شبکه و مدل سازی شبکه است.
موارد زیر در زمینه ارزیابی کارایی با تمرکز بیشتر بر روی شبکه خوب هستند:
1. ACM Transactions on Modeling and Performance Evaluation of Computing Systems
2. ACM SIGMETRICS (IMC )
3. ACM SIGCOMM Computer Communication Review
الان که دارم اینو مینویسم اینقدر مطلب جدید توی این حوزه و کاربرد مدل های نظریه جدید توی شبکه یاد گرفتم که نمیتونم اینجا بگم. به مرور زمان و میان پست ها بگم شاید بهتر باشه. ولی خدایی فکرشم نمیکردم که اینقدر نظریه توی مدل و طراحی شبکه داشته باشیم. واقعا دلچسب و زیادی حجم شون نا امید کننده است :)
هرچند اگر بخواییم این مسیر رو ادامه بدیم فکر کنم باید به مسائل ارزیابی کارایی هم اشاره بکنیم.
اینا رو گفتم صرفا درباره نظریه teletraffic اما بنظرم حق مطلب ادا نمیشه. بزارید یکم درباره اشخاص سر شناس توی حوزه ارزیابی شبکه صحبت کنیم. الان شبکه های بی سیم نسل 5 و 6 بسیار مورد توجه هستند و این اشخاص هم دارن روی ارزیابی این شبکه ها کار میکنند.
1. Michela Meo
2. Markus Fiedler
3. Tobias Hossfeld
4. Fabrice Guillemin
5. Michael Menth
6. Dario Rossi
7. Benny Van Houdt
خودم به شخص با Markus Fiedler زیاد حال نکردم چون زمینه پژوهشی اش اصلا برام جالب نیست. این آقا کلا داره روی VR و ارزیابی این برنامه ها کار میکنه.
آقای Benny Van Houdt هم صرفا پژوهش هاش درباره مدل های مارکوی و کمی الگوریتمی است تا شبکه.
آقای Michael Menth به نظرم خیلی شبکه ای هست و خیلی تخصصی روی SDN و امنیت کار میکنه. اما قدیما بیشتر روی SDN کار میکرد نمیدونم کی گولش زده.
خانم Michela Meo هم بنظرم خیلی کارای ارزیابی شبکه اش خوبه من خیلی خوشم اومد. اتفاقا ایشون یک صحبتی درباره این داره که چرا ما باید ارزیابی کارایی رو به دانشجو های شبکه یاد بدیم که حتما بعدا دربارش صحبت میکنم.
چیزی که بشدت جالبه اقلیت اینا حداقل یک مقاله توی زمینه quantum دادن مثلا آقای Fabrice Guillemin یک مقاله درباره الگوریتم مسیریابی توی quantum network ها داده.
بقیه خیلی ارزیابی کارایی کار میکردن تا شبکه برای همین بهشون نمی پردازم.
اما هنوز به محقق مورد علاقم توی شبکه اشاره نکردم. این آقا کسی بود که علاقه من رو برای ورود به دنیای شبکه بیشتر کرد. پژوهش های این شخص رو خیلی دوست دارم بعدا درباره این شخص هم صحبت میکنم.
👏2👍1🤔1
قبلا گفته بودم که پژوهش هایی که انجام میشه باید از یکی از سه روش زیر ارزایابی بشه:
1. ریاضیات و فرمال
2. شبیه سازی و مدل سازی
3. تجربی و پیاده سازی در دنیای واقعی
توی شبیه سازی چالش های زیادی است یکی از این چالش ها نبود dataset. یعنی داده اولیه ای وجود نداره که روش رو بتونی ارزیابی کنی.
یکی از datasetDB های معروف که میشه بهش مراجعه کرد و توی خیلی از مقالات بهش اشاره شده سایت crawdad.org است. این سایت زیر نظر IEEE-dataport است. حجم دادهاش زیاده و برای استفاده رایگان محققان و پژوهشگران است. تنها باید توی سایت IEEE-dataport ثبت نام کنید و بعدش برید به این لینک. بعد از همه اینها میتونید از سایت دانلود کنید.
البته سایت های دیگه ای هم هستند مثل kaggle، paperwithcode و opendatalab. البته که خود گوگل هم یک انجین جست و جو به نام datasetsearch داره که میتونید استفاده کنید.
این سایت هم بنظرم خیلی جالب اومد. این مخصوص داده های mobility هست. برای پژوهش هایی که تحرک رو هم شامل میشه. البته باید برید گیت هابش تا بتونید استفاده کنید.
1. ریاضیات و فرمال
2. شبیه سازی و مدل سازی
3. تجربی و پیاده سازی در دنیای واقعی
توی شبیه سازی چالش های زیادی است یکی از این چالش ها نبود dataset. یعنی داده اولیه ای وجود نداره که روش رو بتونی ارزیابی کنی.
یکی از datasetDB های معروف که میشه بهش مراجعه کرد و توی خیلی از مقالات بهش اشاره شده سایت crawdad.org است. این سایت زیر نظر IEEE-dataport است. حجم دادهاش زیاده و برای استفاده رایگان محققان و پژوهشگران است. تنها باید توی سایت IEEE-dataport ثبت نام کنید و بعدش برید به این لینک. بعد از همه اینها میتونید از سایت دانلود کنید.
البته سایت های دیگه ای هم هستند مثل kaggle، paperwithcode و opendatalab. البته که خود گوگل هم یک انجین جست و جو به نام datasetsearch داره که میتونید استفاده کنید.
این سایت هم بنظرم خیلی جالب اومد. این مخصوص داده های mobility هست. برای پژوهش هایی که تحرک رو هم شامل میشه. البته باید برید گیت هابش تا بتونید استفاده کنید.
ieee-dataport.org
IEEE DataPort
IEEE DataPort is a research data platform designed to make scientific data openly accessible to all and help researchers and institutions share research, manage their data, and collaborate with peers.
👏5
ولی خودمونیم ها وقتی نوبت به کد زدن میرسه محقق ها ریکلس میکنن. چندتا Repository دیدم کدهاشون رو ببینی فکر میکنی ناقصه. اصلا جزئیات نداره انگار.
👍3👏1
یعنی اگر کد نمیزاشت توی گیت هاب شخصیتش بالا تر بود تازه ما هم ناراحت نمیشدیم.
اکثرا هم اصلا کدر نیستن. کد هاشون رو ببینی یک چیز کثیف با کامنت های چینی نوشتن که میخوای سریع سیستم رو خاموش کنی که ویروسی نشه. بعدشم از خواب بیدارشی
الانم که اینقدر سطح abstraction رو بالا بردن توی کد ها که فکر کنم دو روز دیگه کل شبیه سازی میشه یک خط.
پژوهش هم قدیمیش خوبه
اکثرا هم اصلا کدر نیستن. کد هاشون رو ببینی یک چیز کثیف با کامنت های چینی نوشتن که میخوای سریع سیستم رو خاموش کنی که ویروسی نشه. بعدشم از خواب بیدارشی
الانم که اینقدر سطح abstraction رو بالا بردن توی کد ها که فکر کنم دو روز دیگه کل شبیه سازی میشه یک خط.
پژوهش هم قدیمیش خوبه
👍7🤔1
یکی ار بچهای دانشگاه یک ربات تلگرامی ساخته که بر اساس مدل Gemini هست.این دوستمون بصورت شخصی توی فضای ابری بالا آوردتش که بنظرم جالبش میکنه. هنوز درست و حسابی مدلش train نشده.
یکم باهاش کارکنید ببینید منوچهرخان چطوریه :)
@manoochehrKHAN_bot
یکم باهاش کارکنید ببینید منوچهرخان چطوریه :)
@manoochehrKHAN_bot
👏4👎1
یادمه زمانیکه داشتم درس ارزیابی کارایی میخوندم استاد این درس معنی likelyhood و probability را یکی در نظر میگرفت. اما من که میرفتم بعد مرجع میخوندم میدیم یک جا نوشته probability یک جای دیگر نوشته likelyhod. بعدشم نرفتم ببینم که این دو تا چه تفاوتی باهم دارن . توی مترجم هم میزدیم کلمات شبیه هم میاورد که اصلا قابل تفکیک نبودن. اما واقعیت این است که این دو کلمه باهم متفاوت هستند. برای فهم بهتر اون یکی از این ویدئو هایی که گذاشتم رو میتونید نگاه کنید:
1. In Statistics, Probability is not Likelihood
2. Maximum Likelihood, clearly explained!!!
3. the most important theory in probability
1. In Statistics, Probability is not Likelihood
2. Maximum Likelihood, clearly explained!!!
3. the most important theory in probability
YouTube
In Statistics, Probability is not Likelihood.
NOTE: This video was originally made as a follow up to an overview of Maximum Likelihood https://youtu.be/XepXtl9YKwc . That video provides context that gives this video more meaning.
Here's one of those tricky little things, Probability vs. Likelihood.…
Here's one of those tricky little things, Probability vs. Likelihood.…
👍3👏1