This media is not supported in your browser
VIEW IN TELEGRAM
یکی از خوبی های dash و streamlit این است که براحتی میتوان از روی مرورگر از هر وسیله ای که به شبکه وصل است نمودار ها را به صورت زنده دید. اینجا من نموداری که بر روی لپ تابم اجرا شده را فقط با وصل بودن به وای فای از روی گوشی قدیمی ام نگاه میکنم
کدهاش اگه دوست دارید تست کنید
کدهاش اگه دوست دارید تست کنید
🔵استفاده از کارت گرافیک برای محاسبات عددی( در پایتون و متلب)🔵
اگر در حال انجام محاسبات سنگین هستید حتما متوجه شده اید که تغییر دادن الگوریتم یا زبان می تواند تاثیر زیادی در سرعت داشته باشد. اینجا می خواهیم یکی از بهترین راهها برای افزایش سرعت را ببینیم: استفاده از کارت گرافیک!
ادامه در لینک زیر
https://vrgl.ir/2gsbq
اگر در حال انجام محاسبات سنگین هستید حتما متوجه شده اید که تغییر دادن الگوریتم یا زبان می تواند تاثیر زیادی در سرعت داشته باشد. اینجا می خواهیم یکی از بهترین راهها برای افزایش سرعت را ببینیم: استفاده از کارت گرافیک!
ادامه در لینک زیر
https://vrgl.ir/2gsbq
ویرگول
استفاده از کارت گرافیک برای محاسبات عددی
اگر در حال انجام محاسبات سنگین هستید حتما متوجه شده اید که تغییر دادن الگوریتم یا زبان می تواند تاثیر زیادی در سرعت داشته باشد. اینجا می خو…
من معمولا حوصله نمیکنم برنامه هام رو تست کنم، اما امروز سعی کردم یکم با چت باتی که ساختم حرف بزنم، نتیجه خیلی جالب بود! (سبز منم و سفید چت بات)
#fun
)بعد از اکسپت مقاله کد هاش رو براتون میذارم)
#fun
)بعد از اکسپت مقاله کد هاش رو براتون میذارم)
کراس+ تنسرفلو ۲ (TensorFlow 2.0 + Keras Crash Course)
بهترین توتریال تنسرفلو+ کراس (Keras+ tensorflow) در حال حاضر این Colab هست که توسط توسعه دهنده اصلی و بنیانگذار کراس ساخته شده. برای خواندن و تست کردن کدها به هیچ پیش نیازی احتیاج نیست و چیزی هم لازم نیست نصب کنید:
https://colab.research.google.com/drive/1UCJt8EYjlzCs1H1d1X0iDGYJsHKwu-NO
بهترین توتریال تنسرفلو+ کراس (Keras+ tensorflow) در حال حاضر این Colab هست که توسط توسعه دهنده اصلی و بنیانگذار کراس ساخته شده. برای خواندن و تست کردن کدها به هیچ پیش نیازی احتیاج نیست و چیزی هم لازم نیست نصب کنید:
https://colab.research.google.com/drive/1UCJt8EYjlzCs1H1d1X0iDGYJsHKwu-NO
Google
TensorFlow 2.0 + Keras Crash Course.ipynb
Colaboratory notebook
خلاصه مقاله: یک مقایسه عالی بین دو رقیب قدرتمند در عرصه چارچوب های یادگیری عمیق
ظاهرا چرخش شدیدی بخصوص در دو سال اخیر به سمت pytorch در آکادمیا شده است. در کنفرانس های اصلی هوش مصنوعی یعنی CVPR، NAACL ICLR ICML رشد پایتورچ از ۲۰۱۸ به ۲۰۱۹بالای دویست درصد بوده است این در حالی است که رشد تنسرفلو منفی بوده است. این نشان می دهد بیشتر پژوهشگران به سمت پایتورچ در حال مهارجرت هستند.
مهم ترین دلایل آن:
سادگی: سادگی پایتورچ از نامپای الهام گرفته شده است و همچنین سادگی در دیباگ که از اول در آن وجود داشت.
ای پی آی عالی: بیشتر کاربران api پایتورچ را ترجیح میدهند، تنسورفلو خودش را با تغییرات زیاد در اسم گذاری و پخش و پلا کردن زیر بخش ها فلج کرد
سرعت: بسیاری از بنچ مارکها نشان میدهند پایتورچ اگر سریعتر از تنسرفلو نباشد کندتر نیست، به همین دلیل ازین لحاظ تنسرفلو حرف بیشتری برای گفتن ندارد.
با این حال تنسرفلو هنوز بازار را بیشتر در دست دارد. دلیل آن هم این است که صنعت معمولا کند تر از آکادمیا خود را با چارچوب های جدید وفق می دهد اما جدای از آن دلایل مهم دیگری هم وجود دارند:
تنسرفلو بر روی سرورها و گوشی های موبایل اجرا می شود و قابلیت اجرا در وضعیت های گوناگون را دارد. پایتورچ تازه شروع به گسترش در این زمینه ها کرده است. از طرفی کدهای تنسرفلو در عمل سی هستند که overhead بسیار پایینی دارند و این برای کارهای صنعتی بسیار مهم ست.
در سال ۲۰۱۹ پایتورچ سعی در ایجاد torchscript کرد تا ضعف اجرا در پایتون را حل کند. از طرفی تنسرفلو حالت eager خود را معرفی کرد که مشکل دیباگینگ را حل کند. هر دوی این تلاش ها برای رفع کاستی های هر دو فریم ورک بود. اما هر دو همچنان مشکلاتی دارند. بخصوص روش eager در تنسرفلو باعث کند شدن و مشکلات زیادی شده است.
آینده:
در حال حاضر پایتورچ در پژوهش و دانشگاه ها دست بالاتر را دارد و بعید است حتی بعد از معرفی تسرفلو دو این موازنه تغییر کند. چرا که ویژگی هایی که تنسرفلو دو دارد معرفی میکند قبلا در پایتورچ وجود داشته است. اما در بخش صنعت هنوز تنسرفلو ادامه می دهد اما اینکه آینده چه می شود کسی نمیداند. احتمالا فشار افرادی که پایتورچ می دانند بیشتر است. در حال حاضر فیسبوک، آمازون، مایکروسافت پایتورچ را انتخاب کرده اند و حتی در خود گوگل افراد زیادی تلاش دارند که بیشتر از پایتورچ استفاده کنند. اما حتی ممکن است در آینده نزدیک چارچوب هایی بیاید که به کل همه این ها را کنار بزند. اما قطعا هیچ فریم ورکی بهترین نیست و تنوع در چارچوب های یادگیری ماشین مفید و باعث پیشرفت همه است.
ظاهرا چرخش شدیدی بخصوص در دو سال اخیر به سمت pytorch در آکادمیا شده است. در کنفرانس های اصلی هوش مصنوعی یعنی CVPR، NAACL ICLR ICML رشد پایتورچ از ۲۰۱۸ به ۲۰۱۹بالای دویست درصد بوده است این در حالی است که رشد تنسرفلو منفی بوده است. این نشان می دهد بیشتر پژوهشگران به سمت پایتورچ در حال مهارجرت هستند.
مهم ترین دلایل آن:
سادگی: سادگی پایتورچ از نامپای الهام گرفته شده است و همچنین سادگی در دیباگ که از اول در آن وجود داشت.
ای پی آی عالی: بیشتر کاربران api پایتورچ را ترجیح میدهند، تنسورفلو خودش را با تغییرات زیاد در اسم گذاری و پخش و پلا کردن زیر بخش ها فلج کرد
سرعت: بسیاری از بنچ مارکها نشان میدهند پایتورچ اگر سریعتر از تنسرفلو نباشد کندتر نیست، به همین دلیل ازین لحاظ تنسرفلو حرف بیشتری برای گفتن ندارد.
با این حال تنسرفلو هنوز بازار را بیشتر در دست دارد. دلیل آن هم این است که صنعت معمولا کند تر از آکادمیا خود را با چارچوب های جدید وفق می دهد اما جدای از آن دلایل مهم دیگری هم وجود دارند:
تنسرفلو بر روی سرورها و گوشی های موبایل اجرا می شود و قابلیت اجرا در وضعیت های گوناگون را دارد. پایتورچ تازه شروع به گسترش در این زمینه ها کرده است. از طرفی کدهای تنسرفلو در عمل سی هستند که overhead بسیار پایینی دارند و این برای کارهای صنعتی بسیار مهم ست.
در سال ۲۰۱۹ پایتورچ سعی در ایجاد torchscript کرد تا ضعف اجرا در پایتون را حل کند. از طرفی تنسرفلو حالت eager خود را معرفی کرد که مشکل دیباگینگ را حل کند. هر دوی این تلاش ها برای رفع کاستی های هر دو فریم ورک بود. اما هر دو همچنان مشکلاتی دارند. بخصوص روش eager در تنسرفلو باعث کند شدن و مشکلات زیادی شده است.
آینده:
در حال حاضر پایتورچ در پژوهش و دانشگاه ها دست بالاتر را دارد و بعید است حتی بعد از معرفی تسرفلو دو این موازنه تغییر کند. چرا که ویژگی هایی که تنسرفلو دو دارد معرفی میکند قبلا در پایتورچ وجود داشته است. اما در بخش صنعت هنوز تنسرفلو ادامه می دهد اما اینکه آینده چه می شود کسی نمیداند. احتمالا فشار افرادی که پایتورچ می دانند بیشتر است. در حال حاضر فیسبوک، آمازون، مایکروسافت پایتورچ را انتخاب کرده اند و حتی در خود گوگل افراد زیادی تلاش دارند که بیشتر از پایتورچ استفاده کنند. اما حتی ممکن است در آینده نزدیک چارچوب هایی بیاید که به کل همه این ها را کنار بزند. اما قطعا هیچ فریم ورکی بهترین نیست و تنوع در چارچوب های یادگیری ماشین مفید و باعث پیشرفت همه است.
The Gradient
The State of Machine Learning Frameworks in 2019
Since deep learning regained prominence in 2012, many machine learning frameworks have clamored to become the new favorite among researchers and industry practitioners. From the early academic outputs Caffe and Theano to the massive industry-backed PyTorch…
جخ امروز
از مادر نزاده ام
نه!
عمر جهان بر من گذشته است.
نزدیکترین خاطرهام خاطره ی قرنهاست.
بارها به خونمان کشیدند
خوشبینی برادرت ترکان را آواز داد
تو را و مرا گردن زدند
بر گُردهمان نشستند
و گورستانی چندان بی مرز شیار کردند
کوچ غریب را به یاد آر
از غربتی به غربت دیگر
به یاد آر:
تاریخ ما بیقراری بود
نه باوری
نه وطنی.
#rojava
#kurds
از مادر نزاده ام
نه!
عمر جهان بر من گذشته است.
نزدیکترین خاطرهام خاطره ی قرنهاست.
بارها به خونمان کشیدند
خوشبینی برادرت ترکان را آواز داد
تو را و مرا گردن زدند
بر گُردهمان نشستند
و گورستانی چندان بی مرز شیار کردند
کوچ غریب را به یاد آر
از غربتی به غربت دیگر
به یاد آر:
تاریخ ما بیقراری بود
نه باوری
نه وطنی.
#rojava
#kurds
👑 مشتق بگیر و راحت باش!👑
مشتق گیری در مرکز تقریبا تمام الگوریتم های یادگیری ماشین وجود دارد. در بسیاری از مواقع مانند شبکه های عصبی (در backpropagation) مشتق های مرتبه اول کافی هستند. بیشتر کتابخانه های معروف هم برای همین منظور بهینه شده اند. اما گاهی مشتق های مراتب بالاتر هم مهم می شوند. به صورت سنتی روش های زیادی برای چنین مشتق هایی ایجاد شده بود که برخی از آن ها کند بودند. اکنون که استفاده از GPU همه گیر شده است باز هم جان تازه ای به این روش ها دمیده شده است. دو کتابخانه معروف در این زمینه autograd و jax هستند. یادگیری این کتابخانه ها از دو جهت اهمیت دارد:
۱- این کتابخانه ها به صورت بسیار ساده نشان می دهند که چگونه می توان روش های یادگیری ماشین را پیاده سازی کرد. در عمل بسیاری از مکانیزم های مورد استفاده از چشم پنهان هستند ولی اینجا می توان پیاده سازی سطح پایین را دید که از لحاظ یادگیری بسیار مهم است.
۲- آینده ی کتابخانه هایی که بر اساس مشتقات مرتبه اول کار میکنند هنوز روشن نیست. بعید نیست در آینده نیاز به مشتقات مراتب بالاتر بخصوص محاسبه ماتریس هسین برای محاسبات سریع تر یا دقیق تر باشیم.
برخلاف خود تنسرفلو jax بسیار پایتونیک نوشته شده است. به این معنا که تا جای ممکن استانداردهای نوشتن کد در پایتون و بخصوص numpy را رعایت کرده است. همین باعث می شود کار کردن با آن ساده و یادگیری سریعی داشته باشد.
پروژه jax توسط google
https://github.com/google/jax
یک کولب برای کار با jax:
https://colab.research.google.com/github/google/jax/blob/master/docs/notebooks/How_JAX_primitives_work.ipynb
یک پست وبلاگی بسیار جالب در مورد استفاده از jax
https://colindcarroll.com/2019/04/06/exercises-in-automatic-differentiation-using-autograd-and-jax/
مشتق گیری در مرکز تقریبا تمام الگوریتم های یادگیری ماشین وجود دارد. در بسیاری از مواقع مانند شبکه های عصبی (در backpropagation) مشتق های مرتبه اول کافی هستند. بیشتر کتابخانه های معروف هم برای همین منظور بهینه شده اند. اما گاهی مشتق های مراتب بالاتر هم مهم می شوند. به صورت سنتی روش های زیادی برای چنین مشتق هایی ایجاد شده بود که برخی از آن ها کند بودند. اکنون که استفاده از GPU همه گیر شده است باز هم جان تازه ای به این روش ها دمیده شده است. دو کتابخانه معروف در این زمینه autograd و jax هستند. یادگیری این کتابخانه ها از دو جهت اهمیت دارد:
۱- این کتابخانه ها به صورت بسیار ساده نشان می دهند که چگونه می توان روش های یادگیری ماشین را پیاده سازی کرد. در عمل بسیاری از مکانیزم های مورد استفاده از چشم پنهان هستند ولی اینجا می توان پیاده سازی سطح پایین را دید که از لحاظ یادگیری بسیار مهم است.
۲- آینده ی کتابخانه هایی که بر اساس مشتقات مرتبه اول کار میکنند هنوز روشن نیست. بعید نیست در آینده نیاز به مشتقات مراتب بالاتر بخصوص محاسبه ماتریس هسین برای محاسبات سریع تر یا دقیق تر باشیم.
برخلاف خود تنسرفلو jax بسیار پایتونیک نوشته شده است. به این معنا که تا جای ممکن استانداردهای نوشتن کد در پایتون و بخصوص numpy را رعایت کرده است. همین باعث می شود کار کردن با آن ساده و یادگیری سریعی داشته باشد.
پروژه jax توسط google
https://github.com/google/jax
یک کولب برای کار با jax:
https://colab.research.google.com/github/google/jax/blob/master/docs/notebooks/How_JAX_primitives_work.ipynb
یک پست وبلاگی بسیار جالب در مورد استفاده از jax
https://colindcarroll.com/2019/04/06/exercises-in-automatic-differentiation-using-autograd-and-jax/
GitHub
GitHub - jax-ml/jax: Composable transformations of Python+NumPy programs: differentiate, vectorize, JIT to GPU/TPU, and more
Composable transformations of Python+NumPy programs: differentiate, vectorize, JIT to GPU/TPU, and more - jax-ml/jax
⭐️معجزه جدید OpenAI: ربات جدید OpenAI با یک دست مکعب روبیک را حل می کند! ⭐️
بدون شک دست انسان یکی از پیچیده ترین ماشین های ساخت طبیعت است. میلیون ها سال تجربه در طی فرآیند شگفت انگیز فرگشت دست انسان را به مرتبه ای از پیچیدگی رسانده است که می تواند از زمخت ترین کارها مانند خرد کردن آجر (مشت زنی) تا ظریف ترین کارها مانند طراحی و هنرهای بسیار ریز را انجام دهد. شواهد زیادی نشان می دهند فرگشت دست بشر کمک زیادی به ابزارسازی و در نتیجه بزرگتر شدن مغز کرد و همینطور بزرگتر شدن مغز منجر به ساختن ابزارهای پیچیده و دوباره بزرگترین شدن مغز و الی آخر شده است (فرآیند هم فرگشتی coevolution)
شاید حتی تا چند سال پیش ساختن دست مکانیکی که بتواند به چنین سطحی از پیچیدگی برسد غیر ممکن بود اما امروز (۱۵ اکتبر ۲۰۱۹) OpenAI از دست رباتیک جدید خود رونمایی کرد که با ایجاد یک چارچوب یادگیری مبتنی بر یادگیری تقویتی در محیطی شبیه سازی شده به این هدف رسیده است. دست مکانیکی ساخت OpenAI می تواند مکعب روبیک را با یک دست حل کند. ظاهرا چیزهایی که ربات ها می توانند انجام بدهند و ما نمی توانیم دارند بیشتر می شوند!
مساله در اینجا حل خود مکعب روبیک نیست که صد البته کار بسیار ساده ای برای کامپیوتر است. نکته اصلی حتی سخت افزار آن نیست (سخت افزار دست حداقل ۱۵ سال است که وجود دارد) مساله اصلی نگه داشتن مکعب در «یک دست» و انجام یک کار بسیار ظریف بدون انداختن مکعب یا انجام اشتباه آن است. کاری که حتی برای انسان هم بسیار دشوار است. (باور نمی کنید سعی کنید فقط با مکعب روبیک چند لحظه در یک دستتان بازی کنید، حل کردنش پیشکش)
برای این منظور قبل از ساخت دست فیزیکی محیطی شبیه سازی ساخته شده و با استفاده از یادگیری تقویتی عمیق شبکه آموزش داده شده است. اما برای اینکه الگوریتم قادر باشد در محیط جهان واقعی کار کند یک چارچوب جدید به نام Autimatic Domain Randomization (ADR) را ایجاد کرده اند که هر بار شرایط را برای ربات با تغییر یک پارامتر سخت تر می کند. مثلا تغییر سایز یا وزن مکعب، بستن دو انگشت ربات به هم، ناخنک زدن در حین حل، انداختن پارچه بر روی دست و غیره باعث شده اند که الگوریتم راهی برای حل مکعب بدون انداختن آن در شرایط پیچیده جدید انجام دهد.
این دست اگرچه هنوز فقط مکعب روبیک حل می کند اما یکبار و برای همیشه طلسم فایق آمدن بر پیچیدگی های غیر قابل برنامه نویسی در دست رباتیک را شکست. این در را برای دست های رباتیک (و به طور کلی ربات ها) باز می کند تا بتوانند تقریبا هر حرکت پیچیده حرکتی انسان را یاد گرفته و شبیه سازی کنند.
مقاله
چارچوب نرم افزاری مورد استفاده
بدون شک دست انسان یکی از پیچیده ترین ماشین های ساخت طبیعت است. میلیون ها سال تجربه در طی فرآیند شگفت انگیز فرگشت دست انسان را به مرتبه ای از پیچیدگی رسانده است که می تواند از زمخت ترین کارها مانند خرد کردن آجر (مشت زنی) تا ظریف ترین کارها مانند طراحی و هنرهای بسیار ریز را انجام دهد. شواهد زیادی نشان می دهند فرگشت دست بشر کمک زیادی به ابزارسازی و در نتیجه بزرگتر شدن مغز کرد و همینطور بزرگتر شدن مغز منجر به ساختن ابزارهای پیچیده و دوباره بزرگترین شدن مغز و الی آخر شده است (فرآیند هم فرگشتی coevolution)
شاید حتی تا چند سال پیش ساختن دست مکانیکی که بتواند به چنین سطحی از پیچیدگی برسد غیر ممکن بود اما امروز (۱۵ اکتبر ۲۰۱۹) OpenAI از دست رباتیک جدید خود رونمایی کرد که با ایجاد یک چارچوب یادگیری مبتنی بر یادگیری تقویتی در محیطی شبیه سازی شده به این هدف رسیده است. دست مکانیکی ساخت OpenAI می تواند مکعب روبیک را با یک دست حل کند. ظاهرا چیزهایی که ربات ها می توانند انجام بدهند و ما نمی توانیم دارند بیشتر می شوند!
مساله در اینجا حل خود مکعب روبیک نیست که صد البته کار بسیار ساده ای برای کامپیوتر است. نکته اصلی حتی سخت افزار آن نیست (سخت افزار دست حداقل ۱۵ سال است که وجود دارد) مساله اصلی نگه داشتن مکعب در «یک دست» و انجام یک کار بسیار ظریف بدون انداختن مکعب یا انجام اشتباه آن است. کاری که حتی برای انسان هم بسیار دشوار است. (باور نمی کنید سعی کنید فقط با مکعب روبیک چند لحظه در یک دستتان بازی کنید، حل کردنش پیشکش)
برای این منظور قبل از ساخت دست فیزیکی محیطی شبیه سازی ساخته شده و با استفاده از یادگیری تقویتی عمیق شبکه آموزش داده شده است. اما برای اینکه الگوریتم قادر باشد در محیط جهان واقعی کار کند یک چارچوب جدید به نام Autimatic Domain Randomization (ADR) را ایجاد کرده اند که هر بار شرایط را برای ربات با تغییر یک پارامتر سخت تر می کند. مثلا تغییر سایز یا وزن مکعب، بستن دو انگشت ربات به هم، ناخنک زدن در حین حل، انداختن پارچه بر روی دست و غیره باعث شده اند که الگوریتم راهی برای حل مکعب بدون انداختن آن در شرایط پیچیده جدید انجام دهد.
این دست اگرچه هنوز فقط مکعب روبیک حل می کند اما یکبار و برای همیشه طلسم فایق آمدن بر پیچیدگی های غیر قابل برنامه نویسی در دست رباتیک را شکست. این در را برای دست های رباتیک (و به طور کلی ربات ها) باز می کند تا بتوانند تقریبا هر حرکت پیچیده حرکتی انسان را یاد گرفته و شبیه سازی کنند.
مقاله
چارچوب نرم افزاری مورد استفاده
This media is not supported in your browser
VIEW IN TELEGRAM
قانون مور قاعدهای سرانگشتی است که بیان میکند تعداد ترانزیستورهای روی یک تراشه با مساحت ثابت هر دو سال، به طور تقریبی دو برابر میشود.
صد البته این قاعده به دلیل محدودیت های فیزیکی تا ابد نمی تواند پایدار باشد.
سال ۲۰۲۰ آخرین سال برقراری قانون مور با فیزیک حال حاضر برای توسعه تراشه هاست. اما این لزوما پایان داستان نیست...
صد البته این قاعده به دلیل محدودیت های فیزیکی تا ابد نمی تواند پایدار باشد.
سال ۲۰۲۰ آخرین سال برقراری قانون مور با فیزیک حال حاضر برای توسعه تراشه هاست. اما این لزوما پایان داستان نیست...
گوگل بالاخره امروز(۲۳ اکتبر ۲۰۱۹) تایید کرد که به «برتری کوانتومی» (quantum supremacy) دست پیدا کرده است. به این معنا که برای اولین بار یک کامپیوتر کوانتومی توانسته محاسبه ای را انجام دهد که خارج از دسترس بزرگترین ابر کامپیوتر کلاسیک دنیاست.
این کامپیوتر ۵۳ بیتی می تواند یک محاسبه خاص را در ۲۰۰ ثانیه انجام دهد کاری که برای بزرگترین ابرکامپیوتر جهان ده هزار سال طول میکشد!!
کامپیوتر های کوانتومی قادر به حل مسایل خاصی هستند که برای کامپیوتر های معمولی از لحاظ زمانی عملا ناممکن است . شکستن قوی ترین سیستم های رمزنگاری، شکستن الگوهای پیچیده ژنوم انسان که ما را قادر به ساختن داروهایی برای درمان سرطان می کند و همچنین ساخت مواد خاص در شیمی از آن دسته اند.
بسیاری از دانشمندان این موفقیت را یک قدم بسیار بزرگ به اندازه ساخت خود کامپیوتر می دانند.
بزودی در یک مطلب سعی میکنم توضیح دهم که اساس کامپیوتر کوانتومی چگونه است
ویدیو گوگل
مقاله
این کامپیوتر ۵۳ بیتی می تواند یک محاسبه خاص را در ۲۰۰ ثانیه انجام دهد کاری که برای بزرگترین ابرکامپیوتر جهان ده هزار سال طول میکشد!!
کامپیوتر های کوانتومی قادر به حل مسایل خاصی هستند که برای کامپیوتر های معمولی از لحاظ زمانی عملا ناممکن است . شکستن قوی ترین سیستم های رمزنگاری، شکستن الگوهای پیچیده ژنوم انسان که ما را قادر به ساختن داروهایی برای درمان سرطان می کند و همچنین ساخت مواد خاص در شیمی از آن دسته اند.
بسیاری از دانشمندان این موفقیت را یک قدم بسیار بزرگ به اندازه ساخت خود کامپیوتر می دانند.
بزودی در یک مطلب سعی میکنم توضیح دهم که اساس کامپیوتر کوانتومی چگونه است
ویدیو گوگل
مقاله
معرفی ابزار مونیتور کردن کد wandb
چند وقت پیش یکی از ابزارهای مانیتور کردن کد از راه دور را معرفی کردم. یکی دیگر از ابزارهایی که حتی امکانات بیشتری دارد و استفاده از آن در کد راحت تر است wandb است که بخصوص برای پروژه های یادگیری ماشین بسیار مفید است. مهمترین مزیت این سرویس نسبت به missinglink این است که حداقل تغییر در کد برای استفاده لازم است. اینجا می توانید یک توتریال سریع از آن را یاد بگیرید. یادگیری و استفاده و کانفیگ کردن آن در حد چند دیقه وقت میگیرد اما مزیت خوبی که دارد این است که تمام اطلاعات شما از نمودار ها و اطلاعات خروجی در ترمینال تا معماری و حتی میزان مصرف سی پی یو و جی پی یو را ذخیره می کند.
کسانی که یادگیری ماشین کار میکنند ارزش مانیتور کردن اطلاعات را می دانند. از طرفی به خاطر اینکه این سرویس در عمل آنلاین است نیازی ندارید که با teamviewer یا ssh به سیستمتان وصل شوید تا ببینید وضعیت چطور است. براحتی میتوانید بر روی گوشیتان هم چک کنید که بر روی سرور های دانشگاه یا سر کار چه می گذرد! اینجا چند اسکرین شات از نمودارهایی که دارم را گرفته ام در حالی که خانه هستم
چند وقت پیش یکی از ابزارهای مانیتور کردن کد از راه دور را معرفی کردم. یکی دیگر از ابزارهایی که حتی امکانات بیشتری دارد و استفاده از آن در کد راحت تر است wandb است که بخصوص برای پروژه های یادگیری ماشین بسیار مفید است. مهمترین مزیت این سرویس نسبت به missinglink این است که حداقل تغییر در کد برای استفاده لازم است. اینجا می توانید یک توتریال سریع از آن را یاد بگیرید. یادگیری و استفاده و کانفیگ کردن آن در حد چند دیقه وقت میگیرد اما مزیت خوبی که دارد این است که تمام اطلاعات شما از نمودار ها و اطلاعات خروجی در ترمینال تا معماری و حتی میزان مصرف سی پی یو و جی پی یو را ذخیره می کند.
کسانی که یادگیری ماشین کار میکنند ارزش مانیتور کردن اطلاعات را می دانند. از طرفی به خاطر اینکه این سرویس در عمل آنلاین است نیازی ندارید که با teamviewer یا ssh به سیستمتان وصل شوید تا ببینید وضعیت چطور است. براحتی میتوانید بر روی گوشیتان هم چک کنید که بر روی سرور های دانشگاه یا سر کار چه می گذرد! اینجا چند اسکرین شات از نمودارهایی که دارم را گرفته ام در حالی که خانه هستم
🔵فراکتال بر روی GPU🔵
چند وقت پیش لایبرری های tensorflow, cupy و numpyو pytorch را با هم مقایسه کرده بودم. آن جا یک مقایسه ساده بر اساس ضرب ماتریسی انجام دادم. دیشب سعی کردم دو فراکتال معروف مندلبرات و جولیا را پیاده سازی کنم (با الهام از یک کد دیگر از گیتهاب). از آنجایی که برای ساختن فراکتال شما نیاز به ایجاد یک ماتریس دارید (تا آن را به صورت فیدبک به فرمول خاصی بدهید اگر میخواهید بیشتر در مورد فراکتال بدانید این پست قدیمی را بخوانید) کتابخانه هایی که از کارت گرافیک استفاده میکنند می توانند بسیار مفید باشند.
متاسفانه با اینکه پایتورچ را از همه بیشتر میپسندم نتوانستم فراکتال را در آن پیاده سازی کنم چون این کتابخانه فعلا از اعداد مختلط پشتیبانی نمیکند. اما برای تنسرفلو نامپای و کوپای کدها را زدم. از tensorflow2 استفاده کردم. هر چند بعید میدانم بهینه ترین کد را برای تنسرفلو زده باشم اما بهبود نسبت به numpy وجود داشت هر چند برنده سرعت cupyبود. برای بنچمارک سرعت سعی کردم جولیا ست( یک فراکتال دیگر) را برای فاز های مختلف از صفر تا 2pi انیمیشن کنم. نتیجه سرعت ها به صورت زیر بود(بر اساس ثانیه):
tensorflow: 145.21
numpy: 165.63
cupy: 100.06
و صد البته نتیجه زیبای آن که در زیر میبنید
سورس کد
چند وقت پیش لایبرری های tensorflow, cupy و numpyو pytorch را با هم مقایسه کرده بودم. آن جا یک مقایسه ساده بر اساس ضرب ماتریسی انجام دادم. دیشب سعی کردم دو فراکتال معروف مندلبرات و جولیا را پیاده سازی کنم (با الهام از یک کد دیگر از گیتهاب). از آنجایی که برای ساختن فراکتال شما نیاز به ایجاد یک ماتریس دارید (تا آن را به صورت فیدبک به فرمول خاصی بدهید اگر میخواهید بیشتر در مورد فراکتال بدانید این پست قدیمی را بخوانید) کتابخانه هایی که از کارت گرافیک استفاده میکنند می توانند بسیار مفید باشند.
متاسفانه با اینکه پایتورچ را از همه بیشتر میپسندم نتوانستم فراکتال را در آن پیاده سازی کنم چون این کتابخانه فعلا از اعداد مختلط پشتیبانی نمیکند. اما برای تنسرفلو نامپای و کوپای کدها را زدم. از tensorflow2 استفاده کردم. هر چند بعید میدانم بهینه ترین کد را برای تنسرفلو زده باشم اما بهبود نسبت به numpy وجود داشت هر چند برنده سرعت cupyبود. برای بنچمارک سرعت سعی کردم جولیا ست( یک فراکتال دیگر) را برای فاز های مختلف از صفر تا 2pi انیمیشن کنم. نتیجه سرعت ها به صورت زیر بود(بر اساس ثانیه):
tensorflow: 145.21
numpy: 165.63
cupy: 100.06
و صد البته نتیجه زیبای آن که در زیر میبنید
سورس کد
This media is not supported in your browser
VIEW IN TELEGRAM
مجموعه جولیا: یک فراکتال که بر روی کارت گرافیک پویاسازی شده است
کد
کد