💠كمك هزينه تحصيلي در دانشگاه Birmingham در مقطع كارشناسي در رشته هاي زير:
Civil Engineering, Electronic, Electrical and Systems Engineering, Engineering, Mechanical Engineering
💠كسب اطلاعات بيشتر و اپلاي:
https://www.birmingham.ac.uk/undergraduate/funding/International-Achievement-Award.aspx
#مهاجرت
#jobs #oversea @unixmens
Civil Engineering, Electronic, Electrical and Systems Engineering, Engineering, Mechanical Engineering
💠كسب اطلاعات بيشتر و اپلاي:
https://www.birmingham.ac.uk/undergraduate/funding/International-Achievement-Award.aspx
#مهاجرت
#jobs #oversea @unixmens
University of Birmingham
International Achievement Award
The School of Engineering offers scholarships to international students applying for undergraduate programmes whose fees are not wholly paid by a sponsoring body. These are worth £1500.
Forwarded from yashar esmaildokht 🐧
7 Reasons Docker & CoreOS Are Great
Finally, here are the top reasons to try out CoreOS:
Reason #1 to go with CoreOS is etcd which was mentioned above. As the CoreOS website says: "Configuration values are distributed within the cluster for your applications to read. Values can be changed programatically and smart applications can reconfigure automatically. You'll never have to run Chef on every machine in order to change a single config value ever again."
If you care about high availability at all, deploying using CoreOS is one of the best ways to achieve that with a relatively low price point.
It lets you serve different versions of software on different machines and update machines without any downtime
Though Docker helps you provide similar environments in production and development, CoreOS goes one step further by replicating cluster and network settings between dev and prod as well. As discussed before it also makes sure that the infrastructure always has the right configuration and everything has the right versioning.
New developers can get up and running quickly rather than waste time installing all the required software and versions on their machine and making sure that nothing conflicts.
It can drastically reduce cost by replicating software services like Heroku. Even though you need multiple machines to truly take advantage of CoreOS, CoreOS is now supported by every major cloud storage provider, including AWS and Digital Ocean, the latter of which provides machines for only $5/month.
It has a very active open source community with (at the time of this writing) 6764 stars, 172 contributors, and over 40 pull requests merged in within the last two weeks for etcd. This may potentially be a problem, as one of the central tenets of the security that CoreOS offers out of the box is automatic updates on all your machines. Though you cannot turn this feature off, you can select an update strategy to control when and how your machines will update.
Finally, here are the top reasons to try out CoreOS:
Reason #1 to go with CoreOS is etcd which was mentioned above. As the CoreOS website says: "Configuration values are distributed within the cluster for your applications to read. Values can be changed programatically and smart applications can reconfigure automatically. You'll never have to run Chef on every machine in order to change a single config value ever again."
If you care about high availability at all, deploying using CoreOS is one of the best ways to achieve that with a relatively low price point.
It lets you serve different versions of software on different machines and update machines without any downtime
Though Docker helps you provide similar environments in production and development, CoreOS goes one step further by replicating cluster and network settings between dev and prod as well. As discussed before it also makes sure that the infrastructure always has the right configuration and everything has the right versioning.
New developers can get up and running quickly rather than waste time installing all the required software and versions on their machine and making sure that nothing conflicts.
It can drastically reduce cost by replicating software services like Heroku. Even though you need multiple machines to truly take advantage of CoreOS, CoreOS is now supported by every major cloud storage provider, including AWS and Digital Ocean, the latter of which provides machines for only $5/month.
It has a very active open source community with (at the time of this writing) 6764 stars, 172 contributors, and over 40 pull requests merged in within the last two weeks for etcd. This may potentially be a problem, as one of the central tenets of the security that CoreOS offers out of the box is automatic updates on all your machines. Though you cannot turn this feature off, you can select an update strategy to control when and how your machines will update.
Forwarded from yashar esmaildokht 🐧
Podman
Podman is an open-source Linux Daemon less container engine for working with Containers as well as Pods (groups of containers deployed together on the same host) on your Linux System. Podman doesn’t require a daemon to run containers and pods. Instead of the daemon, Podman launches containers and pods as child processes. Podman interacts with libpod, a library that allows other tools to manage pods and containers.
Podman is an open-source Linux Daemon less container engine for working with Containers as well as Pods (groups of containers deployed together on the same host) on your Linux System. Podman doesn’t require a daemon to run containers and pods. Instead of the daemon, Podman launches containers and pods as child processes. Podman interacts with libpod, a library that allows other tools to manage pods and containers.
Forwarded from Farzad Forouzanfard
سلام دوستان، آیا کسی تجربه هاست کردن جنگو با داکر را داره؟ و اصولا تفاوت هاست با ماشین مجازی و هاست با داکر چیست؟ ممنون از توضیحات شما🙏
Forwarded from yashar esmaildokht 🐧
چند نکته را در نظر بگیرید .
بحث کانتینرها خوب هست ولی معایبی هم داره .
برای نمونه :
اگر مشکل امنیتی در کرنل داشته باشید . و بخواید برای پچ کردن ورژن کرنل لینوکس را آپگرید کنید . در کانتینرتون با مشکل ایجاد میشین .
(در کل در حوزه موارد های امنیتی )
بحث های مربوط به پرفرنس تیونینگ براتون هزینه بالایی خواهد داشت .
بحث مربوط به استفاده از فایل سیستم خاص اگر براتون مهم باشه .
در کل کانینرها برای توسعه دهندگان و پاسخ به تعغییرات سریع آنها ایجاد شده . اگر تعغیرات و تکنولوژی ها تون ترکیبی و زیاد نیست . از استفاده از اون بازنگری کنید .
قبل از استفاده از یک تکنولوژی نیازسنجی کنید و معایب و مزایای اون را بسنجید . بعد انتخاب کنید ، تا در آینده براتون هزینه ایجاد نکنه
بحث کانتینرها خوب هست ولی معایبی هم داره .
برای نمونه :
اگر مشکل امنیتی در کرنل داشته باشید . و بخواید برای پچ کردن ورژن کرنل لینوکس را آپگرید کنید . در کانتینرتون با مشکل ایجاد میشین .
(در کل در حوزه موارد های امنیتی )
بحث های مربوط به پرفرنس تیونینگ براتون هزینه بالایی خواهد داشت .
بحث مربوط به استفاده از فایل سیستم خاص اگر براتون مهم باشه .
در کل کانینرها برای توسعه دهندگان و پاسخ به تعغییرات سریع آنها ایجاد شده . اگر تعغیرات و تکنولوژی ها تون ترکیبی و زیاد نیست . از استفاده از اون بازنگری کنید .
قبل از استفاده از یک تکنولوژی نیازسنجی کنید و معایب و مزایای اون را بسنجید . بعد انتخاب کنید ، تا در آینده براتون هزینه ایجاد نکنه
Forwarded from علی
سلام به همه دوستان عزیز
هاشمیان هستم
مشکلی داریم که فقط یک DevOps حرفهای میتواند آن را مرتفع کند.
لطفا اگه شما یا کسی را در این زمینه میشناسید به ما معرفی کنید تا از خدماتشون استفاده کنیم.
شرح موضوع:
ما قصد داریم یک سرور Master و دو Slave داشته باشیم
برای اینکه تعداد node ها زیاد بشوند... نیاز به یک کنترلر داریم بنام sql_proxy
این sql proxy خودش نیاز به یه رپلیکا داره تا اگر خودش داون شد تمام سیستم قطع نشه
اگر ما خوده sql proxy رو رپلیکا کنیم نیاز به HA Proxy هست
خود HA Proxy برای اینکه داون نشه باز این هم نیاز به رپلیکا سرور داره
در نگاه اول کسی که باهاش صحبت میکنیم خواهد گفت که همون HA Proxy کافیه و نیازی به SQL Proxy نیست
اما در عمل ما برای اینکه Read & Write رو جدا کنیم بهش نیاز داریم
ضمن اینکه با این ابزار میشه کوئری های پرتکرار رو کش کرد
مثلا Select های پرکاربرد رو بین نودهای با لود کم توزیع کرد و خیلی امکانات دیگه بهمون میده که نمیشه از HA اونها رو خواست
چون فعلا برنامه نویس ما زمان برای وارد کردن redis به مجموعه نداره مجبوریم از proxy sql برای کش کردن کوئری های سنگین داریم.
ضمنا سرور ما لینوکسیه
دیتابیس ما هم MySQL
حجمش هم حدود ۱ گیگه
ممنون از توجهتون
هاشمیان هستم
مشکلی داریم که فقط یک DevOps حرفهای میتواند آن را مرتفع کند.
لطفا اگه شما یا کسی را در این زمینه میشناسید به ما معرفی کنید تا از خدماتشون استفاده کنیم.
شرح موضوع:
ما قصد داریم یک سرور Master و دو Slave داشته باشیم
برای اینکه تعداد node ها زیاد بشوند... نیاز به یک کنترلر داریم بنام sql_proxy
این sql proxy خودش نیاز به یه رپلیکا داره تا اگر خودش داون شد تمام سیستم قطع نشه
اگر ما خوده sql proxy رو رپلیکا کنیم نیاز به HA Proxy هست
خود HA Proxy برای اینکه داون نشه باز این هم نیاز به رپلیکا سرور داره
در نگاه اول کسی که باهاش صحبت میکنیم خواهد گفت که همون HA Proxy کافیه و نیازی به SQL Proxy نیست
اما در عمل ما برای اینکه Read & Write رو جدا کنیم بهش نیاز داریم
ضمن اینکه با این ابزار میشه کوئری های پرتکرار رو کش کرد
مثلا Select های پرکاربرد رو بین نودهای با لود کم توزیع کرد و خیلی امکانات دیگه بهمون میده که نمیشه از HA اونها رو خواست
چون فعلا برنامه نویس ما زمان برای وارد کردن redis به مجموعه نداره مجبوریم از proxy sql برای کش کردن کوئری های سنگین داریم.
ضمنا سرور ما لینوکسیه
دیتابیس ما هم MySQL
حجمش هم حدود ۱ گیگه
ممنون از توجهتون
Forwarded from yashar esmaildokht 🐧
سلام
چند پیشنهاد دارم خدمتتان .
قبل از موارد مربوط به لود بالانسینگ (بعدا در موردش خدمتتان عرض میکنم )
روی طراحی و معماری پایگاه داده وقت بزارید . در واقع بحث performance tuning
برای نمونه : بحث پارتیشنینگ را حتما انجام بدید .
بررسی کنید ساحتار پایگاه داده را و در چند بخش پیاده سازی کنید . از federate engine استفاده کنید .
در گام اول سرعت و زمان تفاوت قابل تاملی خواهد داشت .
بحث بعدی استفاده از memcahe هست . که میتونید از engine memcache استفاده کنید . (همون تکنولوژی شبه redis ) . میتونید نسبت به ساختارتون از ramdisk هم استفاده کنید .
بحث بعدی . لود بالانسینگ .
اول از همه نگاه کنید نیاز بیزینس شما لود بالانسینگ در لایه ۴ هست یا لایه ۷ یا ترکیبی .
(چون من بیزینس و ساختار دیتابیس و معماری شما را نمیدونم دقیق نمیتونم دیتا بدم خدمتتون )
میتونید از keepalived با haproxy را ه اندازی کنید . با VRRP (virtual distribution replicate routing protocol)
در واقع keepalived پروزه بسیار خوبی هست . فورکی از lvs هست .
البته میتونید از corosync یا Heartbeat استفاده کنید . که خود دیتابیس oracle در golden gate از Heartbeat استفاده میکنه .
تصمیم بستگی به تیم و ساختار و دانش و ... داره
https://keepalived.org/
https://www.linux-ha.org/wiki/Main_Page
https://corosync.github.io/corosync/
اما بحث ریپلیکیشن .
شما میتونید در چند سطح ریپلیکیشن پیاده سازی کنید .
بحث خود پایگاه داده - master-master - master-slave , ....
بحث replication روی storage - برای نمونه : clvm - drbd - ceph -glusterfs , zfs , ....
بحث ریپلیکیشن روی ماشین مجازی و ...
چند پیشنهاد دارم خدمتتان .
قبل از موارد مربوط به لود بالانسینگ (بعدا در موردش خدمتتان عرض میکنم )
روی طراحی و معماری پایگاه داده وقت بزارید . در واقع بحث performance tuning
برای نمونه : بحث پارتیشنینگ را حتما انجام بدید .
بررسی کنید ساحتار پایگاه داده را و در چند بخش پیاده سازی کنید . از federate engine استفاده کنید .
در گام اول سرعت و زمان تفاوت قابل تاملی خواهد داشت .
بحث بعدی استفاده از memcahe هست . که میتونید از engine memcache استفاده کنید . (همون تکنولوژی شبه redis ) . میتونید نسبت به ساختارتون از ramdisk هم استفاده کنید .
بحث بعدی . لود بالانسینگ .
اول از همه نگاه کنید نیاز بیزینس شما لود بالانسینگ در لایه ۴ هست یا لایه ۷ یا ترکیبی .
(چون من بیزینس و ساختار دیتابیس و معماری شما را نمیدونم دقیق نمیتونم دیتا بدم خدمتتون )
میتونید از keepalived با haproxy را ه اندازی کنید . با VRRP (virtual distribution replicate routing protocol)
در واقع keepalived پروزه بسیار خوبی هست . فورکی از lvs هست .
البته میتونید از corosync یا Heartbeat استفاده کنید . که خود دیتابیس oracle در golden gate از Heartbeat استفاده میکنه .
تصمیم بستگی به تیم و ساختار و دانش و ... داره
https://keepalived.org/
https://www.linux-ha.org/wiki/Main_Page
https://corosync.github.io/corosync/
اما بحث ریپلیکیشن .
شما میتونید در چند سطح ریپلیکیشن پیاده سازی کنید .
بحث خود پایگاه داده - master-master - master-slave , ....
بحث replication روی storage - برای نمونه : clvm - drbd - ceph -glusterfs , zfs , ....
بحث ریپلیکیشن روی ماشین مجازی و ...
Forwarded from علی
خیلی ممنون از شما
برخی از پیشنهاداتتون رو همین الآن هم داریم استفاده میکنیم
البته memcach ایده خوبی بود
باز هم ممنون
برخی از پیشنهاداتتون رو همین الآن هم داریم استفاده میکنیم
البته memcach ایده خوبی بود
باز هم ممنون
Forwarded from علی
واقعیتش...
ما داریم از ha+sql proxy استفاده میکنیم
توش keepalived هم بکار رفته
سرویس multi master هست و از galera برای سینک استفاده میشه
تکنولوژی vrrp که گفتین رو لبه شبکه داریم برای HA استفاده میکنم
تقریبا همین هست که ما پیاده کردیم
فقط memcache نکته برداری خوبی بود برای تیون😘👌
ما داریم از ha+sql proxy استفاده میکنیم
توش keepalived هم بکار رفته
سرویس multi master هست و از galera برای سینک استفاده میشه
تکنولوژی vrrp که گفتین رو لبه شبکه داریم برای HA استفاده میکنم
تقریبا همین هست که ما پیاده کردیم
فقط memcache نکته برداری خوبی بود برای تیون😘👌
پاسخ سوالات را فروارد کردم چرا که ممکن سوال سایر عزیزان هم باشه
بخشهای اصلی اکوسیستم داکر
مجموعه ابزارها و سرویسهای داکر را میتوان در سه بخش اصلی دسته بندی کرد:
ساخت: تولید یک تصویر (image) داکر که یک برنامه کاربردی به همراه تمام وابستگی های آن را در خود دارد. هر تصویر معمولا با ساز و کار docker build از روی یک Dockerfile و با اضافه کردن یک یا چند برنامه کاربردی به یک تصویر پایه ساخته میشود.
اجرا: کانتینرها (container) که در واقع تصاویر در حال اجرا هستند را میتوان به سادگی و با سرعت زیاد در تعداد بالا ایجاد و سپس متوقف و یا کاملا حذف کرد. مزیت اصلی داکر در این بخش جداسازی کامل این کانتینرها از یکدیگر در زمان اجراست، به طوری که هر یک از آنها گمان میکنند روی یک سیستم عامل کاملا جداگانه اجرا شده اند.
انتشار: تصاویر تولید شده در داکر از طریق سرویسی به نام registry و با کمک دستورات docker push و docker pull به آسانی قابل انتشار و به اشتراک گذاری هستند. همچنین سرویس آنلاین Docker Hub یک نمونه از این registry است که برای مصارف عمومی به صورت رایگان در اختیار کاربران قرار داده شده است.
لازم به یادآوری است که اگر در استفاده از این سرویس با مشکلاتی برای دانلود تصاویر مواجه شدید، میتوانید با تنظیم یک mirror دیگر دوباره امتحان کنید.
برای اینکه بتوانید با این سه جنبه از داکر کار کنید نیاز دارید برنامه موتور داکر به نام docker daemon را روی سیستم خودتان یا در یک ماشین مجازی اجرا کنید. این برنامه در واقع تمام عملیاتهای درخواست شده از داکر برای ساخت، اجرا و انتشار کانتینرها را انجام میدهد. علاوه بر این، شما به یک برنامه دیگر به نام docker client نیاز دارید که دستورات را از خط فرمان میگیرد و به موتور داکر منتقل میکند. در سیستم عامل لینوکس هر دو این برنامه ها در قالب یک فایل اجرایی به نام docker به شما ارایه میشود. اما در سیستم عاملهای دیگر مانند ویندوز و Mac OS X تنها بخش client در فایل اجرایی docker وجود دارد و شما نیاز دارید سرویس docker daemon را در یک سیستم عامل جداگانه، که در حال حاضر باید حتما لینوکس باشد، اجرا کنید. ابزار ماشین داکر (docker machine) که پایین تر درباره آن توضیح داده شده است در این مورد به شما کمک میکند.
به طور کلی هر زمان که با دستور docker run کانتینری را اجرا میکنید، موتور داکر ابتدا تصویر مورد نظر را از یک registry، مانند Docker Hub، دانلود میکند و سپس یک کانتینر جدید از آن تصویر ایجاد میکند. البته اگر دوباره اقدام به ساخت یک کانتینر از روی همان تصویر کنید دیگر نیازی به دانلود کردن آن نیست و بنابراین دفعات بعدی این کار با سرعت بالاتری انجام میشود.
#docker @unixmens
مجموعه ابزارها و سرویسهای داکر را میتوان در سه بخش اصلی دسته بندی کرد:
ساخت: تولید یک تصویر (image) داکر که یک برنامه کاربردی به همراه تمام وابستگی های آن را در خود دارد. هر تصویر معمولا با ساز و کار docker build از روی یک Dockerfile و با اضافه کردن یک یا چند برنامه کاربردی به یک تصویر پایه ساخته میشود.
اجرا: کانتینرها (container) که در واقع تصاویر در حال اجرا هستند را میتوان به سادگی و با سرعت زیاد در تعداد بالا ایجاد و سپس متوقف و یا کاملا حذف کرد. مزیت اصلی داکر در این بخش جداسازی کامل این کانتینرها از یکدیگر در زمان اجراست، به طوری که هر یک از آنها گمان میکنند روی یک سیستم عامل کاملا جداگانه اجرا شده اند.
انتشار: تصاویر تولید شده در داکر از طریق سرویسی به نام registry و با کمک دستورات docker push و docker pull به آسانی قابل انتشار و به اشتراک گذاری هستند. همچنین سرویس آنلاین Docker Hub یک نمونه از این registry است که برای مصارف عمومی به صورت رایگان در اختیار کاربران قرار داده شده است.
لازم به یادآوری است که اگر در استفاده از این سرویس با مشکلاتی برای دانلود تصاویر مواجه شدید، میتوانید با تنظیم یک mirror دیگر دوباره امتحان کنید.
برای اینکه بتوانید با این سه جنبه از داکر کار کنید نیاز دارید برنامه موتور داکر به نام docker daemon را روی سیستم خودتان یا در یک ماشین مجازی اجرا کنید. این برنامه در واقع تمام عملیاتهای درخواست شده از داکر برای ساخت، اجرا و انتشار کانتینرها را انجام میدهد. علاوه بر این، شما به یک برنامه دیگر به نام docker client نیاز دارید که دستورات را از خط فرمان میگیرد و به موتور داکر منتقل میکند. در سیستم عامل لینوکس هر دو این برنامه ها در قالب یک فایل اجرایی به نام docker به شما ارایه میشود. اما در سیستم عاملهای دیگر مانند ویندوز و Mac OS X تنها بخش client در فایل اجرایی docker وجود دارد و شما نیاز دارید سرویس docker daemon را در یک سیستم عامل جداگانه، که در حال حاضر باید حتما لینوکس باشد، اجرا کنید. ابزار ماشین داکر (docker machine) که پایین تر درباره آن توضیح داده شده است در این مورد به شما کمک میکند.
به طور کلی هر زمان که با دستور docker run کانتینری را اجرا میکنید، موتور داکر ابتدا تصویر مورد نظر را از یک registry، مانند Docker Hub، دانلود میکند و سپس یک کانتینر جدید از آن تصویر ایجاد میکند. البته اگر دوباره اقدام به ساخت یک کانتینر از روی همان تصویر کنید دیگر نیازی به دانلود کردن آن نیست و بنابراین دفعات بعدی این کار با سرعت بالاتری انجام میشود.
#docker @unixmens
This media is not supported in your browser
VIEW IN TELEGRAM
🔴 امازون وب سرویس در ۲ دقیقه!