Academy and Foundation unixmens | Your skills, Your future
2.29K subscribers
6.66K photos
1.37K videos
1.24K files
6.06K links
@unixmens_support
@yashar_esm
[email protected]
یک کانال علمی تکنولوژی
فلسفه متن باز-گنو/لینوکس-امنیت - اقتصاد
دیجیتال
Technology-driven -بیزینس های مبتنی بر تکنولوژی
Enterprise open source
ارایه دهنده راهکارهای ارتقای سازمانی - فردی - تیمی
Download Telegram
▪️ هوش مصنوعی در صنایع!

درشکل فوق کاربرد‌ها و چالش‌های هوش مصنوعی در صنایعی همچون: حوزه سلامت، صنعت خودرو سازی، سیستم‌های مالی، سیستم‌های حمل و نقل، تکنولوژی و ارتباطات، خرده فروشی و ساخت و تولید بخوبی نمایش داده شده است. حتما جهت دید گرفتن مطالعه کنید. منبع: pwc
💠كمك هزينه تحصيلي در دانشگاه Birmingham در مقطع كارشناسي در رشته هاي زير:

Civil Engineering, Electronic, Electrical and Systems Engineering, Engineering, Mechanical Engineering

💠كسب اطلاعات بيشتر و اپلاي:
https://www.birmingham.ac.uk/undergraduate/funding/International-Achievement-Award.aspx

#مهاجرت

#jobs #oversea @unixmens
Forwarded from yashar esmaildokht 🐧
coreos+docker
Forwarded from yashar esmaildokht 🐧
7 Reasons Docker & CoreOS Are Great

Finally, here are the top reasons to try out CoreOS:

Reason #1 to go with CoreOS is etcd which was mentioned above. As the CoreOS website says: "Configuration values are distributed within the cluster for your applications to read. Values can be changed programatically and smart applications can reconfigure automatically. You'll never have to run Chef on every machine in order to change a single config value ever again."

If you care about high availability at all, deploying using CoreOS is one of the best ways to achieve that with a relatively low price point.

It lets you serve different versions of software on different machines and update machines without any downtime

Though Docker helps you provide similar environments in production and development, CoreOS goes one step further by replicating cluster and network settings between dev and prod as well. As discussed before it also makes sure that the infrastructure always has the right configuration and everything has the right versioning.

New developers can get up and running quickly rather than waste time installing all the required software and versions on their machine and making sure that nothing conflicts.

It can drastically reduce cost by replicating software services like Heroku. Even though you need multiple machines to truly take advantage of CoreOS, CoreOS is now supported by every major cloud storage provider, including AWS and Digital Ocean, the latter of which provides machines for only $5/month.

It has a very active open source community with (at the time of this writing) 6764 stars, 172 contributors, and over 40 pull requests merged in within the last two weeks for etcd. This may potentially be a problem, as one of the central tenets of the security that CoreOS offers out of the box is automatic updates on all your machines. Though you cannot turn this feature off, you can select an update strategy to control when and how your machines will update.
Forwarded from yashar esmaildokht 🐧
Podman

Podman is an open-source Linux Daemon less container engine for working with Containers as well as Pods (groups of containers deployed together on the same host) on your Linux System. Podman doesn’t require a daemon to run containers and pods. Instead of the daemon, Podman launches containers and pods as child processes. Podman interacts with libpod, a library that allows other tools to manage pods and containers.
پرسش و پاسخ آزاد سیسکو
Forwarded from Farzad Forouzanfard
سلام دوستان، آیا کسی تجربه هاست کردن جنگو با داکر را داره؟ و اصولا تفاوت هاست با ماشین مجازی و هاست با داکر چیست؟ ممنون از توضیحات شما🙏
Forwarded from yashar esmaildokht 🐧
چند نکته را در نظر بگیرید .
بحث کانتینرها خوب هست ولی معایبی هم داره .
برای نمونه :
اگر مشکل امنیتی در کرنل داشته باشید . و بخواید برای پچ کردن ورژن کرنل لینوکس را آپگرید کنید . در کانتینرتون با مشکل ایجاد میشین .
(در کل در حوزه موارد های امنیتی )
بحث های مربوط به پرفرنس تیونینگ براتون هزینه بالایی خواهد داشت .
بحث مربوط به استفاده از فایل سیستم خاص اگر براتون مهم باشه .
در کل کانینرها برای توسعه دهندگان و پاسخ به تعغییرات سریع آنها ایجاد شده . اگر تعغیرات و تکنولوژی ها تون ترکیبی و زیاد نیست . از استفاده از اون بازنگری کنید .
قبل از استفاده از یک تکنولوژی نیازسنجی کنید و معایب و مزایای اون را بسنجید . بعد انتخاب کنید ، تا در آینده براتون هزینه ایجاد نکنه
Forwarded from علی
سلام به همه دوستان عزیز
هاشمیان هستم
مشکلی داریم که فقط یک DevOps حرفه‌ای می‌تواند آن را مرتفع کند.
لطفا اگه شما یا کسی را در این زمینه می‌شناسید به ما معرفی کنید تا از خدماتشون استفاده کنیم.

شرح موضوع:

ما قصد داریم یک سرور Master و دو Slave داشته باشیم

برای اینکه تعداد node ها زیاد بشوند... نیاز به یک کنترلر داریم بنام sql_proxy
این sql proxy خودش نیاز به یه رپلیکا داره تا اگر خودش داون شد تمام سیستم قطع نشه

اگر ما خوده sql proxy رو رپلیکا کنیم نیاز به HA Proxy هست

خود HA Proxy برای اینکه داون نشه باز این هم نیاز به رپلیکا سرور داره

در نگاه اول کسی که باهاش صحبت می‌کنیم خواهد گفت که همون HA Proxy کافیه و نیازی به SQL Proxy نیست

اما در عمل ما برای اینکه Read & Write رو جدا کنیم بهش نیاز داریم

ضمن اینکه با این ابزار میشه کوئری های پرتکرار رو کش کرد
مثلا Select های پرکاربرد رو بین نودهای با لود کم توزیع کرد و خیلی امکانات دیگه بهمون میده که نمیشه از HA اونها رو خواست

چون فعلا برنامه نویس ما زمان برای وارد کردن redis به مجموعه نداره مجبوریم از proxy sql برای کش کردن کوئری های سنگین داریم.

ضمنا سرور ما لینوکسیه
دیتابیس ما هم MySQL
حجمش هم حدود ۱ گیگه

ممنون از توجهتون
Forwarded from yashar esmaildokht 🐧
سلام
چند پیشنهاد دارم خدمتتان .
قبل از موارد مربوط به لود بالانسینگ (بعدا در موردش خدمتتان عرض میکنم )
روی طراحی و معماری پایگاه داده وقت بزارید . در واقع بحث performance tuning
برای نمونه : بحث پارتیشنینگ را حتما انجام بدید .
بررسی کنید ساحتار پایگاه داده را و در چند بخش پیاده سازی کنید . از federate engine استفاده کنید .
در گام اول سرعت و زمان تفاوت قابل تاملی خواهد داشت .
بحث بعدی استفاده از memcahe هست . که میتونید از engine memcache استفاده کنید . (همون تکنولوژی شبه redis ) . میتونید نسبت به ساختارتون از ramdisk هم استفاده کنید .


بحث بعدی . لود بالانسینگ .
اول از همه نگاه کنید نیاز بیزینس شما لود بالانسینگ در لایه ۴ هست یا لایه ۷ یا ترکیبی .
(چون من بیزینس و ساختار دیتابیس و معماری شما را نمیدونم دقیق نمیتونم دیتا بدم خدمتتون )
میتونید از keepalived با haproxy را ه اندازی کنید . با VRRP (virtual distribution replicate routing protocol)


در واقع keepalived پروزه بسیار خوبی هست . فورکی از lvs هست .

البته میتونید از corosync یا Heartbeat استفاده کنید . که خود دیتابیس oracle در golden gate از Heartbeat استفاده میکنه .

تصمیم بستگی به تیم و ساختار و دانش و ... داره





https://keepalived.org/

https://www.linux-ha.org/wiki/Main_Page

https://corosync.github.io/corosync/





اما بحث ریپلیکیشن .
شما میتونید در چند سطح ریپلیکیشن پیاده سازی کنید .
بحث خود پایگاه داده - master-master - master-slave , ....

بحث replication روی storage - برای نمونه : clvm - drbd - ceph -glusterfs , zfs , ....

بحث ریپلیکیشن روی ماشین مجازی و ...
Forwarded from علی
خیلی ممنون از شما
برخی از پیشنهادات‌تون رو همین الآن هم داریم استفاده میکنیم
البته memcach ایده خوبی بود
باز هم ممنون
Forwarded from علی
واقعیتش...
ما داریم از ha+sql proxy استفاده میکنیم

توش keepalived هم بکار رفته

سرویس multi master هست و از galera برای سینک استفاده میشه

تکنولوژی vrrp که گفتین رو لبه شبکه داریم برای HA استفاده میکنم

تقریبا همین هست که ما پیاده کردیم

فقط memcache نکته برداری خوبی بود برای تیون😘👌
پاسخ سوالات را فروارد کردم چرا که ممکن سوال سایر عزیزان هم باشه
بخشهای اصلی اکوسیستم داکر

مجموعه ابزارها و سرویسهای داکر را میتوان در سه بخش اصلی دسته بندی کرد:

ساخت: تولید یک تصویر (image) داکر که یک برنامه کاربردی به همراه تمام وابستگی های آن را در خود دارد. هر تصویر معمولا با ساز و کار docker build از روی یک Dockerfile و با اضافه کردن یک یا چند برنامه کاربردی به یک تصویر پایه ساخته میشود.

اجرا: کانتینرها (container) که در واقع تصاویر در حال اجرا هستند را میتوان به سادگی و با سرعت زیاد در تعداد بالا ایجاد و سپس متوقف و یا کاملا حذف کرد. مزیت اصلی داکر در این بخش جداسازی کامل این کانتینرها از یکدیگر در زمان اجراست، به طوری که هر یک از آنها گمان میکنند روی یک سیستم عامل کاملا جداگانه اجرا شده اند.

انتشار: تصاویر تولید شده در داکر از طریق سرویسی به نام registry و با کمک دستورات docker push و docker pull به آسانی قابل انتشار و به اشتراک گذاری هستند. همچنین سرویس آنلاین Docker Hub یک نمونه از این registry است که برای مصارف عمومی به صورت رایگان در اختیار کاربران قرار داده شده است.
لازم به یادآوری است که اگر در استفاده از این سرویس با مشکلاتی برای دانلود تصاویر مواجه شدید، میتوانید با تنظیم یک mirror دیگر دوباره امتحان کنید.

برای اینکه بتوانید با این سه جنبه از داکر کار کنید نیاز دارید برنامه موتور داکر به نام docker daemon را روی سیستم خودتان یا در یک ماشین مجازی اجرا کنید. این برنامه در واقع تمام عملیاتهای درخواست شده از داکر برای ساخت، اجرا و انتشار کانتینرها را انجام میدهد. علاوه بر این، شما به یک برنامه دیگر به نام docker client نیاز دارید که دستورات را از خط فرمان میگیرد و به موتور داکر منتقل میکند. در سیستم عامل لینوکس هر دو این برنامه ها در قالب یک فایل اجرایی به نام docker به شما ارایه میشود. اما در سیستم عاملهای دیگر مانند ویندوز و Mac OS X تنها بخش client در فایل اجرایی docker وجود دارد و شما نیاز دارید سرویس docker daemon‍ را در یک سیستم عامل جداگانه، که در حال حاضر باید حتما لینوکس باشد، اجرا کنید. ابزار ماشین داکر (docker machine) که پایین تر درباره آن توضیح داده شده است در این مورد به شما کمک میکند.

به طور کلی هر زمان که با دستور docker run‍ کانتینری را اجرا میکنید، موتور داکر ابتدا تصویر مورد نظر را از یک registry، مانند ‌Docker Hub، دانلود میکند و سپس یک کانتینر جدید از آن تصویر ایجاد میکند. البته اگر دوباره اقدام به ساخت یک کانتینر از روی همان تصویر کنید دیگر نیازی به دانلود کردن آن نیست و بنابراین دفعات بعدی این کار با سرعت بالاتری انجام میشود.



#docker @unixmens