Forwarded from Academy and Foundation unixmens | Your skills, Your future
Academy and Foundation unixmens | Your skills, Your future
در واقع DPI مخفف Deep packet inspection میباشد . و به این مفهوم هست که : نوعی از فیلتر بستهها در شبکههای کامپیوتری است که علاوه بر بخش هدر، بخش دیتا (دادهها) ی بستهها را در شبکه برای وجود اطلاعات نامناسب بر اساس معیارهای از پیش تعریف شده بررسی میکند.…
ممکن است فکر کنید که مرور وب با استفاده از حالت ناشناس/خصوصی مرورگرتان ، به این معنی است که ISP شما نمیتواند آنچه را که به صورت آنلاین انجام میدهید ببیند، اما این یک خط فکری خطرناک است. ISP ها در واقع می توانند از روشی به نام بازرسی بسته عمیق (DPI) برای نظارت بر فعالیت شما استفاده کنند.
کمی عمیق تر شویم :
بازرسی بسته عمیق چیست؟
ا Deep Packet Inspection یک روش فیلتر کردن بسته های شبکه است که هم هدر و هم بخش داده یک بسته را تجزیه و تحلیل می کند (بسته کوچکی از داده های مربوط به هر کاری که انجام می دهید، ارسال می کنید و دریافت می کنید). در مورد یک ISP، DPI به این معنی است که کل اتصال و ترافیک آنلاین کاربر را تجزیه و تحلیل میکند، نه فقط برخی از اطلاعات اتصال مانند شماره پورت، آدرسهای IP دسترسییافته و پروتکلها.
ا ISPها معمولاً از DPI برای تخصیص منابع موجود برای سادهسازی جریان ترافیک و بهینهسازی سرورهای خود برای شناسایی هکرها، مبارزه با بدافزارها و جمعآوری دادههای رفتاری در مورد کاربرانشان استفاده میکنند.
بازرسی بسته عمیق چگونه کار می کند؟
ا DPI معمولاً در سطح فایروال انجام میشود، بهویژه در لایه هفتم اتصال بین سیستمهای باز - لایه برنامه. این روش محتویات هر بسته داده ای را که از یک نقطه بازرسی عبور می کند، ارزیابی می کند.
روشی که DPI محتویات بسته های داده را ارزیابی می کند بر اساس قوانینی است که توسط مدیر شبکه ایجاد شده است. DPI ارزیابی را در زمان واقعی انجام می دهد و می تواند بگوید که بسته های داده از کجا (به طور دقیق کدام برنامه یا سرویس) آمده اند. همچنین میتوان فیلترهایی را برای هدایت مجدد ترافیک DPI از سرویسهای آنلاین (مثلاً فیسبوک) ایجاد کرد.
به عنوان مثال، دولت چین از Deep Packet Inspection برای سانسور محتوایی که برای شهروندان چینی و منافع دولتی "مضر" تلقی می شود، استفاده می کند. برای این منظور، ISP های چینی از DPI برای ردیابی کلمات کلیدی خاصی که از طریق شبکه هایشان عبور می کنند، استفاده می کنند و در صورت یافتن چنین اطلاعاتی، اتصالات را محدود می کنند.
مثال دیگر آژانس امنیت ملی ایالات متحده است که از DPI برای نظارت بر ترافیک اینترنت استفاده می کند. همچنین، گفته می شود که دولت ایران از DPI برای جمع آوری اطلاعات افراد و مسدود کردن ارتباطات استفاده می کند.
چگونه ISP ها از بازرسی بسته عمیق استفاده می کنند؟
یکی از راه های اصلی استفاده ISP ها از DPI این است که به دنبال محتوای P2P بگردند – به خصوص در کشورهایی که تورنت دقیقاً قانونی نیست. وقتی محتوای P2P را پیدا میکنند، یا سرعت دانلود کاربر را کاهش میدهند (بهترین سناریو)، یا دادههای کاربر را به مقامات و آژانسهای حق نسخهبرداری تحویل میدهند (که منجر به اعلامیههای DMCA، جریمههای هنگفت یا حتی زندان برای این افراد میشود. کاربر).
علاوه بر این، ISPها می توانند در صورت نیاز به مسدود کردن دسترسی به وب سایت خاصی، به DPI اعتماد کنند. به طور معمول، آنها این کار را برای رعایت قوانین دولتی و بالقوه حق چاپ در مورد محتوا انجام می دهند.
ا ISP ها همچنین می توانند از DPI برای ردیابی اتصالات کاربر استفاده کنند و پروفایل های جامع را بر اساس فعالیت ها و ترجیحات آنلاین خود جمع آوری کنند، که ممکن است آنها را به تبلیغ کنندگان شخص ثالث بفروشند. این چیزی است که از نظر قانونی می تواند در ایالات متحده و در پشت صحنه در کشورهای دیگر رخ دهد.
در نهایت، این امکان نیز وجود دارد که ISP شما از DPI برای کاهش پهنای باند استفاده کند. از آنجایی که DPI بینش زیادی در مورد آنچه آنلاین انجام میدهید و آنچه دانلود میکنید به آنها میدهد، اگر فکر کنند از «دادههای بیش از حد» برای یک فعالیت خاص استفاده میکنید - مانند بازی آنلاین، پخش آنلاین یا دانلود فایلها، احتمالاً میتوانند سرعت شما را کاهش دهند.
#dpi #net #security #linux #network #article
@unixmens
کمی عمیق تر شویم :
بازرسی بسته عمیق چیست؟
ا Deep Packet Inspection یک روش فیلتر کردن بسته های شبکه است که هم هدر و هم بخش داده یک بسته را تجزیه و تحلیل می کند (بسته کوچکی از داده های مربوط به هر کاری که انجام می دهید، ارسال می کنید و دریافت می کنید). در مورد یک ISP، DPI به این معنی است که کل اتصال و ترافیک آنلاین کاربر را تجزیه و تحلیل میکند، نه فقط برخی از اطلاعات اتصال مانند شماره پورت، آدرسهای IP دسترسییافته و پروتکلها.
ا ISPها معمولاً از DPI برای تخصیص منابع موجود برای سادهسازی جریان ترافیک و بهینهسازی سرورهای خود برای شناسایی هکرها، مبارزه با بدافزارها و جمعآوری دادههای رفتاری در مورد کاربرانشان استفاده میکنند.
بازرسی بسته عمیق چگونه کار می کند؟
ا DPI معمولاً در سطح فایروال انجام میشود، بهویژه در لایه هفتم اتصال بین سیستمهای باز - لایه برنامه. این روش محتویات هر بسته داده ای را که از یک نقطه بازرسی عبور می کند، ارزیابی می کند.
روشی که DPI محتویات بسته های داده را ارزیابی می کند بر اساس قوانینی است که توسط مدیر شبکه ایجاد شده است. DPI ارزیابی را در زمان واقعی انجام می دهد و می تواند بگوید که بسته های داده از کجا (به طور دقیق کدام برنامه یا سرویس) آمده اند. همچنین میتوان فیلترهایی را برای هدایت مجدد ترافیک DPI از سرویسهای آنلاین (مثلاً فیسبوک) ایجاد کرد.
به عنوان مثال، دولت چین از Deep Packet Inspection برای سانسور محتوایی که برای شهروندان چینی و منافع دولتی "مضر" تلقی می شود، استفاده می کند. برای این منظور، ISP های چینی از DPI برای ردیابی کلمات کلیدی خاصی که از طریق شبکه هایشان عبور می کنند، استفاده می کنند و در صورت یافتن چنین اطلاعاتی، اتصالات را محدود می کنند.
مثال دیگر آژانس امنیت ملی ایالات متحده است که از DPI برای نظارت بر ترافیک اینترنت استفاده می کند. همچنین، گفته می شود که دولت ایران از DPI برای جمع آوری اطلاعات افراد و مسدود کردن ارتباطات استفاده می کند.
چگونه ISP ها از بازرسی بسته عمیق استفاده می کنند؟
یکی از راه های اصلی استفاده ISP ها از DPI این است که به دنبال محتوای P2P بگردند – به خصوص در کشورهایی که تورنت دقیقاً قانونی نیست. وقتی محتوای P2P را پیدا میکنند، یا سرعت دانلود کاربر را کاهش میدهند (بهترین سناریو)، یا دادههای کاربر را به مقامات و آژانسهای حق نسخهبرداری تحویل میدهند (که منجر به اعلامیههای DMCA، جریمههای هنگفت یا حتی زندان برای این افراد میشود. کاربر).
علاوه بر این، ISPها می توانند در صورت نیاز به مسدود کردن دسترسی به وب سایت خاصی، به DPI اعتماد کنند. به طور معمول، آنها این کار را برای رعایت قوانین دولتی و بالقوه حق چاپ در مورد محتوا انجام می دهند.
ا ISP ها همچنین می توانند از DPI برای ردیابی اتصالات کاربر استفاده کنند و پروفایل های جامع را بر اساس فعالیت ها و ترجیحات آنلاین خود جمع آوری کنند، که ممکن است آنها را به تبلیغ کنندگان شخص ثالث بفروشند. این چیزی است که از نظر قانونی می تواند در ایالات متحده و در پشت صحنه در کشورهای دیگر رخ دهد.
در نهایت، این امکان نیز وجود دارد که ISP شما از DPI برای کاهش پهنای باند استفاده کند. از آنجایی که DPI بینش زیادی در مورد آنچه آنلاین انجام میدهید و آنچه دانلود میکنید به آنها میدهد، اگر فکر کنند از «دادههای بیش از حد» برای یک فعالیت خاص استفاده میکنید - مانند بازی آنلاین، پخش آنلاین یا دانلود فایلها، احتمالاً میتوانند سرعت شما را کاهش دهند.
#dpi #net #security #linux #network #article
@unixmens
❤3
Forwarded from Academy and Foundation unixmens | Your skills, Your future
ا Anycast BGP چیست؟
ا Anycast یک تکنیک مسیریابی شبکه است که در آن یک آدرس IP یکسان به چندین گره یا سرور اختصاص داده میشود و این گرهها میتوانند در مکانهای جغرافیایی مختلف توزیع شده باشند. در پروتکل BGP (Border Gateway Protocol)، این روش برای هدایت ترافیک به نزدیکترین یا بهینهترین نقطه در شبکه استفاده میشود.
اصول کار Anycast در BGP:
اختصاص یکسان آدرس IP: چندین سرور یا نود در نقاط مختلف دنیا یا یک شبکه، همگی یک آدرس IP یکسان را اعلام میکنند.
مسیریابی بر اساس نزدیکترین مسیر: با استفاده از BGP (پروتکل مسیریابی اینترنت)، ترافیک به نزدیکترین سرور (از نظر مسیر BGP) هدایت میشود. این نزدیکترین مسیر معمولاً کمترین هزینه یا تأخیر را دارد.
افزایش دسترسپذیری و تحمل خطا: اگر یکی از سرورها از دسترس خارج شود، پروتکل BGP بهطور خودکار ترافیک را به دیگر سرورهایی که همان آدرس IP را اعلام کردهاند، هدایت میکند.
مزایا و کاربردهای Anycast با BGP:
افزایش کارایی و کاهش تأخیر:
کاربران به نزدیکترین سرور دسترسی پیدا میکنند، که منجر به کاهش زمان تاخیر (Latency) میشود.
افزایش پایداری و تحمل خطا (Fault Tolerance):
اگر یکی از سرورها یا نودها از دسترس خارج شود، BGP بهطور خودکار به مسیرهای دیگر هدایت میشود.
این ویژگی باعث افزایش دسترسپذیری سرویس میشود.
مقیاسپذیری:
با افزایش تعداد سرورها در مکانهای مختلف، مقیاسپذیری سرویس افزایش پیدا میکند، بدون نیاز به تغییر در ساختار آدرسدهی.
استفاده در DNS و CDNها:
سرویسدهندگان DNS (مانند Google DNS یا Cloudflare) و شبکههای CDN (مانند Akamai و Cloudflare) از Anycast برای بهبود پاسخدهی و پایداری استفاده میکنند.
وقتی یک کاربر درخواست DNS میدهد، به نزدیکترین سرور Anycast هدایت میشود.
چالشهای استفاده از Anycast:
ا مسیریابی ناپایدار (Routing Instability):
به دلیل دینامیک بودن مسیریابی BGP، مسیرها ممکن است ناپایدار باشند و ترافیک بین سرورها نوسان کند.
بررسی دقیق در زمان خرابی:
اگر یک سرور از دسترس خارج شود اما BGP آن را دیرتر شناسایی کند، ممکن است ترافیک به مقصد اشتباه هدایت شود.
عدم اطمینان از مسیریابی دقیق:
ا Anycast نمیتواند همیشه بهینهترین مسیر را انتخاب کند، زیرا مسیریابی BGP به پارامترهایی مانند AS Path و Local Preference بستگی دارد که همیشه لزوماً کوتاهترین یا سریعترین مسیر را نشان نمیدهند.
مثال از Anycast در عمل:
Google DNS (8.8.8.8):
آدرس IP عمومی 8.8.8.8 از طریق Anycast در نقاط مختلف جهان اعلام شده است. وقتی کاربری از هر نقطهای به این آدرس درخواست DNS میفرستد، درخواست او به نزدیکترین سرور Google DNS هدایت میشود.
Cloudflare CDN:
ا Cloudflare از Anycast برای رساندن محتوای وب از نزدیکترین سرور به کاربران استفاده میکند. در نتیجه، عملکرد وبسایتهایی که از خدمات CDN استفاده میکنند، بهبود مییابد.
نحوه پیادهسازی Anycast با BGP:
پیکربندی روترها:
ا هر سرور یا نود باید با استفاده از BGP یک مسیر برای آدرس IP مشترک (Anycast IP) اعلام کند.
به عنوان مثال، چندین روتر در ASهای مختلف میتوانند یک Prefix مشابه (مثل 203.0.113.0/24) را از طریق BGP منتشر کنند.
ا اعلام Route از چندین موقعیت جغرافیایی:
ا BGP به صورت Policy-Based Routing یا با Weighting مناسب، ترافیک را به سمت نزدیکترین نقطه هدایت میکند.
خلاصه:
ا Anycast با BGP روشی بسیار مؤثر برای افزایش سرعت، پایداری، و تحمل خطای سرویسهای شبکهای است. این روش در بسیاری از سرویسهای مهم مانند DNS، CDN و پلتفرمهای ابری استفاده میشود. با این حال، چالشهایی مثل ناپایداری مسیریابی و نیاز به مدیریت دقیق در زمان خرابی، استفاده از آن را پیچیده میکند.
#security #network #performance #bgp #anycast #net
https://t.iss.one/unixmens
ا Anycast یک تکنیک مسیریابی شبکه است که در آن یک آدرس IP یکسان به چندین گره یا سرور اختصاص داده میشود و این گرهها میتوانند در مکانهای جغرافیایی مختلف توزیع شده باشند. در پروتکل BGP (Border Gateway Protocol)، این روش برای هدایت ترافیک به نزدیکترین یا بهینهترین نقطه در شبکه استفاده میشود.
اصول کار Anycast در BGP:
اختصاص یکسان آدرس IP: چندین سرور یا نود در نقاط مختلف دنیا یا یک شبکه، همگی یک آدرس IP یکسان را اعلام میکنند.
مسیریابی بر اساس نزدیکترین مسیر: با استفاده از BGP (پروتکل مسیریابی اینترنت)، ترافیک به نزدیکترین سرور (از نظر مسیر BGP) هدایت میشود. این نزدیکترین مسیر معمولاً کمترین هزینه یا تأخیر را دارد.
افزایش دسترسپذیری و تحمل خطا: اگر یکی از سرورها از دسترس خارج شود، پروتکل BGP بهطور خودکار ترافیک را به دیگر سرورهایی که همان آدرس IP را اعلام کردهاند، هدایت میکند.
مزایا و کاربردهای Anycast با BGP:
افزایش کارایی و کاهش تأخیر:
کاربران به نزدیکترین سرور دسترسی پیدا میکنند، که منجر به کاهش زمان تاخیر (Latency) میشود.
افزایش پایداری و تحمل خطا (Fault Tolerance):
اگر یکی از سرورها یا نودها از دسترس خارج شود، BGP بهطور خودکار به مسیرهای دیگر هدایت میشود.
این ویژگی باعث افزایش دسترسپذیری سرویس میشود.
مقیاسپذیری:
با افزایش تعداد سرورها در مکانهای مختلف، مقیاسپذیری سرویس افزایش پیدا میکند، بدون نیاز به تغییر در ساختار آدرسدهی.
استفاده در DNS و CDNها:
سرویسدهندگان DNS (مانند Google DNS یا Cloudflare) و شبکههای CDN (مانند Akamai و Cloudflare) از Anycast برای بهبود پاسخدهی و پایداری استفاده میکنند.
وقتی یک کاربر درخواست DNS میدهد، به نزدیکترین سرور Anycast هدایت میشود.
چالشهای استفاده از Anycast:
ا مسیریابی ناپایدار (Routing Instability):
به دلیل دینامیک بودن مسیریابی BGP، مسیرها ممکن است ناپایدار باشند و ترافیک بین سرورها نوسان کند.
بررسی دقیق در زمان خرابی:
اگر یک سرور از دسترس خارج شود اما BGP آن را دیرتر شناسایی کند، ممکن است ترافیک به مقصد اشتباه هدایت شود.
عدم اطمینان از مسیریابی دقیق:
ا Anycast نمیتواند همیشه بهینهترین مسیر را انتخاب کند، زیرا مسیریابی BGP به پارامترهایی مانند AS Path و Local Preference بستگی دارد که همیشه لزوماً کوتاهترین یا سریعترین مسیر را نشان نمیدهند.
مثال از Anycast در عمل:
Google DNS (8.8.8.8):
آدرس IP عمومی 8.8.8.8 از طریق Anycast در نقاط مختلف جهان اعلام شده است. وقتی کاربری از هر نقطهای به این آدرس درخواست DNS میفرستد، درخواست او به نزدیکترین سرور Google DNS هدایت میشود.
Cloudflare CDN:
ا Cloudflare از Anycast برای رساندن محتوای وب از نزدیکترین سرور به کاربران استفاده میکند. در نتیجه، عملکرد وبسایتهایی که از خدمات CDN استفاده میکنند، بهبود مییابد.
نحوه پیادهسازی Anycast با BGP:
پیکربندی روترها:
ا هر سرور یا نود باید با استفاده از BGP یک مسیر برای آدرس IP مشترک (Anycast IP) اعلام کند.
به عنوان مثال، چندین روتر در ASهای مختلف میتوانند یک Prefix مشابه (مثل 203.0.113.0/24) را از طریق BGP منتشر کنند.
ا اعلام Route از چندین موقعیت جغرافیایی:
ا BGP به صورت Policy-Based Routing یا با Weighting مناسب، ترافیک را به سمت نزدیکترین نقطه هدایت میکند.
خلاصه:
ا Anycast با BGP روشی بسیار مؤثر برای افزایش سرعت، پایداری، و تحمل خطای سرویسهای شبکهای است. این روش در بسیاری از سرویسهای مهم مانند DNS، CDN و پلتفرمهای ابری استفاده میشود. با این حال، چالشهایی مثل ناپایداری مسیریابی و نیاز به مدیریت دقیق در زمان خرابی، استفاده از آن را پیچیده میکند.
#security #network #performance #bgp #anycast #net
https://t.iss.one/unixmens
Telegram
Academy and Foundation unixmens | Your skills, Your future
@unixmens_support
@yashar_esm
[email protected]
یک کانال علمی تکنولوژی
فلسفه متن باز-گنو/لینوکس-امنیت - اقتصاد
دیجیتال
Technology-driven -بیزینس های مبتنی بر تکنولوژی
Enterprise open source
ارایه دهنده راهکارهای ارتقای سازمانی - فردی - تیمی
@yashar_esm
[email protected]
یک کانال علمی تکنولوژی
فلسفه متن باز-گنو/لینوکس-امنیت - اقتصاد
دیجیتال
Technology-driven -بیزینس های مبتنی بر تکنولوژی
Enterprise open source
ارایه دهنده راهکارهای ارتقای سازمانی - فردی - تیمی
I have honed my expertise in digital sovereignty in recent years largely as a result of it being one of the things our EMEA-based partners and customers always ask about. There is no one unifying reason for this increased interest in digital sovereignty, but rather several converging factors are accelerating its urgency.The most obvious is geopolitical instability. Sanctions and trade wars continue to disrupt global business operations. As reported, a coalition of nearly 100 organisations has urged European Commission leaders to establish a dedicated fund for building technological independenc
via Red Hat Blog https://ift.tt/Jw4PClL
via Red Hat Blog https://ift.tt/Jw4PClL
Redhat
Digital Sovereignty is far more than compliance
Organisations cannot afford to take a wait-and-see approach when it comes to establishing their digital future. Sovereignty laws will evolve, but resilience is permanent. Digital sovereignty isn’t just a regulatory obligation, it’s a strategic imperative…
Red Hat OpenShift sandboxed containers 1.10 has been released, bringing enhanced security and isolation capabilities to your Red Hat OpenShift environments. This marks the general availability of confidential containers on Microsoft Azure, and introduces the new Red Hat build of Trustee, which provides attestation services so your confidential workloads can run with integrity in the cloud. OpenShift sandboxed containers delivers a lightweight and powerful way to run workloads in isolation. Confidential containers add an additional layer for hardware-protected environments, leveraging Trusted E
via Red Hat Blog https://ift.tt/GpTXtIx
via Red Hat Blog https://ift.tt/GpTXtIx
Redhat
Confidential containers on Microsoft Azure with Red Hat OpenShift Sandboxed Containers 1.10 and Red Hat Build of Trustee
Red Hat OpenShift sandboxed containers 1.10 has been released, bringing enhanced security and isolation capabilities to your Red Hat OpenShift environments.
OpenShift confidential containers (Coco) is now generally available for Microsoft Azure. You can extend the security capabilities of Red Hat OpenShift by using OpenShift confidential containers, which allows you to deploy and manage confidential workloads with enhanced data protection and integrity. This release marks a significant milestone, providing a robust solution for enterprises seeking to protect sensitive applications and data on Azure. It addresses critical security concerns by isolating workloads within a hardware-protected trusted execution environment, helping ensure that data re
via Red Hat Blog https://ift.tt/JqroknC
via Red Hat Blog https://ift.tt/JqroknC
Redhat
Deploy sensitive workloads with OpenShift confidential containers
You can extend the security capabilities of Red Hat OpenShift by using OpenShift confidential containers
We’re proud to announce that Forrester Research has recognized Red Hat OpenShift as a Leader in The Forrester Wave™: Multicloud Container Platforms, Q3 2025. Red Hat received the highest possible scores across 27 criteria and scored the highest in both the current offering and strategy categories. To us, this recognizes the strong execution and market presence of OpenShift, built on a history of standardizing Kubernetes across cloud, core and edge environments. What is The Forrester Wave™?The Forrester Wave offers guidance to prospective buyers navigating a technology market, drawing up
via Red Hat Blog https://ift.tt/LTo97jv
via Red Hat Blog https://ift.tt/LTo97jv
Redhat
Red Hat named a Leader in The Forrester Wave™: Multicloud Container Platforms, Q3 2025
Red Hat OpenShift recognized as a Leader in The Forrester Wave™: Multicloud Container Platforms, Q3 2025. Highest scores in 27 criteria, top in current offering and strategy. Learn why in the full report: https://www.redhat.com/resources/forrester-wave-multicloud…
❤1
Red Hat OpenShift Virtualization 4.19 significantly improves performance and speed for I/O intensive workloads like databases. Multiple IOThreads for Red Hat OpenShift Virtualization is a new feature allowing virtual machine (VM) disk I/O to be spread among multiple worker threads on the host, which are in turn mapped to disk queues inside the VM. This allows a VM to efficiently use both the vCPU and the host CPU for multi-stream I/O, improving performance.This article serves as a companion to my colleague Jenifer Abrams's feature introduction. To follow up, I provide performance results to as
via Red Hat Blog https://ift.tt/0qn4CiD
via Red Hat Blog https://ift.tt/0qn4CiD
Redhat
Improving performance of multiple I/O threads for OpenShift Virtualization
Red Hat OpenShift Virtualization 4.19 significantly improves performance and speed for I/O intensive workloads like databases.
Red Hat Named a Leader in Multicloud Container Platforms by Independent Research FirmRed Hat has been named a Leader in The Forrester Wave: Multicloud Container Platforms, Q3 2025 report. Red Hat scored the highest among evaluated vendors in both the current offering and strategy categories. Red Hat attributes this recognition to its strong execution in the multicloud container platform market. Learn more Forbes - Platform Engineering Lessons From Public Sector TechnologyPlatform engineering, built around internal developer platforms, offers public sector organizations a structured, reusabl
via Red Hat Blog https://ift.tt/qCMoU1N
via Red Hat Blog https://ift.tt/qCMoU1N
Redhat
Friday Five — August 1, 2025 | Red Hat
The Friday Five is a weekly Red Hat blog post with 5 of the week's top news items and ideas from or about Red Hat and the technology industry.
This article details Red Hat's engineering efforts to support running a single-instance Oracle Database 19c on Red Hat OpenShift Virtualization. It provides a comprehensive reference architecture, validation results covering functionality, performance, scalability, and live migration, along with links to testing artifacts hosted on GitHub.We will demonstrate that OpenShift Virtualization offers robust performance for demanding production workloads, such as Oracle databases, providing a viable virtualization alternative without sacrificing performance. This is especially for technology leaders,
via Red Hat Blog https://ift.tt/8Z4EOVU
via Red Hat Blog https://ift.tt/8Z4EOVU
Redhat
Single-instance Oracle Database on OpenShift Virtualization
Learn how to run a single-instance Oracle Database 19c on Red Hat OpenShift Virtualization. This article provides a comprehensive reference architecture, performance results, and links to testing artifacts on GitHub. Discover the benefits of OpenShift Virtualization…
آیا در مورد آسیب پذیری fire ant شنیده ایم :
در واقع Fire Ant یک کمپین پیشرفتهی جاسوسی سایبری است که از اوایل سال ۲۰۲۵ علیه زیرساختهای مجازیسازی و شبکه فعالیت میکند. این کمپین اولینبار توسط تیم تحقیقاتی Sygnia کشف و تشریح شد؛ در این عملیات، بازیگران تهدید با بهرهجویی از آسیبپذیریهای شناختهشده در VMware ESXi و vCenter و همچنین سوءاستفاده از ابزارهای مدیریت، دسترسی Hypervisor-Level و کاملاً پنهان را به دست میآورند .
دامنهی حمله
محیطهای هدف: VMware ESXi، vCenter Server، و دستگاههای شبکه (از جمله F5 Appliances)
نوع حمله: بهرهبرداری از آسیبپذیریهای Remote Code Execution و Authentication Bypass برای نصب بکدور و حفظ دسترسی پایدار .
جزئیات آسیبپذیریها
1. CVE-2023-34048
نوع نقص: Out-of-bounds write در پیادهسازی DCERPC در vCenter Server
امتیاز CVSS: 9.8 (Critical)
محصولات آسیبپذیر:
vCenter Server نسخه 4.x و 5.x (قبل از KB88287)
vCenter Server 7.0 (قبل از 7.0U3o) و 8.0 (قبل از 8.0U1d)
VMware Cloud Foundation نسخه 4.x و 5.x (قبل از KB88287)
2. CVE-2023-20867
نوع نقص: Authentication Bypass در VMware Tools
امتیاز CVSS: 3.9 (Low)
محصولات آسیبپذیر: VMware Tools نسخههای 10.3.x، 11.x.x، 12.x.x
روش بهرهبرداری
1. دسترسی اولیه
اسکن و شناسایی سرویسهای vCenter قابلدسترس از اینترنت
ارسال درخواستهای مخرب DCERPC برای اجرای کد دلخواه بدون نیاز به احراز هویت (برای CVE-2023-34048)
2. بهرهبرداری از Authentication Bypass
سوءاستفاده از قابلیتهای PowerCLI host-to-guest برای تزریق دستورات مخرب در VMها
دستکاری حافظهی فرایند VMX برای اجرای کد بدون نیاز به اعتبارنامههای داخل ماشین مجازی
قابلیتهای تهدید
اجرای کد از راه دور روی سرورهای vCenter
ایجاد بکدور و حفظ دسترسی حتی پس از بروزرسانی یا ریبوت
استحصال اعتبارنامهها (Credential Harvesting) با استخراج vpxuser و هشهای NTLM از حافظهی VM
فرار از کنترلهای امنیتی و غیرفعالسازی آنتیویروس یا EDR در سطح Guest OS
حرکت جانبی به شبکههای داخلی از طریق VMهای بهکامپرومایز شده
تأثیر و مخاطرات
دسترسی کامل بر لایهی مجازیسازی که عملاً امکان نظارت و دفاع سنتی را دور میزند
افشای اطلاعات حساس سازمانی و امکان نصب ابزارهای جاسوسی دائم
خطر نفوذ گسترده در شبکههای Segment-شده که پیشتر عموماً امن تصور میشدند
راهکارها و توصیهها
1. بروزرسانی فوری
ارتقاء vCenter Server به نسخهی 7.0U3o یا 8.0U2 به بالا
اعمال پچ KB88287 در VMware Cloud Foundation نسخههای 4.x و 5.x
ارتقاء VMware Tools به نسخهی 12.2.5 یا بالاتر
2. تقویت مانیتورینگ سطح Hypervisor
استفاده از راهکارهای SIEM و EDR که قابلیت مشاهده فعالیتهای DCERPC و PowerCLI را داشته باشند
فعالسازی لاگبرداری گسترده و آنالیز Behavior-based Detection برای شناسایی الگوهای غیرعادی
3. تفکیک و محدودسازی
جداسازی سرورهای vCenter و ESXi در شبکههای کنترلشده و غیروابسته به اینترنت
اعمال اصول Least Privilege برای حسابهای سرویس vpxuser و مدیریت دسترسی با MFA
با توجه به پیشرفتهبودن تکنیکهای Fire Ant و تطابق ابزارها با کمپینهای قبلی (مثل UNC3886)، ضروری است سازمانها علاوه بر نصب پچهای رسمی، دید کاملی بر لایهی مجازیسازی داشته باشند و در سریعترین زمان ممکن نسبت به پایش و واکنش به تهدیدات اقدام کنند.
#security #vmware
https://t.iss.one/unixmens
در واقع Fire Ant یک کمپین پیشرفتهی جاسوسی سایبری است که از اوایل سال ۲۰۲۵ علیه زیرساختهای مجازیسازی و شبکه فعالیت میکند. این کمپین اولینبار توسط تیم تحقیقاتی Sygnia کشف و تشریح شد؛ در این عملیات، بازیگران تهدید با بهرهجویی از آسیبپذیریهای شناختهشده در VMware ESXi و vCenter و همچنین سوءاستفاده از ابزارهای مدیریت، دسترسی Hypervisor-Level و کاملاً پنهان را به دست میآورند .
دامنهی حمله
محیطهای هدف: VMware ESXi، vCenter Server، و دستگاههای شبکه (از جمله F5 Appliances)
نوع حمله: بهرهبرداری از آسیبپذیریهای Remote Code Execution و Authentication Bypass برای نصب بکدور و حفظ دسترسی پایدار .
جزئیات آسیبپذیریها
1. CVE-2023-34048
نوع نقص: Out-of-bounds write در پیادهسازی DCERPC در vCenter Server
امتیاز CVSS: 9.8 (Critical)
محصولات آسیبپذیر:
vCenter Server نسخه 4.x و 5.x (قبل از KB88287)
vCenter Server 7.0 (قبل از 7.0U3o) و 8.0 (قبل از 8.0U1d)
VMware Cloud Foundation نسخه 4.x و 5.x (قبل از KB88287)
2. CVE-2023-20867
نوع نقص: Authentication Bypass در VMware Tools
امتیاز CVSS: 3.9 (Low)
محصولات آسیبپذیر: VMware Tools نسخههای 10.3.x، 11.x.x، 12.x.x
روش بهرهبرداری
1. دسترسی اولیه
اسکن و شناسایی سرویسهای vCenter قابلدسترس از اینترنت
ارسال درخواستهای مخرب DCERPC برای اجرای کد دلخواه بدون نیاز به احراز هویت (برای CVE-2023-34048)
2. بهرهبرداری از Authentication Bypass
سوءاستفاده از قابلیتهای PowerCLI host-to-guest برای تزریق دستورات مخرب در VMها
دستکاری حافظهی فرایند VMX برای اجرای کد بدون نیاز به اعتبارنامههای داخل ماشین مجازی
قابلیتهای تهدید
اجرای کد از راه دور روی سرورهای vCenter
ایجاد بکدور و حفظ دسترسی حتی پس از بروزرسانی یا ریبوت
استحصال اعتبارنامهها (Credential Harvesting) با استخراج vpxuser و هشهای NTLM از حافظهی VM
فرار از کنترلهای امنیتی و غیرفعالسازی آنتیویروس یا EDR در سطح Guest OS
حرکت جانبی به شبکههای داخلی از طریق VMهای بهکامپرومایز شده
تأثیر و مخاطرات
دسترسی کامل بر لایهی مجازیسازی که عملاً امکان نظارت و دفاع سنتی را دور میزند
افشای اطلاعات حساس سازمانی و امکان نصب ابزارهای جاسوسی دائم
خطر نفوذ گسترده در شبکههای Segment-شده که پیشتر عموماً امن تصور میشدند
راهکارها و توصیهها
1. بروزرسانی فوری
ارتقاء vCenter Server به نسخهی 7.0U3o یا 8.0U2 به بالا
اعمال پچ KB88287 در VMware Cloud Foundation نسخههای 4.x و 5.x
ارتقاء VMware Tools به نسخهی 12.2.5 یا بالاتر
2. تقویت مانیتورینگ سطح Hypervisor
استفاده از راهکارهای SIEM و EDR که قابلیت مشاهده فعالیتهای DCERPC و PowerCLI را داشته باشند
فعالسازی لاگبرداری گسترده و آنالیز Behavior-based Detection برای شناسایی الگوهای غیرعادی
3. تفکیک و محدودسازی
جداسازی سرورهای vCenter و ESXi در شبکههای کنترلشده و غیروابسته به اینترنت
اعمال اصول Least Privilege برای حسابهای سرویس vpxuser و مدیریت دسترسی با MFA
با توجه به پیشرفتهبودن تکنیکهای Fire Ant و تطابق ابزارها با کمپینهای قبلی (مثل UNC3886)، ضروری است سازمانها علاوه بر نصب پچهای رسمی، دید کاملی بر لایهی مجازیسازی داشته باشند و در سریعترین زمان ممکن نسبت به پایش و واکنش به تهدیدات اقدام کنند.
#security #vmware
https://t.iss.one/unixmens
Telegram
Academy and Foundation unixmens | Your skills, Your future
@unixmens_support
@yashar_esm
[email protected]
یک کانال علمی تکنولوژی
فلسفه متن باز-گنو/لینوکس-امنیت - اقتصاد
دیجیتال
Technology-driven -بیزینس های مبتنی بر تکنولوژی
Enterprise open source
ارایه دهنده راهکارهای ارتقای سازمانی - فردی - تیمی
@yashar_esm
[email protected]
یک کانال علمی تکنولوژی
فلسفه متن باز-گنو/لینوکس-امنیت - اقتصاد
دیجیتال
Technology-driven -بیزینس های مبتنی بر تکنولوژی
Enterprise open source
ارایه دهنده راهکارهای ارتقای سازمانی - فردی - تیمی
دور کاری ، کمک کننده نیست . بهترین شیوه کاری hybridهست .
آدمی به ارتباطات نیاز داره برای رشد و برای قدرتمند شدن به تنهایی . و این به معنای ریموت کار کردن نیست .
چرا که انسان موجودی گفتگو محور و اجتماعی است .
آدمی با ارتباطات ریموت نمیتونه نیازی که بقا سالها روش کار کرده و جهش پیدا کرده را نادیده بگیره
انسان، در بطن خودش، موجودی اجتماعی و رابطهمحور است و رشدش همواره در دل «تعامل» و «گفتوگو» شکل گرفته. نهفقط از نظر روانشناختی، بلکه از دید تکامل زیستی هم، بقا و تعالی انسان در گرو ارتباط با دیگران بوده. مغز ما برای تشخیص حالات چهره، لحن صدا، زبان بدن، و حس حضور دیگران سیمکشی شده؛ چیزهایی که در ارتباط ریموت، ولو با ویدیو، بسیار کمرنگترند.
دورکاری کامل (Remote-Only)، گرچه در ابتدا جذاب به نظر میرسه (آزادی مکانی، مدیریت زمان، تمرکز بیشتر)، اما در درازمدت عوارضی داره:
• تضعیف حس تعلق سازمانی
• فرسایش همدلی و درک متقابل
• کاهش خلاقیت جمعی (چیزی که در مکالمات ناگهانی در کافه، راهرو، جلسه حضوری رخ میده)
• و فقدان انرژی انسانی که از بودن در کنار دیگران منتقل میشه
اما در مقابل، مدل هیبرید (Hybrid) نهتنها تعادل بین آزادی و ساختار رو برقرار میکنه، بلکه:
• به افراد اجازه میده هم رشد فردی در سکوت و تمرکز داشته باشن
• و هم رشد جمعی در همافزایی تیمی
انسان برای قدرتمند شدن به تنهایی نیاز دارد، اما برای رشد، به ارتباط».
ما برای معنا یافتن، به حضور دیگری نیاز داریم.
برای تمرکز و ساختن درونی، به خلوت نیاز داریم.
ترکیب این دو، یعنی مدل هیبرید، راهحل عصر امروز ماست
#work #jobs #organization
https://t.iss.one/unixmens
آدمی به ارتباطات نیاز داره برای رشد و برای قدرتمند شدن به تنهایی . و این به معنای ریموت کار کردن نیست .
چرا که انسان موجودی گفتگو محور و اجتماعی است .
آدمی با ارتباطات ریموت نمیتونه نیازی که بقا سالها روش کار کرده و جهش پیدا کرده را نادیده بگیره
انسان، در بطن خودش، موجودی اجتماعی و رابطهمحور است و رشدش همواره در دل «تعامل» و «گفتوگو» شکل گرفته. نهفقط از نظر روانشناختی، بلکه از دید تکامل زیستی هم، بقا و تعالی انسان در گرو ارتباط با دیگران بوده. مغز ما برای تشخیص حالات چهره، لحن صدا، زبان بدن، و حس حضور دیگران سیمکشی شده؛ چیزهایی که در ارتباط ریموت، ولو با ویدیو، بسیار کمرنگترند.
دورکاری کامل (Remote-Only)، گرچه در ابتدا جذاب به نظر میرسه (آزادی مکانی، مدیریت زمان، تمرکز بیشتر)، اما در درازمدت عوارضی داره:
• تضعیف حس تعلق سازمانی
• فرسایش همدلی و درک متقابل
• کاهش خلاقیت جمعی (چیزی که در مکالمات ناگهانی در کافه، راهرو، جلسه حضوری رخ میده)
• و فقدان انرژی انسانی که از بودن در کنار دیگران منتقل میشه
اما در مقابل، مدل هیبرید (Hybrid) نهتنها تعادل بین آزادی و ساختار رو برقرار میکنه، بلکه:
• به افراد اجازه میده هم رشد فردی در سکوت و تمرکز داشته باشن
• و هم رشد جمعی در همافزایی تیمی
انسان برای قدرتمند شدن به تنهایی نیاز دارد، اما برای رشد، به ارتباط».
ما برای معنا یافتن، به حضور دیگری نیاز داریم.
برای تمرکز و ساختن درونی، به خلوت نیاز داریم.
ترکیب این دو، یعنی مدل هیبرید، راهحل عصر امروز ماست
#work #jobs #organization
https://t.iss.one/unixmens
Telegram
Academy and Foundation unixmens | Your skills, Your future
@unixmens_support
@yashar_esm
[email protected]
یک کانال علمی تکنولوژی
فلسفه متن باز-گنو/لینوکس-امنیت - اقتصاد
دیجیتال
Technology-driven -بیزینس های مبتنی بر تکنولوژی
Enterprise open source
ارایه دهنده راهکارهای ارتقای سازمانی - فردی - تیمی
@yashar_esm
[email protected]
یک کانال علمی تکنولوژی
فلسفه متن باز-گنو/لینوکس-امنیت - اقتصاد
دیجیتال
Technology-driven -بیزینس های مبتنی بر تکنولوژی
Enterprise open source
ارایه دهنده راهکارهای ارتقای سازمانی - فردی - تیمی
شرکت AMD از اولین کارت شبکه مخصوص پروتکل UltraEthernet با پهنای باند 400 گیگابیت بر ثانیه برای دیتاسنترها رونمایی کرده.
این پروتکل سال پیش توسط کنسرسیوم UltraEthernet، متشکل از شرکتهای بزرگی مثل مایکروسافت، AMD، اینتل، سیسکو و متا، معرفی شد که هدف اون ساخت استانداردی برای انتقال سریع اطلاعات بین بخش های مختلف دیتاسنترها بخصوص سرورهای هوش مصنوعی هست و نه تنها مبتنی بر پروتکل Ethernet باشه بلکه بتونه با پروتکل InfiniBand انویدیا که اکثر دیتاسنترهای هوش مصنوعی از اون استفاده میکنن و به انحصاری تبدیل شده، رقابت کنه.
این پروتکل سال پیش توسط کنسرسیوم UltraEthernet، متشکل از شرکتهای بزرگی مثل مایکروسافت، AMD، اینتل، سیسکو و متا، معرفی شد که هدف اون ساخت استانداردی برای انتقال سریع اطلاعات بین بخش های مختلف دیتاسنترها بخصوص سرورهای هوش مصنوعی هست و نه تنها مبتنی بر پروتکل Ethernet باشه بلکه بتونه با پروتکل InfiniBand انویدیا که اکثر دیتاسنترهای هوش مصنوعی از اون استفاده میکنن و به انحصاری تبدیل شده، رقابت کنه.
Artificial intelligence (AI) continues to drive innovation, leading organizations to adopt new strategies for deploying and managing AI solutions. As Q2 comes to an end, we’re reflecting on the invaluable insights shared across the Red Hat community. These are our top AI reads from the past quarter, offering a comprehensive look at how Red Hat is helping organizations manage the complexities of AI, from understanding its true costs and foundational infrastructure to utilizing automation and building intelligent agents. These articles provide practical guidance, strategic perspectives, and ke
via Red Hat Blog https://ift.tt/mZFPKAw
via Red Hat Blog https://ift.tt/mZFPKAw
Redhat
The future is now: 13 top AI reads from Q2
Artificial intelligence (AI) continues to drive innovation, leading organizations to adopt new strategies for deploying and managing AI solutions.
❤2
Confidential computing leverages a trusted execution environment (TEE) to protect memory in use, which helps ensure encryption for data at rest, in transit, and in use. Confidential Containers (CoCo) combine the TEE with Kubernetes deployments. Deploying a TEE at the pod level allows strong isolation of workloads, not just from other workloads on the cluster, but also from cluster administrators.The challenge with Confidential Containers is in getting started. Making the decision to deploy a pod into a confidential container is a single line change to a pod manifest. However, to get started yo
via Red Hat Blog https://ift.tt/pP1U3ag
via Red Hat Blog https://ift.tt/pP1U3ag
Redhat
Zero trust starts here: Validated patterns for confidential container deployment
Confidential computing leverages a trusted execution environment (TEE) to protect memory in use, which helps ensure encryption for data at rest, in transit, and in use.
In our first post, "The Hope Phase," we shared how early wins with a structured content set gave us the confidence to scale. But optimism alone couldn’t carry us through the complexity ahead.As we expanded into messy, dense, unstructured go-to-market content, the cracks showed fast. Retrieval quality slipped. Feedback loops stalled. Our assumptions about the bot’s capabilities, the flexibility of its architecture, and how to tune for relevance began to fall apart.This phase wasn’t a misstep. It was friction showing us what wasn’t working—and what had to change before we could move ah
via Red Hat Blog https://ift.tt/weLm4pW
via Red Hat Blog https://ift.tt/weLm4pW
Redhat
Hope, crash, iterate: One PM’s journey to make enterprise library content searchable, findable, and useful - Part 2
In our first post, "The Hope Phase," we shared how early wins with a structured content set gave us the confidence to scale.
Red Hat OpenShift Service Mesh 3.1 has been released and is included with the Red Hat OpenShift Container Platform and Red Hat OpenShift Platform Plus. Based on the Istio, Envoy, and Kiali projects, this release updates the version of Istio to 1.26 and Kiali to 2.11, and is supported on OpenShift Container Platform 4.16 and above.This is the first minor release following Red Hat OpenShift Service Mesh 3.0, a major update to converge OpenShift Service Mesh with the community Istio project, with installation and management using the Sail operator. This change helps ensure that OpenShift Service
via Red Hat Blog https://ift.tt/cipzQ5M
via Red Hat Blog https://ift.tt/cipzQ5M
Redhat
Introducing OpenShift Service Mesh 3.1
OpenShift Service Mesh 3.1 is based on Istio 1.26 and Kiali 2.11 with support for dual-stack clusters, sidecar-less ambient mode tech preview.
Following our recent announcement on the updated Red Hat Ansible Certified Terraform collection, we are excited to share another update with HashiCorp Terraform. We now offer supported migration paths through the Red Hat Ansible Certified cloud.terraform collection, simplifying the transition from using Red Hat Ansible Automation Platform with upstream Terraform workflows to Terraform Enterprise and HCP Terraform (Terraform Cloud is now HCP Terraform). We've taken the complexity out of migration by using HashiCorp's migration documentation and best practices to create a comprehensive pathway
via Red Hat Blog https://ift.tt/Z0XDICB
via Red Hat Blog https://ift.tt/Z0XDICB
Redhat
Streamlined migration: updating Ansible Automation Platform workflows to work with Terraform Enterprise and HCP Terraform
Following our recent announcement on the updated Red Hat Ansible Certified Terraform collection, we are excited to share another update with HashiCorp Terraform.
در برخورد با علوم انسانی و اجتماعی . و افراد نمیتوان فرمول و ساختار داد و نتیجه گیری کرد .
آدمی موجودی ناشناخته هست . علم امروز به بخش هایی از راز های درون رسیده .
همه گفتمان ها هم نظریه هست .
هزاران مورد نقض هم وجود دارد .
دنبال دلیل اتفاقات باید بود . نه نتیجه گیری . این را از یاد نبریم جهان فازی است . که الگوریتم فازی به اون اشاره کرده .
برای مثال : یک سردرد میتواند دلایل مختلفی داشته باشد . از کم آبی گرفته تا ...
تفکر دکارتی و منطق دو ارزشی (۰ یا ۱) که در علوم دقیقه غالب است، برای فهم انسان ناکافیست.
انسان میتواند همزمان هم خوشحال باشد و هم غمگین. این یعنی منطق کلاسیک فرو میریزد
انسان موجودی در حال شدن (Becoming) است
بر اساس فلسفه اگزیستانسیالیسم و دیالکتیک، انسان پروژهای ناتمام است.
او در حالِ تغییر، رشد، تفسیر دوباره، و ساختن خود است.
پس هیچ تحلیل و تفسیر نهایی وجود ندارد
الگوریتمهای فازی، یا منطق فازی (Fuzzy Logic)، دقیقاً برای همین بهوجود آمدند:
برای مدلسازی موقعیتهایی که در آنها عدمقطعیت، طیف و احتمال وجود دارد — نه قطعیت
در علومانسانی، چیزی بهنام «قانون نیوتن» نداریم. بلکه داریم:
• نظریههای فروید درباره ناخودآگاه
• نظریهی گفتمان فوکو
• نظریهی کنش متقابل نمادین
• نظریهی انتخاب عقلانی
همه اینها، مدلهایی از واقعیتاند — نه خودِ واقعیت. و هر کدام هزاران بار مورد نقد، بازنگری و حتی رد شدن
به جای نتیجهگیری مطلق، باید با «نگاه پدیدارشناسانه» یا «تحلیلگر دیالکتیکی» نگاه کرد:
یعنی: «چه شد که چنین شد؟»، نه اینکه: «حتماً اینطور است»
#human 🧍♂
#psychology #action
https://t.iss.one/unixmens
آدمی موجودی ناشناخته هست . علم امروز به بخش هایی از راز های درون رسیده .
همه گفتمان ها هم نظریه هست .
هزاران مورد نقض هم وجود دارد .
دنبال دلیل اتفاقات باید بود . نه نتیجه گیری . این را از یاد نبریم جهان فازی است . که الگوریتم فازی به اون اشاره کرده .
برای مثال : یک سردرد میتواند دلایل مختلفی داشته باشد . از کم آبی گرفته تا ...
تفکر دکارتی و منطق دو ارزشی (۰ یا ۱) که در علوم دقیقه غالب است، برای فهم انسان ناکافیست.
انسان میتواند همزمان هم خوشحال باشد و هم غمگین. این یعنی منطق کلاسیک فرو میریزد
انسان موجودی در حال شدن (Becoming) است
بر اساس فلسفه اگزیستانسیالیسم و دیالکتیک، انسان پروژهای ناتمام است.
او در حالِ تغییر، رشد، تفسیر دوباره، و ساختن خود است.
پس هیچ تحلیل و تفسیر نهایی وجود ندارد
الگوریتمهای فازی، یا منطق فازی (Fuzzy Logic)، دقیقاً برای همین بهوجود آمدند:
برای مدلسازی موقعیتهایی که در آنها عدمقطعیت، طیف و احتمال وجود دارد — نه قطعیت
در علومانسانی، چیزی بهنام «قانون نیوتن» نداریم. بلکه داریم:
• نظریههای فروید درباره ناخودآگاه
• نظریهی گفتمان فوکو
• نظریهی کنش متقابل نمادین
• نظریهی انتخاب عقلانی
همه اینها، مدلهایی از واقعیتاند — نه خودِ واقعیت. و هر کدام هزاران بار مورد نقد، بازنگری و حتی رد شدن
به جای نتیجهگیری مطلق، باید با «نگاه پدیدارشناسانه» یا «تحلیلگر دیالکتیکی» نگاه کرد:
یعنی: «چه شد که چنین شد؟»، نه اینکه: «حتماً اینطور است»
#human 🧍♂
#psychology #action
https://t.iss.one/unixmens
Telegram
Academy and Foundation unixmens | Your skills, Your future
@unixmens_support
@yashar_esm
[email protected]
یک کانال علمی تکنولوژی
فلسفه متن باز-گنو/لینوکس-امنیت - اقتصاد
دیجیتال
Technology-driven -بیزینس های مبتنی بر تکنولوژی
Enterprise open source
ارایه دهنده راهکارهای ارتقای سازمانی - فردی - تیمی
@yashar_esm
[email protected]
یک کانال علمی تکنولوژی
فلسفه متن باز-گنو/لینوکس-امنیت - اقتصاد
دیجیتال
Technology-driven -بیزینس های مبتنی بر تکنولوژی
Enterprise open source
ارایه دهنده راهکارهای ارتقای سازمانی - فردی - تیمی
This media is not supported in your browser
VIEW IN TELEGRAM