کورس در جهت تسهیل شبیه سازی و تست پذیری
https://www.pluralsight.com/courses/nunit-moq-mocking
#course #owner #testing #nunit
ما رو به دوستان خودتان معرفی کنید 😉🌹
🆔 @dotnetcode
https://www.pluralsight.com/courses/nunit-moq-mocking
#course #owner #testing #nunit
ما رو به دوستان خودتان معرفی کنید 😉🌹
🆔 @dotnetcode
Pluralsight
Mocking with Moq 4 and NUnit
آینده تستنویسی در .NET؛ وقتی هوش مصنوعی خودش را قضاوت میکند!
اگر در اکوسیستم داتنت فعالیت میکنید، حتماً میدانید که ورود AI به اپلیکیشنها، مدلهای سنتی تستنویسی را به چالش کشیده است. دیگر صرفاً چک کردن یک خروجی ثابت کافی نیست؛ ما با مدلهای زبانی (LLM) سر و کار داریم که پاسخهایشان متغیر است.
مایکروسافت با معرفی کتابخانههای Microsoft.Extensions.AI.Evaluation و ابزارهای جدید در Visual Studio 2026، پازل تستنویسی هوشمند را کامل کرده است.
💡 نکات کلیدی ویدیو (AI-Powered Testing in VS):
در ویدیوی جدید کانال داتنت، مککنا بارلو (PM تیم ابزارهای داتنت) نکات بسیار مهمی را مطرح کرد:
1️⃣ تستنویسی خودکار با Copilot: حالا GitHub Copilot میتواند برای کل Solution شما بهصورت یکجا Unit Testهای باکیفیت بنویسد. این یعنی دیگر لازم نیست ساعتها وقت صرف نوشتن کدهای تکراری تست کنید.
2️⃣ ترکیب Code Coverage و AI: ابزار Code Coverage در ویژوال استودیو حالا هوشمندتر شده؛ نقاطی از کد که تست نشدهاند را شناسایی کرده و مستقیماً به Copilot پیشنهاد میدهد تا برای همان بخشهای پرریسک، تست تولید کند.
3️⃣ گزارشهای بصری (AI Eval Reporting): با ابزار جدید dotnet aieval میتوانید گزارشهای گرافیکی دقیقی در مرورگر ببینید که نشان میدهد مدل هوش مصنوعی شما در چه بخشهایی (مثلاً در Groundedness یا صحت اطلاعات) ضعف داشته است.
4️⃣ فراتر از Black Box: هدف این ابزارها این است که خروجی AI دیگر یک "جعبه سیاه" نباشد. شما میتوانید دقیقاً بفهمید چرا یک مدل امتیاز پایینی گرفته و با چه منطقی پاسخ داده است.
🛠 کتابخانه Microsoft.Extensions.AI.Evaluation شامل چیست؟
این پکیجها فرآیند ارزیابی را به چهار لایه تقسیم میکنند:
✅ ارزیابی کیفی (Quality): سنجش میزان مرتبط بودن (Relevance) و انسجام (Coherence) پاسخها.
✅ ارزیابی ایمنی (Safety): شناسایی خودکار محتوای سمی، نفرتپراکنی یا کدهای مخرب تولید شده توسط AI.
✅ ارزیابی مستند بودن (Groundedness): حیاتیترین بخش برای جلوگیری از توهم (Hallucination)؛ چک میکند که آیا AI بر اساس دیتای واقعی شما حرف میزند یا از خودش داستان میسازد!
✅ ارزیابی کلاسیک (NLP): استفاده از معیارهای BLEU و F1 برای سنجش شباهت متنی با پاسخهای مرجع.
چرا این موضوع مهم است؟
در دنیای واقعی، ما نمیتوانیم به خروجی مدلهای هوش مصنوعی اعتماد صددرصدی داشته باشیم. این کتابخانهها به ما "اعتماد سیستماتیک" میدهند. یعنی قبل از اینکه کاربر نهایی با یک پاسخ اشتباه روبرو شود، سیستم تست شما آن را شکار میکند.
📌 ویژگی طلایی: تمام این فرآیندها دارای سیستم Caching هستند؛ یعنی اگر یک تست را دوباره اجرا کنید و ورودی تغییری نکرده باشد، هزینهای برای API پرداخت نمیکنید و نتیجه بلافاصله نمایش داده میشود.
📺 مشاهده ویدیو کامل در یوتیوب:
🔗 https://youtu.be/Bkn78klGhtc?si=c5dBLw1y7ituLTFH
📖 مطالعه مستندات رسمی:
🔗 https://learn.microsoft.com/en-us/dotnet/ai/evaluation/libraries
#dotnet #csharp #VisualStudio2026 #AI #Testing #GitHubCopilot #Programming #SoftwareEngineering #هوش_مصنوعی #برنامه_نویسی
🎺 برای یادگیری بیشتر و دریافت مطالب مفید در زمینه .NET و برنامهنویسی، به کانال ما بپیوندید!
📚💻 @dotnetcode🖥 👨💻
اگر در اکوسیستم داتنت فعالیت میکنید، حتماً میدانید که ورود AI به اپلیکیشنها، مدلهای سنتی تستنویسی را به چالش کشیده است. دیگر صرفاً چک کردن یک خروجی ثابت کافی نیست؛ ما با مدلهای زبانی (LLM) سر و کار داریم که پاسخهایشان متغیر است.
مایکروسافت با معرفی کتابخانههای Microsoft.Extensions.AI.Evaluation و ابزارهای جدید در Visual Studio 2026، پازل تستنویسی هوشمند را کامل کرده است.
💡 نکات کلیدی ویدیو (AI-Powered Testing in VS):
در ویدیوی جدید کانال داتنت، مککنا بارلو (PM تیم ابزارهای داتنت) نکات بسیار مهمی را مطرح کرد:
1️⃣ تستنویسی خودکار با Copilot: حالا GitHub Copilot میتواند برای کل Solution شما بهصورت یکجا Unit Testهای باکیفیت بنویسد. این یعنی دیگر لازم نیست ساعتها وقت صرف نوشتن کدهای تکراری تست کنید.
2️⃣ ترکیب Code Coverage و AI: ابزار Code Coverage در ویژوال استودیو حالا هوشمندتر شده؛ نقاطی از کد که تست نشدهاند را شناسایی کرده و مستقیماً به Copilot پیشنهاد میدهد تا برای همان بخشهای پرریسک، تست تولید کند.
3️⃣ گزارشهای بصری (AI Eval Reporting): با ابزار جدید dotnet aieval میتوانید گزارشهای گرافیکی دقیقی در مرورگر ببینید که نشان میدهد مدل هوش مصنوعی شما در چه بخشهایی (مثلاً در Groundedness یا صحت اطلاعات) ضعف داشته است.
4️⃣ فراتر از Black Box: هدف این ابزارها این است که خروجی AI دیگر یک "جعبه سیاه" نباشد. شما میتوانید دقیقاً بفهمید چرا یک مدل امتیاز پایینی گرفته و با چه منطقی پاسخ داده است.
🛠 کتابخانه Microsoft.Extensions.AI.Evaluation شامل چیست؟
این پکیجها فرآیند ارزیابی را به چهار لایه تقسیم میکنند:
✅ ارزیابی کیفی (Quality): سنجش میزان مرتبط بودن (Relevance) و انسجام (Coherence) پاسخها.
✅ ارزیابی ایمنی (Safety): شناسایی خودکار محتوای سمی، نفرتپراکنی یا کدهای مخرب تولید شده توسط AI.
✅ ارزیابی مستند بودن (Groundedness): حیاتیترین بخش برای جلوگیری از توهم (Hallucination)؛ چک میکند که آیا AI بر اساس دیتای واقعی شما حرف میزند یا از خودش داستان میسازد!
✅ ارزیابی کلاسیک (NLP): استفاده از معیارهای BLEU و F1 برای سنجش شباهت متنی با پاسخهای مرجع.
چرا این موضوع مهم است؟
در دنیای واقعی، ما نمیتوانیم به خروجی مدلهای هوش مصنوعی اعتماد صددرصدی داشته باشیم. این کتابخانهها به ما "اعتماد سیستماتیک" میدهند. یعنی قبل از اینکه کاربر نهایی با یک پاسخ اشتباه روبرو شود، سیستم تست شما آن را شکار میکند.
📌 ویژگی طلایی: تمام این فرآیندها دارای سیستم Caching هستند؛ یعنی اگر یک تست را دوباره اجرا کنید و ورودی تغییری نکرده باشد، هزینهای برای API پرداخت نمیکنید و نتیجه بلافاصله نمایش داده میشود.
📺 مشاهده ویدیو کامل در یوتیوب:
🔗 https://youtu.be/Bkn78klGhtc?si=c5dBLw1y7ituLTFH
📖 مطالعه مستندات رسمی:
🔗 https://learn.microsoft.com/en-us/dotnet/ai/evaluation/libraries
#dotnet #csharp #VisualStudio2026 #AI #Testing #GitHubCopilot #Programming #SoftwareEngineering #هوش_مصنوعی #برنامه_نویسی
📚💻 @dotnetcode
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
AI-Powered Testing in Visual Studio
Artificial intelligence is transforming how we approach testing and quality assurance. This session explores new AI-powered testing capabilities in Visual Studio that help you write better tests, identify edge cases, generate test data, and improve test coverage.…
❤5👏4🔥1