DotNet | دات نت
1.18K subscribers
670 photos
231 videos
485 files
722 links
تو این روزا بهتره که همیشه علم خودمون رو بالا ببریم و بتونیم با سریع ترین راه ممکن خودمونو بروز نگه داریم.
- سعی کنیم از کمترین امکانات بیشترین بهره رو ببریم
منتظرت هستیم😉
دنیا رو جای بهتری برای یادگیری کنیم 🌹
#course #book


🆔 @dotnetcode
Download Telegram
آینده تست‌نویسی در .NET؛ وقتی هوش مصنوعی خودش را قضاوت می‌کند!

اگر در اکوسیستم دات‌نت فعالیت می‌کنید، حتماً می‌دانید که ورود AI به اپلیکیشن‌ها، مدل‌های سنتی تست‌نویسی را به چالش کشیده است. دیگر صرفاً چک کردن یک خروجی ثابت کافی نیست؛ ما با مدل‌های زبانی (LLM) سر و کار داریم که پاسخ‌هایشان متغیر است.
مایکروسافت با معرفی کتابخانه‌های Microsoft.Extensions.AI.Evaluation و ابزارهای جدید در Visual Studio 2026، پازل تست‌نویسی هوشمند را کامل کرده است.

💡 نکات کلیدی ویدیو (AI-Powered Testing in VS):

در ویدیوی جدید کانال دات‌نت، مک‌کنا بارلو (PM تیم ابزارهای دات‌نت) نکات بسیار مهمی را مطرح کرد:
1️⃣ تست‌نویسی خودکار با Copilot: حالا GitHub Copilot می‌تواند برای کل Solution شما به‌صورت یکجا Unit Testهای باکیفیت بنویسد. این یعنی دیگر لازم نیست ساعت‌ها وقت صرف نوشتن کدهای تکراری تست کنید.

2️⃣ ترکیب Code Coverage و AI: ابزار Code Coverage در ویژوال استودیو حالا هوشمندتر شده؛ نقاطی از کد که تست نشده‌اند را شناسایی کرده و مستقیماً به Copilot پیشنهاد می‌دهد تا برای همان بخش‌های پرریسک، تست تولید کند.

3️⃣ گزارش‌های بصری (AI Eval Reporting): با ابزار جدید dotnet aieval می‌توانید گزارش‌های گرافیکی دقیقی در مرورگر ببینید که نشان می‌دهد مدل هوش مصنوعی شما در چه بخش‌هایی (مثلاً در Groundedness یا صحت اطلاعات) ضعف داشته است.

4️⃣ فراتر از Black Box: هدف این ابزارها این است که خروجی AI دیگر یک "جعبه سیاه" نباشد. شما می‌توانید دقیقاً بفهمید چرا یک مدل امتیاز پایینی گرفته و با چه منطقی پاسخ داده است.

🛠 کتابخانه Microsoft.Extensions.AI.Evaluation شامل چیست؟
این پکیج‌ها فرآیند ارزیابی را به چهار لایه تقسیم می‌کنند:
ارزیابی کیفی (Quality): سنجش میزان مرتبط بودن (Relevance) و انسجام (Coherence) پاسخ‌ها.

ارزیابی ایمنی (Safety): شناسایی خودکار محتوای سمی، نفرت‌پراکنی یا کد‌های مخرب تولید شده توسط AI.

ارزیابی مستند بودن (Groundedness): حیاتی‌ترین بخش برای جلوگیری از توهم (Hallucination)؛ چک می‌کند که آیا AI بر اساس دیتای واقعی شما حرف می‌زند یا از خودش داستان می‌سازد!

ارزیابی کلاسیک (NLP): استفاده از معیارهای BLEU و F1 برای سنجش شباهت متنی با پاسخ‌های مرجع.

چرا این موضوع مهم است؟
در دنیای واقعی، ما نمی‌توانیم به خروجی مدل‌های هوش مصنوعی اعتماد صددرصدی داشته باشیم. این کتابخانه‌ها به ما "اعتماد سیستماتیک" می‌دهند. یعنی قبل از اینکه کاربر نهایی با یک پاسخ اشتباه روبرو شود، سیستم تست شما آن را شکار می‌کند.

📌 ویژگی طلایی: تمام این فرآیندها دارای سیستم Caching هستند؛ یعنی اگر یک تست را دوباره اجرا کنید و ورودی تغییری نکرده باشد، هزینه‌ای برای API پرداخت نمی‌کنید و نتیجه بلافاصله نمایش داده می‌شود.

📺 مشاهده ویدیو کامل در یوتیوب:
🔗 https://youtu.be/Bkn78klGhtc?si=c5dBLw1y7ituLTFH
📖 مطالعه مستندات رسمی:
🔗 https://learn.microsoft.com/en-us/dotnet/ai/evaluation/libraries

#dotnet #csharp #VisualStudio2026 #AI #Testing #GitHubCopilot #Programming #SoftwareEngineering #هوش_مصنوعی #برنامه_نویسی

🎺برای یادگیری بیشتر و دریافت مطالب مفید در زمینه .NET و برنامه‌نویسی، به کانال ما بپیوندید!

📚💻 @dotnetcode 🖥👨‍💻
Please open Telegram to view this post
VIEW IN TELEGRAM
5👏4🔥1