🔵 عنوان مقاله
Google's AI bounty program pays bug hunters up to $30K (2 minute read)
🟢 خلاصه مقاله:
Google یک برنامه باگبانتی ویژه امنیت AI راهاندازی کرده که برای کشف آسیبپذیریهایی که میتوانند به اقدامات ناخواسته، دسترسی غیرمجاز به حسابها یا نشت دادهها منجر شوند، تا ۳۰هزار دلار پاداش میدهد. تمرکز برنامه بر نقصهایی است که سوءاستفاده از رفتار مدل یا یکپارچهسازیهای مرتبط را ممکن میکنند. میزان پاداش بر اساس شدت و اثرگذاری واقعی تعیین میشود و هدف، تقویت امنیت، جلوگیری از سوءاستفاده و ترویج گزارشدهی مسئولانه است.
#Google #AI #BugBounty #CyberSecurity #VulnerabilityDisclosure #EthicalHacking #DataPrivacy
🟣لینک مقاله:
https://www.theverge.com/news/793362/google-ai-security-vulnerability-rewards?utm_source=tldrinfosec
➖➖➖➖➖➖➖➖
👑 @software_Labdon
Google's AI bounty program pays bug hunters up to $30K (2 minute read)
🟢 خلاصه مقاله:
Google یک برنامه باگبانتی ویژه امنیت AI راهاندازی کرده که برای کشف آسیبپذیریهایی که میتوانند به اقدامات ناخواسته، دسترسی غیرمجاز به حسابها یا نشت دادهها منجر شوند، تا ۳۰هزار دلار پاداش میدهد. تمرکز برنامه بر نقصهایی است که سوءاستفاده از رفتار مدل یا یکپارچهسازیهای مرتبط را ممکن میکنند. میزان پاداش بر اساس شدت و اثرگذاری واقعی تعیین میشود و هدف، تقویت امنیت، جلوگیری از سوءاستفاده و ترویج گزارشدهی مسئولانه است.
#Google #AI #BugBounty #CyberSecurity #VulnerabilityDisclosure #EthicalHacking #DataPrivacy
🟣لینک مقاله:
https://www.theverge.com/news/793362/google-ai-security-vulnerability-rewards?utm_source=tldrinfosec
➖➖➖➖➖➖➖➖
👑 @software_Labdon
The Verge
Google’s AI bounty program pays bug hunters up to $30K
Can you convince an LLM to unlock someone else’s door?
🔵 عنوان مقاله
Introducing CodeMender: an AI agent for code security (5 minute read)
🟢 خلاصه مقاله:
** CodeMender ابزاری مبتنی بر هوش مصنوعی از Google DeepMind است که بهصورت خودکار آسیبپذیریهای نرمافزاری را شناسایی، اصلاح و از بروز آنها پیشگیری میکند. این Agent با تحلیل مستمر کد، ضعفها را پیدا کرده و برای آنها Patchهای عملی پیشنهاد میدهد تا با تأیید توسعهدهندگان اعمال شوند. نتیجه، افزایش امنیت کدهای موجود و کاهش زمان صرفشده برای مدیریت دستی آسیبپذیریهاست. CodeMender با تکمیل مهارت کارشناسان و سازگاری با جریانهای کاری رایج، به تیمها کمک میکند نرمافزار ایمنتری را سریعتر ارائه دهند و رویکردی پیشگیرانه در امنیت اتخاذ کنند.
#CodeMender #GoogleDeepMind #AI #CodeSecurity #CyberSecurity #SoftwareSecurity #DevSecOps
🟣لینک مقاله:
https://deepmind.google/discover/blog/introducing-codemender-an-ai-agent-for-code-security/?utm_source=tldrinfosec
➖➖➖➖➖➖➖➖
👑 @software_Labdon
Introducing CodeMender: an AI agent for code security (5 minute read)
🟢 خلاصه مقاله:
** CodeMender ابزاری مبتنی بر هوش مصنوعی از Google DeepMind است که بهصورت خودکار آسیبپذیریهای نرمافزاری را شناسایی، اصلاح و از بروز آنها پیشگیری میکند. این Agent با تحلیل مستمر کد، ضعفها را پیدا کرده و برای آنها Patchهای عملی پیشنهاد میدهد تا با تأیید توسعهدهندگان اعمال شوند. نتیجه، افزایش امنیت کدهای موجود و کاهش زمان صرفشده برای مدیریت دستی آسیبپذیریهاست. CodeMender با تکمیل مهارت کارشناسان و سازگاری با جریانهای کاری رایج، به تیمها کمک میکند نرمافزار ایمنتری را سریعتر ارائه دهند و رویکردی پیشگیرانه در امنیت اتخاذ کنند.
#CodeMender #GoogleDeepMind #AI #CodeSecurity #CyberSecurity #SoftwareSecurity #DevSecOps
🟣لینک مقاله:
https://deepmind.google/discover/blog/introducing-codemender-an-ai-agent-for-code-security/?utm_source=tldrinfosec
➖➖➖➖➖➖➖➖
👑 @software_Labdon
Google DeepMind
Introducing CodeMender: an AI agent for code security
CodeMender is a new AI-powered agent that improves code security automatically. It instantly patches new software vulnerabilities, and rewrites and secures existing code, eliminating entire...
🔵 عنوان مقاله
Why QA Keep Losing the Same Battles, even when Automation and AI is integrated
🟢 خلاصه مقاله:
این مقاله میگوید با وجود سرمایهگذاری در Automation و AI، مشکلات QA تکرار میشوند، چون مسأله اصلی کمبود ابزار نیست، بلکه نبود همراستایی بر سر معنای «کیفیت» و شیوه ساختن آن است. بهگفته Marina Jordão، کیفیت واقعی از انسانها، استراتژی و حمایت از کاربر میآید؛ ابزارها فقط سرعت میدهند، اما جای تحلیل ریسک، معیارهای شفاف و آزمون اکتشافی را نمیگیرند. شکستهای تکراری زمانی رخ میدهد که QA دیر وارد چرخه میشود، شاخصها سطحیاند و تمرکز از نتایج واقعی برای کاربر دور میشود. راهحل، دیدن کیفیت بهعنوان مسئولیت تیمی، درگیر کردن زودهنگام QA، تکیه بر پیشگیری بهجای صرفاً کشف خطا و بهکارگیری Automation و AI بهعنوان تقویتکننده قضاوت انسانی است.
#QA #Testing #Automation #AI #QualityEngineering #UserAdvocacy #TestStrategy #DevOps
🟣لینک مقاله:
https://cur.at/UzsHvzU?m=web
➖➖➖➖➖➖➖➖
👑 @software_Labdon
Why QA Keep Losing the Same Battles, even when Automation and AI is integrated
🟢 خلاصه مقاله:
این مقاله میگوید با وجود سرمایهگذاری در Automation و AI، مشکلات QA تکرار میشوند، چون مسأله اصلی کمبود ابزار نیست، بلکه نبود همراستایی بر سر معنای «کیفیت» و شیوه ساختن آن است. بهگفته Marina Jordão، کیفیت واقعی از انسانها، استراتژی و حمایت از کاربر میآید؛ ابزارها فقط سرعت میدهند، اما جای تحلیل ریسک، معیارهای شفاف و آزمون اکتشافی را نمیگیرند. شکستهای تکراری زمانی رخ میدهد که QA دیر وارد چرخه میشود، شاخصها سطحیاند و تمرکز از نتایج واقعی برای کاربر دور میشود. راهحل، دیدن کیفیت بهعنوان مسئولیت تیمی، درگیر کردن زودهنگام QA، تکیه بر پیشگیری بهجای صرفاً کشف خطا و بهکارگیری Automation و AI بهعنوان تقویتکننده قضاوت انسانی است.
#QA #Testing #Automation #AI #QualityEngineering #UserAdvocacy #TestStrategy #DevOps
🟣لینک مقاله:
https://cur.at/UzsHvzU?m=web
➖➖➖➖➖➖➖➖
👑 @software_Labdon
Medium
Why QA Keep Losing the Same Battles, even when Automation and is integrated
Why QA Keep Losing the Same Battles, even when Automation and AI is integrated Today, building software without test automation and AI is like trying to run a modern city without electricity. You can …
🔵 عنوان مقاله
I Integrated AI in a Listener to Heal Locators in The Real Time
🟢 خلاصه مقاله:
عبدالقادر حسینی نشان میدهد چگونه میتوان با ادغام AI در یک listener، مشکل ناپایداری تستهای موبایل را با «خودترمیمی لوکیتورها» در لحظه کاهش داد. وقتی یافتن یک المنت بهدلیل تغییرات UI شکست میخورد، listener خطا را رهگیری میکند، ماژول AI بر اساس سیگنالهای مختلف (ویژگیها، برچسبهای دسترسی، شباهت متنی، ساختار صفحه و دادههای تاریخی) یک لوکیتور جایگزین با امتیاز اطمینان پیشنهاد میدهد و در صورت موفقیت، آن را بهصورت خودکار بهروزرسانی میکند. با اعمال آستانه اطمینان، لاگ شفاف و امکان بازگشت، این روش بدون افزایش ریسک، پایداری CI را بالا میبرد و هزینه نگهداری تستها را کم میکند. الگوی ارائهشده قابل تعمیم به فراتر از موبایل است و پیشنهاد میشود ابتدا در حالت فقط-پیشنهاد اجرا، سپس با تنظیم آستانهها، به حالت خودترمیمی خودکار برای موارد با اطمینان بالا منتقل شود.
#AI #TestAutomation #MobileTesting #SelfHealingLocators #FlakyTests #QualityEngineering #DevOps #CICD
🟣لینک مقاله:
https://cur.at/s6YdwTw?m=web
➖➖➖➖➖➖➖➖
👑 @software_Labdon
I Integrated AI in a Listener to Heal Locators in The Real Time
🟢 خلاصه مقاله:
عبدالقادر حسینی نشان میدهد چگونه میتوان با ادغام AI در یک listener، مشکل ناپایداری تستهای موبایل را با «خودترمیمی لوکیتورها» در لحظه کاهش داد. وقتی یافتن یک المنت بهدلیل تغییرات UI شکست میخورد، listener خطا را رهگیری میکند، ماژول AI بر اساس سیگنالهای مختلف (ویژگیها، برچسبهای دسترسی، شباهت متنی، ساختار صفحه و دادههای تاریخی) یک لوکیتور جایگزین با امتیاز اطمینان پیشنهاد میدهد و در صورت موفقیت، آن را بهصورت خودکار بهروزرسانی میکند. با اعمال آستانه اطمینان، لاگ شفاف و امکان بازگشت، این روش بدون افزایش ریسک، پایداری CI را بالا میبرد و هزینه نگهداری تستها را کم میکند. الگوی ارائهشده قابل تعمیم به فراتر از موبایل است و پیشنهاد میشود ابتدا در حالت فقط-پیشنهاد اجرا، سپس با تنظیم آستانهها، به حالت خودترمیمی خودکار برای موارد با اطمینان بالا منتقل شود.
#AI #TestAutomation #MobileTesting #SelfHealingLocators #FlakyTests #QualityEngineering #DevOps #CICD
🟣لینک مقاله:
https://cur.at/s6YdwTw?m=web
➖➖➖➖➖➖➖➖
👑 @software_Labdon
Medium
I Integrated AI in a Listener to Heal Locators in The Real Time
A Self-Healing Robot Framework Listener That Prevents Tests From Failing Due Locator Update
🔵 عنوان مقاله
Determinism is Overrated
🟢 خلاصه مقاله:
Determinism is Overrated یادآور میشود که توسعه و آزمون اپلیکیشنهای AI با نرمافزارهای سنتی فرق دارد، چون خروجیها ذاتاً غیردترمینستیکاند. بهجای تکیه بر تطابق دقیق رشتهای، باید کیفیت را در سطح توزیع نتایج سنجید: تعریف بازههای پذیرش، روبریکها و امتیازدهی سازگار با هدف کاربر، و آزمونهای سناریومحور. Jarad DeLorenzo پیشنهاد میکند در کنار تستهای کاملاً دترمینستیک برای منطق اطراف مدل، از ابزارهای بازتولیدپذیری (نسخهبندی داده/پرومپت/مدل، ثبت seed و پارامترها) و ارزیابی احتمالاتی (آستانههای شباهت، top-k، چند seed) استفاده شود. در استقرار نیز A/B testing، canary، گاردریلها، fallback و observability برای هزینه، تأخیر، درستی و ایمنی لازم است. پیام اصلی: بهجای اجبار به خروجیهای یکسان، برای نتایج قابل اتکا در دل تغییرپذیری طراحی کنید.
#AI #LLM #NonDeterminism #Testing #Evaluation #MLOps #AIBestPractices #SoftwareEngineering
🟣لینک مقاله:
https://cur.at/sfc6P6g?m=web
➖➖➖➖➖➖➖➖
👑 @software_Labdon
Determinism is Overrated
🟢 خلاصه مقاله:
Determinism is Overrated یادآور میشود که توسعه و آزمون اپلیکیشنهای AI با نرمافزارهای سنتی فرق دارد، چون خروجیها ذاتاً غیردترمینستیکاند. بهجای تکیه بر تطابق دقیق رشتهای، باید کیفیت را در سطح توزیع نتایج سنجید: تعریف بازههای پذیرش، روبریکها و امتیازدهی سازگار با هدف کاربر، و آزمونهای سناریومحور. Jarad DeLorenzo پیشنهاد میکند در کنار تستهای کاملاً دترمینستیک برای منطق اطراف مدل، از ابزارهای بازتولیدپذیری (نسخهبندی داده/پرومپت/مدل، ثبت seed و پارامترها) و ارزیابی احتمالاتی (آستانههای شباهت، top-k، چند seed) استفاده شود. در استقرار نیز A/B testing، canary، گاردریلها، fallback و observability برای هزینه، تأخیر، درستی و ایمنی لازم است. پیام اصلی: بهجای اجبار به خروجیهای یکسان، برای نتایج قابل اتکا در دل تغییرپذیری طراحی کنید.
#AI #LLM #NonDeterminism #Testing #Evaluation #MLOps #AIBestPractices #SoftwareEngineering
🟣لینک مقاله:
https://cur.at/sfc6P6g?m=web
➖➖➖➖➖➖➖➖
👑 @software_Labdon
Medium
Determinism is Overrated
Why Your Best Engineers Can’t Build AI Systems
🔵 عنوان مقاله
AI Is Quietly Rewriting the Career Map for QA Engineers
🟢 خلاصه مقاله:
** هوش مصنوعی مسیر شغلی مهندسان QA را دگرگون کرده و نقش «تستر» را از اجرای تستها به «ارکستراسیون» یک سامانه هوشمند از ابزارها، دادهها و ایجنتها تغییر میدهد. بهگفته Ryan Craven، ارزش اصلی QA در طراحی و نظارت بر پایپلاین کیفیت است: انتخاب و اتصال ابزارها، تولید و اولویتبندی تست با AI، ایجاد گاردریلها، مدیریت داده و بستن درگاههای انتشار بر اساس ریسک کسبوکار. مهارتها هم توسعه مییابد: از اتوماسیون به Prompt Design، ارزیابی مدل، ایمنی، مدیریت داده، سنجش پوشش سناریویی، و تسلط بر CI/CD، Observability و Feature Flags. کار روزمره شامل تولید و پالایش تستهای AI، کاهش خطاهای مثبت کاذب، خودترمیمی تستهای flaky، استفاده از تلهمتری کاربر و بستن حلقه بازخورد تولید است. حاکمیت داده، حریم خصوصی، سوگیری و بازتولیدپذیری تصمیمهای AI ضروری میشود و Human-in-the-loop برای تغییرات پرریسک باقی میماند. عنوانهای تازهای مانند Quality Platform Engineer، QA Orchestrator و AI Test Strategist شکل میگیرد و مرز کار ارشد با SRE و Platform Engineering همپوشانی مییابد. جمعبندی: QA از اجرای تستها به هماهنگسازی انسان و AI برای ارائه کیفیت با سرعت و مقیاس حرکت میکند.
#AI #QA #SoftwareTesting #TestAutomation #QualityEngineering #DevOps #AIOps #CareerDevelopment
🟣لینک مقاله:
https://cur.at/bIOtF9U?m=web
➖➖➖➖➖➖➖➖
👑 @software_Labdon
AI Is Quietly Rewriting the Career Map for QA Engineers
🟢 خلاصه مقاله:
** هوش مصنوعی مسیر شغلی مهندسان QA را دگرگون کرده و نقش «تستر» را از اجرای تستها به «ارکستراسیون» یک سامانه هوشمند از ابزارها، دادهها و ایجنتها تغییر میدهد. بهگفته Ryan Craven، ارزش اصلی QA در طراحی و نظارت بر پایپلاین کیفیت است: انتخاب و اتصال ابزارها، تولید و اولویتبندی تست با AI، ایجاد گاردریلها، مدیریت داده و بستن درگاههای انتشار بر اساس ریسک کسبوکار. مهارتها هم توسعه مییابد: از اتوماسیون به Prompt Design، ارزیابی مدل، ایمنی، مدیریت داده، سنجش پوشش سناریویی، و تسلط بر CI/CD، Observability و Feature Flags. کار روزمره شامل تولید و پالایش تستهای AI، کاهش خطاهای مثبت کاذب، خودترمیمی تستهای flaky، استفاده از تلهمتری کاربر و بستن حلقه بازخورد تولید است. حاکمیت داده، حریم خصوصی، سوگیری و بازتولیدپذیری تصمیمهای AI ضروری میشود و Human-in-the-loop برای تغییرات پرریسک باقی میماند. عنوانهای تازهای مانند Quality Platform Engineer، QA Orchestrator و AI Test Strategist شکل میگیرد و مرز کار ارشد با SRE و Platform Engineering همپوشانی مییابد. جمعبندی: QA از اجرای تستها به هماهنگسازی انسان و AI برای ارائه کیفیت با سرعت و مقیاس حرکت میکند.
#AI #QA #SoftwareTesting #TestAutomation #QualityEngineering #DevOps #AIOps #CareerDevelopment
🟣لینک مقاله:
https://cur.at/bIOtF9U?m=web
➖➖➖➖➖➖➖➖
👑 @software_Labdon
Substack
AI Is Quietly Rewriting the Career Map for QA Engineers
Automation architects are on the rise — AI is changing what it means to build and break software
👍1
🔵 عنوان مقاله
Looking for AI that helps write and run automated UI tests (Playwright + Jira stack)
🟢 خلاصه مقاله:
** این بحث درباره نیاز تیمها به بهرهگیری از AI در خودکارسازی تستهای UI با محوریت Playwright و Jira است. کاربران Reddit راهکارهایی را مطرح میکنند: تبدیل داستانها و معیارهای پذیرش در Jira به سناریوهای تست و کد Playwright با کمک LLMها، استفاده از locatorهای پایدار و Page Object Model، و تغذیه AI با دانش دامنه و اجزای UI. در اجرای تست نیز به نگهداری اهمیت میدهند: پیشنهاد رفع شکستهای ناشی از تغییر selectorها، کاهش flakiness، خلاصهسازی خطاها با اسکرینشات و لاگ، و ایجاد خودکار تیکتهای Jira با جزئیات بازتولید. یک محور دیگر، اتصال به CI/CD و مدیریت داده/محیط تست با رعایت امنیت و گاردریلها برای سنجش ROI است. جمعبندی این است که ابزار یگانهای وجود ندارد؛ مسیر عملی، شروع کوچک، رعایت الگوهای مهندسی و استفاده کمکی از AI در کنار Playwright و Jira است.
#Playwright #Jira #UIAutomation #AI #Testing #QA #DevOps
🟣لینک مقاله:
https://cur.at/7CKr1ju?m=web
➖➖➖➖➖➖➖➖
👑 @software_Labdon
Looking for AI that helps write and run automated UI tests (Playwright + Jira stack)
🟢 خلاصه مقاله:
** این بحث درباره نیاز تیمها به بهرهگیری از AI در خودکارسازی تستهای UI با محوریت Playwright و Jira است. کاربران Reddit راهکارهایی را مطرح میکنند: تبدیل داستانها و معیارهای پذیرش در Jira به سناریوهای تست و کد Playwright با کمک LLMها، استفاده از locatorهای پایدار و Page Object Model، و تغذیه AI با دانش دامنه و اجزای UI. در اجرای تست نیز به نگهداری اهمیت میدهند: پیشنهاد رفع شکستهای ناشی از تغییر selectorها، کاهش flakiness، خلاصهسازی خطاها با اسکرینشات و لاگ، و ایجاد خودکار تیکتهای Jira با جزئیات بازتولید. یک محور دیگر، اتصال به CI/CD و مدیریت داده/محیط تست با رعایت امنیت و گاردریلها برای سنجش ROI است. جمعبندی این است که ابزار یگانهای وجود ندارد؛ مسیر عملی، شروع کوچک، رعایت الگوهای مهندسی و استفاده کمکی از AI در کنار Playwright و Jira است.
#Playwright #Jira #UIAutomation #AI #Testing #QA #DevOps
🟣لینک مقاله:
https://cur.at/7CKr1ju?m=web
➖➖➖➖➖➖➖➖
👑 @software_Labdon
Reddit
From the QualityAssurance community on Reddit
Explore this post and more from the QualityAssurance community
🔵 عنوان مقاله
Sweet Security (Product Launch)
🟢 خلاصه مقاله:
Sweet Security یک پلتفرم امنیتی مبتنی بر AI ارائه میکند که برای شناسایی و واکنش بلادرنگ به تهدیدها در محیطهای cloud و AI طراحی شده است. این راهکار با کشف shadow AI، شناسایی خطاهای پیکربندی و دسترسیهای پرخطر، دیدپذیری و حاکمیت را بهبود میدهد. همچنین با پیشگیری از prompt injection و رصد رفتار غیرعادی مدلها، از سوءاستفاده و نشت داده جلوگیری میکند و امکان واکنش سریع و خودکار را برای تیمهای امنیتی فراهم میسازد.
#Cybersecurity #CloudSecurity #AI #GenAI #ThreatDetection #PromptInjection #ShadowAI
🟣لینک مقاله:
https://www.sweet.security/?utm_source=tldrinfosec
➖➖➖➖➖➖➖➖
👑 @software_Labdon
Sweet Security (Product Launch)
🟢 خلاصه مقاله:
Sweet Security یک پلتفرم امنیتی مبتنی بر AI ارائه میکند که برای شناسایی و واکنش بلادرنگ به تهدیدها در محیطهای cloud و AI طراحی شده است. این راهکار با کشف shadow AI، شناسایی خطاهای پیکربندی و دسترسیهای پرخطر، دیدپذیری و حاکمیت را بهبود میدهد. همچنین با پیشگیری از prompt injection و رصد رفتار غیرعادی مدلها، از سوءاستفاده و نشت داده جلوگیری میکند و امکان واکنش سریع و خودکار را برای تیمهای امنیتی فراهم میسازد.
#Cybersecurity #CloudSecurity #AI #GenAI #ThreatDetection #PromptInjection #ShadowAI
🟣لینک مقاله:
https://www.sweet.security/?utm_source=tldrinfosec
➖➖➖➖➖➖➖➖
👑 @software_Labdon
www.sweet.security
Sweet Security: The Runtime-Powered CNAPP
Experience Sweet Security's Runtime-Powered CNAPP, the next-generation, AI-led cloud security platform that reduces MTTR to just 5 minutes. Use Sweet's runtime CNAPP to gain real-time visibility, detect threats instantly, and manage any risk: vulnerabilities…
🔵 عنوان مقاله
The New QA Mindset: Testing AI and LLMs
🟢 خلاصه مقاله:
تست محصولات مبتنی بر AI و بهویژه LLMs با نرمافزارهای کلاسیک فرق اساسی دارد: خروجیها قطعی نیستند و به داده، پرامپت و زمینه وابستهاند. در نتیجه بهجای «صحت دقیق»، باید کیفیت رفتاری، آستانهها و شواهد آماری را سنجید. این رویکرد مستلزم تعریف معیارهای روشن، ساخت دیتاستهای ارزیابی باکیفیت، اتکا به human-in-the-loop برای برچسبگذاری و تفسیر موارد مرزی، و پوشش سناریوهای متنوع و حتی مخرب (مانند prompt injection) است. جنبههای ایمنی، سوگیری، توهینآمیز بودن، حریم خصوصی و جلوگیری از hallucination به معیارهای پذیرش تبدیل میشوند. علاوه بر ارزیابی آفلاین، باید آزمایشهای آنلاین، مانیتورینگ مستمر، فیدبکلوپ و طبقهبندی خطا برای اولویتبندی اصلاحات وجود داشته باشد. توصیه کلیدی Vladimir Josifoski این است که داده، پرامپت و سیاستها را بهعنوان مصنوعات قابلتست در نظر بگیرید، از ارزیابی آماری و پیوسته بهره ببرید، و هرجا لازم است قضاوت انسانی را وارد کنید تا کیفیت واقعی تضمین شود.
#AI #LLMs #QA #AITesting #QualityAssurance #MachineLearning #PromptEngineering
🟣لینک مقاله:
https://cur.at/8mbcLve?m=web
➖➖➖➖➖➖➖➖
👑 @software_Labdon
The New QA Mindset: Testing AI and LLMs
🟢 خلاصه مقاله:
تست محصولات مبتنی بر AI و بهویژه LLMs با نرمافزارهای کلاسیک فرق اساسی دارد: خروجیها قطعی نیستند و به داده، پرامپت و زمینه وابستهاند. در نتیجه بهجای «صحت دقیق»، باید کیفیت رفتاری، آستانهها و شواهد آماری را سنجید. این رویکرد مستلزم تعریف معیارهای روشن، ساخت دیتاستهای ارزیابی باکیفیت، اتکا به human-in-the-loop برای برچسبگذاری و تفسیر موارد مرزی، و پوشش سناریوهای متنوع و حتی مخرب (مانند prompt injection) است. جنبههای ایمنی، سوگیری، توهینآمیز بودن، حریم خصوصی و جلوگیری از hallucination به معیارهای پذیرش تبدیل میشوند. علاوه بر ارزیابی آفلاین، باید آزمایشهای آنلاین، مانیتورینگ مستمر، فیدبکلوپ و طبقهبندی خطا برای اولویتبندی اصلاحات وجود داشته باشد. توصیه کلیدی Vladimir Josifoski این است که داده، پرامپت و سیاستها را بهعنوان مصنوعات قابلتست در نظر بگیرید، از ارزیابی آماری و پیوسته بهره ببرید، و هرجا لازم است قضاوت انسانی را وارد کنید تا کیفیت واقعی تضمین شود.
#AI #LLMs #QA #AITesting #QualityAssurance #MachineLearning #PromptEngineering
🟣لینک مقاله:
https://cur.at/8mbcLve?m=web
➖➖➖➖➖➖➖➖
👑 @software_Labdon
QAlogy
The New QA Mindset: Testing AI and LLMs - QAlogy
For years, QA engineers have tested deterministic systems — applications that behave predictably when given specific inputs. But with the rise of AI-driven apps and large language models (LLMs), the rules have changed. The systems we’re testing today are…
🔵 عنوان مقاله
Terra Security (Product Launch)
🟢 خلاصه مقاله:
Terra Security یک پلتفرم continuous penetration testing مبتنی بر agentic-AI عرضه کرده که با بهکارگیری swarm از AI agents، تاکتیکهای واقعی مهاجمان را شبیهسازی میکند تا قبل از سوءاستفاده، آسیبپذیریها شناسایی شوند. این سامانه ارزیابیها را متناسب با فناوری و ریسک هر سازمان و در مقیاس گسترده انجام میدهد و سطحهای مختلف مانند وباپلیکیشنها، APIها، سرویسهای ابری، پیکربندی هویت و شبکه را بهصورت پیوسته پوشش میدهد. خروجی شامل اولویتبندی ریسک با شواهد اثر و راهنمای رفع است و بعد از اصلاح، بهصورت خودکار دوباره تست میکند. این راهکار ضمن تکمیل تستهای دستی سنتی، سرعت کشف و رفع را افزایش میدهد و با هزینه و زمان کمتر، وضعیت امنیتی سازمان را بهطور مداوم بهبود میبخشد.
#Cybersecurity #PenTesting #AI #AgenticAI #ContinuousSecurity #DevSecOps #VulnerabilityManagement #ProductLaunch
🟣لینک مقاله:
https://www.terra.security/?utm_source=tldrinfosec
➖➖➖➖➖➖➖➖
👑 @software_Labdon
Terra Security (Product Launch)
🟢 خلاصه مقاله:
Terra Security یک پلتفرم continuous penetration testing مبتنی بر agentic-AI عرضه کرده که با بهکارگیری swarm از AI agents، تاکتیکهای واقعی مهاجمان را شبیهسازی میکند تا قبل از سوءاستفاده، آسیبپذیریها شناسایی شوند. این سامانه ارزیابیها را متناسب با فناوری و ریسک هر سازمان و در مقیاس گسترده انجام میدهد و سطحهای مختلف مانند وباپلیکیشنها، APIها، سرویسهای ابری، پیکربندی هویت و شبکه را بهصورت پیوسته پوشش میدهد. خروجی شامل اولویتبندی ریسک با شواهد اثر و راهنمای رفع است و بعد از اصلاح، بهصورت خودکار دوباره تست میکند. این راهکار ضمن تکمیل تستهای دستی سنتی، سرعت کشف و رفع را افزایش میدهد و با هزینه و زمان کمتر، وضعیت امنیتی سازمان را بهطور مداوم بهبود میبخشد.
#Cybersecurity #PenTesting #AI #AgenticAI #ContinuousSecurity #DevSecOps #VulnerabilityManagement #ProductLaunch
🟣لینک مقاله:
https://www.terra.security/?utm_source=tldrinfosec
➖➖➖➖➖➖➖➖
👑 @software_Labdon
www.terra.security
Terra Security | Agentic AI Continuous PTaaS (Penetration Testing as a Service)
Don't lose sleep over pen testing; our expert testers will ensure your systems are secure during the test while focusing their time on the most important assets.