در این نوشتار در بلاگ ان ویدیا، 5 مشکل رایج در کتابخانه Pandas و بهترین راه حل های آن ها نوشته شده است :
@ai_python
🌀 Slow CSV reads → engine="pyarrow" … or %load_ext cudf.pandas
💥 Merges freezing your laptop → %load_ext cudf.pandas
🐏 Strings eating RAM → astype("category") … or %load_ext cudf.pandas
⏳ Painfully slow groupby() → %load_ext cudf.pandas
💻 Memory errors on large datasets → downcast … or %load_ext cudf.pandas
https://developer.nvidia.com/blog/how-to-spot-and-fix-5-common-performance-bottlenecks-in-pandas-workflows/
@ai_python
🌀 Slow CSV reads → engine="pyarrow" … or %load_ext cudf.pandas
💥 Merges freezing your laptop → %load_ext cudf.pandas
🐏 Strings eating RAM → astype("category") … or %load_ext cudf.pandas
⏳ Painfully slow groupby() → %load_ext cudf.pandas
💻 Memory errors on large datasets → downcast … or %load_ext cudf.pandas
https://developer.nvidia.com/blog/how-to-spot-and-fix-5-common-performance-bottlenecks-in-pandas-workflows/
NVIDIA Technical Blog
How to Spot (and Fix) 5 Common Performance Bottlenecks in pandas Workflows
Slow data loads, memory-intensive joins, and long-running operations—these are problems every Python practitioner has faced. They waste valuable time and make iterating on your ideas harder than it…
3
یکی از مشکلاتی که به دلیل سرعتی که خود مدل های زبانی بزرگ در کدنویسی به ارمغان آوردن، اینه که همه ابزارها بسیار سریع تر به روز رسانی می شن و در نتیجه حتی جدیدترین مدل ها، گاهی برای بعضی از موارد یک روز پس از انتشار، عقب افتاده محسوب می شوند.
@ai_python
این باعث می شه که برنامه نویس هایی که وایب کدینگ انجام می دن، همیشه با مشکلات خاصی دست و پنجه نرم کنند، یا دیگران را دچار مشکلاتی کنند. ولی در هر صورت چیزی که مسلم است این است که نمی شود جلوی این موج وایب کدینگ را گرفت. ولی می توانیم آن را بهبود ببخشیم. لاما ایندکس هم برای این مهم، یک چاره اندیشیده که به نظرم خیلی جالب اومد. برای مثال یکی از مشکلات وایب کدینگ اینه که در بسیاری از اوقات از API های قدیمی اونا استفاده می کرد.
اما با راه حل Vibe Coding Agent همیشه، اصول کار با تازه ترین نسخه API به مدل به عنوان Context داده می شه. در واقع به نوعی Augmentation اتفاق می افته.
@ai_python
اینم پست بلاگ مربوط بهش :
https://www.llamaindex.ai/blog/the-future-of-vibe-coding-agents
@ai_python
این باعث می شه که برنامه نویس هایی که وایب کدینگ انجام می دن، همیشه با مشکلات خاصی دست و پنجه نرم کنند، یا دیگران را دچار مشکلاتی کنند. ولی در هر صورت چیزی که مسلم است این است که نمی شود جلوی این موج وایب کدینگ را گرفت. ولی می توانیم آن را بهبود ببخشیم. لاما ایندکس هم برای این مهم، یک چاره اندیشیده که به نظرم خیلی جالب اومد. برای مثال یکی از مشکلات وایب کدینگ اینه که در بسیاری از اوقات از API های قدیمی اونا استفاده می کرد.
اما با راه حل Vibe Coding Agent همیشه، اصول کار با تازه ترین نسخه API به مدل به عنوان Context داده می شه. در واقع به نوعی Augmentation اتفاق می افته.
@ai_python
اینم پست بلاگ مربوط بهش :
https://www.llamaindex.ai/blog/the-future-of-vibe-coding-agents
www.llamaindex.ai
The Future of Vibe-Coding Agents — LlamaIndex - Build Knowledge Assistants over your Enterprise Data
LlamaIndex is a simple, flexible framework for building knowledge assistants using LLMs connected to your enterprise data.
2
این منبع به بررسی عمیق دو موضوع کلیدی در توسعه هوش مصنوعی میپردازد:
تقویت حافظه بلندمدت برای Agent های هوش مصنوعی با استفاده از یکپارچهسازی LangGraph و MongoDB، و پیاده سازی هوش مصنوعی اخلاق محور در سیستمهای هوش مصنوعی از طریق هوش مصنوعی ساختاری (Constitutional AI) و قابلیتهای دادهای MongoDB.
@ai_python
بخش اول بر اهمیت توانایی Agent های هوش مصنوعی برای به خاطر سپردن اطلاعات در چندین جلسه تاکید دارد و راهکار MongoDB Store for LangGraph را معرفی میکند که امکان ذخیرهسازی مداوم اطلاعات را فراهم میآورد. بخش دوم، هوش مصنوعی ساختاری را به عنوان یک روش خودگردانی اخلاقی برای مدلهای هوش مصنوعی توضیح میدهد و نشان میدهد که چگونه MongoDB با قابلیتهایی مانند کنترل دسترسی مبتنی بر Role و جستجوی برداری پیشرفته، زیرساخت لازم برای پیادهسازی این چارچوبهای اخلاقی را فراهم میکند. در نهایت، بلاگ، به پتانسیل هوش مصنوعی در بهبود عملیات تحریریه و ایجاد جریانهای کاری کارآمدتر برای تولید محتوا نیز اشاره دارد.
https://www.mongodb.com/company/blog/product-release-announcements/powering-long-term-memory-for-agents-langgraph
فایل پادکست مرتبط : https://t.iss.one/navidcasts/20
تقویت حافظه بلندمدت برای Agent های هوش مصنوعی با استفاده از یکپارچهسازی LangGraph و MongoDB، و پیاده سازی هوش مصنوعی اخلاق محور در سیستمهای هوش مصنوعی از طریق هوش مصنوعی ساختاری (Constitutional AI) و قابلیتهای دادهای MongoDB.
@ai_python
بخش اول بر اهمیت توانایی Agent های هوش مصنوعی برای به خاطر سپردن اطلاعات در چندین جلسه تاکید دارد و راهکار MongoDB Store for LangGraph را معرفی میکند که امکان ذخیرهسازی مداوم اطلاعات را فراهم میآورد. بخش دوم، هوش مصنوعی ساختاری را به عنوان یک روش خودگردانی اخلاقی برای مدلهای هوش مصنوعی توضیح میدهد و نشان میدهد که چگونه MongoDB با قابلیتهایی مانند کنترل دسترسی مبتنی بر Role و جستجوی برداری پیشرفته، زیرساخت لازم برای پیادهسازی این چارچوبهای اخلاقی را فراهم میکند. در نهایت، بلاگ، به پتانسیل هوش مصنوعی در بهبود عملیات تحریریه و ایجاد جریانهای کاری کارآمدتر برای تولید محتوا نیز اشاره دارد.
https://www.mongodb.com/company/blog/product-release-announcements/powering-long-term-memory-for-agents-langgraph
فایل پادکست مرتبط : https://t.iss.one/navidcasts/20
MongoDB
Powering Long-Term Memory for Agents With LangGraph and MongoDB | MongoDB Blog
Enhance your AI agents with long-term memory using the new MongoDB Store for LangGraph. Build intelligent, context-aware agents that learn and adapt over time.
2
Forwarded from Migration is EasY
سباستین کورتز، صدر اعظم سابق اتریش ( بار دوم از ژانویه 2020 تا اکتبر 2021 ) که پس از آغاز تحقیقات قضایی به دلیل فساد مالی او، از سمتش استعفا داده بود، اکنون چند وقتی هست که یک شرکت امنیت سایبری به نام Dream تاسیس کرده است.
اما خبری که دیروز درباره فعالیت های شرکت Dream و یکی از تجربه های موفق آن ها منتشر شد در نوع خودش جالبه :
در واقع شرکت او موفق شده با استفاده از هوش مصنوعی یک حمله سایبری گسترده از سوی ایران را شناسایی کند
ظاهرن حمله توسط یکی از گروه های هکری وابسته به وزارت اطلاعات ایران انجام شده.
هدف اصلی، نفوذ به ایمیل سفارت عمان در پاریس بوده که از آن برای ارسال بیش از ۱۰۰ ایمیل آلوده به نهادهای دیپلماتیک در سراسر جهان استفاده شده.
به نظر می رسه که این برای اولین بار هست، که یک کمپین سایبری دولتی بهطور کامل توسط هوش مصنوعی شناسایی شده. اگر اشتباه می گم تصحیحم کنید؟
و در نهایت هم این که هدف حمله، جمعآوری اطلاعات حساس و تضعیف اعتماد در روابط دیپلماتیک بوده، برآورد شده. اما تا جایی که می دونم جزئیات بیش تری ارائه نشده است.
Please open Telegram to view this post
VIEW IN TELEGRAM
2
@ai_python
مبحث Alignment یا همان Post Training در خصوص مدل های زبانی بزرگ، در بسیاری از موارد، تکمیل کننده Pre Training خواهد بود و بسیار ضروری است.
@ai_python
پای تورچ در این پست وبلاگش سعی کرده مباحثی مانند SFT ، RLHF و DPO و ... را در خصوص Post Training مدل های زبانی بزرگ، باز کنه:
https://pytorch.org/blog/a-primer-on-llm-post-training/
مبحث Alignment یا همان Post Training در خصوص مدل های زبانی بزرگ، در بسیاری از موارد، تکمیل کننده Pre Training خواهد بود و بسیار ضروری است.
@ai_python
پای تورچ در این پست وبلاگش سعی کرده مباحثی مانند SFT ، RLHF و DPO و ... را در خصوص Post Training مدل های زبانی بزرگ، باز کنه:
https://pytorch.org/blog/a-primer-on-llm-post-training/
@ai_python
مدل جدید تولید و ویرایش تصویر به نام Gemini 2.5 Flash Image (که با نام مستعار nano-banana هم شناخته میشود) را دیگه کسی نیست که نشناسه.🍌
@ai_python
با این وجود هنوز بسیار مهمه که قابلیت های کامل مدل های مختلف را بشناسیم. پس مروری خواهیم داشت بر قابلیت های این مدل :
🍌 حفظ ظاهر شخصیتها: میتونی ظاهر یک سوژه رو در چند تصویر مختلف حفظ کنی.
🍌 ویرایش هوشمند: امکان تغییر یا اضافه کردن اشیاء به تصویر (inpainting)، گسترش تصویر (outpainting)، و تغییرات هدفمند.
🍌 ترکیب تصاویر: میتونی عناصر چند تصویر رو بهصورت هوشمند در یک تصویر واقعی ترکیب کنی.
🍌 استدلال چندرسانهای: مثلاً میتونه دستورالعملهای پیچیده روی یک دیاگرام رو دنبال کنه.
@ai_python
👩💻 برخی از اپلیکیشنهای ساختهشده با این مدل:
برنامه Past Forward: سفر در زمان با تصاویر.
برنامه Home Canvas: امتحان کردن چیدمان مبلمان.
برنامه Pixshop: ویرایشگر تصویر با هوش مصنوعی.
برنامه GemBooth: تبدیل عکس به سبک کمیک یا نقاشیهای دوره رنسانس.
مدل جدید تولید و ویرایش تصویر به نام Gemini 2.5 Flash Image (که با نام مستعار nano-banana هم شناخته میشود) را دیگه کسی نیست که نشناسه.
@ai_python
با این وجود هنوز بسیار مهمه که قابلیت های کامل مدل های مختلف را بشناسیم. پس مروری خواهیم داشت بر قابلیت های این مدل :
@ai_python
برنامه Past Forward: سفر در زمان با تصاویر.
برنامه Home Canvas: امتحان کردن چیدمان مبلمان.
برنامه Pixshop: ویرایشگر تصویر با هوش مصنوعی.
برنامه GemBooth: تبدیل عکس به سبک کمیک یا نقاشیهای دوره رنسانس.
Please open Telegram to view this post
VIEW IN TELEGRAM
با پیشرفت هوش مصنوعی، برادر ناتنی این صنعت نیز، پیشرفت خواهد کرد. (صنعت رباتیک)
👉 @ai_python 🤖
ولی آیا ما برای این پیشرفت آماده ایم؟
برای پاسخ به این سوال با سه موضوع اصلی رو به رو هستیم :
شفافیت یعنی بتوانیم بفهمیم و توضیح دهیم که چرا یک ربات تصمیم خاصی گرفته است.
👉 @ai_python 🤖
قابلیت ردیابی خطاها: وقتی ربات اشتباه میکند، باید بتوانیم بفهمیم کدام بخش سیستم باعث آن شده: دوربین، بازوی رباتیک یا مدل تصمیمگیری.
👉 @ai_python 🤖
پاسخ گویی : باید مشخص باشد چه کسی مسئول عملکرد ربات است؟! توسعهدهنده، سازنده یا کاربر ... ؟🤖 🤖
در این مقاله در لینکداین هر سه این مفاهیم بررسی شده اند :
https://www.linkedin.com/pulse/transparency-accountability-generative-ai-robotics-torqueagi-v9iic/
ولی آیا ما برای این پیشرفت آماده ایم؟
برای پاسخ به این سوال با سه موضوع اصلی رو به رو هستیم :
شفافیت یعنی بتوانیم بفهمیم و توضیح دهیم که چرا یک ربات تصمیم خاصی گرفته است.
قابلیت ردیابی خطاها: وقتی ربات اشتباه میکند، باید بتوانیم بفهمیم کدام بخش سیستم باعث آن شده: دوربین، بازوی رباتیک یا مدل تصمیمگیری.
پاسخ گویی : باید مشخص باشد چه کسی مسئول عملکرد ربات است؟! توسعهدهنده، سازنده یا کاربر ... ؟
در این مقاله در لینکداین هر سه این مفاهیم بررسی شده اند :
https://www.linkedin.com/pulse/transparency-accountability-generative-ai-robotics-torqueagi-v9iic/
Please open Telegram to view this post
VIEW IN TELEGRAM
3
Please open Telegram to view this post
VIEW IN TELEGRAM
این جدول برای اینکه یک ویو بسیار خوب از امکانات Microsoft Azure در Region های مختلف به دست بیاریم بسیار کاربردی هست و همیشه هم به روز نگه داشته می شه. این طوری دیگه با اعتماد به نفس بیشتری می تونیم در قراردادها Region سرویس رو درج کنیم :
@ai_python
https://azure.microsoft.com/de-de/explore/global-infrastructure/products-by-region/table
@ai_python
https://azure.microsoft.com/de-de/explore/global-infrastructure/products-by-region/table
این مقاله محدودیتهای بنیادی مدلهای بازیابی مبتنی بر وکتور امبدینگ را بررسی میکند، بهویژه زمانی که این مدلها با وظایف پیچیدهتر، مانند استدلال یا پیروی از دستورالعملها، روبرو میشوند.
نویسندگان نشان میدهند که تعداد زیرمجموعههای اسناد که یک وکتور امبدینگ میتواند با توجه به ابعاد Embedding بازگرداند، محدود است.
برای اثبات این موضوع، آنها یک مجموعه داده واقعگرایانه و در عین حال ساده به نام LIMIT ایجاد میکنند که مدلهای پیشرفته فعلی نیز در آن شکست میخورند، و تأکید میکنند که این محدودیتهای نظری حتی در تنظیمات عملی نیز وجود دارند.
نتیجهگیری این است که جامعه تحقیقاتی باید به این محدودیتها توجه داشته باشد و روشهای بازیابی جایگزین، مانند مدلهای چند برداری، را برای وظایف پیچیدهتر توسعه دهد.
لینک ویدیو فارسی توضیحات این مقاله : https://youtu.be/rNEl_tBJ5aE?si=Wg5LUPloe6s3noz2
لینک مقاله در آرشیو :
https://arxiv.org/pdf/2508.21038
Please open Telegram to view this post
VIEW IN TELEGRAM
بررسی بهبود مدل های زبانی بزرگ در صورت پیش بینی ترتیب توکن ها:
https://www.alphaxiv.org/pdf/2508.19228
لینک ویدیو فارسی خلاصه تولید شده توسط هوش مصنوعی از این مقاله :
https://youtu.be/YhB21n0aDrg?si=KWcMLkxrNh57Sn5W
پادکست مصنوعی فارسی مفصل تر در کانال @navidcasts در خصوص این مقاله موجود است.
Please open Telegram to view this post
VIEW IN TELEGRAM
4
این دوره مربوط به مدرک Microsoft Certified: Azure Data Scientist Associate است و برای افرادی طراحی شده که میخواهند مهارتهای علمی داده و یادگیری ماشین را در محیط Azure بهکار بگیرند. من این دوره رو به همه کسانی که قصد دارن در آینده بازار Cloud باقی بمونن توصیه می کنم :
🎯 هدف دوره :
✍️ طراحی و ایجاد محیط کاری مناسب برای پروژههای علم داده
✍️ کاوش و آمادهسازی دادهها
✍️ آموزش مدلهای یادگیری ماشین و اجرای آزمایشها
✍️ پیادهسازی پایپلاینها و آمادهسازی برای محیط عملیاتی
✍️ استقرار و پایش راهکارهای یادگیری ماشین در مقیاس بزرگ
✍️ بهینهسازی مدلهای زبانی برای ساخت اپلیکیشنهای هوش مصنوعی با Azure AI
⚡️ در واقع اون بخش مهم این دوره از نظر من اینه : ⚡️
سرویسهای Azure AI (مثل Azure AI Search و Azure AI Foundry)
توسعه اپلیکیشنهای (Generative AI) در محیط آژور
و Azure ML Studio
✍️ آزمون و گواهینامه مرتبط :
آزمون DP-100 با مدت زمان ۱۰۰ دقیقه
اعتبار مدرک: ۱۲ ماه، با امکان تمدید رایگان از طریق ارزیابی آنلاین
https://learn.microsoft.com/en-us/credentials/certifications/azure-data-scientist/?practice-assessment-type=certification
سرویسهای Azure AI (مثل Azure AI Search و Azure AI Foundry)
توسعه اپلیکیشنهای (Generative AI) در محیط آژور
و Azure ML Studio
آزمون DP-100 با مدت زمان ۱۰۰ دقیقه
اعتبار مدرک: ۱۲ ماه، با امکان تمدید رایگان از طریق ارزیابی آنلاین
https://learn.microsoft.com/en-us/credentials/certifications/azure-data-scientist/?practice-assessment-type=certification
Please open Telegram to view this post
VIEW IN TELEGRAM
Docs
Microsoft Certified: Azure Data Scientist Associate - Certifications
Manage data ingestion and preparation, model training and deployment, and machine learning solution monitoring with Python, Azure Machine Learning and MLflow.
2
مسابقه برنامهنویسی در کوئرا، فرصت همکاری با ترب
Torob Turbo: The LLM Rush
💥 تُرب توربو < Torob Turbo > چیه:
هکاتونی مسئلهمحوره که با تمرکز بر حل مسائل واقعی صنعت و بهرهگیری از مدلهای زبانی بزرگ (LLM) طراحی شده.
چرا باید توی این مسابقه شرکت کنی:
⚡️ وبینارهای تخصصی و آموزشی رایگان
🎁 ۲۵۰ میلیون تومان جوایز نقدی و جوایز غیر نقدی
🚀 فرصت همکاری با تیم ترب
✨ گواهی رسمی کوئرا و ترب
🔗 https://quera.org/r/gebvy
Torob Turbo: The LLM Rush
💥 تُرب توربو < Torob Turbo > چیه:
هکاتونی مسئلهمحوره که با تمرکز بر حل مسائل واقعی صنعت و بهرهگیری از مدلهای زبانی بزرگ (LLM) طراحی شده.
چرا باید توی این مسابقه شرکت کنی:
⚡️ وبینارهای تخصصی و آموزشی رایگان
🎁 ۲۵۰ میلیون تومان جوایز نقدی و جوایز غیر نقدی
🚀 فرصت همکاری با تیم ترب
✨ گواهی رسمی کوئرا و ترب
🔗 https://quera.org/r/gebvy
لینک مقاله در آرشیو :
https://arxiv.org/html/2509.01187v1
The paper introduces StoxLSTM, a novel stochastic extension of the xLSTM architecture for time series forecasting. By integrating stochastic latent variables into a state space modeling framework, StoxLSTM captures complex temporal patterns and uncertainties more effectively than traditional models. Extensive experiments across diverse datasets show that it consistently outperforms state-of-the-art baselines in both accuracy and robustness.
پادکست مصنوعی توضیحات به فارسی :
https://t.iss.one/navidcasts/26
ویدیو با زمان کوتاه تر از پادکست صوتی به صورت خلاصه تر و به فارسی :
https://youtu.be/xN6nFUGeXrk?si=aUGPUomtp_6yMFg1
Please open Telegram to view this post
VIEW IN TELEGRAM
2