شیطونا، دارید ریلیز میدید، خبر ندادید 👀
گوگل در سکوت و بدون اعلام رسمی، عرضه Gemini 3.0 Pro، مدل هوش مصنوعی نسل بعدی خود را آغاز کرده است.
شما فعلا در صفحه ی پلتفرم، پیامی دریافت نمیکنید.
شواهد این ارتقا چند ساعتی هست که در source code ظاهر شد،
بعضی از کاربران هم، در پلتفرم AI Studio با اعلانهای ارتقا مواجه شدند:
«ما شما را از مدل قبلی به 3.0 Pro، هوشمندترین مدل ما تا به امروز، ارتقا دادهایم».
این استراتژی عرضه پنهانی به گوگل اجازه میدهد تا دادههای عملکردی حیاتی در دنیای واقعی را پیش از عرضه گستردهتر جمعآوری کند.
این عرضه اولیه به دنبال یک دوره آزمایش کنترلشده A/B است که حدود 7 اکتبر آغاز شد و در آن به توسعهدهندگان منتخب دسترسی زودهنگام داده شد.
قدرتبخشی به جاهطلبیهای سازمانی گوگل عرضه Gemini 3.0 Pro فقط مربوط به یک مدل نیست؛ بلکه سنگ بنای استراتژی سازمانی گستردهتر گوگل است.
چیراگ دکاته، تحلیلگر گارتنر، اشاره کرد:
«اینکه گوگل چگونه بتواند از این پیامرسانی یکپارچه در روند عرضه Gemini 3.0 بهرهبرداری کند، یک آزمون حیاتی نیز خواهد بود.»
گمانهزنیها برای معرفی: حدود 22 اکتبر.
  گوگل در سکوت و بدون اعلام رسمی، عرضه Gemini 3.0 Pro، مدل هوش مصنوعی نسل بعدی خود را آغاز کرده است.
شما فعلا در صفحه ی پلتفرم، پیامی دریافت نمیکنید.
شواهد این ارتقا چند ساعتی هست که در source code ظاهر شد،
بعضی از کاربران هم، در پلتفرم AI Studio با اعلانهای ارتقا مواجه شدند:
«ما شما را از مدل قبلی به 3.0 Pro، هوشمندترین مدل ما تا به امروز، ارتقا دادهایم».
این استراتژی عرضه پنهانی به گوگل اجازه میدهد تا دادههای عملکردی حیاتی در دنیای واقعی را پیش از عرضه گستردهتر جمعآوری کند.
این عرضه اولیه به دنبال یک دوره آزمایش کنترلشده A/B است که حدود 7 اکتبر آغاز شد و در آن به توسعهدهندگان منتخب دسترسی زودهنگام داده شد.
قدرتبخشی به جاهطلبیهای سازمانی گوگل عرضه Gemini 3.0 Pro فقط مربوط به یک مدل نیست؛ بلکه سنگ بنای استراتژی سازمانی گستردهتر گوگل است.
چیراگ دکاته، تحلیلگر گارتنر، اشاره کرد:
«اینکه گوگل چگونه بتواند از این پیامرسانی یکپارچه در روند عرضه Gemini 3.0 بهرهبرداری کند، یک آزمون حیاتی نیز خواهد بود.»
گمانهزنیها برای معرفی: حدود 22 اکتبر.
کموبیش درخواستهایی میاد که چنین آگهیهایی رو در کانال بذاریم. ولی ما به دلیل عدم شناخت اون گروه یا مجموعه، در کانال منتشر نمیکنیم. اما، دوست من با این گروه چند سالی کار کرده و خروجی مقاله هم داشته. 
🚨 Open Position: AI Researcher
We are looking for passionate and motivated collaborators to join our AI Research Team!
Our work focuses on cutting-edge areas of Artificial Intelligence and Computer Vision, including: Multimodal AI, Large Vision-Language Models, Large Language Models, 3D Vision, Test-Time Domain Adaptation, Continual Learning, and Generative AI.
(Further details will be discussed during the collaboration phase.)
Our ultimate goal is to submit high-quality research papers to top-tier AI and Computer Vision conferences such as CVPR, ICCV, and NeurIPS.
🔍 Requirements
▪️Strong foundation in Machine Learning, Deep Learning, and Mathematics
▪️Hands-on experience with PyTorch
▪️Ability to dedicate sufficient time and commitment to the project
🎯 Benefits
▪️Collaborate with top international researchers
▪️Excellent opportunity to deepen your expertise and gain experience in paper preparation for top venues
▪️Access to powerful computational resources for experiments
▪️Potential opportunity to co-author papers accepted at top-tier conferences
📅 Application Deadline: November 10, 2025
📄 If you’re interested, please send your CV and fill out the following form:
👉 Application Form (https://docs.google.com/forms/d/e/1FAIpQLSea4tsAT-Hi8dUvqr2SI509Ou8__KMvyShxZXF2OMTYQ6Oa6A/viewform?usp=header).
📧 For any questions, feel free to contact me via email at [email protected] or on Telegram.
  
  🚨 Open Position: AI Researcher
We are looking for passionate and motivated collaborators to join our AI Research Team!
Our work focuses on cutting-edge areas of Artificial Intelligence and Computer Vision, including: Multimodal AI, Large Vision-Language Models, Large Language Models, 3D Vision, Test-Time Domain Adaptation, Continual Learning, and Generative AI.
(Further details will be discussed during the collaboration phase.)
Our ultimate goal is to submit high-quality research papers to top-tier AI and Computer Vision conferences such as CVPR, ICCV, and NeurIPS.
🔍 Requirements
▪️Strong foundation in Machine Learning, Deep Learning, and Mathematics
▪️Hands-on experience with PyTorch
▪️Ability to dedicate sufficient time and commitment to the project
🎯 Benefits
▪️Collaborate with top international researchers
▪️Excellent opportunity to deepen your expertise and gain experience in paper preparation for top venues
▪️Access to powerful computational resources for experiments
▪️Potential opportunity to co-author papers accepted at top-tier conferences
📅 Application Deadline: November 10, 2025
📄 If you’re interested, please send your CV and fill out the following form:
👉 Application Form (https://docs.google.com/forms/d/e/1FAIpQLSea4tsAT-Hi8dUvqr2SI509Ou8__KMvyShxZXF2OMTYQ6Oa6A/viewform?usp=header).
📧 For any questions, feel free to contact me via email at [email protected] or on Telegram.
Google Docs
  
  Open position for AI Researcher
  We are looking for a motivated and passionate researcher to join our team in exploring cutting-edge topics in Artificial Intelligence and Computer Vision.
Our current research focuses on areas such as Multimodal AI, Large Vision-Language Models, Large Language…
  Our current research focuses on areas such as Multimodal AI, Large Vision-Language Models, Large Language…
بخشی از مقدمه کتاب Machine Learning System Design:
مسیری که طی کردن، کارهایی که انجام دادن و فعالیت جدی در کگل برام جالب بود.
  نه مسیر کاری آرسنی (در بازاریابی آنلاین) و نه مسیر اولیهٔ والری (در کمومتریکس یا شیمیسنجی) در آغاز ارتباط چندانی با یادگیری ماشین (ML) نداشت. با این حال، ابزارهای ریاضی مورد استفاده در حرفهٔ ما ــ مانند مدلهای رگرسیون و تحلیل مؤلفههای اصلی ــ همان چیزهایی بودند که علاقهٔ ما را به استخراج بیشترین ارزش از دادهها برانگیخت. هر یک از ما سفر خود را در اوایل دههٔ ۲۰۱۰ آغاز کردیم؛ والری در نهایت مسئولیتهای رهبری در حوزهٔ علم داده در شرکتهایی چون فیسبوک، علیبابا، Blockchain.com و BP را بر عهده گرفت، و آرسنی مهارتهای مهندسی خود را در استارتاپهای فناورانهٔ عمیق در مراحل مختلف رشد صیقل داد.
پیش از همکاری برای نگارش این کتاب، تنها نقطهٔ اشتراک حرفهای ما شرکت در مسابقات یادگیری ماشین بود؛ جایی که مهارتهایمان را در پلتفرم Kaggle تقویت کردیم. والری به مقام Grandmaster رسید و پیشتر در میان ۳۰ نفر برتر جهان قرار داشت. آرسنی نیز Kaggle Master است و در یادگیری ماشین رقابتی تجربهٔ گستردهای دارد. هر دو نویسنده همواره تلاش میکنیم دانش و تجربهمان را از طریق سخنرانیهای عمومی در حوزهٔ ML با دیگران به اشتراک بگذاریم.
مسیری که طی کردن، کارهایی که انجام دادن و فعالیت جدی در کگل برام جالب بود.
در حال حاضر، در بخش مسابقه کگل، 380 گرندمستر، 2210 مستر و 10998 اکسپرت وجود داره!
https://www.kaggle.com/rankings/competitions
  https://www.kaggle.com/rankings/competitions
فایل زیر یک ارائه با موضوع Hands-on LLMs هست. توی سرچهای امروزم درباره LLM-ها اتفاقی این رو دیدم. نگاهی سریع بهش انداختم و به نظرم جالب اومد. چرا جالبه؟ چون سعی کردن صفر تا صدی هرچیزی که درباره LLM-ها مطرح هست رو در یک ارائه بیارن. 100 اسلاید هست. بعدا، دقیقتر بهش نگاه میندازم...
https://xcfeng.net/res/presentation/Hands-on%20Large%20Language%20Models.pdf
  
  
  
  
  
  https://xcfeng.net/res/presentation/Hands-on%20Large%20Language%20Models.pdf
یک کانالی توی یوتوب هست که سناریوهای بازی میسازه و بعد هوش مصنوعی توی اون سناریو آموزش میده. تصویر بالا مربوط به بازی فوتبال هست. جالب بود.
https://www.youtube.com/@aiwarehouse
  https://www.youtube.com/@aiwarehouse
امروز، توی ویرگول، یک بلاگ پست جالب با موضوع زیر رو خوندم:
دیدید دیگه؛ توی اپ نشان، توی مسیر سرعتگیرها رو با خطای کمی اعلام میکنه. بلافاصله بعد دیدن عنوان این پست، بهش فکر کردم که چطوری حلش کردن. یک راه حلی به ذهنم رسید و بعد رفتم بلاگ رو خوندم. حالا، شما هم اگه از نشان استفاده کردید و قابلیت سرعتگیر رو دیدید، بهش فکر کنید که چطوری برای اولین بار موقعیت سرعتگیرها رو پیدا کردن و بعدش برید وبلاگشون رو بخونید.
لینک وبلاگ (کلیک کنید!)
البته، این پست قدیمی هست. مربوط به 6 سال پیشه، ولی ارزش خوندن داره. مطالب توی ویرگول رو هم از دست ندید. مطالب خوب و آموزنده داره.
  
  با هم سرعتگیرها را پیدا کردیم. اپلیکیشن نشان
دیدید دیگه؛ توی اپ نشان، توی مسیر سرعتگیرها رو با خطای کمی اعلام میکنه. بلافاصله بعد دیدن عنوان این پست، بهش فکر کردم که چطوری حلش کردن. یک راه حلی به ذهنم رسید و بعد رفتم بلاگ رو خوندم. حالا، شما هم اگه از نشان استفاده کردید و قابلیت سرعتگیر رو دیدید، بهش فکر کنید که چطوری برای اولین بار موقعیت سرعتگیرها رو پیدا کردن و بعدش برید وبلاگشون رو بخونید.
لینک وبلاگ (کلیک کنید!)
البته، این پست قدیمی هست. مربوط به 6 سال پیشه، ولی ارزش خوندن داره. مطالب توی ویرگول رو هم از دست ندید. مطالب خوب و آموزنده داره.
ویرگول
  
  با هم سرعتگیرها را پیدا کردیم.
  در این یادداشت خیلی ساده توضیح دادم که چگونه ما در نقشه و مسیریاب نشان، با استفاده از هوش مصنوعی محل سرعتگیرها را  پیدا کردیم.
  از طرف وحید:
  
  مدت زیادی با چطور یاد گرفتن درگیر بودم و روش های زیادی از کتاب های مختلف و حتی ابداعی برای بهبود یادگیری انجام میدادم
تا بتونم به ازای زمانم در روز حداکثر بازده رو داشته باشم
دوره " یادگیری چگونگی یادگیری" از کورسرا یادگیری رو شرح میده، و روش های اثبات شده علمی رو برای بهبود یادگیری هم آموزش میده.
لینک دانلود دوره در دانلودلی موجوده با زیرنویس فارسی..
Coursera
  
  Learning How to Learn: Powerful mental tools to help you master tough subjects
  Offered by Deep Teaching Solutions. This course gives ... Enroll for free.
  مدل زبان بینایی LightOnOCR-1B
هدف، تبدیل اسناد و اطلاعات کسب و کار به فرمتی است که ماشینها بتوانند آن را درک و استفاده کنند، نه صرفاً تشخیص متن.
این مدل با سرعت بیسابقهای (حدود ۶.۴۹ برابر سریعتر از مدلهای مشابه) کار میکند و عملکردی در سطح یا بهتر از مدلهای بسیار بزرگتر عمومی دارد.
Introducing LightOnOCR-1B
  هدف، تبدیل اسناد و اطلاعات کسب و کار به فرمتی است که ماشینها بتوانند آن را درک و استفاده کنند، نه صرفاً تشخیص متن.
این مدل با سرعت بیسابقهای (حدود ۶.۴۹ برابر سریعتر از مدلهای مشابه) کار میکند و عملکردی در سطح یا بهتر از مدلهای بسیار بزرگتر عمومی دارد.
Introducing LightOnOCR-1B
از طرف سارا:
ترجمه:
  یه نوشتهی جالب دیدم امروز:
I graduated in Computer Science in the early 2000s.
When I took a Databases class, NoSQL didn't exist.
When I took a Computer Graphics class, OpenGL didn't support shaders.
When I took a Computer Security class, no one knew about botnets yet.
When I took an Artificial Intelligence class, deep learning didn't exist.
When I took a Programming Languages class, reactive programming wasn't a «thing».
When I took a Distributed Systems class, there was no Big Data or cloud computing.
When I took an Operating Systems class, hypervisors didn't exist (in PCs at least).
When I took a Networking class, there was no wifi in my laptop or internet in my phone.
Learn the fundamentals. The rest will change anyway.
ترجمه:
من اوایل دههی ۲۰۰۰ در رشتهی علوم کامپیوتر فارغالتحصیل شدم.
وقتی درس پایگاه داده میخوندم، چیزی به نام NoSQL وجود نداشت.
وقتی درس گرافیک کامپیوتری داشتم، OpenGL هنوز از شیدرها پشتیبانی نمیکرد.
وقتی درس امنیت کامپیوتر میگذروندم، هیچکس چیزی دربارهی باتنتها نمیدونست.
وقتی درس هوش مصنوعی داشتم، یادگیری عمیق هنوز به وجود نیومده بود.
وقتی درس زبانهای برنامهنویسی میخوندم، برنامهنویسی واکنشی اصلاً «چیزِ معروفی» نبود.
وقتی درس سیستمهای توزیعشده میگذروندم، نه دادههای عظیم (Big Data) وجود داشت، نه رایانش ابری.
وقتی درس سیستمعامل داشتم، هایپروایزرها (hypervisors) هنوز وجود نداشتن (حداقل توی کامپیوترهای شخصی).
و وقتی درس شبکه میخوندم، نه لپتاپم وایفای داشت، نه گوشیم اینترنت.
پایهها رو یاد بگیر. بقیهاش بالاخره عوض میشن.
دو تا مسابقه جدید و جالب در کگل! 
مسابقه اول: لینک
Recod.ai/LUC - Scientific Image Forgery Detection
دیتاست تصویری: 9 گیگابایت
مسابقه دوم: لینک
PhysioNet - Digitization of ECG Images
دیتاست: 85 گیگابایت 😬
  مسابقه اول: لینک
Recod.ai/LUC - Scientific Image Forgery Detection
تصاویر علمی بخش مهمی از پژوهشهای منتشرشده هستند، اما همهی آنها صادقانه نیستند.
به حفظ سلامت علم کمک کنید؛ با ساخت مدلهایی که بتوانند دستکاریهای تقلبی از نوع "کپی و جابهجایی" (Copy-Move Forgery) را در تصاویر بیولوژیکال شناسایی و سگمنت کنند.
دیتاست تصویری: 9 گیگابایت
مسابقه دوم: لینک
PhysioNet - Digitization of ECG Images
شما قرار است مدلهایی بسازید که بتوانند دادههای سری زمانی را از تصاویر الکتروکاردیوگرام (ECG) استخراج کنند.
ECGها برای تشخیص و هدایت درمان بیماریهای قلبی استفاده میشوند و به شکلهای مختلفی مانند پرینتهای فیزیکی، تصاویر اسکنشده، عکسها یا دادههای سری زمانی وجود دارند.
نرمافزارهای پزشکی فعلی عمدتاً برای دادههای سری زمانی دیجیتال طراحی شدهاند. بنابراین، ابزارهایی که بتوانند دادههای سری زمانی را از تصاویر ECG استخراج کنند، میتوانند میلیاردها تصویر ECG جمعآوریشده در سراسر جهان طی دهههای گذشته را به دادههای قابل استفاده برای آموزش مدلهای تشخیصی دقیقتر تبدیل کنند و در نهایت به بهبود نتایج بالینی منجر شوند.
دیتاست: 85 گیگابایت 😬
وحید درباره اجرای GPT-OSS 120 (مدل اوپن سورس OpenAI) پرسیده بود. رضا چنین جوابی بهش داد:
  تقریبا همه مدلهای سنگین تست کردم هیچکدوم به خوبی GPT-OSS 120B نیست
روی i7 12700k, 128GB ram ddr5 ، بدون gpu با سرعت 10 الی ۱۹ توکن بر ثانیه برات توکن جنریت میکنه و کارو درمیاره
ی مزیتش نسبت به جیپیتی آنلاین اینه که میتونی context window رو هرچقدر دلت میخواد زیاد کنی.. و تا ته که زیاد کنی ۷۵گیگ کلا اشغال میکنه، البته با IDE و غیره و ذلک فکر کنم، دقیقشو بخوای فردا نگاه میکنم..
ی مورد عجیب اینکه ی تعدادی از لایههای مدل انداختم روی rtx 4070Titan 16GB ولی هیییچ تاثیری تو سرعت تولید توکن نداشت برای همین همه رو انداختم رو رم و سیپییو
کلا یا باید جیپییوت انقدر ویرم داشته باشه تا کل مدل بیاد رو vram یا بیخیال جیپییو بشی..
Deep seek 70B
با سرعت ۰.۵توکن بر ثانیه رو کانفیگ ذکر شده توکن تولید میکنه! کانتکست ویندو هم تا ته زیاد کنی ۱۱۸گیگ رم اشغال میکنه
دلیل تفاوت سرعت بین این دو مدل اینه که gpt-oss از ساختار mixture of experts استفاده میکنه
Audio
    
  پادکست : بررسی خطرات امنیتی در AI Browser Agents
The glaring security risks with AI browser agents
ChatGPT Atlas is vulnerable
Prompt Injection Attacks
  The glaring security risks with AI browser agents
ChatGPT Atlas is vulnerable
Prompt Injection Attacks
امروز، مدل زبانی انکدری Jina AI رو تست کردم. 
این مدل، چند زبانی هست. با تستهایی که کردم، به نظرم عملکردش روی فارسی هم خوب هست. چند نمونه تست ساده رو در ادامه آوردم.
کدی که برای اجرای مدل در کولب نیاز دارید:
اسکور شباهت رو اسپویلر گذاشتم. به نظرم، اول خودت حدس بزن و بعد اسکور رو نگاه کن.
نمونه 1: جملات مشابه از نظر معنا
score:0.84 
نمونه 2: جملات متضاد
score:0.55 
نمونه 3: جملات یکسان با کلمات متفاوت (پارافریز)
score:0.8 
نمونه 4: جملات کاملا غیرمرتبط
score:0.11 
نمونه 5: تشابه چندزبانه
score:0.89 
  این مدل، چند زبانی هست. با تستهایی که کردم، به نظرم عملکردش روی فارسی هم خوب هست. چند نمونه تست ساده رو در ادامه آوردم.
کدی که برای اجرای مدل در کولب نیاز دارید:
from transformers import AutoModel
# Initialize the model
model = AutoModel.from_pretrained("jinaai/jina-embeddings-v3", trust_remote_code=True)
texts = [
...
]
embeddings = model.encode(texts, task="text-matching")
# Compute similarities
print(embeddings[0] @ embeddings[1].T)
اسکور شباهت رو اسپویلر گذاشتم. به نظرم، اول خودت حدس بزن و بعد اسکور رو نگاه کن.
نمونه 1: جملات مشابه از نظر معنا
texts = [
"هوا امروز خیلی گرمه.",
"دمای امروز بالاست و حسابی گرم شده."
]
score:
نمونه 2: جملات متضاد
texts = [
"من امروز حالم خیلی خوبه.",
"امروز خیلی ناراحتم."
]
score:
نمونه 3: جملات یکسان با کلمات متفاوت (پارافریز)
texts = [
"او به دانشگاه رفت.",
"او به محل تحصیلش رفت."
]
score:
نمونه 4: جملات کاملا غیرمرتبط
texts = [
"دیروز فوتبال دیدم.",
"سیبزمینی سرخکرده خیلی خوشمزست."
]
score:
نمونه 5: تشابه چندزبانه
texts = [
"من عاشق یادگیری هوش مصنوعی هستم.",
"I love learning artificial intelligence."
]
score:
  PyTorch Howsam
امروز، مدل زبانی انکدری Jina AI رو تست کردم.  این مدل، چند زبانی هست. با تستهایی که کردم، به نظرم عملکردش روی فارسی هم خوب هست. چند نمونه تست ساده رو در ادامه آوردم.  کدی که برای اجرای مدل در کولب نیاز دارید: from transformers import AutoModel  # Initialize…
  
با همین مدل، بدون هرگونه آموزش/فاین-تیون، کامنتهای دیجیکالا رو گروهبندی کردم. توی دیجیکالا، این امکان وجود داره که کامنتها رو براساس یکسری مولفه فیلتر کنی (تصویر بالا). من هم اون فیلترها رو برداشتم و کامنتها رو فیلتر کردم. 
دیتاست دیجیکالا هم توی کگل هست. سر کلاس، همیشه میگم که روی این دیتاستها کار کنید. تازه دیتاستهای خوب دیگهای هم از شرکتهای بزرگ ایران در کگل هست. لینک
  دیتاست دیجیکالا هم توی کگل هست. سر کلاس، همیشه میگم که روی این دیتاستها کار کنید. تازه دیتاستهای خوب دیگهای هم از شرکتهای بزرگ ایران در کگل هست. لینک
  PyTorch Howsam
با همین مدل، بدون هرگونه آموزش/فاین-تیون، کامنتهای دیجیکالا رو گروهبندی کردم. توی دیجیکالا، این امکان وجود داره که کامنتها رو براساس یکسری مولفه فیلتر کنی (تصویر بالا). من هم اون فیلترها رو برداشتم و کامنتها رو فیلتر کردم.   دیتاست دیجیکالا هم توی کگل…
نحوه کار هم خیلی ساده هست:
1. کامنتها رو تبدیل به بردار امبدینگ میکنی.
2. گروهها رو تبدیل به بردار امبدینگ میکنی.
3. میزان شباهت بین کامنتها و گروهها رو میسنجی.
4. شبیهترینها رو از هر گروه انتخاب میکنی و نمایش میدی.
خروجی زیر برای 1000 تا کامنت هست:
نتیجه واقعا بد نیست. دقت کن که بدون آموزش/فاین-تیون بوده. یک مورد جالب هم دیدم که توی نتایج بالا نیست. کامنت "کار راه اندازه" رو توی گروه "ابعاد یا سایز" گذاشته بود. 😁 جالبه که این مدلها قابلیت Context Embedding دارن و میتونن بردار یک توکن رو باتوجه به معنی اون در جمله بسازن. ولی بازهم اشتباهات این شکلی رو میبینیم.
  1. کامنتها رو تبدیل به بردار امبدینگ میکنی.
2. گروهها رو تبدیل به بردار امبدینگ میکنی.
3. میزان شباهت بین کامنتها و گروهها رو میسنجی.
4. شبیهترینها رو از هر گروه انتخاب میکنی و نمایش میدی.
خروجی زیر برای 1000 تا کامنت هست:
🔹 Closest to 'اصالت کالا':
- کالا سالم جنس خوب تحویل به موقع قیمت مناسب (score=0.611)
- هدیه خریدم (score=0.525)
- جنس نسبتا خوبی داره، قیمتش مناسبه و خوب کش میاد (score=0.510)
🔹 Closest to 'کیفیت و کارایی':
- کیفیت عالیی (score=0.709)
- کیفیت خوب (score=0.688)
- کیفیت مناسب..سپاس (score=0.659)
🔹 Closest to 'قیمت و ارزش خرید':
- به نسبت قیمت ارزش خرید داره (score=0.871)
- ارزش خرید داره نسبت به قیمتش (score=0.817)
- با این قیمت ارزش خرید داره. (score=0.775)
🔹 Closest to 'ابعاد یا سایز':
- واسع سایزش میترسیدم ک خداروشکر اندازه شد (score=0.511)
- سایز کفش با توجه به جدول یک سایز بزرگتره (score=0.510)
- خوب بود اندازه مناسب. (score=0.500)
🔹 Closest to 'شباهت یا مغایرت':
- غیر اصل (score=0.502)
- خیلی خوشرنگ تر از چیزیه ک بنظر میاد (score=0.431)
- خیلی نازه دقیقا شبیه عکسیه که دیجی گذاشته
(score=0.430)
نتیجه واقعا بد نیست. دقت کن که بدون آموزش/فاین-تیون بوده. یک مورد جالب هم دیدم که توی نتایج بالا نیست. کامنت "کار راه اندازه" رو توی گروه "ابعاد یا سایز" گذاشته بود. 😁 جالبه که این مدلها قابلیت Context Embedding دارن و میتونن بردار یک توکن رو باتوجه به معنی اون در جمله بسازن. ولی بازهم اشتباهات این شکلی رو میبینیم.
  PyTorch Howsam
نحوه کار هم خیلی ساده هست: 1. کامنتها رو تبدیل به بردار امبدینگ میکنی. 2. گروهها رو تبدیل به بردار امبدینگ میکنی.  3. میزان شباهت بین کامنتها و گروهها رو میسنجی.  4. شبیهترینها رو از هر گروه انتخاب میکنی و نمایش میدی.   خروجی زیر برای 1000 تا کامنت…
  
در ادامه کار دیروز، بخشی از کامنتهای دیجیکالا رو با HDBSCAN کلاستر کردم. نتیجه کلاسترینگ رو در دو بعد با Plotly نمایش دادم. تصویر بالا، نتیجه کلاسترینگ رو نشون میده. 
چرا Plotly؟ چون نمودار تعاملی میده. میتونی Zoom و Hover کنی. با حرکت روی سمپلها میشه، متن کامنت هر سمپل رو هم خوند.
من این پروژه رو برای کلاسم در شرکت داتین ساختم. دوست داشتم یک ویدئوی یوتوب براش ضبط کنم، ولی بعد کلی زحمت بازدید نمیخوره، انگیزه آدم میخشکه! پروژه سختی نیست. اگه خواستید درمورد این کار بیشتر بدونید، فصل 5 کتاب Hands-on LLMs رو بخونید.
کامنتهای دیجیکالا واقعا جالب هستن. دائما دیدگاههای جالبی از افراد میخونی. آخه "بهترین گزینه در بین بدترینها" یعنی چی؟ 😁
  چرا Plotly؟ چون نمودار تعاملی میده. میتونی Zoom و Hover کنی. با حرکت روی سمپلها میشه، متن کامنت هر سمپل رو هم خوند.
من این پروژه رو برای کلاسم در شرکت داتین ساختم. دوست داشتم یک ویدئوی یوتوب براش ضبط کنم، ولی بعد کلی زحمت بازدید نمیخوره، انگیزه آدم میخشکه! پروژه سختی نیست. اگه خواستید درمورد این کار بیشتر بدونید، فصل 5 کتاب Hands-on LLMs رو بخونید.
کامنتهای دیجیکالا واقعا جالب هستن. دائما دیدگاههای جالبی از افراد میخونی. آخه "بهترین گزینه در بین بدترینها" یعنی چی؟ 😁
Audio
    
  زمان : 20 دقیقه
این مقاله از IBM پژوهشی جدید را معرفی میکند که نقاط کور فرهنگی مدلهای هوش مصنوعی، بهویژه مدلهای زبان بزرگ (LLMs)، را آشکار میسازد.
این تحقیق بر روی «تعارف» تمرکز دارد، که یک عمل ظریف و پیچیده در آدابدانی فارسی است که در آن معنای کلمات اغلب با نیت واقعی متفاوت است. محققان ابزاری به نام TaarofBench ساختند که شامل ۴۵۰ سناریوی نقشآفرینی روزمره است و نشان میدهد که مدلهای پیشرفته هوش مصنوعی در درک ظرافتهای فرهنگی این تعاملات به شدت ضعیف هستند و مانند غیربومیها عمل میکنند.
این مطالعه همچنین سوگیریهای جنسیتی را در پاسخهای مدلها نشان داد، که اغلب پاسخها را بر اساس کلیشهها توجیه میکردند، حتی زمانی که تعارف بهطور مساوی برای همه جنسیتها اعمال میشود.
نویسندگان هشدار میدهند که این شکستهای قابلیتهای عملیاتی فرهنگی میتواند منجر به سوءتفاهمهای پرخطر در سناریوهایی مانند خدمات مشتری یا مذاکرات تجاری شود، که نشاندهنده نیاز به دادههای آموزشی با کیفیت بالاتر برای تقویت آگاهی فرهنگی هوش مصنوعی است.
Persian Politeness Test AI Cant Pass
  این مقاله از IBM پژوهشی جدید را معرفی میکند که نقاط کور فرهنگی مدلهای هوش مصنوعی، بهویژه مدلهای زبان بزرگ (LLMs)، را آشکار میسازد.
این تحقیق بر روی «تعارف» تمرکز دارد، که یک عمل ظریف و پیچیده در آدابدانی فارسی است که در آن معنای کلمات اغلب با نیت واقعی متفاوت است. محققان ابزاری به نام TaarofBench ساختند که شامل ۴۵۰ سناریوی نقشآفرینی روزمره است و نشان میدهد که مدلهای پیشرفته هوش مصنوعی در درک ظرافتهای فرهنگی این تعاملات به شدت ضعیف هستند و مانند غیربومیها عمل میکنند.
این مطالعه همچنین سوگیریهای جنسیتی را در پاسخهای مدلها نشان داد، که اغلب پاسخها را بر اساس کلیشهها توجیه میکردند، حتی زمانی که تعارف بهطور مساوی برای همه جنسیتها اعمال میشود.
نویسندگان هشدار میدهند که این شکستهای قابلیتهای عملیاتی فرهنگی میتواند منجر به سوءتفاهمهای پرخطر در سناریوهایی مانند خدمات مشتری یا مذاکرات تجاری شود، که نشاندهنده نیاز به دادههای آموزشی با کیفیت بالاتر برای تقویت آگاهی فرهنگی هوش مصنوعی است.
Persian Politeness Test AI Cant Pass