VIRSUN
7.96K subscribers
1.36K photos
775 videos
5 files
860 links
📥 در کانال @rss_ai_ir هر روز: 🔹 جدیدترین خبرهای AI و فناوری
🗯اولویت ما هوش مصنوعی در صنعت میباشد اما نیم نگاهی به موارد دیگر در این زمینه داریم

ارتباط با ادمین 1:
@Ad1_rss_ai_ir

آدرس گروه
https://t.iss.one/rss_ai_ir_group
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
🪞وقتی واقعیت در آینه یک جهان تازه می‌سازد

دنیای اسکن سه‌بعدی و Gaussian Splats این روزها وارد مرحله‌ای شده که بیشتر شبیه جادوی بصری است.
تصویری که می‌بینید نه یک اتاق واقعی پشت در و نه محیطی است که با دوربین موبایل قدم‌به‌قدم وارد آن شده باشید—این یک جهان درون آینه است؛ جایی که فضا بازسازی می‌شود، اما با حال‌وهوای محو و تکه‌تکهٔ مخصوص «زَزِرکانه».

🌫️ ویژگی خاص این دنیا:
مرز واقعیت و بازسازی دیجیتال از هم می‌لغزد؛ همه‌چیز طبیعی است اما کمی روان، کمی محو، کمی عجیب… دقیقاً همان‌طور که انتظار می‌رود یک جهان پشت آینه باشد.

نتیجه؟
ترکیبی از هنر، ریاضیات، بینایی کامپیوتری و خلاقیتی که فقط تکنیک Gaussian Splats قادر به خلق آن است.
من شخصاً از کیفیت و حسِ فضاسازی این کارها واقعاً شگفت‌زده شدم.

اگر می‌خواهید خودتان وارد این زَزِرکاله سه‌بعدی شوید و در آن قدم بزنید، لینک تجربه همان است که همه را شگفت‌زده کرده:

🔗 https://superspl.at/view?id=0feb4c5c

@rss_ai_ir
#هوش_مصنوعی #سه‌بعدی #GaussianSplats #3DScan #RealityCapture #کامپیوتر_ویژن #AI
😁1
This media is not supported in your browser
VIEW IN TELEGRAM
🌍 مدل WorldGen؛ نسل بعدی ساخت جهان‌های سه‌بعدی
متا رسماً وارد بازی «خدای 3D» شده است.

اگر Marble و Genie فقط «تصویر از یک دوربین» می‌دادند، WorldGen یک قدم جلوتر است:
یک تکه واقعی از جهان سه‌بعدی — حدود ۵۰×۵۰ متر فضای قابل پیمایش — که می‌توانید مستقیماً داخل Unity یا Unreal بندازید و مثل یک محیط بازی واقعی استفاده کنید.

🔥 چرا WorldGen متفاوت است؟
چون این دیگر نه Gaussian Splats است و نه ویدئو.
🔹 مش واقعی (3D Mesh)
🔹 ساختار هندسی کامل
🔹 قابل استفاده در موتورهای بازی‌سازی
🔹 جهان قابل ناوبری (Navmesh-ready)

متا خودش می‌گوید WorldGen ترکیبی از 3 چیز است:

1. روش‌های پروسیجرال
2. دیفیوژن برای تولید 2D
3. بازسازی کامل 3D بر اساس آبجکت‌ها



نتیجه؟
جهان‌هایی پایدار، قابل راه‌رفتن، قابل رندر و مناسب برای:
🎮 بازی‌ها
🤖 شبیه‌سازها
🌐 محیط‌های اجتماعی و VR


---

🔧 Pipeline چهار مرحله‌ای WorldGen

(1) Planning – برنامه‌ریزی
▫️ ساخت پروسیجرال بلوک‌ها
▫️ استخراج Navmesh
▫️ تولید تصاویر مرجع

(2) Reconstruction – بازسازی
▫️ تبدیل تصویر به 3D
▫️ تولید صحنه براساس Navmesh
▫️ ساخت بافت اولیه

(3) Decomposition – تجزیهٔ صحنه
▫️ استخراج قطعات با AutoPartGen
▫️ پاک‌سازی و سازمان‌دهی داده

(4) Refinement – پالایش نهایی
▫️ ارتقای کیفیت تصویر
▫️ اصلاح مش
▫️ تکسچرینگ نهایی


---

🚨 اما خبر بد؟

اینکهWorldGen فعلاً محصول نیست.
متا هنوز روی سرعت تولید و ساخت جهان‌های بزرگ‌تر کار می‌کند (فعلاً خیلی کند است).

اما خروجی‌های اولیه شگفت‌انگیزند — ویدیوی دمو را اینجا ببینید:
🔗 https://www.uploadvr.com/meta-worldgen-ai-generates-3d-worlds/

به‌ظاهر، متا می‌خواهد Minecraft + Unreal + AI را یک‌جا ترکیب کند.
سال ۲۰۲۵ احتمالاً سال متولد شدن GenAI-Worlds خواهد بود.

@rss_ai_ir
#متاورس #WorldGen #MetaAI #3DGeneration #Unity #Unreal #AI #GameDev #GenerativeAI
مدل MSRNet؛ شبکهٔ چندمقیاسی بازگشتی برای آشکارسازی اشیای استتار‌شده
@rss_ai_ir

تشخیص اشیایی که عمداً در محیط «محو» شده‌اند همیشه یکی از سخت‌ترین چالش‌های بینایی ماشین بوده است.
مدل MSRNet با ترکیب Pyramid Vision Transformer و Recursive Feature Refinement توانسته یک جهش جدی ایجاد کند و در بنچمارک‌ها به State-of-the-Art برسد.

🔍 چرا MSRNet مهم است؟

✳️عملکرد عالی روی اجسام کوچک و چندگانه

✳️تقویت چندمرحله‌ای ویژگی‌ها با معماری بازگشتی

✳️یادگیری پایدارتر و دقت بالاتر نسبت به مدل‌های قبلی

✳️مناسب برای کاربردهایی مثل: نظارت، رباتیک، پزشکی و تحلیل حیات‌وحش


📅 تاریخ انتشار: ۱۶ نوامبر
📄 لینک مقاله:
arXiv: https://arxiv.org/abs/2511.12810
PDF: https://arxiv.org/pdf/2511.12810

🤗 مدل‌های منتشرشده:
https://huggingface.co/linaa98/MSRNet


---

#CamouflagedObjectDetection #MSRNet #ObjectDetection #ComputerVision #DeepLearning #VisionTransformer #AIResearch #NeuralNetworks
🔥1🙏1👌1
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ مدل Flux 2 رسماً منتشر شد – ارتقای بزرگ در نسل تصویر
@rss_ai_ir

مدل Flux 2 با یک آپدیت سنگین برگشته و حالا دقیق‌تر، واقع‌گراتر و بسیار توانمندتر شده است.

چه چیزهایی بهتر شده؟

♻️پشتیبانی همزمان از ۱۰ رفرنس

♻️درک بسیار بهتر از نور، متریال‌ها و اپتیک

♻️رندر دقیق‌تر و طبیعی‌تر متن

♻️خروجی با کیفیت ۴K واقعی

♻️تصاویر نرم‌تر، واقع‌گراتر و بدون «براقی پلاستیکی»

♻️امکان ترکیب، ویرایش و ژنریشن چندمرحله‌ای


🖥️ اجرای محلی هم کاملاً ممکن است
وزن‌ها باز هستند و با حدود ۶۵ گیگابایت می‌توانید مدل را روی سیستم خود اجرا کنید.

🟠 دمو:
https://playground.bfl.ai/image/generate

🟠 وزن‌ها:
https://huggingface.co/black-forest-labs

🟠 FLUX.2-dev در HF:
https://huggingface.co/black-forest-labs/FLUX.2-dev


---

#Flux2 #AI #ImageGeneration #AIGraphics #GenerativeAI #BlackForestLabs #DiffusionModels
👏5👍1🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
📌 قدرت سگ‌ربات‌های جدید واقعاً شگفت‌انگیز شده است
@rss_ai_ir

ربات‌های چهارپا حالا به مرحله‌ای رسیده‌اند که توان، چابکی و کنترل آن‌ها جدی‌تر از هر زمان دیگری است. حرکاتی که چند سال پیش فقط در آزمایشگاه‌ها دیده می‌شد، امروز با دقت و ثبات بالا انجام می‌شود — از پرش و دویدن گرفته تا حمل بار و انجام کارهای صنعتی.

این سطح از قدرت یعنی:
💥 ورود جدی ربات‌ها به عملیات امداد، امنیت، بازرسی صنعتی
💥 توان انجام کارهایی که برای انسان خطرناک یا غیرممکن است
💥 گام بزرگ به سمت ربات‌های خودمختار در مقیاس وسیع

دنیای رباتیک واقعاً با سرعت باور نکردنی در حال تغییر است.

#رباتیک #هوش_مصنوعی #RobotDog #AI #Automation #FutureTech
🔥21🤯1👌1🌚1
This media is not supported in your browser
VIEW IN TELEGRAM
@rss_ai_ir

🍓 مدل MotionV2V — ویرایش حرکت در ویدئو با دقت بی‌سابقه 🍓

گوگل سیستم MotionV2V را معرفی کرد؛ روشی نوین برای ویرایش حرکت در ویدئو که به‌جای تغییر کل فریم، مستقیماً تفاوت حرکت بین ویدئوی اصلی و نسخه ویرایش‌شده را کنترل می‌کند.

این مدل بر پایه دیفیوشن کار می‌کند و امکان می‌دهد که:
حرکت یک فرد تغییر کند، بدون تغییر ظاهر
سرعت، جهت، یا شدت حرکت اصلاح شود
حرکت کاملاً جدید روی ویدئو اعمال شود
ویدئوهای ادیت‌شده، طبیعی و منسجم باقی بمانند

نتیجه؟
ویدئوهایی با حرکت‌های کاملاً کنترل‌شده، بدون artifacts و بدون پرش‌های عجیب.

🔗 لینک‌ها:

👉 Paper:
https://arxiv.org/pdf/2511.20640
👉 Project Page:
https://ryanndagreat.github.io/MotionV2V/
👉 GitHub (به‌زودی):
https://github.com/RyannDaGreat/MotionV2V

#MotionEditing #VideoAI #DiffusionModels #GoogleAI #GenerativeAI #DeepLearning
👍1🔥1
@rss_ai_ir

تشخیص تصاویر مصنوعی با گرادیان‌فیلدها — یک روش ساده و شگفت‌انگیز! 💡

در دنیایی که مدل‌های دیفیوشن هر روز واقعی‌تر می‌شوند، پیدا کردن یک روش ساده، سبک و قابل‌توضیح برای تشخیص عکس واقعی از مصنوعی واقعاً طلاست. این تکنیک دقیقاً همین کار را می‌کند 👇

🔍 ایده اصلی
با انجام یک تحلیل ساده روی گرادیان روشنایی تصویر و سپس استفاده از PCA، یک جداسازی پایدار بین:

📸 عکس‌های واقعی

🎨 تصاویر ساخته‌شده با دیفیوشن
به‌دست می‌آید.


🧠 چرا جواب می‌دهد؟

تصاویر واقعی، گرادیان‌هایی دارند که با نورپردازی فیزیکی و رفتار سنسور دوربین سازگار است؛ منسجم و طبیعی.

تصاویر دیفیوشن به‌دلیل فرآیند denoising دارای جزئیات ناپایدار و بافت‌های فرکانس‌بالا هستند که ساختگی بودن را لو می‌دهد.


🧮 مراحل کار (فقط چند قدم ساده):

1. تبدیل RGB → luminance


2. محاسبه spatial gradients


3. تبدیل گرادیان‌ها به ماتریس فلت‌شده


4. محاسبه covariance


5. انجام PCA و مشاهده جداسازی واضح در یک تصویر



🎯 نتیجه
بدون مدل طبقه‌بندی، بدون متادیتا، بدون شبکه عصبی — فقط با ریاضی پایه و تحلیل گرادیان‌ها می‌توان به‌راحتی تشخیص داد تصویر واقعی است یا مصنوعی. یک ابزار عالی برای پژوهشگران بینایی‌ماشین و متخصصان امنیت داده.

#SyntheticDetection #GradientFields #PCA #ComputerVision #DeepLearning #AIForensics @rss_ai_ir
5👍1🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Smell Like Vision Spirit 🔥
@rss_ai_ir

👉 دیتاست New York Smells یک دیتاست بزرگ و جدید از ترکیب همزمان تصویر و داده‌های بویایی است که امکان یادگیری کراس‌مودال بین بو و بینایی را فراهم می‌کند.
👉 با چراغ خاموش هم شاید «کم‌خطرتر» باشد، اما حالا AI می‌تواند بو را هم بفهمد!
👉 دیتاست در دسترس است.


🔗 Paper:
https://arxiv.org/pdf/2511.20544
🔗 Project:
https://smell.cs.columbia.edu/

#AI #Multimodal #Dataset #SmellAI #DeepLearning @rss_ai_ir
👍3🔥1👏1
⚡️مجموعه NVIDIA نسخه FP4 مدل DeepSeek V3.1 را روی HuggingFace منتشر کرد

@rss_ai_ir

انویدیا نسخه‌ی کوانت‌شده FP4 از مدل DeepSeek V3.1 را منتشر کرد — و این یعنی سرعت بالاتر، مصرف حافظه کمتر، و همچنان کیفیت بسیار خوب متن.

🔹 مزیت اصلی FP4:
کمترین سطح کوانتیزاسیون بدون افت جدی کیفیت،
به‌خصوص وقتی با TensorRT-LLM اجرا شود.

🔹 نتیجه؟
• حافظه کمتر 🟢
• سرعت بیشتر 🟢
• عملکرد تقریباً هم‌سطح نسخه کامل 🟢

Hugging Face:

https://huggingface.co/nvidia/DeepSeek-V3.1-NVFP4

#NVIDIA #DeepSeek #LLM #FP4 #TensorRT @rss_ai_ir
🔥41👍1👏1
This media is not supported in your browser
VIEW IN TELEGRAM
ویسِ چت‌جی‌پی‌تی مستقیم داخل همان چت فعال شد!
@rss_ai_ir 🎤🤖

از حالا می‌توانید بدون هیچ سوییچ یا مود جداگانه، فقط شروع کنید به صحبت‌کردن — چت‌جی‌پی‌تی هم‌زمان با حرف‌زدن شما پاسخ می‌دهد!

ویژگی‌های نسخه جدید:
🔹 ویس مستقیماً داخل همان پنجرهٔ چت
🔹 پاسخ‌ها در لحظه روی متن ظاهر می‌شوند
🔹 می‌توانید هم‌زمان اسکرول کنید، پیام‌های قبلی را ببینید
🔹 تصاویر، نقشه‌ها و ویژوال‌ها در لحظه نمایش داده می‌شوند
🔹 روی موبایل و وب فعال می‌شود
🔹 فقط کافی‌ست اپ را آپدیت کنید

این دقیقاً همان تجربهٔ یک دستیار شخصی لحظه‌ای است.
هوش مصنوعی که هم می‌بیند، هم می‌شنود، هم حرف می‌زند — و همه‌چیز در یک پنجره.

#ChatGPT #VoiceAI #AIUX #AIAssistant @rss_ai_ir
👍32🔥1👏1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Seeing without Pixels —
دیدن بدون پیکسل‌ها! 🔥
@rss_ai_ir 👁️‍🗨️🤖

⛔️آیا می‌شود محتوای یک ویدئو را بدون دیدن حتی یک پیکسل فقط از مسیر حرکت دوربین حدس زد؟
پژوهش تازهٔ DeepMind و دانشگاه تگزاس برای اولین بار این سؤال غیرممکن‌به‌نظر را به‌صورت علمی بررسی کرده است.
🔗 Paper: arxiv.org/pdf/2511.21681
🔗 Project: sites.google.com/view/seeing-without-pixels

#AI #Deepmind #ComputerVision #Research @rss_ai_ir
1🥰1
مجموعه Disney Research الگوریتمی ساخت که به روبات‌های انسان‌نما یاد می‌دهد «بی‌خطر و نرم» زمین بخورند!
@rss_ai_ir 🤖🟡

دیزنی روباتی را آموزش داده که مثل یک بدل‌کار حرفه‌ای سقوط کند؛ بدون آسیب، کنترل‌شده و حتی با حرکات زیبای فرود!

💥 چطور کار می‌کند؟
هزاران نسخهٔ دیجیتالی روبات در شبیه‌ساز میلیون‌ها بار زمین خوردند و الگوریتم برای هر سقوط کم‌خطر امتیاز گرفت. سپس بهترین استراتژی‌ها به روبات واقعی منتقل شد.

🦾 نتیجه؟
روبات در آزمایش‌ها بارها هل داده شد و افتاد، اما هیچ آسیبی ندید — هر بار با حرکتی نرم و کنترل‌شده فرود آمد.

این فناوری مسیر را برای نسل جدیدی از گومانویدهای مقاوم، ایمن و طولانی‌عمر باز می‌کند.

https://robotunion.ru/media/news/tpost/xbezl9zkf1-disney-prokachal-dvunogih-robotov-chtobi


#DisneyResearch #Robotics #ReinforcementLearning #HumanoidRobots #AI @rss_ai_ir
🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️مدل Gemini حالا می‌تواند اینفوگرافیک تعاملی بسازد!

یکی از خفن‌ترین آپدیت‌ها:
چت‌بات می‌تواند اینفوگرافیک‌های پیچیده و کاملاً تعاملی تولید کند — از ساختار یک سلول تا اجزای یک هواپیما ✈️🧬

🔹 روی هر بخش می‌توان کلیک کرد و توضیح کامل گرفت
🔹 مناسب آموزش، تحلیل، ارائه و یادگیری عمیق
🔹 برای همه کاربران در حال فعال‌سازی است

همین حالا تست کنید — فوق‌العاده است!
🔗 Try it here

#Gemini #GoogleAI #Infographics #InteractiveLearning #AI #TechNews @rss_ai_ir
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
STARFlow-V:
نسل تازه مدل‌های ویدئو با Normalizing Flow
@rss_ai_ir 🎥

مدل STARFlow-V یک مدل کاملاً End-to-End برای تولید ویدئو است که بر پایه‌ی Normalizing Flow ساخته شده — رویکردی که معمولاً کمتر در ویدئو استفاده می‌شود، اما حالا نتایج فوق‌العاده‌ای نشان داده است.

🔹 کیفیت بصری بالا + پیوستگی زمانی عالی
🔹 پیش‌بینی علّی (causal prediction) پایدار
🔹 معماری Global–Local Latent
🔹 استفاده از Flow-Score Matching
🔹 قدمی مهم برای ورود Flow Models به دنیای Video Gen

📄 Paper: arxiv.org/abs/2511.20462
🌐 Project: starflow-v.github.io
💻 Code: github.com/apple/ml-starflow

#VideoGeneration #NormalizingFlow #GenerativeAI #DeepLearning #ML @rss_ai_ir
🥰1
🖥 مجموعه OpenAI و جانی آیو؛ تولد نسل جدید دستگاه‌های شخصی هوش مصنوعی
@rss_ai_ir 🤖📱

اینکهOpenAI نخستین پروتотип‌های دستگاه هوش مصنوعی همیشه‌فعال خود را با همکاری جانی آیو — طراح افسانه‌ای iPhone — تکمیل کرده است. محصول نهایی طی دو سال آینده عرضه می‌شود.

ایده چیست؟
یک دستیار شخصی دائماً حاضر که بین انسان و دنیای شلوغ گوشی‌های هوشمند قرار می‌گیرد. نه اپلیکیشن‌ها، نه اعلان‌های بی‌پایان — فقط یک تعامل طبیعی با یک عامل هوشمند که همه چیز را درباره شما می‌داند و یادتان می‌ماند.

🎨 نقش جانی آیو
او مسئول طراحی فرم، متریال و تجربه کاربری دستگاه است؛ همان کاری که روزی با iPhone انجام داد و یک دوران جدید ساخت.

🤖 توانایی‌های دستگاه

♻️درک کامل زمینه و سابقه کاربر
♻️فیلتر کردن نویز دیجیتال و اعلان‌ها
♻️گفت‌وگوی طبیعی به‌جای جابه‌جایی بین ده‌ها اپ
♻️ادغام عمیق با پیام‌ها، اسناد، صداها و حتی افکار قبلی کاربر


⚙️ زیرساخت
اینکه OpenAI این محصول را با همکاری Foxconn توسعه می‌دهد — همان شرکتی که از سرور تا تجهیزات خنک‌سازی را برای دیتاسنترهای غول‌آسا می‌سازد.
ترکیب سخت‌افزار شخصی + زیرساخت عظیم یک اکوسیستم کامل را ایجاد می‌کند.

📉 فشار بر اپل
در حالی که iPhone و Siri درگیر مدل‌های قدیمی هستند، OpenAI می‌خواهد هویت جدیدی برای دستگاه‌های محاسبات شخصی بسازد؛ جایی که مدل زبانی مرکز همه‌چیز است.
https://cnbc.com/2025/11/24/openai-hardware-jony-ive-sam-altman-emerson-collective.html

#OpenAI #ChatGPT #AIdevice #JonyIve #FutureComputing #AIRevolution @rss_ai_ir
🔥1
🌟 یک خبر تاریخی در دنیای AGI!
برای اولین‌بار یک سیستم هوش مصنوعی توانست روی ARC-AGI-2 عملکردی فراتر از انسان ثبت کند.

آزمایشگاه Poetiq روشی جدید طراحی کرده که در آن چند مدل LLM را به‌صورت ترکیبی و هماهنگ کنار هم قرار می‌دهد تا توانایی reasoning آن‌ها چند برابر شود.

۲۰ نوامبر، تیم اعلام کرد که ترکیب Gemini 3 + GPT-5.1 توانسته روی ARC-AGI-2 public eval رکوردی ثبت کند که از سطح انسانی بالاتر است.

⚠️ اما نکته مهم:

این نتیجه روی نسخه عمومی تست ثبت شده.
روی نسخه نیمه‌خصوصی (semi-private) احتمالاً امتیاز پایین‌تر خواهد شد.

با این حال، این پیشرفت شگفت‌انگیز است؛ چون:

♻️به‌تنهایی Gemini 3 حدود ۴۵٪ می‌گیرد

♻️وGPT-5.1 فقط حدود ۲۰٪

♻️و تا چند ماه پیش بهترین مدل‌ها ۱ تا ۲٪ بودند!

♻️اینکه ARC-AGI-2 عملاً غیرقابل‌حل به‌نظر می‌رسید


اما حالا یک ترکیب هوشمندانه از چند مدل توانسته از مرز انسانی عبور کند.

لینک‌ها:
🔗 بلاگ‌پست
🔗 کد

#هوش_مصنوعی #AGI #ARC_AGI #Gemini3 #GPT5 #Poetiq #AI_research
👍3
⚡️ ارزیابی Anthropic از اثر کمک‌یارهای هوش مصنوعی بر بهره‌وری واقعی

اینکه Anthropic با تحلیل ۱۰۰ هزار دیالوگ واقعی با Claude تلاش کرده تخمین بزند که هوش مصنوعی در عمل چقدر زمان کار را کاهش می‌دهد — نه در تست‌های آزمایشگاهی، بلکه در وظایف واقعی کاربران.

🔍 نتایج کلیدی

رشد بهره‌وری بالقوه ۱.۸٪ سالانه — تقریباً دو برابر نرخ رشد اخیر آمریکا.

روش اندازه‌گیری: مقایسهٔ زمانِ معمول اجرای یک وظیفه توسط متخصص‌ها ↔️ زمان انجام همان کار در چت.

میانگین صرفه‌جویی زمانی: ۸۰٪ در هر کار.

بیشترین سود برای نقش‌های با دستمزد بالا:
👨‍💻 توسعه‌دهندگان
⚖️ وکلا
👔 مدیران

کارهای پیچیده‌ی ۲ساعته بیشترین کاهش زمان را تجربه کردند.

مشاغل کم‌درآمد (لجستیک، خدمات، رستورانی) کمترین سود را دارند.

اعتبارسنجی با داده‌های واقعی JIRA:
📌 همبستگی زمان تخمینی 0.44 — تقریباً برابر با همبستگی 0.50 توسعه‌دهندگان انسانی.


⚠️ محدودیت‌ها

فقط زمان داخل چت اندازه‌گیری شده.

اثرات واقعی مثل بررسی خروجی، اصلاحات و انتقال به pipeline کاری — محاسبه نشده.

بنابراین بهره‌وری واقعی احتمالاً کمتر از عدد اعلام‌شده است.


📎 لینک تحقیق:
https://www.anthropic.com/research/estimating-productivity-gains

#هوش_مصنوعی #Claude #Anthropic #بهره‌وری #AI #اتوماسیون
👍1
⚡️ Qwen3-VL:
انتشار گزارش فنی نسل جدید مدل‌های چندموداله ویژن–لنگویج

گزارش فنی (Tech Report) مدل‌های Qwen3-VL منتشر شد؛ خانواده‌ای از VLMهایی که تصویر و متن را همزمان پردازش می‌کنند و در یک ماه گذشته رکوردشکنی کرده‌اند.

🔍 نکات کلیدی

سه مدل Qwen3-VL مجموعاً بیش از ۱ میلیون دانلود در یک ماه.

مدل Qwen3-VL-8B به‌تنهایی ۲ میلیون دانلود را رد کرده.

این خانواده ادامه‌دهنده‌ی مسیر موفق Qwen2.5-VL با بیش از ۲۸۰۰ استناد است.


📘 محتویات گزارش فنی

در این Tech Report توضیح داده شده:

معماری کامل vision–language در نسل Qwen3-VL

فرآیند آموزش:
• Pretraining
روی داده‌های عظیم چندموداله

• و Post-training شامل alignment و RL

♻️منابع داده و روش‌های دقیق فیلتر کردن دیتاست

♻️مقایسه با VLMهای رقیب روی ده‌ها بنچمارک

♻️پیشرفت‌ها در دقت، فهم بصری، OCR و ریاضیات تصویری


🔗 لینک‌ها

PDF گزارش:
https://arxiv.org/pdf/2511.21631

ویدئوی معرفی رسمی:
https://www.youtube.com/watch?v=clwFmuJX_wQ

#Qwen #Qwen3 #QwenVL #Qwen3VL #LLM #AIModel
2👏1
This media is not supported in your browser
VIEW IN TELEGRAM
🇨🇳 چین و نسل جدید «مراقب درس‌خواندن» با هوش مصنوعی

در چین، والدین یک استفاده عجیب‌وغریب اما رو‌به‌گسترش از هوش مصنوعی پیدا کرده‌اند: ناظر لحظه‌ای درس‌خواندن بچه‌ها.

آن‌ها اپ Doubao (محصول ByteDance) را باز می‌کنند، دوربین را به سمت کودک می‌گیرند و فقط یک دستور می‌دهند:

«دوباو، مراقبش باش. اگر حواسش پرت شد یا قوز کرد، تذکر بده.»

از همان لحظه، دستیار هوشمند کنترل را به‌دست می‌گیرد و پشت‌سرهم اخطار می‌دهد:

🔸 «با خودکارت ور نرو.»
🔸 «روی تکلیف تمرکز کن.»
🔸 «صاف بنشین.»
🔸 «چرت نزن.»
🔸 «روی دستت تکیه نده.»
🔸 «خودکار را نجو.»

یک ناظر دیجیتالی کلاس درس؛ چیزی که تا چند سال پیش فقط در فیلم‌های علمی‌تخیلی می‌دیدیم.

📌 هشتگ‌ها

#AI #China #Doubao #ByteDance #EducationTech #StudyMonitor #EdTech #AIinEducation
😁4🤣21🤡1
🎨 راهنمای رسمیِ پرامپت‌نویسی FLUX.2
این مدل تازه‌نفس چندتا قاعدهٔ مهم دارد که اگر رعایت شوند، خروجی‌ها دقیق‌تر و قابل‌کنترل‌تر می‌شوند:

🔹 پرامپت ساختاریافته با JSON
اینکه FLUX.2 از پرامپت‌های JSON پشتیبانی می‌کند. یعنی می‌توانید ترکیب‌بندی، اشیا، رنگ‌ها، سبک و جزئیات صحنه را شفاف و خط‌به‌خط مشخص کنید.

🔹 پشتیبانی از HEX برای رنگ‌ها
اگر رنگ دقیق می‌خواهید، مستقیم کد HEX بدهید.
مثلاً "#E91E63" دقیقاً همان رنگی است که دریافت می‌کنید.

🔹 بدون پرامپت منفی
این مدل «اجتناب»، «نباشد»، «نذار»، «بدون» و… را متوجه نمی‌شود.
باید فقط بگویید چه می‌خواهید، نه چه نمی‌خواهید.

🔹 پرامپت چندزبانه
پرامپت فارسی، انگلیسی یا هر زبان دیگری را می‌فهمد. همین باعث می‌شود خروجی‌ها از نظر فرهنگی طبیعی‌تر باشند.

🔹 پشتیبانی از تنظیمات دوربین
برای کار فتو‌رئال می‌توانید مدل دوربین، لنز، فاصلهٔ کانونی و تنظیمات تصویربرداری را دقیق مشخص کنید.

https://docs.bfl.ai/guides/prompting_guide_flux2

#Flux2 #راهنمای_پرامپت #AI #تولید_تصویر
👍4🔥1👏1