This media is not supported in your browser
VIEW IN TELEGRAM
🪞وقتی واقعیت در آینه یک جهان تازه میسازد
دنیای اسکن سهبعدی و Gaussian Splats این روزها وارد مرحلهای شده که بیشتر شبیه جادوی بصری است.
تصویری که میبینید نه یک اتاق واقعی پشت در و نه محیطی است که با دوربین موبایل قدمبهقدم وارد آن شده باشید—این یک جهان درون آینه است؛ جایی که فضا بازسازی میشود، اما با حالوهوای محو و تکهتکهٔ مخصوص «زَزِرکانه».
🌫️ ویژگی خاص این دنیا:
مرز واقعیت و بازسازی دیجیتال از هم میلغزد؛ همهچیز طبیعی است اما کمی روان، کمی محو، کمی عجیب… دقیقاً همانطور که انتظار میرود یک جهان پشت آینه باشد.
✨ نتیجه؟
ترکیبی از هنر، ریاضیات، بینایی کامپیوتری و خلاقیتی که فقط تکنیک Gaussian Splats قادر به خلق آن است.
من شخصاً از کیفیت و حسِ فضاسازی این کارها واقعاً شگفتزده شدم.
اگر میخواهید خودتان وارد این زَزِرکاله سهبعدی شوید و در آن قدم بزنید، لینک تجربه همان است که همه را شگفتزده کرده:
🔗 https://superspl.at/view?id=0feb4c5c
@rss_ai_ir
#هوش_مصنوعی #سهبعدی #GaussianSplats #3DScan #RealityCapture #کامپیوتر_ویژن #AI
دنیای اسکن سهبعدی و Gaussian Splats این روزها وارد مرحلهای شده که بیشتر شبیه جادوی بصری است.
تصویری که میبینید نه یک اتاق واقعی پشت در و نه محیطی است که با دوربین موبایل قدمبهقدم وارد آن شده باشید—این یک جهان درون آینه است؛ جایی که فضا بازسازی میشود، اما با حالوهوای محو و تکهتکهٔ مخصوص «زَزِرکانه».
🌫️ ویژگی خاص این دنیا:
مرز واقعیت و بازسازی دیجیتال از هم میلغزد؛ همهچیز طبیعی است اما کمی روان، کمی محو، کمی عجیب… دقیقاً همانطور که انتظار میرود یک جهان پشت آینه باشد.
✨ نتیجه؟
ترکیبی از هنر، ریاضیات، بینایی کامپیوتری و خلاقیتی که فقط تکنیک Gaussian Splats قادر به خلق آن است.
من شخصاً از کیفیت و حسِ فضاسازی این کارها واقعاً شگفتزده شدم.
اگر میخواهید خودتان وارد این زَزِرکاله سهبعدی شوید و در آن قدم بزنید، لینک تجربه همان است که همه را شگفتزده کرده:
🔗 https://superspl.at/view?id=0feb4c5c
@rss_ai_ir
#هوش_مصنوعی #سهبعدی #GaussianSplats #3DScan #RealityCapture #کامپیوتر_ویژن #AI
😁1
This media is not supported in your browser
VIEW IN TELEGRAM
🌍 مدل WorldGen؛ نسل بعدی ساخت جهانهای سهبعدی
متا رسماً وارد بازی «خدای 3D» شده است.
اگر Marble و Genie فقط «تصویر از یک دوربین» میدادند، WorldGen یک قدم جلوتر است:
یک تکه واقعی از جهان سهبعدی — حدود ۵۰×۵۰ متر فضای قابل پیمایش — که میتوانید مستقیماً داخل Unity یا Unreal بندازید و مثل یک محیط بازی واقعی استفاده کنید.
🔥 چرا WorldGen متفاوت است؟
چون این دیگر نه Gaussian Splats است و نه ویدئو.
🔹 مش واقعی (3D Mesh)
🔹 ساختار هندسی کامل
🔹 قابل استفاده در موتورهای بازیسازی
🔹 جهان قابل ناوبری (Navmesh-ready)
متا خودش میگوید WorldGen ترکیبی از 3 چیز است:
1. روشهای پروسیجرال
2. دیفیوژن برای تولید 2D
3. بازسازی کامل 3D بر اساس آبجکتها
نتیجه؟
جهانهایی پایدار، قابل راهرفتن، قابل رندر و مناسب برای:
🎮 بازیها
🤖 شبیهسازها
🌐 محیطهای اجتماعی و VR
---
🔧 Pipeline چهار مرحلهای WorldGen
(1) Planning – برنامهریزی
▫️ ساخت پروسیجرال بلوکها
▫️ استخراج Navmesh
▫️ تولید تصاویر مرجع
(2) Reconstruction – بازسازی
▫️ تبدیل تصویر به 3D
▫️ تولید صحنه براساس Navmesh
▫️ ساخت بافت اولیه
(3) Decomposition – تجزیهٔ صحنه
▫️ استخراج قطعات با AutoPartGen
▫️ پاکسازی و سازماندهی داده
(4) Refinement – پالایش نهایی
▫️ ارتقای کیفیت تصویر
▫️ اصلاح مش
▫️ تکسچرینگ نهایی
---
🚨 اما خبر بد؟
اینکهWorldGen فعلاً محصول نیست.
متا هنوز روی سرعت تولید و ساخت جهانهای بزرگتر کار میکند (فعلاً خیلی کند است).
اما خروجیهای اولیه شگفتانگیزند — ویدیوی دمو را اینجا ببینید:
🔗 https://www.uploadvr.com/meta-worldgen-ai-generates-3d-worlds/
بهظاهر، متا میخواهد Minecraft + Unreal + AI را یکجا ترکیب کند.
سال ۲۰۲۵ احتمالاً سال متولد شدن GenAI-Worlds خواهد بود.
@rss_ai_ir
#متاورس #WorldGen #MetaAI #3DGeneration #Unity #Unreal #AI #GameDev #GenerativeAI
متا رسماً وارد بازی «خدای 3D» شده است.
اگر Marble و Genie فقط «تصویر از یک دوربین» میدادند، WorldGen یک قدم جلوتر است:
یک تکه واقعی از جهان سهبعدی — حدود ۵۰×۵۰ متر فضای قابل پیمایش — که میتوانید مستقیماً داخل Unity یا Unreal بندازید و مثل یک محیط بازی واقعی استفاده کنید.
🔥 چرا WorldGen متفاوت است؟
چون این دیگر نه Gaussian Splats است و نه ویدئو.
🔹 مش واقعی (3D Mesh)
🔹 ساختار هندسی کامل
🔹 قابل استفاده در موتورهای بازیسازی
🔹 جهان قابل ناوبری (Navmesh-ready)
متا خودش میگوید WorldGen ترکیبی از 3 چیز است:
1. روشهای پروسیجرال
2. دیفیوژن برای تولید 2D
3. بازسازی کامل 3D بر اساس آبجکتها
نتیجه؟
جهانهایی پایدار، قابل راهرفتن، قابل رندر و مناسب برای:
🎮 بازیها
🤖 شبیهسازها
🌐 محیطهای اجتماعی و VR
---
🔧 Pipeline چهار مرحلهای WorldGen
(1) Planning – برنامهریزی
▫️ ساخت پروسیجرال بلوکها
▫️ استخراج Navmesh
▫️ تولید تصاویر مرجع
(2) Reconstruction – بازسازی
▫️ تبدیل تصویر به 3D
▫️ تولید صحنه براساس Navmesh
▫️ ساخت بافت اولیه
(3) Decomposition – تجزیهٔ صحنه
▫️ استخراج قطعات با AutoPartGen
▫️ پاکسازی و سازماندهی داده
(4) Refinement – پالایش نهایی
▫️ ارتقای کیفیت تصویر
▫️ اصلاح مش
▫️ تکسچرینگ نهایی
---
🚨 اما خبر بد؟
اینکهWorldGen فعلاً محصول نیست.
متا هنوز روی سرعت تولید و ساخت جهانهای بزرگتر کار میکند (فعلاً خیلی کند است).
اما خروجیهای اولیه شگفتانگیزند — ویدیوی دمو را اینجا ببینید:
🔗 https://www.uploadvr.com/meta-worldgen-ai-generates-3d-worlds/
بهظاهر، متا میخواهد Minecraft + Unreal + AI را یکجا ترکیب کند.
سال ۲۰۲۵ احتمالاً سال متولد شدن GenAI-Worlds خواهد بود.
@rss_ai_ir
#متاورس #WorldGen #MetaAI #3DGeneration #Unity #Unreal #AI #GameDev #GenerativeAI
✨ مدل MSRNet؛ شبکهٔ چندمقیاسی بازگشتی برای آشکارسازی اشیای استتارشده
@rss_ai_ir
تشخیص اشیایی که عمداً در محیط «محو» شدهاند همیشه یکی از سختترین چالشهای بینایی ماشین بوده است.
مدل MSRNet با ترکیب Pyramid Vision Transformer و Recursive Feature Refinement توانسته یک جهش جدی ایجاد کند و در بنچمارکها به State-of-the-Art برسد.
🔍 چرا MSRNet مهم است؟
✳️عملکرد عالی روی اجسام کوچک و چندگانه
✳️تقویت چندمرحلهای ویژگیها با معماری بازگشتی
✳️یادگیری پایدارتر و دقت بالاتر نسبت به مدلهای قبلی
✳️مناسب برای کاربردهایی مثل: نظارت، رباتیک، پزشکی و تحلیل حیاتوحش
📅 تاریخ انتشار: ۱۶ نوامبر
📄 لینک مقاله:
arXiv: https://arxiv.org/abs/2511.12810
PDF: https://arxiv.org/pdf/2511.12810
🤗 مدلهای منتشرشده:
https://huggingface.co/linaa98/MSRNet
---
#CamouflagedObjectDetection #MSRNet #ObjectDetection #ComputerVision #DeepLearning #VisionTransformer #AIResearch #NeuralNetworks
@rss_ai_ir
تشخیص اشیایی که عمداً در محیط «محو» شدهاند همیشه یکی از سختترین چالشهای بینایی ماشین بوده است.
مدل MSRNet با ترکیب Pyramid Vision Transformer و Recursive Feature Refinement توانسته یک جهش جدی ایجاد کند و در بنچمارکها به State-of-the-Art برسد.
🔍 چرا MSRNet مهم است؟
✳️عملکرد عالی روی اجسام کوچک و چندگانه
✳️تقویت چندمرحلهای ویژگیها با معماری بازگشتی
✳️یادگیری پایدارتر و دقت بالاتر نسبت به مدلهای قبلی
✳️مناسب برای کاربردهایی مثل: نظارت، رباتیک، پزشکی و تحلیل حیاتوحش
📅 تاریخ انتشار: ۱۶ نوامبر
📄 لینک مقاله:
arXiv: https://arxiv.org/abs/2511.12810
PDF: https://arxiv.org/pdf/2511.12810
🤗 مدلهای منتشرشده:
https://huggingface.co/linaa98/MSRNet
---
#CamouflagedObjectDetection #MSRNet #ObjectDetection #ComputerVision #DeepLearning #VisionTransformer #AIResearch #NeuralNetworks
🔥1🙏1👌1
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ مدل Flux 2 رسماً منتشر شد – ارتقای بزرگ در نسل تصویر
@rss_ai_ir
مدل Flux 2 با یک آپدیت سنگین برگشته و حالا دقیقتر، واقعگراتر و بسیار توانمندتر شده است.
✨ چه چیزهایی بهتر شده؟
♻️پشتیبانی همزمان از ۱۰ رفرنس
♻️درک بسیار بهتر از نور، متریالها و اپتیک
♻️رندر دقیقتر و طبیعیتر متن
♻️خروجی با کیفیت ۴K واقعی
♻️تصاویر نرمتر، واقعگراتر و بدون «براقی پلاستیکی»
♻️امکان ترکیب، ویرایش و ژنریشن چندمرحلهای
🖥️ اجرای محلی هم کاملاً ممکن است
وزنها باز هستند و با حدود ۶۵ گیگابایت میتوانید مدل را روی سیستم خود اجرا کنید.
🟠 دمو:
https://playground.bfl.ai/image/generate
🟠 وزنها:
https://huggingface.co/black-forest-labs
🟠 FLUX.2-dev در HF:
https://huggingface.co/black-forest-labs/FLUX.2-dev
---
#Flux2 #AI #ImageGeneration #AIGraphics #GenerativeAI #BlackForestLabs #DiffusionModels
@rss_ai_ir
مدل Flux 2 با یک آپدیت سنگین برگشته و حالا دقیقتر، واقعگراتر و بسیار توانمندتر شده است.
✨ چه چیزهایی بهتر شده؟
♻️پشتیبانی همزمان از ۱۰ رفرنس
♻️درک بسیار بهتر از نور، متریالها و اپتیک
♻️رندر دقیقتر و طبیعیتر متن
♻️خروجی با کیفیت ۴K واقعی
♻️تصاویر نرمتر، واقعگراتر و بدون «براقی پلاستیکی»
♻️امکان ترکیب، ویرایش و ژنریشن چندمرحلهای
🖥️ اجرای محلی هم کاملاً ممکن است
وزنها باز هستند و با حدود ۶۵ گیگابایت میتوانید مدل را روی سیستم خود اجرا کنید.
🟠 دمو:
https://playground.bfl.ai/image/generate
🟠 وزنها:
https://huggingface.co/black-forest-labs
🟠 FLUX.2-dev در HF:
https://huggingface.co/black-forest-labs/FLUX.2-dev
---
#Flux2 #AI #ImageGeneration #AIGraphics #GenerativeAI #BlackForestLabs #DiffusionModels
👏5👍1🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
📌 قدرت سگرباتهای جدید واقعاً شگفتانگیز شده است
@rss_ai_ir
رباتهای چهارپا حالا به مرحلهای رسیدهاند که توان، چابکی و کنترل آنها جدیتر از هر زمان دیگری است. حرکاتی که چند سال پیش فقط در آزمایشگاهها دیده میشد، امروز با دقت و ثبات بالا انجام میشود — از پرش و دویدن گرفته تا حمل بار و انجام کارهای صنعتی.
این سطح از قدرت یعنی:
💥 ورود جدی رباتها به عملیات امداد، امنیت، بازرسی صنعتی
💥 توان انجام کارهایی که برای انسان خطرناک یا غیرممکن است
💥 گام بزرگ به سمت رباتهای خودمختار در مقیاس وسیع
دنیای رباتیک واقعاً با سرعت باور نکردنی در حال تغییر است.
#رباتیک #هوش_مصنوعی #RobotDog #AI #Automation #FutureTech
@rss_ai_ir
رباتهای چهارپا حالا به مرحلهای رسیدهاند که توان، چابکی و کنترل آنها جدیتر از هر زمان دیگری است. حرکاتی که چند سال پیش فقط در آزمایشگاهها دیده میشد، امروز با دقت و ثبات بالا انجام میشود — از پرش و دویدن گرفته تا حمل بار و انجام کارهای صنعتی.
این سطح از قدرت یعنی:
💥 ورود جدی رباتها به عملیات امداد، امنیت، بازرسی صنعتی
💥 توان انجام کارهایی که برای انسان خطرناک یا غیرممکن است
💥 گام بزرگ به سمت رباتهای خودمختار در مقیاس وسیع
دنیای رباتیک واقعاً با سرعت باور نکردنی در حال تغییر است.
#رباتیک #هوش_مصنوعی #RobotDog #AI #Automation #FutureTech
🔥2❤1🤯1👌1🌚1
This media is not supported in your browser
VIEW IN TELEGRAM
@rss_ai_ir
🍓 مدل MotionV2V — ویرایش حرکت در ویدئو با دقت بیسابقه 🍓
گوگل سیستم MotionV2V را معرفی کرد؛ روشی نوین برای ویرایش حرکت در ویدئو که بهجای تغییر کل فریم، مستقیماً تفاوت حرکت بین ویدئوی اصلی و نسخه ویرایششده را کنترل میکند.
این مدل بر پایه دیفیوشن کار میکند و امکان میدهد که:
✨ حرکت یک فرد تغییر کند، بدون تغییر ظاهر
✨ سرعت، جهت، یا شدت حرکت اصلاح شود
✨ حرکت کاملاً جدید روی ویدئو اعمال شود
✨ ویدئوهای ادیتشده، طبیعی و منسجم باقی بمانند
نتیجه؟
ویدئوهایی با حرکتهای کاملاً کنترلشده، بدون artifacts و بدون پرشهای عجیب.
🔗 لینکها:
👉 Paper:
https://arxiv.org/pdf/2511.20640
👉 Project Page:
https://ryanndagreat.github.io/MotionV2V/
👉 GitHub (بهزودی):
https://github.com/RyannDaGreat/MotionV2V
#MotionEditing #VideoAI #DiffusionModels #GoogleAI #GenerativeAI #DeepLearning
🍓 مدل MotionV2V — ویرایش حرکت در ویدئو با دقت بیسابقه 🍓
گوگل سیستم MotionV2V را معرفی کرد؛ روشی نوین برای ویرایش حرکت در ویدئو که بهجای تغییر کل فریم، مستقیماً تفاوت حرکت بین ویدئوی اصلی و نسخه ویرایششده را کنترل میکند.
این مدل بر پایه دیفیوشن کار میکند و امکان میدهد که:
✨ حرکت یک فرد تغییر کند، بدون تغییر ظاهر
✨ سرعت، جهت، یا شدت حرکت اصلاح شود
✨ حرکت کاملاً جدید روی ویدئو اعمال شود
✨ ویدئوهای ادیتشده، طبیعی و منسجم باقی بمانند
نتیجه؟
ویدئوهایی با حرکتهای کاملاً کنترلشده، بدون artifacts و بدون پرشهای عجیب.
🔗 لینکها:
👉 Paper:
https://arxiv.org/pdf/2511.20640
👉 Project Page:
https://ryanndagreat.github.io/MotionV2V/
👉 GitHub (بهزودی):
https://github.com/RyannDaGreat/MotionV2V
#MotionEditing #VideoAI #DiffusionModels #GoogleAI #GenerativeAI #DeepLearning
👍1🔥1
@rss_ai_ir
✨ تشخیص تصاویر مصنوعی با گرادیانفیلدها — یک روش ساده و شگفتانگیز! 💡
در دنیایی که مدلهای دیفیوشن هر روز واقعیتر میشوند، پیدا کردن یک روش ساده، سبک و قابلتوضیح برای تشخیص عکس واقعی از مصنوعی واقعاً طلاست. این تکنیک دقیقاً همین کار را میکند 👇
🔍 ایده اصلی
با انجام یک تحلیل ساده روی گرادیان روشنایی تصویر و سپس استفاده از PCA، یک جداسازی پایدار بین:
📸 عکسهای واقعی
🎨 تصاویر ساختهشده با دیفیوشن
بهدست میآید.
🧠 چرا جواب میدهد؟
تصاویر واقعی، گرادیانهایی دارند که با نورپردازی فیزیکی و رفتار سنسور دوربین سازگار است؛ منسجم و طبیعی.
تصاویر دیفیوشن بهدلیل فرآیند denoising دارای جزئیات ناپایدار و بافتهای فرکانسبالا هستند که ساختگی بودن را لو میدهد.
🧮 مراحل کار (فقط چند قدم ساده):
1. تبدیل RGB → luminance
2. محاسبه spatial gradients
3. تبدیل گرادیانها به ماتریس فلتشده
4. محاسبه covariance
5. انجام PCA و مشاهده جداسازی واضح در یک تصویر
🎯 نتیجه
بدون مدل طبقهبندی، بدون متادیتا، بدون شبکه عصبی — فقط با ریاضی پایه و تحلیل گرادیانها میتوان بهراحتی تشخیص داد تصویر واقعی است یا مصنوعی. یک ابزار عالی برای پژوهشگران بیناییماشین و متخصصان امنیت داده.
#SyntheticDetection #GradientFields #PCA #ComputerVision #DeepLearning #AIForensics @rss_ai_ir
✨ تشخیص تصاویر مصنوعی با گرادیانفیلدها — یک روش ساده و شگفتانگیز! 💡
در دنیایی که مدلهای دیفیوشن هر روز واقعیتر میشوند، پیدا کردن یک روش ساده، سبک و قابلتوضیح برای تشخیص عکس واقعی از مصنوعی واقعاً طلاست. این تکنیک دقیقاً همین کار را میکند 👇
🔍 ایده اصلی
با انجام یک تحلیل ساده روی گرادیان روشنایی تصویر و سپس استفاده از PCA، یک جداسازی پایدار بین:
📸 عکسهای واقعی
🎨 تصاویر ساختهشده با دیفیوشن
بهدست میآید.
🧠 چرا جواب میدهد؟
تصاویر واقعی، گرادیانهایی دارند که با نورپردازی فیزیکی و رفتار سنسور دوربین سازگار است؛ منسجم و طبیعی.
تصاویر دیفیوشن بهدلیل فرآیند denoising دارای جزئیات ناپایدار و بافتهای فرکانسبالا هستند که ساختگی بودن را لو میدهد.
🧮 مراحل کار (فقط چند قدم ساده):
1. تبدیل RGB → luminance
2. محاسبه spatial gradients
3. تبدیل گرادیانها به ماتریس فلتشده
4. محاسبه covariance
5. انجام PCA و مشاهده جداسازی واضح در یک تصویر
🎯 نتیجه
بدون مدل طبقهبندی، بدون متادیتا، بدون شبکه عصبی — فقط با ریاضی پایه و تحلیل گرادیانها میتوان بهراحتی تشخیص داد تصویر واقعی است یا مصنوعی. یک ابزار عالی برای پژوهشگران بیناییماشین و متخصصان امنیت داده.
#SyntheticDetection #GradientFields #PCA #ComputerVision #DeepLearning #AIForensics @rss_ai_ir
❤5👍1🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Smell Like Vision Spirit 🔥
@rss_ai_ir
👉 دیتاست New York Smells یک دیتاست بزرگ و جدید از ترکیب همزمان تصویر و دادههای بویایی است که امکان یادگیری کراسمودال بین بو و بینایی را فراهم میکند.
👉 با چراغ خاموش هم شاید «کمخطرتر» باشد، اما حالا AI میتواند بو را هم بفهمد!
👉 دیتاست در دسترس است.
🔗 Paper:
https://arxiv.org/pdf/2511.20544
🔗 Project:
https://smell.cs.columbia.edu/
#AI #Multimodal #Dataset #SmellAI #DeepLearning @rss_ai_ir
@rss_ai_ir
👉 دیتاست New York Smells یک دیتاست بزرگ و جدید از ترکیب همزمان تصویر و دادههای بویایی است که امکان یادگیری کراسمودال بین بو و بینایی را فراهم میکند.
👉 با چراغ خاموش هم شاید «کمخطرتر» باشد، اما حالا AI میتواند بو را هم بفهمد!
👉 دیتاست در دسترس است.
🔗 Paper:
https://arxiv.org/pdf/2511.20544
🔗 Project:
https://smell.cs.columbia.edu/
#AI #Multimodal #Dataset #SmellAI #DeepLearning @rss_ai_ir
👍3🔥1👏1
⚡️مجموعه NVIDIA نسخه FP4 مدل DeepSeek V3.1 را روی HuggingFace منتشر کرد
@rss_ai_ir
انویدیا نسخهی کوانتشده FP4 از مدل DeepSeek V3.1 را منتشر کرد — و این یعنی سرعت بالاتر، مصرف حافظه کمتر، و همچنان کیفیت بسیار خوب متن.
🔹 مزیت اصلی FP4:
کمترین سطح کوانتیزاسیون بدون افت جدی کیفیت،
بهخصوص وقتی با TensorRT-LLM اجرا شود.
🔹 نتیجه؟
• حافظه کمتر 🟢
• سرعت بیشتر 🟢
• عملکرد تقریباً همسطح نسخه کامل 🟢
Hugging Face:
https://huggingface.co/nvidia/DeepSeek-V3.1-NVFP4
#NVIDIA #DeepSeek #LLM #FP4 #TensorRT @rss_ai_ir
@rss_ai_ir
انویدیا نسخهی کوانتشده FP4 از مدل DeepSeek V3.1 را منتشر کرد — و این یعنی سرعت بالاتر، مصرف حافظه کمتر، و همچنان کیفیت بسیار خوب متن.
🔹 مزیت اصلی FP4:
کمترین سطح کوانتیزاسیون بدون افت جدی کیفیت،
بهخصوص وقتی با TensorRT-LLM اجرا شود.
🔹 نتیجه؟
• حافظه کمتر 🟢
• سرعت بیشتر 🟢
• عملکرد تقریباً همسطح نسخه کامل 🟢
Hugging Face:
https://huggingface.co/nvidia/DeepSeek-V3.1-NVFP4
#NVIDIA #DeepSeek #LLM #FP4 #TensorRT @rss_ai_ir
🔥4❤1👍1👏1
This media is not supported in your browser
VIEW IN TELEGRAM
✨ ویسِ چتجیپیتی مستقیم داخل همان چت فعال شد!
@rss_ai_ir 🎤🤖
از حالا میتوانید بدون هیچ سوییچ یا مود جداگانه، فقط شروع کنید به صحبتکردن — چتجیپیتی همزمان با حرفزدن شما پاسخ میدهد!
ویژگیهای نسخه جدید:
🔹 ویس مستقیماً داخل همان پنجرهٔ چت
🔹 پاسخها در لحظه روی متن ظاهر میشوند
🔹 میتوانید همزمان اسکرول کنید، پیامهای قبلی را ببینید
🔹 تصاویر، نقشهها و ویژوالها در لحظه نمایش داده میشوند
🔹 روی موبایل و وب فعال میشود
🔹 فقط کافیست اپ را آپدیت کنید
این دقیقاً همان تجربهٔ یک دستیار شخصی لحظهای است.
هوش مصنوعی که هم میبیند، هم میشنود، هم حرف میزند — و همهچیز در یک پنجره.
#ChatGPT #VoiceAI #AIUX #AIAssistant @rss_ai_ir
@rss_ai_ir 🎤🤖
از حالا میتوانید بدون هیچ سوییچ یا مود جداگانه، فقط شروع کنید به صحبتکردن — چتجیپیتی همزمان با حرفزدن شما پاسخ میدهد!
ویژگیهای نسخه جدید:
🔹 ویس مستقیماً داخل همان پنجرهٔ چت
🔹 پاسخها در لحظه روی متن ظاهر میشوند
🔹 میتوانید همزمان اسکرول کنید، پیامهای قبلی را ببینید
🔹 تصاویر، نقشهها و ویژوالها در لحظه نمایش داده میشوند
🔹 روی موبایل و وب فعال میشود
🔹 فقط کافیست اپ را آپدیت کنید
این دقیقاً همان تجربهٔ یک دستیار شخصی لحظهای است.
هوش مصنوعی که هم میبیند، هم میشنود، هم حرف میزند — و همهچیز در یک پنجره.
#ChatGPT #VoiceAI #AIUX #AIAssistant @rss_ai_ir
👍3❤2🔥1👏1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Seeing without Pixels —
دیدن بدون پیکسلها! 🔥
@rss_ai_ir 👁️🗨️🤖
⛔️آیا میشود محتوای یک ویدئو را بدون دیدن حتی یک پیکسل فقط از مسیر حرکت دوربین حدس زد؟
پژوهش تازهٔ DeepMind و دانشگاه تگزاس برای اولین بار این سؤال غیرممکنبهنظر را بهصورت علمی بررسی کرده است.
🔗 Paper: arxiv.org/pdf/2511.21681
🔗 Project: sites.google.com/view/seeing-without-pixels
#AI #Deepmind #ComputerVision #Research @rss_ai_ir
دیدن بدون پیکسلها! 🔥
@rss_ai_ir 👁️🗨️🤖
⛔️آیا میشود محتوای یک ویدئو را بدون دیدن حتی یک پیکسل فقط از مسیر حرکت دوربین حدس زد؟
پژوهش تازهٔ DeepMind و دانشگاه تگزاس برای اولین بار این سؤال غیرممکنبهنظر را بهصورت علمی بررسی کرده است.
🔗 Paper: arxiv.org/pdf/2511.21681
🔗 Project: sites.google.com/view/seeing-without-pixels
#AI #Deepmind #ComputerVision #Research @rss_ai_ir
❤1🥰1
⚡مجموعه Disney Research الگوریتمی ساخت که به روباتهای انساننما یاد میدهد «بیخطر و نرم» زمین بخورند!
@rss_ai_ir 🤖🟡
دیزنی روباتی را آموزش داده که مثل یک بدلکار حرفهای سقوط کند؛ بدون آسیب، کنترلشده و حتی با حرکات زیبای فرود!
💥 چطور کار میکند؟
هزاران نسخهٔ دیجیتالی روبات در شبیهساز میلیونها بار زمین خوردند و الگوریتم برای هر سقوط کمخطر امتیاز گرفت. سپس بهترین استراتژیها به روبات واقعی منتقل شد.
🦾 نتیجه؟
روبات در آزمایشها بارها هل داده شد و افتاد، اما هیچ آسیبی ندید — هر بار با حرکتی نرم و کنترلشده فرود آمد.
این فناوری مسیر را برای نسل جدیدی از گومانویدهای مقاوم، ایمن و طولانیعمر باز میکند.
https://robotunion.ru/media/news/tpost/xbezl9zkf1-disney-prokachal-dvunogih-robotov-chtobi
#DisneyResearch #Robotics #ReinforcementLearning #HumanoidRobots #AI @rss_ai_ir
@rss_ai_ir 🤖🟡
دیزنی روباتی را آموزش داده که مثل یک بدلکار حرفهای سقوط کند؛ بدون آسیب، کنترلشده و حتی با حرکات زیبای فرود!
💥 چطور کار میکند؟
هزاران نسخهٔ دیجیتالی روبات در شبیهساز میلیونها بار زمین خوردند و الگوریتم برای هر سقوط کمخطر امتیاز گرفت. سپس بهترین استراتژیها به روبات واقعی منتقل شد.
🦾 نتیجه؟
روبات در آزمایشها بارها هل داده شد و افتاد، اما هیچ آسیبی ندید — هر بار با حرکتی نرم و کنترلشده فرود آمد.
این فناوری مسیر را برای نسل جدیدی از گومانویدهای مقاوم، ایمن و طولانیعمر باز میکند.
https://robotunion.ru/media/news/tpost/xbezl9zkf1-disney-prokachal-dvunogih-robotov-chtobi
#DisneyResearch #Robotics #ReinforcementLearning #HumanoidRobots #AI @rss_ai_ir
🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️مدل Gemini حالا میتواند اینفوگرافیک تعاملی بسازد!
یکی از خفنترین آپدیتها:
چتبات میتواند اینفوگرافیکهای پیچیده و کاملاً تعاملی تولید کند — از ساختار یک سلول تا اجزای یک هواپیما ✈️🧬
🔹 روی هر بخش میتوان کلیک کرد و توضیح کامل گرفت
🔹 مناسب آموزش، تحلیل، ارائه و یادگیری عمیق
🔹 برای همه کاربران در حال فعالسازی است
همین حالا تست کنید — فوقالعاده است!
🔗 Try it here
#Gemini #GoogleAI #Infographics #InteractiveLearning #AI #TechNews @rss_ai_ir
یکی از خفنترین آپدیتها:
چتبات میتواند اینفوگرافیکهای پیچیده و کاملاً تعاملی تولید کند — از ساختار یک سلول تا اجزای یک هواپیما ✈️🧬
🔹 روی هر بخش میتوان کلیک کرد و توضیح کامل گرفت
🔹 مناسب آموزش، تحلیل، ارائه و یادگیری عمیق
🔹 برای همه کاربران در حال فعالسازی است
همین حالا تست کنید — فوقالعاده است!
🔗 Try it here
#Gemini #GoogleAI #Infographics #InteractiveLearning #AI #TechNews @rss_ai_ir
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
✨ STARFlow-V:
نسل تازه مدلهای ویدئو با Normalizing Flow
@rss_ai_ir 🎥⚡
مدل STARFlow-V یک مدل کاملاً End-to-End برای تولید ویدئو است که بر پایهی Normalizing Flow ساخته شده — رویکردی که معمولاً کمتر در ویدئو استفاده میشود، اما حالا نتایج فوقالعادهای نشان داده است.
🔹 کیفیت بصری بالا + پیوستگی زمانی عالی
🔹 پیشبینی علّی (causal prediction) پایدار
🔹 معماری Global–Local Latent
🔹 استفاده از Flow-Score Matching
🔹 قدمی مهم برای ورود Flow Models به دنیای Video Gen
📄 Paper: arxiv.org/abs/2511.20462
🌐 Project: starflow-v.github.io
💻 Code: github.com/apple/ml-starflow
#VideoGeneration #NormalizingFlow #GenerativeAI #DeepLearning #ML @rss_ai_ir
نسل تازه مدلهای ویدئو با Normalizing Flow
@rss_ai_ir 🎥⚡
مدل STARFlow-V یک مدل کاملاً End-to-End برای تولید ویدئو است که بر پایهی Normalizing Flow ساخته شده — رویکردی که معمولاً کمتر در ویدئو استفاده میشود، اما حالا نتایج فوقالعادهای نشان داده است.
🔹 کیفیت بصری بالا + پیوستگی زمانی عالی
🔹 پیشبینی علّی (causal prediction) پایدار
🔹 معماری Global–Local Latent
🔹 استفاده از Flow-Score Matching
🔹 قدمی مهم برای ورود Flow Models به دنیای Video Gen
📄 Paper: arxiv.org/abs/2511.20462
🌐 Project: starflow-v.github.io
💻 Code: github.com/apple/ml-starflow
#VideoGeneration #NormalizingFlow #GenerativeAI #DeepLearning #ML @rss_ai_ir
🥰1
🖥✨ مجموعه OpenAI و جانی آیو؛ تولد نسل جدید دستگاههای شخصی هوش مصنوعی
@rss_ai_ir 🤖📱
اینکهOpenAI نخستین پروتотипهای دستگاه هوش مصنوعی همیشهفعال خود را با همکاری جانی آیو — طراح افسانهای iPhone — تکمیل کرده است. محصول نهایی طی دو سال آینده عرضه میشود.
ایده چیست؟
یک دستیار شخصی دائماً حاضر که بین انسان و دنیای شلوغ گوشیهای هوشمند قرار میگیرد. نه اپلیکیشنها، نه اعلانهای بیپایان — فقط یک تعامل طبیعی با یک عامل هوشمند که همه چیز را درباره شما میداند و یادتان میماند.
🎨 نقش جانی آیو
او مسئول طراحی فرم، متریال و تجربه کاربری دستگاه است؛ همان کاری که روزی با iPhone انجام داد و یک دوران جدید ساخت.
🤖 تواناییهای دستگاه
♻️درک کامل زمینه و سابقه کاربر
♻️فیلتر کردن نویز دیجیتال و اعلانها
♻️گفتوگوی طبیعی بهجای جابهجایی بین دهها اپ
♻️ادغام عمیق با پیامها، اسناد، صداها و حتی افکار قبلی کاربر
⚙️ زیرساخت
اینکه OpenAI این محصول را با همکاری Foxconn توسعه میدهد — همان شرکتی که از سرور تا تجهیزات خنکسازی را برای دیتاسنترهای غولآسا میسازد.
ترکیب سختافزار شخصی + زیرساخت عظیم یک اکوسیستم کامل را ایجاد میکند.
📉 فشار بر اپل
در حالی که iPhone و Siri درگیر مدلهای قدیمی هستند، OpenAI میخواهد هویت جدیدی برای دستگاههای محاسبات شخصی بسازد؛ جایی که مدل زبانی مرکز همهچیز است.
https://cnbc.com/2025/11/24/openai-hardware-jony-ive-sam-altman-emerson-collective.html
#OpenAI #ChatGPT #AIdevice #JonyIve #FutureComputing #AIRevolution @rss_ai_ir
@rss_ai_ir 🤖📱
اینکهOpenAI نخستین پروتотипهای دستگاه هوش مصنوعی همیشهفعال خود را با همکاری جانی آیو — طراح افسانهای iPhone — تکمیل کرده است. محصول نهایی طی دو سال آینده عرضه میشود.
ایده چیست؟
یک دستیار شخصی دائماً حاضر که بین انسان و دنیای شلوغ گوشیهای هوشمند قرار میگیرد. نه اپلیکیشنها، نه اعلانهای بیپایان — فقط یک تعامل طبیعی با یک عامل هوشمند که همه چیز را درباره شما میداند و یادتان میماند.
🎨 نقش جانی آیو
او مسئول طراحی فرم، متریال و تجربه کاربری دستگاه است؛ همان کاری که روزی با iPhone انجام داد و یک دوران جدید ساخت.
🤖 تواناییهای دستگاه
♻️درک کامل زمینه و سابقه کاربر
♻️فیلتر کردن نویز دیجیتال و اعلانها
♻️گفتوگوی طبیعی بهجای جابهجایی بین دهها اپ
♻️ادغام عمیق با پیامها، اسناد، صداها و حتی افکار قبلی کاربر
⚙️ زیرساخت
اینکه OpenAI این محصول را با همکاری Foxconn توسعه میدهد — همان شرکتی که از سرور تا تجهیزات خنکسازی را برای دیتاسنترهای غولآسا میسازد.
ترکیب سختافزار شخصی + زیرساخت عظیم یک اکوسیستم کامل را ایجاد میکند.
📉 فشار بر اپل
در حالی که iPhone و Siri درگیر مدلهای قدیمی هستند، OpenAI میخواهد هویت جدیدی برای دستگاههای محاسبات شخصی بسازد؛ جایی که مدل زبانی مرکز همهچیز است.
https://cnbc.com/2025/11/24/openai-hardware-jony-ive-sam-altman-emerson-collective.html
#OpenAI #ChatGPT #AIdevice #JonyIve #FutureComputing #AIRevolution @rss_ai_ir
🔥1
🌟 یک خبر تاریخی در دنیای AGI!
برای اولینبار یک سیستم هوش مصنوعی توانست روی ARC-AGI-2 عملکردی فراتر از انسان ثبت کند.
آزمایشگاه Poetiq روشی جدید طراحی کرده که در آن چند مدل LLM را بهصورت ترکیبی و هماهنگ کنار هم قرار میدهد تا توانایی reasoning آنها چند برابر شود.
۲۰ نوامبر، تیم اعلام کرد که ترکیب Gemini 3 + GPT-5.1 توانسته روی ARC-AGI-2 public eval رکوردی ثبت کند که از سطح انسانی بالاتر است.
⚠️ اما نکته مهم:
این نتیجه روی نسخه عمومی تست ثبت شده.
روی نسخه نیمهخصوصی (semi-private) احتمالاً امتیاز پایینتر خواهد شد.
با این حال، این پیشرفت شگفتانگیز است؛ چون:
♻️بهتنهایی Gemini 3 حدود ۴۵٪ میگیرد
♻️وGPT-5.1 فقط حدود ۲۰٪
♻️و تا چند ماه پیش بهترین مدلها ۱ تا ۲٪ بودند!
♻️اینکه ARC-AGI-2 عملاً غیرقابلحل بهنظر میرسید
اما حالا یک ترکیب هوشمندانه از چند مدل توانسته از مرز انسانی عبور کند.
لینکها:
🔗 بلاگپست
🔗 کد
#هوش_مصنوعی #AGI #ARC_AGI #Gemini3 #GPT5 #Poetiq #AI_research
برای اولینبار یک سیستم هوش مصنوعی توانست روی ARC-AGI-2 عملکردی فراتر از انسان ثبت کند.
آزمایشگاه Poetiq روشی جدید طراحی کرده که در آن چند مدل LLM را بهصورت ترکیبی و هماهنگ کنار هم قرار میدهد تا توانایی reasoning آنها چند برابر شود.
۲۰ نوامبر، تیم اعلام کرد که ترکیب Gemini 3 + GPT-5.1 توانسته روی ARC-AGI-2 public eval رکوردی ثبت کند که از سطح انسانی بالاتر است.
⚠️ اما نکته مهم:
این نتیجه روی نسخه عمومی تست ثبت شده.
روی نسخه نیمهخصوصی (semi-private) احتمالاً امتیاز پایینتر خواهد شد.
با این حال، این پیشرفت شگفتانگیز است؛ چون:
♻️بهتنهایی Gemini 3 حدود ۴۵٪ میگیرد
♻️وGPT-5.1 فقط حدود ۲۰٪
♻️و تا چند ماه پیش بهترین مدلها ۱ تا ۲٪ بودند!
♻️اینکه ARC-AGI-2 عملاً غیرقابلحل بهنظر میرسید
اما حالا یک ترکیب هوشمندانه از چند مدل توانسته از مرز انسانی عبور کند.
لینکها:
🔗 بلاگپست
🔗 کد
#هوش_مصنوعی #AGI #ARC_AGI #Gemini3 #GPT5 #Poetiq #AI_research
👍3
⚡️ ارزیابی Anthropic از اثر کمکیارهای هوش مصنوعی بر بهرهوری واقعی
اینکه Anthropic با تحلیل ۱۰۰ هزار دیالوگ واقعی با Claude تلاش کرده تخمین بزند که هوش مصنوعی در عمل چقدر زمان کار را کاهش میدهد — نه در تستهای آزمایشگاهی، بلکه در وظایف واقعی کاربران.
🔍 نتایج کلیدی
رشد بهرهوری بالقوه ۱.۸٪ سالانه — تقریباً دو برابر نرخ رشد اخیر آمریکا.
روش اندازهگیری: مقایسهٔ زمانِ معمول اجرای یک وظیفه توسط متخصصها ↔️ زمان انجام همان کار در چت.
میانگین صرفهجویی زمانی: ۸۰٪ در هر کار.
بیشترین سود برای نقشهای با دستمزد بالا:
👨💻 توسعهدهندگان
⚖️ وکلا
👔 مدیران
کارهای پیچیدهی ۲ساعته بیشترین کاهش زمان را تجربه کردند.
مشاغل کمدرآمد (لجستیک، خدمات، رستورانی) کمترین سود را دارند.
اعتبارسنجی با دادههای واقعی JIRA:
📌 همبستگی زمان تخمینی 0.44 — تقریباً برابر با همبستگی 0.50 توسعهدهندگان انسانی.
⚠️ محدودیتها
فقط زمان داخل چت اندازهگیری شده.
اثرات واقعی مثل بررسی خروجی، اصلاحات و انتقال به pipeline کاری — محاسبه نشده.
بنابراین بهرهوری واقعی احتمالاً کمتر از عدد اعلامشده است.
📎 لینک تحقیق:
https://www.anthropic.com/research/estimating-productivity-gains
#هوش_مصنوعی #Claude #Anthropic #بهرهوری #AI #اتوماسیون
اینکه Anthropic با تحلیل ۱۰۰ هزار دیالوگ واقعی با Claude تلاش کرده تخمین بزند که هوش مصنوعی در عمل چقدر زمان کار را کاهش میدهد — نه در تستهای آزمایشگاهی، بلکه در وظایف واقعی کاربران.
🔍 نتایج کلیدی
رشد بهرهوری بالقوه ۱.۸٪ سالانه — تقریباً دو برابر نرخ رشد اخیر آمریکا.
روش اندازهگیری: مقایسهٔ زمانِ معمول اجرای یک وظیفه توسط متخصصها ↔️ زمان انجام همان کار در چت.
میانگین صرفهجویی زمانی: ۸۰٪ در هر کار.
بیشترین سود برای نقشهای با دستمزد بالا:
👨💻 توسعهدهندگان
⚖️ وکلا
👔 مدیران
کارهای پیچیدهی ۲ساعته بیشترین کاهش زمان را تجربه کردند.
مشاغل کمدرآمد (لجستیک، خدمات، رستورانی) کمترین سود را دارند.
اعتبارسنجی با دادههای واقعی JIRA:
📌 همبستگی زمان تخمینی 0.44 — تقریباً برابر با همبستگی 0.50 توسعهدهندگان انسانی.
⚠️ محدودیتها
فقط زمان داخل چت اندازهگیری شده.
اثرات واقعی مثل بررسی خروجی، اصلاحات و انتقال به pipeline کاری — محاسبه نشده.
بنابراین بهرهوری واقعی احتمالاً کمتر از عدد اعلامشده است.
📎 لینک تحقیق:
https://www.anthropic.com/research/estimating-productivity-gains
#هوش_مصنوعی #Claude #Anthropic #بهرهوری #AI #اتوماسیون
👍1
⚡️ Qwen3-VL:
انتشار گزارش فنی نسل جدید مدلهای چندموداله ویژن–لنگویج
✅گزارش فنی (Tech Report) مدلهای Qwen3-VL منتشر شد؛ خانوادهای از VLMهایی که تصویر و متن را همزمان پردازش میکنند و در یک ماه گذشته رکوردشکنی کردهاند.
🔍 نکات کلیدی
سه مدل Qwen3-VL مجموعاً بیش از ۱ میلیون دانلود در یک ماه.
مدل Qwen3-VL-8B بهتنهایی ۲ میلیون دانلود را رد کرده.
❌این خانواده ادامهدهندهی مسیر موفق Qwen2.5-VL با بیش از ۲۸۰۰ استناد است.
📘 محتویات گزارش فنی
در این Tech Report توضیح داده شده:
معماری کامل vision–language در نسل Qwen3-VL
فرآیند آموزش:
• Pretraining
روی دادههای عظیم چندموداله
• و Post-training شامل alignment و RL
♻️منابع داده و روشهای دقیق فیلتر کردن دیتاست
♻️مقایسه با VLMهای رقیب روی دهها بنچمارک
♻️پیشرفتها در دقت، فهم بصری، OCR و ریاضیات تصویری
🔗 لینکها
PDF گزارش:
https://arxiv.org/pdf/2511.21631
ویدئوی معرفی رسمی:
https://www.youtube.com/watch?v=clwFmuJX_wQ
#Qwen #Qwen3 #QwenVL #Qwen3VL #LLM #AIModel
انتشار گزارش فنی نسل جدید مدلهای چندموداله ویژن–لنگویج
✅گزارش فنی (Tech Report) مدلهای Qwen3-VL منتشر شد؛ خانوادهای از VLMهایی که تصویر و متن را همزمان پردازش میکنند و در یک ماه گذشته رکوردشکنی کردهاند.
🔍 نکات کلیدی
سه مدل Qwen3-VL مجموعاً بیش از ۱ میلیون دانلود در یک ماه.
مدل Qwen3-VL-8B بهتنهایی ۲ میلیون دانلود را رد کرده.
❌این خانواده ادامهدهندهی مسیر موفق Qwen2.5-VL با بیش از ۲۸۰۰ استناد است.
📘 محتویات گزارش فنی
در این Tech Report توضیح داده شده:
معماری کامل vision–language در نسل Qwen3-VL
فرآیند آموزش:
• Pretraining
روی دادههای عظیم چندموداله
• و Post-training شامل alignment و RL
♻️منابع داده و روشهای دقیق فیلتر کردن دیتاست
♻️مقایسه با VLMهای رقیب روی دهها بنچمارک
♻️پیشرفتها در دقت، فهم بصری، OCR و ریاضیات تصویری
🔗 لینکها
PDF گزارش:
https://arxiv.org/pdf/2511.21631
ویدئوی معرفی رسمی:
https://www.youtube.com/watch?v=clwFmuJX_wQ
#Qwen #Qwen3 #QwenVL #Qwen3VL #LLM #AIModel
❤2👏1
This media is not supported in your browser
VIEW IN TELEGRAM
🇨🇳 چین و نسل جدید «مراقب درسخواندن» با هوش مصنوعی
در چین، والدین یک استفاده عجیبوغریب اما روبهگسترش از هوش مصنوعی پیدا کردهاند: ناظر لحظهای درسخواندن بچهها.
آنها اپ Doubao (محصول ByteDance) را باز میکنند، دوربین را به سمت کودک میگیرند و فقط یک دستور میدهند:
«دوباو، مراقبش باش. اگر حواسش پرت شد یا قوز کرد، تذکر بده.»
از همان لحظه، دستیار هوشمند کنترل را بهدست میگیرد و پشتسرهم اخطار میدهد:
🔸 «با خودکارت ور نرو.»
🔸 «روی تکلیف تمرکز کن.»
🔸 «صاف بنشین.»
🔸 «چرت نزن.»
🔸 «روی دستت تکیه نده.»
🔸 «خودکار را نجو.»
یک ناظر دیجیتالی کلاس درس؛ چیزی که تا چند سال پیش فقط در فیلمهای علمیتخیلی میدیدیم.
📌 هشتگها
#AI #China #Doubao #ByteDance #EducationTech #StudyMonitor #EdTech #AIinEducation
در چین، والدین یک استفاده عجیبوغریب اما روبهگسترش از هوش مصنوعی پیدا کردهاند: ناظر لحظهای درسخواندن بچهها.
آنها اپ Doubao (محصول ByteDance) را باز میکنند، دوربین را به سمت کودک میگیرند و فقط یک دستور میدهند:
«دوباو، مراقبش باش. اگر حواسش پرت شد یا قوز کرد، تذکر بده.»
از همان لحظه، دستیار هوشمند کنترل را بهدست میگیرد و پشتسرهم اخطار میدهد:
🔸 «با خودکارت ور نرو.»
🔸 «روی تکلیف تمرکز کن.»
🔸 «صاف بنشین.»
🔸 «چرت نزن.»
🔸 «روی دستت تکیه نده.»
🔸 «خودکار را نجو.»
یک ناظر دیجیتالی کلاس درس؛ چیزی که تا چند سال پیش فقط در فیلمهای علمیتخیلی میدیدیم.
📌 هشتگها
#AI #China #Doubao #ByteDance #EducationTech #StudyMonitor #EdTech #AIinEducation
😁4🤣2❤1🤡1
🎨 راهنمای رسمیِ پرامپتنویسی FLUX.2
این مدل تازهنفس چندتا قاعدهٔ مهم دارد که اگر رعایت شوند، خروجیها دقیقتر و قابلکنترلتر میشوند:
🔹 پرامپت ساختاریافته با JSON
اینکه FLUX.2 از پرامپتهای JSON پشتیبانی میکند. یعنی میتوانید ترکیببندی، اشیا، رنگها، سبک و جزئیات صحنه را شفاف و خطبهخط مشخص کنید.
🔹 پشتیبانی از HEX برای رنگها
اگر رنگ دقیق میخواهید، مستقیم کد HEX بدهید.
مثلاً "#E91E63" دقیقاً همان رنگی است که دریافت میکنید.
🔹 بدون پرامپت منفی
این مدل «اجتناب»، «نباشد»، «نذار»، «بدون» و… را متوجه نمیشود.
باید فقط بگویید چه میخواهید، نه چه نمیخواهید.
🔹 پرامپت چندزبانه
پرامپت فارسی، انگلیسی یا هر زبان دیگری را میفهمد. همین باعث میشود خروجیها از نظر فرهنگی طبیعیتر باشند.
🔹 پشتیبانی از تنظیمات دوربین
برای کار فتورئال میتوانید مدل دوربین، لنز، فاصلهٔ کانونی و تنظیمات تصویربرداری را دقیق مشخص کنید.
https://docs.bfl.ai/guides/prompting_guide_flux2
#Flux2 #راهنمای_پرامپت #AI #تولید_تصویر
این مدل تازهنفس چندتا قاعدهٔ مهم دارد که اگر رعایت شوند، خروجیها دقیقتر و قابلکنترلتر میشوند:
🔹 پرامپت ساختاریافته با JSON
اینکه FLUX.2 از پرامپتهای JSON پشتیبانی میکند. یعنی میتوانید ترکیببندی، اشیا، رنگها، سبک و جزئیات صحنه را شفاف و خطبهخط مشخص کنید.
🔹 پشتیبانی از HEX برای رنگها
اگر رنگ دقیق میخواهید، مستقیم کد HEX بدهید.
مثلاً "#E91E63" دقیقاً همان رنگی است که دریافت میکنید.
🔹 بدون پرامپت منفی
این مدل «اجتناب»، «نباشد»، «نذار»، «بدون» و… را متوجه نمیشود.
باید فقط بگویید چه میخواهید، نه چه نمیخواهید.
🔹 پرامپت چندزبانه
پرامپت فارسی، انگلیسی یا هر زبان دیگری را میفهمد. همین باعث میشود خروجیها از نظر فرهنگی طبیعیتر باشند.
🔹 پشتیبانی از تنظیمات دوربین
برای کار فتورئال میتوانید مدل دوربین، لنز، فاصلهٔ کانونی و تنظیمات تصویربرداری را دقیق مشخص کنید.
https://docs.bfl.ai/guides/prompting_guide_flux2
#Flux2 #راهنمای_پرامپت #AI #تولید_تصویر
👍4🔥1👏1