This media is not supported in your browser
VIEW IN TELEGRAM
✨ روش COREA: همترازی سهبعدی Coarse-to-Fine بین Gaussianهای سهبعدی قابلنوردهی مجدد و SDF با نظارت دوطرفه 3D-to-3D
📝 خلاصه:
روش COREA یک چارچوب نوآورانه است که نمایش سهبعدی Gaussians و توابع فاصله علامتدار (SDF) را بهصورت دقیق و مرحلهبهمرحله (coarse-to-fine) با یکدیگر همتراز میکند.
این مدل یادگیری هندسه را مستقیماً در فضای سهبعدی انجام میدهد و با نظارت دوطرفه 3D-to-3D، محدودیتهای روشهای قبلی را برطرف میکند.
🔍 مزایا و دستاوردها:
♻️تولید هندسه بسیار دقیقتر
♻️نورپردازی مجدد طبیعیتر و سازگارتر
بهبود چشمگیر در
• ساخت مش (Mesh Reconstruction)
• رندرینگ فیزیکی مبتنی بر نور (PBR)
• بازسازی دیدهای جدید (Novel View Synthesis)
یکپارچهسازی Gaussian Splatting با نمایش SDF
---
🔹 تاریخ انتشار: ۸ دسامبر
🔹 لینک مقالهها و پروژه
• Arxiv:
https://arxiv.org/abs/2512.07107
• PDF:
https://arxiv.org/pdf/2512.07107
• Project Page:
https://cau-vilab.github.io/COREA/
• Github:
https://github.com/CAU-VILab/COREA-arXiv
==================================
#AI #DataScience #MachineLearning #HuggingFace #Research
📝 خلاصه:
روش COREA یک چارچوب نوآورانه است که نمایش سهبعدی Gaussians و توابع فاصله علامتدار (SDF) را بهصورت دقیق و مرحلهبهمرحله (coarse-to-fine) با یکدیگر همتراز میکند.
این مدل یادگیری هندسه را مستقیماً در فضای سهبعدی انجام میدهد و با نظارت دوطرفه 3D-to-3D، محدودیتهای روشهای قبلی را برطرف میکند.
🔍 مزایا و دستاوردها:
♻️تولید هندسه بسیار دقیقتر
♻️نورپردازی مجدد طبیعیتر و سازگارتر
بهبود چشمگیر در
• ساخت مش (Mesh Reconstruction)
• رندرینگ فیزیکی مبتنی بر نور (PBR)
• بازسازی دیدهای جدید (Novel View Synthesis)
یکپارچهسازی Gaussian Splatting با نمایش SDF
---
🔹 تاریخ انتشار: ۸ دسامبر
🔹 لینک مقالهها و پروژه
• Arxiv:
https://arxiv.org/abs/2512.07107
• PDF:
https://arxiv.org/pdf/2512.07107
• Project Page:
https://cau-vilab.github.io/COREA/
• Github:
https://github.com/CAU-VILab/COREA-arXiv
==================================
#AI #DataScience #MachineLearning #HuggingFace #Research
This media is not supported in your browser
VIEW IN TELEGRAM
⚡ اینگونه هوش مصنوعی با علفهای هرز مبارزه میکند.
دستگاه LaserWeeder G2 زمینهای کشاورزی را اسکن میکند، علفهای هرز را تشخیص میدهد و آنها را با لیزر از بین میبرد — دقیق، سریع و بدون مواد شیمیایی.
📊 @rss_ai_ir
#کشاورزی_هوشمند #رباتیک #هوش_مصنوعی #اتوماسیون #فناوری_کشاورزی 💡🌱
دستگاه LaserWeeder G2 زمینهای کشاورزی را اسکن میکند، علفهای هرز را تشخیص میدهد و آنها را با لیزر از بین میبرد — دقیق، سریع و بدون مواد شیمیایی.
📊 @rss_ai_ir
#کشاورزی_هوشمند #رباتیک #هوش_مصنوعی #اتوماسیون #فناوری_کشاورزی 💡🌱
👏3
This media is not supported in your browser
VIEW IN TELEGRAM
👓 عینک هوشمند جدید گوگل با قدرت Gemini در سال ۲۰۲۶ میآید
گوگل در حال آمادهسازی دو مدل عینک هوشمند است که مستقیماً از مدلهای چندوجهی Gemini قدرت میگیرند.
---
✨ مدل اول – عرضه در سال ۲۰۲۶
این مدل ظاهر کاملاً شبیه عینک معمولی دارد و نمایشگر ندارد، اما:
♻️اسپیکر،
♻️میکروفون،
♻️و دوربین
روی آن قرار گرفته است.
عینک با گوشی تلفن همراه جفت میشود و Gemini آنچه در اطراف شماست را میبیند و:
♻️در لحظه به سوالها پاسخ میدهد،
♻️محیط را تحلیل میکند،
♻️مکالمات را بهطور زنده ترجمه میکند.
---
✨ مدل دوم – نسخه AR با نمایشگر
مدل پیشرفتهتر دارای نمایشگر داخلی و قابلیتهای واقعیت افزوده (AR) خواهد بود، اما هنوز تاریخ عرضه رسمی ندارد. این نسخه قدم بعدی گوگل برای ترکیب بینایی هوشمند و اطلاعات دیجیتال روی دنیای واقعی است.
---
این عینکها نشاندهنده ورود جدی گوگل به نسل بعدی ابزارهای پوشیدنی هوشمند هستند؛ جایی که دستیار هوش مصنوعی نهتنها میشنود، بلکه میبیند و با درک کامل از محیط به شما کمک میکند.
📊 @rss_ai_ir
#هوش_مصنوعی #گوگل #عینک_هوشمند #Gemini #AR #تکنولوژی
گوگل در حال آمادهسازی دو مدل عینک هوشمند است که مستقیماً از مدلهای چندوجهی Gemini قدرت میگیرند.
---
✨ مدل اول – عرضه در سال ۲۰۲۶
این مدل ظاهر کاملاً شبیه عینک معمولی دارد و نمایشگر ندارد، اما:
♻️اسپیکر،
♻️میکروفون،
♻️و دوربین
روی آن قرار گرفته است.
عینک با گوشی تلفن همراه جفت میشود و Gemini آنچه در اطراف شماست را میبیند و:
♻️در لحظه به سوالها پاسخ میدهد،
♻️محیط را تحلیل میکند،
♻️مکالمات را بهطور زنده ترجمه میکند.
---
✨ مدل دوم – نسخه AR با نمایشگر
مدل پیشرفتهتر دارای نمایشگر داخلی و قابلیتهای واقعیت افزوده (AR) خواهد بود، اما هنوز تاریخ عرضه رسمی ندارد. این نسخه قدم بعدی گوگل برای ترکیب بینایی هوشمند و اطلاعات دیجیتال روی دنیای واقعی است.
---
این عینکها نشاندهنده ورود جدی گوگل به نسل بعدی ابزارهای پوشیدنی هوشمند هستند؛ جایی که دستیار هوش مصنوعی نهتنها میشنود، بلکه میبیند و با درک کامل از محیط به شما کمک میکند.
📊 @rss_ai_ir
#هوش_مصنوعی #گوگل #عینک_هوشمند #Gemini #AR #تکنولوژی
This media is not supported in your browser
VIEW IN TELEGRAM
⚙️ ارتشی از ایجنتهای هوشمند کل اینترنت را برایت زیر نظر میگیرند — خودکار و رایگان
در حال حاضر مجموعهای از ایجنتهای مستقل مبتنی بر هوش مصنوعی راهاندازی شدهاند که میتوانند تمام گوشهوکنار وب را برایت پایش کنند و در لحظه، خلاصهٔ تغییرات مهم را ارسال کنند.
🔹 این ایجنتها هر سایت یا منبعی را که انتخاب کنی طبق زمانبندی مشخص بررسی میکنند: آگهیهای استخدام، تخفیفها، اخبار، ترندها و هر چیزی که مهم باشد.
🔹 نتیجهٔ هر پایش، یک خلاصهٔ دقیق و تمیز است تا هیچ بروزرسانی مهمی را از دست ندهی.
🔹 از تغییر کوچک در یک صفحهٔ محصول گرفته تا انتشار مقالهٔ جدید — همه فوراً تشخیص داده میشود.
🔹 مهمتر اینکه کل سیستم کاملاً رایگان در اختیار کاربران است.
این یعنی در دنیایی که اینترنت بیوقفه تغییر میکند، حالا ایجنتهایی داری که بدون خستگی، ۲۴ ساعته همهچیز را برایت رصد میکنند.
https://github.com/firecrawl/open-scouts
@rss_ai_ir
#هوش_مصنوعی #ایجنت #وب_کاوی #اتوماسیون #فناوری 🚀
در حال حاضر مجموعهای از ایجنتهای مستقل مبتنی بر هوش مصنوعی راهاندازی شدهاند که میتوانند تمام گوشهوکنار وب را برایت پایش کنند و در لحظه، خلاصهٔ تغییرات مهم را ارسال کنند.
🔹 این ایجنتها هر سایت یا منبعی را که انتخاب کنی طبق زمانبندی مشخص بررسی میکنند: آگهیهای استخدام، تخفیفها، اخبار، ترندها و هر چیزی که مهم باشد.
🔹 نتیجهٔ هر پایش، یک خلاصهٔ دقیق و تمیز است تا هیچ بروزرسانی مهمی را از دست ندهی.
🔹 از تغییر کوچک در یک صفحهٔ محصول گرفته تا انتشار مقالهٔ جدید — همه فوراً تشخیص داده میشود.
🔹 مهمتر اینکه کل سیستم کاملاً رایگان در اختیار کاربران است.
این یعنی در دنیایی که اینترنت بیوقفه تغییر میکند، حالا ایجنتهایی داری که بدون خستگی، ۲۴ ساعته همهچیز را برایت رصد میکنند.
https://github.com/firecrawl/open-scouts
@rss_ai_ir
#هوش_مصنوعی #ایجنت #وب_کاوی #اتوماسیون #فناوری 🚀
👍1
📢 گزارشها میگویند گوگل به تبلیغدهندگان اعلام کرده که از سال ۲۰۲۶، تبلیغات را وارد چتبات Gemini خواهد کرد.
این یعنی Gemini کمکم به درگاه اصلی کسب درآمد برای کل اکوسیستم هوش مصنوعی گوگل تبدیل میشود؛ جایی که جستجو، پاسخدهی و تعامل کاربر مستقیماً به مدلهای زبانی متصل است و تبلیغات هم بخشی طبیعی از آن خواهد شد.
به زبان ساده:
گوگل میخواهد همان کاری را که با جستجو انجام داد، با چتباتهای هوش مصنوعی هم تکرار کند — پلتفرمی که هم مفید است و هم پولساز.
https://www.adweek.com/media/google-gemini-ads-2026/
#هوش_مصنوعی 🤖 #گوگل #Gemini #تبلیغات #AI
این یعنی Gemini کمکم به درگاه اصلی کسب درآمد برای کل اکوسیستم هوش مصنوعی گوگل تبدیل میشود؛ جایی که جستجو، پاسخدهی و تعامل کاربر مستقیماً به مدلهای زبانی متصل است و تبلیغات هم بخشی طبیعی از آن خواهد شد.
به زبان ساده:
گوگل میخواهد همان کاری را که با جستجو انجام داد، با چتباتهای هوش مصنوعی هم تکرار کند — پلتفرمی که هم مفید است و هم پولساز.
https://www.adweek.com/media/google-gemini-ads-2026/
#هوش_مصنوعی 🤖 #گوگل #Gemini #تبلیغات #AI
❤2👎1
This media is not supported in your browser
VIEW IN TELEGRAM
✨ مدل EgoEdit: ویرایش ویدئوهای اولشخص به صورت بلادرنگ
📝 خلاصه:
مدل EgoEdit یک مدل و دیتاست جدید برای ویرایش ویدئوهای اولشخص (Egocentric Video Editing) است که میتواند در زمان واقعی و تنها با دستورهای متنی، ویدئو را تغییر دهد.
این سیستم برای شرایط چالشی مثل لرزش شدید دوربین، حرکت بدن و تعامل دست–شیء طراحی شده و نسبت به روشهای موجود عملکرد دقیقتر و پایدارتری دارد.
🔸 ویژگیها:
♻️ویرایش لحظهای ویدئوهای POV بدون نیاز به ماسکگذاری دستی
♻️مدیریت هوشمند egomotion (حرکت شدید دوربین روی سر/چشم)
♻️تشخیص بهتر تعامل دست با اشیا
♻️مدل سبک و سریع برای استفاده روی دستگاههای کاربردی
♻️معرفی یک دیتاست و بنچمارک استاندارد برای ارزیابی سیستمهای ویرایش اولشخص
🔹 تاریخ انتشار: ۵ دسامبر
🔗 لینکها:
• ArXiv:
https://arxiv.org/abs/2512.06065
• PDF:
https://arxiv.org/pdf/2512.06065
• صفحه پروژه:
https://snap-research.github.io/EgoEdit/
• گیتهاب:
https://github.com/snap-research/EgoEdit
==============================
#AI #DataScience #MachineLearning #HuggingFace #Research
📝 خلاصه:
مدل EgoEdit یک مدل و دیتاست جدید برای ویرایش ویدئوهای اولشخص (Egocentric Video Editing) است که میتواند در زمان واقعی و تنها با دستورهای متنی، ویدئو را تغییر دهد.
این سیستم برای شرایط چالشی مثل لرزش شدید دوربین، حرکت بدن و تعامل دست–شیء طراحی شده و نسبت به روشهای موجود عملکرد دقیقتر و پایدارتری دارد.
🔸 ویژگیها:
♻️ویرایش لحظهای ویدئوهای POV بدون نیاز به ماسکگذاری دستی
♻️مدیریت هوشمند egomotion (حرکت شدید دوربین روی سر/چشم)
♻️تشخیص بهتر تعامل دست با اشیا
♻️مدل سبک و سریع برای استفاده روی دستگاههای کاربردی
♻️معرفی یک دیتاست و بنچمارک استاندارد برای ارزیابی سیستمهای ویرایش اولشخص
🔹 تاریخ انتشار: ۵ دسامبر
🔗 لینکها:
• ArXiv:
https://arxiv.org/abs/2512.06065
• PDF:
https://arxiv.org/pdf/2512.06065
• صفحه پروژه:
https://snap-research.github.io/EgoEdit/
• گیتهاب:
https://github.com/snap-research/EgoEdit
==============================
#AI #DataScience #MachineLearning #HuggingFace #Research
👍1
This media is not supported in your browser
VIEW IN TELEGRAM
🎥مانور دیدنی راننده هوش مصنوعی
@rss_ai_ir
@rss_ai_ir
❤1🔥1👏1
[SUBJECT] bathed in the soft, ethereal glow of a Nocturnal Forest Luminance, with fireflies and bioluminescent plants illuminating the darkness. Utilize a palette of soft, shimmering colors, including [COLOR1] and [COLOR2], to create an enchanting atmosphere
👍2🔥1👏1
🧄 اوپناِیآی به شکل غیرمستقیم به «garlic» اشاره کرده؛ همان اسم رمزی که مدتهاست دربارهٔ مدل بعدی شایعه شده است.
منتظر معرفی GPT-5.2 در همین امروز باشید؛ موج جدیدی از رقابت در مدلهای پیشرفته در راه است.
@rss_ai_ir
#هوش_مصنوعی #مدل_جدید #OpenAI #GPT52 #garlic 🤖🔥
منتظر معرفی GPT-5.2 در همین امروز باشید؛ موج جدیدی از رقابت در مدلهای پیشرفته در راه است.
@rss_ai_ir
#هوش_مصنوعی #مدل_جدید #OpenAI #GPT52 #garlic 🤖🔥
❤3
This media is not supported in your browser
VIEW IN TELEGRAM
🎨 فتوشاپ و آکروبات مستقیم داخل چتجیپیتی!
الان میتوانید بدون خروج از چتجیپیتی با محصولات ادوبی کار کنید 👀
اول از مسیر
Settings → Apps and Connections
برنامههای ادوبی را وصل کنید.
بعد داخل چت روی دکمه ➕ بزنید → More را انتخاب کنید و مثلاً فتوشاپ را فعال کنید. بعدش مثل یک آدم حسابی مینشینید با فتوشاپ گپ میزنید 😄
من از «فتوشاپچنکو» خواستم پسزمینه را حذف کند.
جواب داد:
Need removeBackground call with nativeImage path and mask…
و شروع کرد درباره maskURI و لینک خارجی توضیح دادن 🤯
قول داد اسلایدرهای خودش را نشانم بدهد، ولی توی چت فقط یک صفحهی سفید دیدم 🤷♂️
برای شما چطوره کار میکنه؟
@rss_ai_ir
#هوش_مصنوعی #چت_جی_پی_تی #ادوبی #فتوشاپ #آکروبات #ai
الان میتوانید بدون خروج از چتجیپیتی با محصولات ادوبی کار کنید 👀
اول از مسیر
Settings → Apps and Connections
برنامههای ادوبی را وصل کنید.
بعد داخل چت روی دکمه ➕ بزنید → More را انتخاب کنید و مثلاً فتوشاپ را فعال کنید. بعدش مثل یک آدم حسابی مینشینید با فتوشاپ گپ میزنید 😄
من از «فتوشاپچنکو» خواستم پسزمینه را حذف کند.
جواب داد:
Need removeBackground call with nativeImage path and mask…
و شروع کرد درباره maskURI و لینک خارجی توضیح دادن 🤯
قول داد اسلایدرهای خودش را نشانم بدهد، ولی توی چت فقط یک صفحهی سفید دیدم 🤷♂️
برای شما چطوره کار میکنه؟
@rss_ai_ir
#هوش_مصنوعی #چت_جی_پی_تی #ادوبی #فتوشاپ #آکروبات #ai
🔥1👏1
⚡️ پست تازهی آندری کارپاتی؛ ارزیابی خودکار بحثهای Hacker News بعد از ده سال
کارپاتی تمام ۹۳۰ پست و گفتوگوهای صفحهٔ اول Hacker News در دسامبر ۲۰۱۵ را گرفت و با GPT-5.1 Thinking بهصورت خودکار تحلیل کرد تا مشخص شود کدام نظرها آیندهنگرانه و کدام اشتباهترین پیشبینیها بودهاند.
⏱️ کل فرایند فقط ۳ ساعت کدنویسی و حدود ۱ ساعت و ۶۰ دلار هزینهٔ اجرا داشته.
چرا مهم است؟
1️⃣ تحلیل «بعد از گذشت زمان» یک ابزار قدرتمند برای تقویت مهارت پیشبینی است. خواندن این نتایج نشان میدهد کجا افراد درست آینده را دیده بودند و کجا اشتباه کردهاند.
2️⃣ تصور کن در آینده مدلهای زبانی بتوانند چنین تحلیلهایی را رایگان و در مقیاس عظیم انجام دهند. هر کامنت یا نوشتهٔ آنلاین میتواند ده سال بعد زیر میکروسکوپ هوش مصنوعی قرار بگیرد. همانطور که کارپاتی گفته بود:
«مهربان باشید؛ مدلهای آینده مراقب شما هستند.»
🏆 ده حساب کاربری که دقیقترین و آیندهنگرانهترین نظرات را داشتهاند:
pcwalton، tptacek، paulmd، cstross، greglindahl، moxie، hannob، 0xcde4c3db، Manishearth و johncolanduoni
🔗 لینکها:
• گزارش کامل:
karpathy.bearblog.dev/auto-grade-hn/
• کد پروژه:
github.com/karpathy/hn-time-capsule
• نتایج آماده:
karpathy.ai/hncapsule/
#هوش_مصنوعی @rss_ai_ir #تحلیل_داده #GPT51 #کارپاتی #پیش_بینی #AI
کارپاتی تمام ۹۳۰ پست و گفتوگوهای صفحهٔ اول Hacker News در دسامبر ۲۰۱۵ را گرفت و با GPT-5.1 Thinking بهصورت خودکار تحلیل کرد تا مشخص شود کدام نظرها آیندهنگرانه و کدام اشتباهترین پیشبینیها بودهاند.
⏱️ کل فرایند فقط ۳ ساعت کدنویسی و حدود ۱ ساعت و ۶۰ دلار هزینهٔ اجرا داشته.
چرا مهم است؟
1️⃣ تحلیل «بعد از گذشت زمان» یک ابزار قدرتمند برای تقویت مهارت پیشبینی است. خواندن این نتایج نشان میدهد کجا افراد درست آینده را دیده بودند و کجا اشتباه کردهاند.
2️⃣ تصور کن در آینده مدلهای زبانی بتوانند چنین تحلیلهایی را رایگان و در مقیاس عظیم انجام دهند. هر کامنت یا نوشتهٔ آنلاین میتواند ده سال بعد زیر میکروسکوپ هوش مصنوعی قرار بگیرد. همانطور که کارپاتی گفته بود:
«مهربان باشید؛ مدلهای آینده مراقب شما هستند.»
🏆 ده حساب کاربری که دقیقترین و آیندهنگرانهترین نظرات را داشتهاند:
pcwalton، tptacek، paulmd، cstross، greglindahl، moxie، hannob، 0xcde4c3db، Manishearth و johncolanduoni
🔗 لینکها:
• گزارش کامل:
karpathy.bearblog.dev/auto-grade-hn/
• کد پروژه:
github.com/karpathy/hn-time-capsule
• نتایج آماده:
karpathy.ai/hncapsule/
#هوش_مصنوعی @rss_ai_ir #تحلیل_داده #GPT51 #کارپاتی #پیش_بینی #AI
❤2👍1
🚀 ابزار جدید Qwen-Image-i2L از DiffSynth-Studio منتشر شد؛ نخستین ابزار متنباز که فقط با یک تصویر برایت مدل LoRA میسازد!
این ابزار از روی یک عکس، چهار نوع اطلاعات مختلف را استخراج میکند تا یک لورای اختصاصی بسازد:
🎨 سبک (Style)
فقط سبک و حالوهوای تصویری را یاد میگیرد.
🧩 Coarse
ترکیب سبک + محتوای کلی صحنه.
✨ Fine
بهبود جزئیات در ابعاد ۱۰۲۴×۱۰۲۴ (همراه با Coarse استفاده میشود).
⚖️ Bias
هماهنگسازی خروجی با سبک تصویری مخصوص مدل Qwen-Image.
هسته سیستم بر پایه SigLIP2 + DINOv3 + Qwen-VL ساخته شده است.
نتیجه؟ با یک تصویر میتوانی خیلی سریع یک LoRA شخصی بسازی—بدون نیاز به دیتاست بزرگ و آموزش طولانی.
🔗 ModelScope
modelscope.cn/models/DiffSynth-Studio/Qwen-Image-i2L/summary
💻 کد
github.com/modelscope/DiffSynth-Studio/blob/main/examples/qwen_image/model_inference_low_vram/Qwen-Image-i2L.py
#هوش_مصنوعی #تولید_تصویر #Qwen #LoRA #دیپ_لرنینگ #مدل_متن_باز
این ابزار از روی یک عکس، چهار نوع اطلاعات مختلف را استخراج میکند تا یک لورای اختصاصی بسازد:
🎨 سبک (Style)
فقط سبک و حالوهوای تصویری را یاد میگیرد.
🧩 Coarse
ترکیب سبک + محتوای کلی صحنه.
✨ Fine
بهبود جزئیات در ابعاد ۱۰۲۴×۱۰۲۴ (همراه با Coarse استفاده میشود).
⚖️ Bias
هماهنگسازی خروجی با سبک تصویری مخصوص مدل Qwen-Image.
هسته سیستم بر پایه SigLIP2 + DINOv3 + Qwen-VL ساخته شده است.
نتیجه؟ با یک تصویر میتوانی خیلی سریع یک LoRA شخصی بسازی—بدون نیاز به دیتاست بزرگ و آموزش طولانی.
🔗 ModelScope
modelscope.cn/models/DiffSynth-Studio/Qwen-Image-i2L/summary
💻 کد
github.com/modelscope/DiffSynth-Studio/blob/main/examples/qwen_image/model_inference_low_vram/Qwen-Image-i2L.py
#هوش_مصنوعی #تولید_تصویر #Qwen #LoRA #دیپ_لرنینگ #مدل_متن_باز
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
💡 استارتاپی در آمریکا دستیار هوش مصنوعی را… صاحب «روح» کرد!
مهندسان جوان یک چراغ هوشمند به نام Ongo ساختهاند که از شخصیت لامپ معروف Pixar و حتی حالوهوای ربات WALL·E الهام گرفته شده است.
این وسیله فقط یک چراغ نیست؛ رفتار و شخصیت دارد:
✨ شوخی میکند
🗣️ گفتوگوهای کوتاه و بامزه انجام میدهد
🕺 با آهنگها تکان میخورد و «میرقصد»
🤖 از مدلهای هوش مصنوعی برای واکنش طبیعیتر استفاده میکند
طراحان «روح» و شخصیت این چراغ را با کمک یکی از نویسندگان Toy Story شکل دادهاند تا حس واقعی یک موجود کوچک و بامزه را منتقل کند.
بهنظر میرسد قبل از اینکه Disney از آنها شکایت کند (!) بد نیست یکی دو تا برای خانه تهیه کنیم.
https://ongolamp.com/
#هوش_مصنوعی #گجت #ربات #استارتاپ #طراحی_محصول
مهندسان جوان یک چراغ هوشمند به نام Ongo ساختهاند که از شخصیت لامپ معروف Pixar و حتی حالوهوای ربات WALL·E الهام گرفته شده است.
این وسیله فقط یک چراغ نیست؛ رفتار و شخصیت دارد:
✨ شوخی میکند
🗣️ گفتوگوهای کوتاه و بامزه انجام میدهد
🕺 با آهنگها تکان میخورد و «میرقصد»
🤖 از مدلهای هوش مصنوعی برای واکنش طبیعیتر استفاده میکند
طراحان «روح» و شخصیت این چراغ را با کمک یکی از نویسندگان Toy Story شکل دادهاند تا حس واقعی یک موجود کوچک و بامزه را منتقل کند.
بهنظر میرسد قبل از اینکه Disney از آنها شکایت کند (!) بد نیست یکی دو تا برای خانه تهیه کنیم.
https://ongolamp.com/
#هوش_مصنوعی #گجت #ربات #استارتاپ #طراحی_محصول
❤3👍1🔥1🥰1
تراکم روباتها در روسیه در سال ۲۰۲۵ به ۴۰ واحد خواهد رسید
اینکه، Kept دادههای مربوط به روباتسازی در روسیه را منتشر کرده است. تراکم روباتیک در سال ۲۰۲۵ با رشد ۳۶ درصدی به ۴۰ روبات صنعتی بهازای هر ۱۰ هزار کارگر خواهد رسید. سرعت رشد از میانگین جهانی بالاتر است، اما همچنان موانعی وجود دارد که مانع دستیابی به اهداف سال ۲۰۳۰ میشود.
بر اساس فرمان ولادیمیر پوتین در تاریخ ۷ ژوئن ۲۰۲۴، هدف این است که روسیه تا سال ۲۰۳۰ وارد ۲۵ کشور برتر جهان از نظر تراکم روباتیک شود.
اما کاهش تولید صنعتی، نرخهای بالای بهره، الزامهای مربوط به بومیسازی تجهیزات، و کمبود سرمایهگذاری، همگی روند توسعهی روباتیک را کند کردهاند.
🔗 منبع:
https://mltimes.ai/plotnost-robotov-v-rossii-dostignet-40-edinicz-v-2025-godu/
اینکه، Kept دادههای مربوط به روباتسازی در روسیه را منتشر کرده است. تراکم روباتیک در سال ۲۰۲۵ با رشد ۳۶ درصدی به ۴۰ روبات صنعتی بهازای هر ۱۰ هزار کارگر خواهد رسید. سرعت رشد از میانگین جهانی بالاتر است، اما همچنان موانعی وجود دارد که مانع دستیابی به اهداف سال ۲۰۳۰ میشود.
بر اساس فرمان ولادیمیر پوتین در تاریخ ۷ ژوئن ۲۰۲۴، هدف این است که روسیه تا سال ۲۰۳۰ وارد ۲۵ کشور برتر جهان از نظر تراکم روباتیک شود.
اما کاهش تولید صنعتی، نرخهای بالای بهره، الزامهای مربوط به بومیسازی تجهیزات، و کمبود سرمایهگذاری، همگی روند توسعهی روباتیک را کند کردهاند.
🔗 منبع:
https://mltimes.ai/plotnost-robotov-v-rossii-dostignet-40-edinicz-v-2025-godu/
❤2👍1
🚨 افشاگری بزرگ: دیپسیک از GPUهای ممنوعه Blackwell برای آموزش مدل بعدی خود استفاده میکند
گزارش The Information نشان میدهد که شرکت DeepSeek در حال آموزش نسل بعدی مدلهای هوش مصنوعی خود روی هزاران GPU بلکوِل است؛ چیپهایی که صادراتشان به چین بهطور رسمی ممنوع شده است.
نکتهٔ عجیبتر اینجاست که این شرکت از یک فرایند چندمرحلهای استفاده میکند:
🔹 ابتدا سرورها در دیتاسنترهای خارجی مونتاژ و تست میشوند
🔹 سپس دستگاهها باز شده و تحت عنوان تجهیزات دیگر دوباره وارد چین میشوند
🔹 در نهایت، سیستمها داخل دیتاسنترهای چین دوباره مونتاژ و فعال میگردند
این فرایند نشان میدهد محدودیتهای صادراتی آمریکا عملاً ناکارآمد باقی ماندهاند—حتی با وجود فشار دولت آمریکا و پروندههای اخیر قاچاق.
همزمان، Nvidia تلاش دارد مکانیاب داخلی GPUها را فعال کند تا بتواند چیپهای واردشده بهصورت غیرقانونی را از راه دور غیرفعال کند.
نکتهٔ بسیار مهم:
چین علاقهٔ کمی به GPU مجاز H200 نشان داده—احتمالاً چون شرکتهای بزرگ قبلاً به بلکوِلِ قدرتمند دسترسی پیدا کردهاند، هرچند بهصورت غیررسمی.
🔗 لینک گزارش:
theinformation.com/articles/deepseek-using-banned-nvidia-chips-race-build-next-model
@rss_ai_ir
#هوش_مصنوعی #Nvidia #DeepSeek #تحریم #Blackwell #فناوری #اخبار_هوش_مصنوعی
گزارش The Information نشان میدهد که شرکت DeepSeek در حال آموزش نسل بعدی مدلهای هوش مصنوعی خود روی هزاران GPU بلکوِل است؛ چیپهایی که صادراتشان به چین بهطور رسمی ممنوع شده است.
نکتهٔ عجیبتر اینجاست که این شرکت از یک فرایند چندمرحلهای استفاده میکند:
🔹 ابتدا سرورها در دیتاسنترهای خارجی مونتاژ و تست میشوند
🔹 سپس دستگاهها باز شده و تحت عنوان تجهیزات دیگر دوباره وارد چین میشوند
🔹 در نهایت، سیستمها داخل دیتاسنترهای چین دوباره مونتاژ و فعال میگردند
این فرایند نشان میدهد محدودیتهای صادراتی آمریکا عملاً ناکارآمد باقی ماندهاند—حتی با وجود فشار دولت آمریکا و پروندههای اخیر قاچاق.
همزمان، Nvidia تلاش دارد مکانیاب داخلی GPUها را فعال کند تا بتواند چیپهای واردشده بهصورت غیرقانونی را از راه دور غیرفعال کند.
نکتهٔ بسیار مهم:
چین علاقهٔ کمی به GPU مجاز H200 نشان داده—احتمالاً چون شرکتهای بزرگ قبلاً به بلکوِلِ قدرتمند دسترسی پیدا کردهاند، هرچند بهصورت غیررسمی.
🔗 لینک گزارش:
theinformation.com/articles/deepseek-using-banned-nvidia-chips-race-build-next-model
@rss_ai_ir
#هوش_مصنوعی #Nvidia #DeepSeek #تحریم #Blackwell #فناوری #اخبار_هوش_مصنوعی