VIRSUN
6.08K subscribers
1.07K photos
626 videos
5 files
689 links
📥 در کانال @rss_ai_ir هر روز: 🔹 جدیدترین خبرهای AI و فناوری
🗯اولویت ما هوش مصنوعی در صنعت میباشد اما نیم نگاهی به موارد دیگر در این زمینه داریم

ارتباط با ادمین 1:
@Ad1_rss_ai_ir

آدرس گروه
https://t.iss.one/rss_ai_ir_group
Download Telegram
🌍 Awesome-World-Models —
مرجع جامع مدل‌های جهان در هوش مصنوعی منتشر شد! 🌐🤖

در گیت‌هاب، یک ریپازیتوری بزرگ و گزینش‌شده با نام Awesome-World-Models منتشر شده است که تمام منابع کلیدی درباره‌ی مفهوم World Models را گردآوری کرده — رویکردی که در آن سیستم هوش مصنوعی یک مدل درونی از جهان می‌سازد تا بتواند محیط را درک کند و رفتارهای آینده را پیش‌بینی نماید 🧠


---

📚 در این مجموعه می‌یابید:

✳️پژوهش‌های اصلی در حوزه‌ی Embodied AI و رباتیک تطبیقی

✳️مقالات درباره‌ی رانندگی خودران و پیش‌بینی محیط پویا

✳️مدل‌های زبانی با زمینه‌ی بلندمدت (Long-context NLP) و قابلیت برنامه‌ریزی (Planning)

✳️و ده‌ها پروژه دیگر در حوزه‌هایی که هوش مصنوعی باید جهان را درک کرده و در آن عمل کند.



---

💡 اگر به مدل‌هایی علاقه دارید که فراتر از پردازش داده، درک ساختاری از واقعیت می‌سازند —
این ریپازیتوری بهترین نقطه‌ی شروع است 🚀

🔗 GitHub:
github.com/knightnemo/Awesome-World-Models

📡 @rss_ai_ir
#هوش_مصنوعی #WorldModels #EmbodiedAI #Robotics #AutonomousDriving #NLP #AI #تکنولوژی
1👏1👌1
🆕عامل UI-Ins؛ عامل هوشمند رابط کاربری از TongyiLab و دانشگاه RUC 🤖📱

⛔️پژوهشگران TongyiLab و دانشگاه Renmin چین (RUC) مدل جدیدی به نام UI-Ins معرفی کرده‌اند — یک عامل هوش مصنوعی GUI که می‌تواند با رابط‌های کاربری موبایل کار کند و بهتر از مدل‌های قبلی نیت کاربر را درک کند.

---

🧠 چه چیزی UI-Ins را خاص می‌کند؟

برخلاف مدل‌های قدیمی که هر فرمان را فقط یک اقدام می‌دیدند، UI-Ins هر درخواست را به‌صورت زنجیره‌ای از استدلال‌ها (Chain of Reasoning) تفسیر می‌کند.
یعنی قبل از عمل، می‌فهمد هدف واقعی کاربر چیست، چند مسیر ممکن را بررسی می‌کند و بهترین را انتخاب می‌کند.

---
📊 نتایج و عملکرد

در بنچمارک AndroidWorld، مدل به دقت ۷۴.۱٪ در انجام صحیح وظایف رسید.
در مقایسه، مدل Gemini 2.5 Computer Use تنها ۶۹.۷٪ موفقیت داشت.
یعنی UI-Ins در محیط‌های واقعی موبایل پایدارتر و دقیق‌تر عمل می‌کند.

---

⚙️ ویژگی‌ها

♻️تحلیل هدف کاربر پیش از اقدام
♻️تولید چند مسیر فکری و انتخاب بهترین گزینه
♻️سازگاری با تغییرات وضعیت برنامه

مناسب برای کارهای خودکار مثل:
✦ کلیک روی دکمه‌ها
✦ پرکردن فرم‌ها
✦ بازکردن اپ‌ها
✦ اجرای توالی مراحل در رابط گرافیکی


📦 عرضه در دو نسخه:

UI-Ins-7B
UI-Ins-32B

---

🔗 لینک‌ها:
🤖 UI-Ins-7B
🤖 UI-Ins-32B
📄 مقاله در arXiv

📡 @rss_ai_ir
#هوش_مصنوعی #Agents #GUI #MobileAgents #AndroidWorld #LLM #TongyiLab #RUC #Automation
1👌1
This media is not supported in your browser
VIEW IN TELEGRAM
🧠 به‌روزرسانی جدید Neuralink از نخستین داوطلب انسانی

۲۱ ماه پس از جراحی کاشت تراشه مغزی، نولان آربو (Nolan Arbo) — نخستین انسان دارای ایمپلنت Neuralink — زندگی جدیدی را با پیوند مستقیم ذهن و ماشین تجربه می‌کند.


---

💡 آربو که پس از آسیب نخاعی دچار فلج کامل شده بود، اکنون با استفاده از تراشه‌ای که آن را «Eve» نامیده، می‌تواند فقط با افکارش رایانه را کنترل کند 🖥️

او در حال حاضر به‌عنوان سخنران انگیزشی فعالیت می‌کند و در رشته‌ی علوم اعصاب (Neuroscience) تحصیل می‌کند تا خود بهتر درک کند که چگونه ذهنش اکنون با فناوری در ارتباط است.


---

🔹 همچنین Neuralink اکنون تماس کمتری با او دارد، زیرا چند داوطلب جدید به برنامه‌ی آزمایشی پیوسته‌اند.
🔹 آربو می‌گوید در تحصیل و فعالیت حرفه‌ای‌اش پیشرفت چشمگیری داشته و در سال ۲۰۲۶ خبر بزرگی منتشر خواهد کرد.


---

این گزارش تازه نشان می‌دهد که فناوری رابط مغز و ماشین Neuralink، از یک رؤیای علمی به ابزاری واقعی برای بازگرداندن استقلال و توانایی به انسان‌ها تبدیل شده است 🌍🧬

📡 @rss_ai_ir
#Neuralink #ElonMusk #Neuroscience #BCI #هوش_مصنوعی #تراشه_مغزی #NeuroTech #AI
2🔥2👍1👏1
🔔 پیشرفت بزرگ در هوش مصنوعی الهام‌گرفته از مغز — کاهش ۹۹٪ مصرف انرژی بدون افت دقت! 🧠

پژوهشگران گروه NICE در دانشگاه Surrey روش جدیدی برای اتصال نورون‌های مصنوعی طراحی کرده‌اند که از ساختار مغز انسان الهام گرفته است.
این روش با نام Topographical Sparse Mapping (TSM) شناخته می‌شود و هدف آن ایجاد شبکه‌های عصبی کم‌مصرف اما دقیق است.


---

💡 ایده‌ی اصلی

✳️در شبکه‌های سنتی، هر نورون تقریباً به همه‌ی نورون‌های دیگر متصل است — کاری بسیار پرهزینه از نظر انرژی و زمان.
✳️در روش TSM، هر نورون فقط به نورون‌های نزدیک یا مرتبط متصل می‌شود، درست مانند مغز که اتصالاتش بهینه و موضعی است.

✳️نسخه‌ی پیشرفته‌تر، Enhanced TSM (ETSM)، حتی فرآیند هرس (pruning) در مغز را شبیه‌سازی می‌کند تا اتصالات غیرضروری در طول یادگیری حذف شوند.


---

⚙️ نتایج شگفت‌انگیز

♻️تا ۹۹٪ کاهش در تراکم اتصالات (sparsity)
♻️مصرف انرژی کمتر از ۱٪ در مقایسه با روش‌های استاندارد
♻️سرعت آموزش بسیار بالاتر
♻️دقتی برابر یا حتی بالاتر از شبکه‌های کلاسیک 💥

---

این دستاورد می‌تواند مسیر را برای نسل جدیدی از هوش مصنوعی‌های نورومورفیک (Neuromorphic AI) و تراشه‌های هوشمند فوق‌کم‌مصرف هموار کند — سامانه‌هایی که واقعاً مانند مغز فکر و یاد می‌گیرند، نه فقط شبیه آن عمل می‌کنند.
https://x.com/dr_singularity/status/1984618986043003058?s=12


📡 @rss_ai_ir
#هوش_مصنوعی #Neuroscience #Neuromorphic #TSM #AI #انرژی #BrainInspiredAI #DeepLearning #تکنولوژی
1👍1👏1👌1
This media is not supported in your browser
VIEW IN TELEGRAM
✳️ طنز صبحگاهی


کنایه به کسانی که آن‌قدر غرق در اجرای مدل‌های LLM روی سیستم شخصی‌شان هستند که دیگر وقتی برای زندگی شخصی یا دنیای بیرون ندارند! 😂


📡 @rss_ai_ir
#طنز_هوش_مصنوعی #llamacpp #AI #میم #تکنولوژی
🤣7🔥2😁2
📄 مدل Nanonets-OCR2-3B — نسل جدید OCR هوشمند 🤖📑

مدل جدید Nanonets بر پایه‌ی Qwen2.5-VL-3B عرضه شده و فقط متن را نمی‌خواند — بلکه کل سند را به Markdown ساختاریافته تبدیل می‌کند: شامل جدول‌ها، فرمول‌ها، امضاها و حتی نمودارها! 🧠


---

🔍 قابلیت‌ها

🧮 تشخیص فرمول‌ها و تبدیل خودکار آن‌ها به LaTeX

📊 درک جدول‌ها و حفظ ساختارشان در Markdown یا HTML

☑️ شناسایی چک‌باکس‌ها و گزینه‌های انتخابی (☐ / / ☒)

🖋 شناسایی امضاها، واترمارک‌ها و تصاویر

🖼 افزودن تگ‌های تصویری <img> برای تصاویر درون سند

✍️ پشتیبانی از متون دست‌نویس و چندزبانگی

🧩 برای نمودارها و فلوچارت‌ها، تولید مستقیم کد Mermaid

💬 پاسخ‌گویی به سؤالات درباره‌ی محتوا (Visual QA)

---

🔗 مدل در Hugging Face:

👉 huggingface.co/nanonets/Nanonets-OCR2-3B

این مدل یک گام بزرگ در جهت درک عمیق اسناد تصویری است — از OCR سنتی تا تبدیل هوشمند به داده‌های ساختاریافته و قابل ویرایش 📄💡

📡 @rss_ai_ir
#هوش_مصنوعی #OCR #Nanonets #Qwen #LLM #بینایی_ماشین #AI #اسناد #تکنولوژی
This media is not supported in your browser
VIEW IN TELEGRAM
🪑 تو‌یوتا از صندلی هوشمند متحرک خود رونمایی کرد: «Walk Me» 🚶‍♂️💺

شرکت Toyota از مفهومی تازه به نام Walk Me پرده‌برداری کرده — صندلی‌ای با پایه‌های رباتیک که می‌تواند راه برود و حرکت کند! 🤖

صندلی به جای چرخ، از پاهای مکانیکی چندمفصلی بهره می‌برد که قابلیت حرکت در جهات مختلف را دارند. این طراحی نه‌تنها حمل‌ونقل فرد را آسان‌تر می‌کند، بلکه تجربه‌ای کاملاً متفاوت از تعامل انسان و ماشین ارائه می‌دهد.


---

🎮 حالا تصور کنید در آینده در اداره‌ها، مسابقات صندلی‌های متحرک برگزار شود! 😄
به‌گفته‌ی تویوتا، این طرح بخشی از پروژه‌های پژوهشی برای ربات‌های کمکی انسان‌محور (Human-Assistive Robots) است.

📡 @rss_ai_ir
#هوش_مصنوعی #رباتیک #Toyota #WalkMe #ربات #تکنولوژی #Robotics
🔥3👍1👏1
🎬 تولیدکننده‌ی پرامپت جدید برای Sora 2؛ گامی به‌سوی استودیوی سینمایی هوش مصنوعی 🎥

ابزاری رایگان برای کاربران Sora 2 معرفی شده که با هدف ساخت ویدیوهای سینمایی باکیفیت حرفه‌ای طراحی شده است — یک Prompt Generator ویژه که تنظیمات دقیق تصویربرداری، نورپردازی و تدوین را به‌صورت خودکار می‌سازد.


---

قابلیت‌های کلیدی:

🔸 بیش از ۶۴ پریست حرفه‌ای شامل زاویه‌ی دوربین، نورپردازی، رنگ‌بندی (Color Grading) و افکت‌های پس‌پردازش
🔸 پشتیبانی از ۶ نوع ویدیو مختلف — از میم‌ها و تبلیغات گرفته تا کلیپ‌های سینمایی و موزیک‌ویدیوها
🔸 دارای سازنده‌ی صحنه‌به‌صحنه (Scene Builder) برای ترکیب منظم و دقیق شات‌ها
🔸 کاملاً رایگان برای استفاده توسط سازندگان و هنرمندان AI 🎨


---

💡 اگر می‌خواهید Sora 2 را به یک استودیوی فیلم‌سازی تمام‌عیار هوش مصنوعی تبدیل کنید، این ابزار دقیقاً همان چیزی است که نیاز دارید.

https://studioprompt.ca/

📡 @rss_ai_ir
#هوش_مصنوعی #Sora #AIvideo #PromptEngineering #فیلمسازی #ویدیو #تکنولوژی #AIfilm
2🔥2👏1
📕🎓 کتاب جدید دانشگاه Harvard University درباره‌ی مهندسی سیستم‌های ML منتشر شد — مرور این لینک را از دست ندهید:

🔍 درباره‌ی کتاب:
این کتاب بر «مدل‌ها» تمرکز ندارد، بلکه روی مهندسی سیستم‌های ML است؛ یعنی طراحی، بهینه‌سازی، نگهداری و ارائه‌ی راهکارهای ML که در عمل کار می‌کنند. مولفان توضیح می‌دهند چگونه الگوریتم‌ها، داده‌ها و سخت‌افزار به هم متصل می‌شوند، چرا بعضی از پایپلاین‌ها مقیاس‌پذیرند و برخی زیر بار می‌شکنند.

📥 نسخه‌ی PDF و آنلاین:

دانلود رایگان PDF:
Machine Learning Systems

ریپازیتوری GitHub:

github.com/harvard-edge/cs249r_book


🌐 چرا باید بخوانید؟
• کتاب رایگان است و قابل مطالعه از هرجایی.
• مناسب مهندسین ML که می‌خواهند سیستم‌های واقعی با مقیاس بزرگ بسازند.
• منبعی کم‌نظیر در بازار که به جای تئوری صرف، بر چگونگی ساخت و عملیاتی‌سازی ML تمرکز دارد.

📡 @rss_ai_ir
#هوش_مصنوعی #MLSystems #مهندسی_ML #یادگیری_ماشین #Harvard #کتاب_رایگان
👍2🔥1👏1
This media is not supported in your browser
VIEW IN TELEGRAM
🧠💻 دیباگ با هوش مصنوعی حالا در مرورگر Chrome ممکن شد!

گوگل با یک قابلیت جدید در نسخه‌ی توسعه‌دهندگان Chrome DevTools کاربران را شگفت‌زده کرده است —
حالا می‌توانید کد خود را با کمک هوش مصنوعی مستقیماً در مرورگر دیباگ کنید!


---

🔍 این ویژگی به‌صورت یک AI Debug Assistant عمل می‌کند که:

♻️خطاها را در کنسول شناسایی می‌کند 🪲
♻️منطق کد را تحلیل و توضیح می‌دهد
♻️راه‌حل پیشنهادی ارائه می‌دهد (حتی snippet اصلاح‌شده را می‌نویسد!)
♻️می‌تواند کد را به زبان طبیعی برای شما توضیح دهد

---

این قابلیت فعلاً در مرحله‌ی آزمایشی است، اما آینده‌ی برنامه‌نویسی مرورگرمحور را متحول می‌کند —
جایی که Chrome نه‌تنها محیط اجرا، بلکه شریک هوشمند توسعه‌دهنده است 🤝

📡 @rss_ai_ir
#هوش_مصنوعی #Chrome #Google #AI #Debugging #DevTools #کدنویسی #تکنولوژی
🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 کاربرد جدید ربات‌های سگ‌نما در چین — مبارزه با آتش‌سوزی‌ها! 🇨🇳🤖

در چین از ربات‌های چهارپا (robodogs) برای عملیات آتش‌نشانی استفاده می‌شود. وظیفه‌ی اصلی آن‌ها حمل بارهای سنگین تا ۲۰۰ کیلوگرم و رساندن تجهیزات به مرکز آتش است — جایی که ورود انسان خطرناک یا غیرممکن است 🚒🔥


---

💡 این ربات‌ها با طراحی مقاوم در برابر حرارت و سیستم‌های هدایت از راه دور، می‌توانند:

✳️در محیط‌های دودآلود حرکت کنند

✳️اکسیژن، آب یا خاموش‌کننده‌ها را به تیم‌های امداد برسانند

✳️حتی در زمین‌های ناهموار و پرحرارت تعادل خود را حفظ کنند


✳️نوآوری‌ای که می‌تواند جان بسیاری از نیروهای آتش‌نشانی را نجات دهد و گامی مهم در اتوماسیون ایمنی شهری باشد.

📡 @rss_ai_ir
#رباتیک #هوش_مصنوعی #Firefighting #Robodog #China #تکنولوژی #امنیت #ربات
👍3
This media is not supported in your browser
VIEW IN TELEGRAM
🪷 مدل Chandra — OCR جدید از Datalab که DeepSeek و Mistral را شکست داد! 🇮🇳📄

تیم هندی Datalab مدل جدیدی به نام Chandra معرفی کرده است — سامانه‌ای قدرتمند برای تبدیل تصویر به متن (OCR) که در آزمایش‌های مختلف عملکردی بهتر از DeepSeek و Mistral داشته است 🚀


---

⚙️ ویژگی‌های برجسته

پشتیبانی از ۴۰ زبان مختلف 🌍

✳️تشخیص دقیق فرمول‌ها، متون دست‌نویس، و اسناد تاریخی ✍️

✳️تبدیل مستقیم محتوای تصویری به متن ساختاریافته با کد باز (Open Source)

✳️درک متون پیچیده علمی و ریاضی — حتی روی اسناد قدیمی مانند نوشته‌های رامانوجان (Ramanujan) در سال ۱۹۱۳! 🧮



---

🎥 دمو آنلاین:
🔗 Datalab Playground

💻 کد منبع:
🔗 GitHub – datalab-to/chandra


---

♻️مدل Chandra با ترکیب OCR کلاسیک، مدل‌های بینایی-زبانی و معماری سبک‌وزن Transformer،
به یکی از دقیق‌ترین ابزارهای دیجیتال‌سازی اسناد تاریخی و دست‌نویس‌های علمی تبدیل شده است.

📡 @rss_ai_ir
#هوش_مصنوعی #OCR #Chandra #DeepSeek #Mistral #Datalab #AI #ComputerVision #تکنولوژی
😂 این خبر بامزه است و ظاهراً واقعیت دارد: پژوهشگران University of Maryland و Microsoft بررسی‌ای انجام داده‌اند که در آن لهستانی (Polish) به‌عنوان مؤثرترین زبان برای پرامپت دادن به مدل‌های زبانی بزرگ (LLM) انتخاب شده است — با دقت حدود ۸۸٪ در مقایسه با سایر زبان‌ها.
نکات کلیدی:

انگلیسی در رده ششم قرار گرفته با حدود ۸۳.۹٪ دقت.

♻️چینی یکی از ضعیف‌ترین عملکردها را داشته، حدود ۶۲٪ دقت.

✳️پژوهشگران یکی از احتمالات را این می‌دانند که زبان‌های «اسلاوی» مثل لهستانی و روسی ممکن است دستور زبان و ساختار دستوری‌شان برای مدل‌ها واضح‌تر و کمتر مبهم‌تر باشد.

https://www.euronews.com/next/2025/11/01/polish-to-be-the-most-effective-language-for-prompting-ai-new-study-reveals


📡 @rss_ai_ir
#هوش_مصنوعی #LLM #زبانها #لهستانی #PormptEngineering
👍4
This media is not supported in your browser
VIEW IN TELEGRAM
🔔 مجموعه OpenAI حالت جدید “Agent Mode” را در ChatGPT فعال کرد! 🤖

ویژگی تازه‌ی Agent Mode اکنون در نسخه‌ی پیش‌نمایش برای کاربران Plus، Pro و Business در دسترس است.

---

🧠 با این حالت، ChatGPT می‌تواند:

جست‌وجو و تحقیق زنده انجام دهد 🌐

برنامه‌ریزی و تصمیم‌گیری کند 🗂️

اقدام‌های عملی در حین مرور کاربر انجام دهد (مثل رزرو، استخراج داده، اجرای وظایف و اتصال ابزارها) ⚙️



---

به بیان ساده، ChatGPT دیگر فقط پاسخ‌گو نیست — بلکه به یک عامل فعال (AI Agent) تبدیل می‌شود که می‌تواند همراه شما در مرور وب، تحلیل داده یا انجام کارهای روزمره عمل کند 🚀

📡 @rss_ai_ir
#هوش_مصنوعی #OpenAI #ChatGPT #AgentMode #AI #تکنولوژی #Automation
👍3
🔥 مدل NanoBanana برای علوم زمین (Geoscience): زمانی که مدل‌های Image-to-Image به ابزار علمی تبدیل می‌شوند 🌍🛰️

کاربر خلاقی ایده‌ای عالی را آزمایش کرده — استفاده از NanoBanana برای تحلیل محیطی واقعی: تولید نقشه حرارتی آسیب چمن (Grass Damage Heatmap) از عکس‌های هوایی پارک‌ها 🌿


🧩 پرامپت نهایی برای استفاده مستقیم:

Grass Damage Heatmap — Overlay Only

Goal
Return the original aerial photo with a high-contrast damage heatmap drawn only on grass. No side-by-side, no crops, no extra files.

Input
/mnt/data/333064BC-C638-4C4E-A255-DA277B7CD2AC.jpeg

1) Preprocess (robust color)
• Gray-world white balance and local illumination normalization (shadow-robust).
• Bilateral filter to reduce noise while preserving edges.

2) Grass segmentation (tighter)
• Use RGB vegetation indices to drive the mask:
ExG = 2G − R − B, VARI = (G − R) / (G + R − B + 1e-6).
Keep pixels with (ExG > p60_exg OR VARI > p60_vari) AND HSV hue in [70°,150°] OR low-chroma yellow/olive under shadow normalization.
• Explicitly exclude: tree canopies + shadows, bare soil/paths, playgrounds, buildings/roads/cars.
• Morphology: close→open to fill small holes; remove speckles < 0.5 m².

3) Damage score (shadow-robust, multi-cue)

damage_raw = w1*(1 - norm(VARi))
+ w2*yellow_brownness // hue shift 15°–70°, low S
+ w3*thin/patchy texture // low local NDVI proxy & high LBP contrast
+ w4*exposed-soil likelihood

Use w1=0.4, w2=0.3, w3=0.2, w4=0.1. Clamp to [0,1].
Distance-from-path prior: don’t boost 1–2 m fringe unless the damaged region extends ≥3 m into turf.

4) Adaptive contrast (per-lawn)
• Split grass into connected polygons (“lawns”).
• For each polygon, percentile scale p5→0, p95→1 (clip).
• Hide scores < 0.30.

5) Overlay style (make hotspots pop)
• Colormap (no green): purple → orange → yellow/white (plasma-like).
0.30–0.49 = purple, 0.50–0.74 = orange, ≥0.75 = yellow/white.
• Opacity on grass: 0.85.
• Non-grass context: grayscale at 40–45% brightness.
• Contours at 0.50 and 0.75 (white, 1–2 px).
• High-confidence “bald spots” (≥0.85 and area ≥ 3 m²): add thin black outline.

6) Legend (compact)
• “Grass damage (≥30%)” bar with ticks at 30/50/75/100; place top-right, non-occluding.

7) Output
• One PNG at native resolution: original image + overlay.



Ultra-short drop-in

“Overlay only. Segment grass via ExG/VARI + HSV; exclude trees/paths/buildings; shadow-robust. Score damage from (1−VARI), yellow/brownness, patchy texture, soil; apply path-fringe guard. Per-lawn percentile remap (p5→0, p95→1); hide <0.30. Draw purple→orange→yellow/white heatmap at 0.85 opacity on grass; rest grayscale 45%. Add white contours at 0.50/0.75 and black outlines for ≥0.85 ‘bald spots’. Return one PNG.”

---

📡 @rss_ai_ir
#هوش_مصنوعی #NanoBanana #Geoscience #VisionAI #ImageToImage #GIS #RemoteSensing #EnvironmentalAI #Heatmap
2
🤖 Rover X1 —
ربات‌سگ جدید چینی با قیمت فقط ۱۰۰۰ دلار! 🐕💨

چینی‌ها از Rover X1 رونمایی کرده‌اند؛ ربات‌سگی هوشمند که می‌تواند نگهبان، دستیار یا حتی همراه خانگی شما باشد — آن هم با قیمتی باورنکردنی فقط حدود ۱۰۰۰ دلار 🇨🇳⚙️


---

🔹 قابلیت‌ها:

♻️حرکت پایدار روی انواع سطوح (از پله تا چمن و آسفالت)

♻️ثبت عکس و ویدیو با دوربین داخلی 📸

♻️حمل اجسام و جابجایی بارهای سبک

♻️گشت‌زنی خودکار در محیط خانه یا حیاط

♻️کنترل از راه دور و پاسخ به فرمان‌های صوتی 🎙️



---

🎯ربات Rover X1 با ترکیب طراحی جمع‌وجور، پایداری حرکتی و سیستم بینایی هوشمند، می‌تواند هم ابزار امنیتی و هم همراه سرگرم‌کننده‌ای باشد.
فروش آن به‌زودی در چین آغاز می‌شود — آیا باید یکی بخریم؟ 😄🍔

📡 @rss_ai_ir
#هوش_مصنوعی #رباتیک #RoverX1 #Robodog #China #AI #تکنولوژی #روبات