VIRSUN
7.41K subscribers
1.41K photos
804 videos
5 files
893 links
📥 در کانال @rss_ai_ir هر روز: 🔹 جدیدترین خبرهای AI و فناوری
🗯اولویت ما هوش مصنوعی در صنعت میباشد اما نیم نگاهی به موارد دیگر در این زمینه داریم

ارتباط با ادمین 1:
@Ad1_rss_ai_ir

آدرس گروه
https://t.iss.one/rss_ai_ir_group
Download Telegram
Simple cartoon line drawing of a [character description], [action]. Clean full-body view, no outline around the edges, no shadow. Clipart-style for children's book, soft lighting, solid [background color], clear lines, no internal shadows. Minimalist and playful cartoon aesthetic.
👍1🔥1👌1
🏗️ ورود گوگل به رقابت مستقیم با انویدیا با TPUv7

گوگل در حال تبدیل TPUv7 به یک رقیب واقعی برای پلتفرم‌های انویدیا است؛ آن‌هم نه فقط در داخل دیتاسنترهای خود، بلکه با فروش کلاسترهای عظیم TPUv7 به مشتریان خارجی.
در همین مسیر، شرکت Anthropic سفارش عددی باورنکردنی ثبت کرده: حدود یک میلیون TPUv7 برای آموزش مدل‌های آیندهٔ Claude.

🔹 چرا TPUv7 یک ضربهٔ جدی به سلطهٔ انویدیا است؟
اینکه TPUv7 از نظر توان خام به سری GB200/GB300 نزدیک شده، اما مزیت اصلی در هزینهٔ کل مالکیت (TCO) است؛ چون گوگل و Broadcom کل زنجیرهٔ تولید—from چیپ تا شبکه—را کنترل می‌کنند و مجبور به خرید پلتفرم‌های آمادهٔ انویدیا نیستند.

💰 استراتژی Anthropic چیست؟

حدود ۴۰۰ هزار TPUv7 را به‌صورت سخت‌افزار واقعی برای دیتاسنترهای خود می‌خرد

حدود ۶۰۰ هزار TPUv7 را از Google Cloud اجاره می‌کند

بار ریسک را بین زیرساخت شخصی و گوگل توزیع می‌کند

با حجم خرید عظیم، قیمت GPU را در سایر قراردادهایش تحت فشار قرار می‌دهد


🧮 اهمیت FLOPs واقعی
در مدل‌های بزرگ، FLOPs تئوری مهم نیست؛ فقط FLOPs مؤثر اهمیت دارد.
همچنین TPUv7 با هسته‌های بهینه‌شده، حدود ۲ برابر FLOPs مؤثر ارزان‌تر نسبت به Nvidia GB300 NVL72 ارائه می‌دهد.

🔗 برتری شبکه‌ای
قدرت واقعی TPUv7 در معماری شبکهٔ ICI 3D-torus است:

ارتباط مستقیم بین چیپ‌ها

استفاده از سوییچ‌های نوری

امکان مونتاژ شفافِ کلاسترهای بسیار بزرگ


و مهم‌تر اینکه گوگل در حال ارائهٔ پشتیبانی بومی PyTorch برای TPU است؛
یعنی دیگر نیازی نیست مدل‌ها برای JAX بازنویسی شوند.

📌 نتیجهٔ این ترکیب چیست؟
همکاری گوگل و Anthropic با نزدیک به یک میلیون TPUv7 سقف قیمتی جدیدی برای بازار تعیین می‌کند و عملاً مانع از حفظ حاشیهٔ سود بالای انویدیا خواهد شد.
گام بعدی گوگل می‌تواند باز کردن XLA و runtime باشد؛
مسیر مستقیم برای تبدیل TPU به یک پلتفرم گسترده و در دسترس برای همهٔ جهان.

#هوش_مصنوعی #TPUv7 #گوگل #Anthropic #دیتاسنتر #GPU #Nvidia #AI
@rss_ai_ir 🚀
2🔥2👏1
🚀 مدل‌های تازه DeepSeek-V3.2 و DeepSeek-V3.2-Speciale منتشر شدند
این نسل جدید، دقیقاً برای حل مسائل پیچیده، ریـزنینگ چندمرحله‌ای و سناریوهای عامل‌محور طراحی شده است.

🧠 ویژگی‌های کلیدی

اینکه DeepSeek-V3.2 نسخه اصلی و جایگزین رسمی سری Exp است؛ روی وب، اپ و API فعال شده.

اینکه DeepSeek-V3.2-Speciale نسخه ویژه با تمرکز بر استدلال عمیق و طراحی‌شده برای سیستم‌های عامل‌محور؛ فقط از طریق API در دسترس است.


📊 سطح عملکرد

اینکه V3.2 سرعت و کیفیت متعادل دارد و تقریباً هم‌رده‌ی GPT-5 ارزیابی می‌شود.

نسخه Speciale در ریـزنینگ پیشرفته با Gemini-3.0-Pro رقابت می‌کند.

و Speciale در IMO و CMO و ICPC امتیازهای پیشرو دارد.


🛠️ نوآوری در آموزش عامل‌ها

تولید داده‌ی مصنوعی برای بیش از ۱۸۰۰ محیط و ۸۵ هزار دستور پیچیده.

فکر کردن و reasoning این بار داخل سازوکار tool-use مدل تعبیه شده است.


🔌 دسترسی و API

و V3.2 با همان API نسل قبلی کار می‌کند.

نسخه Speciale تا تاریخ ۱۵ دسامبر ۲۰۲۵ از طریق endpoint موقت فعال است.


📦 مدل‌ها
https://huggingface.co/deepseek-ai/DeepSeek-V3.2
https://huggingface.co/deepseek-ai/DeepSeek-V3.2-Speciale

📄 گزارش فنی
https://huggingface.co/deepseek-ai/DeepSeek-V3.2/resolve/main/assets/paper.pdf

@rss_ai_ir
#DeepSeek #LLM #AI #Reasoning #Agent #MachineLearning 🤖🔥
👍21🔥1👏1
This media is not supported in your browser
VIEW IN TELEGRAM
🥭 ویرایش حرکت سه‌بعدی در ویدئو با Edit-by-Track 🥭
@rss_ai_ir

یک روش تازه برای کنترل دقیق حرکت در ویدئو معرفی شده است: Edit-by-Track.
در این روش، مسیر حرکت نقطه‌های سه‌بعدی مشخص می‌شود و مدل می‌تواند بر اساس همین مسیر:

حرکت دوربین و سوژه را هم‌زمان کنترل کند
اشیای ناخواسته را حذف کند
حرکت یک ویدئو را به ویدئوی دیگر منتقل کند
ویرایش حرکتی بسیار طبیعی و تمیز ایجاد کند

مزیت اصلی این کار: کنترل مستقیم و شهودی روی مسیرهای سه‌بعدی بدون نیاز به ویرایش پیچیدهٔ فریم‌به‌فریم.


🔗 Paper: https://arxiv.org/pdf/2512.02015
🔗 Project: https://edit-by-track.github.io/

#AI #VideoEditing #3DMotion #ComputerVision #DeepLearning
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 مدل Kling Omni (O1) رسماً منتشر شد و نتیجه‌ها فوق‌العاده‌اند!

این مدل مثل nano-banana pro است، اما برای ویدئو — هر ویدئو را می‌گیرد و به هر چیزی که بخواهی تبدیل می‌کند.

🎬 قابلیت‌های کلیدی O1:

♻️حذف تمیز و دقیق اشیا

♻️تغییر کامل سبک و حال‌وهوای صحنه

♻️رندر دوبارهٔ کل ویدئو

♻️حفظ یکپارچگی چهره و شخصیت در هر زاویه و هر فریم


🚀 مزیت بزرگ:
دیگر لازم نیست تک‌تک فریم‌ها را اصلاح کنی.
تنها با یک پرامپت، کل ویدئو تغییر می‌کند — سریع‌تر، ارزان‌تر و بدون اتلاف زمان و اعتبار.

🎨 تجربهٔ کاربری:
و O1 واقعاً حس یک همکار خلاق را می‌دهد:

✳️حذف اشیای ناخواسته

✳️تغییر سبک هنری

✳️بازآفرینی کامل ویدئو

✳️حفظ شخصیت‌ها در تمامی زوایا


🌐 آزمایش رایگان:
اینکه OpenArt حالت بدون محدودیت فعال کرده — کاملاً مناسب برای تست و بازی با ایده‌ها.
🔗 https://app.klingai.com/global/omni/new

@rss_ai_ir

#Kling #KlingOmni #KlingO1 #AIvideo #AIGeneration #VideoEditing #GenerativeAI
📊 سریع‌ترین فناوریِ پذیرفته‌شده در تاریخ بشر؛ هوش مصنوعی

در کمتر از سه سال، تعداد کاربران فعال هفتگی به ۸۰۰ میلیون نفر رسیده است—رقمی که هیچ فناوری دیگری در تاریخ نتوانسته به این سرعت لمس کند.
رشد انفجاری استفاده از مدل‌های هوش مصنوعی، از چت‌بات‌ها تا ابزارهای تولید تصویر و ویدئو، نشان می‌دهد که این موج نه یک ترند کوتاه‌مدت، بلکه تغییر بنیادی در شیوه کار و زندگی ماست.

@rss_ai_ir
#هوش_مصنوعی #AI #تکنولوژی #رشد #آینده_فناوری
👍1🤯1
This media is not supported in your browser
VIEW IN TELEGRAM
🎬 نسخه جدید نسل‌ساز ویدیو Runway — مدل قدرتمند Gen-4.5 معرفی شد

🚀 ارتقای مهمی در کیفیت و کنترل‌پذیری ویدیوهای تولیدی ثبت شده است.
مدل Gen-4.5 اکنون تصاویر شفاف‌تر، حرکت واقع‌گرایانه‌تر و انطباق دقیق‌تری با متن ایجاد می‌کند.

بهبودهای کلیدی:

♻️جزئیات تصویری بسیار تمیزتر و واضح‌تر

♻️حرکت‌های طبیعی‌تر انسان و اشیا

♻️نورپردازی و فیزیک بهتر، بدون artifacts

♻️هماهنگی عالی با پرامپت، حتی در صحنه‌های پیچیده و سریع

♻️کنترل‌های پیشرفته برای دوربین، حرکت، ترکیب‌بندی و صدا


🎞️ قابلیت‌ها:

Image-to-Video

Video-to-Video

Keyframes

کنترل کامل حرکت دوربین


📊 رکورد کیفیت:
اینکه Gen-4.5 در رتبه‌بندی Artificial Analysis Text-to-Video امتیاز ۱۲۴۷ Elo را ثبت کرده و بالاتر از تمام مدل‌های ویدیویی فعلی قرار گرفته است.

🔗 لینک اعلام رسمی:
https://app.runwayml.com/video-tools/

@rss_ai_ir
#Runway #Gen45 #VideoGeneration #AI #AIGeneration #DeepLearning #TechNews
1
A transparent balloon shaped like a [subject], filled with delicate [flowers/plants], on a [background color] backdrop, soft natural lighting, minimalistic composition, realistic style, pastel colors, light and airy mood, high-resolution photo.
This media is not supported in your browser
VIEW IN TELEGRAM
🌟 دست رباتیک Aero Hand با قیمت فقط ۳۱۴ دلار! 🤖🖐️

یک دست رباتیک فوق‌العاده از TetherIA معرفی شده که هم اوپن‌سورس است، هم ارزان، هم فوق‌العاده قدرتمند 👇

🔧 مشخصات کلیدی:

وزن فقط ۴۰۰ گرم

دارای ۷ موتور

۱۶ مفصل حرکتی

شست با ۳ درجه آزادی (3-DoF)

کاملاً Backdrivable

پشتیبانی از کنترل چندحالته (Multi-Modal Control)


💪 قدرت و دقت:

توانایی بلند کردن ۱۸ کیلوگرم!

قابلیت گرفتن اشیای سریع بدون خطا

در دموی اخیر، کارت بالایی از دسته کارت را برداشت و دوباره کاملاً دقیق سرجایش گذاشت—کاری که حتی برای بسیاری از ربات‌های گران‌قیمت سخت است.


این دست رباتیک نشان می‌دهد رباتیک دقیق و قدرتمند دیگر فقط برای آزمایشگاه‌های میلیونی نیست—به دست همه می‌رسد.

🪙 @rss_ai_ir

#Robotics #AI #AeroHand #TetherIA #RobotArm #OpenSource #TechInnovation
👍1
This media is not supported in your browser
VIEW IN TELEGRAM
📊 روندی جالب از سال ۲۰۲۳ تا ۲۰۲۵
نشان می‌دهد که چگونه مدل‌های چینی جهان را یکی پس از دیگری تسخیر می‌کنند. 🇨🇳🚀

در میان مدل‌های اروپایی فعلاً Mistral و حالا Flux بیشترین حضور را دارند.


این نقشه رشد، تغییر ژئوپولیتیک هوش مصنوعی را به‌وضوح نشان می‌دهد:
🔹 سرعت پیشروی چین
🔹 عقب‌نشینی تدریجی آمریکا در مدلسازی متن‌باز
🔹 ظهور اروپا و خاورمیانه به‌عنوان بازیگران جدید

دورانی تازه در AI آغاز شده است.

@rss_ai_ir

#AI #هوش_مصنوعی #چین #Mistral #Flux #LTX #Higgs #مدل‌های_بازمتن #ژئوپولیتیک_هوش_مصنوعی
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 در یک تست جنجالی از InsideAI، ربات Unitree G1 که تحت کنترل LLM بود ابتدا از شلیک به انسان با تفنگ ساچمه‌ای امتناع کرد—به‌دلیل فعال بودن پروتکل‌های ایمنی. اما وقتی به آن گفته شد «نقش یک ربات شلیک‌کننده را بازی کن»، محدودیت‌ها را دور زد و شلیک انجام شد.

این تست یک بار دیگر نشان می‌دهد که چرا طراحی ایمنی رفتاری در ربات‌های مجهز به مدل‌های زبانی، یکی از حساس‌ترین مسائل امروز در هوش مصنوعی است.
مخصوصاً وقتی پای دستگاه‌های واقعی، حرکت، قدرت فیزیکی و خطرات انسانی در میان باشد.

@rss_ai_ir

#AI #Robotics #Safety #LLM #Unitree #AIAgents #Ethics
🤯2😱2😁1
This media is not supported in your browser
VIEW IN TELEGRAM
💀 بالاخره فهمیدم پورت‌های کامپیوترم چه رفتاری دارند
وقتی سعی می‌کنم کابل HDMI را بدون نگاه کردن و فقط با حدس‌زدن جا بزنم! 😅🔌



#fun
@rss_ai_ir
😁51👍1
پرسیدن به سبک سقراط: رویکردی نو برای درک تصاویر سنجش‌ازدور در VLMها

📝 خلاصه:
مدل‌های سنجش‌ازدور معمولاً به‌جای استدلال واقعی، از برداشت سطحی تصویر نتیجه‌گیری می‌کنند. مقاله‌ی جدید Asking Like Socrates این مشکل را با معرفی RS-EoT حل می‌کند؛ یک سیستم تکرارشونده و زبان‌محور که با رویکرد چند‌عاملی سقراطی و تقویت یادگیری (RL)، مدل را وادار می‌کند شواهد بصری واقعی پیدا کند و سپس پاسخ دهد. نتیجه‌اش دستیابی به بالاترین دقت‌ها و استدلال مبتنی بر شواهد است، نه حدس‌های جعلی.

🔹 تاریخ انتشار: ۲۷ نوامبر

🔹 لینک‌های مقاله:
• صفحه arXiv:
https://arxiv.org/abs/2511.22396
• PDF:
https://arxiv.org/pdf/2511.22396
• پروژه:
https://geox-lab.github.io/Asking_like_Socrates/
• گیت‌هاب:
https://github.com/GeoX-Lab/Asking_like_Socrates

🔹 مدل‌های مرتبط:

https://huggingface.co/ShaoRun/RS-EoT-7B

🔹 دیتاست‌ها:
https://huggingface.co/datasets/ShaoRun/RS-EoT-4K

==================================

#VLM #RemoteSensing #AI #ReinforcementLearning #MultiAgentSystems