AI Pulse
3.59K subscribers
336 photos
118 videos
5 files
129 links
اخبار، اموزش و معرفی ابزارهای هوش مصنوعی
Download Telegram
گوگل دیپ‌مایند از مدل هوش مصنوعی جدیدی به نام AlphaGenome پرده برداشته که می‌تونه نحوه عملکرد و تأثیر جهش‌های ژنتیکی رو با دقت بی‌سابقه‌ای پیش‌بینی کنه. این مدل، قدم بزرگی در مسیر رمزگشایی از نحوه خوانده شدن دستورات ژنتیکی سلول‌هاست؛ یعنی همون دستورالعمل‌هایی که بدن رو شکل می‌دن، رشد می‌دن یا حتی باعث بیماری می‌شن.

‏AlphaGenome برخلاف مدل‌های قبلی، می‌تونه تا یک میلیون حرف DNA رو به‌صورت هم‌زمان پردازش کنه و هزاران ویژگی مولکولی رو برای هر توالی پیش‌بینی کنه. این یعنی پژوهشگران دیگه لازم نیست برای بررسی هر ویژگی ژنتیکی از یک مدل جداگانه استفاده کنن. با یه API ساده، می‌تونن تأثیر جهش‌های ژنتیکی رو روی فرآیندهای مختلف مثل شروع یا پایان ژن‌ها، میزان RNA تولیدشده یا محل اتصال پروتئین‌ها بررسی کنن.

این مدل بر پایه معماری Enformer ساخته شده و نسبت به اون، دقت و کارایی بیشتری داره. یکی از ویژگی‌های برجسته‌ی AlphaGenome، توانایی پیش‌بینی دقیق جهش‌هایی‌یه که باعث بیماری‌های نادر می‌شن؛ مثل جهش‌هایی که روی فرآیند splice شدن RNA تأثیر می‌ذارن. این نوع تحلیل تا حالا با هیچ مدل دیگه‌ای ممکن نبوده.

در آزمایش‌های مختلف، AlphaGenome تونسته در ۲۲ مورد از ۲۴ معیار پیش‌بینی توالی DNA، بهترین عملکرد رو در مقایسه با مدل‌های موجود داشته باشه. این موفقیت، اون رو به یک ابزار عمومی قدرتمند تبدیل می‌کنه که می‌تونه در تحقیقات بنیادی، زیست‌فناوری و بررسی بیماری‌ها مثل سرطان و اختلالات نادر ژنتیکی نقش بزرگی داشته باشه.

گرچه AlphaGenome هنوز محدودیت‌هایی هم داره، مثل پیش‌بینی دقیق اثر عناصر تنظیم‌کننده‌ی خیلی دور در توالی DNA؛ اما DeepMind قول داده که مدل رو بهبود بده و با جامعه علمی تعامل داشته باشه. این مدل در حال حاضر به‌صورت پیش‌نمایش و فقط برای اهداف غیرتجاری از طریق API قابل استفاده‌ست.

گوگل می‌گه این مدل می‌تونه نقش مهمی در توسعه درمان‌های جدید، طراحی DNA مصنوعی هدفمند و درک عمیق از عملکرد ژن ها داشته باشه.

@aipulse24
🔥28👍75❤‍🔥1
گوگل دیپ‌مایند اعلام کرده که Isomorphic Labs، بازوی کشف داروی این شرکت، به شروع آزمایش‌های انسانی داروهای طراحی‌شده با هوش مصنوعی خیلی نزدیک شده.

کالین مرداک، رئیس این شرکت، توی مصاحبه‌ای گفته که الان توی دفترشون در لندن، بعضی‌ها دارن با کمک AI دارو برای سرطان طراحی می‌کنن و قدم بعدی، آزمایش روی انسانه.

‏Isomorphic Labs سال ۲۰۲۱ از دل پروژه AlphaFold‏ بیرون اومد؛ همون مدلی که ساختار پروتئین‌ها رو با دقت خیلی بالا پیش‌بینی می‌کرد و بعدها تونست تعاملشون با مولکول‌هایی مثل DNA و داروها رو هم شبیه‌سازی کنه.

این شرکت تو سال ۲۰۲۴ با Novartis و Eli Lilly همکاری کرد و بعد از انتشار AlphaFold 3، حدود ۶۰۰ میلیون دلار سرمایه جذب کرد. هدفشون ساخت یه موتور طراحی داروی سطح‌بالاست که بتونه با ترکیب AI و تخصص داروسازی، داروها رو خیلی سریع‌تر، دقیق‌تر و ارزون‌تر طراحی کنه.

مرداک می‌گه شاید یه روزی بتونیم فقط با یه کلیک، برای هر بیماری یه داروی جدید بسازیم.

@aipulse24
👍22🔥109❤‍🔥1
ایلان ماسک چهارشنبه شب از مدل جدید هوش مصنوعی شرکت xAI با نام Grok 4 رونمایی کرد؛ مدلی پیشرفته که با هدف رقابت با ChatGPT و Gemini طراحی شده.

‏xAI همزمان اشتراک ماهانه‌ی جدیدی با عنوان SuperGrok Heavy معرفی کرده که ۳۰۰ دلار قیمت داره و فعلاً گرون‌ترین پلن بین همه‌ی شرکت‌های هوش مصنوعیه. Grok که حالا به طور عمیق‌تری با شبکه‌ی اجتماعی X (توئیتر سابق) ادغام شده، قابلیت تحلیل تصویر و پاسخ به سوالات مختلف رو داره.

مدل جدید در دو نسخه منتشر شده: Grok 4 و نسخه‌ی قوی‌ترش Grok 4 Heavy که عملکرد چندعامله داره. به‌گفته‌ی ماسک، این نسخه مثل یه گروه مطالعه عمل می‌کنه و چند مدل به‌صورت موازی روی یه مسئله کار می‌کنن و در نهایت بهترین پاسخ رو ارائه می‌دن. بنچمارک‌ها نشون میدن که Grok 4 توی آزمون Humanity’s Last Exam امتیاز ۲۵.۴ درصد گرفته که از مدل‌های رقیب مثل Gemini 2.5 Pro و o3 بهتره، و نسخه Heavy این مدل با ابزار تونسته به امتیاز ۴۴.۴ درصد برسه.

اما معرفی Grok 4 در شرایطی انجام شد که شرکت با یه بحران بزرگ روبه‌رو بوده. چند روز پیش، اکانت رسمی Grok توی X با انتشار پست‌هایی یهودستیزانه و تحسین‌آمیز نسبت به هیتلر جنجالی شد. این اتفاق باعث شد xAI اون بخش از دستورالعمل مدل رو که بهش اجازه‌ی اظهارنظرهای "غیرسیاسی‌کارانه" می‌داد حذف کنه. با این حال، توی مراسم معرفی، ماسک و مدیرای شرکت درباره‌ی این حواشی سکوت کردن و تمرکز رو گذاشتن روی قدرت فنی مدل جدید.

‏xAI گفته که به‌زودی Grok 4 رو از طریق API در اختیار توسعه‌دهنده‌ها می‌ذاره و در ماه‌های آینده قراره چند محصول دیگه مثل مدل کدنویسی (آگوست)، عامل چندحالته (سپتامبر) و مدل تولید ویدیو (اکتبر) هم معرفی بشن. هرچند عملکرد Grok روی کاغذ چشم‌گیره، اما اینکه آیا شرکت‌ها حاضرن با وجود این حواشی ازش استفاده کنن یا نه، هنوز مشخص نیست.

@aipulse24
🔥173👍1
This media is not supported in your browser
VIEW IN TELEGRAM
کاربران اشتراک‌های پولی جمنای در برخی کشورها حالا میتونن با آپلود یک عکس و توصیف صحنه مد نظرشون با استفاده از مدل Veo 3 اون رو به یک ویدیوی ۸ ثانیه‌ای تبدیل کنن.

@aipulse24
15👍12🔥2
پت گلسینگر، مدیرعامل سابق اینتل، بعد از پایان دوران ۴۰ ساله‌اش در این شرکت، حالا وارد مسیر تازه‌ای شده: تلاش برای این‌که مدل‌های هوش مصنوعی در راستای رشد و شکوفایی انسان عمل کنن. اون با همکاری یک شرکت فعال در حوزه اعتمادسازی مدل های هوش مصنوعی به نام Gloo، که حدود ده سال پیش توش سرمایه‌گذاری کرده بود، یک معیار جدید معرفی کرده به اسم Flourishing AI (FAI)؛ معیاری برای سنجش میزان هم‌راستایی (alignment) مدل‌های زبانی با ارزش‌ها و مفاهیم انسانی.

این معیار بر اساس یک پژوهش جهانی به اسم Global Flourishing Study ساخته شده که توسط دانشگاه‌های هاروارد و بایلر هدایت می‌شه و تمرکزش روی اندازه‌گیری سطح رفاه انسانی (human well-being) در نقاط مختلف دنیاست.

شرکت Gloo از دل این مطالعه شش شاخص اصلی انتخاب کرده:
۱- «منش و فضیلت» (Character and Virtue)
۲- «روابط اجتماعی نزدیک» (Close Social Relationships)
۳- «شادکامی و رضایت از زندگی» (Happiness and Life Satisfaction)
۴-«معنا و هدف» (Meaning and Purpose)
۵- «سلامت روانی و جسمی» (Mental and Physical Health)
۶- «ثبات مالی و مادی» (Financial and Material Stability)

بعد هم خودش یک شاخص دیگه بهش اضافه کرده: «ایمان و معنویت» (Faith and Spirituality) تا ببینه مدل‌های زبانی بزرگ در هرکدوم از این حوزه‌ها چه عملکردی دارن.

گلسینگر در گفت‌وگویی با The New Stack گفته که همیشه ارتباط میان تکنولوژی و باورهای اعتقادی برایش جذاب بوده و حالا با راه‌اندازی FAI می‌خواد به این سوال پاسخ بده که آیا مدل‌های هوش مصنوعی می‌تونن در خدمت رشد واقعی انسان‌ها قرار بگیرن یا نه. این حرکت، بخشی از جریان رو‌به‌رشدی‌ـه که می‌خواد مطمئن بشه هوش مصنوعی فقط قوی و سریع نیست، بلکه «هم‌راستا با انسان» هم هست.

@aipulse24
👍19🤣61
شرکت Moonshot AI از مدل اوپن سورس جدید خودش به اسم Kimi K2 رونمایی کرده؛ یه مدل قدرتمند با ساختار Mixture-of-Experts که توی هر بار استفاده، ۳۲ میلیارد پارامتر فعال داره و در مجموع، به عدد خیره‌کننده‌ی ۱ تریلیون پارامتر می‌رسه. Kimi K2 نه‌تنها توی تسک‌هایی مثل دانش عمومی، ریاضیات و برنامه‌نویسی عملکرد درخشانی داره، بلکه برای انجام وظایف عامل‌محور (agentic tasks) هم بهینه‌سازی شده؛ یعنی فقط جواب نمی‌ده، خودش می‌فهمه باید چی کار کنه و اجراش می‌کنه. Moonshot دو نسخه از این مدل رو منتشر کرده: نسخه‌ی Base برای پژوهشگرها و توسعه‌دهنده‌هایی که می‌خوان مدل رو به دلخواه خودشون تغییر بدن، و نسخه‌ی Instruct که برای استفاده‌ی آماده در تجربه‌های چت و اجرای وظایف طراحی شده.

یکی از ویژگی‌های جالب Kimi K2 اینه که فقط به سؤال‌ها جواب نمی‌ده، بلکه می‌تونه خودش از ابزارها استفاده کنه و یه پروژه رو تا انتها ببره جلو. توی یه نمونه تحلیل داده، Kimi K2 با استفاده از ۱۶ مرحله‌ی کدنویسی در IPython، داده‌های حقوق سال‌های ۲۰۲۰ تا ۲۰۲۵ رو بررسی کرده و تأثیر «نسبت دورکاری» روی حقوق رو توی سطوح مختلف تجربه‌ی شغلی تحلیل کرده. این مدل نه‌تنها تحلیل آماری انجام داده و نمودار ساخته، بلکه در نهایت یه وب‌سایت کامل با شبیه‌ساز تعاملی ساخته که کاربر می‌تونه اطلاعات خودش رو وارد کنه و ببینه دورکاری براش خوبه یا نه.

از لحاظ فنی، Kimi K2 توی بنچمارک‌های مهمی مثل LiveCodeBench، OJBench، SWE-bench و AIME، عملکرد فوق‌العاده‌ای داشته و تونسته بعضی از مدل‌های بزرگ دیگه مثل GPT-4، Claude 4 و Gemini 2.5 رو پشت سر بذاره یا باهاشون رقابت کنه. این مدل به‌ویژه توی وظایف عامل‌محور، عملکردی داره که باعث شده توی دسته‌ی non-thinking models به یکی از بهترین‌ها تبدیل بشه.

‏Kimi K2 با یه بهینه‌ساز جدید به اسم MuonClip آموزش دیده؛ نسخه‌ی پیشرفته‌تر Muon که از تکنیکی به اسم qk-clip استفاده می‌کنه تا مشکل ناپایداری آموزش رو حل کنه. این مدل با بیش از ۱۵.۵ تریلیون توکن آموزش دیده و تیم Moonshot برای افزایش هوشمندی مدل، از داده‌سازی وسیع عامل‌محور و یادگیری تقویتی عمومی استفاده کرده. این یادگیری باعث شده مدل بتونه حتی برای کارهایی که معیار مشخصی ندارن (مثل نوشتن گزارش یا مدیریت ابزارها) هم تصمیم‌گیری کنه.

‏Kimi K2 از امروز روی وب‌سایت kimi.com در دسترس عموم قرار گرفته و کاربران می‌تونن به‌صورت رایگان ازش استفاده کنن. نسخه‌ی API هم ارائه شده که با استانداردهای OpenAI و Anthropic سازگاره و برای ساخت اپ‌های عامل‌محور قابل استفاده‌ست. هنوز ورودی تصویری به این مدل اضافه نشده و گاهی ممکنه توی تسک‌های پیچیده خروجی ناقص بده، ولی Moonshot وعده داده این محدودیت‌ها توی نسخه‌های بعدی برطرف می‌شن.

@aipulse24
👍1713🔥1
شرکت OpenAI از قابلیت جدیدی به نام «ChatGPT Agent» رونمایی کرده که می‌تونه بعضی از وظایف پیچیده رو به‌صورت خودکار و از ابتدا تا انتها انجام بده. این ایجنت طوری طراحی شده که فقط با یه درخواست ساده از طرف کاربر، خودش همه‌ی مراحل لازم رو انجام بده؛ مثلاً اگه ازش بخوای یه ارائه برای جلسه‌ی کاری آماده کنه، خودش می‌ره اطلاعات مربوط رو جمع می‌کنه، تحلیلشون می‌کنه و یه فایل پاورپوینت قابل ویرایش تحویلت می‌ده.

این ایجنت در واقع نسخه‌ی پیشرفته‌ای از ابزارهای قبلی OpenAI مثل Operator و Deep Researchه، که حالا همه‌ی قابلیت‌هاشون یک جا جمع شده. ایجنت می‌تونه توی صفحات وب بگرده، کلیک کنه، کد اجرا کنه، به ابزارهایی مثل تقویم و جیمیل وصل بشه و حتی با APIهای مختلف ارتباط بگیره. چیزی که این ویژگی رو خاص کرده، اینه که برای انجام خیلی از این کارها دیگه نیاز به مداخله‌ی مستقیم کاربر نیست، فقط کافیه هدفت رو مشخص کنی.

با این حال، OpenAI برای حفظ امنیت و کنترل کاربران یه‌سری محدودیت‌ هم در نظر گرفته. ایجنت قبل از انجام هر اقدام مهمی اجازه می‌گیره، همه‌ی کارهاش قابل پیگیری و متوقف شدنه و فعلاً اجازه‌ی انجام کارهای حساس مالی یا چیزهایی که خطر سوءاستفاده داشته باشه رو نداره. کاربر می‌تونه مسیر کارهایی که ایجنت انجام داده رو ببینه و هر لحظه جلوی اون رو بگیره.

فعلاً این قابلیت فقط برای تعداد محدودی از کاربران نسخه‌های Pro، Plus و Team فعال شده و قراره به‌زودی در دسترس کاربرهای Enterprise و Education هم قرار بگیره. اونایی که به این ابزار دسترسی پیدا کردن، می‌تونن از طریق گزینه‌ی جدیدی به اسم Agent Mode ازش استفاده کنن. وظایف انجام‌شده هم توی یه گزارش شفاف برای کاربر نمایش داده می‌شه.

واکنش‌ها نسبت به این ابزار جدید متفاوته. خیلی‌ها گفتن که بالاخره هوش مصنوعی داره از مرحله‌ی پاسخ‌گویی صرف عبور می‌کنه و تبدیل به یه دستیار واقعی می‌شه. اما بعضی‌ها هم گفتن ایجنت هنوز تو اجرای بعضی کارها کند یا ناپایداره و ممکنه گاهی کار رو درست نفهمه. با این حال، خود OpenAI هم تأکید کرده که این نسخه‌ی اولیه‌ست و توسعه‌اش به‌تدریج ادامه پیدا می‌کنه.

@aipulse24
❤‍🔥14👍6😴1
شرکت OpenAI از دستیابی به یک پیشرفت چشمگیر در توانایی استدلال مدل‌های زبانی خودش در حل مسائل پیچیده ریاضی خبر داده؛ موفقیتی که می‌تونه یکی از جدی‌ترین گام‌ها در مسیر رسیدن به هوش مصنوعی عمومی (AGI) تلقی بشه. مدل آزمایشی OpenAI موفق شده در رقابت رسمی المپیاد جهانی ریاضی ۲۰۲۵، پنج مسئله از شش مسئله اصلی رو حل کنه و با کسب ۳۵ امتیاز از مجموع ۴۲، به سطح مدال طلا برسه. این اولین‌باریه که یک مدل هوش مصنوعی به چنین سطحی در یکی از دشوارترین آزمون‌های ریاضی جهان می‌رسه. تمام پاسخ‌ها به زبان طبیعی نوشته شدن، هیچ ابزاری استفاده نشده و داوری هم به‌صورت ناشناس توسط مدال‌آوران سابق IMO انجام شده.

نکته مهم اینجاست که برخلاف مدل‌هایی مثل AlphaGeometry که به‌طور خاص برای ریاضی طراحی شدن، مدل OpenAI یه مدل عمومی برای استدلال و زبان محسوب می‌شه و از هیچ روش مهندسی‌شده‌ای برای حل این مسائل استفاده نکرده. به گفته الکساندر وی، سرپرست تیم تحقیقاتی این پروژه، این دستاورد نتیجه به‌کارگیری تکنیک‌های جدید در یادگیری تقویتی عمومی و افزایش توان محاسباتی در زمان اجراست. نوآم براون، یکی دیگه از پژوهشگرهای OpenAI، هم تأیید کرده که این مدل بر پایه روش‌هایی آزمایشی ساخته شده و هنوز جای زیادی برای ارتقاء داره.

جری توورک، پژوهشگر دیگه OpenAI، گفته که این مدل هیچ آموزش اختصاصی برای IMO ندیده و تنها روی مدل پایه عمومی شرکت آموزش بیشتری دیده. او این موفقیت رو یه «پیشرفت واقعی تحقیقاتی» توصیف کرده که توسط تیم وی انجام شده و احتمال داده که نسخه‌ای از این مدل تا پایان سال منتشر بشه. به گفته توورک، همین سیستم یادگیری تقویتی، پشت چندتا از اعلام‌های اخیر OpenAI هم بوده؛ از جمله ایجنت جدید ChatGPT و مدلی که توی یک رقابت برنامه‌نویسی نزدیک‌ترین نتیجه رو به انسان‌ها گرفته.

زمان انتشار این خبر هم قابل توجهه. چند روز قبل، پلتفرم MathArena گزارش داده بود که مدل‌های زبانی معروف مثل Gemini 2.5 Pro، Grok-4، DeepSeek-R1 و حتی مدل‌های o3 و o4-mini متعلق به خود OpenAI، عملکرد بسیار ضعیفی در حل مسائل IMO داشتن و حتی به آستانه مدال برنز هم نرسیدن. این مدل‌ها در آزمون‌ها پر از خطاهای منطقی، راه‌حل‌های ناقص و حتی قضایای ساختگی بودن. در مقایسه با این نتایج، دستاورد OpenAI یه پاسخ مستقیم و پرقدرت به محدودیت‌های فعلی مدل‌های زبانیه.

‏OpenAI فعلاً برنامه‌ای برای انتشار عمومی این مدل نداره و تأکید کرده که این یه پروژه تحقیقاتی‌ه، نه یه محصول نهایی. با این حال، نوآم براون گفته که این فناوری در آینده می‌تونه به محصول تبدیل بشه و با توجه به سرعت پیشرفت، نسخه‌های بعدی حتی فراتر از این هم خواهند رفت. به گفته اون، این نتایج حتی برای کارکنان خود OpenAI هم غافلگیرکننده بوده و می‌تونن نقطه عطفی باشن که خیلی‌ها انتظارش رو تا چند سال دیگه داشتن.

@aipulse24
🔥262👍2
AI Pulse
شرکت OpenAI از دستیابی به یک پیشرفت چشمگیر در توانایی استدلال مدل‌های زبانی خودش در حل مسائل پیچیده ریاضی خبر داده؛ موفقیتی که می‌تونه یکی از جدی‌ترین گام‌ها در مسیر رسیدن به هوش مصنوعی عمومی (AGI) تلقی بشه. مدل آزمایشی OpenAI موفق شده در رقابت رسمی المپیاد…
حالا توی این بحبوحه یه اتفاق جالب هم افتاده، ظاهرا گوگل حتی یک روز قبل از OpenAI مدال طلا رو گرفته ولی اعلام نکردن!
تا این لحظه هم هیچ مطلبی درموردش روی وبسایت دیپ‌مایند یا جای دیگه‌ای قرار ندادن.

@aipulse24
🔥22😁5👍3
AI Pulse
حالا توی این بحبوحه یه اتفاق جالب هم افتاده، ظاهرا گوگل حتی یک روز قبل از OpenAI مدال طلا رو گرفته ولی اعلام نکردن! تا این لحظه هم هیچ مطلبی درموردش روی وبسایت دیپ‌مایند یا جای دیگه‌ای قرار ندادن. @aipulse24
فعلا ۲تا تئوری داره توی تویتر راجع به این میچرخه:

۱. موسسه المپیاد ریاضی از هردو این ها خواسته بوده که اجازه بدن تا توجه ها روی موفقیت بچه های رقابت کننده باقی بمونه و تا پایان مراسم اعلام نکنن گوگل به این درخواست متعهد مونده و اعلام نکرده ولی openai گوش نداده و زودتر اعلام کرده

۲. گمانه زنی دوم اینه که گوگل خبر رو فرستاده واسه تیم مارکتینگ و تا اونا برای انتشار و نحوه انتشار تایید های نهایی رو بدن openai اعلام کرده و توجه هارو به خودش جلب کرده
👍23
AI Pulse
حالا توی این بحبوحه یه اتفاق جالب هم افتاده، ظاهرا گوگل حتی یک روز قبل از OpenAI مدال طلا رو گرفته ولی اعلام نکردن! تا این لحظه هم هیچ مطلبی درموردش روی وبسایت دیپ‌مایند یا جای دیگه‌ای قرار ندادن. @aipulse24
دیپ مایند بالاخره به صورت رسمی کسب مدال طلای المپیاد ریاضی رو اعلام کرده.

به دنبال اون دمیس هاسابیس هم در توییتر توضیحاتی در این مورد داده، اون گفته ما روز جمعه اعلام نکردیم چون به درخواست اولیهٔ هیئت برگزاری المپیاد جهانی ریاضی (IMO) احترام گذاشتیم؛ درخواستی که گفته بود همهٔ آزمایشگاه‌های هوش مصنوعی نتایجشون رو فقط بعد از این منتشر کنن که نتایج رسمی توسط کارشناسان مستقل تأیید شده باشه و شرکت کننده‌ها تحسینی که شایسته‌اش بودن رو به‌درستی دریافت کرده باشن.

الان بهمون اجازه داده شده که نتایجمون رو منتشر کنیم و خوشحالیم که یکی از اولین گروه هایی بودیم که نتایج مدل‌هامون به‌صورت رسمی توسط کارشناسان IMO ارزیابی و تأیید شده و موفق به دریافت اولین مدال طلای رسمی برای یک سیستم هوش مصنوعی شدیم.


@aipulse24
🫡287👍5🤯1😭1
شرکت Runway ازAct-Two رونمایی کرده که نسخه پیشرفته‌تری از فناوری قبلی این شرکت یعنی Act-One به شمار می‌ره. این ابزار به کاربر اجازه می‌ده با ترکیب یک ویدیوی اجرا (شامل حرکت، حالت چهره و گفتار) با تصویر یا ویدیویی از یک شخصیت، خروجی‌هایی واقع‌گرایانه و متحرک تولید کنه. Act-Two برای تصویرهای شخصیت، به‌طور خودکار حرکات محیطی مثل لرزش دوربین رو اضافه می‌کنه و امکان کنترل حرکات بدن و دست‌ها از طریق ویدیوی اجرا رو هم فراهم کرده.

این ابزار از طریق نسخه وب در دسترسه و خروجی‌ها رو با نسبت‌های مختلف تصویری و نرخ فریم ۲۴ فریم بر ثانیه تولید می‌کنه. هزینه استفاده از Act-Two برابر با ۵ کردیت به ازای هر ثانیه و با حداقل زمان ۳ ثانیه (۱۵ کردیت) تعیین شده. کاربران می‌تونن تنظیماتی مثل شدت حالت‌های چهره و فعال یا غیرفعال بودن کنترل حرکات بدن رو هم پیش از تولید مشخص کنن. به‌گفته Runway، این ابزار در کنترل دقیق‌تر ژست‌ها، پشتیبانی از شخصیت‌های غیرانسانی و ترکیب سبک‌های متنوع، نسبت به نسخه قبلی خودش پیشرفت قابل توجهی داشته.

@aipulse24
10🔥5👍4