Silicon Brain | جامعه هوش مصنوعی
6.86K subscribers
954 photos
104 videos
58 files
435 links
مغز سیلیکونی|جامعه هوش مصنوعی و یادگیری ماشین

گروه بحث و تبادل نظر:
https://t.iss.one/+SWbgmMZt0XU0MGY0

مطالب و بحث های بیشتر در اینستاگرام:
https://www.instagram.com/silicon_brain/

ارتباط با ادمین:
@silicon_brain_admin
Download Telegram
دوره جدید DeepLearning.Ai به اسم Agentic AI development

تو این دوره یاد میدن چطور با Claude Code برای توسعه Agentic AI کار کنی. مدرسش هم Elie Schoppik هست که رئیس بخش آموزش فنی توی شرکت Anthropicهستش.

و نشون میده که Claude Code چطور می‌تونه کدها رو بررسی (explore)، تست (test)، ریفکتور (refactor) و دیباگ (debug) کنه.

سر فصل ها:
Use Claude Code to explore, develop, test, refactor, debug codebases

Extend Claude Code with MCP servers such as Playwright and Figma MCP

Apply best practices to a RAG chatbot codebase (frontend and backend integration, planning, thinking mode, tests, refactoring, multi-session Git worktrees, GitHub integration, hooks)

Refactor an e-commerce Jupyter notebook, turn it into a dashboard

Build a web app from a Figma mockup using Figma MCP and Playwright integrations


لینک
silicon_brain | از هوش مصنوعی عقب نمانید
6❤‍🔥2👍1
‏Meta مدل TRIBE رو معرفی کرد - ترکیب ویدئو، صدا و متن برای مدل‌سازی مغز

تیم FAIR شرکت Meta یه مدل جدید ساخته به اسم TRIBE (Trimodal Brain Encoder) که یه شبکه عصبی با یک میلیارد پارامتره و می‌تونه پیش‌بینی کنه وقتی آدم‌ها فیلم می‌بینن، مغزشون چطور واکنش نشون می‌ده. این مدل همزمان video، audio و text رو پردازش می‌کنه.

این مدل تونسته تو مسابقه Algonauts 2025 برای مدل‌سازی مغز، رتبه اول رو بگیره و با اختلاف زیاد، مدل‌های فقط تصویری یا فقط صوتی رو شکست بده.
گیتهاب

@silicon_brain | از هوش مصنوعی عقب نمانید
👍93😨2
تولید محتوا تو لینکدین این نیست که به ChatGPT بگی یه مطلب رندوم تولید کن و همونو کپی پیست کنی تو صفحه شخصی خودت

استفاده از AI چیز بدی نیست ولی حداقل خودت یه بار متن رو بخون و هذیان گویی AI رو پاک کن
و به شعور کاربرا احترام بزار 😁
👏23👍142❤‍🔥2
۸ معماری RAG

تو این تصویر، هشت معماری برتر RAG (Retrieval-Augmented Generation) نمایش داده شدن که هر کدوم رویکرد متفاوتی برای ترکیب بازیابی دیتا و تولید محتوا توسط LLM رو ارائه می‌ده
معماری Naive RAG

استفاده ساده از بردارسازی پرسش و جستجو در پایگاه داده برداری برای پاسخ‌گویی سریع.
معماری Multimodal RAG

پشتیبانی از داده‌های متنی، تصویری و صوتی برای بازیابی و تولید چندرسانه‌ای.
معماری HyDE

ایجاد پاسخ فرضی اولیه برای بهبود دقت و کیفیت بازیابی اطلاعات.
معماری Corrective RAG

ارزیابی و اصلاح نتایج با جستجوی وب و منابع اضافی.
معماری Graph RAG

بهره‌گیری از پایگاه داده گرافی برای تحلیل ارتباطات معنایی داده‌ها.
معماری Hybrid RAG

ترکیب پایگاه داده برداری و گرافی برای پوشش کامل‌تر اطلاعات.
معماری Adaptive RAG

انتخاب پویا و هوشمند مسیر بازیابی بر اساس پرسش و استدلال.
معماری Agentic RAG

استفاده از عامل‌های هوشمند چندمرحله‌ای با دسترسی به جستجو و سرویس‌های ابری.

@silicon_brain | از هوش مصنوعی عقب نمانید
6👍3🔥2😢1
یکی از بزرگ‌ترین سوءتفاهمایی که میشه این روزا حتی بین متخصصین هم دید اینه که فکر می‌کنن AI Agent و LLM مثل ChatGPT یا Claude یکی هستن.
درحالی‌که اصلاً این‌طور نیست!

خیلیا میان می‌گن می‌خوان یه "AI Agent" بسازن، ولی چیزی که واقعاً تو ذهنشونه یا یه chatbot ساده‌ست یا یه LLM-powered assistant. از اون طرف بعضیا فکر می‌کنن اگه یه ابزار AI می‌تونه جواب سوال بده، پس حتماً می‌تونه خودش کار هم انجام بده. همین‌جاست که داستان قاطی می‌شه.

یه LLM در اصل یه سیستم پیشرفته برای تولید متن هستش که ورودی می‌گیره، جواب محتمل رو پیش‌بینی می‌کنه و متن می‌سازه. ولی خودش تصمیم‌گیرنده یا خودمختار نیست.
اما AI Agent یه سیستم خودمختاره که می‌تونه وظایف مختلفی انجام بده، با tools، APIها و دیتا تعامل کنه.
به یک زبون دیگه:

یه LLM مثل یه کارشناس باسواده که فقط وقتی ازش سوال بپرسی جواب می‌ده، خودش کاری نمی‌کنه.
یه AI Agent فقط جواب نمی‌ده، بلکه خودش دست‌به‌کار می‌شه و کار رو انجام می‌ده.

خلاصه هر کدوم کاربرد خودشو داره که در مورد استفاده هر کدوم تو بیزینس و پروداکت های مختلف میگم یه زودی...
@silicon_brain | از هوش مصنوعی عقب نمانید
👍116👏1
مدل‌های Claude قادر به پایان دادن به گفتگو با کاربران آزاردهنده شدن

مدل‌های Claude Opus 4 و 4.1 از Anthropic توانایی خاتمه دادن به گفتگوها رو دارن
مثلا زمانی که یه کاربر مکرراً درخواست محتواهای مضر یا توهین‌آمیز رو داره این قابلیت فعال میشه. این ویژگی برای حفظ امنیت و جلوگیری از تولید محتواهای نامناسب ضافه شده

@silicon_brain | از هوش مصنوعی عقب نمانید
😁93👍3
تکامل مدل‌های هوش مصنوعی در عصر ANI

این گذار از پاسخ‌گویی به کنش‌گری، آغازگر عصر سیستم‌های خودمختار است.

@silicon_brain I از هوش مصنوعی عقب نمانید
🔥6👍43
علی بابا و Qwen کار درست

علی‌بابا یه مدل جدید معرفی کرده به اسم Qwen-Image-Edit که open-source هست و حتی توی benchmarkهای ویرایش تصویر تونسته از GPT Image و FLUX هم بهتر عمل کنه.

این مدل 20B parameter داره و علاوه بر قدرت text rendering، حالا هم ویرایش semantic رو ساپورت می‌کنه. نتیجه‌اش هم اینه که توی چند تا بنچمارک عمومی، state-of-the-art شده.
قابلیت ها

🔹ساپورت ویرایش semantic مثل rotation، IP creation و style transfer.
🔹ساپورت appearance editing مثل اضافه، حذف یا تغییر بخشی از تصویر بدون خراب کردن بقیه قسمت‌ها.
🔹می‌تونه bilingual text editing (چینی و انگلیسی) رو دقیق انجام بده و فونت، سایز و استایل رو هم حفظ کنه.
🔹قابلیت chain شدن داره، یعنی میشه مرحله‌به‌مرحله ویرایش کرد بدون اینکه کل تصویر دوباره regenerate بشه.
🔹امکان چند تا edit پشت‌سر هم هست، واسه refine کردن تصاویر پیچیده به‌جای شروع دوباره.
این مدل تضمین می‌کنه که semantic consistency توی کل تصویر حفظ بشه.


این مدل روی GitHub، Hugging Face و ModelScope منتشر شده
لینک
@silicon_brain | از هوش مصنوعی عقب نمانید
👍7🔥43
مارتین فاولر سالها پیش گفت:
«هر نادانی می‌تواند کدی بنویسد که کامپیوتر بفهمد؛ برنامه‌نویس خوب کدی می‌نویسد که انسان بفهمد.»

اما اکنون:
«شرکتهای فناوری خوب کدی می‌نویسند که LLM بفهمد. »

@silicon_brain | از هوش مصنوعی عقب نمانید
👍5🤮21💯1
This media is not supported in your browser
VIEW IN TELEGRAM
چطور یک مدل زبانی کار میکنه؟

این ویدئو لایه های مختلف LLM و نحوه عملکرد هرکدوم از لایه ها رو به یک مثال ساده نشون داده.
میشه بارها دید و بیشتر یاد گرفت

@silicon_brain | از هوش مصنوعی عقب نمانید
7👍1👎1🤮1
هاگین فیس یه اپلیکیشن معرفی کرده به اسم AI Sheet که همون اکسل هوشمنده
میتونید فایل اکسل رو روش بارگذاری کنید و کارهای باحالی بکنید با دیتا


لینک:
https://huggingface.co/spaces/aisheets/sheets
6👍4😍1
‏نسخه جدیدDeepSeek؛ حرکت از Chatbot به سمت Agent

اخیرا DeepSeek نسخه V3.1 رو منتشر کرده و گفته این اولین قدم جدی‌ش به سمت دنیای agentهاست.

نسخه‌های قبلی بیشتر روی raw reasoning benchmarkها تمرکز داشتن، ولی V3.1 برای این طراحی شده که workflowهای خودکار رو اجرا کنه؛
یعنی agentهایی که می‌تونن plan کنن، tool صدا بزنن و تسک های طولانی و چندمرحله‌ای رو انجام بدن.


این حرکت نشون‌دهنده‌ی ترند بزرگ‌تر توی صنعت هوش مصنوعیه: فاصله گرفتن از chatbotهای استاتیک و رفتن به سمت سیستم‌های reasoning که فقط جواب نمی‌دن، بلکه عمل می‌کنن.

بررسی فنی


🔹Size: 671B parameters (37B active per token)
🔹Training: +840B tokens for context extension.
🔹Compatibility: Anthropic API format, strict function calling, updated tokenizer and
دسترسی

از طریق چت بات دیپ سیک. وزن‌های open-source هم روی Hugging Face و ModelScope منتشر شدن.
@silicon_brain | از هوش مصنوعی عقب نمانید
5👍3🔥1
اگه میخوای دچار فروپاشی روانی و شخصیتی بشی این پرامپ رو به ChatGPT بده 😁

roast me, no filter, no mercy
😁14🤣3💔3😢1😨1
[email protected]
31.4 MB
کتاب فوق العاده AI Agents 2025 Edition پر از مثال و پروژه از ایجنت های هوش مصنوعی!

توی این کتاب خیلی مرتب و ساختاریافته، AI Agents رو با مثال های کاربردی به همراه سورس کدهاش توی پایتون توضیح داده و یک راهنمای خفن برای فعالان و علاقه مندان این حوزه ست.

لیست پروژه ها:

1. Agentic RAG
2. Voice RAG Agent
3. Multi-agent Flight Finder
4. Financial Analyst
5. Brand Monitoring System
6. Multi-agent Hotel Finder
7. Multi-agent Deep Researcher
8. Human-like Memory for Agents
9. Multi-agent Book Writer
10. Multi-agent Content Creation System
11. Documentation Writer Flow
12. News Generator

@silicon_brain | از هوش مصنوعی عقب نمانید
👍101🔥1👏1
بهترین مدل های ساخت تصویر، گوگل رتبه اول

@silicon_brain | از هوش مصنوعی عقب نمانید
❤‍🔥3👍2
اولاش که AI تازه وارد تیمای برنامه‌نویسی شده بود، همه فکر می‌کردن فقط یه دستیار ساده‌ست. مدیرها هم با خیال راحت زمان زیاد می‌ذاشتن، انگار نه انگار تکنولوژی عوض شده.

الانم که جو عوض شده، همون مدیرای دیروز فکر می‌کنن AI قراره خودش کد بزنه، دیباگ کنه، قهوه هم بیاره! برای همین زیادی روش حساب باز کردن و زمان خیلی کمتری برای کارها در نظر می‌گیرن

حقیقت اینه که اگه می‌خوای تو این شرایط له نشی، باید یه تیکه از وقتی که AI برات ذخیره می‌کنه رو بذاری برای یاد گرفتن چیزای جدید. این دیگه یه انتخاب نیست، این یه اجبار برای بقاست.


@silicon_brain | از هوش مصنوعی عقب نمانید
👍122👏2
مایکروسافت یه دوره‌ی رایگان و اوپن‌سورس منتشر کرده ( فارسی هم داره)

این دوره شامل ۱۱ درسه و همه‌چی برای شروع ساختن Agentهای هوش مصنوعی رو پوشش می‌ده

سرفصل ها
‏- Intro به AI Agents و موارد استفاده‌شون
- آشنایی با Agentic Frameworks (مثل Semantic Kernel و AutoGen)
- دیزاین پترن هابرای ساخت Agentها: Tool Use, Planning, Multi-Agent, Metacognition
- ابزارهای Agentic RAG (اتصال Agent به دیتای خارجی برای پاسخ‌های دقیق‌تر)
- پیاده‌سازی Agent در محیط واقعی (Production)
- آشنایی با MCP (Model Context Protocol)

لینک گیتهاب

@silicon_brain | از هوش مصنوعی عقب نمانید
12👍3
📣 کانالهای فعال VIP در زمینه الگوریتمهای هوش مصنوعی را از دست ندهید

▪️ انجمن پژوهشگران هوش مصنوعی ایران در تلگرام
🔸 @AI_DeepMind

▪️ رویدادهای هوش مصنوعی
🔸 @eventai

▪️ هوش مصنوعی از همه جوانب
🔸 @Neurogenix1

▪️ آخرین اخبار و منابع فناوری ؛ هوش مصنوعی و یادگیری ماشین
🔸 @Docpython

▪️ جامعه هوش مصنوعی
🔸 @silicon_brain

▪️ اخرین اخبار دنیای تکنولوژی
🔸 @AI_MANSOURI

▪️ طراحی الگوریتم و ساختمان داده
🔸 @AlgorithmDesign_DataStructuer

▪️ رویدادهای هوش مصنوعی
🔸 @Ai_Events

▪️ آموزش پایتون و رزبری پای
🔸 @raspberry_python

▪️ آموزش‌های تخصصی هوش مصنوعی

🔸 @class_vision
❤‍🔥1👍1
بنچمارک Fiction.LiveBench مقایسه مدل ها در ورودی‌های طولانی

نتایج عملکرد مدل ها تو این بنچمارک جالبه. بیشتر مدل‌ها، مخصوصاً مدل‌های متن‌باز، وقتی طول متن زیاد می‌شه به شدت افت عملکرد پیدا می‌کنن. پس داشتن یک context window بزرگ، لزوماً به معنای فهم عمیق متن نیست.

برای مثال، مدل gpt-oss-120b با وجود اندازه بزرگش، به محض اینکه طول متن بالا می‌ره، دچار افت جدی می‌شه و تو محدوده‌ی 8k توکن حتی زیر ۵۰٪ دقت سقوط می‌کنه. این یعنی هنوز برای کارهایی که نیاز به استدلال و تحلیل دقیق در متن‌های بلند دارن، فاصله زیادی وجود داره.

در عوض، مدل‌هایی مثل gpt-5 و O3 یا gemini-2.5-pro ثبات چشمگیری نشون می‌دن و حتی توی کانتکست‌های خیلی بزرگ (بالای 120k توکن) همچنان دقت بالایی رو حفظ می‌کنن.

این بنچمارک‌ها تصویر واقعی‌تری از توانایی مدل‌ها ارائه می‌دن. چون چالش اصلی، فقط داشتن یک پنجره کانتکست وسیع نیست؛ بلکه توانایی استدلال و درک عمیق در متن‌های طولانیه.
@silicon_brain I از هوش مصنوعی عقب نمانید
👍32