AI Scope
135 subscribers
193 photos
21 videos
18 files
113 links
Download Telegram
💡 ابزار SightEngine می‌تونه با دقت بالایی تشخیص بده که تصویر و یا ویدیو با هوش مصنوعی ساخته شده یا نه. خیلی سریع کار می‌کنه و واقعا دقتش زیاده. تازه می‌تونه بهت کامل بگه چه مدلی برای ساخت تصویر استفاده شده. ماهانه رایگان می‌تونی 2000 تا عملیات باهاش انجام بدی.

SightEngine can accurately detect whether an image or video was created with AI. It’s super fast and highly precise — and it can even tell you which model was used to generate the image. You also get 2,000 free operations per month.

🧰 @scopeofai | #tools
1👍1
راستشو بگم از مطالب کانال راضی نیستم. حس می‌کنم زیادی عامه‌پسند و ساده‌ان و هرکسی می‌تونه همچنین محتوایی تولید کنه.
می‌خوام روند تولید محتوارو به یه سمت و سوی تخصصی‌تر ببرم. شما هم موافقید با این تغییر؟
👌3
شبکه عصبی دقیقاً چیه؟

🧠 شبکه عصبی یه مدل محاسباتیه که از ساختار مغز الهام گرفته. داده‌ها وارد لایه ورودی می‌شن، توی لایه‌های مخفی حسابی پردازش می‌شن (با تغییر وزن‌ها و بایاس‌ها) و در نهایت توی لایه خروجی جواب می‌گیریم.

مکانیزم یادگیریش هم ساده ولی عمیقه: مدل یه پیش‌بینی می‌کنه، خطاش اندازه‌گیری می‌شه، و بعد با الگوریتم‌هایی مثل پس‌انتشار خطا (Backpropagation) وزن‌ها اصلاح می‌شن. تکرار همین چرخه باعث می‌شه شبکه کم‌کم هوشمندتر بشه.

A neural network is a computational system inspired by how our brains work. It consists of layers of artificial nodes—neurons—that process data step by step

Input layer: Receives raw data (e.g., images, numbers, text).

Hidden layers: Process that data through interconnected neurons, adjusting internal values called weights and biases to improve accuracy

Output layer: Generates a prediction or classification.

The network learns by making predictions, measuring how off they are using a loss function, and then tweaking those weights and biases


🦴 @scopeofai | #concepts
انواع شبکه‌های عصبی

همه‌ی شبکه‌ها یه شکل نیستن؛ هر معماری برای مسئله‌ای خاص طراحی شده:

🔹Feedforward (MLP): جریان یک‌طرفه داده. ساده و پایه‌ای، ولی برای دسته‌بندی و پیش‌بینی‌های معمولی خیلی کاربردیه

🔹CNN (Convolutional Neural Network): مخصوص بینایی ماشین. لایه‌های کانولوشن ویژگی‌های تصویر رو خودشون استخراج می‌کنن؛ برای تشخیص چهره، اشیا و هر چیزی که پای پیکسل وسطه، فوق‌العاده‌ست

🔹RNN (Recurrent Neural Network): مناسب داده‌های ترتیبی. چون حافظه داخلی داره، می‌تونه وابستگی بین داده‌های پشت‌سرهم رو بفهمه

🔹DNN (Deep Neural Network): همون شبکه‌های عمیق با چندین لایه مخفی. هرچی شبکه عمیق‌تر باشه، قابلیت یادگیری الگوهای پیچیده‌تر هم بیشتر می‌شه

( بعدا به اینا عمیق‌تر هم می‌پردازیم)


Different architectures exist to tackle various challenges. The main ones:

🔹Feedforward Neural Networks (MLPs): Data moves straight from input to output. Great for general tasks like classification and pattern recognition

🔹Convolutional Neural Networks (CNNs): Built for vision tasks—images, object detection, segmentation. They use convolutional layers to automatically extract features, making them incredibly efficient

🔹Recurrent Neural Networks (RNNs): Designed for sequential data—text, speech, time series. They "remember" past info via feedback loops. LSTMs and GRUs improve their ability to handle long-range dependencies

🔹Deep Neural Networks (DNNs): Simply NNs with multiple hidden layers—depth allows learning highly complex patterns


🦴 @scopeofai | #concepts
کاربردهای شبکه‌های عصبی

تقریباً در تمام حوزه‌های هوش مصنوعی ردپای شبکه‌های عصبی دیده می‌شه:

🔅 بینایی ماشین: از فیلترهای اینستاگرام تا سیستم‌های تشخیص چهره و ماشین‌های خودران.

🔉 پردازش زبان طبیعی: ترجمه ماشینی، چت‌بات‌ها، مدل‌های مولد متن.

🎙پردازش صوتی: تشخیص گفتار، تولید موسیقی یا صدا با هوش مصنوعی.

تحلیل سری‌های زمانی: پیش‌بینی بازارهای مالی، تحلیل روندها، تشخیص ناهنجاری‌ها.

3) What Are Neural Networks Used For?

Neural networks are everywhere:

Image recognition & computer vision — think facial recognition, object detection, video analysis (thanks to CNNs)

Language & audio tasks — including speech recognition, translation, text generation using RNNs and more modern variants like transformers

Predictive & time-series modeling — especially in areas like finance, forecasting, or any data that needs pattern detection

Everyday tech — voice assistants, self-driving cars, logistics, security cameras—you name it


🦴 @scopeofai | #concepts
محدودیت‌ها و چالش‌ها

قدرت بالا به معنی بی‌نقص بودن نیست:

▫️داده و محاسبات سنگین: شبکه‌های عمیق برای آموزش نیاز به دیتاست‌های بزرگ و GPU/TPU دارن.

▫️جعبه سیاه بودن: تصمیم‌گیری شبکه قابل توضیح نیست. شفافیت (Explainability) همچنان یه چالش جدیه.

▫️پیچیدگی در آموزش: مسائلی مثل vanishing gradient یا انتخاب معماری درست، کار رو سخت می‌کنن.

▫️Overfitting: وقتی داده کافی یا متنوع نداشته باشی، مدل به جای یادگیری الگو، فقط داده‌ی آموزشی رو حفظ می‌کنه

What Are the Limitations of Neural Networks?

As powerful as they are, neural networks aren’t perfect:

▫️Data-hungry & compute-intensive: They need massive datasets and hardware (GPUs, TPUs) to train well

▫️Opaque “black box” nature: Often hard to understand how they reach a decision—explainability is a growing concern

▫️Training complexity: Deep or recurrent networks can suffer from problems like vanishing gradients, and setting up architectures and training regimes is non-trivial

▫️Overfitting & generalization risk: Without enough diverse data, models can learn “noise” instead of true patterns and fail on new data


🦴 @scopeofai | #concepts
چرا شبکه‌های عصبی؟

🔬هوش مصنوعی مدرن روی دوش شبکه‌های عصبی بنا شده. اما قبل از اینکه تبدیل به موتور پشت LLMها و مدل‌های بینایی بشن، از چیزی خیلی ساده‌تر شروع شدن: تقلید ریاضی از مغز.


Why Neural Networks?

Modern AI is powered by neural networks. But before they became the engines behind LLMs and vision models, they started from something much simpler: a mathematical imitation of the brain. To appreciate the cutting-edge, we need to grasp the basics.


🦴 @scopeofai | #concepts
یک نورون دقیقاً چیکار می‌کنه؟

در زیست‌شناسی، نورون سیگنال‌ها رو دریافت می‌کنه، پردازش می‌کنه و اگه قوی باشن، خروجی می‌ده.
در شبکه عصبی هم همین اتفاق می‌افته:

1️⃣ورودی‌ها به شکل عدد میان.

2️⃣هر ورودی در یک وزن (اهمیت) ضرب می‌شه.

3️⃣همه با هم جمع می‌شن.

4️⃣یک بایاس هم اضافه می‌شه (برای تغییر نقطه حساسیت).

5️⃣ در نهایت، تابع فعال‌سازی تصمیم می‌گیره خروجی چی باشه.


این واحد ساده، آجر اولیه تمام مدل‌های غول‌پیکر امروزیه.

What Does a Neuron Actually Do?

In biology, a neuron receives signals through its dendrites, processes them, and fires an output if the signal is strong enough.
In neural networks, we mimic this:

1️⃣Inputs come in as numbers (features).

2️⃣Each input is multiplied by a weight (importance).

3️⃣All weighted inputs are added together.

4️⃣A bias is added (shifts the decision boundary).

5️⃣Finally, an activation function decides the output.

This simple unit is the foundation of everything from perceptrons to GPT-4.


🦴 @scopeofai | #concepts
شبکه عصبی چطور یاد می‌گیره؟

یادگیری یعنی تنظیم وزن‌ها و بایاس‌ها تا پیش‌بینی درست انجام بشه.

۱. ورودی وارد شبکه می‌شه.
۲. خروجی ساخته می‌شه.
۳. با جواب درست مقایسه می‌کنیم.
۴. خطا (loss) حساب می‌شه.
۵. وزن‌ها طوری تغییر می‌کنن که خطا کمتر بشه.

🌀این چرخه بارها تکرار می‌شه تا شبکه الگوها رو درست یاد بگیره.

How Does a Neural Network Learn?

Learning means adjusting weights and biases so that predictions match reality.

1-Input goes through the network.

2-Network produces an output.

3-Compare output with the correct answer (label).

4-Calculate the error (loss).

5-Update the weights to reduce that error.

🌀 Repeat this thousands (or millions) of times, and the network gradually internalizes patterns. This is called training.


🦴 @scopeofai | #concepts
وزن و بایاس؛ اهرم‌های پنهان

🔹وزن: اهمیت هر ورودی رو مشخص می‌کنه.

🔹بایاس: مثل یه ثابت عمل می‌کنه و کل تابع رو جابه‌جا می‌کنه.

بدون بایاس، شبکه‌ها قدرت انعطاف کمتری داشتن.

📣 فرض کن یک نورون داریم که ورودی‌ها رو می‌گیره، هر کدوم رو در وزن خودش ضرب می‌کنه و بعد جمع می‌کنه. بدون بایاس، خروجی نورون همیشه از صفر عبور می‌کنه وقتی همه ورودی‌ها صفر باشن یعنی شبکه محدود می‌شه و نمی‌تونه بعضی الگوها رو یاد بگیره.


وزن = قدرت تاثیر ورودی

بایاس = خط پایه یا نقطه شروع نورون


بدون بایاس، شبکه مجبور می‌شه خط پاسخ از مبدا (0,0) عبور کنه. با بایاس، می‌تونه این خط رو جابه‌جا کنه و هرجایی که لازمه تصمیم بگیره.

Weights and Biases — The Hidden Levers

Weight: Determines the importance of each input.

Bias: Acts like a constant that shifts the entire function.

Without bias, networks would have much less flexibility.
Think of weight as the volume knob, and bias as shifting the baseline level.

🔈 Imagine a neuron that takes inputs, multiplies each by its weight, and then sums them up. Without bias, the neuron’s output will always pass through zero when all inputs are zero. That limits the network and prevents it from learning certain patterns.

Weight = strength of influence of an input

Bias = the baseline or starting point of the neuron


Without bias, the network is forced to have its decision boundary pass through the origin (0,0). With bias, it can shift that boundary and make decisions wherever needed.


🦴 @scopeofai | #concepts
👍1
پس‌انتشار خطا (Backpropagation)؛ قلب یادگیری شبکه

برای اینکه شبکه عصبی یاد بگیره، باید بدونیم کدوم ورودی‌ها و وزن‌ها باعث خطا شدن و چقدر باید تغییر کنن.

اینجاست که پس‌انتشار خطا وارد می‌شه:

شبکه یه پیش‌بینی می‌کنه و ما خطا (فرق بین جواب واقعی و جواب شبکه) رو حساب می‌کنیم.

🗝 این خطا به تدریج از خروجی به سمت لایه‌های قبلی منتقل می‌شه تا مشخص بشه هر وزن چقدر مسئول خطاست.

حالا می‌تونیم هر وزن رو به اندازه سهمش در خطا تغییر بدیم.

📍 تصور کن شبکه مثل یه گروه آدمه که با هم پروژه‌ای انجام دادن. نتیجه نهایی اشتباه بود. پس همه به عقب نگاه می‌کنن و می‌فهمن هر کس چقدر تو اشتباه تاثیر داشت و بر اساس اون، کارش رو اصلاح می‌کنه.

پس‌انتشار خطا روشیه که باعث شد شبکه‌های عمیق و پیشرفته ممکن بشن، چون بدون اون نمی‌تونستیم لایه‌ها رو درست آموزش بدیم.

Backpropagation — The Real Breakthrough

Training requires knowing which weights to tweak and how much. That’s where backpropagation enters.

It’s essentially calculus at scale:

Compute the gradient of the loss function with respect to every weight.

🖇 Use the chain rule to propagate errors backward from output → hidden layers → input.

Update each parameter in proportion to its contribution to the error.

Backpropagation was the key innovation that unlocked deep learning in the 1980s. Without it, we wouldn’t have today’s AI revolution.


🦴 @scopeofai | #concepts
نرخ یادگیری؛ اندازه قدم‌ها برای اصلاح

وقتی وزن‌ها رو تغییر می‌دیم، باید میزان تغییر رو کنترل کنیم. این همون چیزی‌یه که بهش می‌گیم نرخ یادگیری (η):

⚫️اگه زیاد باشه شبکه ممکنه مسیر رو اشتباه بره و نره سر جای درست.

⚪️اگه کم باشه آموزش خیلی آهسته پیش می‌ره

روش‌های مدرن مثل Adam یا RMSProp این مقدار رو به صورت هوشمند تنظیم می‌کنن تا هم سرعت مناسب باشه هم پایدار.

The Learning Rate — The Dial of Progress

When updating weights, we don’t apply the raw gradient. We multiply it by a small constant: the learning rate (η).

Too high → the network overshoots, oscillates, or fails to converge.

Too low → training crawls, maybe never reaching a good solution.

Tuning the learning rate is both an art and a science. Modern optimizers (Adam, RMSProp, etc.) adapt it dynamically.


🦴 @scopeofai | #concepts
ساخت اولین شبکه عصبی (پرسیپترون)

ساده‌ترین شبکه عصبی پرسیپترونه: دو ورودی و یک خروجی.

مثل یاد دادن دروازه منطقی OR یا AND به ماشین. همه ورودی‌ها به شبکه داده می‌شن، خروجی با جواب مقایسه می‌شه، وزن‌ها تغییر می‌کنن تا جدول درست پیاده بشه.

اینجا کل چرخه یادگیری رو در کوچک‌ترین مقیاس می‌بینیم:
ورودی ⬅️ جمع وزنی ⬅️ تابع فعال‌سازی ⬅️ خروجی ⬅️ خطا ⬅️ به‌روزرسانی وزن‌ها.

با کنار هم گذاشتن چند پرسیپترون ساده، به شبکه‌های چندلایه (MLP) می‌رسیم که می‌تونن تقریباً هر تابعی رو مدل کنن.

Building Our First Neural Network (Perceptron)

The simplest neural network is the Perceptron. Imagine two inputs feeding into one output neuron.

Training it on logic gates (like OR/AND) is the classic exercise. You feed in all possible inputs, compare the output to the truth table, and adjust weights until the perceptron reproduces the logic perfectly.

This shows the full learning cycle in miniature:

Inputs → weighted sum → activation → output → error → weight update.

From here, stacking multiple perceptrons leads to multi-layer networks, which can approximate almost any function.


🦴 @scopeofai | #concepts
🧩 بریم با هم آخرین مقاله OpenAI رو تحلیل کنیم، مقاله جالبی که به مسئله hallucination توی مدل های زبانی بزرگ می‌پردازه و شرح می‌ده که چرا اصلا این اتفاق می‌افته...

Let's analyze OpenAI's latest paper together, an interesting article that addresses the issue of hallucination in large language models and explains why this happens at all...
چکیده

🤖 وقتی صحبت از مدل های بزرگ زبانی می‌شه، یه مشکل بزرگ وجود داره: اونا توهم می‌زنن. یعنی چیزهایی رو با اعتمادبه‌نفس کامل می‌سازن که اصلاً درست نیست.

این مقاله دنبال یک جواب اساسی می‌گرده: چرا این اتفاق حتی در بزرگ‌ترین و پیشرفته‌ترین مدل‌ها می‌افته؟

توهم یه اشکال تصادفی نیست، بلکه عمیقاً به خودِ روش آموزش مدل‌ها گره خورده.

Abstract — The Big Mystery

🔬 Large language models are impressive — they write essays, code, even poetry.
But there’s a catch: they hallucinate. They make things up with full confidence.

This paper asks a hard question: why does this happen, even in the biggest and most advanced models?

The promise: by the end, we’ll see hallucination not as a random glitch, but as something deeply tied to how these models are trained.


🔰 @scopeofai | #papers
مقدمه

🔹 توهم نادر نیست

🔹یه نویز اتفاقی نیست

ریشه‌ش توی فرمول آموزشی مدله: مدل‌ها یاد گرفتن کلمه بعدی رو پیش‌بینی کنن، نه اینکه حقیقت رو بگن.

پس معما اینه که چطور سیستمی که این‌قدر خوب و دقیقه، توی واقعیت این‌قدر خطا می‌کنه؟

Introduction

🔹Hallucination isn’t rare.

🔹It’s not just noise.

It comes from the training recipe itself: models are taught to predict the next word, not to tell the truth.

So the puzzle: how can a system so good at language fail at facts?


🔰 @scopeofai | #papers
کارهای مرتبط

قبل از این مقاله، پژوهش‌ها چند توضیح داده بودن:

▫️شاید مدل اصلاً اون دانش رو نداره.

▫️شاید خیلی «اعتمادبه‌نفس کاذب» داره.

▫️داده‌های آموزشی مدل کافی نبوده.

مقاله می‌گه که اینا فقط بخشی از ماجراست. دلیل عمیق‌تر ساختاریه. توهم فقط یه شکاف دانشی نیست؛ توی DNA روش آموزش مدل‌هاست.

Related Work — Previous Clues

Before this paper, researchers gave several explanations:

▫️Maybe the model just doesn’t have the right knowledge.

▫️Maybe it’s too “overconfident” in its outputs.

▫️Maybe the training data was too limited.

This paper says: those are partial answers. The deeper reason is structural. Hallucinations aren’t only gaps — they’re baked into the way we train LLMs.


🔰 @scopeofai | #papers