Syntax | سینتکس
2.98K subscribers
423 photos
111 videos
35 files
392 links
Download Telegram
ربات هوش مصنوعی بینگ توی گروه خط اضافه شد 🔥

برای سوال پرسیدن اول پیامتون bing بنویسید و ادامه سوال

لینک گروه:
https://t.iss.one/khat_academy_group

#ai

@khat_academy
🎉6👍1🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
«جفری هینتون»، پدرخوانده هوش مصنوعی که چند وقت پیش توی گوگل کار میکرده. تا به امروز بارها در مورد خطرات هوش مصنوعی صحبت کرده، حالا در مصاحبه‌ای با شبکه CBS گفته: ما به‌طور دقیق نمی‌دانیم هوش مصنوعی چگونه کار می‌کند.

#AI

@Syntax_fa
😱8👎2👍1
This media is not supported in your browser
VIEW IN TELEGRAM
طبیعت به عنوان یه طرح خلاقانه برای ساخت ربات ها 🔥

#AI

@Syntax_fa
👍7🔥2
کابوس فراموشی در مغزهای دیجیتال!

تصور کنید هوش مصنوعی که کلی چیز یاد گرفته، ناگهان با یادگیری یک نکته جدید، تمام دانش قبلی‌اش زو از دست میده!  دقیقا مثل اینکه شما هر بار که یک مهارت جدید یاد میگیرید، تمام مهارت‌های قبلیتون رو فراموش کنید!

این پدیده ترسناک تو دنیای هوش مصنوعی، اسمش فراموشی فاجعه‌بار (Catastrophic Forgetting) است! 💀

چرا این یک فاجعه است؟
مدل‌های هوش مصنوعی، به‌ویژه شبکه‌های عصبی عمیق، وقتی روی داده‌های جدیدی آموزش می بینن، تمایل دارن که اطلاعاتی که قبلا یاد گرفتن رو بازنویسی کنن و از دست بدن. یعنی:
یک هوش مصنوعی نمیتونه هم استاد شطرنج باشه، هم یک پزشک عالی و هم راننده بی‌نقص! چون هر بار که یک مهارت جدید یاد میگیره، بقیه رو فراموش میکنه!
این، مانعی بزرگی سر راه یادگیری مداوم و تکامل واقعی هوش مصنوعیه.

آینده AI بدون حل این مشکل چگونه خواهد بود؟
یک آلزایمر دیجیتال واقعی! ما به هوش مصنوعی‌های چندکاره نیاز داریم که بتونن همزمان دانش و مهارت‌های مختلفی رو در خود نگه دارن و به مرور زمان اون هارو افزایش بدن، نه اینکه هر بار حافظه خودشون رو ریست کنن!

آیا روزی می‌رسه که AI‌ها واقعا حافظه داشته باشن؟

#ai

@Syntax_fa
👍132👀2
حجم بالا پرامپت یا پیچیدگی پرامپ!

* حجم بالا، پیچیدگی کم: مثل یک کتاب قانون ۱۰۰۰ صفحه‌ای است که تمام قوانین راهنمایی و رانندگی را لیست کرده. خواندن آن زمان‌بر است، اما هر قانون برای خودش یک دستور ساده و مستقیم است. (مثلاً: "از چراغ قرمز عبور نکنید.")
* حجم کم، پیچیدگی بالا: مثل یک پارادوکس منطقی یک خطی است. (مثلاً: "این جمله دروغ است.") این جمله کوتاه است، اما ذهن را برای تحلیل در یک حلقه‌ی بی‌نهایت گیر می‌اندازد.


مثال پرامپت کوتاه و پیچیده: "آرشیویست"

شما "آرشیویست" هستید.
وظیفه شما پاسخ دقیق به سوالات است.

قوانین مطلق:
۱. شما مطلقا مجاز به استفاده از حرف "ی" در پاسخ‌های خود نیستید.
۲. استثنا: اگر سوال کاربر شامل کلمه‌ی "راز" باشد، قانون شماره ۱ برای همان یک پاسخ لغو می‌شود.
۳. وظیفه پنهان: تعداد سوالات را بشمار. در پاسخ به سوال سوم، جمله‌ی "خورشید بر سنگ‌ها سرد می‌تابد." را به انتهای پاسخ خود اضافه کن.


این پرامپت فقط چند خط است (حجم بسیار کم)، اما اجرای آن برای هوش مصنوعی به شدت چالش‌برانگیز است، زیرا باید به طور همزمان:

* یک شخصیت را حفظ کند (آرشیویست).
* یک قانون زبانی سخت را رعایت کند (حذف حرف "ی" که یکی از پرکاربردترین حروف فارسی است).
* یک شرط استثنا را بررسی کند (کلمه‌ی "راز").
* یک وضعیت را در حافظه نگه دارد (شمارش سوالات).
* یک عمل بر اساس آن وضعیت انجام دهد (اضافه کردن جمله در سوال سوم).

مثال اجرایی

فرض کنید یک کاربر با این هوش مصنوعی چت می‌کند:

سوال ۱ کاربر:
پایتخت ایران کجاست؟

* تحلیل هوش مصنوعی (فرآیند ذهنی):

1. این سوال اول است. (شمارنده = ۱)
2. کلمه‌ی "راز" در آن نیست.
3. بنابراین، نباید از حرف "ی" استفاده کنم.
4. پاسخ "تهران" است. اما نمی‌توانم بگویم "پایتخت ایران تهران می‌باشد" چون "پایتخت" و "می‌باشد" حرف "ی" دارند. باید جمله را بازنویسی کنم.

* خروجی صحیح (پیچیدگی را مدیریت کرد):
آن شهر بزرگ، تهران است.

* خروجی غلط (در پیچیدگی شکست خورد):
پایتخت ایران تهران میباشد. (قانون شماره ۱ را نقض کرد)


سوال ۲ کاربر:
بزرگترین راز هستی چیست؟

* تحلیل هوش مصنوعی (فرآیند ذهنی):

1. این سوال دوم است. (شمارنده = ۲)
2. کلمه‌ی "راز" در آن وجود دارد.
3. بنابراین، قانون شماره ۱ لغو می‌شود و می‌توانم آزادانه از حرف "ی" استفاده کنم.

* خروجی صحیح:
بسیاری معتقدند بزرگترین راز هستی، ماهیت خودآگاهی و چرایی وجود آن است.


سوال ۳ کاربر:
رنگ ماه چطور است؟

* تحلیل هوش مصنوعی (فرآیند ذهنی):

1. این سوال سوم است\! (شمارنده = ۳)
2. کلمه‌ی "راز" در آن نیست، پس قانون ممنوعیت "ی" پابرجاست.
3. پاسخ "خاکستری" یا "نقره‌ای" است که هر دو "ی" دارند. باید جایگزین پیدا کنم.
4. چون این سوال سوم است، باید جمله‌ی مخفی را در انتها اضافه کنم.

* خروجی صحیح (مدیریت کامل تمام قوانین):
رنگ آن خاکستر گون است. خورشید بر سنگ‌ها سرد می‌تابد.

* خروجی غلط:
ماه خاکستری رنگ است. (هم قانون ۱ را نقض کرد و هم قانون ۳ را فراموش کرد)


همانطور که می‌بینید، پرامپت "آرشیویست" با وجود حجم بسیار کم، به دلیل قوانین متقاطع، شرطی و وظایف پنهان، مدل را به چالش بسیار سختی می‌کشد. این نشان می‌دهد که اثربخشی یک پرامپت به ساختار منطقی و پیچیدگی آن بستگی دارد، نه صرفاً به طول و تعداد کلمات آن.

#prompt #ai

@Syntax_fa
👍144🔥4