Forwarded from Agora (Alireza)
هفتههاست دارم با خودم فکر میکنم که من چند تا تصمیم درست تو زندگیم گرفتم. اصلا چند تا تصمیم گرفتم. چندتاشون رو خودم خواستم. چندتاشون رو خیال کردم که قوارهی منن و خیال کردم که خودم میخوامشون.
اصلا این سلسله ناکامیها و این هیچی نبودن اصلا یعنی چی. چیزی شدن چجوریه که من نکردم و نشد که بکنم.
زیاد پیش میاد که وسط خونهخرابهی ذهنم سینهخیز میرم و خاطره مرور میکنم. از در و دیوار صدای قهقه میشنوم و دلم میخواد به سمتشون بدوام ولی حتی نمیدونم چطور بلند شم که بیشتر از این زخم نشم. توی آینه شکستههای کف زمین هربار یه تصویر از حسرتی میبینم که الان دیگه حتی نمیدونم واقعین یا نه. آینههایی که حتی نگاه کردن بهشون یک خراش سوزناک ولی نه کشنده یک جایی از تنت میذاره.
از ازسر شروع کردن متنفرم. ولی گاهی فکر میکنم نکنه اصلا تموم پیچا رو، از اون اولی تا این آخریشو اشتباه رفتم؟ چیشد که من رسیدم به اینجا؟ اصلا به کجا رسیدم؟! هیچ جوابی به هیچ چیزی ندارم. دیگه هیچ جوابی ندارم.
مؤمن به ایمانشه که زندهست و من به همهچیز کافرم. کافر شدم. از بس که هیچچیز معنا نداشت و جوابی براش نداشتم مونده شدم. تو راه پیدا کردن این که کجا رو خطا رفتم و کجا از توانم خارج بود، این که چرا دارم دنبال جواب میگردم رو هم گم کردم. فراموش کردم. من اصلا چی میخواستم؟ اصلا شایستهی این بودم که چیزی بخوام؟ دیگه مطمئن نیستم. خواستن، آب زلالیه که صاحب هر دست کثیفی بخواد ازش بنوشه رو میکشه.
اصلا این سلسله ناکامیها و این هیچی نبودن اصلا یعنی چی. چیزی شدن چجوریه که من نکردم و نشد که بکنم.
زیاد پیش میاد که وسط خونهخرابهی ذهنم سینهخیز میرم و خاطره مرور میکنم. از در و دیوار صدای قهقه میشنوم و دلم میخواد به سمتشون بدوام ولی حتی نمیدونم چطور بلند شم که بیشتر از این زخم نشم. توی آینه شکستههای کف زمین هربار یه تصویر از حسرتی میبینم که الان دیگه حتی نمیدونم واقعین یا نه. آینههایی که حتی نگاه کردن بهشون یک خراش سوزناک ولی نه کشنده یک جایی از تنت میذاره.
از ازسر شروع کردن متنفرم. ولی گاهی فکر میکنم نکنه اصلا تموم پیچا رو، از اون اولی تا این آخریشو اشتباه رفتم؟ چیشد که من رسیدم به اینجا؟ اصلا به کجا رسیدم؟! هیچ جوابی به هیچ چیزی ندارم. دیگه هیچ جوابی ندارم.
مؤمن به ایمانشه که زندهست و من به همهچیز کافرم. کافر شدم. از بس که هیچچیز معنا نداشت و جوابی براش نداشتم مونده شدم. تو راه پیدا کردن این که کجا رو خطا رفتم و کجا از توانم خارج بود، این که چرا دارم دنبال جواب میگردم رو هم گم کردم. فراموش کردم. من اصلا چی میخواستم؟ اصلا شایستهی این بودم که چیزی بخوام؟ دیگه مطمئن نیستم. خواستن، آب زلالیه که صاحب هر دست کثیفی بخواد ازش بنوشه رو میکشه.
Forwarded from Gopher Academy
📢 اگر تلگرام پرمیوم دارید، کانال ما رو Boost کنید ! 🚀
با Boost کردن کانال، به رشد و دیده شدن ما بیشتر کمک کنید💙
https://t.iss.one/boost/gopher_academy
با Boost کردن کانال، به رشد و دیده شدن ما بیشتر کمک کنید💙
https://t.iss.one/boost/gopher_academy
Forwarded from Things that I like (Mariana)
X (formerly Twitter)
Ali Eslami (@arkitus) on X
This is AGI complete
Forwarded from a pessimistic researcher (Kc)
آقا یه پیشنهادی دارم که مطمئنم دست رد به سینهاش نمیزنید.
هر ایرانی، هر کجای این گیتی زندگی میکنه، یک قدم به اثبات P!=NP و دو قدم به اثبات P=NP نزدیک تر بشه، در ازاش سه قدم از مقاله ساختن با کتک زدن LLM فاصله بگیره.
هر ایرانی، هر کجای این گیتی زندگی میکنه، یک قدم به اثبات P!=NP و دو قدم به اثبات P=NP نزدیک تر بشه، در ازاش سه قدم از مقاله ساختن با کتک زدن LLM فاصله بگیره.
Forwarded from a pessimistic researcher (Kc)
تو مقاله بعدی تعارف شابدوالعظیمی یاد LLM بدید و Ultra AGI رو خلق کنید
Forwarded from IRCF | اینترنت آزاد برای همه
Forwarded from Reza Jafari
نگاهی به مقاله جدید ماکروسافت، آیا in-context learning واقعا یادگیریه؟
برای شروع، ساده بگم که in-context learning یا همون ICL چیه. وقتی یک مدل زبانی بزرگ (LLM) بدون تغییر در وزنها یا حافظهی بلندمدتش، فقط از روی مثالهایی که داخل prompt دریافت میکنه الگو میگیره و پاسخ تولید میکنه، در واقع داره ICL انجام میده. یعنی مدل همون لحظه با ترکیب مثالهای ارائهشده و دانشی که از قبل داره، تصمیم میگیره چه جوابی بده.
مایکروسافت در یک پژوهش گسترده (بیش از ۱.۸ میلیون پیشبینی روی ۴ مدل و ۹ تسک مختلف) این پرسش رو بررسی کرده که آیا ICL واقعاً نوعی «یادگیری» محسوب میشه یا فقط تکرار طوطیوار. نتیجه اینه که از نظر ریاضی، ICL یادگیری حساب میشه؛ اما نوعی یادگیری شکننده است که بیشتر به الگوهای سطحی موجود در prompt وابسته است تا درک عمیق ساختار مسئله.
نتایج مطالعه نشون میده تعداد مثالها نقش کلیدی داره. برخلاف تصور رایج در few-shot learning که چند نمونه کافی به نظر میرسه، بهترین عملکرد زمانی حاصل میشه که حدود ۵۰ تا ۱۰۰ مثال در prompt وجود داشته باشه. به بیان ساده، ICL برای بهبود پایدار به دادهی بیشتری نیاز داره.
یکی از یافتههای جالب این بود که اهمیت دستور نوشتن prompt در طول زمان کاهش پیدا میکنه. حتی اگر دستورها با متن بیمعنی (word salad) جایگزین بشن، در نهایت دقت مدلها به سطح اصلی برمیگرده، البته به شرطی که مثالها تغییر نکرده باشن. اما اگر خود مثالها بههم ریخته بشن (salad-of-thought)، عملکرد مدلها به شدت افت میکنه.
با این حال، ICL در مواجهه با دادههای خارج از توزیع (out-of-distribution) ضعف جدی داره. زمانی که دادهی تست با دادههای موجود در prompt تفاوت زیادی داشته باشه، دقت مدلها به طور محسوسی کاهش پیدا میکنه. روشهایی مثل chain-of-thought و automated prompt optimisation در این شرایط آسیبپذیری بیشتری نشون میدن.
همچنین همهی تسکها به یک اندازه ساده یا دشوار نیستن. برخی مسائل مثل pattern matching تقریباً حلشده تلقی میشن، در حالیکه کارهایی مانند string reversal یا برخی محاسبات ریاضی همچنان برای مدلها دشوار باقی موندن. حتی وظایف مشابه میتونن تا ۳۱٪ اختلاف دقت داشته باشن. جالب اینکه در نیمی از وظایف آزمایششده، الگوریتمهای سنتی مثل decision tree یا kNN عملکرد بهتری نسبت به ICL داشتن.
پیامی که این تحقیق برای توسعهدهندههای هوش مصنوعی داره روشنه: روی few-shot ICL برای وظایف پیچیده حساب باز نکنید، مدلتون رو حتماً در قالبهای مختلف prompt و روی دادههای متنوع آزمایش کنید، انتظار شکنندگی در شرایط جدید رو داشته باشید و فراموش نکنید که در برخی موارد، استفاده از مدلهای کلاسیک میتونه نتیجهی بهتری بده.
🔤 🔤 🔤 🔤 🔤 🔤 🔤
🥇 اهورا اولین اپراتور هوش مصنوعی راهبردی ایران در حوزه ارائه خدمات و سرویسهای زیرساخت هوش مصنوعی
🌐 لینک ارتباط با اهورا
@reza_jafari_ai
برای شروع، ساده بگم که in-context learning یا همون ICL چیه. وقتی یک مدل زبانی بزرگ (LLM) بدون تغییر در وزنها یا حافظهی بلندمدتش، فقط از روی مثالهایی که داخل prompt دریافت میکنه الگو میگیره و پاسخ تولید میکنه، در واقع داره ICL انجام میده. یعنی مدل همون لحظه با ترکیب مثالهای ارائهشده و دانشی که از قبل داره، تصمیم میگیره چه جوابی بده.
مایکروسافت در یک پژوهش گسترده (بیش از ۱.۸ میلیون پیشبینی روی ۴ مدل و ۹ تسک مختلف) این پرسش رو بررسی کرده که آیا ICL واقعاً نوعی «یادگیری» محسوب میشه یا فقط تکرار طوطیوار. نتیجه اینه که از نظر ریاضی، ICL یادگیری حساب میشه؛ اما نوعی یادگیری شکننده است که بیشتر به الگوهای سطحی موجود در prompt وابسته است تا درک عمیق ساختار مسئله.
نتایج مطالعه نشون میده تعداد مثالها نقش کلیدی داره. برخلاف تصور رایج در few-shot learning که چند نمونه کافی به نظر میرسه، بهترین عملکرد زمانی حاصل میشه که حدود ۵۰ تا ۱۰۰ مثال در prompt وجود داشته باشه. به بیان ساده، ICL برای بهبود پایدار به دادهی بیشتری نیاز داره.
یکی از یافتههای جالب این بود که اهمیت دستور نوشتن prompt در طول زمان کاهش پیدا میکنه. حتی اگر دستورها با متن بیمعنی (word salad) جایگزین بشن، در نهایت دقت مدلها به سطح اصلی برمیگرده، البته به شرطی که مثالها تغییر نکرده باشن. اما اگر خود مثالها بههم ریخته بشن (salad-of-thought)، عملکرد مدلها به شدت افت میکنه.
با این حال، ICL در مواجهه با دادههای خارج از توزیع (out-of-distribution) ضعف جدی داره. زمانی که دادهی تست با دادههای موجود در prompt تفاوت زیادی داشته باشه، دقت مدلها به طور محسوسی کاهش پیدا میکنه. روشهایی مثل chain-of-thought و automated prompt optimisation در این شرایط آسیبپذیری بیشتری نشون میدن.
همچنین همهی تسکها به یک اندازه ساده یا دشوار نیستن. برخی مسائل مثل pattern matching تقریباً حلشده تلقی میشن، در حالیکه کارهایی مانند string reversal یا برخی محاسبات ریاضی همچنان برای مدلها دشوار باقی موندن. حتی وظایف مشابه میتونن تا ۳۱٪ اختلاف دقت داشته باشن. جالب اینکه در نیمی از وظایف آزمایششده، الگوریتمهای سنتی مثل decision tree یا kNN عملکرد بهتری نسبت به ICL داشتن.
پیامی که این تحقیق برای توسعهدهندههای هوش مصنوعی داره روشنه: روی few-shot ICL برای وظایف پیچیده حساب باز نکنید، مدلتون رو حتماً در قالبهای مختلف prompt و روی دادههای متنوع آزمایش کنید، انتظار شکنندگی در شرایط جدید رو داشته باشید و فراموش نکنید که در برخی موارد، استفاده از مدلهای کلاسیک میتونه نتیجهی بهتری بده.
@reza_jafari_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from یه شعر (Poem Bot)
حافظ | غزلیات | غزل شمارهٔ ۳۴
رواق منظر چشم من آشیانه توست
کرم نما و فرود آ که خانه خانه توست
به لطف خال و خط از عارفان ربودی دل
لطیفه های عجب زیر دام و دانه توست
دلت به وصل گل ای بلبل صبا خوش باد
که در چمن همه گلبانگ عاشقانه توست
علاج ضعف دل ما به لب حوالت کن
که این مفرح یاقوت در خزانه توست
به تن مقصرم از دولت ملازمتت
ولی خلاصه جان خاک آستانه توست
من آن نیم که دهم نقد دل به هر شوخی
در خزانه به مهر تو و نشانه توست
تو خود چه لعبتی ای شهسوار شیرین کار
که توسنی چو فلک رام تازیانه توست
چه جای من که بلغزد سپهر شعبده باز
از این حیل که در انبانه بهانه توست
سرود مجلست اکنون فلک به رقص آرد
که شعر حافظ شیرین سخن ترانه توست
#حافظ | گنجور
📍@iipoem
رواق منظر چشم من آشیانه توست
کرم نما و فرود آ که خانه خانه توست
به لطف خال و خط از عارفان ربودی دل
لطیفه های عجب زیر دام و دانه توست
دلت به وصل گل ای بلبل صبا خوش باد
که در چمن همه گلبانگ عاشقانه توست
علاج ضعف دل ما به لب حوالت کن
که این مفرح یاقوت در خزانه توست
به تن مقصرم از دولت ملازمتت
ولی خلاصه جان خاک آستانه توست
من آن نیم که دهم نقد دل به هر شوخی
در خزانه به مهر تو و نشانه توست
تو خود چه لعبتی ای شهسوار شیرین کار
که توسنی چو فلک رام تازیانه توست
چه جای من که بلغزد سپهر شعبده باز
از این حیل که در انبانه بهانه توست
سرود مجلست اکنون فلک به رقص آرد
که شعر حافظ شیرین سخن ترانه توست
#حافظ | گنجور
📍@iipoem
Forwarded from Gopher Academy
🔵 عنوان مقاله
Memory Allocation in Go
🟢 خلاصه مقاله:
مدیریت و تخصیص کارای حافظه، پایهی عملکرد و پایداری برنامههای Go است. این مقاله با مجموعهای از نمودارهای روشن، پشتپردهی تخصیص حافظه در Go را شرح میدهد: از نحوهی درخواست حافظه از سیستمعامل و سازماندهی آن در runtime تا تعامل آن با garbage collector و تأثیر الگوهای تخصیص بر فشار GC، تأخیر و کارایی. هدف مقاله ایجاد یک مدل ذهنی عملی است تا—even با تکیه بر پیشفرضهای منطقی Go—بتوانید بهتر پروفایلها را بخوانید، دربارهی تأخیر نتیجهگیری کنید و از تلههای رایج عملکردی دور بمانید.
#Go #Golang #MemoryManagement #GarbageCollection #Performance #GoRuntime #SystemsProgramming
🟣لینک مقاله:
https://golangweekly.com/link/174413/web
➖➖➖➖➖➖➖➖
👑 @gopher_academy
Memory Allocation in Go
🟢 خلاصه مقاله:
مدیریت و تخصیص کارای حافظه، پایهی عملکرد و پایداری برنامههای Go است. این مقاله با مجموعهای از نمودارهای روشن، پشتپردهی تخصیص حافظه در Go را شرح میدهد: از نحوهی درخواست حافظه از سیستمعامل و سازماندهی آن در runtime تا تعامل آن با garbage collector و تأثیر الگوهای تخصیص بر فشار GC، تأخیر و کارایی. هدف مقاله ایجاد یک مدل ذهنی عملی است تا—even با تکیه بر پیشفرضهای منطقی Go—بتوانید بهتر پروفایلها را بخوانید، دربارهی تأخیر نتیجهگیری کنید و از تلههای رایج عملکردی دور بمانید.
#Go #Golang #MemoryManagement #GarbageCollection #Performance #GoRuntime #SystemsProgramming
🟣لینک مقاله:
https://golangweekly.com/link/174413/web
➖➖➖➖➖➖➖➖
👑 @gopher_academy
Melatoni
Memory Allocation in Go
Forwarded from IRCF | اینترنت آزاد برای همه
در آپدیت جدید از #فیلترشکن متنباز و رایگان #ProxyCloud برای اندروید، امکان پشتیبانی از کانفیگهای Trojan فراهم شده.
همچنین در ایننسخه آدرس جدید برای سرور کانفیگ جایگزین شده، تنظیمات مزاحم باتری در اجرای اولیه برنامه حذف شده، سرعت برنامه بهبود داده شده و ...
👉 github.com/code3-dev/ProxyCloud/releases/latest
🔍 ircf.space/software
@ircfspace
همچنین در ایننسخه آدرس جدید برای سرور کانفیگ جایگزین شده، تنظیمات مزاحم باتری در اجرای اولیه برنامه حذف شده، سرعت برنامه بهبود داده شده و ...
👉 github.com/code3-dev/ProxyCloud/releases/latest
🔍 ircf.space/software
@ircfspace
Forwarded from a pessimistic researcher (Kc)
یه آفر دیگه،
هر ایرانی در هر تایم زونی، یک قدم به تفسیر فلسفی کارای گودل نزدیک بشه، و دو قدم از AGI نامیدن هر لاطائلاتی فاصله بگیره.
هر ایرانی در هر تایم زونی، یک قدم به تفسیر فلسفی کارای گودل نزدیک بشه، و دو قدم از AGI نامیدن هر لاطائلاتی فاصله بگیره.
Forwarded from DevTwitter | توییت برنامه نویسی
استفاده از LLM با APIهای رایگان openrouter
برید اینجا و مدلهایی که به صورت رایگان در دسترس هستن لیست شدن:
https://openrouter.ai/models?max_price=0
روی هر مدلی که خواستید کلیک کنید، اگر provider داشت میتونید بدون مشکل ازش استفاده کنید.
@DevTwitter | <Ali Moameri/>
برید اینجا و مدلهایی که به صورت رایگان در دسترس هستن لیست شدن:
https://openrouter.ai/models?max_price=0
روی هر مدلی که خواستید کلیک کنید، اگر provider داشت میتونید بدون مشکل ازش استفاده کنید.
@DevTwitter | <Ali Moameri/>
Forwarded from linuxtnt(linux tips and tricks) (hosein seilany https://seilany.ir/)
در ادامه کتاب های :
🔸Linux Essentials
https://t.iss.one/linuxtnt/4531
🔹 کتاب
🔸LPIC1
https://t.iss.one/linuxtnt/4520
🔹کتاب
🔸LPIC2
به زودی.....
🔸Linux Essentials
https://t.iss.one/linuxtnt/4531
🔹 کتاب
🔸LPIC1
https://t.iss.one/linuxtnt/4520
🔹کتاب
🔸LPIC2
به زودی.....
Telegram
linuxtnt(linux tips and tricks)
یک کتاب فارسی به جای 7 کتاب
🔹پس از انتشار کتاب ۱۰۰۱ دستور لینوکس، کتاب جامع برای یادگیری لینوکس و همچنین مفاهیم بیشتر لینوکس LPIC1 برای شما آماده شده است. کتاب، آموزش گامبهگام مباحث اصلی لینوکس را با منابع بینالمللی معتبر ترکیب کرده تا مطالعهای کاربردی…
🔹پس از انتشار کتاب ۱۰۰۱ دستور لینوکس، کتاب جامع برای یادگیری لینوکس و همچنین مفاهیم بیشتر لینوکس LPIC1 برای شما آماده شده است. کتاب، آموزش گامبهگام مباحث اصلی لینوکس را با منابع بینالمللی معتبر ترکیب کرده تا مطالعهای کاربردی…
Forwarded from Gopher Academy
🔵 عنوان مقاله
Google Gen AI Go SDK v1.25.0
🟢 خلاصه مقاله: ا
اSDK جدید Google Gen AI Go SDK v1.25.0 یک کتابخانه آمادهٔ تولید است که ادغام مدلهای مولد Google مثل Gemini را از طریق Gemini API و Vertex AI در برنامههای نوشتهشده با Go آسان میکند. این SDK احراز هویت با API key یا Google Cloud credentials، انتخاب مدل، مدیریت prompt و پاسخ، استریم خروجی، تنظیمات ایمنی و دستورالعملهای سیستمی را ساده میسازد و با الگوهای رایج Go مثل context.Context سازگار است. برای ساخت دستیارهای گفتگو، تولید محتوا و کد، خلاصهسازی و پرسشوپاسخ روی اسناد کاربرد دارد. نسخه v1.25.0 بهبودهای پایداری و کارایی و تجربهٔ توسعهدهنده را ارائه میدهد و با نسخههای جدید Gemini و کاتالوگ Vertex AI همسو شده است؛ برای جزئیات، مراجعه به release notes توصیه میشود.
#Go #Golang #GenerativeAI #Google #Gemini #VertexAI #SDK #AIIntegration
🟣لینک مقاله:
https://golangweekly.com/link/174429/web
➖➖➖➖➖➖➖➖
👑 @gopher_academy
Google Gen AI Go SDK v1.25.0
🟢 خلاصه مقاله: ا
اSDK جدید Google Gen AI Go SDK v1.25.0 یک کتابخانه آمادهٔ تولید است که ادغام مدلهای مولد Google مثل Gemini را از طریق Gemini API و Vertex AI در برنامههای نوشتهشده با Go آسان میکند. این SDK احراز هویت با API key یا Google Cloud credentials، انتخاب مدل، مدیریت prompt و پاسخ، استریم خروجی، تنظیمات ایمنی و دستورالعملهای سیستمی را ساده میسازد و با الگوهای رایج Go مثل context.Context سازگار است. برای ساخت دستیارهای گفتگو، تولید محتوا و کد، خلاصهسازی و پرسشوپاسخ روی اسناد کاربرد دارد. نسخه v1.25.0 بهبودهای پایداری و کارایی و تجربهٔ توسعهدهنده را ارائه میدهد و با نسخههای جدید Gemini و کاتالوگ Vertex AI همسو شده است؛ برای جزئیات، مراجعه به release notes توصیه میشود.
#Go #Golang #GenerativeAI #Google #Gemini #VertexAI #SDK #AIIntegration
🟣لینک مقاله:
https://golangweekly.com/link/174429/web
➖➖➖➖➖➖➖➖
👑 @gopher_academy
GitHub
GitHub - googleapis/go-genai: Google Gen AI Go SDK provides an interface for developers to integrate Google's generative models…
Google Gen AI Go SDK provides an interface for developers to integrate Google's generative models into their Go applications. - googleapis/go-genai
Forwarded from Linuxor ?
دیپسیک تونسته مشکل حل مسائل استدلالی رو برطرف کنه!
توی مقاله چند روز پیشش توضیح داده که بهجای آموزش سنتی با مثالهای انسانی، مدل رو مثل یک بازی ویدیویی آموزش داده: فقط وقتی پاداش میگرفت که جواب نهایی درست بود. همین باعث شد مدل خودش یاد بگیره استراتژیهای بهتر پیدا کنه، جوابهای طولانیتر و منطقیتر بنویسه و حتی وسط حل مسئله مکث کنه و دوباره بررسی کنه.
نسخهی اول (R1-Zero) فقط با آزمونوخطا آموزش دید و رفتارهای غیرمنتظره مثل خوداندیشی از خودش نشون داد. نسخهی بعدی (R1) مشکلات زبانی و خوانایی رو رفع کرد و نوشتن طبیعیتر شد. نتیجه این شد که توی ریاضی، کدنویسی و آزمونهای علمی حتی از انسانها و مدلهای قبلی بهتر عمل کرد. البته هنوز محدودیتهایی مثل زیادی فکر کردن یا قاطی کردن زبانها داره، اما نشون داده که هوش مصنوعی میتونه بدون آموزش انسانی، فقط با پاداش گرفتن برای جواب درست، استدلال رو خودش یاد بگیره.
@Linuxor
توی مقاله چند روز پیشش توضیح داده که بهجای آموزش سنتی با مثالهای انسانی، مدل رو مثل یک بازی ویدیویی آموزش داده: فقط وقتی پاداش میگرفت که جواب نهایی درست بود. همین باعث شد مدل خودش یاد بگیره استراتژیهای بهتر پیدا کنه، جوابهای طولانیتر و منطقیتر بنویسه و حتی وسط حل مسئله مکث کنه و دوباره بررسی کنه.
نسخهی اول (R1-Zero) فقط با آزمونوخطا آموزش دید و رفتارهای غیرمنتظره مثل خوداندیشی از خودش نشون داد. نسخهی بعدی (R1) مشکلات زبانی و خوانایی رو رفع کرد و نوشتن طبیعیتر شد. نتیجه این شد که توی ریاضی، کدنویسی و آزمونهای علمی حتی از انسانها و مدلهای قبلی بهتر عمل کرد. البته هنوز محدودیتهایی مثل زیادی فکر کردن یا قاطی کردن زبانها داره، اما نشون داده که هوش مصنوعی میتونه بدون آموزش انسانی، فقط با پاداش گرفتن برای جواب درست، استدلال رو خودش یاد بگیره.
@Linuxor
Forwarded from Python BackendHub (Mani)
تو بحث کردن دو روش داریم:
Strawman: یعنی ضعیفترین و دمدستیترین برداشت از حرف طرف مقابل رو میگیری و همونو میکوبی.
Steelman: یعنی قویترین و منطقیترین نسخه از حرف طرف مقابل رو تصور میکنی و بعد اونو نقد میکنی.
تو بحثهای تکنیکال و تو حوزه خودمون، حداقل steelman باشید. یعنی قبل از اینکه یه ایده رو بکوبید، سعی کنید بهترین حالت ممکنش رو در بیارید و بعد نقد کنید. ولی میبینم یک عده اخیرا کلا دلیلی نمیارن؛ ایده رو از بیسیک میزنن و میگن «کلا خوب نیست» بدون حتی یه خط استدلال! جملشون هم انگلیسی مینویسن که مثلا جذبه بیشتری داشته باشه :)) اینطوری نه بحث جلو میره، نه کسی چیزی یاد میگیره. اگه میخواید نقد کنید، اول قویترین نسخهی ایده رو بسازید، بعد برید سراغ نقد.
@PyBackendHub
Strawman: یعنی ضعیفترین و دمدستیترین برداشت از حرف طرف مقابل رو میگیری و همونو میکوبی.
Steelman: یعنی قویترین و منطقیترین نسخه از حرف طرف مقابل رو تصور میکنی و بعد اونو نقد میکنی.
تو بحثهای تکنیکال و تو حوزه خودمون، حداقل steelman باشید. یعنی قبل از اینکه یه ایده رو بکوبید، سعی کنید بهترین حالت ممکنش رو در بیارید و بعد نقد کنید. ولی میبینم یک عده اخیرا کلا دلیلی نمیارن؛ ایده رو از بیسیک میزنن و میگن «کلا خوب نیست» بدون حتی یه خط استدلال! جملشون هم انگلیسی مینویسن که مثلا جذبه بیشتری داشته باشه :)) اینطوری نه بحث جلو میره، نه کسی چیزی یاد میگیره. اگه میخواید نقد کنید، اول قویترین نسخهی ایده رو بسازید، بعد برید سراغ نقد.
@PyBackendHub