Forwarded from Linuxor ?
ابزار diff برای چک کردن تفاوت خط به خط تغییرات فایل استفاده میشه. اما نمیتونه سینتکس رو بفهمه اومدن یه ابزار ساختن که سینتکس رو میفهمه و تغییرات رو توی سطح سینتکس بهتون نشون میده!
نصب :
github.com/Wilfred/difftastic
@Linuxor
نصب :
github.com/Wilfred/difftastic
@Linuxor
Forwarded from کدنویس یکروزه
free-photoshop.zip
3.9 MB
فتوشاپ اصل ولی آنلاین!
کد قبلی یه وابستگی محدود با PHP داشت و خیلی محیط ساده ای هم داشت. اما این یکی که فقط با JavaScript هست یه کپی دقیق و جالب و از خود برنامهی فتوشاپ هست!
واقعاً از ظرافت کار برنامه نویس چینی شاخ در آوردم! به خصوص که کل بار روی مرورگر و سمت کاربر قرار می گیره و واقعاً خیال می کنی داخل فتوشاپ هستی!
کد قبلی یه وابستگی محدود با PHP داشت و خیلی محیط ساده ای هم داشت. اما این یکی که فقط با JavaScript هست یه کپی دقیق و جالب و از خود برنامهی فتوشاپ هست!
واقعاً از ظرافت کار برنامه نویس چینی شاخ در آوردم! به خصوص که کل بار روی مرورگر و سمت کاربر قرار می گیره و واقعاً خیال می کنی داخل فتوشاپ هستی!
Forwarded from Linuxor ?
یه نفر یه جایگزین برای Elasticsearch ساخته :)
ابزار Elasticsearch یه موتور جستجوی متنباز و توزیعشده مبتنی بر Lucene هستش که برای جستجوی سریع و تحلیل دادههای بزرگ طراحی شده و از جستجوی متن کامل، فیلترهای پیشرفته و پردازش بلادرنگ پشتیبانی میکنه. ZincSearch یه جایگزین سبک برای Elasticsearch هستش که نصب و راهاندازی سادهتری داره و منابع کمتری مصرف میکنه. این موتور جستجوی متن کامل، متنباز و با پشتیبانی از APIهای Elasticsearch، امکان انتقال آسان دادهها و جستجو را فراهم میکنه. ZincSearch بدون نیاز به تعریف اسکیما، دادهها رو ذخیره و جستجو میکنه و یه رابط کاربری وب هم برای مدیریت و جستجوی دادهها داره.
zincsearch-docs.zinc.dev
@Linuxor
ابزار Elasticsearch یه موتور جستجوی متنباز و توزیعشده مبتنی بر Lucene هستش که برای جستجوی سریع و تحلیل دادههای بزرگ طراحی شده و از جستجوی متن کامل، فیلترهای پیشرفته و پردازش بلادرنگ پشتیبانی میکنه. ZincSearch یه جایگزین سبک برای Elasticsearch هستش که نصب و راهاندازی سادهتری داره و منابع کمتری مصرف میکنه. این موتور جستجوی متن کامل، متنباز و با پشتیبانی از APIهای Elasticsearch، امکان انتقال آسان دادهها و جستجو را فراهم میکنه. ZincSearch بدون نیاز به تعریف اسکیما، دادهها رو ذخیره و جستجو میکنه و یه رابط کاربری وب هم برای مدیریت و جستجوی دادهها داره.
zincsearch-docs.zinc.dev
@Linuxor
Forwarded from DevTwitter | توییت برنامه نویسی
این ریپو کتابها براساس تاپیک دسته بندی کرده(مثلا پایتون، دیتاساینس، مالی و...) https://github.com/anvaka/greview
@DevTwitter | <Amir Motahari/>
@DevTwitter | <Amir Motahari/>
Forwarded from متخصص وردپرس | پوینا via @vote
نظر شما در مورد ضبط فیلم معرفی و آموزش 40 پلاگین ضروری وردپرس چیست ؟ پلاگین هایی که حتما باید یاد بگیریم
anonymous poll
اگر رایگان باشه خوبه – 292
👍👍👍👍👍👍👍 88%
عالیه در هر صورت – 28
👍 8%
خیر جالب نیست – 12
▫️ 4%
👥 332 people voted so far.
anonymous poll
اگر رایگان باشه خوبه – 292
👍👍👍👍👍👍👍 88%
عالیه در هر صورت – 28
👍 8%
خیر جالب نیست – 12
▫️ 4%
👥 332 people voted so far.
Forwarded from متخصص وردپرس | پوینا via @vote
آیا هنوز محصول رایگان قرار بدیم و معرفی کنیم ؟
anonymous poll
بله اما بیشتر قرار بدید – 314
👍👍👍👍👍👍👍 96%
نه قرار ندید – 7
▫️ 2%
بله اما کمتر قرار بدید – 7
▫️ 2%
👥 328 people voted so far.
anonymous poll
بله اما بیشتر قرار بدید – 314
👍👍👍👍👍👍👍 96%
نه قرار ندید – 7
▫️ 2%
بله اما کمتر قرار بدید – 7
▫️ 2%
👥 328 people voted so far.
Forwarded from متخصص وردپرس | پوینا via @vote
تصور کنید سایت محصولات دانلودی دارید مثل فروش فیلم یا کتاب. بعد مشتری خرید میکنه و دانلودم میکنه اما بعدش میگه نمیخوام و میگه پولمو بده آیا پولشو پس میدید؟
anonymous poll
خیر پس نمیدم – 211
👍👍👍👍👍👍👍 63%
بله پولشو پس میدم – 124
👍👍👍👍 37%
👥 335 people voted so far.
anonymous poll
خیر پس نمیدم – 211
👍👍👍👍👍👍👍 63%
بله پولشو پس میدم – 124
👍👍👍👍 37%
👥 335 people voted so far.
Forwarded from متخصص وردپرس | پوینا via @vote
آیا قبول دارید از کل توانتون استفاده کنید پولدار میشید؟
anonymous poll
بله میشم – 471
👍👍👍👍👍👍👍 89%
نه نمیشم – 58
👍 11%
👥 529 people voted so far.
anonymous poll
بله میشم – 471
👍👍👍👍👍👍👍 89%
نه نمیشم – 58
👍 11%
👥 529 people voted so far.
Forwarded from Agora (Alireza)
هفتههاست دارم با خودم فکر میکنم که من چند تا تصمیم درست تو زندگیم گرفتم. اصلا چند تا تصمیم گرفتم. چندتاشون رو خودم خواستم. چندتاشون رو خیال کردم که قوارهی منن و خیال کردم که خودم میخوامشون.
اصلا این سلسله ناکامیها و این هیچی نبودن اصلا یعنی چی. چیزی شدن چجوریه که من نکردم و نشد که بکنم.
زیاد پیش میاد که وسط خونهخرابهی ذهنم سینهخیز میرم و خاطره مرور میکنم. از در و دیوار صدای قهقه میشنوم و دلم میخواد به سمتشون بدوام ولی حتی نمیدونم چطور بلند شم که بیشتر از این زخم نشم. توی آینه شکستههای کف زمین هربار یه تصویر از حسرتی میبینم که الان دیگه حتی نمیدونم واقعین یا نه. آینههایی که حتی نگاه کردن بهشون یک خراش سوزناک ولی نه کشنده یک جایی از تنت میذاره.
از ازسر شروع کردن متنفرم. ولی گاهی فکر میکنم نکنه اصلا تموم پیچا رو، از اون اولی تا این آخریشو اشتباه رفتم؟ چیشد که من رسیدم به اینجا؟ اصلا به کجا رسیدم؟! هیچ جوابی به هیچ چیزی ندارم. دیگه هیچ جوابی ندارم.
مؤمن به ایمانشه که زندهست و من به همهچیز کافرم. کافر شدم. از بس که هیچچیز معنا نداشت و جوابی براش نداشتم مونده شدم. تو راه پیدا کردن این که کجا رو خطا رفتم و کجا از توانم خارج بود، این که چرا دارم دنبال جواب میگردم رو هم گم کردم. فراموش کردم. من اصلا چی میخواستم؟ اصلا شایستهی این بودم که چیزی بخوام؟ دیگه مطمئن نیستم. خواستن، آب زلالیه که صاحب هر دست کثیفی بخواد ازش بنوشه رو میکشه.
اصلا این سلسله ناکامیها و این هیچی نبودن اصلا یعنی چی. چیزی شدن چجوریه که من نکردم و نشد که بکنم.
زیاد پیش میاد که وسط خونهخرابهی ذهنم سینهخیز میرم و خاطره مرور میکنم. از در و دیوار صدای قهقه میشنوم و دلم میخواد به سمتشون بدوام ولی حتی نمیدونم چطور بلند شم که بیشتر از این زخم نشم. توی آینه شکستههای کف زمین هربار یه تصویر از حسرتی میبینم که الان دیگه حتی نمیدونم واقعین یا نه. آینههایی که حتی نگاه کردن بهشون یک خراش سوزناک ولی نه کشنده یک جایی از تنت میذاره.
از ازسر شروع کردن متنفرم. ولی گاهی فکر میکنم نکنه اصلا تموم پیچا رو، از اون اولی تا این آخریشو اشتباه رفتم؟ چیشد که من رسیدم به اینجا؟ اصلا به کجا رسیدم؟! هیچ جوابی به هیچ چیزی ندارم. دیگه هیچ جوابی ندارم.
مؤمن به ایمانشه که زندهست و من به همهچیز کافرم. کافر شدم. از بس که هیچچیز معنا نداشت و جوابی براش نداشتم مونده شدم. تو راه پیدا کردن این که کجا رو خطا رفتم و کجا از توانم خارج بود، این که چرا دارم دنبال جواب میگردم رو هم گم کردم. فراموش کردم. من اصلا چی میخواستم؟ اصلا شایستهی این بودم که چیزی بخوام؟ دیگه مطمئن نیستم. خواستن، آب زلالیه که صاحب هر دست کثیفی بخواد ازش بنوشه رو میکشه.
Forwarded from Gopher Academy
📢 اگر تلگرام پرمیوم دارید، کانال ما رو Boost کنید ! 🚀
با Boost کردن کانال، به رشد و دیده شدن ما بیشتر کمک کنید💙
https://t.iss.one/boost/gopher_academy
با Boost کردن کانال، به رشد و دیده شدن ما بیشتر کمک کنید💙
https://t.iss.one/boost/gopher_academy
Forwarded from Things that I like (Mariana)
X (formerly Twitter)
Ali Eslami (@arkitus) on X
This is AGI complete
Forwarded from a pessimistic researcher (Kc)
آقا یه پیشنهادی دارم که مطمئنم دست رد به سینهاش نمیزنید.
هر ایرانی، هر کجای این گیتی زندگی میکنه، یک قدم به اثبات P!=NP و دو قدم به اثبات P=NP نزدیک تر بشه، در ازاش سه قدم از مقاله ساختن با کتک زدن LLM فاصله بگیره.
هر ایرانی، هر کجای این گیتی زندگی میکنه، یک قدم به اثبات P!=NP و دو قدم به اثبات P=NP نزدیک تر بشه، در ازاش سه قدم از مقاله ساختن با کتک زدن LLM فاصله بگیره.
Forwarded from a pessimistic researcher (Kc)
تو مقاله بعدی تعارف شابدوالعظیمی یاد LLM بدید و Ultra AGI رو خلق کنید
Forwarded from IRCF | اینترنت آزاد برای همه
Forwarded from Reza Jafari
نگاهی به مقاله جدید ماکروسافت، آیا in-context learning واقعا یادگیریه؟
برای شروع، ساده بگم که in-context learning یا همون ICL چیه. وقتی یک مدل زبانی بزرگ (LLM) بدون تغییر در وزنها یا حافظهی بلندمدتش، فقط از روی مثالهایی که داخل prompt دریافت میکنه الگو میگیره و پاسخ تولید میکنه، در واقع داره ICL انجام میده. یعنی مدل همون لحظه با ترکیب مثالهای ارائهشده و دانشی که از قبل داره، تصمیم میگیره چه جوابی بده.
مایکروسافت در یک پژوهش گسترده (بیش از ۱.۸ میلیون پیشبینی روی ۴ مدل و ۹ تسک مختلف) این پرسش رو بررسی کرده که آیا ICL واقعاً نوعی «یادگیری» محسوب میشه یا فقط تکرار طوطیوار. نتیجه اینه که از نظر ریاضی، ICL یادگیری حساب میشه؛ اما نوعی یادگیری شکننده است که بیشتر به الگوهای سطحی موجود در prompt وابسته است تا درک عمیق ساختار مسئله.
نتایج مطالعه نشون میده تعداد مثالها نقش کلیدی داره. برخلاف تصور رایج در few-shot learning که چند نمونه کافی به نظر میرسه، بهترین عملکرد زمانی حاصل میشه که حدود ۵۰ تا ۱۰۰ مثال در prompt وجود داشته باشه. به بیان ساده، ICL برای بهبود پایدار به دادهی بیشتری نیاز داره.
یکی از یافتههای جالب این بود که اهمیت دستور نوشتن prompt در طول زمان کاهش پیدا میکنه. حتی اگر دستورها با متن بیمعنی (word salad) جایگزین بشن، در نهایت دقت مدلها به سطح اصلی برمیگرده، البته به شرطی که مثالها تغییر نکرده باشن. اما اگر خود مثالها بههم ریخته بشن (salad-of-thought)، عملکرد مدلها به شدت افت میکنه.
با این حال، ICL در مواجهه با دادههای خارج از توزیع (out-of-distribution) ضعف جدی داره. زمانی که دادهی تست با دادههای موجود در prompt تفاوت زیادی داشته باشه، دقت مدلها به طور محسوسی کاهش پیدا میکنه. روشهایی مثل chain-of-thought و automated prompt optimisation در این شرایط آسیبپذیری بیشتری نشون میدن.
همچنین همهی تسکها به یک اندازه ساده یا دشوار نیستن. برخی مسائل مثل pattern matching تقریباً حلشده تلقی میشن، در حالیکه کارهایی مانند string reversal یا برخی محاسبات ریاضی همچنان برای مدلها دشوار باقی موندن. حتی وظایف مشابه میتونن تا ۳۱٪ اختلاف دقت داشته باشن. جالب اینکه در نیمی از وظایف آزمایششده، الگوریتمهای سنتی مثل decision tree یا kNN عملکرد بهتری نسبت به ICL داشتن.
پیامی که این تحقیق برای توسعهدهندههای هوش مصنوعی داره روشنه: روی few-shot ICL برای وظایف پیچیده حساب باز نکنید، مدلتون رو حتماً در قالبهای مختلف prompt و روی دادههای متنوع آزمایش کنید، انتظار شکنندگی در شرایط جدید رو داشته باشید و فراموش نکنید که در برخی موارد، استفاده از مدلهای کلاسیک میتونه نتیجهی بهتری بده.
🔤 🔤 🔤 🔤 🔤 🔤 🔤
🥇 اهورا اولین اپراتور هوش مصنوعی راهبردی ایران در حوزه ارائه خدمات و سرویسهای زیرساخت هوش مصنوعی
🌐 لینک ارتباط با اهورا
@reza_jafari_ai
برای شروع، ساده بگم که in-context learning یا همون ICL چیه. وقتی یک مدل زبانی بزرگ (LLM) بدون تغییر در وزنها یا حافظهی بلندمدتش، فقط از روی مثالهایی که داخل prompt دریافت میکنه الگو میگیره و پاسخ تولید میکنه، در واقع داره ICL انجام میده. یعنی مدل همون لحظه با ترکیب مثالهای ارائهشده و دانشی که از قبل داره، تصمیم میگیره چه جوابی بده.
مایکروسافت در یک پژوهش گسترده (بیش از ۱.۸ میلیون پیشبینی روی ۴ مدل و ۹ تسک مختلف) این پرسش رو بررسی کرده که آیا ICL واقعاً نوعی «یادگیری» محسوب میشه یا فقط تکرار طوطیوار. نتیجه اینه که از نظر ریاضی، ICL یادگیری حساب میشه؛ اما نوعی یادگیری شکننده است که بیشتر به الگوهای سطحی موجود در prompt وابسته است تا درک عمیق ساختار مسئله.
نتایج مطالعه نشون میده تعداد مثالها نقش کلیدی داره. برخلاف تصور رایج در few-shot learning که چند نمونه کافی به نظر میرسه، بهترین عملکرد زمانی حاصل میشه که حدود ۵۰ تا ۱۰۰ مثال در prompt وجود داشته باشه. به بیان ساده، ICL برای بهبود پایدار به دادهی بیشتری نیاز داره.
یکی از یافتههای جالب این بود که اهمیت دستور نوشتن prompt در طول زمان کاهش پیدا میکنه. حتی اگر دستورها با متن بیمعنی (word salad) جایگزین بشن، در نهایت دقت مدلها به سطح اصلی برمیگرده، البته به شرطی که مثالها تغییر نکرده باشن. اما اگر خود مثالها بههم ریخته بشن (salad-of-thought)، عملکرد مدلها به شدت افت میکنه.
با این حال، ICL در مواجهه با دادههای خارج از توزیع (out-of-distribution) ضعف جدی داره. زمانی که دادهی تست با دادههای موجود در prompt تفاوت زیادی داشته باشه، دقت مدلها به طور محسوسی کاهش پیدا میکنه. روشهایی مثل chain-of-thought و automated prompt optimisation در این شرایط آسیبپذیری بیشتری نشون میدن.
همچنین همهی تسکها به یک اندازه ساده یا دشوار نیستن. برخی مسائل مثل pattern matching تقریباً حلشده تلقی میشن، در حالیکه کارهایی مانند string reversal یا برخی محاسبات ریاضی همچنان برای مدلها دشوار باقی موندن. حتی وظایف مشابه میتونن تا ۳۱٪ اختلاف دقت داشته باشن. جالب اینکه در نیمی از وظایف آزمایششده، الگوریتمهای سنتی مثل decision tree یا kNN عملکرد بهتری نسبت به ICL داشتن.
پیامی که این تحقیق برای توسعهدهندههای هوش مصنوعی داره روشنه: روی few-shot ICL برای وظایف پیچیده حساب باز نکنید، مدلتون رو حتماً در قالبهای مختلف prompt و روی دادههای متنوع آزمایش کنید، انتظار شکنندگی در شرایط جدید رو داشته باشید و فراموش نکنید که در برخی موارد، استفاده از مدلهای کلاسیک میتونه نتیجهی بهتری بده.
@reza_jafari_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from یه شعر (Poem Bot)
حافظ | غزلیات | غزل شمارهٔ ۳۴
رواق منظر چشم من آشیانه توست
کرم نما و فرود آ که خانه خانه توست
به لطف خال و خط از عارفان ربودی دل
لطیفه های عجب زیر دام و دانه توست
دلت به وصل گل ای بلبل صبا خوش باد
که در چمن همه گلبانگ عاشقانه توست
علاج ضعف دل ما به لب حوالت کن
که این مفرح یاقوت در خزانه توست
به تن مقصرم از دولت ملازمتت
ولی خلاصه جان خاک آستانه توست
من آن نیم که دهم نقد دل به هر شوخی
در خزانه به مهر تو و نشانه توست
تو خود چه لعبتی ای شهسوار شیرین کار
که توسنی چو فلک رام تازیانه توست
چه جای من که بلغزد سپهر شعبده باز
از این حیل که در انبانه بهانه توست
سرود مجلست اکنون فلک به رقص آرد
که شعر حافظ شیرین سخن ترانه توست
#حافظ | گنجور
📍@iipoem
رواق منظر چشم من آشیانه توست
کرم نما و فرود آ که خانه خانه توست
به لطف خال و خط از عارفان ربودی دل
لطیفه های عجب زیر دام و دانه توست
دلت به وصل گل ای بلبل صبا خوش باد
که در چمن همه گلبانگ عاشقانه توست
علاج ضعف دل ما به لب حوالت کن
که این مفرح یاقوت در خزانه توست
به تن مقصرم از دولت ملازمتت
ولی خلاصه جان خاک آستانه توست
من آن نیم که دهم نقد دل به هر شوخی
در خزانه به مهر تو و نشانه توست
تو خود چه لعبتی ای شهسوار شیرین کار
که توسنی چو فلک رام تازیانه توست
چه جای من که بلغزد سپهر شعبده باز
از این حیل که در انبانه بهانه توست
سرود مجلست اکنون فلک به رقص آرد
که شعر حافظ شیرین سخن ترانه توست
#حافظ | گنجور
📍@iipoem
Forwarded from Gopher Academy
🔵 عنوان مقاله
Memory Allocation in Go
🟢 خلاصه مقاله:
مدیریت و تخصیص کارای حافظه، پایهی عملکرد و پایداری برنامههای Go است. این مقاله با مجموعهای از نمودارهای روشن، پشتپردهی تخصیص حافظه در Go را شرح میدهد: از نحوهی درخواست حافظه از سیستمعامل و سازماندهی آن در runtime تا تعامل آن با garbage collector و تأثیر الگوهای تخصیص بر فشار GC، تأخیر و کارایی. هدف مقاله ایجاد یک مدل ذهنی عملی است تا—even با تکیه بر پیشفرضهای منطقی Go—بتوانید بهتر پروفایلها را بخوانید، دربارهی تأخیر نتیجهگیری کنید و از تلههای رایج عملکردی دور بمانید.
#Go #Golang #MemoryManagement #GarbageCollection #Performance #GoRuntime #SystemsProgramming
🟣لینک مقاله:
https://golangweekly.com/link/174413/web
➖➖➖➖➖➖➖➖
👑 @gopher_academy
Memory Allocation in Go
🟢 خلاصه مقاله:
مدیریت و تخصیص کارای حافظه، پایهی عملکرد و پایداری برنامههای Go است. این مقاله با مجموعهای از نمودارهای روشن، پشتپردهی تخصیص حافظه در Go را شرح میدهد: از نحوهی درخواست حافظه از سیستمعامل و سازماندهی آن در runtime تا تعامل آن با garbage collector و تأثیر الگوهای تخصیص بر فشار GC، تأخیر و کارایی. هدف مقاله ایجاد یک مدل ذهنی عملی است تا—even با تکیه بر پیشفرضهای منطقی Go—بتوانید بهتر پروفایلها را بخوانید، دربارهی تأخیر نتیجهگیری کنید و از تلههای رایج عملکردی دور بمانید.
#Go #Golang #MemoryManagement #GarbageCollection #Performance #GoRuntime #SystemsProgramming
🟣لینک مقاله:
https://golangweekly.com/link/174413/web
➖➖➖➖➖➖➖➖
👑 @gopher_academy
Melatoni
Memory Allocation in Go
Forwarded from IRCF | اینترنت آزاد برای همه
در آپدیت جدید از #فیلترشکن متنباز و رایگان #ProxyCloud برای اندروید، امکان پشتیبانی از کانفیگهای Trojan فراهم شده.
همچنین در ایننسخه آدرس جدید برای سرور کانفیگ جایگزین شده، تنظیمات مزاحم باتری در اجرای اولیه برنامه حذف شده، سرعت برنامه بهبود داده شده و ...
👉 github.com/code3-dev/ProxyCloud/releases/latest
🔍 ircf.space/software
@ircfspace
همچنین در ایننسخه آدرس جدید برای سرور کانفیگ جایگزین شده، تنظیمات مزاحم باتری در اجرای اولیه برنامه حذف شده، سرعت برنامه بهبود داده شده و ...
👉 github.com/code3-dev/ProxyCloud/releases/latest
🔍 ircf.space/software
@ircfspace