Forwarded from Laravel News
Debugging and Logging in Laravel Applications https://laravel-news.com/debugging-and-logging-in-laravel-applications
Laravel News
Debugging and Logging in Laravel Applications - Laravel News
The team at Sentry recently published a helpful guide on how to use Laravel’s built-in debugging tools as well as setting up Sentry to debug Laravel applications in production effectively.
Forwarded from کدنویس یکروزه
photoedit.zip
14.1 MB
فتوشاپ آنلاین بساز
در واقع یک نرم افزار بسیار جالب و کاربردی ویرایش عکس با امکان فیلتر گذاری و اضافه کردن متن و شکل به تصویر یا حتا ساخت پوستر و تصاویر جدید و دانلود اونها بدون نیاز به نصب فتوشاپ و کاملاً آنلاین در قالب یک وب اپلیکیشن!
پس کاربرد زبانها فقط بانک اطلاعاتی نیست و میشه چیزهای جذابی مثل این باهاشون خلق کرد!
کد رو میذارم اینجا و از فیلم یوتیوب زیر هم روش کار برنامه رو تماشا کنید:
https://m.youtube.com/watch?v=__sZT7oeKb0
در واقع یک نرم افزار بسیار جالب و کاربردی ویرایش عکس با امکان فیلتر گذاری و اضافه کردن متن و شکل به تصویر یا حتا ساخت پوستر و تصاویر جدید و دانلود اونها بدون نیاز به نصب فتوشاپ و کاملاً آنلاین در قالب یک وب اپلیکیشن!
پس کاربرد زبانها فقط بانک اطلاعاتی نیست و میشه چیزهای جذابی مثل این باهاشون خلق کرد!
کد رو میذارم اینجا و از فیلم یوتیوب زیر هم روش کار برنامه رو تماشا کنید:
https://m.youtube.com/watch?v=__sZT7oeKb0
Forwarded from Bardiaism
سال ۱۹۷۵ (قبل از انقلاب ۵۷)
- آبی: کشورهای جهان اول یا سرمایهداری (امپریالیستی)
- قرمز: کشورهای جهان دوم یا کمونیستی
- خاکستری: کشورهای جهان سوم یا کشورهای توسعه نیافته
منبع: ویکیپدیا https://fa.wikipedia.org/wiki/%D8%AC%D9%87%D8%A7%D9%86_%D8%B3%D9%88%D9%85
@Bardiaism
- آبی: کشورهای جهان اول یا سرمایهداری (امپریالیستی)
- قرمز: کشورهای جهان دوم یا کمونیستی
- خاکستری: کشورهای جهان سوم یا کشورهای توسعه نیافته
منبع: ویکیپدیا https://fa.wikipedia.org/wiki/%D8%AC%D9%87%D8%A7%D9%86_%D8%B3%D9%88%D9%85
@Bardiaism
😭1
Forwarded from Linuxor ?
ابزار diff برای چک کردن تفاوت خط به خط تغییرات فایل استفاده میشه. اما نمیتونه سینتکس رو بفهمه اومدن یه ابزار ساختن که سینتکس رو میفهمه و تغییرات رو توی سطح سینتکس بهتون نشون میده!
نصب :
github.com/Wilfred/difftastic
@Linuxor
نصب :
github.com/Wilfred/difftastic
@Linuxor
Forwarded from کدنویس یکروزه
free-photoshop.zip
3.9 MB
فتوشاپ اصل ولی آنلاین!
کد قبلی یه وابستگی محدود با PHP داشت و خیلی محیط ساده ای هم داشت. اما این یکی که فقط با JavaScript هست یه کپی دقیق و جالب و از خود برنامهی فتوشاپ هست!
واقعاً از ظرافت کار برنامه نویس چینی شاخ در آوردم! به خصوص که کل بار روی مرورگر و سمت کاربر قرار می گیره و واقعاً خیال می کنی داخل فتوشاپ هستی!
کد قبلی یه وابستگی محدود با PHP داشت و خیلی محیط ساده ای هم داشت. اما این یکی که فقط با JavaScript هست یه کپی دقیق و جالب و از خود برنامهی فتوشاپ هست!
واقعاً از ظرافت کار برنامه نویس چینی شاخ در آوردم! به خصوص که کل بار روی مرورگر و سمت کاربر قرار می گیره و واقعاً خیال می کنی داخل فتوشاپ هستی!
Forwarded from Linuxor ?
یه نفر یه جایگزین برای Elasticsearch ساخته :)
ابزار Elasticsearch یه موتور جستجوی متنباز و توزیعشده مبتنی بر Lucene هستش که برای جستجوی سریع و تحلیل دادههای بزرگ طراحی شده و از جستجوی متن کامل، فیلترهای پیشرفته و پردازش بلادرنگ پشتیبانی میکنه. ZincSearch یه جایگزین سبک برای Elasticsearch هستش که نصب و راهاندازی سادهتری داره و منابع کمتری مصرف میکنه. این موتور جستجوی متن کامل، متنباز و با پشتیبانی از APIهای Elasticsearch، امکان انتقال آسان دادهها و جستجو را فراهم میکنه. ZincSearch بدون نیاز به تعریف اسکیما، دادهها رو ذخیره و جستجو میکنه و یه رابط کاربری وب هم برای مدیریت و جستجوی دادهها داره.
zincsearch-docs.zinc.dev
@Linuxor
ابزار Elasticsearch یه موتور جستجوی متنباز و توزیعشده مبتنی بر Lucene هستش که برای جستجوی سریع و تحلیل دادههای بزرگ طراحی شده و از جستجوی متن کامل، فیلترهای پیشرفته و پردازش بلادرنگ پشتیبانی میکنه. ZincSearch یه جایگزین سبک برای Elasticsearch هستش که نصب و راهاندازی سادهتری داره و منابع کمتری مصرف میکنه. این موتور جستجوی متن کامل، متنباز و با پشتیبانی از APIهای Elasticsearch، امکان انتقال آسان دادهها و جستجو را فراهم میکنه. ZincSearch بدون نیاز به تعریف اسکیما، دادهها رو ذخیره و جستجو میکنه و یه رابط کاربری وب هم برای مدیریت و جستجوی دادهها داره.
zincsearch-docs.zinc.dev
@Linuxor
Forwarded from DevTwitter | توییت برنامه نویسی
این ریپو کتابها براساس تاپیک دسته بندی کرده(مثلا پایتون، دیتاساینس، مالی و...) https://github.com/anvaka/greview
@DevTwitter | <Amir Motahari/>
@DevTwitter | <Amir Motahari/>
Forwarded from متخصص وردپرس | پوینا via @vote
نظر شما در مورد ضبط فیلم معرفی و آموزش 40 پلاگین ضروری وردپرس چیست ؟ پلاگین هایی که حتما باید یاد بگیریم
anonymous poll
اگر رایگان باشه خوبه – 292
👍👍👍👍👍👍👍 88%
عالیه در هر صورت – 28
👍 8%
خیر جالب نیست – 12
▫️ 4%
👥 332 people voted so far.
anonymous poll
اگر رایگان باشه خوبه – 292
👍👍👍👍👍👍👍 88%
عالیه در هر صورت – 28
👍 8%
خیر جالب نیست – 12
▫️ 4%
👥 332 people voted so far.
Forwarded from متخصص وردپرس | پوینا via @vote
آیا هنوز محصول رایگان قرار بدیم و معرفی کنیم ؟
anonymous poll
بله اما بیشتر قرار بدید – 314
👍👍👍👍👍👍👍 96%
نه قرار ندید – 7
▫️ 2%
بله اما کمتر قرار بدید – 7
▫️ 2%
👥 328 people voted so far.
anonymous poll
بله اما بیشتر قرار بدید – 314
👍👍👍👍👍👍👍 96%
نه قرار ندید – 7
▫️ 2%
بله اما کمتر قرار بدید – 7
▫️ 2%
👥 328 people voted so far.
Forwarded from متخصص وردپرس | پوینا via @vote
تصور کنید سایت محصولات دانلودی دارید مثل فروش فیلم یا کتاب. بعد مشتری خرید میکنه و دانلودم میکنه اما بعدش میگه نمیخوام و میگه پولمو بده آیا پولشو پس میدید؟
anonymous poll
خیر پس نمیدم – 211
👍👍👍👍👍👍👍 63%
بله پولشو پس میدم – 124
👍👍👍👍 37%
👥 335 people voted so far.
anonymous poll
خیر پس نمیدم – 211
👍👍👍👍👍👍👍 63%
بله پولشو پس میدم – 124
👍👍👍👍 37%
👥 335 people voted so far.
Forwarded from متخصص وردپرس | پوینا via @vote
آیا قبول دارید از کل توانتون استفاده کنید پولدار میشید؟
anonymous poll
بله میشم – 471
👍👍👍👍👍👍👍 89%
نه نمیشم – 58
👍 11%
👥 529 people voted so far.
anonymous poll
بله میشم – 471
👍👍👍👍👍👍👍 89%
نه نمیشم – 58
👍 11%
👥 529 people voted so far.
Forwarded from Agora (Alireza)
هفتههاست دارم با خودم فکر میکنم که من چند تا تصمیم درست تو زندگیم گرفتم. اصلا چند تا تصمیم گرفتم. چندتاشون رو خودم خواستم. چندتاشون رو خیال کردم که قوارهی منن و خیال کردم که خودم میخوامشون.
اصلا این سلسله ناکامیها و این هیچی نبودن اصلا یعنی چی. چیزی شدن چجوریه که من نکردم و نشد که بکنم.
زیاد پیش میاد که وسط خونهخرابهی ذهنم سینهخیز میرم و خاطره مرور میکنم. از در و دیوار صدای قهقه میشنوم و دلم میخواد به سمتشون بدوام ولی حتی نمیدونم چطور بلند شم که بیشتر از این زخم نشم. توی آینه شکستههای کف زمین هربار یه تصویر از حسرتی میبینم که الان دیگه حتی نمیدونم واقعین یا نه. آینههایی که حتی نگاه کردن بهشون یک خراش سوزناک ولی نه کشنده یک جایی از تنت میذاره.
از ازسر شروع کردن متنفرم. ولی گاهی فکر میکنم نکنه اصلا تموم پیچا رو، از اون اولی تا این آخریشو اشتباه رفتم؟ چیشد که من رسیدم به اینجا؟ اصلا به کجا رسیدم؟! هیچ جوابی به هیچ چیزی ندارم. دیگه هیچ جوابی ندارم.
مؤمن به ایمانشه که زندهست و من به همهچیز کافرم. کافر شدم. از بس که هیچچیز معنا نداشت و جوابی براش نداشتم مونده شدم. تو راه پیدا کردن این که کجا رو خطا رفتم و کجا از توانم خارج بود، این که چرا دارم دنبال جواب میگردم رو هم گم کردم. فراموش کردم. من اصلا چی میخواستم؟ اصلا شایستهی این بودم که چیزی بخوام؟ دیگه مطمئن نیستم. خواستن، آب زلالیه که صاحب هر دست کثیفی بخواد ازش بنوشه رو میکشه.
اصلا این سلسله ناکامیها و این هیچی نبودن اصلا یعنی چی. چیزی شدن چجوریه که من نکردم و نشد که بکنم.
زیاد پیش میاد که وسط خونهخرابهی ذهنم سینهخیز میرم و خاطره مرور میکنم. از در و دیوار صدای قهقه میشنوم و دلم میخواد به سمتشون بدوام ولی حتی نمیدونم چطور بلند شم که بیشتر از این زخم نشم. توی آینه شکستههای کف زمین هربار یه تصویر از حسرتی میبینم که الان دیگه حتی نمیدونم واقعین یا نه. آینههایی که حتی نگاه کردن بهشون یک خراش سوزناک ولی نه کشنده یک جایی از تنت میذاره.
از ازسر شروع کردن متنفرم. ولی گاهی فکر میکنم نکنه اصلا تموم پیچا رو، از اون اولی تا این آخریشو اشتباه رفتم؟ چیشد که من رسیدم به اینجا؟ اصلا به کجا رسیدم؟! هیچ جوابی به هیچ چیزی ندارم. دیگه هیچ جوابی ندارم.
مؤمن به ایمانشه که زندهست و من به همهچیز کافرم. کافر شدم. از بس که هیچچیز معنا نداشت و جوابی براش نداشتم مونده شدم. تو راه پیدا کردن این که کجا رو خطا رفتم و کجا از توانم خارج بود، این که چرا دارم دنبال جواب میگردم رو هم گم کردم. فراموش کردم. من اصلا چی میخواستم؟ اصلا شایستهی این بودم که چیزی بخوام؟ دیگه مطمئن نیستم. خواستن، آب زلالیه که صاحب هر دست کثیفی بخواد ازش بنوشه رو میکشه.
Forwarded from Gopher Academy
📢 اگر تلگرام پرمیوم دارید، کانال ما رو Boost کنید ! 🚀
با Boost کردن کانال، به رشد و دیده شدن ما بیشتر کمک کنید💙
https://t.iss.one/boost/gopher_academy
با Boost کردن کانال، به رشد و دیده شدن ما بیشتر کمک کنید💙
https://t.iss.one/boost/gopher_academy
Forwarded from Things that I like (Mariana)
X (formerly Twitter)
Ali Eslami (@arkitus) on X
This is AGI complete
Forwarded from a pessimistic researcher (Kc)
آقا یه پیشنهادی دارم که مطمئنم دست رد به سینهاش نمیزنید.
هر ایرانی، هر کجای این گیتی زندگی میکنه، یک قدم به اثبات P!=NP و دو قدم به اثبات P=NP نزدیک تر بشه، در ازاش سه قدم از مقاله ساختن با کتک زدن LLM فاصله بگیره.
هر ایرانی، هر کجای این گیتی زندگی میکنه، یک قدم به اثبات P!=NP و دو قدم به اثبات P=NP نزدیک تر بشه، در ازاش سه قدم از مقاله ساختن با کتک زدن LLM فاصله بگیره.
Forwarded from a pessimistic researcher (Kc)
تو مقاله بعدی تعارف شابدوالعظیمی یاد LLM بدید و Ultra AGI رو خلق کنید
Forwarded from IRCF | اینترنت آزاد برای همه
Forwarded from Reza Jafari
نگاهی به مقاله جدید ماکروسافت، آیا in-context learning واقعا یادگیریه؟
برای شروع، ساده بگم که in-context learning یا همون ICL چیه. وقتی یک مدل زبانی بزرگ (LLM) بدون تغییر در وزنها یا حافظهی بلندمدتش، فقط از روی مثالهایی که داخل prompt دریافت میکنه الگو میگیره و پاسخ تولید میکنه، در واقع داره ICL انجام میده. یعنی مدل همون لحظه با ترکیب مثالهای ارائهشده و دانشی که از قبل داره، تصمیم میگیره چه جوابی بده.
مایکروسافت در یک پژوهش گسترده (بیش از ۱.۸ میلیون پیشبینی روی ۴ مدل و ۹ تسک مختلف) این پرسش رو بررسی کرده که آیا ICL واقعاً نوعی «یادگیری» محسوب میشه یا فقط تکرار طوطیوار. نتیجه اینه که از نظر ریاضی، ICL یادگیری حساب میشه؛ اما نوعی یادگیری شکننده است که بیشتر به الگوهای سطحی موجود در prompt وابسته است تا درک عمیق ساختار مسئله.
نتایج مطالعه نشون میده تعداد مثالها نقش کلیدی داره. برخلاف تصور رایج در few-shot learning که چند نمونه کافی به نظر میرسه، بهترین عملکرد زمانی حاصل میشه که حدود ۵۰ تا ۱۰۰ مثال در prompt وجود داشته باشه. به بیان ساده، ICL برای بهبود پایدار به دادهی بیشتری نیاز داره.
یکی از یافتههای جالب این بود که اهمیت دستور نوشتن prompt در طول زمان کاهش پیدا میکنه. حتی اگر دستورها با متن بیمعنی (word salad) جایگزین بشن، در نهایت دقت مدلها به سطح اصلی برمیگرده، البته به شرطی که مثالها تغییر نکرده باشن. اما اگر خود مثالها بههم ریخته بشن (salad-of-thought)، عملکرد مدلها به شدت افت میکنه.
با این حال، ICL در مواجهه با دادههای خارج از توزیع (out-of-distribution) ضعف جدی داره. زمانی که دادهی تست با دادههای موجود در prompt تفاوت زیادی داشته باشه، دقت مدلها به طور محسوسی کاهش پیدا میکنه. روشهایی مثل chain-of-thought و automated prompt optimisation در این شرایط آسیبپذیری بیشتری نشون میدن.
همچنین همهی تسکها به یک اندازه ساده یا دشوار نیستن. برخی مسائل مثل pattern matching تقریباً حلشده تلقی میشن، در حالیکه کارهایی مانند string reversal یا برخی محاسبات ریاضی همچنان برای مدلها دشوار باقی موندن. حتی وظایف مشابه میتونن تا ۳۱٪ اختلاف دقت داشته باشن. جالب اینکه در نیمی از وظایف آزمایششده، الگوریتمهای سنتی مثل decision tree یا kNN عملکرد بهتری نسبت به ICL داشتن.
پیامی که این تحقیق برای توسعهدهندههای هوش مصنوعی داره روشنه: روی few-shot ICL برای وظایف پیچیده حساب باز نکنید، مدلتون رو حتماً در قالبهای مختلف prompt و روی دادههای متنوع آزمایش کنید، انتظار شکنندگی در شرایط جدید رو داشته باشید و فراموش نکنید که در برخی موارد، استفاده از مدلهای کلاسیک میتونه نتیجهی بهتری بده.
🔤 🔤 🔤 🔤 🔤 🔤 🔤
🥇 اهورا اولین اپراتور هوش مصنوعی راهبردی ایران در حوزه ارائه خدمات و سرویسهای زیرساخت هوش مصنوعی
🌐 لینک ارتباط با اهورا
@reza_jafari_ai
برای شروع، ساده بگم که in-context learning یا همون ICL چیه. وقتی یک مدل زبانی بزرگ (LLM) بدون تغییر در وزنها یا حافظهی بلندمدتش، فقط از روی مثالهایی که داخل prompt دریافت میکنه الگو میگیره و پاسخ تولید میکنه، در واقع داره ICL انجام میده. یعنی مدل همون لحظه با ترکیب مثالهای ارائهشده و دانشی که از قبل داره، تصمیم میگیره چه جوابی بده.
مایکروسافت در یک پژوهش گسترده (بیش از ۱.۸ میلیون پیشبینی روی ۴ مدل و ۹ تسک مختلف) این پرسش رو بررسی کرده که آیا ICL واقعاً نوعی «یادگیری» محسوب میشه یا فقط تکرار طوطیوار. نتیجه اینه که از نظر ریاضی، ICL یادگیری حساب میشه؛ اما نوعی یادگیری شکننده است که بیشتر به الگوهای سطحی موجود در prompt وابسته است تا درک عمیق ساختار مسئله.
نتایج مطالعه نشون میده تعداد مثالها نقش کلیدی داره. برخلاف تصور رایج در few-shot learning که چند نمونه کافی به نظر میرسه، بهترین عملکرد زمانی حاصل میشه که حدود ۵۰ تا ۱۰۰ مثال در prompt وجود داشته باشه. به بیان ساده، ICL برای بهبود پایدار به دادهی بیشتری نیاز داره.
یکی از یافتههای جالب این بود که اهمیت دستور نوشتن prompt در طول زمان کاهش پیدا میکنه. حتی اگر دستورها با متن بیمعنی (word salad) جایگزین بشن، در نهایت دقت مدلها به سطح اصلی برمیگرده، البته به شرطی که مثالها تغییر نکرده باشن. اما اگر خود مثالها بههم ریخته بشن (salad-of-thought)، عملکرد مدلها به شدت افت میکنه.
با این حال، ICL در مواجهه با دادههای خارج از توزیع (out-of-distribution) ضعف جدی داره. زمانی که دادهی تست با دادههای موجود در prompt تفاوت زیادی داشته باشه، دقت مدلها به طور محسوسی کاهش پیدا میکنه. روشهایی مثل chain-of-thought و automated prompt optimisation در این شرایط آسیبپذیری بیشتری نشون میدن.
همچنین همهی تسکها به یک اندازه ساده یا دشوار نیستن. برخی مسائل مثل pattern matching تقریباً حلشده تلقی میشن، در حالیکه کارهایی مانند string reversal یا برخی محاسبات ریاضی همچنان برای مدلها دشوار باقی موندن. حتی وظایف مشابه میتونن تا ۳۱٪ اختلاف دقت داشته باشن. جالب اینکه در نیمی از وظایف آزمایششده، الگوریتمهای سنتی مثل decision tree یا kNN عملکرد بهتری نسبت به ICL داشتن.
پیامی که این تحقیق برای توسعهدهندههای هوش مصنوعی داره روشنه: روی few-shot ICL برای وظایف پیچیده حساب باز نکنید، مدلتون رو حتماً در قالبهای مختلف prompt و روی دادههای متنوع آزمایش کنید، انتظار شکنندگی در شرایط جدید رو داشته باشید و فراموش نکنید که در برخی موارد، استفاده از مدلهای کلاسیک میتونه نتیجهی بهتری بده.
@reza_jafari_ai
Please open Telegram to view this post
VIEW IN TELEGRAM