🧾 هوش مصنوعی قراره تحلیلگر مالی رو بیکار کنه؟ نه به این زودی!
توی آخرین بنچمارک Vals AI، چند مدل معروف از جمله o3 (OpenAI) اومدن آزمون بدن ببینن چقدر تحلیلگر مالی خوبیان. نتیجه؟ تو وظایف ساده، عملکردشون بین ۳۰ تا ۳۸ درصد بوده.
تو پیچیدهها؟ بعضیاشون نزدیک صفر.
حالا جالبتر اینجاست که بعضی از این مدلها برای هر سؤال تا ۵ دلار خرج برداشتن! یعنی نه دقت بالا، نه صرفه اقتصادی.
این ماجرا یه پیام مهم داره برای ما که هی با هیجان خبر از "خداحافظی با شغلها" میشنویم:
هوش مصنوعی تو تحلیل بازار، هنوز بلد نیست ریسک واقعی رو بفهمه، دیتا رو تو بستر زمانی-اقتصادی ببینه، یا حتی یه تیتر مبهم اقتصادی رو درست تفسیر کنه.
📌 تحلیل مالی فقط پردازش نیست، فهمه. و این یکی هنوز مال ما انسانهاست.
#هوش_مصنوعی | #تحلیل_بازار | #یادگیری_ماشین | #یادگیری_ماشین | #تحلیل_داده | #بازار_مالی
توی آخرین بنچمارک Vals AI، چند مدل معروف از جمله o3 (OpenAI) اومدن آزمون بدن ببینن چقدر تحلیلگر مالی خوبیان. نتیجه؟ تو وظایف ساده، عملکردشون بین ۳۰ تا ۳۸ درصد بوده.
تو پیچیدهها؟ بعضیاشون نزدیک صفر.
حالا جالبتر اینجاست که بعضی از این مدلها برای هر سؤال تا ۵ دلار خرج برداشتن! یعنی نه دقت بالا، نه صرفه اقتصادی.
این ماجرا یه پیام مهم داره برای ما که هی با هیجان خبر از "خداحافظی با شغلها" میشنویم:
هوش مصنوعی تو تحلیل بازار، هنوز بلد نیست ریسک واقعی رو بفهمه، دیتا رو تو بستر زمانی-اقتصادی ببینه، یا حتی یه تیتر مبهم اقتصادی رو درست تفسیر کنه.
📌 تحلیل مالی فقط پردازش نیست، فهمه. و این یکی هنوز مال ما انسانهاست.
#هوش_مصنوعی | #تحلیل_بازار | #یادگیری_ماشین | #یادگیری_ماشین | #تحلیل_داده | #بازار_مالی
👍6❤2🔥1
این چند روز داشتم دربارهی یه اتفاق جالب فکر میکردم
Duolingo با کمک AI تو کمتر از یک سال، ۱۴۸ تا دوره زبان ساخته
بیشتر از کل دورههایی که تو ۱۲ سال قبل ساخته بودن!
راستش یهجوریه، هم ذوقزده میشی، هم یه لرزی میافته به جونت
چون معنیش اینه:
تو حوزهای مثل آموزش زبان، دیگه پیمانکار انسانی نه اولویته، نه صرفه اقتصادی
جمله مدیرعاملشون خیلی واضحه:
«ما الان AI-first هستیم. هرجا که میتونیم خودکارسازی کنیم، میکنیم.»
این یعنی آینده بازار محتوا، آموزش و حتی ترجمه، داره روی ریل جدیدی میافته
ریلِ مدلهای مولد و محتوای مقیاسپذیر با ساختار مشترک
سوال من اینه:
برای این تعریف جدید خلاقیت چقدر آماده ایم؟
اگه فقط مصرفکننده AI بمونیم، خیلی زود از بازی پرت میشیم
اما اگه بلد باشیم چطور باهاش بازی کنیم، تازه داریم وارد مرحلهی اصلی میشیم
برای همین میگم وبینار دیتاهاب رو از دست نده
وبینار: بررسی جدیترین موانع یادگیری ریاضی در مسیر AI
🎁 کدهای تخفیف مخصوص بچههای دیتاهاب:
✨ کد
✨ کد
🔗 لینک ثبتنام: https://ttr.ir/2su1wn
#یادگیری_ماشین #علم_داده #تحلیل_داده #DataScience #هوش_مصنوعی #DataHub
Duolingo با کمک AI تو کمتر از یک سال، ۱۴۸ تا دوره زبان ساخته
بیشتر از کل دورههایی که تو ۱۲ سال قبل ساخته بودن!
راستش یهجوریه، هم ذوقزده میشی، هم یه لرزی میافته به جونت
چون معنیش اینه:
تو حوزهای مثل آموزش زبان، دیگه پیمانکار انسانی نه اولویته، نه صرفه اقتصادی
جمله مدیرعاملشون خیلی واضحه:
«ما الان AI-first هستیم. هرجا که میتونیم خودکارسازی کنیم، میکنیم.»
این یعنی آینده بازار محتوا، آموزش و حتی ترجمه، داره روی ریل جدیدی میافته
ریلِ مدلهای مولد و محتوای مقیاسپذیر با ساختار مشترک
سوال من اینه:
برای این تعریف جدید خلاقیت چقدر آماده ایم؟
اگه فقط مصرفکننده AI بمونیم، خیلی زود از بازی پرت میشیم
اما اگه بلد باشیم چطور باهاش بازی کنیم، تازه داریم وارد مرحلهی اصلی میشیم
برای همین میگم وبینار دیتاهاب رو از دست نده
وبینار: بررسی جدیترین موانع یادگیری ریاضی در مسیر AI
community1
→ ۷۲٪ تخفیف (ظرفیت خیلی محدود)community2
→ ۲۲٪ #یادگیری_ماشین #علم_داده #تحلیل_داده #DataScience #هوش_مصنوعی #DataHub
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3❤1
چند ماه پیش OpenAI با کلی دبدبه و کبکبه از مدل جدیدش رونمایی کرد؛ اسم رمز: o3
تو پیشنمایش، نتایج عجیبی رو کرد؛ همه جا تیتر زدن: «نزدیک شدن به AGI؟»
ولی خب… حالا نسخه نهایی اومده و مثل اکثر هیجانات دنیای AI، یهذره بادش خالی شده.
توی تست ARC-AGI-2، مدل o3 تونست چیزی حدود ۳٪ امتیاز بگیره
در حالی که یه انسان معمولی بدون تمرین خاص، میانگین ۶۰٪ رو رد میکنه
یعنی مدل، با تمام ادعاهاش، توی آزمون هوش عمومی واقعاً دوام نیاورد.
حالا OpenAI میگه این نسخه نهایی، کوچیکتره، سبکتره
خب آره، منطقیه که برای استفاده گستردهتر، مدل رو سبک کنن
ولی این یعنی دیگه نمیشه ازش انتظار AGI داشت، حداقل نه فعلاً
برای من این داستان بیشتر از اینکه ناامیدکننده باشه، یادآور یه چیز دیگهست:
نباید گول دموهای پرزرقوبرق رو خورد.
تو دنیای AI، واقعی بودن یعنی حل مسئله، نه فقط نوشتن جملههای بامزه یا جوابدادن به سوالات گوگلی
حالا سوالی که ذهنم رو درگیر کرده اینه:
آیا عقبگرد کردیم؟ یا داریم یاد میگیریم چطوری حرفه ای تر مدل های هوش مصنوعی رو توسعه بدیم؟
#دیتاهاب #یادگیری_ماشین #علم_داده #تحلیل_داده #OpenAI #تحلیل_فناوری #هوش_مصنوعی
تو پیشنمایش، نتایج عجیبی رو کرد؛ همه جا تیتر زدن: «نزدیک شدن به AGI؟»
ولی خب… حالا نسخه نهایی اومده و مثل اکثر هیجانات دنیای AI، یهذره بادش خالی شده.
توی تست ARC-AGI-2، مدل o3 تونست چیزی حدود ۳٪ امتیاز بگیره
در حالی که یه انسان معمولی بدون تمرین خاص، میانگین ۶۰٪ رو رد میکنه
یعنی مدل، با تمام ادعاهاش، توی آزمون هوش عمومی واقعاً دوام نیاورد.
حالا OpenAI میگه این نسخه نهایی، کوچیکتره، سبکتره
خب آره، منطقیه که برای استفاده گستردهتر، مدل رو سبک کنن
ولی این یعنی دیگه نمیشه ازش انتظار AGI داشت، حداقل نه فعلاً
برای من این داستان بیشتر از اینکه ناامیدکننده باشه، یادآور یه چیز دیگهست:
نباید گول دموهای پرزرقوبرق رو خورد.
تو دنیای AI، واقعی بودن یعنی حل مسئله، نه فقط نوشتن جملههای بامزه یا جوابدادن به سوالات گوگلی
حالا سوالی که ذهنم رو درگیر کرده اینه:
آیا عقبگرد کردیم؟ یا داریم یاد میگیریم چطوری حرفه ای تر مدل های هوش مصنوعی رو توسعه بدیم؟
#دیتاهاب #یادگیری_ماشین #علم_داده #تحلیل_داده #OpenAI #تحلیل_فناوری #هوش_مصنوعی
❤6👍3
This media is not supported in your browser
VIEW IN TELEGRAM
سلام رفقا 💙
برای همهی کسایی که میخوان وارد دنیای هوش مصنوعی بشن و هنوز حس میکنن که ریاضی یه مانع جدی تو مسیرشونه، این وبینار دقیقاً برای شما طراحی شده!
وبینار ما نه فقط یه جلسه تئوری بلکه یه راهنمای واقعی برای شروع یادگیری بدون استرس و پیچیدگی هست.
🗓 زمان وبینار: سهشنبه ۱۶ اردیبهشت | ساعت ۱۸:۰۰ تا ۱۹:۰۰
📍 برگزاری آنلاین
🎁 برای شما که عضو کامیونیتی دیتاهاب هستید، یه کد تخفیف ویژه داریم:
🔗 لینک ثبتنام:
https://ttr.ir/2su1wn
برای همهی کسایی که میخوان وارد دنیای هوش مصنوعی بشن و هنوز حس میکنن که ریاضی یه مانع جدی تو مسیرشونه، این وبینار دقیقاً برای شما طراحی شده!
وبینار ما نه فقط یه جلسه تئوری بلکه یه راهنمای واقعی برای شروع یادگیری بدون استرس و پیچیدگی هست.
🗓 زمان وبینار: سهشنبه ۱۶ اردیبهشت | ساعت ۱۸:۰۰ تا ۱۹:۰۰
📍 برگزاری آنلاین
🎁 برای شما که عضو کامیونیتی دیتاهاب هستید، یه کد تخفیف ویژه داریم:
community1
→ فقط ۵۰ هزار تومان! (ظرفیت محدود)🔗 لینک ثبتنام:
https://ttr.ir/2su1wn
👍6❤3
یه چیز عجیبه تو دنیای LLMها به اسم هالوسینیشن
یعنی مدل با اطمینان کامل یه چیزی میگه که اصلاً وجود نداره!
خب تا حالا روش مرسوم برای کنترلش RAG بوده.
یه جور ترکیب بازیابی اطلاعات با تولید پاسخ.
مثلاً میگه «جواب من اینه، ولی صبر کن برم یه سرچ هم بزنم ببینم چرت نگفتم!»
ولی راستش؟
تو خیلی از پروژههای واقعی، RAG بیشتر به درد تشخیص میخوره تا اصلاح.
یعنی میفهمه مدل اشتباه گفته، ولی خودش اصلاح نمیکنه.
حالا یه ایده جدید اومده: Guardian Agent
یه ماژول جداست که میاد جواب مدل رو خطبهخط چک میکنه
اشتباهو پیدا میکنه، اصلاح میکنه، و حتی میگه چی رو چرا عوض کرده!
تو تستها، حتی روی مدلهای زیر ۷ میلیارد پارامتر، تونسته هالوسینیشن رو برسونه به زیر ۱٪
اونم بدون اینکه جملههات شل و ول بشن یا ساختار جواب از هم بپاشه
🔍 نتیجه؟
اول Guardian اصلاح میکنه
بعد RAG هشدار میده
و تو فضای سازمانی، فرق این دوتا میتونه فرق بین اعتماد و ترک پروژه باشه
#LLM #هوش_مصنوعی #هوش_مصنوعی #یادگیری_ماشین #تحلیل_داده #علم_داده
یعنی مدل با اطمینان کامل یه چیزی میگه که اصلاً وجود نداره!
خب تا حالا روش مرسوم برای کنترلش RAG بوده.
یه جور ترکیب بازیابی اطلاعات با تولید پاسخ.
مثلاً میگه «جواب من اینه، ولی صبر کن برم یه سرچ هم بزنم ببینم چرت نگفتم!»
ولی راستش؟
تو خیلی از پروژههای واقعی، RAG بیشتر به درد تشخیص میخوره تا اصلاح.
یعنی میفهمه مدل اشتباه گفته، ولی خودش اصلاح نمیکنه.
حالا یه ایده جدید اومده: Guardian Agent
یه ماژول جداست که میاد جواب مدل رو خطبهخط چک میکنه
اشتباهو پیدا میکنه، اصلاح میکنه، و حتی میگه چی رو چرا عوض کرده!
تو تستها، حتی روی مدلهای زیر ۷ میلیارد پارامتر، تونسته هالوسینیشن رو برسونه به زیر ۱٪
اونم بدون اینکه جملههات شل و ول بشن یا ساختار جواب از هم بپاشه
🔍 نتیجه؟
اول Guardian اصلاح میکنه
بعد RAG هشدار میده
و تو فضای سازمانی، فرق این دوتا میتونه فرق بین اعتماد و ترک پروژه باشه
#LLM #هوش_مصنوعی #هوش_مصنوعی #یادگیری_ماشین #تحلیل_داده #علم_داده
👍17🔥2❤1
🚨 حمله وقتی شروع میشه که تو فکر میکنی امنی...
توی دنیای سایبری، خطر همیشه به شکل یه هکر پشت لپتاپ نیست
الان یه تهدید جدید داریم: مدلهای زبانی مولد (Gen AI)
طبق گزارش VentureBeat، حملههایی داریم که دقیقاً ساعت ۲:۱۳ نصف شب فعال میشن
نه چون این زمان خاصه، چون ابزارهای امنیتی تو اون بازه خوابن
دادههای تلمتری دیر میرسن، مدلهای AI از همین تاخیر استفاده میکنن
چی کار میکنن؟
🔹 ایمیل فیشینگ شخصیسازیشده تولید میکنن
🔹 لاگها رو تحلیل میکنن
🔹 حمله رو چند مرحلهای میچینن
اونم سریعتر از اینکه تیم امنیت اصلاً بفهمه قراره اتفاقی بیفته
📌 راهحل چیه؟
استفاده از خود AI برای مقابله با AI.
افزایش مانیتورینگ لحظهای.
کاهش فشار انسانی روی تیمهای SOC با ابزارهایی که یاد میگیرن و هشدار میدن — نه فقط لاگ میگیرن.
تو دنیایی که حملهکننده یاد میگیره بهتر حمله کنه، مدافع هم باید یاد بگیره حرفه ای تر دفاع کنه.
#امنیت_هوش_مصنوعی #هوش_مصنوعی #یادگیری_ماشین #تحلیل_داده #علم_داده #GenAI
#DataHub
توی دنیای سایبری، خطر همیشه به شکل یه هکر پشت لپتاپ نیست
الان یه تهدید جدید داریم: مدلهای زبانی مولد (Gen AI)
طبق گزارش VentureBeat، حملههایی داریم که دقیقاً ساعت ۲:۱۳ نصف شب فعال میشن
نه چون این زمان خاصه، چون ابزارهای امنیتی تو اون بازه خوابن
دادههای تلمتری دیر میرسن، مدلهای AI از همین تاخیر استفاده میکنن
چی کار میکنن؟
🔹 ایمیل فیشینگ شخصیسازیشده تولید میکنن
🔹 لاگها رو تحلیل میکنن
🔹 حمله رو چند مرحلهای میچینن
اونم سریعتر از اینکه تیم امنیت اصلاً بفهمه قراره اتفاقی بیفته
📌 راهحل چیه؟
استفاده از خود AI برای مقابله با AI.
افزایش مانیتورینگ لحظهای.
کاهش فشار انسانی روی تیمهای SOC با ابزارهایی که یاد میگیرن و هشدار میدن — نه فقط لاگ میگیرن.
تو دنیایی که حملهکننده یاد میگیره بهتر حمله کنه، مدافع هم باید یاد بگیره حرفه ای تر دفاع کنه.
#امنیت_هوش_مصنوعی #هوش_مصنوعی #یادگیری_ماشین #تحلیل_داده #علم_داده #GenAI
#DataHub
👍6❤1🔥1
خب رفقا سلام
به مناسبت رویداد I/O گوگل چند خطی مینویسم
خب این رویداد ی جورایی بزرگترین کنفرانس سالانه گوگل هست که هر چی داره و نداره میزاره وسط
طبیعی بود که رویداد امسالشون که همین چند روز پیش برگزار شد، کاملا با محوریت هوش مصنوعی باشه
چرا؟
چون گوگل توی یک نقطه عطف هست، که داره تلاش میکنه سهم بازار عظیم خودش توی سرچها از دست نده، که اگر نتونه با OpenAI خوب رقابت کنه واقعا سهم بزرگی از مخاطبها از دست میده
توی رویداد خیلی آیتم های متعدد معرفی شدن
طبق معمول نسخه جدید مدل جمنای معرفی شد(Gemini 2.5 pro)
و مثل همیشه و خیلی لوس
تمام بنچمارکها در نوردید(چرا میگم لوس، گوگل و اپن ای ای و آنتروپک و ... هی ورژن جدید معرفی میکنن و کلی تبلیغ میکنن که بهترین هست و اومد صدر جدول، ولی فرداش شرکت رقیب ی بهتر رو میکنه)
نمیگم مدلی ک گوگل معرفی کرد بده، حرفم اینه این نسخههای جدید بهبودهای کوچیک داره
انقلابی نیست
دلیلش هم واضحه ایدههای اولیه و خفن به ذهنشون رسیده و اجرا کردن و الان نقطهای هست که ناولتی دادن ساده نیستش
اینم بگم طبق آمار خود گوگل ۴۰۰ میلیون کاربر واسه سرویس جمنای، نشون داد که گوگل هر چند دیر ولی با قدرت داره جلو میره
و این نوید اتفاقای خیلی خوبیه
چرا؟
چون گوگل به خدمات و خلاقیتهاش معروفه
و باید شاهد کلی محصول و سرویس باکیفیت باشیم
چون گوگل میخواد سهم بازار جدی از هوش گیر بیاره
در تایید حرفم واسه اولین بار، تعداد پتنتهای ثبت شده توسط گوگل از IBM بیشتر شد
و نشون میده چقدرگوگل جدی هستش
و خب ایده خوب دادن بدون سخت افزار خوب شدنی نیست
واسه همین بود که تراشه نسل هفتم معرفی شد ک میگن تا ده برابر میتونه سریعتر عمل کنه
با توان پردازشی ۴۲.۵ اگزافلاپس
یعنی تو فقط مدل زبانی ترین کن 😊
و خب شاید مورد انتظارترین بخش واسه خودم
معرفی جامع تر AI mode بود
نسل نوی جستجو
به نظر خیلی لفتش دادن و باید زودتر از اینها معرفی میشد
ولی خیلی چیز تمیز و باحالیه
یعنی با اون حجم سایت کرال شده توسط گوگل با ترکیبش با جمینای
یک تجربه خفن از سرچ بهمون میده
یا Search Live
که قابلیتی بود که در کنار جستجو از طریق تایپ
حالا به راحتی میشه از عکس و ویدئو و ... استفاده کرد و مجبور نباشیم مدام تایم کنیم
و این ویزگی نشون میده گوگل جای درستی دست گذاشته
قابلیت هایی داره ارائه میده که نیازه
گاهی آدم خسته میشه تایپ کنه و مدام کیورد طولانیتر بزنه تا نتیجه جستجوش بهتر بشه
به مناسبت رویداد I/O گوگل چند خطی مینویسم
خب این رویداد ی جورایی بزرگترین کنفرانس سالانه گوگل هست که هر چی داره و نداره میزاره وسط
طبیعی بود که رویداد امسالشون که همین چند روز پیش برگزار شد، کاملا با محوریت هوش مصنوعی باشه
چرا؟
چون گوگل توی یک نقطه عطف هست، که داره تلاش میکنه سهم بازار عظیم خودش توی سرچها از دست نده، که اگر نتونه با OpenAI خوب رقابت کنه واقعا سهم بزرگی از مخاطبها از دست میده
توی رویداد خیلی آیتم های متعدد معرفی شدن
طبق معمول نسخه جدید مدل جمنای معرفی شد(Gemini 2.5 pro)
و مثل همیشه و خیلی لوس
تمام بنچمارکها در نوردید(چرا میگم لوس، گوگل و اپن ای ای و آنتروپک و ... هی ورژن جدید معرفی میکنن و کلی تبلیغ میکنن که بهترین هست و اومد صدر جدول، ولی فرداش شرکت رقیب ی بهتر رو میکنه)
نمیگم مدلی ک گوگل معرفی کرد بده، حرفم اینه این نسخههای جدید بهبودهای کوچیک داره
انقلابی نیست
دلیلش هم واضحه ایدههای اولیه و خفن به ذهنشون رسیده و اجرا کردن و الان نقطهای هست که ناولتی دادن ساده نیستش
اینم بگم طبق آمار خود گوگل ۴۰۰ میلیون کاربر واسه سرویس جمنای، نشون داد که گوگل هر چند دیر ولی با قدرت داره جلو میره
و این نوید اتفاقای خیلی خوبیه
چرا؟
چون گوگل به خدمات و خلاقیتهاش معروفه
و باید شاهد کلی محصول و سرویس باکیفیت باشیم
چون گوگل میخواد سهم بازار جدی از هوش گیر بیاره
در تایید حرفم واسه اولین بار، تعداد پتنتهای ثبت شده توسط گوگل از IBM بیشتر شد
و نشون میده چقدرگوگل جدی هستش
و خب ایده خوب دادن بدون سخت افزار خوب شدنی نیست
واسه همین بود که تراشه نسل هفتم معرفی شد ک میگن تا ده برابر میتونه سریعتر عمل کنه
با توان پردازشی ۴۲.۵ اگزافلاپس
یعنی تو فقط مدل زبانی ترین کن 😊
و خب شاید مورد انتظارترین بخش واسه خودم
معرفی جامع تر AI mode بود
نسل نوی جستجو
به نظر خیلی لفتش دادن و باید زودتر از اینها معرفی میشد
ولی خیلی چیز تمیز و باحالیه
یعنی با اون حجم سایت کرال شده توسط گوگل با ترکیبش با جمینای
یک تجربه خفن از سرچ بهمون میده
یا Search Live
که قابلیتی بود که در کنار جستجو از طریق تایپ
حالا به راحتی میشه از عکس و ویدئو و ... استفاده کرد و مجبور نباشیم مدام تایم کنیم
و این ویزگی نشون میده گوگل جای درستی دست گذاشته
قابلیت هایی داره ارائه میده که نیازه
گاهی آدم خسته میشه تایپ کنه و مدام کیورد طولانیتر بزنه تا نتیجه جستجوش بهتر بشه
👍3❤2
به صورت کلی یک کنفرانس جذاب بود که کلی ابزار خفن معرفی کرد
مثل ترجمه همزمان داخل یک تماس ویدیویی
که واقعا چیز تمیزیه
یا Veo 3 که یک ویدئوهایی باهاش میسازن که اگه هالیوود احساس خطر کنه بیراه نیست
حالا خودتون هم در مورد کنفرانس سرچ کنید که چیزهای باحالی دستگیرتون میشه
ولی در جمع بندی بگم
گوگل چیزای باحال معرفی کرد که اکثرا کاربردی و جالب بودن
ولی چیز خفن و انقلابی معرفی نکرد
که بزنه زیر میز
البته چندماهی هست که از طرف هیچ شرکت غولی، اتفاق خفنی نیفتاده
ولی باید صبر کرد
یک صبر کوتاه
چون خبرای جذابی مطرحه که نشون میده
ابزارهایی در راهن که قراره زندگیمون عوض کنن
مثل ترجمه همزمان داخل یک تماس ویدیویی
که واقعا چیز تمیزیه
یا Veo 3 که یک ویدئوهایی باهاش میسازن که اگه هالیوود احساس خطر کنه بیراه نیست
حالا خودتون هم در مورد کنفرانس سرچ کنید که چیزهای باحالی دستگیرتون میشه
ولی در جمع بندی بگم
گوگل چیزای باحال معرفی کرد که اکثرا کاربردی و جالب بودن
ولی چیز خفن و انقلابی معرفی نکرد
که بزنه زیر میز
البته چندماهی هست که از طرف هیچ شرکت غولی، اتفاق خفنی نیفتاده
ولی باید صبر کرد
یک صبر کوتاه
چون خبرای جذابی مطرحه که نشون میده
ابزارهایی در راهن که قراره زندگیمون عوض کنن
❤5👍1
چرا سیستمهای RAG در سازمانها شکست میخورند؟
سیستمهای RAG (Retrieval-Augmented Generation) برای بهبود عملکرد مدلهای هوش مصنوعی طراحی شدن، اما در عمل مشکلاتی دارن. این سیستمها برای تولید پاسخها از اطلاعات بازیابیشده استفاده میکنند. ولی وقتی این اطلاعات ناقص یا مرتبط نباشه، سیستم نمیتونه جواب دقیقی بده.
مشکل اصلی اینه که عدم وجود زمینه کافی برای پاسخدهی صحیح باعث میشه که سیستمها دقت لازم رو نداشته باشن و نتایج بهدست اومده ممکنه اشتباه یا ناقص باشه.
چطور این مشکل رو میشه حل کرد؟
اینجا مفهوم «سندیت زمینهای» یا Sufficient Context وارد میشه.
سندیت زمینهای به این معناست که سیستمها فقط زمانی جواب میدن که زمینه کافی و اطلاعات درست برای پاسخ دقیق فراهم باشه. این رویکرد کمک میکنه که سیستمهای RAG از پاسخهای نادرست جلوگیری کنن و فقط زمانی که زمینه مناسب وجود داره، اطلاعات رو پردازش کنن.
چطور این کار انجام میشه؟
با استفاده از مدلهای بزرگ زبان (LLM) و ارزیابی خودکار، سیستمها میتونن تشخیص بدن که آیا اطلاعات کافی برای ارائه پاسخ وجود داره یا نه. به عبارت دیگه، سیستمها بهطور خودکار بررسی میکنن که زمینه بازیابیشده برای پاسخدهی کافی است یا خیر.
این رویکرد دقت بیشتری به سیستمهای RAG میده و باعث میشه که اونها در محیطهای سازمانی که نیاز به دقت بالا دارن، عملکرد بهتری داشته باشن.
چرا این مهمه؟
در محیطهای سازمانی، دقت اطلاعات و درستی پاسخها از اهمیت ویژهای برخورداره. این رویکرد باعث میشه سیستمهای RAG به ابزاری قابل اعتمادتر برای پردازش اطلاعات تبدیل بشن.
📚 برای مطالعه بیشتر، به این لینک یه نگاهی بکنید :
https://arxiv.org/abs/2411.06037
#هوش_مصنوعی
#RAG
#DataHub
سیستمهای RAG (Retrieval-Augmented Generation) برای بهبود عملکرد مدلهای هوش مصنوعی طراحی شدن، اما در عمل مشکلاتی دارن. این سیستمها برای تولید پاسخها از اطلاعات بازیابیشده استفاده میکنند. ولی وقتی این اطلاعات ناقص یا مرتبط نباشه، سیستم نمیتونه جواب دقیقی بده.
مشکل اصلی اینه که عدم وجود زمینه کافی برای پاسخدهی صحیح باعث میشه که سیستمها دقت لازم رو نداشته باشن و نتایج بهدست اومده ممکنه اشتباه یا ناقص باشه.
چطور این مشکل رو میشه حل کرد؟
اینجا مفهوم «سندیت زمینهای» یا Sufficient Context وارد میشه.
سندیت زمینهای به این معناست که سیستمها فقط زمانی جواب میدن که زمینه کافی و اطلاعات درست برای پاسخ دقیق فراهم باشه. این رویکرد کمک میکنه که سیستمهای RAG از پاسخهای نادرست جلوگیری کنن و فقط زمانی که زمینه مناسب وجود داره، اطلاعات رو پردازش کنن.
چطور این کار انجام میشه؟
با استفاده از مدلهای بزرگ زبان (LLM) و ارزیابی خودکار، سیستمها میتونن تشخیص بدن که آیا اطلاعات کافی برای ارائه پاسخ وجود داره یا نه. به عبارت دیگه، سیستمها بهطور خودکار بررسی میکنن که زمینه بازیابیشده برای پاسخدهی کافی است یا خیر.
این رویکرد دقت بیشتری به سیستمهای RAG میده و باعث میشه که اونها در محیطهای سازمانی که نیاز به دقت بالا دارن، عملکرد بهتری داشته باشن.
چرا این مهمه؟
در محیطهای سازمانی، دقت اطلاعات و درستی پاسخها از اهمیت ویژهای برخورداره. این رویکرد باعث میشه سیستمهای RAG به ابزاری قابل اعتمادتر برای پردازش اطلاعات تبدیل بشن.
📚 برای مطالعه بیشتر، به این لینک یه نگاهی بکنید :
https://arxiv.org/abs/2411.06037
#هوش_مصنوعی
#RAG
#DataHub
arXiv.org
Sufficient Context: A New Lens on Retrieval Augmented Generation Systems
Augmenting LLMs with context leads to improved performance across many applications. Despite much research on Retrieval Augmented Generation (RAG) systems, an open question is whether errors arise...
👍7
رفقا همینطور که میدونین، یک مدتی هست لینکدین دیتاهاب دوباره استارت خورده و پست امروزش واقعا به یک دنیا می ارزه
من خودم شروع کردم به مطالعش
واقعا دم آنتروپیک گرم، این اخیرا اینقدر کار خفن کرده که عشق می کنم که انتخاب اولم همیشه Claude بوده
اصلا پیج دیتاهاب از دست ندین، خصوصا پست آخرش
https://www.linkedin.com/posts/data-hub-ir_%DA%AF%D9%88%DA%AF%D9%84-openai-%D9%88-anthropic-%DB%8C%D9%87-%D8%AD%D8%B1%DA%A9%D8%AA-%D8%AE%D9%81%D9%86-%D8%B2%D8%AF%D9%86-activity-7334591505442967553-7xt5
من خودم شروع کردم به مطالعش
واقعا دم آنتروپیک گرم، این اخیرا اینقدر کار خفن کرده که عشق می کنم که انتخاب اولم همیشه Claude بوده
اصلا پیج دیتاهاب از دست ندین، خصوصا پست آخرش
https://www.linkedin.com/posts/data-hub-ir_%DA%AF%D9%88%DA%AF%D9%84-openai-%D9%88-anthropic-%DB%8C%D9%87-%D8%AD%D8%B1%DA%A9%D8%AA-%D8%AE%D9%81%D9%86-%D8%B2%D8%AF%D9%86-activity-7334591505442967553-7xt5
Linkedin
گوگل، OpenAI و Anthropic یه حرکت خفن زدن: همه محتواهای چنددههزاری هوش مصنوعی رو رایگان کردن! | DataHub | دیتاهاب
گوگل، OpenAI و Anthropic یه حرکت خفن زدن: همه محتواهای چنددههزاری هوش مصنوعی رو رایگان کردن!
آره درست شنیدی!
ببین، دورههای AI که باکیفیت باشن، مثل پرامپتنویسی، ساخت ایجنت، مدلهای زبانی و کلی چیز خفن دیگه، همیشه گرون بودن.
یعنی اگه بخوای بری سمتشون، باید…
آره درست شنیدی!
ببین، دورههای AI که باکیفیت باشن، مثل پرامپتنویسی، ساخت ایجنت، مدلهای زبانی و کلی چیز خفن دیگه، همیشه گرون بودن.
یعنی اگه بخوای بری سمتشون، باید…
❤9
⚡️ساخت چت بات اختصاصی سایت ، راحت تر از همیشه
با معرفی NLWeb توسط مایکروسافت، فرصتهای زیادی برای کسبوکارهای آنلاین و استارتاپها در ایران به وجود اومده. با این پروتکل، میتونید چتباتهای هوش مصنوعی رو به راحتی به وبسایتهاتون اضافه کنید.
چند ایده برای استفاده در ایران:
پشتیبانی آنلاین مشتریان با چتباتهای هوش مصنوعی.
پلتفرمهای آموزشی که به کاربران پاسخ دقیقتر و سریعتر بدن.
سرویسهای جستجو که از AI Mode برای بهبود تجربه کاربری استفاده کنن.
این پروتکل دسترسی به هوش مصنوعی رو برای کسبوکارهای کوچک هم ممکن میکنه و میتونه به شما کمک کنه تا تجربه کاربری بهتری رو ارائه بدید.
اطلاعات بیشتر
#هوش_مصنوعی
#استارتاپ
#NLWeb
#DataHub
با معرفی NLWeb توسط مایکروسافت، فرصتهای زیادی برای کسبوکارهای آنلاین و استارتاپها در ایران به وجود اومده. با این پروتکل، میتونید چتباتهای هوش مصنوعی رو به راحتی به وبسایتهاتون اضافه کنید.
چند ایده برای استفاده در ایران:
پشتیبانی آنلاین مشتریان با چتباتهای هوش مصنوعی.
پلتفرمهای آموزشی که به کاربران پاسخ دقیقتر و سریعتر بدن.
سرویسهای جستجو که از AI Mode برای بهبود تجربه کاربری استفاده کنن.
این پروتکل دسترسی به هوش مصنوعی رو برای کسبوکارهای کوچک هم ممکن میکنه و میتونه به شما کمک کنه تا تجربه کاربری بهتری رو ارائه بدید.
اطلاعات بیشتر
#هوش_مصنوعی
#استارتاپ
#NLWeb
#DataHub
👍4❤1
آینده ارزیابی مدلهای هوش مصنوعی: RewardBench 2
خب، خبر جدیدی که به طور رسمی از Ai2 اومده، نسخه RewardBench 2 است. این ابزار جدید برای ارزیابی مدلهای پاداش (Reward Models) طراحی شده تا بتونه به طور دقیقتری عملکرد مدلها رو ارزیابی کنه.
چطور؟
این نسخه با افزودن دادههای پیچیدهتر و دشوارتر، شامل شش دامنه مختلف مثل دقت، پیروی از دستورات، ایمنی و تمرکز، تلاش کرده تا ارزیابی دقیقتری از مدلها ارائه بده.
چرا این مهمه؟
چون به شرکتها کمک میکنه مدلهایی رو انتخاب کنن که واقعاً با نیازهای خاص اونها همراستا باشه و از تولید پاسخهای غلط و خطرناک جلوگیری کنن.
در نهایت... RewardBench 2 یه ابزار حیاتی برای ارزیابی بهتر و انتخاب مدلهای هوش مصنوعی با عملکرد صحیحتر خواهد بود.
#هوش_مصنوعی #RewardBench2 #یادگیری_ماشین #علم_داده
خب، خبر جدیدی که به طور رسمی از Ai2 اومده، نسخه RewardBench 2 است. این ابزار جدید برای ارزیابی مدلهای پاداش (Reward Models) طراحی شده تا بتونه به طور دقیقتری عملکرد مدلها رو ارزیابی کنه.
چطور؟
این نسخه با افزودن دادههای پیچیدهتر و دشوارتر، شامل شش دامنه مختلف مثل دقت، پیروی از دستورات، ایمنی و تمرکز، تلاش کرده تا ارزیابی دقیقتری از مدلها ارائه بده.
چرا این مهمه؟
چون به شرکتها کمک میکنه مدلهایی رو انتخاب کنن که واقعاً با نیازهای خاص اونها همراستا باشه و از تولید پاسخهای غلط و خطرناک جلوگیری کنن.
در نهایت... RewardBench 2 یه ابزار حیاتی برای ارزیابی بهتر و انتخاب مدلهای هوش مصنوعی با عملکرد صحیحتر خواهد بود.
#هوش_مصنوعی #RewardBench2 #یادگیری_ماشین #علم_داده
👍4
🤔 تا حالا مکالمه با یه چتبات انجام دادی که اون مکثهای طولانی اعصابتو خورد کنه؟
همهمون این تجربه رو داشتیم که وقتی با چتباتها یا سیستمهای هوش مصنوعی صحبت میکنیم، تأخیرها توی مکالمه به وضوح به چشم میاد و حس میکنیم داریم با یه ربات حرف میزنیم. خب، این مشکل بزرگتر از چیزیکه به نظر میاد.
🔧سه شرکت Phonely، Maitai و Groq با همکاری هم تونستن این مشکل رو حل کنن. حالا زمان پاسخدهی بیشتر از ۷۰% کاهش پیدا کرده و دقت مدلها از ۸۱.۵% به ۹۹.۲% رسیده.
✅ یعنی دیگه نه خبری از تأخیر هست نه از حس رباتی بودن! این پیشرفتها برای کسبوکارهایی که میخوان از چتباتها برای پشتیبانی مشتری استفاده کنن، میتونه انقلاب بزرگی باشه.
چند تا از مشتریهای Phonely دارن ۳۵۰ نیروی انسانی رو با چتباتهای هوش مصنوعی جایگزین میکنن. این یعنی هزینهها کاهش پیدا میکنه و کیفیت خدمات بهتر میشه.
⏱️ کسبوکارهایی که به دنبال کاهش هزینهها و بهبود تجربه مشتری هستن، این موضوع میتونه مزیت رقابتی پایدار شون باشه!
#هوش_مصنوعی
#پشتیبانی_مشتری
#DataHub
#چت_بات
همهمون این تجربه رو داشتیم که وقتی با چتباتها یا سیستمهای هوش مصنوعی صحبت میکنیم، تأخیرها توی مکالمه به وضوح به چشم میاد و حس میکنیم داریم با یه ربات حرف میزنیم. خب، این مشکل بزرگتر از چیزیکه به نظر میاد.
🔧سه شرکت Phonely، Maitai و Groq با همکاری هم تونستن این مشکل رو حل کنن. حالا زمان پاسخدهی بیشتر از ۷۰% کاهش پیدا کرده و دقت مدلها از ۸۱.۵% به ۹۹.۲% رسیده.
✅ یعنی دیگه نه خبری از تأخیر هست نه از حس رباتی بودن! این پیشرفتها برای کسبوکارهایی که میخوان از چتباتها برای پشتیبانی مشتری استفاده کنن، میتونه انقلاب بزرگی باشه.
چند تا از مشتریهای Phonely دارن ۳۵۰ نیروی انسانی رو با چتباتهای هوش مصنوعی جایگزین میکنن. این یعنی هزینهها کاهش پیدا میکنه و کیفیت خدمات بهتر میشه.
⏱️ کسبوکارهایی که به دنبال کاهش هزینهها و بهبود تجربه مشتری هستن، این موضوع میتونه مزیت رقابتی پایدار شون باشه!
#هوش_مصنوعی
#پشتیبانی_مشتری
#DataHub
#چت_بات
❤4👍2
خب رفقا سلام! یه مسئلهای که خیلی از کسبوکارها و تیمهای هوش مصنوعی باهاش مواجه هستن، چالش پردازش و انتقال دادهها به مدلهای هوش مصنوعیه. شاید شما هم با مشکلاتی مثل دادههای پراکنده، دیر به دیر به دست اومدن اطلاعات و عدم یکپارچگی منابع داده روبرو شده باشید.
حالا، Openflow از Snowflake یه راهحل جذاب برای این مشکلات داره. این ابزار بهطور خودکار و بدون پیچیدگی میتونه دادهها رو از ۲۰۰+ منبع مختلف جمعآوری و در کمترین زمان به مدلهای هوش مصنوعی منتقل کنه. یعنی دیگه نگران پردازش دادههای حجیم یا چالشهای زمانبر در پردازش اطلاعات نباشید.
دقت کنید که این تغییر برای کسبوکارهایی که به دادههای سریع و دقیق نیاز دارن، یک فرصت طلایی به حساب میاد. از دادههای غیرساختاریافته مثل تصاویر و ویدئوها گرفته تا دادههای ساختاریافته، همه رو میتونید با Openflow پردازش و استفاده کنید.
پس اگه میخواید دادهها رو سریعتر، دقیقتر و راحتتر وارد مدلهای هوش مصنوعی کنید، حتماً سراغ این ابزار برید!
#هوش_مصنوعی
#داده_کاوی
#DataHub
#Openflow
حالا، Openflow از Snowflake یه راهحل جذاب برای این مشکلات داره. این ابزار بهطور خودکار و بدون پیچیدگی میتونه دادهها رو از ۲۰۰+ منبع مختلف جمعآوری و در کمترین زمان به مدلهای هوش مصنوعی منتقل کنه. یعنی دیگه نگران پردازش دادههای حجیم یا چالشهای زمانبر در پردازش اطلاعات نباشید.
دقت کنید که این تغییر برای کسبوکارهایی که به دادههای سریع و دقیق نیاز دارن، یک فرصت طلایی به حساب میاد. از دادههای غیرساختاریافته مثل تصاویر و ویدئوها گرفته تا دادههای ساختاریافته، همه رو میتونید با Openflow پردازش و استفاده کنید.
پس اگه میخواید دادهها رو سریعتر، دقیقتر و راحتتر وارد مدلهای هوش مصنوعی کنید، حتماً سراغ این ابزار برید!
#هوش_مصنوعی
#داده_کاوی
#DataHub
#Openflow
👍6❤1
خب رفقا سلام،
همه از هوش مصنوعی و مدلها صحبت میکنن، ولی هنوز چالش بزرگتر در دنیای AI باقیمونده: چطور مدلها رو هماهنگ کنیم؟ این یه دغدغه بزرگ برای کسبوکارهایی که دنبال یکپارچگی و عملکرد بهتر توی سیستمهای هوش مصنوعی هستند.
حالا، A2A و MCP به کمک اومدن. این دو پروتکل به مدلها این امکان رو میدن که بدون درگیری با پیچیدگیهای بیشتر، بتونن به راحتی با هم همکاری کنن و اطلاعات رو به اشتراک بذارند. یعنی مدلهای مختلف که با ابزارها و تکنولوژیهای متفاوت ساخته شدن، حالا میتونن در یک اکوسیستم یکپارچه به بهترین شکل عمل کنن.
این تغییر بزرگ برای کسایی که از مدلهای متنوع و مقیاسپذیر استفاده میکنن، میتونه راهحلهای جدید و بهینهای ایجاد کنه. چالش همیشه در هماهنگسازی بوده، حالا این پروتکلها قراره همه چیز رو سادهتر و سریعتر کنند.
#هوش_مصنوعی
#DataHub
#A2A
#MCP
همه از هوش مصنوعی و مدلها صحبت میکنن، ولی هنوز چالش بزرگتر در دنیای AI باقیمونده: چطور مدلها رو هماهنگ کنیم؟ این یه دغدغه بزرگ برای کسبوکارهایی که دنبال یکپارچگی و عملکرد بهتر توی سیستمهای هوش مصنوعی هستند.
حالا، A2A و MCP به کمک اومدن. این دو پروتکل به مدلها این امکان رو میدن که بدون درگیری با پیچیدگیهای بیشتر، بتونن به راحتی با هم همکاری کنن و اطلاعات رو به اشتراک بذارند. یعنی مدلهای مختلف که با ابزارها و تکنولوژیهای متفاوت ساخته شدن، حالا میتونن در یک اکوسیستم یکپارچه به بهترین شکل عمل کنن.
این تغییر بزرگ برای کسایی که از مدلهای متنوع و مقیاسپذیر استفاده میکنن، میتونه راهحلهای جدید و بهینهای ایجاد کنه. چالش همیشه در هماهنگسازی بوده، حالا این پروتکلها قراره همه چیز رو سادهتر و سریعتر کنند.
#هوش_مصنوعی
#DataHub
#A2A
#MCP
👍5
رفقا سلام
احتمالا یکسریهاتون میدونین چقدر عاشق ایرانم
و به تمدنمون افتخار میکنم، احساس غرور میکنم از ایرانی بودن
و پای علاقه خودم هم ایستادم و با اینکه گاهی شرایطش داشت مهیا میشد
ولی باز ترجیح دادم توی خاک کشور عزیزم بمونم.
توی دو سه روز گذشته اصلا پشیمون نشدم
حتی یک بارم نگفتم کاش مهاجرت کرده بودم
آدم عاشق که دوتادوتا چارتا نمیکنه
پای عشقش میمونه اونم توی شرایط سخت
الانم واقعا از صمیم قلبم آرزو میکنم یک مو هم از سر ایران خانم کم نشه
و خب طبیعتا ناراحتیم و وحشت زده ولی قرار نیست نااميد بشیم
این کشور هزار سال دووم آورده و میاره
و یادمون نره مراقب همدیگه باشیم و یک جورایی مثل کوه پشت هم باشیم تا این روزای سخت تموم شن❤️
احتمالا یکسریهاتون میدونین چقدر عاشق ایرانم
و به تمدنمون افتخار میکنم، احساس غرور میکنم از ایرانی بودن
و پای علاقه خودم هم ایستادم و با اینکه گاهی شرایطش داشت مهیا میشد
ولی باز ترجیح دادم توی خاک کشور عزیزم بمونم.
توی دو سه روز گذشته اصلا پشیمون نشدم
حتی یک بارم نگفتم کاش مهاجرت کرده بودم
آدم عاشق که دوتادوتا چارتا نمیکنه
پای عشقش میمونه اونم توی شرایط سخت
الانم واقعا از صمیم قلبم آرزو میکنم یک مو هم از سر ایران خانم کم نشه
و خب طبیعتا ناراحتیم و وحشت زده ولی قرار نیست نااميد بشیم
این کشور هزار سال دووم آورده و میاره
و یادمون نره مراقب همدیگه باشیم و یک جورایی مثل کوه پشت هم باشیم تا این روزای سخت تموم شن❤️
❤43
۵٪ پروژههای هوش مصنوعی هیچوقت از مرحله آزمایشی عبور نمیکنن، و مشکل اصلی نه تکنولوژی، بلکه ساختار سازمانیه. خیلی از سازمانها هنوز هوش مصنوعی رو به چشم یه آزمایش علمی میبینن، نه یه ابزار واقعی برای حل مشکلات کسبوکار.
اما شرکتهایی مثل Walmart و JPMorgan Chase نشون دادن که موفقیت در هوش مصنوعی فقط داشتن بهترین الگوریتمها یا متخصصین داده نیست. اونها با ایجاد زیرساختهای یکپارچه، مثل پلتفرمهای متمرکز و تغییرات فرهنگی جدی، تونستن هوش مصنوعی رو از آزمایشگاه به یک ابزار سودآور تبدیل کنن.
این موفقیتها به ما یادآوری میکنه که برای رسیدن به ROI مثبت، نیاز به استراتژیهای دقیق مدیریتی، تیمهای چندتخصصی و زیرساختهای قدرتمند داریم. اما سوالی که ذهن رو درگیر میکنه اینه: آیا چنین مدلهایی برای کشورهایی مثل ایران قابل اجرا هستن؟ آیا کسبوکارهای ما آمادگی چنین تغییراتی رو دارن؟
خارج از مباحث کلیشه ای ، به نظرتون چه موانعی سر راه تجاری سازی هوش مصنوعی در ایران وجود داره؟ تجربههاتون رو با ما به اشتراک بذارید.
اما شرکتهایی مثل Walmart و JPMorgan Chase نشون دادن که موفقیت در هوش مصنوعی فقط داشتن بهترین الگوریتمها یا متخصصین داده نیست. اونها با ایجاد زیرساختهای یکپارچه، مثل پلتفرمهای متمرکز و تغییرات فرهنگی جدی، تونستن هوش مصنوعی رو از آزمایشگاه به یک ابزار سودآور تبدیل کنن.
این موفقیتها به ما یادآوری میکنه که برای رسیدن به ROI مثبت، نیاز به استراتژیهای دقیق مدیریتی، تیمهای چندتخصصی و زیرساختهای قدرتمند داریم. اما سوالی که ذهن رو درگیر میکنه اینه: آیا چنین مدلهایی برای کشورهایی مثل ایران قابل اجرا هستن؟ آیا کسبوکارهای ما آمادگی چنین تغییراتی رو دارن؟
خارج از مباحث کلیشه ای ، به نظرتون چه موانعی سر راه تجاری سازی هوش مصنوعی در ایران وجود داره؟ تجربههاتون رو با ما به اشتراک بذارید.
👍6
توی دنیای مدلهای زبانی که قدم گذاشتیم، یکی از مهمترین نکات، یادگیری شیوه تعامل با این مدلهاست. یعنی هرچقدر بهتر باهاشون صحبت کنیم، جواب بهتری دریافت میکنیم.
مثلاً فرض کنید میخواید از یه مدل زبانی کمک بگیرید برای نوشتن یه ایمیل کاری. اگه بگید: "یه ایمیل بنویس"، ممکنه چیز خوبی دریافت نکنید. ولی اگه بگید: "یه ایمیل رسمی برای درخواست مرخصی بنویس که شامل دلیل، تاریخ شروع و پایان مرخصی باشه"، خروجی خیلی بهتری میگیرید.
شیوه صحبت با مدل زبانی چیه؟ بله، درست حدس زدید... پرامپت نویسی.
یه منبع مفیدی پیدا کردم که به خوبی و با مثال میآد و از سادهترین روشهای پرامپت نویسی تا جدیدترینهاش را بیان میکنه. با دانستن همین نکاتی که شاید یک ساعت هم زمان نبره که کامل بخونینش، شاهد تأثیرات خیلی چشمگیری میشین توی خروجی مدلهای زبانی.
لینک مطلب:
https://www.promptingguide.ai
واقعاً ارزش مطالعه داره و میتونه کیفیت کارتون با مدلهای زبانی رو به شکل قابل توجهی بهبود بده.
مثلاً فرض کنید میخواید از یه مدل زبانی کمک بگیرید برای نوشتن یه ایمیل کاری. اگه بگید: "یه ایمیل بنویس"، ممکنه چیز خوبی دریافت نکنید. ولی اگه بگید: "یه ایمیل رسمی برای درخواست مرخصی بنویس که شامل دلیل، تاریخ شروع و پایان مرخصی باشه"، خروجی خیلی بهتری میگیرید.
شیوه صحبت با مدل زبانی چیه؟ بله، درست حدس زدید... پرامپت نویسی.
یه منبع مفیدی پیدا کردم که به خوبی و با مثال میآد و از سادهترین روشهای پرامپت نویسی تا جدیدترینهاش را بیان میکنه. با دانستن همین نکاتی که شاید یک ساعت هم زمان نبره که کامل بخونینش، شاهد تأثیرات خیلی چشمگیری میشین توی خروجی مدلهای زبانی.
لینک مطلب:
https://www.promptingguide.ai
واقعاً ارزش مطالعه داره و میتونه کیفیت کارتون با مدلهای زبانی رو به شکل قابل توجهی بهبود بده.
www.promptingguide.ai
Prompt Engineering Guide | Prompt Engineering Guide
A Comprehensive Overview of Prompt Engineering
👍4❤2
یه ابزار فوقالعاده کاربردی پیدا کردیم که خصوصاً برای کسانی که مهارت برنامهنویسی بالایی ندارن، خیلی می تونه مفید باشه.
همیشه داده لازم داریم، چه برای مقاله دانشگاهیمون چه برای پروژه شرکتی و هر کار دیگه توی دنیای علم داده. اصلاً بدون داده مگه میشه کاری کرد؟
ولی استخراج داده از وبسایتها یا در اصطلاح کرالینگ، گاهی به شدت پیچیده است و نیاز به دانش تخصصی HTML و کتابخانههایی مثل BeautifulSoup یا Scrapy داره و گاها واقعاً حوصله سر بر میشه.
مثلاً فرض کنید میخواید از یک سایت خبری، تمام اخبار مربوط به یک موضوع خاص را جمعآوری کنید. روش سنتی این بود که باید کدهای پیچیدهای بنویسید، با ساختار HTML آشنا باشید و برای هر تغییر کوچک در سایت، دوباره کدتون را بازنویسی کنید. این خیلی بده که هر بار که سایت تغییر کنه، کد شما باید بروز بشه.
اما حالا یک ابزار جدید به نام FireCrawl این کار را کاملاً ساده کرده. این ابزار به شما امکان میده فقط با نوشتن یک پرامپت، دادههای مورد نظرتون را از هر وبسایتی استخراج کنید. بدون هیچ کدنویسی.
روش کار خیلی ساده است: شما فقط کافیه لیست URLهای مورد نظر را به FireCrawl بدید و در یک پرامپت توضیح بدید که دقیقاً چه اطلاعاتی را میخواید. سپس ابزار خودش عمل crawling را انجام داده و دادههای مرتب و ساختار یافته را برای شما آماده میکنه.
به عنوان مثال، اگر بخواید از یک سایت خبری تیتر، تاریخ انتشار و نویسنده را استخراج کنید، کافیه در پرامپت بنویسید:
"از این صفحه تیتر خبر، نام نویسنده و تاریخ انتشارش را استخراج کن."
FireCrawl بدون نیاز به نوشتن حتی یک خط کد، عمل استخراج را انجام داده و نتایج را به صورت مرتب و قابل استفاده در اختیار شما قرار میده.
https://www.firecrawl.dev
همیشه داده لازم داریم، چه برای مقاله دانشگاهیمون چه برای پروژه شرکتی و هر کار دیگه توی دنیای علم داده. اصلاً بدون داده مگه میشه کاری کرد؟
ولی استخراج داده از وبسایتها یا در اصطلاح کرالینگ، گاهی به شدت پیچیده است و نیاز به دانش تخصصی HTML و کتابخانههایی مثل BeautifulSoup یا Scrapy داره و گاها واقعاً حوصله سر بر میشه.
مثلاً فرض کنید میخواید از یک سایت خبری، تمام اخبار مربوط به یک موضوع خاص را جمعآوری کنید. روش سنتی این بود که باید کدهای پیچیدهای بنویسید، با ساختار HTML آشنا باشید و برای هر تغییر کوچک در سایت، دوباره کدتون را بازنویسی کنید. این خیلی بده که هر بار که سایت تغییر کنه، کد شما باید بروز بشه.
اما حالا یک ابزار جدید به نام FireCrawl این کار را کاملاً ساده کرده. این ابزار به شما امکان میده فقط با نوشتن یک پرامپت، دادههای مورد نظرتون را از هر وبسایتی استخراج کنید. بدون هیچ کدنویسی.
روش کار خیلی ساده است: شما فقط کافیه لیست URLهای مورد نظر را به FireCrawl بدید و در یک پرامپت توضیح بدید که دقیقاً چه اطلاعاتی را میخواید. سپس ابزار خودش عمل crawling را انجام داده و دادههای مرتب و ساختار یافته را برای شما آماده میکنه.
به عنوان مثال، اگر بخواید از یک سایت خبری تیتر، تاریخ انتشار و نویسنده را استخراج کنید، کافیه در پرامپت بنویسید:
"از این صفحه تیتر خبر، نام نویسنده و تاریخ انتشارش را استخراج کن."
FireCrawl بدون نیاز به نوشتن حتی یک خط کد، عمل استخراج را انجام داده و نتایج را به صورت مرتب و قابل استفاده در اختیار شما قرار میده.
https://www.firecrawl.dev
Firecrawl - The Web Data API for AI
The web crawling, scraping, and search API for AI. Built for scale. Firecrawl delivers the entire internet to AI agents and builders. Clean, structured, and ready to reason with.
❤8👍2
🎯 چرا ۸۰٪ آدمها توی data science گم میشن؟
خب رفقا!
دیروز با یکی از دوستان صحبت میکردم که گفت: "۸ ماهه دارم مطالعه میکنم ولی هنوز نمیدونم از کجا شروع کنم! یه روز Python، یه روز SQL، یه روز Machine Learning... کلاً گیج شدم!"
این حس رو میشناسید؟
واقعاً دنیای داده شلوغه. هر روز یه ابزار جدید، یه roadmap جدید، یه دوره جدید! وسط این همه، آدم سردرگم میشه و نمیدونه کدوم مسیر درسته.
مشکل اصلی چیه؟
نمیدونیم شرکتها واقعاً دنبال چی هستن. یکی میگه Python یاد بگیر، یکی میگه Tableau، یکی میگه Deep Learning!
ما توی دیتاهاب یه وبینار ۹۰ دقیقهای طراحی کردیم که:
✅ رمزگشایی آگهیهای شغلی - بازار کار واقعاً چی میخواد؟
✅ ابزارهای پولساز و نقشه راه یادگیریشون
✅ تشخیص منابع خوب از محتوای بیکیفیت
✅ راز Fast Learner بودن توی این دنیای پویا
این وبینار از صفر شروع میشه. حتی اگه هیچ پیشزمینهای نداری، کاملاً مفیده!
نکته خوب:
یه طرح بورسیه ۱۰۰٪ بدون قرعهکشی داریم برای آدمهای عملگرا! فقط کافیه پوستر وبینار رو share کنی و ما رو تگ کنی.
چطور؟ همه جزئیات اینجاست:
https://zaya.io/f1bss
خب رفقا!
دیروز با یکی از دوستان صحبت میکردم که گفت: "۸ ماهه دارم مطالعه میکنم ولی هنوز نمیدونم از کجا شروع کنم! یه روز Python، یه روز SQL، یه روز Machine Learning... کلاً گیج شدم!"
این حس رو میشناسید؟
واقعاً دنیای داده شلوغه. هر روز یه ابزار جدید، یه roadmap جدید، یه دوره جدید! وسط این همه، آدم سردرگم میشه و نمیدونه کدوم مسیر درسته.
مشکل اصلی چیه؟
نمیدونیم شرکتها واقعاً دنبال چی هستن. یکی میگه Python یاد بگیر، یکی میگه Tableau، یکی میگه Deep Learning!
ما توی دیتاهاب یه وبینار ۹۰ دقیقهای طراحی کردیم که:
✅ رمزگشایی آگهیهای شغلی - بازار کار واقعاً چی میخواد؟
✅ ابزارهای پولساز و نقشه راه یادگیریشون
✅ تشخیص منابع خوب از محتوای بیکیفیت
✅ راز Fast Learner بودن توی این دنیای پویا
این وبینار از صفر شروع میشه. حتی اگه هیچ پیشزمینهای نداری، کاملاً مفیده!
نکته خوب:
یه طرح بورسیه ۱۰۰٪ بدون قرعهکشی داریم برای آدمهای عملگرا! فقط کافیه پوستر وبینار رو share کنی و ما رو تگ کنی.
چطور؟ همه جزئیات اینجاست:
https://zaya.io/f1bss
❤5👍1🔥1