دیتاهاب
2.11K subscribers
184 photos
35 videos
125 files
318 links
موضوعات کانال:

Data Science
Machine Learning
Deep Learning
NLP

گروه تلگرامی ⬅️ @data_jobs
دیتاست ⬅️ @persian_data
ادمین ⬅️ @data_hub
Download Telegram
چرا سیستم‌های RAG در سازمان‌ها شکست می‌خورند؟

سیستم‌های RAG (Retrieval-Augmented Generation) برای بهبود عملکرد مدل‌های هوش مصنوعی طراحی شدن، اما در عمل مشکلاتی دارن. این سیستم‌ها برای تولید پاسخ‌ها از اطلاعات بازیابی‌شده استفاده می‌کنند. ولی وقتی این اطلاعات ناقص یا مرتبط نباشه، سیستم نمی‌تونه جواب دقیقی بده.

مشکل اصلی اینه که عدم وجود زمینه کافی برای پاسخ‌دهی صحیح باعث می‌شه که سیستم‌ها دقت لازم رو نداشته باشن و نتایج به‌دست اومده ممکنه اشتباه یا ناقص باشه.

چطور این مشکل رو می‌شه حل کرد؟
اینجا مفهوم «سندیت زمینه‌ای» یا Sufficient Context وارد میشه.

سندیت زمینه‌ای به این معناست که سیستم‌ها فقط زمانی جواب میدن که زمینه کافی و اطلاعات درست برای پاسخ دقیق فراهم باشه. این رویکرد کمک می‌کنه که سیستم‌های RAG از پاسخ‌های نادرست جلوگیری کنن و فقط زمانی که زمینه مناسب وجود داره، اطلاعات رو پردازش کنن.

چطور این کار انجام میشه؟
با استفاده از مدل‌های بزرگ زبان (LLM) و ارزیابی خودکار، سیستم‌ها می‌تونن تشخیص بدن که آیا اطلاعات کافی برای ارائه پاسخ وجود داره یا نه. به عبارت دیگه، سیستم‌ها به‌طور خودکار بررسی می‌کنن که زمینه بازیابی‌شده برای پاسخ‌دهی کافی است یا خیر.

این رویکرد دقت بیشتری به سیستم‌های RAG می‌ده و باعث میشه که اون‌ها در محیط‌های سازمانی که نیاز به دقت بالا دارن، عملکرد بهتری داشته باشن.

چرا این مهمه؟
در محیط‌های سازمانی، دقت اطلاعات و درستی پاسخ‌ها از اهمیت ویژه‌ای برخورداره. این رویکرد باعث میشه سیستم‌های RAG به ابزاری قابل اعتمادتر برای پردازش اطلاعات تبدیل بشن.

📚 برای مطالعه بیشتر، به این لینک یه نگاهی بکنید :
https://arxiv.org/abs/2411.06037


#هوش_مصنوعی
#RAG
#DataHub
👍7
⚡️ساخت چت بات اختصاصی سایت ، راحت تر از همیشه

با معرفی NLWeb توسط مایکروسافت، فرصت‌های زیادی برای کسب‌وکارهای آنلاین و استارتاپ‌ها در ایران به وجود اومده. با این پروتکل، می‌تونید چت‌بات‌های هوش مصنوعی رو به راحتی به وب‌سایت‌هاتون اضافه کنید.

چند ایده برای استفاده در ایران:

پشتیبانی آنلاین مشتریان با چت‌بات‌های هوش مصنوعی.

پلتفرم‌های آموزشی که به کاربران پاسخ دقیق‌تر و سریع‌تر بدن.

سرویس‌های جستجو که از AI Mode برای بهبود تجربه کاربری استفاده کنن.

این پروتکل دسترسی به هوش مصنوعی رو برای کسب‌وکارهای کوچک هم ممکن می‌کنه و می‌تونه به شما کمک کنه تا تجربه کاربری بهتری رو ارائه بدید.

اطلاعات بیشتر

#هوش_مصنوعی
#استارتاپ
#NLWeb
#DataHub
👍41
آینده ارزیابی مدل‌های هوش مصنوعی: RewardBench 2

خب، خبر جدیدی که به طور رسمی از Ai2 اومده، نسخه RewardBench 2 است. این ابزار جدید برای ارزیابی مدل‌های پاداش (Reward Models) طراحی شده تا بتونه به طور دقیق‌تری عملکرد مدل‌ها رو ارزیابی کنه.

چطور؟
این نسخه با افزودن داده‌های پیچیده‌تر و دشوارتر، شامل شش دامنه مختلف مثل دقت، پیروی از دستورات، ایمنی و تمرکز، تلاش کرده تا ارزیابی دقیق‌تری از مدل‌ها ارائه بده.

چرا این مهمه؟
چون به شرکت‌ها کمک می‌کنه مدل‌هایی رو انتخاب کنن که واقعاً با نیازهای خاص اون‌ها هم‌راستا باشه و از تولید پاسخ‌های غلط و خطرناک
جلوگیری کنن.

در نهایت... RewardBench 2 یه ابزار حیاتی برای ارزیابی بهتر و انتخاب مدل‌های هوش مصنوعی با عملکرد صحیح‌تر خواهد بود.


#هوش_مصنوعی #RewardBench2 #یادگیری_ماشین #علم_داده
👍4
🤔 تا حالا مکالمه با یه چت‌بات انجام دادی که اون مکث‌های طولانی اعصابتو خورد کنه؟

همه‌مون این تجربه رو داشتیم که وقتی با چت‌بات‌ها یا سیستم‌های هوش مصنوعی صحبت می‌کنیم، تأخیرها توی مکالمه به وضوح به چشم میاد و حس می‌کنیم داریم با یه ربات حرف می‌زنیم. خب، این مشکل بزرگ‌تر از چیزی‌که به نظر میاد.

🔧سه شرکت Phonely، Maitai و Groq با همکاری هم تونستن این مشکل رو حل کنن. حالا زمان پاسخ‌دهی بیشتر از ۷۰% کاهش پیدا کرده و دقت مدل‌ها از ۸۱.۵% به ۹۹.۲% رسیده.

یعنی دیگه نه خبری از تأخیر هست نه از حس رباتی بودن! این پیشرفت‌ها برای کسب‌وکارهایی که می‌خوان از چت‌بات‌ها برای پشتیبانی مشتری استفاده کنن، می‌تونه انقلاب بزرگی باشه.
چند تا از مشتری‌های Phonely دارن ۳۵۰ نیروی انسانی رو با چت‌بات‌های هوش مصنوعی جایگزین می‌کنن. این یعنی هزینه‌ها کاهش پیدا می‌کنه و کیفیت خدمات بهتر میشه.

⏱️ کسب‌وکارهایی که به دنبال کاهش هزینه‌ها و بهبود تجربه مشتری هستن، این موضوع میتونه مزیت رقابتی پایدار شون باشه!

#هوش_مصنوعی
#پشتیبانی_مشتری
#DataHub
#چت_بات
4👍2
خب رفقا سلام! یه مسئله‌ای که خیلی از کسب‌وکارها و تیم‌های هوش مصنوعی باهاش مواجه هستن، چالش پردازش و انتقال داده‌ها به مدل‌های هوش مصنوعیه. شاید شما هم با مشکلاتی مثل داده‌های پراکنده، دیر به دیر به دست اومدن اطلاعات و عدم یکپارچگی منابع داده روبرو شده باشید.

حالا، Openflow از Snowflake یه راه‌حل جذاب برای این مشکلات داره. این ابزار به‌طور خودکار و بدون پیچیدگی می‌تونه داده‌ها رو از ۲۰۰+ منبع مختلف جمع‌آوری و در کمترین زمان به مدل‌های هوش مصنوعی منتقل کنه. یعنی دیگه نگران پردازش داده‌های حجیم یا چالش‌های زمان‌بر در پردازش اطلاعات نباشید.

دقت کنید که این تغییر برای کسب‌وکارهایی که به داده‌های سریع و دقیق نیاز دارن، یک فرصت طلایی به حساب میاد. از داده‌های غیرساختاریافته مثل تصاویر و ویدئوها گرفته تا داده‌های ساختاریافته، همه رو می‌تونید با Openflow پردازش و استفاده کنید.

پس اگه می‌خواید داده‌ها رو سریع‌تر، دقیق‌تر و راحت‌تر وارد مدل‌های هوش مصنوعی کنید، حتماً سراغ این ابزار برید!

#هوش_مصنوعی
#داده_کاوی
#DataHub
#Openflow
👍61
خب رفقا سلام،
همه از هوش مصنوعی و مدل‌ها صحبت می‌کنن، ولی هنوز چالش بزرگ‌تر در دنیای AI باقی‌مونده: چطور مدل‌ها رو هماهنگ کنیم؟ این یه دغدغه بزرگ برای کسب‌وکارهایی‌ که دنبال یکپارچگی و عملکرد بهتر توی سیستم‌های هوش مصنوعی هستند.

حالا، A2A و MCP به کمک اومدن. این دو پروتکل به مدل‌ها این امکان رو می‌دن که بدون درگیری با پیچیدگی‌های بیشتر، بتونن به راحتی با هم همکاری کنن و اطلاعات رو به اشتراک بذارند. یعنی مدل‌های مختلف که با ابزارها و تکنولوژی‌های متفاوت ساخته شدن، حالا می‌تونن در یک اکوسیستم یکپارچه به بهترین شکل عمل کنن.

این تغییر بزرگ برای کسایی که از مدل‌های متنوع و مقیاس‌پذیر استفاده می‌کنن، می‌تونه راه‌حل‌های جدید و بهینه‌ای ایجاد کنه. چالش همیشه در هماهنگ‌سازی بوده، حالا این پروتکل‌ها قراره همه چیز رو ساده‌تر و سریع‌تر کنند.

#هوش_مصنوعی
#DataHub
#A2A
#MCP
👍5
رفقا سلام

احتمالا یکسری‌هاتون می‌دونین چقدر عاشق ایرانم
و به تمدنمون افتخار میکنم، احساس غرور می‌کنم از ایرانی بودن

و پای علاقه‌ خودم هم ایستادم و با اینکه گاهی شرایطش داشت مهیا می‌شد
ولی باز ترجیح دادم توی خاک کشور عزیزم بمونم.

توی دو سه روز گذشته اصلا پشیمون نشدم
حتی یک بارم نگفتم کاش مهاجرت کرده بودم
آدم عاشق که دوتادوتا چارتا نمی‌کنه
پای عشقش می‌مونه اونم توی شرایط سخت

الانم واقعا از صمیم قلبم آرزو می‌کنم یک مو هم از سر ایران خانم کم نشه

و خب طبیعتا ناراحتیم و وحشت زده ولی قرار نیست نااميد بشیم
این کشور هزار سال دووم آورده و میاره


و یادمون نره مراقب همدیگه باشیم و یک جورایی مثل کوه پشت هم باشیم تا این روزای سخت تموم شن❤️
43
۵٪ پروژه‌های هوش مصنوعی هیچ‌وقت از مرحله آزمایشی عبور نمی‌کنن، و مشکل اصلی نه تکنولوژی، بلکه ساختار سازمانیه. خیلی از سازمان‌ها هنوز هوش مصنوعی رو به چشم یه آزمایش علمی می‌بینن، نه یه ابزار واقعی برای حل مشکلات کسب‌وکار.

اما شرکت‌هایی مثل Walmart و JPMorgan Chase نشون دادن که موفقیت در هوش مصنوعی فقط داشتن بهترین الگوریتم‌ها یا متخصصین داده نیست. اون‌ها با ایجاد زیرساخت‌های یکپارچه، مثل پلتفرم‌های متمرکز و تغییرات فرهنگی جدی، تونستن هوش مصنوعی رو از آزمایشگاه به یک ابزار سودآور تبدیل کنن.

این موفقیت‌ها به ما یادآوری می‌کنه که برای رسیدن به ROI مثبت، نیاز به استراتژی‌های دقیق مدیریتی، تیم‌های چندتخصصی و زیرساخت‌های قدرتمند داریم. اما سوالی که ذهن رو درگیر می‌کنه اینه: آیا چنین مدل‌هایی برای کشورهایی مثل ایران قابل اجرا هستن؟ آیا کسب‌وکارهای ما آمادگی چنین تغییراتی رو دارن؟

خارج از مباحث کلیشه ای ، به نظرتون چه موانعی سر راه تجاری سازی هوش مصنوعی در ایران وجود داره؟ تجربه‌هاتون رو با ما به اشتراک بذارید.
👍6
توی دنیای مدل‌های زبانی که قدم گذاشتیم، یکی از مهم‌ترین نکات، یادگیری شیوه تعامل با این مدل‌هاست. یعنی هرچقدر بهتر باهاشون صحبت کنیم، جواب بهتری دریافت می‌کنیم.

مثلاً فرض کنید می‌خواید از یه مدل زبانی کمک بگیرید برای نوشتن یه ایمیل کاری. اگه بگید: "یه ایمیل بنویس"، ممکنه چیز خوبی دریافت نکنید. ولی اگه بگید: "یه ایمیل رسمی برای درخواست مرخصی بنویس که شامل دلیل، تاریخ شروع و پایان مرخصی باشه"، خروجی خیلی بهتری می‌گیرید.

شیوه صحبت با مدل زبانی چیه؟ بله، درست حدس زدید... پرامپت نویسی.

یه منبع مفیدی پیدا کردم که به خوبی و با مثال می‌آد و از ساده‌ترین روش‌های پرامپت نویسی تا جدیدترین‌هاش را بیان می‌کنه. با دانستن همین نکاتی که شاید یک ساعت هم زمان نبره که کامل بخونینش، شاهد تأثیرات خیلی چشم‌گیری می‌شین توی خروجی مدل‌های زبانی.

لینک مطلب:
https://www.promptingguide.ai

واقعاً ارزش مطالعه داره و می‌تونه کیفیت کارتون با مدل‌های زبانی رو به شکل قابل توجهی بهبود بده.
👍42
یه ابزار فوق‌العاده کاربردی پیدا کردیم که خصوصاً برای کسانی که مهارت برنامه‌نویسی بالایی ندارن، خیلی می تونه مفید باشه.

همیشه داده لازم داریم، چه برای مقاله دانشگاهی‌مون چه برای پروژه شرکتی و هر کار دیگه توی دنیای علم داده. اصلاً بدون داده مگه میشه کاری کرد؟

ولی استخراج داده از وبسایت‌ها یا در اصطلاح کرالینگ، گاهی به شدت پیچیده است و نیاز به دانش تخصصی HTML و کتابخانه‌هایی مثل BeautifulSoup یا Scrapy داره و گاها واقعاً حوصله سر بر میشه.

مثلاً فرض کنید می‌خواید از یک سایت خبری، تمام اخبار مربوط به یک موضوع خاص را جمع‌آوری کنید. روش سنتی این بود که باید کدهای پیچیده‌ای بنویسید، با ساختار HTML آشنا باشید و برای هر تغییر کوچک در سایت، دوباره کدتون را بازنویسی کنید. این خیلی بده که هر بار که سایت تغییر کنه، کد شما باید بروز بشه.

اما حالا یک ابزار جدید به نام FireCrawl این کار را کاملاً ساده کرده. این ابزار به شما امکان می‌ده فقط با نوشتن یک پرامپت، داده‌های مورد نظرتون را از هر وبسایتی استخراج کنید. بدون هیچ کدنویسی.

روش کار خیلی ساده است: شما فقط کافیه لیست URLهای مورد نظر را به FireCrawl بدید و در یک پرامپت توضیح بدید که دقیقاً چه اطلاعاتی را می‌خواید. سپس ابزار خودش عمل crawling را انجام داده و داده‌های مرتب و ساختار یافته را برای شما آماده می‌کنه.

به عنوان مثال، اگر بخواید از یک سایت خبری تیتر، تاریخ انتشار و نویسنده را استخراج کنید، کافیه در پرامپت بنویسید:
"از این صفحه تیتر خبر، نام نویسنده و تاریخ انتشارش را استخراج کن."

FireCrawl بدون نیاز به نوشتن حتی یک خط کد، عمل استخراج را انجام داده و نتایج را به صورت مرتب و قابل استفاده در اختیار شما قرار می‌ده.

https://www.firecrawl.dev
8👍2
🎯 چرا ۸۰٪ آدم‌ها توی data science گم می‌شن؟

خب رفقا!

دیروز با یکی از دوستان صحبت می‌کردم که گفت: "۸ ماهه دارم مطالعه می‌کنم ولی هنوز نمی‌دونم از کجا شروع کنم! یه روز Python، یه روز SQL، یه روز Machine Learning... کلاً گیج شدم!"

این حس رو می‌شناسید؟

واقعاً دنیای داده شلوغه. هر روز یه ابزار جدید، یه roadmap جدید، یه دوره جدید! وسط این همه، آدم سردرگم میشه و نمی‌دونه کدوم مسیر درسته.

مشکل اصلی چیه؟
نمی‌دونیم شرکت‌ها واقعاً دنبال چی هستن. یکی میگه Python یاد بگیر، یکی میگه Tableau، یکی میگه Deep Learning!

ما توی دیتاهاب یه وبینار ۹۰ دقیقه‌ای طراحی کردیم که:

رمزگشایی آگهی‌های شغلی - بازار کار واقعاً چی می‌خواد؟
ابزارهای پولساز و نقشه راه یادگیری‌شون
تشخیص منابع خوب از محتوای بی‌کیفیت
راز Fast Learner بودن توی این دنیای پویا

این وبینار از صفر شروع میشه. حتی اگه هیچ پیش‌زمینه‌ای نداری، کاملاً مفیده!

نکته خوب:
یه طرح بورسیه ۱۰۰٪ بدون قرعه‌کشی داریم برای آدم‌های عملگرا! فقط کافیه پوستر وبینار رو share کنی و ما رو تگ کنی.

چطور؟ همه جزئیات اینجاست:
https://zaya.io/f1bss
5👍1🔥1
تو دنیای اپلیکیشن‌های هوش مصنوعی روی اندروید، یه تغییر جالب و غیرمنتظره داریم که شاید خیلی‌ها متوجهش نشدن.

تا همین یکی دو ماه پیش، هرکی دنبال یه اپ هوش مصنوعی واسه گوشی اندرویدی بود، مستقیم می‌رفت سراغ ChatGPT. اما تو اردیبهشت یه اتفاق جالب افتاد که طبق آمار Similarweb، تو ماه می، Gemini از نظر تعداد نصب از ChatGPT جلو زد.

این اتفاق نه شانسی بود نه اتفاقی، پشتش یه استراتژی حساب‌شده بود که گوگل پیاده کرد.

اول، Gemini نسخه ۲.۵ رو منتشر کرد که خیلی هوشمندتر شده بود و می‌تونست متن‌های طولانی رو راحت‌تر بفهمه و یادش بمونه. بعد، قابلیت Gemini Live اضافه شد که می‌تونستی صفحه یا دوربین گوشیتو share کنی و هم‌زمان ازش کمک بگیری.

بعدتر، رفت تو Android Auto که یعنی توی ۲۵۰ میلیون ماشین، بدون هیچ نصب اضافه‌ای می‌تونی باهاش حرف بزنی و کارت رو راه بندازی. آخر سر هم حالت Agent Mode معرفی شد که فقط باهات حرف نمی‌زنه، خودش می‌تونه یه‌سری کار رو انجام بده.

حالا ChatGPT تو این مدت چی کار کرد؟ آپدیت‌هایی مثل یادداشت صوتی و حالت آفلاین داد. خب، بد نبودن، ولی چیزی نبود که بگی واو!

یجورایی، الان دیگه Gemini فقط یه اپ نیست و داره یه بخشی از خود اندروید میشه. و این یعنی رقابت، جدی‌تر از همیشه‌ست.

و فعلا انگار OpenAI یکم از کورس عقب افتاده در صورتی که اگر خاطرتون باشه یکی دو سال اول، کامل گوگل عقب افتاده بود ولی خیلی عالی خودش رسوند. البته این نکته هم مهم هست که OpenAI حساب ویژه ای روی GPT5 باز کرده و احتمالا قراره تا یکی دو ماه آینده آتیش بازی بزرگی در پیش داشته باشیم.
👍81
رقیب اپن سورس و فول امکانات واسه n8n

حالا ممکنه بپرسید تفاوت Sim Studio با n8n چیه؟ هر دو پلتفرم برای ساخت و اتوماسیون ورک‌فلو هستن، اما برای نیازهای متفاوتی طراحی شدن. n8n یه ابزار عمومی برای اتوماسیون ورک‌فلو هست، در حالی که Sim Studio روی ساخت و اجرای ایجنت‌های هوش مصنوعی تمرکز داره.

پلتفرم n8n توی اتوماسیون کارها بین اپلیکیشن‌های مختلف عالیه، اما Sim Studio فرآیند ساخت ایجنت‌های هوشمند که می‌تونن فکر کنن و با محیط‌شون تعامل داشته باشن رو ساده می‌کنه.

اگه یه پلتفرم اتوماسیون همه‌کاره برای طیف وسیعی از کارها می‌خواید، n8n رو انتخاب کنید. اما اگه می‌خواید ایجنت‌های هوش مصنوعی رو سریع و راحت بسازید و اجرا کنید، Sim Studio بهتره.

لینک گیت‌هاب:
github.com/simstudioai/sim
👍4
Media is too big
VIEW IN TELEGRAM
خب رفقا!

خیلی‌ها ازمون پرسیدن که این وبینار دقیقاً چی قراره باشه و چطور می‌تونه توی مسیر data science کمک‌شون کنه.

مهندس مبشری ( که بچه های دیتاهاب اون با دوره های جبرخطی میشناسن ) ، مواردی که میخوان توی این کارگاه آموزشی براتون بگن رو معرفی کردن

تجربه شخصی:
خودم وقتی شروع کردم، کلی وقت تلف کردم روی چیزایی که بازار کار اصلاً نمی‌خواست! این ویدئو دقیقاً همون نکاتیه که کاش اون موقع می‌دونستم.

نکته مهم:
اگه هنوز مطمئن نیستید این وبینار برای شما مناسبه یا نه، حتماً این ویدئو رو ببینید. خیلی چیزا روشن میشه!

یادتون باشه:
طرح بورسیه ۱۰۰٪ بدون قرعه‌کشی هنوز فعاله. فقط کافیه پوستر رو share کنید و ما رو تگ کنید.

جزئیات کامل + ثبت‌نام:
https://zaya.io/f1bss

اگه سوالی داشتید ازمون بپرسید👇🏻
2
🚨 چطوری هوش مصنوعی داره شغل‌ها رو از دست ما انسان ها می‌گیره؟

خب رفقا!

دیروز یه مدل تحلیلی خفن دیدم که نشون می‌ده هوش مصنوعی چطور یه حوزه رو کامل فتح می‌کنه. شطرنج بهترین مثالشه که کامل این مسیر رو طی کرده.

مرحله اول: کنترل کامل انسانی
برای قرن‌ها، شطرنج فقط بازی انسان‌ها بود. استراتژی، تاکتیک، حتی اشتباهات - همه چیز انسانی.

مرحله دوم: موتورهای ساده
اولین موتورها مثل Minimax اومدن. حتی Deep Blue که کاسپاروف رو برد، همین منطق بود - فقط قدرت محاسباتی بیشتر.

مرحله سوم: فاز سانتور (همکاری)
اینجا قضیه جالب شد! برای مدتی، بهترین ترکیب، انسان + کامپیوتر بود. این همکاری از هر دو به صورت جداگانه قوی‌تر بود.

مرحله چهارم: استقلال کامل AI
با AlphaZero همه چیز عوض شد. حتی استراتژی‌هایی ابداع کرد که برای انسان‌ها کاملاً ناشناخته بود!

حالا سوال اصلی: مهندسی نرم‌افزار کجاست؟
الان دقیقاً توی فاز سانتور هستیم. GitHub Copilot، ChatGPT برای کدنویسی... بدون این ابزارها نمی‌تونیم کارمون رو با همون کیفیت انجام بدیم.

اما مرحله بعد چی؟
آیا هوش مصنوعی روزی می‌تونه کامل مستقل کد بنویسه، باگ رفع کنه، و حتی خودش رو بهبود بده؟
👍32🔥1
واقعیت تلخ:
کسانی که الان آماده نشن، توی موج بعدی از دست می‌رن!

راه نجات؟
باید یاد بگیریم چطور با هوش مصنوعی همکاری کنیم، نه اینکه ازش بترسیم.

خبر خوب:
ما توی دیتاهاب وبیناری طراحی کردیم که نقشه راه واقعی تبدیل شدن به تحلیلگر داده حرفه‌ای رو نشون می‌ده - اونی که شرکت‌ها برای استخدامش رقابت می‌کنن.

بورسیه ۱۰۰٪ بدون قرعه‌کشی:
فقط کافیه پوستر وبینار رو توی شبکه‌های اجتماعیت share کنی و ما رو تگ کنی. همین!

جزئیات کامل:
https://zaya.io/f1bss
👍41😁1
سلام مجدد، این روزها داشتم به یک موضوع جالب فکر می‌کردم 🤔
یکی از چیزهایی که خیلی توجهم رو جلب کرده، اینه که شرکت‌های بزرگ تک چقدر دارن روی بخش hardware و chip های مختص هوش مصنوعی سرمایه گذاری می‌کنند
من مطمئنم تا دو سال دیگه، همین لپ تاپ‌های متوسط ما قابلیت اجرای مدل‌های پیچیده رو خواهند داشت
یعنی دیگه نیازی نباشه که API گرون قیمت بخریم یا دسترسی آنچنانی به اینترنت داشته باشیم
تمام محاسبات روی دستگاه خودمون انجام بشه
این یعنی چی؟
یعنی کسب‌وکارهای کوچک هم میتونن از قدرت AI بهره ببرن بدون اینکه ماهی صدها دلار API cost پرداخت کنن
و از نظر privacy هم چیز فوق‌العاده‌ای میشه
چون دیگه داده‌هامون به سرورهای خارجی ارسال نمیشه
👍92
#خبر_داغ
ماکروسافت همین چند وقت پیش اعلام کردش که قراره Copilot رو عمیق‌تر توی Office Suite ادغام کنه
منظورش اینه که دیگه فقط Word و Excel نیست
بلکه تمام workflow کاری را قراره تغییر بده
پیش خودتون یک لحظه تصور کنید Outlook خودکار ایمیل‌هاتون رو طبقه‌بندی کنه، پاسخ‌های مناسب پیشنهاد بده، حتی جلسات رو براساس محتوای ایمیل‌ها تنظیم کنه

پاورپوینت که خودش presentation بسازه فقط با دادن چند کلید واژه
یا Teams که خلاصه جلسات رو به صورت خودکار استخراج کنه و action item ها رو تشخیص بده

سوال مهم ولی اینجاست: آیا این یعنی کارمندان اداری کمتری نیاز خواهیم داشت؟ وضعیت کارمندای ایرانی چی میشه؟ دیگه می تونن بگن برو سیستم قطعه😂 یا سرم شلوغه و بعدا بیا
شاید الان یکم دور از دسترس باشه ولی کارمند با تعریف امروزی به تاریخ خواهد پیوست.
👍9😁31
امروز داشتم یک paper می خوندم که ذهنم رو به هم ریخت 🤯
محققای دانشگاه Stanford نشون دادن که میشه مدل‌های زبانی رو طوری تیون کرد که حافظه‌شون selective باشه
یعنی بتونی بگی این اطلاعات رو یادت نره، اون یکی رو فراموش کن
این یعنی چی؟
یعنی میتونیم AI هایی داشته باشیم که مثلاً همه چیز درباره پزشکی میدونن ولی هیچی از ساخت سلاح نمیدونن
یا مدل‌هایی که expertise توی coding دارن ولی اطلاعات حساس امنیتی ندارن

به نظرم (حالا نکه نظرم خیلی مهمه😂) این یکی از مهم‌ترین breakthrough های اخیر هست
چون مسئله کنترل و safety رو تا حد زیادی حل می‌کنه که واقعا چالش سیاست گذارهای امروزی هستش، تا دلتون بخواد قراره قانون تعریف کنن که جلوی رشد بی رویه هوش مصنوعی بگیره.
البته هنوز خیلی ابتدایی و در مرحال آزمایشی و تحقیقاتی هست و نیاز به تست‌های بیشتری داره
ولی اگر عملی بشه، کاملاً game changer میشه
🔥10👍4