یادگیری ماشین
3.42K subscribers
21 photos
2 videos
26 files
138 links
Download Telegram
اگه یوتیوب دم دست دارین، یک ساعت دیگه در لایو یوتیوب کانال فارسی تِک ایمیگرنتس (youtube.com/c/TechImmigrants) می‌بینم‌تون!

• موضوع بحث: مسیر آینده: کار، تحصیلی، یا کارآفرینی
• میزبان: saharlead
• زمان: ۹ شب تهران، ۷:۳۰ شب اروپای مرکزی، ۱۰:۳۰ صبح کالیفرنیا
👍5
اخیرا پستی از آقای Andrew Ng راجع به آینده‌ی سرویس‌های هوش مصنوعی مطالعه کردم. این سرویس‌ها به دو صورت در دسترس هستند:
۱. سرویس‌های ابری (cloud-based): سرویس‌هایی که پردازش اصلی در یک Data Center اتفاق می‌افتد. به‌عنوان نمونه، چت‌بات‌های هوشمند فعلی مانند ChatGPT در این دسته قرار می‌گیرند.
۲. سرویس‌های روی لبه (edge): سرویس‌هایی که پردازش را روی دستگاه کاربر (مثل لپ‌تاپ یا گوشی هوشمند) انجام می‌دهند. به‌عنوان مثال، سرویس تشخیص چهره‌ی گوشی‌های هوشمند از این نمونه هستند.
تصمیم گرفتم یک نظرسنجی در این رابطه بگذارم. پس از این نظرسنجی، نظر ایشان را بیان خواهم کرد.
👍8
یک گزینه را انتخاب کنید.
anonymous poll

در آینده شاهد رشد سرویس‌های هوش مصنوعی روی لبه خواهیم بود. – 78
👍👍👍👍👍👍👍 55%

رشد سرویس‌های هوش مصنوعی ابری به حدی خواهد بود که سرویس‌های روی لبه مورد توجه قرار نخواهند گرفت. – 65
👍👍👍👍👍👍 45%

👥 143 people voted so far.
👍2
یادگیری ماشین
اخیرا پستی از آقای Andrew Ng راجع به آینده‌ی سرویس‌های هوش مصنوعی مطالعه کردم. این سرویس‌ها به دو صورت در دسترس هستند: ۱. سرویس‌های ابری (cloud-based): سرویس‌هایی که پردازش اصلی در یک Data Center اتفاق می‌افتد. به‌عنوان نمونه، چت‌بات‌های هوشمند فعلی مانند…
نظر آقای Ng به نظر اکثر دوستان نزدیک است. برخی از دلایلی که ایشان برای افزایش رشد سرویس‌های هوش مصنوعی روی لبه برمی‌شمرند:
- برای بسیاری از مسائل، یک مدل کوچک که به‌راحتی روی دستگاه‌های کاربر قابل استفاده هستند کفایت می‌کند. بعنوان مثال، برای تشخیص خطای گرامری در یک متن، نیازی به مدل بزرگی مانند GPT3.5 که راجع به فلسفه، کیهان‌شناسی، تاریخ و دیگر علوم اطلاعات دارد، نیست.
- بسیاری از کاربران، مخصوصا کاربران نسل Z (متولدین نیمه‌ی دوم دهه‌ی هفتاد شمسی و دهه‌ی هشتاد)، نسبت به محرمانگی اطلاعاتشان حساسیت بیشتری دارند و به همین دلیل، سرویس‌های روی لبه را تاحدممکن ترجیح می‌دهند.
- منفعت تجاری بسیاری از تولیدکنندگان سخت‌افزار در این است که سرویس‌های روی لبه بیشتر مورد استفاده قرار گیرند، زیرا در این‌صورت، کاربران مجبور خواهند بود دستگاه‌های خود را برای استفاده از سخت‌افزارهای هوش‌ مصنوعی مدرن‌تر ارتقا دهند.
لینک: https://www.deeplearning.ai/the-batch/issue-219/
👍20
وب‌سایت https://bestofai.com نزدیک ۱۰ هزار ابزار را که به نحوی از هوش مصنوعی بهره می‌برند جمع‌آوری و دسته‌بندی کرده است. در قسمت Browse By Categories می‌توانید دسته‌ی مورد علاقه‌ی خود را انتخاب کرده و ابزارهای آن دسته را مشاهده کنید.
نکته: متاسفانه ظاهرا این وب‌سایت از آی‌پی‌های ایران باز نمی‌شود و برای استفاده از آن باید وی‌پی‌ان خود را فعال کنید!
👍18👎1
معماری ترنسفورمر که در سال ۲۰۱۷ معرفی شد، پیشرفت قابل توجهی در دنیای هوش مصنوعی و پردازش زبان‌های طبیعی ایجاد کرد. بعنوان یک نمونه، مدل GPT از این معماری بهره می‌برد (T در GPT به ترنسفورمر اشاره دارد).
قصد دارم یک دوره‌ی رایگان پردازش زبان طبیعی با ترنسفورمر تهیه کنم. تمرکز این دوره بر پیاده‌سازی عملی مبتنی بر کتابخانه‌ی Transformers توسعه داده شده توسط Hugging Face خواهد بود.
در ویدئوی اول که در لینک زیر در دسترس است به معرفی دوره اعم از اهمیت و منابع آن پرداخته می‌شود.
درصورت استقبال سعی می‌کنم بصورت هفتگی محتواهای جدید را بارگذاری کنم.
امیدوارم این دوره مفید واقع شود.
https://youtu.be/5XU4LWcNWAw
👍67
در این ویدئو که دومین جلسه از دوره‌ی پردازش زبان‌های طبیعی با ترنسفورمر است، بطور سریع و درحد آشنایی با مفاهیم، مروری بر معماری شبکه‌های بازگشتی، مدل کدگذار-کدگشا، مکانیزم توجه، معماری ترنسفورمر و موضوع یادگیری انتقالی می‌کنیم. در ویدئوی بعد،‌ شروع به کدنویسی خواهیم کرد.
https://youtu.be/hn7G0F_0bzM
👍41
نوبت به کدنویسی در کتابخانه‌ی transformers رسید. در ویدئوی سوم از دوره‌ی پردازش زبان طبیعی با ترنسفورمر، با پایپ‌لاین‌ها آشنا شده و خواهیم دید که با دو خط کد می‌توانیم یک مدل آموزش‌داده‌شده را بارگذاری کرده و از آن برای تحلیل احساس جملات ورودی استفاده نماییم. در این حین، گریزی هم به مدل‌های BERT و DistilBERT خواهیم زد.
https://youtu.be/pa3b44HWxso
👍33
در ویدئوی پنجم به سراغ مسئله‌ی معروف و مهم طبقه‌بندی متن می‌رویم. ابتدا مقدمه‌ای راجع به این مسئله ارائه می‌شود. سپس اشاره‌ای به کتابخانه‌ی datasets که برای کار با داده‌ها توسط هاگینگ‌فیس توسعه داده شده است می‌کنیم. نهایتا از این کتابخانه برای خواندن داده از هاب هاگینگ‌فیس که منبعی از انواع داده‌ها و مدل‌هاست استفاده می‌کنیم. در ویدئوهای بعدی، این بحث را ادامه خواهیم داد. 

https://youtu.be/9JR2B2hp5mU
👍19
این مقاله که امروز در رسانه‌هایی نظیر گاردین، تلگراف، تایمز و سان به آن پرداخته شد، حاصل تلاش گروهی از محققان حوزه‌ی سرطان است که من نیز افتخار همکاری با آنها را داشتم. در این پژوهش، با به‌کارگیری تکنیک‌های یادگیری ماشین، حدود ۳۰۰۰ پروتئین در نمونه‌های خون افراد مبتلا به ۱۸ نوع سرطان مختلف مورد بررسی قرار گرفت. در نهایت ۱۰ پروتئین برای تشخیص سرطان از حالت طبیعی و ۱۵۰ پروتئین برای تعیین نوع سرطان به تفکیک جنسیت انتخاب شدند. این یافته‌ها می‌تواند در غربالگری و تشخیص زودهنگام سرطان مؤثر باشد.
👍68👎2
سلام دوستان. با توجه به مشغله‌های پیش آمده، انتشار مجموعه‌ی پردازش زبان طبیعی با ترنسفورمر فعلا متوقف می‌شود. امیدوارم در آینده امکان ادامه دادن این مجموعه فراهم شود.
👎27👍18
مدل GPT4o که پیشرفته‌ترین مدل توسعه یافته توسط OpenAI است و دیروز منتشر شده است، در تشخیص و تحلیل محتوای متنی فارسی در تصاویر، عملکرد خیره‌کننده‌ای از خود نشان می‌دهد.
در این مثال، تصویر آخرین پست کانال به این مدل داده شده است. توجه کنید که نه تنها محتوای متنی را به درستی استخراج کرده، تعداد لایک‌ها و دیس‌لایک‌ها و حتی نوع شبکه‌ی اجتماعی را هم به درستی تشخیص داده است.
👍60👎1
مقایسه‌ی تجربه‌ی صحبت کردن با pi.ai و ChatGPT-4o.

در این پست، تجربه‌ی کار با دو سرویسی که دقت بسیار بالایی برای تشخیص صحبت دارند (پای و چت‌جی‌پی‌تی) ارائه می‌شود. البته این موارد به نسخه‌ی فعلی چت‌جی‌پی‌تی مربوط است و در آینده، با توجه به دموی اخیرا ارائه شده، امکانات بیشتری از جمله تشخیص احساس یا امکان قطع کردن صحبت در آن تعبیه خواهد شد.

- دسترسی: برخلاف چت‌جی‌پی‌تی که به آی‌پی‌های ایران سرویس نمی‌دهد، پای برای کاربران ایرانی هم در دسترس است.
- زبان فارسی: پای فعلا از زبان فارسی پشتیبانی نمی‌کند، ولی چت‌جی‌پی‌تی با زبان فارسی هم کار می‌کند. البته لحن آن هنوز برای زبان فارسی دچار ایراداتی است، ولی فهم مناسبی از زبان فارسی دارد.
- راحتی ارتباط: وقتی نوبت شما برای صحبت با پای می‌شود، محدودیت زمانی دارید و اگر صحبت شما طولانی شود خودش قطع می‌کند، ولی من این محدودیت را برای چت‌جی‌پی‌تی مشاهده نکرده‌ام. همچنین، اگر صحبت شما تمام شود، در سرویس پای باید یک دکمه را بزنید، ولی چت‌جی‌پی‌تی خودش اتمام صحبت شما را تشخیص می‌دهد. بنابراین، راحتی ارتباط با چت‌جی‌پی‌تی بیشتر است.
- طول صحبت: تجربه‌ی من نشان می‌دهد که توضیحات پای گاهی بیش از حد است ولی چت‌جی‌پی‌تی مختصرتر صحبت می‌کند. به‌عبارت دیگر، در کار با چت‌جی‌پی‌تی کمتر احساس می‌‌کنیم که می‌خواهیم حرفش را قطع کنیم.
👍22
مدل‌های زبانی بزرگ را می‌توان به‌صورت عامل‌های حل مسئله (problem-solving agents) دید. به‌عنوان مثال، برای حل مسئله‌ی خلاصه‌سازی متن، چت‌جی‌پی‌تی می‌تواند به‌عنوان یک عامل خلاصه‌ساز به ما کمک کند. برای حل برخی مسائل پیچیده‌تر نیازمند چند عامل هستیم. به‌عنوان نمونه، در همان مسئله‌ی خلاصه‌سازی می‌توان خروجی عامل خلاصه‌ساز را به یک عامل ارزیاب داد که بررسی کند که اطلاعات کلیدی متن اصلی در متن خلاصه شده وجود داشته باشد و اطلاعات زائد در آن نباشد. عامل ارزیاب نتیجه‌ی بررسی خود را به عامل اول داده و آن عامل سعی می‌کند براساس این نظرات، خلاصه‌ی بهتری تولید کند. این تعامل می‌تواند چند بار ادامه پیدا کند.
کتابخانه‌ی autogen مایکروسافت، کار طراحی این سیستم‌های چندعاملی را ساده کرده است. کورس کوتاه زیر توسط توسعه‌دهندگان این کتابخانه ارائه شده و به این موضوع می‌پردازد. به‌عنوان یک نمونه‌ی جالب، در بخشی از کورس، یک بازی شطرنج بین دو عامل هوشمند انجام می‌شود که در حین بازی با هم تعامل زبانی هم دارند.
https://learn.deeplearning.ai/courses/ai-agentic-design-patterns-with-autogen/lesson/1/introduction
👍14
نوشته‌ی زیر از آیدین نصیری شرق به موضوع "از دست دادن شغل در حضور هوش مصنوعی" می‌پردازد. توصیه‌های مطرح شده را در ادامه خلاصه می‌کنم، ولی خواندن نوشته‌ی اصلی را هم از دست ندهید.

https://www.linkedin.com/pulse/q-ai-taking-my-job-what-should-i-do-aideen-nasirishargh-vcowc/?trackingId=55xKAQj3TEeVkkfh74A%2BCg%3D%3D

۱. در کار خود جزء ۵ درصد یا یک درصد بالا باشید. معمولا اخراج‌ها روی افراد با مهارت‌های پایین‌تر اتفاق می‌افتند.
۲. خودتان را معادل شغلتان تعریف نکنید که درصورت از دست دادن آن، دچار بحران هویت شوید. درعوض، باور کنید که حتی با از دست دادن شغلتان می‌توانید ازطریق مجموعه‌ی مهارت‌هایتان باقی بمانید.
۳. بجای جنگیدن با موج هوش مصنوعی سعی کنید سوار این موج شوید.
۴. بجای داشتن شغل (job) یک حرفه (career) داشته باشید. تفاوت اینها در این است که حرفه مثل یک نردبان است که می‌توانید از آن بالا بروید. بنابراین، ترکیب مهارت‌هایتان با هوش مصنوعی می‌توان بعنوان یک فرصت رشد در حرفه‌تان دیده شود.
۵. بجای جنگ‌جو که از شمشیر استفاده می‌کند آهنگری باشید که برای بقیه شمشیر می‌سازید. ساخت محصولات مبتنی بر APIهای هوش مصنوعی در این دسته قرار می‌گیرند.
۶. راه میان‌بری وجود ندارد. اگر این عصر را بعنوان یک مرحله از تکامل بدانیم، شایسته‌ترین‌ها باقی می‌مانند. برای شایسته بودن قرصی وجود ندارد که یک شبه ما را شایسته کند. باید در یادگیری و تطبیق صبور باشیم.
۷. ذهنیت موج‌سوار داشته باشید (تا حدی شبیه توصیه‌ی سوم). بجای وحشت از موج، از سوار شدن بر موج، سرعت جابجایی با موج و دیدن منظره‌های جدید لذت ببرید.
👍19
نسخه ۴۰۵ میلیارد پارامتری مدل Llama 3.1 که دیروز منتشر شد، قوی‌ترین مدل منبع باز موجود است. در این نمودار، عملکرد مدل‌های مختلف منبع باز (سبز رنگ) و منبع بسته (قرمز رنگ) را در بنچ‌مارک MMLU مشاهده می‌کنید. این نمودار نشان می‌دهد که فاصله‌ی بین عملکرد مدل‌های منبع باز و منبع بسته روز به روز کمتر می‌شود. همچنین به نظر می‌رسد (حداقل در این بنچ‌مارک) مدل‌های موجود به اشباع نزدیک می‌شوند.
👍20