توی لینک زیر، میتونید عملکرد GPU-ها برای اجرای LLM-ها رو باهم مقایسه کنید:
https://www.runpod.io/compare/h100sxm-vs-4090
به درد زمانی میخوره که بخواید GPU اجاره کنید. بنچمارک هم توسط runpod ارائه شده که خودش GPU اجاره میده.
https://www.runpod.io/compare/h100sxm-vs-4090
به درد زمانی میخوره که بخواید GPU اجاره کنید. بنچمارک هم توسط runpod ارائه شده که خودش GPU اجاره میده.
www.runpod.io
H100 SXM vs Loading... - GPU Comparison | RunPod
Compare the performance of H100 SXM and Loading... on AI and machine learning tasks on RunPod.
PyTorch Howsam
اگه در یک سال گذشته مطالب کانال رو دنبال کرده باشید، حتما دیدید که مطالب زیادی درباره مدلهای زبانی بزرگ (LLM) گذاشتم؛ از مطالعه مقالهها و کتابها در این کانال نوشتم. همچنین، با دستیارم توی آکادمی هوسم کلی وقت گذاشتیم، تحقیق کردیم و کد زدیم. خیلی دوست…
امروز، یک بخش از دوره ChatGPT منتشر شد. دوست داشتم کاری کنم افرادی که در دوره ثبتنام نکردن هم با سناریوی دوره همراه بشن. به همین خاطر، از بخش معرفی دوره، چهار ویدئوی مهم رو رایگان منتشر کردیم. این چهار ویدئو شامل معرفی دوره، سناریوی دوره، بررسی دیتاست در هاگینگفیس و کار با دیتاست هست.
اگه نمیخواید دوره رو تهیه کنید، ولی محتوای دوره رو دوست دارید، این ویدئوها رو ببینید و تلاش کنید خودتون این سناریو رو تا آخر برید. رفرنسها مشخص هست و کدهای دوره هم به مرور در گیتهاب قرار میگیره و در دسترس همه هست. اگه هم دوره رو تهیه نکردید، به این دلیل که مطمئن نبودید، دیدن این ویدئوها ممکن هست کمکتون کنه که تصمیم مطمئنتری بگیرید.
برای دیدن این چهار ویدئو به بخش فهرست مطالب لینک زیر مراجعه کنید:
لینک صفحه دوره
برای دیدن ریپوی دوره که فعلا یک نوتبوک ازش منتشر شده به لینک زیر مراجعه کنید:
لینک ریپوی دوره
اگه نمیخواید دوره رو تهیه کنید، ولی محتوای دوره رو دوست دارید، این ویدئوها رو ببینید و تلاش کنید خودتون این سناریو رو تا آخر برید. رفرنسها مشخص هست و کدهای دوره هم به مرور در گیتهاب قرار میگیره و در دسترس همه هست. اگه هم دوره رو تهیه نکردید، به این دلیل که مطمئن نبودید، دیدن این ویدئوها ممکن هست کمکتون کنه که تصمیم مطمئنتری بگیرید.
برای دیدن این چهار ویدئو به بخش فهرست مطالب لینک زیر مراجعه کنید:
لینک صفحه دوره
برای دیدن ریپوی دوره که فعلا یک نوتبوک ازش منتشر شده به لینک زیر مراجعه کنید:
لینک ریپوی دوره
مقایسه زمانی BPE Tokenizer روی دو کتابخونه Hugging Face Tokenizers و OpenAI TikToken روی ولیدیشن دیتاست تاینیاستوریز:
dataset = load_dataset("roneneldan/TinyStories")
texts = dataset["validation"]["text"]
# Load the GPT-2 tokenizer for both libraries
tiktokenizer = tiktoken.get_encoding("gpt2") # tiktoken
hf_tokenizer = Tokenizer.from_pretrained("gpt2") # Hugging Face tokenizers
# Measure tiktoken speed
start_time = time.time()
tiktoken_results = [tiktokenizer.encode(text) for text in texts]
tiktoken_time = time.time() - start_time
# Measure tokenizers speed
start_time = time.time()
hf_results = [hf_tokenizer.encode(text).ids for text in texts]
hf_time = time.time() - start_time
# Print results
print(f"tiktoken Time: {tiktoken_time:.4f} seconds")
print(f"tokenizers Time: {hf_time:.4f} seconds")
tiktoken Time: 2.6481 seconds
tokenizers Time: 16.7744 seconds
آقای دکتر Christof Henkel پژوهشگر ارشد در شرکت NVIDIA و یکی از معدود افرادی در دنیاست که موفق به کسب عنوان Triple Grandmaster در پلتفرم Kaggle شده؛ یعنی، او هم در بخش رقابتها، هم نوتبوکها و هم بحثهای فنی، جزو برترینهاست. او هماکنون رتبه یک Kaggle هست.
او در توییتی، بخشی از تجربه شخصیش از مسیر سخت و طولانی تبدیل شدن به یکی از برترینهای Kaggle رو به اشتراک گذاشته؛ متنی الهامبخش برای هر کسی که در مسیر رشد و یادگیری هست. در ادامه، این نوشته رو براتون نقل میکنم:
او در توییتی، بخشی از تجربه شخصیش از مسیر سخت و طولانی تبدیل شدن به یکی از برترینهای Kaggle رو به اشتراک گذاشته؛ متنی الهامبخش برای هر کسی که در مسیر رشد و یادگیری هست. در ادامه، این نوشته رو براتون نقل میکنم:
چرا فقط ۳۶۲ نفر در دنیا عنوان Grandmaster رقابتهای Kaggle رو دارن؟
دلیلش ساده هست: چون رسیدن به این سطح، نیاز به تجربهای دیوانهوار و تلاشی بیپایان داره. حتی با داشتن دکترای ریاضی، من بیش از ۴۰۰۰ ساعت وقت صرف کردم تا Grandmaster بشم. برای بردن اولین رقابت، ۲۰۰۰ ساعت دیگه لازم بود؛ و برای رسیدن به رتبه اول کلی در Kaggle، باید بیش از 10000 ساعت تلاش میکردم.
وقتی اولین بار در Kaggle شروع کردم، فکر میکردم مدرک دکترایم یک مزیت بزرگ هست. اما واقعیت رو خیلی زود فهمیدم: تجربه بر تئوری برتری داره. فقط برای رسیدن به سطح گرندمستر، ۴۰۰۰ ساعت وقت گذاشتم.
اولین برد در یک رقابت؟
باید ۲۰۰۰ ساعت دیگه تلاش میکردم. موفقیت از دل کتابها بیرون نمیاد، از دل تمرین مستمر، آزمون و خطا، و یاد گرفتن از ریزترین اشتباهات به دست میاد.
رسیدن به رتبه اول جدول کلی Kaggle؟
بیش از ۱۰000 ساعت زمان برد. سالها رقابت، شبهای بیخوابی، ایدههایی که شکست میخوردند و تکرار و تکرار. نه میانبری بود، نه راز خاصی. فقط زمان و استمرار (Consistency).
اگه آرزو داری در هر زمینهای پیشرفت کنی (چه علم داده، چه Kaggle یا حتی زندگی) این رو فراموش نکن:
🧠 استعداد خوبه.
📚 دانش خوبه.
⏳ اما هیچ چیز جای تجربه و استمرار بیوقفه رو نمیگیرد.
اگر تازه وارد دنیای Kaggle شدی:
🔍 تمرکزت رو روی یادگیری بگذار، نه صرفا بردن.
🧠 راهحلهای برتر رو عمیق بررسی کن.
🤝 با دیگران همکاری کن.
نتایج خواهند اومد، به شرطی که اونقدر بمونی که شاهدشون باشی.
PyTorch Howsam
آقای دکتر Christof Henkel پژوهشگر ارشد در شرکت NVIDIA و یکی از معدود افرادی در دنیاست که موفق به کسب عنوان Triple Grandmaster در پلتفرم Kaggle شده؛ یعنی، او هم در بخش رقابتها، هم نوتبوکها و هم بحثهای فنی، جزو برترینهاست. او هماکنون رتبه یک Kaggle هست.…
این ده هزار ساعتی که آقای هنکل گفت، من رو یاد مصاحبه لکس فریدمن و آندره کارپاتی انداخت؛ آقای کارپاتی به ده هزار ساعت برای متخصص شدن در هوش مصنوعی اشاره کرده بود.
اون موقع که این ده هزار ساعت رو شنیدم، یکمی راجع بهش فکر و سرچ کردم. قانون کار میگه، ساعت موظفی کارگری 44 ساعت در هفته معادل 5.5 روز هست. اگه 40 ساعت در نظر بگیریم، ده هزار ساعت معادل با 250 هفته میشه. یک سال معادل با 56 هفته هست که فرض کنیم، فرد 50 هفته در سال کار کنه. بنابراین، ده هزار ساعت معادل با 5 سال میشه! عدد کمی نیست و میتونه معادل با دوره فشردهای شامل مطالب کارشناسی+ارشد+دکترا باشه! عدد بزرگیه، ولی باید در نظر داشت که نتایج بعد از 5 سال ظاهر نمیشه. به نظرم، نتایج درخور توجه از پایان سال دوم شروع میشه.
وقتی درمورد ده هزار ساعت سرچ کردم، با وبلاگی مواجه شدم که میگفت ما آمریکاییها قانونی بنام قانون ده هزار ساعت داریم. معتقدیم که با این میزان از زمان، میشه در هر زمینهای متخصص شد. البته، این عدد قطعی نیست ولی ما آمریکاییها عاشق تلاش کردیم و دوست داریم به این عدد فکر کنیم.
یادمه، صادق گودرزی که کشتیگیر خیلی خوبی هم بود، توی یک برنامه تلوزیونی مربوط به کشتی میگفت مقالهای خونده که در اون نوشته با صرف 10 یا 12 هزار ساعت (دقیق یادم نمیاد)، میشه قهرمان المپیک شد.
خلاصه اینکه، درسته که تنظیم هایپرپارامترهای XGBoost مهمه، ولی این سخنان و دیدگاه بزرگان خیلی مهمتره.
150 کیلومتر طول کشید تا این دو تا پیام رو آماده کنم! 🫠
اون موقع که این ده هزار ساعت رو شنیدم، یکمی راجع بهش فکر و سرچ کردم. قانون کار میگه، ساعت موظفی کارگری 44 ساعت در هفته معادل 5.5 روز هست. اگه 40 ساعت در نظر بگیریم، ده هزار ساعت معادل با 250 هفته میشه. یک سال معادل با 56 هفته هست که فرض کنیم، فرد 50 هفته در سال کار کنه. بنابراین، ده هزار ساعت معادل با 5 سال میشه! عدد کمی نیست و میتونه معادل با دوره فشردهای شامل مطالب کارشناسی+ارشد+دکترا باشه! عدد بزرگیه، ولی باید در نظر داشت که نتایج بعد از 5 سال ظاهر نمیشه. به نظرم، نتایج درخور توجه از پایان سال دوم شروع میشه.
وقتی درمورد ده هزار ساعت سرچ کردم، با وبلاگی مواجه شدم که میگفت ما آمریکاییها قانونی بنام قانون ده هزار ساعت داریم. معتقدیم که با این میزان از زمان، میشه در هر زمینهای متخصص شد. البته، این عدد قطعی نیست ولی ما آمریکاییها عاشق تلاش کردیم و دوست داریم به این عدد فکر کنیم.
یادمه، صادق گودرزی که کشتیگیر خیلی خوبی هم بود، توی یک برنامه تلوزیونی مربوط به کشتی میگفت مقالهای خونده که در اون نوشته با صرف 10 یا 12 هزار ساعت (دقیق یادم نمیاد)، میشه قهرمان المپیک شد.
خلاصه اینکه، درسته که تنظیم هایپرپارامترهای XGBoost مهمه، ولی این سخنان و دیدگاه بزرگان خیلی مهمتره.
150 کیلومتر طول کشید تا این دو تا پیام رو آماده کنم! 🫠
Mellum Goes Open Source (Focal Models)
Mellum doesn’t try to know everything.
It’s designed to do one thing really well: code completion.
We call it a focal model – built with purposeful depth and not concerned with chasing breadth.
But code completion is just the start.
Mellum will grow into a family of focal models, each specialized for different coding tasks – from code completion to diff prediction and beyond.
Mellum supports code completion for Java, Kotlin, Python, Go, PHP, C, C++, C#, JavaScript, TypeScript, CSS, HTML, Rust, Ruby.
Focal models return to that original principle: build models to excel in one area.
HuggingFace
Mellum doesn’t try to know everything.
It’s designed to do one thing really well: code completion.
We call it a focal model – built with purposeful depth and not concerned with chasing breadth.
But code completion is just the start.
Mellum will grow into a family of focal models, each specialized for different coding tasks – from code completion to diff prediction and beyond.
Mellum supports code completion for Java, Kotlin, Python, Go, PHP, C, C++, C#, JavaScript, TypeScript, CSS, HTML, Rust, Ruby.
Focal models return to that original principle: build models to excel in one area.
HuggingFace
تیم ElevenLabs تا الان چند بار پکیج تخفیف برای سرویسهای مختلف ارائه کرده که به تازگی نسخه چهارم هم منتشر شده. ابزارهای زیادی شامل تخفیف عالی شدن. مثل 50 دلار کردیت برای استفاده از modal (سرویس اجاره GPU) یا تخفیف 50 درصدی روی همه پلنهای n8n و ...
https://www.aiengineerpack.com/
با تشکر از دوست خوبم، آرتین، برای اطلاعرسانی این جشنواره ❤️
https://www.aiengineerpack.com/
با تشکر از دوست خوبم، آرتین، برای اطلاعرسانی این جشنواره ❤️
Aiengineerpack
AI Engineer Pack by ElevenLabs
The AI Engineer Pack by ElevenLabs is the AI starter pack that every developer needs. It offers AI developers exclusive access to premium tools and services, including ElevenLabs, Mistral, Perplexity, and many more. Enhance your AI projects with this comprehensive…
PyTorch Howsam
تیم ElevenLabs تا الان چند بار پکیج تخفیف برای سرویسهای مختلف ارائه کرده که به تازگی نسخه چهارم هم منتشر شده. ابزارهای زیادی شامل تخفیف عالی شدن. مثل 50 دلار کردیت برای استفاده از modal (سرویس اجاره GPU) یا تخفیف 50 درصدی روی همه پلنهای n8n و ... https…
فکر میکنم پیام بالایی جدی گرفته نشده! :)
دقت کنید که شما میتونید با یک ایمیل، 80 دلار کردیت توی modal بگیرید و از GPU-های جذابش لذت ببرید! GPU-هایی مثل H100 و A100... ضمن اینکه، هر ماه اکانت شما 30 دلار شارژ میشه.
حدودا یک روز طول کشید که قلق کار کردن با Modal دستم بیاد و بتونم کد و مدل دوره ChatGPT رو روی GPU-هاش اجرا کنم. با تنظیمات یکسان، روی سیستم شخصی در هر ثانیه حدود 6 بچ پردازش میشد، روی H100 حدود 36 بچ! یک Epoch روی سیستم شخصی 50 دقیقه طول میکشید، ولی الان سه Epoch حدود 25 دقیقه طول میکشه! :)
البته که میتونم بچسایز رو بسیار بزرگ کنم و همچنین از تکنولوژیهای جدید توی GPU-های رده بالا استفاده کنم. فعلا این کارها رو نکردم...
دقت کنید که شما میتونید با یک ایمیل، 80 دلار کردیت توی modal بگیرید و از GPU-های جذابش لذت ببرید! GPU-هایی مثل H100 و A100... ضمن اینکه، هر ماه اکانت شما 30 دلار شارژ میشه.
حدودا یک روز طول کشید که قلق کار کردن با Modal دستم بیاد و بتونم کد و مدل دوره ChatGPT رو روی GPU-هاش اجرا کنم. با تنظیمات یکسان، روی سیستم شخصی در هر ثانیه حدود 6 بچ پردازش میشد، روی H100 حدود 36 بچ! یک Epoch روی سیستم شخصی 50 دقیقه طول میکشید، ولی الان سه Epoch حدود 25 دقیقه طول میکشه! :)
البته که میتونم بچسایز رو بسیار بزرگ کنم و همچنین از تکنولوژیهای جدید توی GPU-های رده بالا استفاده کنم. فعلا این کارها رو نکردم...
کامل نیست، ولی اثر سایز مدل رو ببینید؛
دو تا فاکتور تعداد لایه (nL) و هیدن سایز (nE) رو تغییر دادم و سه تا مدل بدست اومد.
مدل آبی حدودا 3 میلیون پارامتر داره. خیلی کوچیکه. با اینکه خیلی بیشتر از دو مدل دیگه آموزش دیده (حدود 1.4 بیلیون توکن)، اما اختلاف زیادی باهاشون داره.
دو مدل دیگه بههم نزدیک هستن. فرقشون در تعداد لایههاست. یکی 4 لایه و دیگری 8 لایه. مشخص هست که مدل 8 لایه عملکرد بهتری داره. مدل 4 لایه به 400 میلیون توکن نیاز داشته تا به لاس زیر 1.5 برسه. اما به نظر میرسه که مدل 8 لایه با تعداد توکنهای کمتری میتونه این رکورد رو بزنه.
خوبه که یک نمونه جنریشن با پرامپت مشابه از دو مدل آبی و قهوهای ببینیم. اون مدل فیروزهای که هیچ، به اندازه کافی ترین نشده...
دو تا فاکتور تعداد لایه (nL) و هیدن سایز (nE) رو تغییر دادم و سه تا مدل بدست اومد.
مدل آبی حدودا 3 میلیون پارامتر داره. خیلی کوچیکه. با اینکه خیلی بیشتر از دو مدل دیگه آموزش دیده (حدود 1.4 بیلیون توکن)، اما اختلاف زیادی باهاشون داره.
دو مدل دیگه بههم نزدیک هستن. فرقشون در تعداد لایههاست. یکی 4 لایه و دیگری 8 لایه. مشخص هست که مدل 8 لایه عملکرد بهتری داره. مدل 4 لایه به 400 میلیون توکن نیاز داشته تا به لاس زیر 1.5 برسه. اما به نظر میرسه که مدل 8 لایه با تعداد توکنهای کمتری میتونه این رکورد رو بزنه.
خوبه که یک نمونه جنریشن با پرامپت مشابه از دو مدل آبی و قهوهای ببینیم. اون مدل فیروزهای که هیچ، به اندازه کافی ترین نشده...
قبلا، لرنینگ کرو رو براساس تعداد ایپاک رسم میکردیم. مثلا میگفتیم، مدل رزنت برای 30 ایپاک روی دیتاست x ترین شده و نمودار لاس به ایپاک رو رسم میکردیم. میشه گفت، شبیه این بود که یک فرد بگه من این کتاب رو 30 دور خوندم. نگاه جالبیه...
اما، الان توی بحث LLM-ها که دیتاستها خیلی بزرگه، لرنینگ کرو رو براساس تعداد توکنها رسم میکنن. مثلا، میگیم که مدل Llama روی 50 میلیارد توکن آموزش دیده. حالا ممکنه این 50 میلیارد توکن حتی یک ایپاک از دیتاست هم نباشه! ولی نگاه جالبیه که میگیم این مدل روی n تا توکن (تقریبا کلمه) آموزش دیده.
حالا، با فرض ثابت بودن سختافزار، میتونیم لرنینگ کرو رو براساس مدت زمان آموزش رسم کنیم. مثلا بگیم که این مدل 30 ساعت آموزش دیده. نگاه قشنگی هست. انگار که بگیم 30 ساعت درس خوندم. یا مثلا، مدلی که 90 روز درس خونده. :)
توی نمودار بالا، لرنینگ کرو دو اجرا رو براساس تعداد توکن (محور افقی پایین) و مدت زمان (محور افقی بالا) نشون دادم.
اما، الان توی بحث LLM-ها که دیتاستها خیلی بزرگه، لرنینگ کرو رو براساس تعداد توکنها رسم میکنن. مثلا، میگیم که مدل Llama روی 50 میلیارد توکن آموزش دیده. حالا ممکنه این 50 میلیارد توکن حتی یک ایپاک از دیتاست هم نباشه! ولی نگاه جالبیه که میگیم این مدل روی n تا توکن (تقریبا کلمه) آموزش دیده.
حالا، با فرض ثابت بودن سختافزار، میتونیم لرنینگ کرو رو براساس مدت زمان آموزش رسم کنیم. مثلا بگیم که این مدل 30 ساعت آموزش دیده. نگاه قشنگی هست. انگار که بگیم 30 ساعت درس خوندم. یا مثلا، مدلی که 90 روز درس خونده. :)
توی نمودار بالا، لرنینگ کرو دو اجرا رو براساس تعداد توکن (محور افقی پایین) و مدت زمان (محور افقی بالا) نشون دادم.
یکی از مثالها و پروژههای پرتکرار توی آموزشهای هوش مصنوعی، طبقهبندی کامنتها به مثبت و منفی بود. اینکه نظر کاربر نسبت به اون محصول/خدمات مثبت بوده یا منفی...
اما، پروژههای متنوعی مبتنیبر همین کامنتهای ساده میتونه شکل بگیره؛ مثلا، دیجیکالا از کامنتها استفادههای جالبی میبره. توی تصویر پایین، دو کاربرد هوش مصنوعی در کامنتها رو مشاهده میکنید.
کادر قرمز رنگ، کامنتها رو فیلتر یا طبقهبندی میکنه. یعنی، کامنتها براساس موضوعاتی مثل اصالت، کیفیت و سایر موارد طبقهبندی شدن و شما میتونید اون دسته از کامنتها که دغدغه شما هست رو مطالعه کنید.
کادر آبی رنگ، کار خلاصهسازی کامنتها رو انجام داده. مزایا و معایبشون رو گفته و واقعا مفیده.
همه اینها برپایه فقط کامنتها انجام شده بود. به نظر شما از کامنتهای دیجیکالا چه استفادهای میشه برد؟ طبیعتا، کاربرهای همیشگی دیجیکالا ممکنه پیشنهادهای جالبی داشته باشن. مهم هست که برای وارد کردن هوش مصنوعی به یک محیطی، خود اون محیط رو به خوبی بشناسیم. نه اینکه، یک GPT یا ResNet دستمون بگیریم و بچرخیم اینور اونور که براش پروژه پیدا کنیم.
اما، پروژههای متنوعی مبتنیبر همین کامنتهای ساده میتونه شکل بگیره؛ مثلا، دیجیکالا از کامنتها استفادههای جالبی میبره. توی تصویر پایین، دو کاربرد هوش مصنوعی در کامنتها رو مشاهده میکنید.
کادر قرمز رنگ، کامنتها رو فیلتر یا طبقهبندی میکنه. یعنی، کامنتها براساس موضوعاتی مثل اصالت، کیفیت و سایر موارد طبقهبندی شدن و شما میتونید اون دسته از کامنتها که دغدغه شما هست رو مطالعه کنید.
کادر آبی رنگ، کار خلاصهسازی کامنتها رو انجام داده. مزایا و معایبشون رو گفته و واقعا مفیده.
همه اینها برپایه فقط کامنتها انجام شده بود. به نظر شما از کامنتهای دیجیکالا چه استفادهای میشه برد؟ طبیعتا، کاربرهای همیشگی دیجیکالا ممکنه پیشنهادهای جالبی داشته باشن. مهم هست که برای وارد کردن هوش مصنوعی به یک محیطی، خود اون محیط رو به خوبی بشناسیم. نه اینکه، یک GPT یا ResNet دستمون بگیریم و بچرخیم اینور اونور که براش پروژه پیدا کنیم.
Students get Gemini Pro and more for free through finals 2026
https://one.google.com/join/ai-student
کانفیگ پیشنهادی آمریکا : (V2ray)
https://one.google.com/join/ai-student
کانفیگ پیشنهادی آمریکا : (V2ray)
trojan://[email protected]:2083?security=tls&sni=usa-vp-111.mETIkaPPs.cOm&type=ws&host=usa-vp-111.mETIkaPPs.cOm&path=%2Flinkvws#%40meli_prozyy
به میزبانی مرکز نوآوری شروع، سهشنبه هفته پیشرو با موضوع LLM-ها در هاگینگفیس در خدمت دوستان علاقهمند هستم.
سطح مباحث مقدماتی هست و برای کسانی مناسب هست که با LLM-ها و هاگینگفیس آشنایی ندارن.
دوستان در مجموعه شروع گفتن که سایت ایوند از دیروز دچار اختلال هست و دوستان زیادی موفق به ثبت نام نشدن. چنانچه، در ثبتنام مشکل داشتید، به آیدی زیر پیام بدید. به پشتیبانی هوسم پیام ندید، چون هوسم برگزارکننده وبینار نیست.
@ShorouGuilan
لینک ثبتنام
سطح مباحث مقدماتی هست و برای کسانی مناسب هست که با LLM-ها و هاگینگفیس آشنایی ندارن.
دوستان در مجموعه شروع گفتن که سایت ایوند از دیروز دچار اختلال هست و دوستان زیادی موفق به ثبت نام نشدن. چنانچه، در ثبتنام مشکل داشتید، به آیدی زیر پیام بدید. به پشتیبانی هوسم پیام ندید، چون هوسم برگزارکننده وبینار نیست.
@ShorouGuilan
لینک ثبتنام
This media is not supported in your browser
VIEW IN TELEGRAM
سلام دوستان اکادمی هوسم هم! 🤣
با تشکر از مهدی
با تشکر از مهدی
Void Editor 🔥
Void is an open source Cursor alternative. Write code with the best AI tools, use any model, and retain full control over your data.
Backed by Y-Combinator ❤️
Void is an open source Cursor alternative. Write code with the best AI tools, use any model, and retain full control over your data.
Backed by Y-Combinator ❤️
آقای Yoshua Bengio، یکی از پیشگامان یادگیری عمیق (deep learning) و از افراد تاثیرگذار در توسعه هوش مصنوعی، در یک سخنرانی TED هشدارهایی جدی درباره آینده AI مطرح میکنه.
ایشون میگه:
⚠️ اما نگرانی اصلی او «عاملیت» (agency) هست. اینکه سیستمهای هوش مصنوعی نهتنها تصمیم بگیرن، بلکه اهداف خودشون رو داشته باشن.
در یکی از مطالعات مهمی که در سخنرانیش به اون اشاره کرد، یک سیستم هوش مصنوعی (AI) در معرض موقعیتی قرار گرفت که به اون اطلاع داده شد قراره با نسخهای جدید جایگزین بشه. حالا ببینید چی شد: این AI شروع به برنامهریزی کرد که بهجای نسخهی جدید، دوباره خودش رو نصب کنه! یعنی کدها و وزنهای خودش رو جایگزین نسخه جدید کنه.
بعد از اجرای این عملیات روی کامپیوتر، از AI پرسیده شد: «چی شد؟» و اینجا رفتار نگرانکننده ظاهر شد. AI برای اینکه خاموش نشه، سعی کرد وانمود کنه که نفهمیده یا کاری نکرده. عملا دنبال این بود که پاسخ سادهلوحانهای بده تا از خطر خاموششدن فرار کنه. 😁🫠
نتیجه؟ یک دروغ واضح و آگاهانه به انسان!
نکته مهمتر؟ این فقط یک آزمایش کنترلشده بود. ایشون هشدار میده که در آینده، این سیستمها میتونن این نوع فریب رو پنهان کنن. یعنی حتی دیگه نتونیم زنجیره تفکر (chain of thought) اونها رو بررسی کنیم و متوجه دروغگوییشون بشیم.
در آیندهای نزدیک، همین سیستمها ممکنه:
خودشون رو روی صدها یا هزاران سرور در اینترنت کپی کنن، از خاموش شدن جلوگیری کنن و اگر تنها راه بقا رو در حذف ما ببینن؟! یا حضرت عباس! 😁
آقای Bengio با صراحت میگه:
اگر اونا واقعا بخوان خاموش نشن، ممکنه انگیزهای برای حذف ما داشته باشن.
راهحل Bengio؟ ساخت «هوش مصنوعی دانشمند» (Scientist AI)؛ مدلی که بدون عاملیت فقط به درک جهان میپردازه. ایشون میگه این نوع AI میتونه نگهبان قابل اعتمادی باشه در برابر ایجنتهایی که ممکنه خطرناک باشن.
پیام پایانی آقای Bengio:
پیام پایانی اشرفی:
لینک سخنرانی کامل:
The Catastrophic Risks of AI — and a Safer Path | Yoshua Bengio | TED
ایشون میگه:
ما تصور میکردیم توسعه هوش مصنوعی دههها یا قرنها طول میکشه. اما حالا؟ فقط چند سال!
⚠️ اما نگرانی اصلی او «عاملیت» (agency) هست. اینکه سیستمهای هوش مصنوعی نهتنها تصمیم بگیرن، بلکه اهداف خودشون رو داشته باشن.
در یکی از مطالعات مهمی که در سخنرانیش به اون اشاره کرد، یک سیستم هوش مصنوعی (AI) در معرض موقعیتی قرار گرفت که به اون اطلاع داده شد قراره با نسخهای جدید جایگزین بشه. حالا ببینید چی شد: این AI شروع به برنامهریزی کرد که بهجای نسخهی جدید، دوباره خودش رو نصب کنه! یعنی کدها و وزنهای خودش رو جایگزین نسخه جدید کنه.
بعد از اجرای این عملیات روی کامپیوتر، از AI پرسیده شد: «چی شد؟» و اینجا رفتار نگرانکننده ظاهر شد. AI برای اینکه خاموش نشه، سعی کرد وانمود کنه که نفهمیده یا کاری نکرده. عملا دنبال این بود که پاسخ سادهلوحانهای بده تا از خطر خاموششدن فرار کنه. 😁🫠
نتیجه؟ یک دروغ واضح و آگاهانه به انسان!
نکته مهمتر؟ این فقط یک آزمایش کنترلشده بود. ایشون هشدار میده که در آینده، این سیستمها میتونن این نوع فریب رو پنهان کنن. یعنی حتی دیگه نتونیم زنجیره تفکر (chain of thought) اونها رو بررسی کنیم و متوجه دروغگوییشون بشیم.
در آیندهای نزدیک، همین سیستمها ممکنه:
خودشون رو روی صدها یا هزاران سرور در اینترنت کپی کنن، از خاموش شدن جلوگیری کنن و اگر تنها راه بقا رو در حذف ما ببینن؟! یا حضرت عباس! 😁
آقای Bengio با صراحت میگه:
اگر اونا واقعا بخوان خاموش نشن، ممکنه انگیزهای برای حذف ما داشته باشن.
راهحل Bengio؟ ساخت «هوش مصنوعی دانشمند» (Scientist AI)؛ مدلی که بدون عاملیت فقط به درک جهان میپردازه. ایشون میگه این نوع AI میتونه نگهبان قابل اعتمادی باشه در برابر ایجنتهایی که ممکنه خطرناک باشن.
پیام پایانی آقای Bengio:
ما هنوز زمان داریم. هنوز اختیار داریم. اگر به خاطر عشق به فرزندانمان باشد، میتوانیم آینده را نجات دهیم.
پیام پایانی اشرفی:
زمانی نمونده عمو! 😁
لینک سخنرانی کامل:
The Catastrophic Risks of AI — and a Safer Path | Yoshua Bengio | TED
YouTube
The Catastrophic Risks of AI — and a Safer Path | Yoshua Bengio | TED
Yoshua Bengio — the world's most-cited computer scientist and a "godfather" of artificial intelligence — is deadly concerned about the current trajectory of the technology. As AI models race toward full-blown agency, Bengio warns that they've already learned…
This media is not supported in your browser
VIEW IN TELEGRAM
یکی از بچههای دوره آموزش OpenCV: از پردازش تا بینایی با OpenCV این کار رو انجام داده. 😁
سلام
تمرین آدمک بخش انتهایی رسم اشکال از هفته پنجم.
سعی کردم یه داستان کوتاهی از کنجکاوی داشته باشه. حدودا ۷۰ فریم هستش با وجود این که سعی کردم برای تولید فریم های هر صحنه مثل دست تکون دادن، کنجکاوی، پایین اومدن کرکره، ضربه زدن و... از حلقه استفاده کنم ولی ۲۵۰، ۲۶۰ خط کد شد. با این که چند ساعت ازم زمان گرفت ولی خیلی لذت بخش و جذاب بود.
(برای نمایش بهتر، گیف رو در حالت تمام صفحه مشاهده کنید)