Forwarded from Charisma on Command
با خودت مثل کسی رفتار کن که انگار مسئول کمک کردن بهش هستی!
(جردن پترسون)
(جردن پترسون)
استدلال ربایشی: قطعه پازل گم شده هوش مصنوعی (۱)
براحتی می توان گفت یکی از زیبا ترین فیلم های کلاسیک سینما «دوازده مرد خشمگین» اثر سیدنی لومت (sidney lumet) است. بر خلاف فیلم های پر زرق و برق امروزی که با استفاده از حقه ی جلوه های ویژه سعی در نگه داشتن مخاطب دارند یک فیلم سیاه و سفید مربوط به سال ۱۹۵۷ است که در یک اتاق با دوازده مرد خشمگین که فقط با هم بحث و مجادله می کنند یک ساعت و نیم مخاطب را میخکوب می کند! اما راز زیبایی این فیلم در چیست؟
من فیلم شناس یا منتقد سینما نیستم اما می توانم بگویم فیلم یکی از اساسی ترین نیروهای درونی ما یعنی قدرت استدلال و مباحثه را به چالش کشیده و آن را به کار می اندازد. این برخلاف رویه فیلم های امروزی هالیود است که تنها بر جنبه های بصری تاکید دارند! بیایید قدری ریز تر شویم و ببینیم چه چیزی در این فیلم اینقدر جذاب است که به طرح پرسش های اساسی تری در فلسفه و روانشناسی و در نهایت هوش مصنوعی هم می انجامد. (هشدار خراب شدن داستان در ادامه)
داستان با یک مورد جنایی شروع می شود: یک قتل! پسری که ظاهرا پدرش را به قتل رسانده است و اکنون توسط پلیس به عنوان مضنون اصلی دستگیر شده است. پرونده به ۱۲ داور داده می شود تا بررسی شود. ظاهرا تمام شواهد علیه پسرک است. ابتدا هر کدام از داوران «شواهدی» که وجود دارند را بررسی می کنند و هر کدام جداگانه به این نتیجه می رسند که این پسر بوده که باعث قتل پدرش شده است. شواهد همه در یک داستان درست و سازگار کنار هم قابل قرار گیری هستند و همین مجرم بودن پسر را بسیار محتمل می کند. به طور مثال چند ساعت قبل از قتل همسایه ها شنیده بودند که پسرک بر سر پدرش فریاد می زند که تو را می کشم! از طرفی ادعای پسر مبنی بر اینکه در زمان قتل در سینما بوده است درست نبود چون کسی او را در سینما ندیده است و غیره و غیره!! این در حالی است که یکی از داوران شواهد را در یک داستان دیگر قابل تفسیر می داند که باعث نمی شود که پسرک را مجرم بدانیم. آن داور به زیبایی و دقت فراوان تک تک استدلال های هیئت داوران را خنثی می کند و در نهایت همه را متقاعد می کند که چرا پسر با همان شواهد بی گناه است.
ادامه
براحتی می توان گفت یکی از زیبا ترین فیلم های کلاسیک سینما «دوازده مرد خشمگین» اثر سیدنی لومت (sidney lumet) است. بر خلاف فیلم های پر زرق و برق امروزی که با استفاده از حقه ی جلوه های ویژه سعی در نگه داشتن مخاطب دارند یک فیلم سیاه و سفید مربوط به سال ۱۹۵۷ است که در یک اتاق با دوازده مرد خشمگین که فقط با هم بحث و مجادله می کنند یک ساعت و نیم مخاطب را میخکوب می کند! اما راز زیبایی این فیلم در چیست؟
من فیلم شناس یا منتقد سینما نیستم اما می توانم بگویم فیلم یکی از اساسی ترین نیروهای درونی ما یعنی قدرت استدلال و مباحثه را به چالش کشیده و آن را به کار می اندازد. این برخلاف رویه فیلم های امروزی هالیود است که تنها بر جنبه های بصری تاکید دارند! بیایید قدری ریز تر شویم و ببینیم چه چیزی در این فیلم اینقدر جذاب است که به طرح پرسش های اساسی تری در فلسفه و روانشناسی و در نهایت هوش مصنوعی هم می انجامد. (هشدار خراب شدن داستان در ادامه)
داستان با یک مورد جنایی شروع می شود: یک قتل! پسری که ظاهرا پدرش را به قتل رسانده است و اکنون توسط پلیس به عنوان مضنون اصلی دستگیر شده است. پرونده به ۱۲ داور داده می شود تا بررسی شود. ظاهرا تمام شواهد علیه پسرک است. ابتدا هر کدام از داوران «شواهدی» که وجود دارند را بررسی می کنند و هر کدام جداگانه به این نتیجه می رسند که این پسر بوده که باعث قتل پدرش شده است. شواهد همه در یک داستان درست و سازگار کنار هم قابل قرار گیری هستند و همین مجرم بودن پسر را بسیار محتمل می کند. به طور مثال چند ساعت قبل از قتل همسایه ها شنیده بودند که پسرک بر سر پدرش فریاد می زند که تو را می کشم! از طرفی ادعای پسر مبنی بر اینکه در زمان قتل در سینما بوده است درست نبود چون کسی او را در سینما ندیده است و غیره و غیره!! این در حالی است که یکی از داوران شواهد را در یک داستان دیگر قابل تفسیر می داند که باعث نمی شود که پسرک را مجرم بدانیم. آن داور به زیبایی و دقت فراوان تک تک استدلال های هیئت داوران را خنثی می کند و در نهایت همه را متقاعد می کند که چرا پسر با همان شواهد بی گناه است.
ادامه
ویرگول
استدلال ربایشی: قطعه پازل گم شده هوش مصنوعی (۱)
۱۲ مرد خشمگینبراحتی می توان گفت یکی از زیبا ترین فیلم های کلاسیک سینما «دوازده مرد خشمگین» اثر سیدنی لومت sidney lumet است بر خلاف فیلم…
This media is not supported in your browser
VIEW IN TELEGRAM
شرکت Boston Dynamics در آستانه سال نوی میلادی جدید یک ویدیو بسیار شاد از رقص ربات هایش را رونمایی کرده است که در عین حال میزان توانایی حرکتی آن ها را هم نشان می دهد.
یوتویوب
دانلود با کیفیت ۷۲۰
یوتویوب
دانلود با کیفیت ۷۲۰
یک کنجکاوی ریاضی جالب
اعدادی نسبت به هم اول هستند که هیچ مضرب مشترکی نداشته باشند. مثلا ۹ و ۴ نسبت به هم اول هستند چون ۹=۳×۳ و ۴=۲×۲ در حالی که ۱۲ و ۱۵ نسبت به هم اول نیستند چرا که هر دو به سه قابل بخش هستند. حالا سوال این است:
احتمال اینکه دو عدد طبیعی تصادفی انتخاب کنیم و نسبت به هم اول باشند چقدر است؟
وقتی میگوییم دو عدد طبیعی منظور از تمام بازه اعداد طبیعی است. بیایید از ساده شروع کنیم
احتمال اینکه یک عدد بر عدد اول p بخش پذیر باشد 1/p است. یعنی مثلا از هر ۷ عدد یکی حتما بر ۷ بخش پذیر است. بنابراین احتمال اینکه هر دو عدد بر p بخش پذیر باشند صرفا حاصل ضرب احتمال های جدای آن هاست: 1/p^2
حالا احتمال اینکه یکی از آن ها بر p بخش پذیر نباشد 1-1/p^2 است. (قدری تامل کنید. اینجا به صورت ضمنی از قاعده دمورگان استفاده کردیم. نقیض آ و ب می شود نقیض آ یا نقیض ب)
از طرفی می دانیم رویداد بخش پذیر بودن بر عدد اول p از عدد اول q مستقل است ( احتمال اینکه عددی هم بر p و هم بر q بخش پذیر باشد 1/pq است دقت کنید این فقط برای اعداد اول صادق است چون اعداد اول ضریب مشترک ندارند!)
در نهایت احتمال اینکه دو عدد واقعا نسبت به هم اول باشند این است که بر هر عدد اول p حداقل یکی از آنها بر آن بخش پذیر نباشد:
اعدادی نسبت به هم اول هستند که هیچ مضرب مشترکی نداشته باشند. مثلا ۹ و ۴ نسبت به هم اول هستند چون ۹=۳×۳ و ۴=۲×۲ در حالی که ۱۲ و ۱۵ نسبت به هم اول نیستند چرا که هر دو به سه قابل بخش هستند. حالا سوال این است:
احتمال اینکه دو عدد طبیعی تصادفی انتخاب کنیم و نسبت به هم اول باشند چقدر است؟
وقتی میگوییم دو عدد طبیعی منظور از تمام بازه اعداد طبیعی است. بیایید از ساده شروع کنیم
احتمال اینکه یک عدد بر عدد اول p بخش پذیر باشد 1/p است. یعنی مثلا از هر ۷ عدد یکی حتما بر ۷ بخش پذیر است. بنابراین احتمال اینکه هر دو عدد بر p بخش پذیر باشند صرفا حاصل ضرب احتمال های جدای آن هاست: 1/p^2
حالا احتمال اینکه یکی از آن ها بر p بخش پذیر نباشد 1-1/p^2 است. (قدری تامل کنید. اینجا به صورت ضمنی از قاعده دمورگان استفاده کردیم. نقیض آ و ب می شود نقیض آ یا نقیض ب)
از طرفی می دانیم رویداد بخش پذیر بودن بر عدد اول p از عدد اول q مستقل است ( احتمال اینکه عددی هم بر p و هم بر q بخش پذیر باشد 1/pq است دقت کنید این فقط برای اعداد اول صادق است چون اعداد اول ضریب مشترک ندارند!)
در نهایت احتمال اینکه دو عدد واقعا نسبت به هم اول باشند این است که بر هر عدد اول p حداقل یکی از آنها بر آن بخش پذیر نباشد:
دراینجا تابع جدیدی وارد شده به اسم تابع زتا. و میزان این احتمال با عدد پی مرتبط است!! جزییات محاسبه را می توانید اینجا ببینید. این یکی از بزرگترین شگفتی حل نشده در ریاضیات است. تابع زتا به طرز اسرارآمیزی بین اعداد اول و آنالیز ریاضی (و مشخصا عدد پی) رابطه بر قرار می کند
یک ویدیو جالب در مورد تابع زتا و حدس ریمان بزرگترین مساله حل نشده ریاضیات
یک ویدیو جالب در مورد تابع زتا و حدس ریمان بزرگترین مساله حل نشده ریاضیات
یک مانکن زن که یک کت چرمی سیاه و یک دامن کوتاه چین دار طلایی به تن دارد
یک ساعت سبز پنج گوشه
یک پنگوئن که از بادمجان درست شده
یک ساعت سبز پنج گوشه
یک پنگوئن که از بادمجان درست شده
🔵تخیل ماشینی!🔵
We should give up on the idea of magic because the science itself is the most magical phenomena in the world!
یکی از قابلیت های منحصر بفرد انسان قدرت تخیل است! مثلا من می توانم بگویم در ذهنت این را تصور کن:
«یک مانکن زن که یک کت چرمی سیاه و یک دامن کوتاه چین دار طلایی به تن دارد»
« یک ساعت سبز پنج گوشه»
ما تصویری ذهنی از چنین چیزهایی میسازیم حتی اگر کسی تا به حال چنین چیزی به ذهنش نرسیده باشد! اما این کار دیگر محدود به بشر نیست!
امروز (۵ ژانویه ۲۰۲۱) کمپانی OpenAI نوع جدیدی از پژوهش مولتی مودال (Multimodal) به نام DALL.E را منتشر کرد که با گرفتن ورودی متنی تصویر متناظرش را میسازد (یا تخیل می کند!!). با اینکه این ایده جدید نیست اما کیفیت و دقت خروجی های OpenAI واقعا خیره کننده است. معماری این روش همانطور که ممکن است حدس زده باشید GPT3 و بر اساس ترنسفورمر ها است.
این سیستم ورودی های متن و تصویر را یکجا در یک استریم داده که متشکل از ۱۲۸۰ توکن است میگیرد و با استفاده از maximum likelihood به دنبال یافتن توکن بعدی است.
اما این مدل فراتر هم می رود و می تواند چیزهایی را تصور کند که بسیار به هم بی ربط هستند و قبلا به نظر می رسید که تنها ذهن انسان قادر به انجام آن باشد. مثلا: یک پنگوئن که از بادمجان درست شده است! و مدل قادر به بازنمایی آن است.
علاوه بر این ها مدل قادر به بازنمایی جملاتی است که نیاز به دانش دارند: مثلا غذای چینی یا پل گلدن بریج. جملاتی که نیاز به درک زمان دارند: یک تلفن در دهه بیست میلادی. و جملاتی که نیاز به استدلال تصویری دارند: کشیدن همان تصویر در یک زاویه دیگر یا تصور کردنش با رنگ و نوشته دیگر.
پست اصلی
We should give up on the idea of magic because the science itself is the most magical phenomena in the world!
یکی از قابلیت های منحصر بفرد انسان قدرت تخیل است! مثلا من می توانم بگویم در ذهنت این را تصور کن:
«یک مانکن زن که یک کت چرمی سیاه و یک دامن کوتاه چین دار طلایی به تن دارد»
« یک ساعت سبز پنج گوشه»
ما تصویری ذهنی از چنین چیزهایی میسازیم حتی اگر کسی تا به حال چنین چیزی به ذهنش نرسیده باشد! اما این کار دیگر محدود به بشر نیست!
امروز (۵ ژانویه ۲۰۲۱) کمپانی OpenAI نوع جدیدی از پژوهش مولتی مودال (Multimodal) به نام DALL.E را منتشر کرد که با گرفتن ورودی متنی تصویر متناظرش را میسازد (یا تخیل می کند!!). با اینکه این ایده جدید نیست اما کیفیت و دقت خروجی های OpenAI واقعا خیره کننده است. معماری این روش همانطور که ممکن است حدس زده باشید GPT3 و بر اساس ترنسفورمر ها است.
این سیستم ورودی های متن و تصویر را یکجا در یک استریم داده که متشکل از ۱۲۸۰ توکن است میگیرد و با استفاده از maximum likelihood به دنبال یافتن توکن بعدی است.
اما این مدل فراتر هم می رود و می تواند چیزهایی را تصور کند که بسیار به هم بی ربط هستند و قبلا به نظر می رسید که تنها ذهن انسان قادر به انجام آن باشد. مثلا: یک پنگوئن که از بادمجان درست شده است! و مدل قادر به بازنمایی آن است.
علاوه بر این ها مدل قادر به بازنمایی جملاتی است که نیاز به دانش دارند: مثلا غذای چینی یا پل گلدن بریج. جملاتی که نیاز به درک زمان دارند: یک تلفن در دهه بیست میلادی. و جملاتی که نیاز به استدلال تصویری دارند: کشیدن همان تصویر در یک زاویه دیگر یا تصور کردنش با رنگ و نوشته دیگر.
پست اصلی
Openai
DALL·E: Creating images from text
We’ve trained a neural network called DALL·E that creates images from text captions for a wide range of concepts expressible in natural language.
This media is not supported in your browser
VIEW IN TELEGRAM
دمویی از یان لیکان (یکی از بزرگان یادگیری عمیق) از سال ۱۹۹۳ زمانی که ۳۲ سال سن داشت و اولین شبکه کانولوشونی دنیا را برای تشخیص اعداد معرفی کرد.
ایالات متحده آمریکا دفتر هوش مصنوعی ملی (National Artificial Intelligence Initiative Office) را عملیاتی کرد. این دفتر که زیر مجموعه دفتر سیاست علم و فناوری است وظیفه دار دوبرابر کردن سرمایه گذاری در حوزه هوش مصنوعی، انتشار اولین راهنمای تنظیماتی هوش مصنوعی در جهان و کارهای دیگر است.
هدف اصلی این دفتر استفاده از تمامی امکانات فدرال برای نگه داشتن آمریکا به عنوان پرچم دار هوش مصنوعی و تکنولوژی های مرتبط با آن در دنیاست.
گمانه زنی های زیادی در مورد نقش این سازمان وجود دارد و برخی با دیده ی تردید به آن نگاه کرده و برخی از آن استقبال کرده اند. تلاش های دولتی آمریکا به عنوان مثال در حوزه فضا با بودجه های سرسام آور برای ناسا در دهه های ۶۰ و ۷۰ میلادی بسیار موثر بود اما شاید چنین ساز و کاری امروزه دیگر به همان قوت جواب ندهد. بیشتر شرکت ها به دنبال دخالت های کمتر دولتی و قوانین دست و پاگیر کمتر هستند. به عقیده آنها بازار آزاد و ثبات سیاسی در نهایت کشور را در صدر نگه می دارد
از طرفی نماد این دفتر هم جالب توجه است. این نماد نشان دهنده شبکه ی عصبی با ۸ نود است که نود هشتم به سمت مرکز عقاب و پرچم آمریکا برمیگردد.
هدف اصلی این دفتر استفاده از تمامی امکانات فدرال برای نگه داشتن آمریکا به عنوان پرچم دار هوش مصنوعی و تکنولوژی های مرتبط با آن در دنیاست.
گمانه زنی های زیادی در مورد نقش این سازمان وجود دارد و برخی با دیده ی تردید به آن نگاه کرده و برخی از آن استقبال کرده اند. تلاش های دولتی آمریکا به عنوان مثال در حوزه فضا با بودجه های سرسام آور برای ناسا در دهه های ۶۰ و ۷۰ میلادی بسیار موثر بود اما شاید چنین ساز و کاری امروزه دیگر به همان قوت جواب ندهد. بیشتر شرکت ها به دنبال دخالت های کمتر دولتی و قوانین دست و پاگیر کمتر هستند. به عقیده آنها بازار آزاد و ثبات سیاسی در نهایت کشور را در صدر نگه می دارد
از طرفی نماد این دفتر هم جالب توجه است. این نماد نشان دهنده شبکه ی عصبی با ۸ نود است که نود هشتم به سمت مرکز عقاب و پرچم آمریکا برمیگردد.
🔵Some notes on the success of OpenAI in AI🔵
1- The raw power of dataset design. These models aren't radically new in their architecture or training algorithm. Instead, their impressive quality is largely due to careful training at scale of existing models on large, diverse datasets that OpenAI designed and collected.
2- Why does diverse data matter? Robustness. Can't generalize out-of-domain? You might be able to make most things in-domain by training on the internet. But this power comes w/ a price: the internet has some extremely dark corners (and these datasets have been kept private)
3- The "data-ing" is often more important than the modeling And openai put *painstaking* effort into the data-ing for these models.
4- The promise of "impact teams." Teams that are moderately large, well-resourced, and laser-focused on an ambitious objective can accomplish a lot
5-The openai teams are multidisciplinary—different members work on algorithms, data collection, infra, evaluation, policy/fairness, etc. This is hard in academia, not just b/c of resources but also incentives—academia often doesn't assign credit well to members of large teams
6 - Soul-searching for academic researchers? A lot of people around me are asking: what can I do in my PhD that will matter? we don't expect AeroAstro PhD students to build the next airliner
7- I'm also optimistic here—I think there a lot of opportunity for impact in academia, including advancing:
- efficiency
- equity
- domain-agnosticity
- safety + alignment
- evaluation
- theory
…and many other as-of-yet undiscovered phenomena!
8- We're entering a less open era of research. Companies don't want to release these models, both because of genuine safety concerns but also potentially because of their bottom line.
thread
1- The raw power of dataset design. These models aren't radically new in their architecture or training algorithm. Instead, their impressive quality is largely due to careful training at scale of existing models on large, diverse datasets that OpenAI designed and collected.
2- Why does diverse data matter? Robustness. Can't generalize out-of-domain? You might be able to make most things in-domain by training on the internet. But this power comes w/ a price: the internet has some extremely dark corners (and these datasets have been kept private)
3- The "data-ing" is often more important than the modeling And openai put *painstaking* effort into the data-ing for these models.
4- The promise of "impact teams." Teams that are moderately large, well-resourced, and laser-focused on an ambitious objective can accomplish a lot
5-The openai teams are multidisciplinary—different members work on algorithms, data collection, infra, evaluation, policy/fairness, etc. This is hard in academia, not just b/c of resources but also incentives—academia often doesn't assign credit well to members of large teams
6 - Soul-searching for academic researchers? A lot of people around me are asking: what can I do in my PhD that will matter? we don't expect AeroAstro PhD students to build the next airliner
7- I'm also optimistic here—I think there a lot of opportunity for impact in academia, including advancing:
- efficiency
- equity
- domain-agnosticity
- safety + alignment
- evaluation
- theory
…and many other as-of-yet undiscovered phenomena!
8- We're entering a less open era of research. Companies don't want to release these models, both because of genuine safety concerns but also potentially because of their bottom line.
thread
Twitter
Alex Tamkin
Some takeaways from @openai's impressive recent progress, including GPT-3, CLIP, and DALL·E: [THREAD] 👇1/
🔵معمای دانش متعارفی🔵
چگونه ما جهان اطرافمان را براحتی درک میکنیم اما هوش مصنوعی در درک آن دچار مشکل است. یکی از بزرگترین سوالات هوش مصنوعی از روز های نخست این بود که چگونه میتوان آنچه را که به نام «فهم متعارفی» (common sense) میشناسیم در سیستم های هوش مصنوعی وارد کنیم. به طور مثال اگر من بگویم فلانی چاق است و به دکتر رفته است شما می دانید که او دکتر تغذیه رفته است یا حتی ضمنی تر او باید زمانی را با دکتر تنظیم کند یا اینکه معمولا مردم پیش دکتر می روند نه اینکه دکتر پیش ان ها بیاید. و غیره و غیره! اینها فهم ما از جهان اطراف است که جایی نوشته نشده است ولی همه ما می دانیم! آن ها در واقع دانش پیش زمینه ای هستند که تعامل ما با بقیه را امکان پذیر می کند. حجم چنین دانشی بسیار بزرگتر از چیزی است که تصور می کنید.
تلاش های بسیار زیادی شده است که چنین دانشی را به مدل های هوش مصنوعی آموزش داده شود. حتی نوشتن این دانش خود مساله ی پیچیده ای است که روش های زیادی برای حمله کردن به آن وجود دارد. از پر کردن جای خالی در یک جمله گرفته تا استدلال در مورد وقایع غیر ممکن. مثلا ما می توانیم درک کنیم اگر فلان اتفاق نمی افتاد نتیجه اش چه میشد (counterfactual reasoning) یا با دادن چند کلمه می توانیم یک جمله از آن درست کنیم چون می توانیم رابطه ی بین مفاهیم را درک کنیم.
در نوشتار زیر من مهمترین دیتاست های این زمینه که بیشترشان توسط موسسه AllenAI توسعه داده شده اند را معرفی کرده ام. این نوشتار سعی شده کامل باشد و به تمام این مسائل اشاره کند
(به زبان انگلیسی)
https://hilbert-cantor.medium.com/a-curated-list-of-the-most-important-common-sense-datasets-in-nlp-66963567d00b
چگونه ما جهان اطرافمان را براحتی درک میکنیم اما هوش مصنوعی در درک آن دچار مشکل است. یکی از بزرگترین سوالات هوش مصنوعی از روز های نخست این بود که چگونه میتوان آنچه را که به نام «فهم متعارفی» (common sense) میشناسیم در سیستم های هوش مصنوعی وارد کنیم. به طور مثال اگر من بگویم فلانی چاق است و به دکتر رفته است شما می دانید که او دکتر تغذیه رفته است یا حتی ضمنی تر او باید زمانی را با دکتر تنظیم کند یا اینکه معمولا مردم پیش دکتر می روند نه اینکه دکتر پیش ان ها بیاید. و غیره و غیره! اینها فهم ما از جهان اطراف است که جایی نوشته نشده است ولی همه ما می دانیم! آن ها در واقع دانش پیش زمینه ای هستند که تعامل ما با بقیه را امکان پذیر می کند. حجم چنین دانشی بسیار بزرگتر از چیزی است که تصور می کنید.
تلاش های بسیار زیادی شده است که چنین دانشی را به مدل های هوش مصنوعی آموزش داده شود. حتی نوشتن این دانش خود مساله ی پیچیده ای است که روش های زیادی برای حمله کردن به آن وجود دارد. از پر کردن جای خالی در یک جمله گرفته تا استدلال در مورد وقایع غیر ممکن. مثلا ما می توانیم درک کنیم اگر فلان اتفاق نمی افتاد نتیجه اش چه میشد (counterfactual reasoning) یا با دادن چند کلمه می توانیم یک جمله از آن درست کنیم چون می توانیم رابطه ی بین مفاهیم را درک کنیم.
در نوشتار زیر من مهمترین دیتاست های این زمینه که بیشترشان توسط موسسه AllenAI توسعه داده شده اند را معرفی کرده ام. این نوشتار سعی شده کامل باشد و به تمام این مسائل اشاره کند
(به زبان انگلیسی)
https://hilbert-cantor.medium.com/a-curated-list-of-the-most-important-common-sense-datasets-in-nlp-66963567d00b
Medium
A curated list of the most important common-sense datasets in NLP
The problem of common sense and background knowledge is probably one of the most challenging problems in AI. Most of our reasoning about…
Forwarded from Charisma on Command
This media is not supported in your browser
VIEW IN TELEGRAM
Of course! I was an ordinary person who studied hard! there is no miracle people
تمام نویسندگان مقاله بوزون هیگز
این مقاله فیزیک با ۵۱۵۴ نویسنده رکورد بیشترین تعداد نویسنده یک مقاله در تاریخ را شکست.
تنها ۹ صفحه ی ابتدایی این مقاله ۳۳ صفحه ای در ۱۴ می ۲۰۱۵ در مقاله Physical Review Letters منتشر شد مابقی ۲۴ صفحه اسم نویسندگان و محل های پژوهششان بود.
قبلا زیست شناسان از انتشار مقاله ای با بیش از ۱۰۰۰ نویسنده ناراحت بودند اما چنین پدیده ای در فیزیک سابقه دارد. در سال ۲۰۰۸ هم مقاله ی دیگری با ۳۰۰۰ نویسنده در مورد آزمایش CMS انجام شده بود
این مقاله فیزیک با ۵۱۵۴ نویسنده رکورد بیشترین تعداد نویسنده یک مقاله در تاریخ را شکست.
تنها ۹ صفحه ی ابتدایی این مقاله ۳۳ صفحه ای در ۱۴ می ۲۰۱۵ در مقاله Physical Review Letters منتشر شد مابقی ۲۴ صفحه اسم نویسندگان و محل های پژوهششان بود.
قبلا زیست شناسان از انتشار مقاله ای با بیش از ۱۰۰۰ نویسنده ناراحت بودند اما چنین پدیده ای در فیزیک سابقه دارد. در سال ۲۰۰۸ هم مقاله ی دیگری با ۳۰۰۰ نویسنده در مورد آزمایش CMS انجام شده بود
فرض کنید دوستتان ادعا میکند که یک سکه ی بدون مشکل (fair) دارد اما صد بار سکه را می اندازد و هر بار شیر می آید. اعتراض میکنید که چنین چیزی ممکن نیست اما او میگوید طبق نظریه احتمال آمدن چنین دنباله ای (½)^ 100 است دقیقا مانند هر دنباله ی دیگری که ممکن بود بیاید. پس اتفاق عجیبی رخ نداده است! این حرف درست است بنابراین یک جای کار می لگند! فکر کنید!
ادامه دارد..
ادامه دارد..
مدل GPT-2 برای زبان فارسی (ParsGPT2)
بالاخره تیم هوشواره مدل GPT-2 را برای زبان فارسی آموزش داد. اینجا می توانید آن را تست کنید
بالاخره تیم هوشواره مدل GPT-2 را برای زبان فارسی آموزش داد. اینجا می توانید آن را تست کنید
احتمال منطق دانش
یکی از مشکلات و بدفهمی هایی که دانشجویان و حتی اساتید در درک بخش های زیادی از مفاهیم هوش مصنوعی مانند تشخیص الگوی آماری و یادگیری ماشین دارند، تشخیص ندادن تفاوت دو رویکرد کاملا متفاوت در آمار و احتمال به روش شناسی(Methodology) و معرفت شناسی (Epistemology) بنیادی ترین مفاهیم آمارو احتمال است. در اساس در میان تفاسیر گوناگون احتمال دو رویکرد مهم و متفاوت به تفسیر احتمال وجود دارد: احتمال بیزین و احتمال فرکانسی.
احتمال بیزین مقداری است که به یک حالت از دانش(state of knowledge) یا حالتی از باور(state of belief) اختصاص داده می شود. می توان احتمال بیز را به عنوان ادامه ی منطق گزاره ای دانست که ما را قادر می کند با فرضیات (Hypothesis) استدلال کنیم. فرضیات گزاره هایی می شوند که درستی و غلطی آن ها نامشخص است. از دیدگاه بیزی یک احتمال به فرضیه اختصاص داده می شود، در حالی که در احتمال فرکانسی یک فرضیه بدون هیچ احتمالی، مورد آزمون قرار می گیرد.
بنیادی ترین تفاوت این دو تفسیر در معرفت شناسی آن هاست: فرکانسی ها عینی گرا هستند به این معنا که احتمال را به صورت معقول بودن یک گزاره قابل تفسیر می دانند. به عبارت دیگر، احتمال یک گزاره متناظر است با یک باور معقول بین همه ی افراد (حتی یک ربات) که مجموعه ای از دانش مشترک دارند. این باور معقول باید مطابق با قوانین احتمال که خود با معیار های عقلانیت و سازگاری قابل توجیه اند، باشد. اما بیزین ها ذهنی گرا هستند بیزین ها قبول دارند که معیار های عقلانیت و سازگاری احتمال هایی که یک شخص دارد را محدود می کند اما این معیار ها باعث نمی شوند همه به یک نتیجه در مورد احتمال رویداد ها برسند زیرا معیارهای عقلانیت هنوز اجازه تغییرات زیادی در محاسبه احتمال می دهند. این تفاوت خود را در محاسبه احتمال های پیشینی(prior probabilities) نشان می دهد.
اگر زیاد اهل فلسفه نباشید شاید نتوانید با پاراگراف قبل ارتباط برقرار کنید اما باز هم راه های زیاد وجود دارد که بدانیم این تفاوت ها چیست. بسیاری از دوره های درسی در دنیا(از جمله ایران) مفهوم احتمال را با شمارش حالات و نیز مباحث ترکیبیات شروع می کنند اما تقریبا تمام آن چیزی که در آمار و احتمال کاربردی مانند مباحث هوش مصنوعی وجود دارد با این مفاهیم سر و کاری ندارد و حتی جالب تر از آن درک روزمره ما از احتمال هم بیشتر بیزینی است. تحقیقات زیادی در علوم شناختی نشان داده اند که ما انسان ها(و حتی بیشتر جانوران دیگر) مادرزادی بیزینی به دنیا می آییم. همانطور که بزودی در ادامه مبحث می بینیم این مزیت فوق العاده ای برای ماست.
https://vrgl.ir/8vD35
یکی از مشکلات و بدفهمی هایی که دانشجویان و حتی اساتید در درک بخش های زیادی از مفاهیم هوش مصنوعی مانند تشخیص الگوی آماری و یادگیری ماشین دارند، تشخیص ندادن تفاوت دو رویکرد کاملا متفاوت در آمار و احتمال به روش شناسی(Methodology) و معرفت شناسی (Epistemology) بنیادی ترین مفاهیم آمارو احتمال است. در اساس در میان تفاسیر گوناگون احتمال دو رویکرد مهم و متفاوت به تفسیر احتمال وجود دارد: احتمال بیزین و احتمال فرکانسی.
احتمال بیزین مقداری است که به یک حالت از دانش(state of knowledge) یا حالتی از باور(state of belief) اختصاص داده می شود. می توان احتمال بیز را به عنوان ادامه ی منطق گزاره ای دانست که ما را قادر می کند با فرضیات (Hypothesis) استدلال کنیم. فرضیات گزاره هایی می شوند که درستی و غلطی آن ها نامشخص است. از دیدگاه بیزی یک احتمال به فرضیه اختصاص داده می شود، در حالی که در احتمال فرکانسی یک فرضیه بدون هیچ احتمالی، مورد آزمون قرار می گیرد.
بنیادی ترین تفاوت این دو تفسیر در معرفت شناسی آن هاست: فرکانسی ها عینی گرا هستند به این معنا که احتمال را به صورت معقول بودن یک گزاره قابل تفسیر می دانند. به عبارت دیگر، احتمال یک گزاره متناظر است با یک باور معقول بین همه ی افراد (حتی یک ربات) که مجموعه ای از دانش مشترک دارند. این باور معقول باید مطابق با قوانین احتمال که خود با معیار های عقلانیت و سازگاری قابل توجیه اند، باشد. اما بیزین ها ذهنی گرا هستند بیزین ها قبول دارند که معیار های عقلانیت و سازگاری احتمال هایی که یک شخص دارد را محدود می کند اما این معیار ها باعث نمی شوند همه به یک نتیجه در مورد احتمال رویداد ها برسند زیرا معیارهای عقلانیت هنوز اجازه تغییرات زیادی در محاسبه احتمال می دهند. این تفاوت خود را در محاسبه احتمال های پیشینی(prior probabilities) نشان می دهد.
اگر زیاد اهل فلسفه نباشید شاید نتوانید با پاراگراف قبل ارتباط برقرار کنید اما باز هم راه های زیاد وجود دارد که بدانیم این تفاوت ها چیست. بسیاری از دوره های درسی در دنیا(از جمله ایران) مفهوم احتمال را با شمارش حالات و نیز مباحث ترکیبیات شروع می کنند اما تقریبا تمام آن چیزی که در آمار و احتمال کاربردی مانند مباحث هوش مصنوعی وجود دارد با این مفاهیم سر و کاری ندارد و حتی جالب تر از آن درک روزمره ما از احتمال هم بیشتر بیزینی است. تحقیقات زیادی در علوم شناختی نشان داده اند که ما انسان ها(و حتی بیشتر جانوران دیگر) مادرزادی بیزینی به دنیا می آییم. همانطور که بزودی در ادامه مبحث می بینیم این مزیت فوق العاده ای برای ماست.
https://vrgl.ir/8vD35
ویرگول
احتمال منطق دانش
یکی از مشکلات و بدفهمی هایی که دانشجویان و حتی اساتید در درک بخش های زیادی از مفاهیم هوش مصنوعی مانند تشخیص الگوی آماری و یادگیری ماشین دار…