Forwarded from زانکو (Javad Amirian)
Media is too big
VIEW IN TELEGRAM
ویدیویی از تولید چهره های جذاب توسط شبکه های GAN
هیچ کدام از چهره ها در این ویدئو واقعی نیستند و محصول تخیل ماشین اند.
هیچ کدام از چهره ها در این ویدئو واقعی نیستند و محصول تخیل ماشین اند.
Forwarded from زانکو (Javad Amirian)
تصاویری از چهره های جذاب تولید شده توسط شبکه های GAN
هیچ کدام از چهره ها در این تصویر واقعی نیستند و محصول تخیل ماشین اند.
هیچ کدام از چهره ها در این تصویر واقعی نیستند و محصول تخیل ماشین اند.
برشی از یک کتاب
بجز چند استثنا آتیست های امروزه همگی خود را لیبرال می دانند اما آتیسم به خودی خود هیچ محتوای سیاسی ندارد و بسیاری از آتیست ها در گذشته ضد لیبرال بودند. به طور مثال ولتر دیدگاه هایی داشت که تنها می توان گفت نژاد پرستانه است. بنیان گذاران فاشیسم و مارکسیسم هم لیبرال نبودند. بیولوژیست قرن نوزدهم Ernst Haeckel که به عنوان داروین آلمانی شناخته می شود مذهب فرگشتی ای را ایجاد که که بر اساس سلسله مراتب نژادی بود. Julian Huxley هم که یکی دیگر از پدران اومانیسم فرگشتی است همین عقاید را داشت. که در نهایت سنگ بناهای جنگ جهانی دوم شد به طور کلی آنچه به عنوان "علم اخلاق" می شناسیم بیشتر تابع ارزش های زمان خود بوده تا چیزی به اسم حقیقت!
امروز ما در جهان متفاوتی زندگی نمی کنیم sam harris آتیست جدید آمریکایی معتقد است که می تواند یک علم برای خوب و بد ایجاد کرد. به نظر او علم ارزش های لیبرال و خود مختاری شخصی را حمایت می کند. اما اینکه چرا باید اینطور باشد هرگز مورد سوال قرار نگرفته است. بسیاری از سیستم های ارزشی ادعا کرده اند که از حمایت علمی برخوردار هستند.
اگر شما الهیات را پشت سر بگذارید باید قبول کنید که ارزشهای انسانی نمی توانند مستقل از نیازها و تصمیمات بشر باشند. بدون شک برخی از ارزش ها جهانی هستند همان هایی که در اعلامیه جهانی حقوق بشر آمده اند مانند اینکه شکنجه یا تعقیب کردن افراد غلط است. اما ارزش های جهانی منجر به یک اخلاق جهانی نمی شوند این اشتباهی است که تقریبا همه ی پیروان سیستم های اخلاقی می کنند. دین باوران معتقدند ارزش های آنها جهان شمول هست چون از فطرت بشر می آید ناخداباوران هم ارزش های اخلاقی خود را ملهم از علم و تمدن امروزی میدانند. اما در واقعیت ارزش های اخلاقی جهانی پیش از آنکه به صورت مجموعه ای از آموزه های اخلاقی منسجم در بیایند با هم در تضاد قرار میگیرند. آیا شما آزادی بیشتر را به قیمت از دست دادن امنیت می طلبید؟ آیا به صلح معتقد هستید حتی اگر به معنای ادامه بی عدالتی باشد؟ وقتی افراد و گروه ها بین ارزش های جهانی ای که در یک زمینه خاص متضادهستند، قرار میگیرند سیستم های اخلاقی متفاوتی را می سازند. هر کسی که می خواهد اخلاقیاتش با چیزی فراتر جهان بی ثبات بشری حفظ شود بهتر است به ادیان قدیم مراجعه کند.
Seven Types of Atheism by John Gray
بجز چند استثنا آتیست های امروزه همگی خود را لیبرال می دانند اما آتیسم به خودی خود هیچ محتوای سیاسی ندارد و بسیاری از آتیست ها در گذشته ضد لیبرال بودند. به طور مثال ولتر دیدگاه هایی داشت که تنها می توان گفت نژاد پرستانه است. بنیان گذاران فاشیسم و مارکسیسم هم لیبرال نبودند. بیولوژیست قرن نوزدهم Ernst Haeckel که به عنوان داروین آلمانی شناخته می شود مذهب فرگشتی ای را ایجاد که که بر اساس سلسله مراتب نژادی بود. Julian Huxley هم که یکی دیگر از پدران اومانیسم فرگشتی است همین عقاید را داشت. که در نهایت سنگ بناهای جنگ جهانی دوم شد به طور کلی آنچه به عنوان "علم اخلاق" می شناسیم بیشتر تابع ارزش های زمان خود بوده تا چیزی به اسم حقیقت!
امروز ما در جهان متفاوتی زندگی نمی کنیم sam harris آتیست جدید آمریکایی معتقد است که می تواند یک علم برای خوب و بد ایجاد کرد. به نظر او علم ارزش های لیبرال و خود مختاری شخصی را حمایت می کند. اما اینکه چرا باید اینطور باشد هرگز مورد سوال قرار نگرفته است. بسیاری از سیستم های ارزشی ادعا کرده اند که از حمایت علمی برخوردار هستند.
اگر شما الهیات را پشت سر بگذارید باید قبول کنید که ارزشهای انسانی نمی توانند مستقل از نیازها و تصمیمات بشر باشند. بدون شک برخی از ارزش ها جهانی هستند همان هایی که در اعلامیه جهانی حقوق بشر آمده اند مانند اینکه شکنجه یا تعقیب کردن افراد غلط است. اما ارزش های جهانی منجر به یک اخلاق جهانی نمی شوند این اشتباهی است که تقریبا همه ی پیروان سیستم های اخلاقی می کنند. دین باوران معتقدند ارزش های آنها جهان شمول هست چون از فطرت بشر می آید ناخداباوران هم ارزش های اخلاقی خود را ملهم از علم و تمدن امروزی میدانند. اما در واقعیت ارزش های اخلاقی جهانی پیش از آنکه به صورت مجموعه ای از آموزه های اخلاقی منسجم در بیایند با هم در تضاد قرار میگیرند. آیا شما آزادی بیشتر را به قیمت از دست دادن امنیت می طلبید؟ آیا به صلح معتقد هستید حتی اگر به معنای ادامه بی عدالتی باشد؟ وقتی افراد و گروه ها بین ارزش های جهانی ای که در یک زمینه خاص متضادهستند، قرار میگیرند سیستم های اخلاقی متفاوتی را می سازند. هر کسی که می خواهد اخلاقیاتش با چیزی فراتر جهان بی ثبات بشری حفظ شود بهتر است به ادیان قدیم مراجعه کند.
Seven Types of Atheism by John Gray
Forwarded from زانکو (Javad Amirian)
"مجری خبر مصنوعی" چینی هم رسید!
شبکه سیبیسی چین با همکاری شرکت سوگو (مالک موتور جستجوی Sogou) یک مجری خبر مصنوعی را با کمک دادههای یک مجری واقعی، طراحی کردهاند که میتواند اخبار را مانند یک گوینده خبر واقعی اجرا کند.
آنها برای مخاطبان چینی و انگلیسی زبان دو نسخه متفاوت ارائه کردهاند.
خلاقیت این کاراکتر مصنوعی، صرفا خواندن خبر نیست بلکه ژست و حالت چهره ای است که هنگام خواندن یک خبر به خود می گیرد تا بتواند بیشترین تاثیر را روی بیننده داشته باشد.
کما اینکه اگر خبر یک حادثه تلخ یا یک پیروزی ملی باشد باید حس مجری متفاوت باشد.
برای یادگیری این سیستم، صحبت ها، حرکات لب و حالات صورت مجری واقعی جمع آوری شده و به ماشین داده شده است. حالا این مجری می تواند 24 ساعته و به طرز خستگی ناپذیری اجرای اخبار یک شبکه را بر عهده بگیرد.
پ. ن.
در حال حاضر این تکنولوژی، بیشتر، خوراک ساخت انیمشین و بازیهای کامپیوتری است، تا این که واقعا در شبکههای خبری استفاده شود.
نگرانی برخی ها این است که این فناوری می تواند مورد سوء استفاده سودجویان قرار گیرد تا با آن اخباری جعلی و دروغی را در غالب یک خبر رسمی درآورده و در شبکه های اجتماعی منتشر کنند.
بطور کلیتر، این فناوری نوعی از Deep fake است که در آینده از آن بیشتر خواهم نوشت!
لینک خبر در زیر
https://bit.ly/2OGrAQ3
جواد امیریان
@zankoo_ai
شبکه سیبیسی چین با همکاری شرکت سوگو (مالک موتور جستجوی Sogou) یک مجری خبر مصنوعی را با کمک دادههای یک مجری واقعی، طراحی کردهاند که میتواند اخبار را مانند یک گوینده خبر واقعی اجرا کند.
آنها برای مخاطبان چینی و انگلیسی زبان دو نسخه متفاوت ارائه کردهاند.
خلاقیت این کاراکتر مصنوعی، صرفا خواندن خبر نیست بلکه ژست و حالت چهره ای است که هنگام خواندن یک خبر به خود می گیرد تا بتواند بیشترین تاثیر را روی بیننده داشته باشد.
کما اینکه اگر خبر یک حادثه تلخ یا یک پیروزی ملی باشد باید حس مجری متفاوت باشد.
برای یادگیری این سیستم، صحبت ها، حرکات لب و حالات صورت مجری واقعی جمع آوری شده و به ماشین داده شده است. حالا این مجری می تواند 24 ساعته و به طرز خستگی ناپذیری اجرای اخبار یک شبکه را بر عهده بگیرد.
پ. ن.
در حال حاضر این تکنولوژی، بیشتر، خوراک ساخت انیمشین و بازیهای کامپیوتری است، تا این که واقعا در شبکههای خبری استفاده شود.
نگرانی برخی ها این است که این فناوری می تواند مورد سوء استفاده سودجویان قرار گیرد تا با آن اخباری جعلی و دروغی را در غالب یک خبر رسمی درآورده و در شبکه های اجتماعی منتشر کنند.
بطور کلیتر، این فناوری نوعی از Deep fake است که در آینده از آن بیشتر خواهم نوشت!
لینک خبر در زیر
https://bit.ly/2OGrAQ3
جواد امیریان
@zankoo_ai
CNBC
The 'world's first' A.I. news anchor has gone live in China
"English AI Anchor" debuted at the World Internet Conference in the country's eastern Zhejiang Province. Modeled on the agency's Zhang Zhao presenter, the new anchor learns from live videos and is able to work 24 hours a day.
Forwarded from زانکو (Javad Amirian)
This media is not supported in your browser
VIEW IN TELEGRAM
مجری خبر مصنوعی که می تواند به شکلی طبیعی، اخبار را بخواند.
این فناوری چینی نوعی از deep fake است که در آینده خطرات زیادی را متوجه رسانه های رسمی میکند.
@zankoo_ai
این فناوری چینی نوعی از deep fake است که در آینده خطرات زیادی را متوجه رسانه های رسمی میکند.
@zankoo_ai
Forwarded from زانکو (Javad Amirian)
دوستان عزیز،
اکثر مطالبی که در کانال قرار می دهیم، سعی میشود با مطالعه مقالات و اخبار روز تکنولوژی و هوش مصنوعی در اختیار شما قرار گیرد.
ما تصمیم گرفتیم در کنار مشغله های کاریمان، زمانی را به ترجمه و انتقال این دانشها، به بقیه اختصاص دهیم.
ما اینجا قصد نداریم نظرات شخصی و نامرتبط خود را قرار دهیم.
با انتشار مطالب زانکو و دعوت دوستانمان، هم میتوانیم این مطالب را به دست کسانی برسانیم که مثل ما، به موضوعات علمی علاقمندند،
و هم به ما انگیزه و جهت میدهید تا با انرژی بیشتری این فعالیت را دنبال کنیم.
جواد امیریان
زانکو
@zankoo_ai
t.iss.one/zankoo_ai
اکثر مطالبی که در کانال قرار می دهیم، سعی میشود با مطالعه مقالات و اخبار روز تکنولوژی و هوش مصنوعی در اختیار شما قرار گیرد.
ما تصمیم گرفتیم در کنار مشغله های کاریمان، زمانی را به ترجمه و انتقال این دانشها، به بقیه اختصاص دهیم.
ما اینجا قصد نداریم نظرات شخصی و نامرتبط خود را قرار دهیم.
با انتشار مطالب زانکو و دعوت دوستانمان، هم میتوانیم این مطالب را به دست کسانی برسانیم که مثل ما، به موضوعات علمی علاقمندند،
و هم به ما انگیزه و جهت میدهید تا با انرژی بیشتری این فعالیت را دنبال کنیم.
جواد امیریان
زانکو
@zankoo_ai
t.iss.one/zankoo_ai
Telegram
زانکو
زانکو (دانشگاه)
گاهنامهای از رباتیک، هوش مصنوعی و تجربیات دنیای استارتاپ
سعی میکنیم مطالبی را اینجا قرار دهیم که شما به طور معمول در وب فارسی یا کانال های دیگر پیدا نمی کنید.
ارتباط با ادمین
@amiryanj
@roholazandie
گاهنامهای از رباتیک، هوش مصنوعی و تجربیات دنیای استارتاپ
سعی میکنیم مطالبی را اینجا قرار دهیم که شما به طور معمول در وب فارسی یا کانال های دیگر پیدا نمی کنید.
ارتباط با ادمین
@amiryanj
@roholazandie
This media is not supported in your browser
VIEW IN TELEGRAM
تبدیل طراحی روی تخته به کد css و وب با استفاده از فناوری پردازش تصویر!
این بخش بزرگی از کد زنی را برای کسانی که هیچ ایده ای از طراحی وب ندارند راحت میکند. فقط یه ماژیک و برنامه تبدیل!!
این بخش بزرگی از کد زنی را برای کسانی که هیچ ایده ای از طراحی وب ندارند راحت میکند. فقط یه ماژیک و برنامه تبدیل!!
🔵یادگیری عمیق، مغز و متافیزیک!(قسمت هشتم)🔵
در مورد این حرف زدیم که مدل ها باید ساده یا دارای کمترین پیش فرض ممکن باشند. اما چقدر ساده؟ آلبرت اینشتین می گوید: همه چیز باید تا جای ممکن ساده شود اما نه بیشتر! چه اتفاقی می افتد اگر مدل بیش از حد ساده باشد؟ برای درک این موضوع شکل زیر را در نظر بگیرید.
در مورد این حرف زدیم که مدل ها باید ساده یا دارای کمترین پیش فرض ممکن باشند. اما چقدر ساده؟ آلبرت اینشتین می گوید: همه چیز باید تا جای ممکن ساده شود اما نه بیشتر! چه اتفاقی می افتد اگر مدل بیش از حد ساده باشد؟ برای درک این موضوع شکل زیر را در نظر بگیرید.
فرض کنید مجموعه از نقاط به شکل بالا داریم که داده های ما هستند. این داده ها دارای یک متغیر مستقل یعنی x و یک متغیر وابسته یعنی y هستند. این داده ها از چه مدلی یا توزیعی پیروی میکنند؟ می توان سه حالت در نظر گرفت. حالت اول یک فرضیه بسیار ساده است. یعنی فرض کنیم که داده ها از یک رابطه خطی بین متغیر اول و دوم آمده باشند(شکل اول سمت چپ). و عدم تبعیت هم صرفا یک نویز است. اما مشاهده میکنید که خطای این مدل خیلی بالاست. حالت دوم یک مدل بسیار پیچیده است. در این حالت خطا صفر است! اما این مدل آنقدر پیچیده شده که با دیدن داده های جدید نمی تواند آن را توضیح دهد و نیاز دارد که باز هم داستان جدید برای آن درست کند. در نهایت شکل سوم از سمت چپ یک مصالحه بین پیچیدگی و دقت انجام داده است.
پیچیدگی در این حالت می تواند به طول کوتاه ترین برنامه تعبیر شود که یک چند جمله ای را تولید میکند. طول این برنامه متناظر با درجه چند جمله ای است. حالت اول خطی است پس یک پارامتر دارد. حالت دوم درجه بالایی دارد(مثلا ۲۰) و سومی میانه است(درجه چهارم).
در هر کدام از حالت ها فرضیه به ما کمک میکند تا داده ها را فشرده تر توضیح دهیم. اگر شما یک پارامتر داشته باشید می توانید قدری داده ها را فشرده تر توضیح دهید اما با بیست پارامتر توضیح داده ها بسیار فشرده تر می شود اما مشکل، بزرگ شدن خود مدل است. پس ما دو اندازه داریم که میخواهیم همزمان کوچک کنیم:
۱- طول داده ها به کمک فرضیه (L(D|H
۲- طول فرضیه L(H)
که در اینجا L تابعی است که طول داده یا فرضیه را به بیت محاسبه می کند D داده و H فرضیه است. فرضیه ای که مطابقت خوبی با داده ها داشته باشد به ما کمک می کند که داده ها را بیشتر فشرده کنیم. مثلا فرضیه ای که می گوید حروف زبان همه با یک احتمال ظاهر می شود یک فرضیه فوق العاده ساده(L(H) کوتاه) ولی بدون قدرت فشرده سازی است(L(D|H) بسیار بلند) اما فرضیه اینکه حروف زبان دارای توزیع مشخصی هستند که در ان "آ" دارای بیشترین احتمال و "ژ" دارای کمترین احتمال است، به ما کمک کرد که داده ها را فشرده تر کنیم. و درنهایت مدلی که در ذهن یک انسان از زبان وجود دارد دارای بیشترین قدرت فشرده سازی است!
در مثال بالا برای خط، L(H1) کوتاه است (یک فرضیه ساده با یک پارامتر) ولی L(D|H1) بلند است! چون فقط با این فرضیه نمی توان خیلی در مورد داده توضیح داده و آن را فشرده کرد.
برای دومین فرضیه L(H3) بسیار طولانی است(یک فرضیه پیچیده با تعداد زیادی پارامتر) اما L(D|H3) کوتاه است. این فرضیه کاملا بر داده های مشاهداتی منطبق است. اما دقت کنید این باعث می شود مدل نتواند داده های جدید را خوب توضیح دهد! انگار مدل فقط داده های موجود را به خاطر سپرده است.
و برای سومین حالت L(H2) و L(D|H2) هر دو متوسط هستند
پیچیدگی در این حالت می تواند به طول کوتاه ترین برنامه تعبیر شود که یک چند جمله ای را تولید میکند. طول این برنامه متناظر با درجه چند جمله ای است. حالت اول خطی است پس یک پارامتر دارد. حالت دوم درجه بالایی دارد(مثلا ۲۰) و سومی میانه است(درجه چهارم).
در هر کدام از حالت ها فرضیه به ما کمک میکند تا داده ها را فشرده تر توضیح دهیم. اگر شما یک پارامتر داشته باشید می توانید قدری داده ها را فشرده تر توضیح دهید اما با بیست پارامتر توضیح داده ها بسیار فشرده تر می شود اما مشکل، بزرگ شدن خود مدل است. پس ما دو اندازه داریم که میخواهیم همزمان کوچک کنیم:
۱- طول داده ها به کمک فرضیه (L(D|H
۲- طول فرضیه L(H)
که در اینجا L تابعی است که طول داده یا فرضیه را به بیت محاسبه می کند D داده و H فرضیه است. فرضیه ای که مطابقت خوبی با داده ها داشته باشد به ما کمک می کند که داده ها را بیشتر فشرده کنیم. مثلا فرضیه ای که می گوید حروف زبان همه با یک احتمال ظاهر می شود یک فرضیه فوق العاده ساده(L(H) کوتاه) ولی بدون قدرت فشرده سازی است(L(D|H) بسیار بلند) اما فرضیه اینکه حروف زبان دارای توزیع مشخصی هستند که در ان "آ" دارای بیشترین احتمال و "ژ" دارای کمترین احتمال است، به ما کمک کرد که داده ها را فشرده تر کنیم. و درنهایت مدلی که در ذهن یک انسان از زبان وجود دارد دارای بیشترین قدرت فشرده سازی است!
در مثال بالا برای خط، L(H1) کوتاه است (یک فرضیه ساده با یک پارامتر) ولی L(D|H1) بلند است! چون فقط با این فرضیه نمی توان خیلی در مورد داده توضیح داده و آن را فشرده کرد.
برای دومین فرضیه L(H3) بسیار طولانی است(یک فرضیه پیچیده با تعداد زیادی پارامتر) اما L(D|H3) کوتاه است. این فرضیه کاملا بر داده های مشاهداتی منطبق است. اما دقت کنید این باعث می شود مدل نتواند داده های جدید را خوب توضیح دهد! انگار مدل فقط داده های موجود را به خاطر سپرده است.
و برای سومین حالت L(H2) و L(D|H2) هر دو متوسط هستند
اینجا می توانیم توقف کنیم تا به چند اصل فلسفی در نحوه یافتن فرضیه ها بپردازیم. یاد گرفتیم که نظم در داده ها می تواند برای فشرده سازی آن استفاده شود و همچنین یادگیری چیزی جز یافتن این الگوها یا نظم ها نیست. باید توجه کنیم که روش های یادگیری باید یک تفسیر دقیق داشته باشند جدای از این موضوع که آیا مدل ها "درست" هستند یا خیر! بر اساس J.Rissanen که یکی از ایده پردازان اصلی MDL است:
ما هرگز نمیخواهیم این دچار این پیش فرض غلط شویم که داده های مشاهداتی واقعا توسط یک توزیع مثلا گاوسی تولید می شوند و سپس جلوتر برویم و بر اساس این فرض چیزهای دیگری را نتیجه گیری کنیم. این نتیجه گیری ها ممکن است جالب باشند ولی به موضوعی که داریم یعنی یاد گرفتن ویژگی های مفید از داده بی ربط هستند.
فلسفه ریزانن را می توان بیشتر باز کرد:
1- نظم به عنوان فشرده سازی: بر اساس ریزانن هدف استدلال استقرایی(یادگیری) بیرون کشیدن نظم موجود در داده ها است. تا بتوان تا جای ممکن الگو(اطلاعات معنی دار) را از نویز(اطلاعات تصادفی) بیرون کشید.
2- مدل ها به عنوان زبان ها: ریزانن مدل ها را زبان های مفیدی توصیف می کند که ویژگی های مفید داده ها را توضیح می دهند. مدل های مختلف چون زبان های مختلف جنبه های مختلفی از یک مجموعه ی واحد از داده ها را بر ملا می کنند. در این جا اصلا به این موضوع کار نداریم که مدل واقعی یا حقیقی در پس پشت داده ها کدام است. چنین چیزی به هیچ عنوان موضوعیت ندارد. در تصویر سنتی فرض میکردند داده ها از یک فرضیه می آیند که آن فرضیه "حقیقت" پدیده است. و اگر خطاهایی در مشاهده وجود دارد آن ها هم نویز هستند. اما در این دیدگاه نویز نسبت به مدل تعریف می شود! به عبارت فنی تر نویز میزان اطلاعات اضافی در واحد بیت است که برای کد کردن داده به شرط مدل باید اضافه کنیم. بنابراین نویز، یک متغیر تصادفی نیست: بلکه یک تابع از مدل انتخابی و داده های مشاهده شده است. به این ترتیب جایی برای "توزیع واقعی" یا "حالت واقعی طبیعت" (true state of nature) وجود ندارد تنها مدل ها و داده ها وجود دارند. بنابراین اگر در یک آزمایش این گزاره بیان شود که: "این داده های تجربی بسیار نویزی هستند" بنابر دیدگاه سنتی به معنی آن است که داده از یک توزیع با واریانس بالا می ایند اما در دیدگاه جدید تنها به این معناست که داده ها با مدل های موجود قابل فشرده سازی نیست اما نمی توان این امکان که یک مدل بتواند آن را فشرده سازی کرده و توضیح دهد را رد کرد.
3- ما فقط داده داریم: بسیاری از روش های سنتی در یادگیری به "حالت واقعی طبیعت" قایل هستند. یعنی قوانینی که داده های تجربی را توضیح میدهند. بر اساس دیدگاه ریزانن این روش ها از اساس به خطا می روند. دلیل اصلی این موضوع آن است که روش ها بر اساس این فرض طراحی می شوند که حالت واقعی طبیعت در مدلی است که ما در پی یافتن پارامتر های آن هستیم. مثلا ما یک مدل گاوسی داریم و دنبال یافتن میانگین و واریانس آن هستیم! که این پیش فرض بسیار نامحتمل است چون فضای مدل ها بی نهایت است!! اما MDL فقط داده ها را درنظر می گیرد.
پس باید چه کرد؟ درست است که ما شاید هرگز نتوانیم مدل های واقعی طبیعت را بیابیم یا اصلا چنین چیزی حتی از لحاظ فلسفی معنا نداشته باشد اما ما می توانیم مدل هایی بسازیم که مفید باشند.مثلا مدل Naive bayes برای فیلتر کردن اسپم ها یا مدل Hidden markov model برای تشخیص گفتار. این مدل ها قطعا بسیار ساده تر از آن هستند که حتی به واقعیت داده ها هم نزدیک باشند اما چرا از آن هت استفاده میکنیم. چون آنها زمانی مفید بودند. بعد از آن ها هم مدل های پیشرفته تری آمدند که مفید تر بودند. این مدل ها هم اشتباه هستند اما مفیدتر هستند. جرج باکس در این باره می گوید: تمام مدل ها غلط هستند اما برخی مفید هستند. این واقعیت همچنین توضیح می دهد که چرا در هوش مصنوعی افراد از روش های بسیار متنوعی استفاده می کنند که در فضاهای نظری بسیاری متفاوتی زندگی میکنند. دلیل این موضوع تنها این است که مفید بودن مدل ها مهم هستند. کسی به این فکر نمیکند آیا شبکه عصبی که شبیه تر به ساختار عصبی مغز انسان است به واقعیت نزدیک تر است یا یادگیری با استفاده از kernel ها.
این دیدگاه به دیدگاه های مایکل دامت در فلسفه علم بسیار نزدیک است. دامت به ضد واقع گرایی باور داشت. در این دیدگاه نظریات علمی آینه طبیعت نیستند: چیزی به اسم قوانین درست طبیعت وجود ندارد. نظریه های علمی همچون مدل هایی هستند که با استفاده از مجموعه ای از مفاهیم و موجودیت های ساختگی سعی در توضیح داده های مشاهداتی دارند.
ما هرگز نمیخواهیم این دچار این پیش فرض غلط شویم که داده های مشاهداتی واقعا توسط یک توزیع مثلا گاوسی تولید می شوند و سپس جلوتر برویم و بر اساس این فرض چیزهای دیگری را نتیجه گیری کنیم. این نتیجه گیری ها ممکن است جالب باشند ولی به موضوعی که داریم یعنی یاد گرفتن ویژگی های مفید از داده بی ربط هستند.
فلسفه ریزانن را می توان بیشتر باز کرد:
1- نظم به عنوان فشرده سازی: بر اساس ریزانن هدف استدلال استقرایی(یادگیری) بیرون کشیدن نظم موجود در داده ها است. تا بتوان تا جای ممکن الگو(اطلاعات معنی دار) را از نویز(اطلاعات تصادفی) بیرون کشید.
2- مدل ها به عنوان زبان ها: ریزانن مدل ها را زبان های مفیدی توصیف می کند که ویژگی های مفید داده ها را توضیح می دهند. مدل های مختلف چون زبان های مختلف جنبه های مختلفی از یک مجموعه ی واحد از داده ها را بر ملا می کنند. در این جا اصلا به این موضوع کار نداریم که مدل واقعی یا حقیقی در پس پشت داده ها کدام است. چنین چیزی به هیچ عنوان موضوعیت ندارد. در تصویر سنتی فرض میکردند داده ها از یک فرضیه می آیند که آن فرضیه "حقیقت" پدیده است. و اگر خطاهایی در مشاهده وجود دارد آن ها هم نویز هستند. اما در این دیدگاه نویز نسبت به مدل تعریف می شود! به عبارت فنی تر نویز میزان اطلاعات اضافی در واحد بیت است که برای کد کردن داده به شرط مدل باید اضافه کنیم. بنابراین نویز، یک متغیر تصادفی نیست: بلکه یک تابع از مدل انتخابی و داده های مشاهده شده است. به این ترتیب جایی برای "توزیع واقعی" یا "حالت واقعی طبیعت" (true state of nature) وجود ندارد تنها مدل ها و داده ها وجود دارند. بنابراین اگر در یک آزمایش این گزاره بیان شود که: "این داده های تجربی بسیار نویزی هستند" بنابر دیدگاه سنتی به معنی آن است که داده از یک توزیع با واریانس بالا می ایند اما در دیدگاه جدید تنها به این معناست که داده ها با مدل های موجود قابل فشرده سازی نیست اما نمی توان این امکان که یک مدل بتواند آن را فشرده سازی کرده و توضیح دهد را رد کرد.
3- ما فقط داده داریم: بسیاری از روش های سنتی در یادگیری به "حالت واقعی طبیعت" قایل هستند. یعنی قوانینی که داده های تجربی را توضیح میدهند. بر اساس دیدگاه ریزانن این روش ها از اساس به خطا می روند. دلیل اصلی این موضوع آن است که روش ها بر اساس این فرض طراحی می شوند که حالت واقعی طبیعت در مدلی است که ما در پی یافتن پارامتر های آن هستیم. مثلا ما یک مدل گاوسی داریم و دنبال یافتن میانگین و واریانس آن هستیم! که این پیش فرض بسیار نامحتمل است چون فضای مدل ها بی نهایت است!! اما MDL فقط داده ها را درنظر می گیرد.
پس باید چه کرد؟ درست است که ما شاید هرگز نتوانیم مدل های واقعی طبیعت را بیابیم یا اصلا چنین چیزی حتی از لحاظ فلسفی معنا نداشته باشد اما ما می توانیم مدل هایی بسازیم که مفید باشند.مثلا مدل Naive bayes برای فیلتر کردن اسپم ها یا مدل Hidden markov model برای تشخیص گفتار. این مدل ها قطعا بسیار ساده تر از آن هستند که حتی به واقعیت داده ها هم نزدیک باشند اما چرا از آن هت استفاده میکنیم. چون آنها زمانی مفید بودند. بعد از آن ها هم مدل های پیشرفته تری آمدند که مفید تر بودند. این مدل ها هم اشتباه هستند اما مفیدتر هستند. جرج باکس در این باره می گوید: تمام مدل ها غلط هستند اما برخی مفید هستند. این واقعیت همچنین توضیح می دهد که چرا در هوش مصنوعی افراد از روش های بسیار متنوعی استفاده می کنند که در فضاهای نظری بسیاری متفاوتی زندگی میکنند. دلیل این موضوع تنها این است که مفید بودن مدل ها مهم هستند. کسی به این فکر نمیکند آیا شبکه عصبی که شبیه تر به ساختار عصبی مغز انسان است به واقعیت نزدیک تر است یا یادگیری با استفاده از kernel ها.
این دیدگاه به دیدگاه های مایکل دامت در فلسفه علم بسیار نزدیک است. دامت به ضد واقع گرایی باور داشت. در این دیدگاه نظریات علمی آینه طبیعت نیستند: چیزی به اسم قوانین درست طبیعت وجود ندارد. نظریه های علمی همچون مدل هایی هستند که با استفاده از مجموعه ای از مفاهیم و موجودیت های ساختگی سعی در توضیح داده های مشاهداتی دارند.
🔵آیا مساله خوشه بندی یک مساله خوش تعریف است؟🔵
وقتی برای اولین بار در یکی از بانک های ایران مجموعه ای داده به من دادند و ازم خواستند که مشتری ها را خوشه بندی(clustering) کنم هیجان زده بودم چون که برای اولین بار می توانستم یادگیری ماشین را در عمل استفاده کنم. اما به سرعت متوجه مشکلات زیادی شدم. اول آنکه برخلاف داده هایی که شما معمولا در پروژه های دانشگاهی یا پژوهشی از آن استفاده می کنید داده های واقعی تمیز و شیک نیستند. بسیاری از مقادیر وجود ندارد(مثلا سن یا محل تولد بعضی افراد را نداریم) علاوه بر آن باید با داده ها با احتیاط برخورد کرد چون ممکن است غلط هم باشند. حجم داده ها به طرز وحشتناکی بزرگ هستند و گاهی هم از کمبود داده رنج می بردیم. اما علاوه بر آن مشکلات تکنیکی هم وجود داشتند. اولین سوال این بود که چند خوشه؟ چند گروه از مشتریان قابل تفکیک هستند؟ سریعا به ذهنم رسید که الگوریتم های خوشه بندی ای وجود دارند که خودشان تعداد خوشه ها را تشخیص می دهند. اما دستکاری کردن داده ها مثلا اسکیل کردن آنها (تقسیم داده ها بر بزرگترین مقدار برای قرار دادنشان در بازه صفر و یک. کاری که در یادگیری ماشین برای مثلا استخراج جهت های داده بسیار معمول است) باعث می شد تعداد خوشه ها تغییر کند! الگوریتم های مختلف خوشه بندی نتایج متفاوت و بعضا متضادی به من می دادند. کاملا کلافه و سر درگم شده بودم. چه اتفاقی دارد می افتد؟ احساس می کردم هر آنچه در دانشگاه یاد گرفته ام به من کمکی نکرده است و مستاصل مانده ام با داده هایی که هیچ کس دیگری قبل از من آنها را ندیده است بنابراین جستجو در اینترنت هم به من کمکی نمیکرد. بالاخره روزی از خودم پرسیدم که اصلا آیا خوشه بندی یک مساله خوش تعریف است؟ خوش تعریف از لحاظ ریاضی به این معناست که بتوان جوابهایی قطعی و نهایی با استفاده از مجموعه ای ورودی و پیش فرض های مشخص تعریف کرد. در چنین مواقعی ممکن است با خود بگویید: ولش کن! خودت را بیشتر خسته نکن سعی کن یک روش را که حدودی کار می کند ارایه بدهی حقوقت را بگیری و حتی براحتی ترفیع بگیری. اما از طرفی دوست داری بدانی واقعا مشکل قضیه کجاست. اینجاست که باید انتخاب کنی قرص آبی را انتخاب کنی بر گردی سر کارت و بقیه کدهایت را بنویسی یا قرص قرمز را انتخاب کنی و بدانی داستان پشت صحنه چیست. این جا جایی بود که من قرص قرمز را انتخاب کردم تا وارد دنیای عجیبی شوم که فلسفه ی پنهان پیش فرض های ریاضی روش های هوش مصنوعی بود! ورود به سرزمین عجایب!
وقتی برای اولین بار در یکی از بانک های ایران مجموعه ای داده به من دادند و ازم خواستند که مشتری ها را خوشه بندی(clustering) کنم هیجان زده بودم چون که برای اولین بار می توانستم یادگیری ماشین را در عمل استفاده کنم. اما به سرعت متوجه مشکلات زیادی شدم. اول آنکه برخلاف داده هایی که شما معمولا در پروژه های دانشگاهی یا پژوهشی از آن استفاده می کنید داده های واقعی تمیز و شیک نیستند. بسیاری از مقادیر وجود ندارد(مثلا سن یا محل تولد بعضی افراد را نداریم) علاوه بر آن باید با داده ها با احتیاط برخورد کرد چون ممکن است غلط هم باشند. حجم داده ها به طرز وحشتناکی بزرگ هستند و گاهی هم از کمبود داده رنج می بردیم. اما علاوه بر آن مشکلات تکنیکی هم وجود داشتند. اولین سوال این بود که چند خوشه؟ چند گروه از مشتریان قابل تفکیک هستند؟ سریعا به ذهنم رسید که الگوریتم های خوشه بندی ای وجود دارند که خودشان تعداد خوشه ها را تشخیص می دهند. اما دستکاری کردن داده ها مثلا اسکیل کردن آنها (تقسیم داده ها بر بزرگترین مقدار برای قرار دادنشان در بازه صفر و یک. کاری که در یادگیری ماشین برای مثلا استخراج جهت های داده بسیار معمول است) باعث می شد تعداد خوشه ها تغییر کند! الگوریتم های مختلف خوشه بندی نتایج متفاوت و بعضا متضادی به من می دادند. کاملا کلافه و سر درگم شده بودم. چه اتفاقی دارد می افتد؟ احساس می کردم هر آنچه در دانشگاه یاد گرفته ام به من کمکی نکرده است و مستاصل مانده ام با داده هایی که هیچ کس دیگری قبل از من آنها را ندیده است بنابراین جستجو در اینترنت هم به من کمکی نمیکرد. بالاخره روزی از خودم پرسیدم که اصلا آیا خوشه بندی یک مساله خوش تعریف است؟ خوش تعریف از لحاظ ریاضی به این معناست که بتوان جوابهایی قطعی و نهایی با استفاده از مجموعه ای ورودی و پیش فرض های مشخص تعریف کرد. در چنین مواقعی ممکن است با خود بگویید: ولش کن! خودت را بیشتر خسته نکن سعی کن یک روش را که حدودی کار می کند ارایه بدهی حقوقت را بگیری و حتی براحتی ترفیع بگیری. اما از طرفی دوست داری بدانی واقعا مشکل قضیه کجاست. اینجاست که باید انتخاب کنی قرص آبی را انتخاب کنی بر گردی سر کارت و بقیه کدهایت را بنویسی یا قرص قرمز را انتخاب کنی و بدانی داستان پشت صحنه چیست. این جا جایی بود که من قرص قرمز را انتخاب کردم تا وارد دنیای عجیبی شوم که فلسفه ی پنهان پیش فرض های ریاضی روش های هوش مصنوعی بود! ورود به سرزمین عجایب!
Forwarded from Tensorflow(@CVision) (Alireza Akhavan)
نوشته یک مجله مربوط به اسب سواری در سال ۱۸۹۵:
"مسخره است که فکر کنیم ماشین ها باعث می شوند اسب ها دیگر استفاده نشوند. "
بحث معاصر ما این است که ماشین های خودران جایگزین راننده ها نخواهند شد ...
🙏Thanks to: @techinsider_channel
"مسخره است که فکر کنیم ماشین ها باعث می شوند اسب ها دیگر استفاده نشوند. "
بحث معاصر ما این است که ماشین های خودران جایگزین راننده ها نخواهند شد ...
🙏Thanks to: @techinsider_channel
Forwarded from نوروسافاری مجله مغز و شناخت
✳️ دزدی ملایم چیست؟
در دوران دانشجویی، پنیرتان را از یخچال مشترک خوابگاه کش رفته اند؟ راستش را بگویید آن سال ها با دیدن شیشه مربای هویج متعلق به یکی از دانشجویان، بی آن که به او بگویید، کمی از آن را نخورده اید؟! نه شما "دزد" بودید و نه آن دانشجو یا دانشجویانی که پنیرتان را یواشکی برداشته بودند. اگر به جای پنیر یا مربا، داخل یخچال "پول" دیده بودید، آن را بر نمی داشتید و آن دانشجویان هم همین طور.
این، موضوعِ آزمایش دکتر دن آریلی است که در زمینه اقتصاد رفتاری پژوهش می کند. او در تعدادی از یخچال های خوابگاه دانشجویی دانشگاه MIT آمریکا 6 بسته کوکاکولا قرار داد. همه نوشابه ها ظرف 72 ساعت توسط دانشجویان برداشته شدند. آریلی در ادامه به جای نوشابه، پول در یخچال ها گذاشت. همان دانشجویانی که نوشابه ها را برداشته و خورده بودند، به پول ها دست نزدند و سرانجام خود دکتر آریلی، پول ها را جمع کرد.
او آزمایش های بیشتری انجام داد. مثلاً در یک آزمایش به دانشجویان تعدادی سوال دادند؛ به آنها گفته شد به ازای هر پاسخ صحیح، مبلغی پول نقد می گیرند. به گروه دیگر گفته شد در قبال هر پاسخ صحیح، ژتونی می گیرند و می توانند آن ژتون را در همان اتاق، به پول نقد تبدیل کنند. نکته این بود که هر دانشجو، خودش تعداد پاسخ های صحیح اش را می شمرد و به ممتحن اعلام می کرد و بر اساس خوداظهاری، «پول» یا «ژتون قابل تبدیل به پول» می گرفت.*
فکر می کنید دانشجویان کدام گروه بیشتر مرتکب تقلب شدند؟ دانشجویانی که قرار بود پول بگیرند، کمتر تقلب کردند ولی گروه دیگر با ناراستی، نمرات خود را بیش از واقعیت اعلام کردند.
علت این است: انسان ها نسبت به "پول" حساسیت بیشتری دارند و اگر درستکار باشند، هرگز به "پول" دیگران تعدی نمی کنند اما این حساسیت در قبال اشیاء دیگری که آنها نیز ارزش پولی دارند، کمتر می شود؛ شاید اسم این پدیده را بتوان "دزدی ملایم" گذاشت. آزمایش دانشجویان و پول و ژتون را مرور کنید: وقتی قرار بود "پول" بگیرند، کمتر تقلب می کردند ولی وقتی قرار بود "ژتون" بگیرند بیشتر تقلب کردند و حال آن که می دانستند می توانند آن ژتون ها را در همان اتاق تحویل دهند و در مقابلش پول بگیرند.
پیشنهاد فردی:
به عنوان یک انسان درستکار، حواس تان به این باشد که ممکن است در قبال اموال غیر پولی دیگران، حساسیت کمتری داشته باشید و ناخودآگاه به حقوق آنها تعدی کنید.
مثلاً وقتی حواس رئیس تان نیست، ممکن نیست یواشکی از جیب اش 10 هزار تومان بردارید (اصلاً در شأن شما نیست و حتی فکر کردن به آن هم توهین آمیز است) اما بارها و بارها از تلفن اداره برای کار شخصی تان استفاده کرده اید در حالی که تلفن همراه تان روی میزتان قرار داشت. در واقع با این کار، از جیب مدیرتان حتی بیش از 10 هزار تومان نیز برای تلفن های شخصی تان برداشت کرده اید اما غیر مستقیم.
شما ممکن نیست از حسابداری شرکت تان 5 هزار تومان پول بردارید، ولی به راحتی یک دسته کاغذ را به خانه می برید.
مثال های دیگر: کارگری که پولی را مستقیم نمی دزدد ولی کم کاری می کند، مسافری که از پتوی مسافرتی که داخل پرواز به او داده اند خوشش آمده و آن را درون کیفش می گذارد، یک مشتری که کتی را می خرد و از آن خوشش نمی آید و آن را بدون کندن اتیکت به فروشنده بر می گرداند ولی نمی گوید که وقتی کت دستش بوده، گوشه ای از آن به لبه میز گرفته و نخ کش شده است، ناشری که کتاب دیگری را بدون اجازه اش چاپ می کند و ... دهها مثال دیگر.
یادمان باشد که هر آنچه ارزش مالی دارد، درست مانند خود پول است و همان طور که در قبال پول و دزدی آن، حساس هستیم درباره دیگر چیزهایی که ارزش پولی دارند نیز حساس باشیم.
◽️پیشنهاد سازمانی:
به عنوان صاحب یک کار و کسب، ساز و کارهای سازمانی را طوری بچینید که مراقبت از اموال سازمان نیز همانند مراقبت های پولی به رسمیت شناخته شود. به یاد داشته باشید که بسیاری از انسان های درستکار و شریف، در برابر اموال دیگران به اندازه پول دیگران حساس نیستند. یک آمار نشان می دهد که زیان وارده از محل تقلب در بازگرداندن لباس ها به فروشگاه های لباس فروشی، از کل خرده دزدی ها در آمریکا بیشتر است.
◽️پیشنهاد تربیتی:
به فرزندان خود، حفظ حقوق دیگران را به طور مشخص و با تعیین مصداق ها و گفتن مثال ها یاد دهید؛ به آنها بگویید که هر آنچه مشخصاً متعلق به خودشان نیست، اعم از پول و اشیاء دیگر، قطعاً متعلق به دیگری است و تنها با اجازه مشخص صاحبان آنها می توانند از آنها استفاده کنند.
منبع: کتاب نابخردیهای پیشبینی پذیر؛ نوشته دن آریلی
🆔 @neurosafari1
در دوران دانشجویی، پنیرتان را از یخچال مشترک خوابگاه کش رفته اند؟ راستش را بگویید آن سال ها با دیدن شیشه مربای هویج متعلق به یکی از دانشجویان، بی آن که به او بگویید، کمی از آن را نخورده اید؟! نه شما "دزد" بودید و نه آن دانشجو یا دانشجویانی که پنیرتان را یواشکی برداشته بودند. اگر به جای پنیر یا مربا، داخل یخچال "پول" دیده بودید، آن را بر نمی داشتید و آن دانشجویان هم همین طور.
این، موضوعِ آزمایش دکتر دن آریلی است که در زمینه اقتصاد رفتاری پژوهش می کند. او در تعدادی از یخچال های خوابگاه دانشجویی دانشگاه MIT آمریکا 6 بسته کوکاکولا قرار داد. همه نوشابه ها ظرف 72 ساعت توسط دانشجویان برداشته شدند. آریلی در ادامه به جای نوشابه، پول در یخچال ها گذاشت. همان دانشجویانی که نوشابه ها را برداشته و خورده بودند، به پول ها دست نزدند و سرانجام خود دکتر آریلی، پول ها را جمع کرد.
او آزمایش های بیشتری انجام داد. مثلاً در یک آزمایش به دانشجویان تعدادی سوال دادند؛ به آنها گفته شد به ازای هر پاسخ صحیح، مبلغی پول نقد می گیرند. به گروه دیگر گفته شد در قبال هر پاسخ صحیح، ژتونی می گیرند و می توانند آن ژتون را در همان اتاق، به پول نقد تبدیل کنند. نکته این بود که هر دانشجو، خودش تعداد پاسخ های صحیح اش را می شمرد و به ممتحن اعلام می کرد و بر اساس خوداظهاری، «پول» یا «ژتون قابل تبدیل به پول» می گرفت.*
فکر می کنید دانشجویان کدام گروه بیشتر مرتکب تقلب شدند؟ دانشجویانی که قرار بود پول بگیرند، کمتر تقلب کردند ولی گروه دیگر با ناراستی، نمرات خود را بیش از واقعیت اعلام کردند.
علت این است: انسان ها نسبت به "پول" حساسیت بیشتری دارند و اگر درستکار باشند، هرگز به "پول" دیگران تعدی نمی کنند اما این حساسیت در قبال اشیاء دیگری که آنها نیز ارزش پولی دارند، کمتر می شود؛ شاید اسم این پدیده را بتوان "دزدی ملایم" گذاشت. آزمایش دانشجویان و پول و ژتون را مرور کنید: وقتی قرار بود "پول" بگیرند، کمتر تقلب می کردند ولی وقتی قرار بود "ژتون" بگیرند بیشتر تقلب کردند و حال آن که می دانستند می توانند آن ژتون ها را در همان اتاق تحویل دهند و در مقابلش پول بگیرند.
پیشنهاد فردی:
به عنوان یک انسان درستکار، حواس تان به این باشد که ممکن است در قبال اموال غیر پولی دیگران، حساسیت کمتری داشته باشید و ناخودآگاه به حقوق آنها تعدی کنید.
مثلاً وقتی حواس رئیس تان نیست، ممکن نیست یواشکی از جیب اش 10 هزار تومان بردارید (اصلاً در شأن شما نیست و حتی فکر کردن به آن هم توهین آمیز است) اما بارها و بارها از تلفن اداره برای کار شخصی تان استفاده کرده اید در حالی که تلفن همراه تان روی میزتان قرار داشت. در واقع با این کار، از جیب مدیرتان حتی بیش از 10 هزار تومان نیز برای تلفن های شخصی تان برداشت کرده اید اما غیر مستقیم.
شما ممکن نیست از حسابداری شرکت تان 5 هزار تومان پول بردارید، ولی به راحتی یک دسته کاغذ را به خانه می برید.
مثال های دیگر: کارگری که پولی را مستقیم نمی دزدد ولی کم کاری می کند، مسافری که از پتوی مسافرتی که داخل پرواز به او داده اند خوشش آمده و آن را درون کیفش می گذارد، یک مشتری که کتی را می خرد و از آن خوشش نمی آید و آن را بدون کندن اتیکت به فروشنده بر می گرداند ولی نمی گوید که وقتی کت دستش بوده، گوشه ای از آن به لبه میز گرفته و نخ کش شده است، ناشری که کتاب دیگری را بدون اجازه اش چاپ می کند و ... دهها مثال دیگر.
یادمان باشد که هر آنچه ارزش مالی دارد، درست مانند خود پول است و همان طور که در قبال پول و دزدی آن، حساس هستیم درباره دیگر چیزهایی که ارزش پولی دارند نیز حساس باشیم.
◽️پیشنهاد سازمانی:
به عنوان صاحب یک کار و کسب، ساز و کارهای سازمانی را طوری بچینید که مراقبت از اموال سازمان نیز همانند مراقبت های پولی به رسمیت شناخته شود. به یاد داشته باشید که بسیاری از انسان های درستکار و شریف، در برابر اموال دیگران به اندازه پول دیگران حساس نیستند. یک آمار نشان می دهد که زیان وارده از محل تقلب در بازگرداندن لباس ها به فروشگاه های لباس فروشی، از کل خرده دزدی ها در آمریکا بیشتر است.
◽️پیشنهاد تربیتی:
به فرزندان خود، حفظ حقوق دیگران را به طور مشخص و با تعیین مصداق ها و گفتن مثال ها یاد دهید؛ به آنها بگویید که هر آنچه مشخصاً متعلق به خودشان نیست، اعم از پول و اشیاء دیگر، قطعاً متعلق به دیگری است و تنها با اجازه مشخص صاحبان آنها می توانند از آنها استفاده کنند.
منبع: کتاب نابخردیهای پیشبینی پذیر؛ نوشته دن آریلی
🆔 @neurosafari1
🔵اتومات های سلولی: اتم های پیچیدگی🔵
وقتی با پدیده های پیچیده روبرو می شویم یکی از راهها برای فهم آن را تقسیم به اجزای سازنده می دانیم. مثلا وقتی چیزی مثل بدن انسان را درک نمیکنیم سعی میکنیم به سطح قسمت های سازنده آن مانند معده، روده، قلب و مغز برویم و اگر باز هم توضیحات بیشتر می خواهیم می توانیم باز هم جزیی تر نگاه کنیم تا اینکه به سطح سلولی برسیم. این کار را تقریبا برای هر شاخه ای از شناخت علمی انجام می دهیم. مثلا اگر درک جامعه پیچیده است سعی میکنیم آن را در سطح گروه ها و افراد ببینیم یا اگر به طور کلی جهان پیچیده است آن را تا سطح اتم و الکترون و کوارک فروکاهش دهیم و بعد مطالعه کنیم. البته این یک واکنش نسبتا طبیعی با توجه به موفقیت های علمی در سده های اخیر است. رویه علمی برای قرن ها بر اساس فرض "فروکاست گرایی"(reductionism) قرار گرفته است. در این دیدگاه متافیزیکی، فهم هر چیزی با جراحی کردن و تقسیم آن به اجزای سازنده اش که ساده تر هستند، قابل انجام است. این تز متافیزیکی البته همیشه بدون چالش هم نبوده است. یکی از نمونه های آن تلاش علم برای کاهش به سطح زیر اتمی بود. نتیجه چنین تلاشی برعکس شد: نه تنها اجزا ساده تر نشدند بلکه با سطحی از واقعیت به نام واقعیت کوانتومی آشنا شدیم که درک و فهم متعارفی را به چالش کشید تا جایی که نظریه کوانتوم پیچیده ترین و غیر قابل فهم ترین نظریه علمی تا به امروز شده است.
ادامه در لینک زیر:
https://vrgl.ir/K8E0g
وقتی با پدیده های پیچیده روبرو می شویم یکی از راهها برای فهم آن را تقسیم به اجزای سازنده می دانیم. مثلا وقتی چیزی مثل بدن انسان را درک نمیکنیم سعی میکنیم به سطح قسمت های سازنده آن مانند معده، روده، قلب و مغز برویم و اگر باز هم توضیحات بیشتر می خواهیم می توانیم باز هم جزیی تر نگاه کنیم تا اینکه به سطح سلولی برسیم. این کار را تقریبا برای هر شاخه ای از شناخت علمی انجام می دهیم. مثلا اگر درک جامعه پیچیده است سعی میکنیم آن را در سطح گروه ها و افراد ببینیم یا اگر به طور کلی جهان پیچیده است آن را تا سطح اتم و الکترون و کوارک فروکاهش دهیم و بعد مطالعه کنیم. البته این یک واکنش نسبتا طبیعی با توجه به موفقیت های علمی در سده های اخیر است. رویه علمی برای قرن ها بر اساس فرض "فروکاست گرایی"(reductionism) قرار گرفته است. در این دیدگاه متافیزیکی، فهم هر چیزی با جراحی کردن و تقسیم آن به اجزای سازنده اش که ساده تر هستند، قابل انجام است. این تز متافیزیکی البته همیشه بدون چالش هم نبوده است. یکی از نمونه های آن تلاش علم برای کاهش به سطح زیر اتمی بود. نتیجه چنین تلاشی برعکس شد: نه تنها اجزا ساده تر نشدند بلکه با سطحی از واقعیت به نام واقعیت کوانتومی آشنا شدیم که درک و فهم متعارفی را به چالش کشید تا جایی که نظریه کوانتوم پیچیده ترین و غیر قابل فهم ترین نظریه علمی تا به امروز شده است.
ادامه در لینک زیر:
https://vrgl.ir/K8E0g
ویرگول
اتومات های سلولی: اتم های پیچیدگی
چیدگی در فرم اتومات های سلولی در طبیعت بر روی بدن مارمولک منبع[1] وقتی با پدیده های پیچیده روبرو می شویم یکی از راهها برای فهم آن را تقسیم…
Audio
از گنجینه ابری را بیرون می کشم
نامش را می پرسم
سکوت می کند
پرنده ها در نور پاییز
جان باخته اند
خبر ندارند.
یارم!
از خواب برخیز
سراسر شب را
باید زنده بمانیم
فرسوده و آرام
سراغ عصا را می گیرم
چه روزهایی
که در گندمزار می دویدیم!
احمدرضا احمدی
کتاب: ویرانه های دل را به یاد می سپارم
نامش را می پرسم
سکوت می کند
پرنده ها در نور پاییز
جان باخته اند
خبر ندارند.
یارم!
از خواب برخیز
سراسر شب را
باید زنده بمانیم
فرسوده و آرام
سراغ عصا را می گیرم
چه روزهایی
که در گندمزار می دویدیم!
احمدرضا احمدی
کتاب: ویرانه های دل را به یاد می سپارم
This media is not supported in your browser
VIEW IN TELEGRAM
خلاصه کتاب: هفت عادت انسان های موثر
The 7 Habits of Highly Effective People: Powerful Lessons in Personal Change https://www.amazon.com/dp/0743269519/ref=cm_sw_r_cp_apa_i_-2uuCb46TZZ0Y
The 7 Habits of Highly Effective People: Powerful Lessons in Personal Change https://www.amazon.com/dp/0743269519/ref=cm_sw_r_cp_apa_i_-2uuCb46TZZ0Y