کتابی که اینجا گذاشته ام یک کتاب رایگان و فوق العاده برای یادگیری ریاضیات لازم برای یادگیری ماشین است. این کتاب را هم می توانید از اول بخوانید یا صرفا به عنوان یک کتاب مرجع از ان استفاده کنید. ریاضیات آن از بسیار ساده تا متوسط است و تقریبا تمام ریاضیاتی که در یادگیری ماشین استفاده می شود را پوشش می دهد. این هم وب سایت این کتاب است. بر روی گیت هاب آن ها مثال هایی با پایتون هم دیده می شود که به تدریج به تعداد آن ها اضافه می شود.
https://mml-book.github.io/
https://mml-book.github.io/
درک توزیع بتا و دیریکله (خدا تاس بازی نمیکند خدا تاس ها را خلق می کند: توزیع دیریکله بخش اول)
(به زبان انگلیسی)
https://link.medium.com/dVUjIKRRy2
(به زبان انگلیسی)
https://link.medium.com/dVUjIKRRy2
Medium
God doesn’t play dice! God creates dices: Dirichlet distribution (Pt.1)
When we think about probabilities we try to ask questions like: What is the probability of two dices have the same number? Or, what is the…
درک توزیع دیریکله (خدا تاس بازی نمی کند، خدا تاس ها را خلق می کند: توزیع دیریکله بخش دوم)
به انگلیسی
https://link.medium.com/4VyeFFxOD2
به انگلیسی
https://link.medium.com/4VyeFFxOD2
Medium
God doesn’t play dice! God creates dices: Dirichlet distribution (Pt.2)
As we saw in the previous part, the dices or coins that represent a probability distribution themselves can come from another distribution…
🍉فال امسال با پایتون🍉
اگرچه چند روزه از شب یلدا گذشته و من هم این مدت سرم شلوغ بود. اما تصمیم گرفتم کدی رو با شما به اشتراک بذارم که باهاش میتونید فال حافظ بگیرید.
برای استفاده نیاز به پایگاه داده گنجور دارید که اون رو هم اینجا آپلود کردم و حاوی تمام شعرهای شعرای فارسی زبانه (حدود ۱۰۰ مگابایت) و در sqlite3 هست. نیاز به نصب هیچ کتابخانه ی خاصی نیست چون از دو کتابخانه sqlite3 و random استفاده کردم که هر دو در کتابخانه های اصلی پایتون هستند. فقط کافیه دیتابیس رو دانلود کنید و بذارید کنار کد و اجراش کنید! (به این ریپو سر بزنید چیزهای جالب تری در آینده میذارم توش که شامل تحلیل شعر فارسی با پایتونه!)
این هم کدها
این هم فال من. امیدوارم شادی هامون برای بقیه سال بیشتر بشه و زندگی روی خوشش رو بیشتر نشون بده!
اگرچه چند روزه از شب یلدا گذشته و من هم این مدت سرم شلوغ بود. اما تصمیم گرفتم کدی رو با شما به اشتراک بذارم که باهاش میتونید فال حافظ بگیرید.
برای استفاده نیاز به پایگاه داده گنجور دارید که اون رو هم اینجا آپلود کردم و حاوی تمام شعرهای شعرای فارسی زبانه (حدود ۱۰۰ مگابایت) و در sqlite3 هست. نیاز به نصب هیچ کتابخانه ی خاصی نیست چون از دو کتابخانه sqlite3 و random استفاده کردم که هر دو در کتابخانه های اصلی پایتون هستند. فقط کافیه دیتابیس رو دانلود کنید و بذارید کنار کد و اجراش کنید! (به این ریپو سر بزنید چیزهای جالب تری در آینده میذارم توش که شامل تحلیل شعر فارسی با پایتونه!)
این هم کدها
این هم فال من. امیدوارم شادی هامون برای بقیه سال بیشتر بشه و زندگی روی خوشش رو بیشتر نشون بده!
🧩مولوی پژوهی با تخصیص پنهان دیریکله (Latent Dirichlet allocation)🎲
اینجا می خواستم نتیجه یه کارهام رو باهاتون به اشتراک بذارم که کلا برای اولین بار هست انجام میشه (نه فقط توی فارسی و شعر بلکه به صورت کلی) اون هم ساختن یک شبکه واژگانی از یک مجموعه بزرگ از متون هست. خود روش شناخته شده هست ولی استخراج یک روش نمایش به صورت شبکه تا حالا انجام نشده. خود الگوریتم متاسفانه خیلی پیچیده ست و بدون پیش نیاز ریاضی سنگین قابل درک نیست اما ازونجا که میگن اگه نتونی کارت رو برای مادربزرگت توضیح بدی یعنی خودتم نفهمیدی پس من سعی میکنم قابل درکش کنم. اگه حوصله حتی این نسخه ساده رو ندارید می تونید برید پاراگراف آخر.
برای شروع فرض کنید من می خوام یه ماشین بسازم که متن تولید کنه! این ماشین بر اساس یه سری تنظیمات یه سری کلمه پرت می کنه بیرون! دقیقا پرت می کنه بیرون! یعنی هیچ نظم و ترتیب گرامری نداره! همین اول شاید بگید خوب این که خیلی مسخره ست چیزی که تولید میشه یه مشت چرت و پرته! درسته ولی چون زبان خیلی چیز پیچیده ایه (شاید اصلا پیچیده ترین چیز توی دنیا!) مجبوریم یه ساده سازی خیلی عجیب غریب انجام بدیم و اون هم اینه که فرض کنیم هر متنی یه کیسه از کلماته! (bag of words).
حتی اگه همچین فرضی بکنیم باز هم همه متون شبیه هم نیستند! اگه موافق نیستید یه کیسه کلمات از توضیح المسایل آیت الله سیستانی و آثار محمود دولت آبادی رو درست کنید! کلمات توی این دو گروه و درصد تکرارشون خیلی با هم فرق دارن!
حالا فرض کنید هر متنی ملغمه ای از چند «موضوع» مختلفه! مثلا یه متن در مورد بحران زیست محیطی می تونه کمی به مسایل سیاسی بپردازه کمی در مورد علم باشه و کمی هم در مورد بوم شناسی! ایده اینه که هر متنی یه درصدی از چند موضوع مختلفه! مثل یک سالاد. اما از طرفی باید تعریف کنیم اصلا منظورمون از «موضوع» چی هست. موضوع رو میتونیم یه توزیع از کلمات فرض کنیم. یعنی مثلا اگه تمام کلمات دیکشنری رو در نظر بگیریم اگه موضوع ما سیاسی باشه کلمه «انتخابات» پر اهمیت تره تا مثلا کلمه «شکلات»!
حالا برگردیم به اون ماشینه که متن (به صورت کیسه کلمات) تولید میکنه. فرض کنید این ماشین به طریقی فهمیده چطوری یه متن رو (مثلا سبک داستانی دولت آبادی) تقلید کنه. یعنی فهمیده روی چه موضوعاتی باید مانور بده و توی هر موضوع هم هر کلمه چقدر اهمیت داره. پس کاری که باید بکنه صرفا اینه که یک تاس بندازه و بره سراغ یکی از موضوعات (قاعدتا اون موضوعی که پر اهمیت تره با احتمال بیشتری انتخاب میشه و برعکس موضوعی که کم اهمیته با احتمال کمتر) بعد که موضوع رو انتخاب کرد باز یه تاس میندازه و یک کلمه از موضوعی که توی مرحله قبل انتخاب کرد، برمیداره و پرت میکنه بیرون. (دقت کنید وقتی میگم تاس منظورم تاس شش وجهی نیست. برای انتخاب کلمه اندازه تاسم به اندازه کل دیکشنریه!!)
همین روش ساده لوحانه فوق العاده عمل میکنه! تنها نکته ای که میمونه اینه که روشی پیدا کنیم که اون نسبت ها (نسبت موضوعات و نسبت کلمه ها در هر موضوع) رو پیدا کنیم که کار خود الگوریتمه و توضیح نمیدم.
نکته آخر اینکه کشف موضوعات تماما اتوماتیک انجام میشه. یعنی اون موضاعاتی که کشف میشن لزوما منطبق با یک موضوع قابل فهم (مثلا ورزشی، سیاسی و غیره)نیستند! اما قطعا یه سری همبستگی بین کلماتشون هست! و اینکه کلا این روش کاری نداره شما روی چینی فارسی یا انگلیسی کار می کنید، چون اصلا کاری به گرامر و این مسخره بازی ها نداره!
کاری که اینجا انجام دادم نمایش کلمات مهم از متن به صورت یک شبکه ست. قسمت هایی که خوشه شکل گرفته نشون دهنده یک موضوعه! بعضی هاشون تقریبا معنا دار هستند! مثلا یه خوشه جدا افتاده کلمات عربی رو نشون میده! همچنین یه خوشه توی فاز «ساغر» و «شراب» و «ساقی» و این کارهای خاک بر سریه! یه خوشه «عشق» و «عاشقان» و «شمس» و «آتش» و «تن» هست. کلمات «عشق» و «جهان» و «باغ» و «مه» نقش کلیدی توی ارتباط خوشه ها با هم دارن. چیزهای عجیب و غریب تری هم توش هست مثلا ارتباط نزدیک «زن» و «مکر» (این ها به من ربطی نداره برید از مولوی بپرسید!)
در نهایت اینکه باز هم تاکید کنم همه این ها با یک روش ریاضی به صورت خودکار کشف شده (یعنی یک درصد فکر کنید من تمام آثار مولانا که ۸۹۶ هزار کلمه ست رو بخونم و بعد اینها رو بهم بچسبونم!!)
چندین خروجی با تغییر توی تنظیمات اون ماشین می تونید بگیرید. این چیزها رو میشه روش مطالعه کرد و خروجی های بهتر و بهتری تولید کرد که اگر وقتی شد بیشتر روش کار میکنم!
دو نکته: رنگ های به سمت طیف آبی تر نشان دهنده تعداد بیشتر ارتباطات اون کلمه با بقیه کلماته و اندازه هر کلمه نشان دهنده اهمیت اون کله توی موضوع خودشه
کدها
اینجا می خواستم نتیجه یه کارهام رو باهاتون به اشتراک بذارم که کلا برای اولین بار هست انجام میشه (نه فقط توی فارسی و شعر بلکه به صورت کلی) اون هم ساختن یک شبکه واژگانی از یک مجموعه بزرگ از متون هست. خود روش شناخته شده هست ولی استخراج یک روش نمایش به صورت شبکه تا حالا انجام نشده. خود الگوریتم متاسفانه خیلی پیچیده ست و بدون پیش نیاز ریاضی سنگین قابل درک نیست اما ازونجا که میگن اگه نتونی کارت رو برای مادربزرگت توضیح بدی یعنی خودتم نفهمیدی پس من سعی میکنم قابل درکش کنم. اگه حوصله حتی این نسخه ساده رو ندارید می تونید برید پاراگراف آخر.
برای شروع فرض کنید من می خوام یه ماشین بسازم که متن تولید کنه! این ماشین بر اساس یه سری تنظیمات یه سری کلمه پرت می کنه بیرون! دقیقا پرت می کنه بیرون! یعنی هیچ نظم و ترتیب گرامری نداره! همین اول شاید بگید خوب این که خیلی مسخره ست چیزی که تولید میشه یه مشت چرت و پرته! درسته ولی چون زبان خیلی چیز پیچیده ایه (شاید اصلا پیچیده ترین چیز توی دنیا!) مجبوریم یه ساده سازی خیلی عجیب غریب انجام بدیم و اون هم اینه که فرض کنیم هر متنی یه کیسه از کلماته! (bag of words).
حتی اگه همچین فرضی بکنیم باز هم همه متون شبیه هم نیستند! اگه موافق نیستید یه کیسه کلمات از توضیح المسایل آیت الله سیستانی و آثار محمود دولت آبادی رو درست کنید! کلمات توی این دو گروه و درصد تکرارشون خیلی با هم فرق دارن!
حالا فرض کنید هر متنی ملغمه ای از چند «موضوع» مختلفه! مثلا یه متن در مورد بحران زیست محیطی می تونه کمی به مسایل سیاسی بپردازه کمی در مورد علم باشه و کمی هم در مورد بوم شناسی! ایده اینه که هر متنی یه درصدی از چند موضوع مختلفه! مثل یک سالاد. اما از طرفی باید تعریف کنیم اصلا منظورمون از «موضوع» چی هست. موضوع رو میتونیم یه توزیع از کلمات فرض کنیم. یعنی مثلا اگه تمام کلمات دیکشنری رو در نظر بگیریم اگه موضوع ما سیاسی باشه کلمه «انتخابات» پر اهمیت تره تا مثلا کلمه «شکلات»!
حالا برگردیم به اون ماشینه که متن (به صورت کیسه کلمات) تولید میکنه. فرض کنید این ماشین به طریقی فهمیده چطوری یه متن رو (مثلا سبک داستانی دولت آبادی) تقلید کنه. یعنی فهمیده روی چه موضوعاتی باید مانور بده و توی هر موضوع هم هر کلمه چقدر اهمیت داره. پس کاری که باید بکنه صرفا اینه که یک تاس بندازه و بره سراغ یکی از موضوعات (قاعدتا اون موضوعی که پر اهمیت تره با احتمال بیشتری انتخاب میشه و برعکس موضوعی که کم اهمیته با احتمال کمتر) بعد که موضوع رو انتخاب کرد باز یه تاس میندازه و یک کلمه از موضوعی که توی مرحله قبل انتخاب کرد، برمیداره و پرت میکنه بیرون. (دقت کنید وقتی میگم تاس منظورم تاس شش وجهی نیست. برای انتخاب کلمه اندازه تاسم به اندازه کل دیکشنریه!!)
همین روش ساده لوحانه فوق العاده عمل میکنه! تنها نکته ای که میمونه اینه که روشی پیدا کنیم که اون نسبت ها (نسبت موضوعات و نسبت کلمه ها در هر موضوع) رو پیدا کنیم که کار خود الگوریتمه و توضیح نمیدم.
نکته آخر اینکه کشف موضوعات تماما اتوماتیک انجام میشه. یعنی اون موضاعاتی که کشف میشن لزوما منطبق با یک موضوع قابل فهم (مثلا ورزشی، سیاسی و غیره)نیستند! اما قطعا یه سری همبستگی بین کلماتشون هست! و اینکه کلا این روش کاری نداره شما روی چینی فارسی یا انگلیسی کار می کنید، چون اصلا کاری به گرامر و این مسخره بازی ها نداره!
کاری که اینجا انجام دادم نمایش کلمات مهم از متن به صورت یک شبکه ست. قسمت هایی که خوشه شکل گرفته نشون دهنده یک موضوعه! بعضی هاشون تقریبا معنا دار هستند! مثلا یه خوشه جدا افتاده کلمات عربی رو نشون میده! همچنین یه خوشه توی فاز «ساغر» و «شراب» و «ساقی» و این کارهای خاک بر سریه! یه خوشه «عشق» و «عاشقان» و «شمس» و «آتش» و «تن» هست. کلمات «عشق» و «جهان» و «باغ» و «مه» نقش کلیدی توی ارتباط خوشه ها با هم دارن. چیزهای عجیب و غریب تری هم توش هست مثلا ارتباط نزدیک «زن» و «مکر» (این ها به من ربطی نداره برید از مولوی بپرسید!)
در نهایت اینکه باز هم تاکید کنم همه این ها با یک روش ریاضی به صورت خودکار کشف شده (یعنی یک درصد فکر کنید من تمام آثار مولانا که ۸۹۶ هزار کلمه ست رو بخونم و بعد اینها رو بهم بچسبونم!!)
چندین خروجی با تغییر توی تنظیمات اون ماشین می تونید بگیرید. این چیزها رو میشه روش مطالعه کرد و خروجی های بهتر و بهتری تولید کرد که اگر وقتی شد بیشتر روش کار میکنم!
دو نکته: رنگ های به سمت طیف آبی تر نشان دهنده تعداد بیشتر ارتباطات اون کلمه با بقیه کلماته و اندازه هر کلمه نشان دهنده اهمیت اون کله توی موضوع خودشه
کدها
🌟معرفی ابزار🌟
ممکن است برای شما هم پیش آمده باشد که هنگام نوشتن مقاله با latex نیازمند نوشتن فرمولی باشید که در یک فایل پی دی اف یا در یک وبسایت قرار داشته باشد. معمولا مجبور میشوید آن را از نو بنویسید بخصوص اگر فایل اصلی latex را نداشته باشید. با این ابزار می توانید براحتی از فرمول خود اسکرین شات بگیرید و latex آن را استخراج کنید.
https://mathpix.com/
ممکن است برای شما هم پیش آمده باشد که هنگام نوشتن مقاله با latex نیازمند نوشتن فرمولی باشید که در یک فایل پی دی اف یا در یک وبسایت قرار داشته باشد. معمولا مجبور میشوید آن را از نو بنویسید بخصوص اگر فایل اصلی latex را نداشته باشید. با این ابزار می توانید براحتی از فرمول خود اسکرین شات بگیرید و latex آن را استخراج کنید.
https://mathpix.com/
Mathpix
Mathpix: document conversion done right.
Convert images and PDFs to LaTeX, DOCX, Overleaf, Markdown, Excel, ChemDraw and more, with our AI-powered document conversion technology.
در برهه ای زندگی میکنیم که جامعه به پرتگاه دو قطبی شدن پیش می رود و بلایای روزانه امانمان را بریده است. هر کسی دیدگاه های خود را بر سر دیگری فریاد میزند و جایی برای تنفس باقی نمانده است. این کانال برای نشر دیدگاه شخصی ساخته نشده است اما شاید بتوان با مطالعه مفید قدری آرام تر شد و بیشتر فکر کرد. کاری که این روزها به شدت به آن احتیاج داریم. اینجا یکی از مقالات بسیار معروف کانت را به اشتراک می گذارم. مقاله ای که فصل جدیدی را در تاریخ اروپا رقم زد که به «دوره روشنگری» معروف است. مقاله تنها یک تلنگر برای آغاز مطالعات بیشتر برای کسی است که بخواهد در این موارد بیشتر بداند. این مقاله فقط شش صفحه است و ترجمه عالی یداله موقن خواندن آن را راحتتر هم می کند. پاراگراف نخست:
روشنگری خروج انسان از صغارتی است که خود بر خویش تحمیل کرده است. صغارت ناتوانی در به کار بردن فهم خود بدون راهنمایی دیگری است. این صغارت خود-تحمیلی است اگر علت آن نه سفیه بودن بلکه فقدان عزم و شهامت در به کارگیری فهم خود بدون راهنمایی دیگری باشد. شعار روشنگری این است: در بکارگیری فهم خود شهامت داشته باش!
ادامه
روشنگری خروج انسان از صغارتی است که خود بر خویش تحمیل کرده است. صغارت ناتوانی در به کار بردن فهم خود بدون راهنمایی دیگری است. این صغارت خود-تحمیلی است اگر علت آن نه سفیه بودن بلکه فقدان عزم و شهامت در به کارگیری فهم خود بدون راهنمایی دیگری باشد. شعار روشنگری این است: در بکارگیری فهم خود شهامت داشته باش!
ادامه
Wikipedia
عصر روشنگری
جنبشی فلسفی و علمی متعلق به سدههای ۱۶ تا ۱۸ میلادی
This media is not supported in your browser
VIEW IN TELEGRAM
«ــ دریغا
ایکاش ایکاش
قضاوتی قضاوتی قضاوتی
درکار درکار درکار
میبود!» ــ
شاید اگرت توانِ شنفتن بود
پژواکِ آوازِ فروچکیدنِ خود را در تالارِ خاموشِ کهکشانهای بیخورشیدــ
چون هُرَّستِ آوارِ دریغ
میشنیدی:
«ــ کاشکی کاشکی
داوری داوری داوری
درکار درکار درکار درکار…»
اما داوری آن سوی در نشسته است، بیردای شومِ قاضیان.
ذاتش درایت و انصاف
هیأتش زمان. ــ
و خاطرهات تا جاودانِ جاویدان در گذرگاهِ ادوار داوری خواهد شد.
شاملو
ایکاش ایکاش
قضاوتی قضاوتی قضاوتی
درکار درکار درکار
میبود!» ــ
شاید اگرت توانِ شنفتن بود
پژواکِ آوازِ فروچکیدنِ خود را در تالارِ خاموشِ کهکشانهای بیخورشیدــ
چون هُرَّستِ آوارِ دریغ
میشنیدی:
«ــ کاشکی کاشکی
داوری داوری داوری
درکار درکار درکار درکار…»
اما داوری آن سوی در نشسته است، بیردای شومِ قاضیان.
ذاتش درایت و انصاف
هیأتش زمان. ــ
و خاطرهات تا جاودانِ جاویدان در گذرگاهِ ادوار داوری خواهد شد.
شاملو
🔵یک کتابخانه بسیار خوب برای طراحی بازی با پایتون🔵
کتابخانه arcade یک کتابخانه بسیار جالب و ساده پایتون برای طراحی بازی هست که ساختن گرافیک های ساده را آسان و در دسترس میکند. برای یادگیری می توانید آموزش زیر را دنبال کنید
https://realpython.com/arcade-python-game-framework/
کتابخانه arcade یک کتابخانه بسیار جالب و ساده پایتون برای طراحی بازی هست که ساختن گرافیک های ساده را آسان و در دسترس میکند. برای یادگیری می توانید آموزش زیر را دنبال کنید
https://realpython.com/arcade-python-game-framework/
Realpython
Arcade: A Primer on the Python Game Framework – Real Python
In this step-by-step tutorial, you'll learn how to use arcade, a modern Python framework for crafting games with compelling graphics and sound. Object-oriented and built for Python 3.6 and up, arcade provides you a modern set of tools for crafting great Python…
Forwarded from اتچ بات
Rohola Zandie, [16.01.20 23:24]
🐄این یک عکس آموزشی نیست! این کد واقعی ست.🍗
امروز قدری با ویژگی های جدید پایتون ۳ کار میکردم و متوجه اموجی ها شدم. به صورت سنتی حتی نوشتن کلمات خارج از دامنه ASCII مانند حروف فارسی داخل برنامه دشوار است و معمولا با خطاهای مختلف مربوط به کدگذاری مواجه میشوید. البته چندین سال است که بیشتر کامپایلر ها و برنامه ها سعی کرده اند که Unicode را پوشش دهند. اما الان با امکانات جدید حتی می توان از اموجی ها استفاده کرد!!
کد بالا دقیقا به همین شکل در ابونتو ۱۸ و پایتون ۳ قابل اجرا و دیدن است. کدی که نوشته ام سه عملکرد جالب پایتون را توضیح میدهد.(پایین داخل مین برنامه) اولی تابع map است که یک تابع و یک لیست به عنوان ورودی می گیرد و تابع را بر هر کدام از اعضای لیست اعمال کرده و خروجی میگیرد. مثلا اینجا تابع پختن(cook) هست که به ترتیب گاو را به همبرگر،سیب زمینی را به سیب زمینی سرخ کرده و مرغ را به سوخاری و ذرت را به ذرت بوداده تبدیل میکند!!
تابع دوم filter است که یک تابع بولین و یک لیست میگیرد و آنهایی که تابع برای آن ها true برنمیگرداند را فیلتر میکند. مثلا تابع اینکه این غذا گیاه هست یا نه. که ازین لیست فقط سیب زمینی سرخ کرده و ذرت هستند (البته طرفداران گیاه خواری به شدت مخالف این هستند که سیب زمینی سرخ کرده را جزو غذاهای سالم گیاهی حساب کنیم!)
و تابع آخر recduce هست که یک تابع و یک لیست می گیرد و به صورت بازگشتی دو تا از اعضای لیست را گرفته به تابع می دهد و خروجی آن را به بعدی میدهد. این یک مورد کمی حال بهم زن هست و خودتا از روی شکل ها می توانید بفهمید برای غذای خورده شده چه اتفاقی می افتد!!
من این کد را برای ویندوز امتحان نکرده ام. اگر کسی امتحان کرد و توانست اموجی ها را ببیند برای من بفرستد یا خبر دهد
🐄این یک عکس آموزشی نیست! این کد واقعی ست.🍗
امروز قدری با ویژگی های جدید پایتون ۳ کار میکردم و متوجه اموجی ها شدم. به صورت سنتی حتی نوشتن کلمات خارج از دامنه ASCII مانند حروف فارسی داخل برنامه دشوار است و معمولا با خطاهای مختلف مربوط به کدگذاری مواجه میشوید. البته چندین سال است که بیشتر کامپایلر ها و برنامه ها سعی کرده اند که Unicode را پوشش دهند. اما الان با امکانات جدید حتی می توان از اموجی ها استفاده کرد!!
کد بالا دقیقا به همین شکل در ابونتو ۱۸ و پایتون ۳ قابل اجرا و دیدن است. کدی که نوشته ام سه عملکرد جالب پایتون را توضیح میدهد.(پایین داخل مین برنامه) اولی تابع map است که یک تابع و یک لیست به عنوان ورودی می گیرد و تابع را بر هر کدام از اعضای لیست اعمال کرده و خروجی میگیرد. مثلا اینجا تابع پختن(cook) هست که به ترتیب گاو را به همبرگر،سیب زمینی را به سیب زمینی سرخ کرده و مرغ را به سوخاری و ذرت را به ذرت بوداده تبدیل میکند!!
تابع دوم filter است که یک تابع بولین و یک لیست میگیرد و آنهایی که تابع برای آن ها true برنمیگرداند را فیلتر میکند. مثلا تابع اینکه این غذا گیاه هست یا نه. که ازین لیست فقط سیب زمینی سرخ کرده و ذرت هستند (البته طرفداران گیاه خواری به شدت مخالف این هستند که سیب زمینی سرخ کرده را جزو غذاهای سالم گیاهی حساب کنیم!)
و تابع آخر recduce هست که یک تابع و یک لیست می گیرد و به صورت بازگشتی دو تا از اعضای لیست را گرفته به تابع می دهد و خروجی آن را به بعدی میدهد. این یک مورد کمی حال بهم زن هست و خودتا از روی شکل ها می توانید بفهمید برای غذای خورده شده چه اتفاقی می افتد!!
من این کد را برای ویندوز امتحان نکرده ام. اگر کسی امتحان کرد و توانست اموجی ها را ببیند برای من بفرستد یا خبر دهد
Telegram
attach 📎
“The post-totalitarian system touches people at every step, but it does so with its ideological gloves on. This is why life in the system is so thoroughly permeated with hypocrisy and lies: government by bureaucracy is called popular government; the working class is enslaved in the name of the working class; the complete degradation of the individual is presented as his or her ultimate liberation; depriving people of information is called making it available; the use of power to manipulate is called the public control of power, and the arbitrary abuse of power is called observing the legal code; the repression of culture is called its development; the expansion of imperial influence is presented as support for the oppressed; the lack of free expression becomes the highest form of freedom; farcical elections become the highest form of democracy; banning independent thought becomes the most scientific of world views; military occupation becomes fraternal assistance. Because the regime is captive to its own lies, it must falsify everything. It falsifies the past. It falsifies the present, and it falsifies the future. It falsifies statistics. It pretends not to possess an omnipotent and unprincipled police apparatus. It pretends to respect human rights. It pretends to persecute no one. It pretends to fear nothing. It pretends to pretend nothing.”
― Václav Havel, The Power of the Powerless (Routledge Revivals): Citizens Against the State in Central-eastern Europe
سیستم تمامیت خواه سیستمی ست که در هر قدم برای مردم قابل حس است اما این کار را با دستکش های ایدیولوژیک خاص خود انجام می دهد. و به همین خاطر است که زندگی در چنین سیستمی به طور تمام و کمال با ریاکاری و دروغ همراه است: دولت فشل دولت محبوب لقب می گیرد. طبقه کارگر به نام طبقه کارگر به بردگی کشیده می شود. تنزل کامل فرد به عنوان بالاترین نوع آزادی معرفی می شود. محروم کردن مردم از اطلاعات به عنوان دسترسی همگانی به اطلاعات، استفاده از قدرت برای دستکاری افکار عمومی به عنوان کنترل مردم بر قدرت، استفاده سلیقه ای و دلبخواهی از قدرت به عنوان اعمال قانون، سرکوب فرهنگ به عنوان توسعه آن، گسترش دخالت منطقه ای و جهانی به عنوان حمایت از مظلومان، نبود آزادی بیان به عنوان بالاترین شکل آزادی، انتخابات نمایشی به عنوان بالاترین فرم دموکراسی، منع افکار مستقل به عنوان بالاترین فرم جهان بینی علمی، اشغال و دخالت نظامی به عنوان کمک برادرانه! معرفی و به خورد مردم داده می شود. بخاطر اینکه رژیم اسیر دروغ های خودش شده است باید همه چیز را تحریف کند. گذشته را تحریف می کند. حال را تحریف می کند. آینده را تحریف می کند. آمار را تحریف می کند. تظاهر می کند که ابزار حضور همه جایی و غیر اصولیِ پلیسی را ندارد. تظاهر می کند به حقوق بشر احترام می گذارد. تظاهر می کند کسی را آزار و اذیت نمی کند. تظاهر می کند ترس ایجاد نمی کند. تظاهر می کند که به هیچ چیزی تظاهر نمی کند!
واکلاو هاول، قدرت بی قدرتان: شهروندان علیه حکومت در اروپای مرکزی و شرقی
― Václav Havel, The Power of the Powerless (Routledge Revivals): Citizens Against the State in Central-eastern Europe
سیستم تمامیت خواه سیستمی ست که در هر قدم برای مردم قابل حس است اما این کار را با دستکش های ایدیولوژیک خاص خود انجام می دهد. و به همین خاطر است که زندگی در چنین سیستمی به طور تمام و کمال با ریاکاری و دروغ همراه است: دولت فشل دولت محبوب لقب می گیرد. طبقه کارگر به نام طبقه کارگر به بردگی کشیده می شود. تنزل کامل فرد به عنوان بالاترین نوع آزادی معرفی می شود. محروم کردن مردم از اطلاعات به عنوان دسترسی همگانی به اطلاعات، استفاده از قدرت برای دستکاری افکار عمومی به عنوان کنترل مردم بر قدرت، استفاده سلیقه ای و دلبخواهی از قدرت به عنوان اعمال قانون، سرکوب فرهنگ به عنوان توسعه آن، گسترش دخالت منطقه ای و جهانی به عنوان حمایت از مظلومان، نبود آزادی بیان به عنوان بالاترین شکل آزادی، انتخابات نمایشی به عنوان بالاترین فرم دموکراسی، منع افکار مستقل به عنوان بالاترین فرم جهان بینی علمی، اشغال و دخالت نظامی به عنوان کمک برادرانه! معرفی و به خورد مردم داده می شود. بخاطر اینکه رژیم اسیر دروغ های خودش شده است باید همه چیز را تحریف کند. گذشته را تحریف می کند. حال را تحریف می کند. آینده را تحریف می کند. آمار را تحریف می کند. تظاهر می کند که ابزار حضور همه جایی و غیر اصولیِ پلیسی را ندارد. تظاهر می کند به حقوق بشر احترام می گذارد. تظاهر می کند کسی را آزار و اذیت نمی کند. تظاهر می کند ترس ایجاد نمی کند. تظاهر می کند که به هیچ چیزی تظاهر نمی کند!
واکلاو هاول، قدرت بی قدرتان: شهروندان علیه حکومت در اروپای مرکزی و شرقی
This media is not supported in your browser
VIEW IN TELEGRAM
تمام کتابهای جهان در یک کهکشان به هم مرتبط
با استفاده از تکنیک node2vec و UMAP متون تمام کتاب های جهان تحلیل و کنار هم گذاشته شده است تا یک ویژوالیزیشن شگفت انگیز را ایجاد کند. هر گره (node) در این شکل یک کتاب. اندازه آن گره اهمیت کتاب و فاصله کتاب ها به صورت فاصله اقلیدسی سنجیده می شود به این معنا که کتاب های مرتبط تر کنار هم هستند. همین کمک می کند تا با استفاده از رنگ ها رشته ها از هم جدا شود. رشته هایی که از لحاظ محتوایی به هم نزدیک ترند (مانند کامپیوتر و برق یا سینما و موسیقی)به هم نزدیک تر هستند.
https://galaxy.opensyllabus.org/
با استفاده از تکنیک node2vec و UMAP متون تمام کتاب های جهان تحلیل و کنار هم گذاشته شده است تا یک ویژوالیزیشن شگفت انگیز را ایجاد کند. هر گره (node) در این شکل یک کتاب. اندازه آن گره اهمیت کتاب و فاصله کتاب ها به صورت فاصله اقلیدسی سنجیده می شود به این معنا که کتاب های مرتبط تر کنار هم هستند. همین کمک می کند تا با استفاده از رنگ ها رشته ها از هم جدا شود. رشته هایی که از لحاظ محتوایی به هم نزدیک ترند (مانند کامپیوتر و برق یا سینما و موسیقی)به هم نزدیک تر هستند.
https://galaxy.opensyllabus.org/
This media is not supported in your browser
VIEW IN TELEGRAM
الگوریتم Metropolis hasting به صورت تصویری
🎲نمونه گیری تصادفی🎲
یکی از چالش های بزرگ در بیشتر مسایل یادگیری ماشین یافتن روشی برای نمونه گیری از یک توزیع احتمال است. دلیل این موضوع این است که توزیع های احتمالی که در یادگیری ماشین با آن ها سر و کار داریم بسیار پیچیده و شامل صدها و هزاران متغیر می شوند. اما مشکل حتی فراتر است چرا که ما نمی توانیم توزیع احتمال (به معنای واقعی آن یعنی برای تمام نمونه ها جمعش برابر با یک باشد)را ایجاد کنیم در عوض با یک تابع امتیاز روبرو هستیم. به عنوان یک مثال ساده اگر تابع امتیاز به صورت [1,4,6,2] باشد. می توان هر کدام از امتیاز ها را تقسیم به جمع کل کرد تا به یک توزیع احتمال به صورت [0.076,0.307, 0.4615, 0.1538] رسید. در حالت کلی تر این جمع کردن به انتگرال تبدیل می شود. مشکل دقیقا همینجاست. یعنی اگر ما تابع توزیع برای توابع با متغیر های زیاد را داشته باشیم انتگرال گرفتن بر روی آن ها از لحاظ محاسباتی بسیار بسیار دشوار است. همین موضوع باعث می شود که از خیر انتگرال گیری بگذریم و در عوض دنبال درست کردن توزیع احتمال با نمونه گیری از آن باشیم. اما چگونه ممکن است از توزیع احتمالی که فرم آن را نمیدانیم نمونه گیری کنیم؟ این کار فقط به قدری قوه تخیل نیاز دارد!
بیاید فرض کنیم که بر روی یک کوه قرار گرفته ایم که دقیقا فرم همان توزیع احتمال را دارد. مناطق مرتفع تر کوه جاهایی هستند که احتمال بیشتر است پس باید آن جا ها بیشتر باشیم. فرض کنید می توانیم هر بار یک پرش کنیم اما در عین حال نمی خواهیم خیلی از جای اصلی امان دور شویم. از یک نقطه کاملا تصادفی شروع می کنیم. و اولین پرش را انجام می دهیم. حالا بیایید بپرسیم آیا این نقطه جدید که رفته ایم دارای احتمال بیشتری است یا کمتر؟ خب چون توزیع احتمال را نمی دانیم نمی توانیم بگوییم ولی مهم نیست! چون سوال ما این بود که احتمال نسبت به نقطه قبلی بیشتر است یا کمتر! اگر اینطوری باشد نسبت تابع امتیاز کافی ست! اگر احتمال بیشتر بود به آن نقطه می رویم. اما برای اینکه نمی خواهیم یک مسافرت به قله کنیم بلکه از همه جا نمونه برداریم با یک شانسی که متناظر با همان نسبت احتمال از نقطه فعلی به بعدی است به نقطه بعدی می رویم! در شکل قرمز ها پرش هایی است که رد می کنیم چون ما را به نقاط خوبی نمیبرد ولی سبز ها را قبول می کنیم. به این ترتیب از هر نقطه به بعدی میپریم و به همین نحو ادامه می دهیم. همین روش ساده ی تصویری منجر به الگوریتم Metropolis-Hasting می شود که برای نمونه برداری از توزیع های پیچیده بسیار کاراست. برای اینکه دقیقا متوجه توضیحاتم بشوید می توانید به صورت یک پویانمایی کل فرآیند را در این جا ببینید.
الگوریتم های دیگر مانند Gibbs sampling هم از قوانین تصویری مشابهی پیروی میکنند.
یکی از چالش های بزرگ در بیشتر مسایل یادگیری ماشین یافتن روشی برای نمونه گیری از یک توزیع احتمال است. دلیل این موضوع این است که توزیع های احتمالی که در یادگیری ماشین با آن ها سر و کار داریم بسیار پیچیده و شامل صدها و هزاران متغیر می شوند. اما مشکل حتی فراتر است چرا که ما نمی توانیم توزیع احتمال (به معنای واقعی آن یعنی برای تمام نمونه ها جمعش برابر با یک باشد)را ایجاد کنیم در عوض با یک تابع امتیاز روبرو هستیم. به عنوان یک مثال ساده اگر تابع امتیاز به صورت [1,4,6,2] باشد. می توان هر کدام از امتیاز ها را تقسیم به جمع کل کرد تا به یک توزیع احتمال به صورت [0.076,0.307, 0.4615, 0.1538] رسید. در حالت کلی تر این جمع کردن به انتگرال تبدیل می شود. مشکل دقیقا همینجاست. یعنی اگر ما تابع توزیع برای توابع با متغیر های زیاد را داشته باشیم انتگرال گرفتن بر روی آن ها از لحاظ محاسباتی بسیار بسیار دشوار است. همین موضوع باعث می شود که از خیر انتگرال گیری بگذریم و در عوض دنبال درست کردن توزیع احتمال با نمونه گیری از آن باشیم. اما چگونه ممکن است از توزیع احتمالی که فرم آن را نمیدانیم نمونه گیری کنیم؟ این کار فقط به قدری قوه تخیل نیاز دارد!
بیاید فرض کنیم که بر روی یک کوه قرار گرفته ایم که دقیقا فرم همان توزیع احتمال را دارد. مناطق مرتفع تر کوه جاهایی هستند که احتمال بیشتر است پس باید آن جا ها بیشتر باشیم. فرض کنید می توانیم هر بار یک پرش کنیم اما در عین حال نمی خواهیم خیلی از جای اصلی امان دور شویم. از یک نقطه کاملا تصادفی شروع می کنیم. و اولین پرش را انجام می دهیم. حالا بیایید بپرسیم آیا این نقطه جدید که رفته ایم دارای احتمال بیشتری است یا کمتر؟ خب چون توزیع احتمال را نمی دانیم نمی توانیم بگوییم ولی مهم نیست! چون سوال ما این بود که احتمال نسبت به نقطه قبلی بیشتر است یا کمتر! اگر اینطوری باشد نسبت تابع امتیاز کافی ست! اگر احتمال بیشتر بود به آن نقطه می رویم. اما برای اینکه نمی خواهیم یک مسافرت به قله کنیم بلکه از همه جا نمونه برداریم با یک شانسی که متناظر با همان نسبت احتمال از نقطه فعلی به بعدی است به نقطه بعدی می رویم! در شکل قرمز ها پرش هایی است که رد می کنیم چون ما را به نقاط خوبی نمیبرد ولی سبز ها را قبول می کنیم. به این ترتیب از هر نقطه به بعدی میپریم و به همین نحو ادامه می دهیم. همین روش ساده ی تصویری منجر به الگوریتم Metropolis-Hasting می شود که برای نمونه برداری از توزیع های پیچیده بسیار کاراست. برای اینکه دقیقا متوجه توضیحاتم بشوید می توانید به صورت یک پویانمایی کل فرآیند را در این جا ببینید.
الگوریتم های دیگر مانند Gibbs sampling هم از قوانین تصویری مشابهی پیروی میکنند.
Forwarded from اتچ بات
ريتم صفر (rhythm 0)
در سال ۱۹۷۴، مارینا آبراموویچ یک اجرای هنری به مفهوم مدرن داشت:
او اعلام کرده بود که در طی اجرای ۶ ساعته، مانند یک شیء بی حرکت و بدون هر گونه واکنش خواهد بود.
در این مدت شرکت کنندگان اجازه داشتند هر کاری می خواهند با او بکنند و حتی از ۷۲ وسیله ای که آبراموویچ روی میز استودیو گذاشته بود هم استفاده نمایند.این اجرا «ریتم ِ صفر» نام داشت.
روی میز یادداشت زیر به چشم میخورد: راهکار: -۷۲ وسیله روی میز است که هر طور دوست داشتید می توانید آنها را روی من بکار ببرید.
تعهد: - من برای مدت ۶ ساعت صرفاً یک ابژه خواهم بود و مسوولیت هر نوع عواقبی را بر عهده می گیرم. -۶ ساعت از ۸ شب تا ۲ صبح می باشد.
روی میز هم ادوات لذت مانند پر، دستمالهای ابریشمی، گل، آب و ... بود و هم ابزار شکنجه: چاقو، تیغ، زنجیر، سیم... و حتی یک اسلحه ی پُر!
در ابتدای کار همه رودربایستی داشتند. یک نفر نزدیک شد و او را با گلها آراست. یک نفر دیگر او را با سیم به یک شیئ دیگر بست، دیگری قلقلکش داد...
کمی بعد او را بلند کردند و جایش را تغییر دادند!
کم کم زنجیرها را بکار گرفتند، به او آب پاشیدند و وقتی دیدند واکنشی نشان نمیدهد رفتارها حالت تهاجمیتر گرفت. منتقد هنری، توماس مک اویلی، که در این پرفورمنس شرکت کرده بود به خاطر میآورد که چگونه رفتار مردم رفته رفته، خشن و خشنتر شد.
«اولش ملایم بود، یک نفر او را چرخاند، یکی دیگر بازوهایش را بالا برد... ...»
مردی جلو آمد و با تیغ ریش تراشی که برداشته بود گردن او را مجروح کرد و مردی دیگر خارهای گل را روی شکم آبراموویچ کشید. در ساعت سوم تمام لباس های او رو پاره کرده بودند و آزارهای جنسی محدودی بر او انجام شد.
یک نفر تفنگ را به دستش داد و دستش را تا بالای گیجگاهش برد.
مسئول گالری وحشت زده آمد تفنگ را گرفت و از پنجره به بیرون پرت کرد. اون چنان متعهد به کارش بود که احتمال تجاوز یا حتی مرگ را به جان خریده بود.
با این پرفورمنس آبراموویچ نشان داد که اگر شرایط برای افرادی که به خشونت گرایش دارند مهیا باشد، به چه راحتی و با چه سرعتی آن را اعمال میکنند.
بعد از پایان ۶ ساعت پرفورمنس، آبراموویچ در سالن استودیو به راه افتاد و از مقابل دستیاران و بازدیدکنندگان گذشت.
همه از نگاه کردن به صورت او اجتناب میکردند.
بازدید کنندگان هم آنقدر عادی رفتار می کردند که انگار اصلاً از خشونتی که دمی پیش به خرج داده بودند و اینکه چگونه از آزار و حمله به او لذت برده بودند چیزی در خاطرشان نمانده.
این اثر نکته ای دهشتناک را در باب وجود بشر آشکار میکند.
به ما نشان میدهد که اگر شرایط مناسب باشد، یک انسان با چه سرعت و به چه آسانی میتواند به همنوع خود آسیب برساند، به چه سادگی میشود از شخصی که از خود دفاع نمیکند یا نمیجنگد بهرهکشی کرد
و این که اگر بسترش فراهم باشد اکثریت افراد به ظاهر «نرمال» جامعه می توانند در چشم برهم زدنی به موجودی حقیقتاً وحشی و خشن تبدیل شوند.
مارینا بعدها اعلام کرد که وقتی که شب به هتل خود برگشته بود، دید که یک دسته از موهایش در عرض چند ساعت سفید شده بود. خودداری و عدم واکنش او چنین هزینهای به او تحمیل کرده بود.
مارينا آبراموويچ و پرفورمنس ريتم صفر به ما ياد ميدهد كه وقتي منفعل باشيد هم خودتان نابود ميشويد و هم بخش نابودگر ديگران را بيدار مي كنيد.
وقتي منفعل باشید آدم ها وحشي ميشوند ، زورگو ميشوند، اخلاق و شأن انساني شما را ديگر هر کسی محترم نمي شمارد و امیال و عقده و غده هایی که درونش وجود دارد مجال ابراز وجود پیدا کرده و خود نمایی میکند !
"هر بار که ما ظلمی را شاهد هستیم و کاری نمیکنیم، شخصیت خود را آموزش میدهیم که در زمان مشکل منفعل باشد و به مرور تمام توانایی خود را برای دفاع از خود و کسانی که دوست داریم را از دست می دهیم"
جولیان آسانژ
در سال ۱۹۷۴، مارینا آبراموویچ یک اجرای هنری به مفهوم مدرن داشت:
او اعلام کرده بود که در طی اجرای ۶ ساعته، مانند یک شیء بی حرکت و بدون هر گونه واکنش خواهد بود.
در این مدت شرکت کنندگان اجازه داشتند هر کاری می خواهند با او بکنند و حتی از ۷۲ وسیله ای که آبراموویچ روی میز استودیو گذاشته بود هم استفاده نمایند.این اجرا «ریتم ِ صفر» نام داشت.
روی میز یادداشت زیر به چشم میخورد: راهکار: -۷۲ وسیله روی میز است که هر طور دوست داشتید می توانید آنها را روی من بکار ببرید.
تعهد: - من برای مدت ۶ ساعت صرفاً یک ابژه خواهم بود و مسوولیت هر نوع عواقبی را بر عهده می گیرم. -۶ ساعت از ۸ شب تا ۲ صبح می باشد.
روی میز هم ادوات لذت مانند پر، دستمالهای ابریشمی، گل، آب و ... بود و هم ابزار شکنجه: چاقو، تیغ، زنجیر، سیم... و حتی یک اسلحه ی پُر!
در ابتدای کار همه رودربایستی داشتند. یک نفر نزدیک شد و او را با گلها آراست. یک نفر دیگر او را با سیم به یک شیئ دیگر بست، دیگری قلقلکش داد...
کمی بعد او را بلند کردند و جایش را تغییر دادند!
کم کم زنجیرها را بکار گرفتند، به او آب پاشیدند و وقتی دیدند واکنشی نشان نمیدهد رفتارها حالت تهاجمیتر گرفت. منتقد هنری، توماس مک اویلی، که در این پرفورمنس شرکت کرده بود به خاطر میآورد که چگونه رفتار مردم رفته رفته، خشن و خشنتر شد.
«اولش ملایم بود، یک نفر او را چرخاند، یکی دیگر بازوهایش را بالا برد... ...»
مردی جلو آمد و با تیغ ریش تراشی که برداشته بود گردن او را مجروح کرد و مردی دیگر خارهای گل را روی شکم آبراموویچ کشید. در ساعت سوم تمام لباس های او رو پاره کرده بودند و آزارهای جنسی محدودی بر او انجام شد.
یک نفر تفنگ را به دستش داد و دستش را تا بالای گیجگاهش برد.
مسئول گالری وحشت زده آمد تفنگ را گرفت و از پنجره به بیرون پرت کرد. اون چنان متعهد به کارش بود که احتمال تجاوز یا حتی مرگ را به جان خریده بود.
با این پرفورمنس آبراموویچ نشان داد که اگر شرایط برای افرادی که به خشونت گرایش دارند مهیا باشد، به چه راحتی و با چه سرعتی آن را اعمال میکنند.
بعد از پایان ۶ ساعت پرفورمنس، آبراموویچ در سالن استودیو به راه افتاد و از مقابل دستیاران و بازدیدکنندگان گذشت.
همه از نگاه کردن به صورت او اجتناب میکردند.
بازدید کنندگان هم آنقدر عادی رفتار می کردند که انگار اصلاً از خشونتی که دمی پیش به خرج داده بودند و اینکه چگونه از آزار و حمله به او لذت برده بودند چیزی در خاطرشان نمانده.
این اثر نکته ای دهشتناک را در باب وجود بشر آشکار میکند.
به ما نشان میدهد که اگر شرایط مناسب باشد، یک انسان با چه سرعت و به چه آسانی میتواند به همنوع خود آسیب برساند، به چه سادگی میشود از شخصی که از خود دفاع نمیکند یا نمیجنگد بهرهکشی کرد
و این که اگر بسترش فراهم باشد اکثریت افراد به ظاهر «نرمال» جامعه می توانند در چشم برهم زدنی به موجودی حقیقتاً وحشی و خشن تبدیل شوند.
مارینا بعدها اعلام کرد که وقتی که شب به هتل خود برگشته بود، دید که یک دسته از موهایش در عرض چند ساعت سفید شده بود. خودداری و عدم واکنش او چنین هزینهای به او تحمیل کرده بود.
مارينا آبراموويچ و پرفورمنس ريتم صفر به ما ياد ميدهد كه وقتي منفعل باشيد هم خودتان نابود ميشويد و هم بخش نابودگر ديگران را بيدار مي كنيد.
وقتي منفعل باشید آدم ها وحشي ميشوند ، زورگو ميشوند، اخلاق و شأن انساني شما را ديگر هر کسی محترم نمي شمارد و امیال و عقده و غده هایی که درونش وجود دارد مجال ابراز وجود پیدا کرده و خود نمایی میکند !
"هر بار که ما ظلمی را شاهد هستیم و کاری نمیکنیم، شخصیت خود را آموزش میدهیم که در زمان مشکل منفعل باشد و به مرور تمام توانایی خود را برای دفاع از خود و کسانی که دوست داریم را از دست می دهیم"
جولیان آسانژ
Telegram
attach 📎
یکی از ابزارهای جالبی که امروز پیدا کردم سرویس جستجوی دیتاست هاست که توسط گوگل راه اندازی شده است. با این ابزار می توانید دیتاست مناسب خودتان در هر زمینه ای که باشید را پیدا کنید. گزینه های زیادی در سرچ وجود دارد که قطعا آن را از جستجوی مستقیم در گوگل متمایز می کند. به طور مثال قابلیت کامل کردن به شما کمک میکند دیتاست های مرتبط را پیدا کنید. همچنین می توانید بر اساس فرمت، بر اساس تاریخ انتشار و رایگان بودن و نبودن نتایج را به دلخواه تغییر دهید
https://datasetsearch.research.google.com/
#dataset
https://datasetsearch.research.google.com/
#dataset