روز تعطیل و بطور ویژه جمعهها روزهای خوبیه برای تست چیزهایی که در طول هفته و یا ماه و ...
روش کار و تحقیق کردید ؛
Speech to text
فایل mp3 و text ایی که قرار خواهم داد ورودی و خروجی مدل
speech to txt
هست که البته هنوز مدل رو بطور کامل با کل DataSet آموزش ندادم
ایده از اونجا شروع شد که :
۱- لازم داشتم ی دستیار صوتی کاملاً کاستوم برای خودم داشته باشم که مجبور نباشم دستورات (لینوکسی) رو پشت هم روی سیستمهای مختلفی که دارم بزنم، و حتی بدتر از اون وقتی دسترسی به سیستم ندارم با ی تلفن هم بشه کارهایی که میخوام رو انجام بدم (فکر کنم از ssh امنتر هم هست 😁)
۲- ازونجایی که تو گروه
English for everyone
هم عضو هستم دوست داشتم ی چیزی برای تبدیل listening به reading داشته باشم (به دلایل شخصی)
تا اینجا ۲تا از چالشها حل شد
کارهای بعدی ::
۱- تبدیل همین به فارسی هست که کار سختیه ولی خب ارزش امتحان کردن داره
مشکل اصلی و پیشرو دیتاست هست
۲- سیستم فقط با صدای خودم کار کنه و روی صدای اشخاص دیگه ارور چاپ کنه
روش کار و تحقیق کردید ؛
Speech to text
فایل mp3 و text ایی که قرار خواهم داد ورودی و خروجی مدل
speech to txt
هست که البته هنوز مدل رو بطور کامل با کل DataSet آموزش ندادم
ایده از اونجا شروع شد که :
۱- لازم داشتم ی دستیار صوتی کاملاً کاستوم برای خودم داشته باشم که مجبور نباشم دستورات (لینوکسی) رو پشت هم روی سیستمهای مختلفی که دارم بزنم، و حتی بدتر از اون وقتی دسترسی به سیستم ندارم با ی تلفن هم بشه کارهایی که میخوام رو انجام بدم (فکر کنم از ssh امنتر هم هست 😁)
۲- ازونجایی که تو گروه
English for everyone
هم عضو هستم دوست داشتم ی چیزی برای تبدیل listening به reading داشته باشم (به دلایل شخصی)
تا اینجا ۲تا از چالشها حل شد
کارهای بعدی ::
۱- تبدیل همین به فارسی هست که کار سختیه ولی خب ارزش امتحان کردن داره
مشکل اصلی و پیشرو دیتاست هست
۲- سیستم فقط با صدای خودم کار کنه و روی صدای اشخاص دیگه ارور چاپ کنه
از دوستان اگر کسی دیتاست فارسی برای این منظور میشناسه و بنده میتونم دسترسی بگیرم ممنون میشم به آیدی بنده ارسال کنید
@kingeng
در نهایت به احتمال بالا مدل فارسی برای دسترسی عمومی و تست توسعهدهندگان عزیز در گیتهاب قرار خواهد گرفت
@kingeng
در نهایت به احتمال بالا مدل فارسی برای دسترسی عمومی و تست توسعهدهندگان عزیز در گیتهاب قرار خواهد گرفت
دستاوردهای یادگیری عمیق(InTec)
10.ipynb
بنظرم این کد نیازی به ویس نداره ؛ فقط توجه کنید که چند لایه به conv vgg اضافه شده
نکته مهم دستور
conv_base.trainable = False
هست
که همون freeze کردن وزنها (برای اینجا vgg) هست
نکته مهم دستور
conv_base.trainable = False
هست
که همون freeze کردن وزنها (برای اینجا vgg) هست
پادکست و پادکستها
به اندازه کافی جا افتاده و اگر ی ذره صداها خوب باشه جذاب و جالب
حالا فرض کنید پادکستهای
Nvidia
باشه ؛ اونم با موضوع Ai که خوب جذابیت رو چندین و چند برابر میکنه
نسخه iOS :
https://itunes.apple.com/ca/podcast/the-ai-podcast/id1186480811?mt=2
نسخه Android :
https://play.google.com/music/listen?t=The_AI_Podcast&adbsc=social_20161220_68874946&adbid=811257941365882882&adbpl=tw&adbpr=61559439&view=%2Fps%2FI4kyn74qfrsdhrm35mcrf3igxzm
به اندازه کافی جا افتاده و اگر ی ذره صداها خوب باشه جذاب و جالب
حالا فرض کنید پادکستهای
Nvidia
باشه ؛ اونم با موضوع Ai که خوب جذابیت رو چندین و چند برابر میکنه
نسخه iOS :
https://itunes.apple.com/ca/podcast/the-ai-podcast/id1186480811?mt=2
نسخه Android :
https://play.google.com/music/listen?t=The_AI_Podcast&adbsc=social_20161220_68874946&adbid=811257941365882882&adbpl=tw&adbpr=61559439&view=%2Fps%2FI4kyn74qfrsdhrm35mcrf3igxzm
Apple Podcasts
NVIDIA AI Podcast
Technology Podcast · Updated Biweekly · One person, one interview, one story. Join us as we explore the impact of AI on our world, one amazing person at a time -- from the wildlife biologist tracking endangered rhinos across the savannah he…
Hi
Highly recommended to see what is going on in these scientific Links ( Code, articles, summary , discussions .... )
AI Articles with Code ( most in Python )
https://www.paperswithcode.com/
Public summaries in Machine learning , organized with community ( Like stackoverflowin AI )
https://www.shortscience.org/?s=cs
Search /Filtering recent Arxiv ( pre print submissions ) ; Keep track of recent papers with sorting papers by similarity
https://www.arxiv-sanity.com
Latest Arxiv papers with abstract summary ! ( web interfece and python code )
https://github.com/chiphuyen/sotawhat
More info here :
https://huyenchip.com/2018/10/04/sotawhat.html
تشکر ویژه از دکتر حبیبزاده بابت به اشتراک گذاری منابع
@pytens
Highly recommended to see what is going on in these scientific Links ( Code, articles, summary , discussions .... )
AI Articles with Code ( most in Python )
https://www.paperswithcode.com/
Public summaries in Machine learning , organized with community ( Like stackoverflowin AI )
https://www.shortscience.org/?s=cs
Search /Filtering recent Arxiv ( pre print submissions ) ; Keep track of recent papers with sorting papers by similarity
https://www.arxiv-sanity.com
Latest Arxiv papers with abstract summary ! ( web interfece and python code )
https://github.com/chiphuyen/sotawhat
More info here :
https://huyenchip.com/2018/10/04/sotawhat.html
تشکر ویژه از دکتر حبیبزاده بابت به اشتراک گذاری منابع
@pytens
huggingface.co
Trending Papers - Hugging Face
Your daily dose of AI research from AK
۲ جلدیایی که باید خوند، انقدر کتاب خوبی بود که بعد از خوندن تصمیم گرفتم بصورت فیزیکی داشته باشم. البته کتابی کاملاً کاربردی هست و این یعنی فرمول و ... نداره
.
کتاب کاملاً میتونه مرجع باشه ، مخصوصاً این که هم خیلی راحت و قابل درک توضیح داده شده و هم کدهای مفیدی در کتاب قرار داده شده
ماشینلرنینگ تا دیپ لرنینگ
#پیشنهاد_ویژه
.
کتاب کاملاً میتونه مرجع باشه ، مخصوصاً این که هم خیلی راحت و قابل درک توضیح داده شده و هم کدهای مفیدی در کتاب قرار داده شده
ماشینلرنینگ تا دیپ لرنینگ
#پیشنهاد_ویژه
چندتا تغییر خیلی کوچیک ولی جالب تو پایتون که سرعت اجرای کد رو افزایش میده :
اولین تغییر :
برای خودم اینجوری شروع شد که بجای
x += 1
توی کدهام از
x += True
استفاده کردم و باتوجه به
https://legacy.python.org/dev/peps/pep-0285/
bool هم از int گرفته شده و ...
خلاصه اینکه :
while True رو با while 1 مقایسه کردم
نتیجه :
While True : 1.37000703812
While 1 : 2.07638716698
و البته این مشکل مربوط به keywordها میشه (یه نگاهی بهش بکنید تو py3)
همین داستان رو برای
if x ==True: 0.212558031082
و
if x: 0.144327878952
هم داریم.
اولین تغییر :
برای خودم اینجوری شروع شد که بجای
x += 1
توی کدهام از
x += True
استفاده کردم و باتوجه به
https://legacy.python.org/dev/peps/pep-0285/
bool هم از int گرفته شده و ...
خلاصه اینکه :
while True رو با while 1 مقایسه کردم
نتیجه :
While True : 1.37000703812
While 1 : 2.07638716698
و البته این مشکل مربوط به keywordها میشه (یه نگاهی بهش بکنید تو py3)
همین داستان رو برای
if x ==True: 0.212558031082
و
if x: 0.144327878952
هم داریم.
❤1
بدون شک یکی از باحالترین و دمه دست ترین کتابخونههای پایتون برای توسعه سیستم
Recommender ؛ python suprise هست
اگر تاحالا باهاش کار نکردید - تستش ضرر نداره
https://surpriselib.com/
Recommender ؛ python suprise هست
اگر تاحالا باهاش کار نکردید - تستش ضرر نداره
https://surpriselib.com/
Surprise
Home
A simple Python library for building and testing recommender systems.
👍1
یک سری دیتا امروز به دستم رسید و بعد شناخت کافی از دیتا شروع به حذف خیلی از ویژگیها کردم ؛ و خب مثل خیلی از وقتا با دوستان به مشکل خوردم.
اینکه چرا باوجود تست الگوریتمهای بسیار و همچنین صرف زمان بیشاز معمول توسط دوستان راهحلی برای مسئله پیدا نشده و با وجود قانون : "ویژگی بیشتر یادگیری بهتر در دیپلرنینگ" (البته به گفته دوستان) ؛ کارم رو با حذف ویژگیها شروع کردم موضوع این متن خواهد بود که فکر میکنم مفید باشه
مشکل اصلی نفرین ابعاد بیشتر هست (سعی میکنم انگلیسی ننویسم وسط پست که متن بهم نریزه در نهایت اسمهاشون رو خواهم نوشت)
همین مسئله حتی یکی از دلایل ؛ دیتای خیلی زیاد برای دیپلرنینگ هست
ی مثال خوب و کمی تصورات هندسی برای درک :
فرض کنید ۱۰۰۰ تا داده دارید و مسئله ۲ کلاسه هست و هر نمونه فقط یک ویژگی هر ویژگی مقداری بین ۰ و ۱ خواهد داشت از الان تا آخر متن؛ ( همونطور که احتمالاْ همه میدونیم هر ویژگی یک بُعد رو نشون میده) میتونیم این دیتارو روی یک محور (X) و بین مقادیر ۰-۱ نشون بدیم
اگه بخوام ی خط بکشید و دیتاهارو از هم جدا کنید یا سخته یا اینکه خطای زیادی داره (رو کاغذ هم میشه تستش کرد)
پس از ی مفهموم دیگه کمک میگیرم و این طور تعریف میکنم :
نسبت داده ها به فضایی که در اختیارمون هست اسمش هم میشه
density
که برای ۱۰۰۰ تا داده روی ی بردار و مقدار بین ۰-۱ مقدار بزرگیه
چون دنسیتی دیتام خیلی بالاس ی ویژگی دیگه اضافه میکنم حالا بهتر شد توی فضای ۲بعدی باید ۱۰۰۰ تا دیتا رو از هم جدا کنم
و همینکارو ادامه میدم فضای ۳ بعدی ی مکعب رو در نظر بگیرید و این دیتا رو توش پراکنده کنید هربار که بُعدی رو اضافه میکنیم دنسیتی رو هم داریم کم میکنیم (شرایط بهتر شد و احتمالاْ میشه ی صفحه رسم کرد که دیتا رو بخوبی از هم جدا کنه )
حالا فرض کنید بجای ۱۰۰۰ تا دیتا فقط ۱۰ تا نمونه داده داریم میشه توی ۱ بعد دیتارو بخوبی پخش کرد و از هم جداکرد
توی ۲ بعد با چندین و چندخط میشه همینکارو کرد (هر خط یک مدل برای دستهبندی این دادههاس)
وقتی توی فضای ۳بعدی (دیتا با ۳ ویژگی) میریم ؛ دنسیتی بسیار پایین میاد و مدلهای خیلی خیلی زیادی برای جداسازی دیتا وجود خواهد داشت :
وقتی میگم مدلهای بسیار زیاد به این فکر کنید که چون دیتا کم هست و فضای مسئله بزرگ برای دسته بندی مدلها بسیاری از فضارو با حدس و گمان تقصیم میکنند؛ اگرچه عملکرد مدل روی دیتای آموزش خوبه اما هیچ تضمینی برای دیتای تست وجود نداره
اینکه چرا باوجود تست الگوریتمهای بسیار و همچنین صرف زمان بیشاز معمول توسط دوستان راهحلی برای مسئله پیدا نشده و با وجود قانون : "ویژگی بیشتر یادگیری بهتر در دیپلرنینگ" (البته به گفته دوستان) ؛ کارم رو با حذف ویژگیها شروع کردم موضوع این متن خواهد بود که فکر میکنم مفید باشه
مشکل اصلی نفرین ابعاد بیشتر هست (سعی میکنم انگلیسی ننویسم وسط پست که متن بهم نریزه در نهایت اسمهاشون رو خواهم نوشت)
همین مسئله حتی یکی از دلایل ؛ دیتای خیلی زیاد برای دیپلرنینگ هست
ی مثال خوب و کمی تصورات هندسی برای درک :
فرض کنید ۱۰۰۰ تا داده دارید و مسئله ۲ کلاسه هست و هر نمونه فقط یک ویژگی هر ویژگی مقداری بین ۰ و ۱ خواهد داشت از الان تا آخر متن؛ ( همونطور که احتمالاْ همه میدونیم هر ویژگی یک بُعد رو نشون میده) میتونیم این دیتارو روی یک محور (X) و بین مقادیر ۰-۱ نشون بدیم
اگه بخوام ی خط بکشید و دیتاهارو از هم جدا کنید یا سخته یا اینکه خطای زیادی داره (رو کاغذ هم میشه تستش کرد)
پس از ی مفهموم دیگه کمک میگیرم و این طور تعریف میکنم :
نسبت داده ها به فضایی که در اختیارمون هست اسمش هم میشه
density
که برای ۱۰۰۰ تا داده روی ی بردار و مقدار بین ۰-۱ مقدار بزرگیه
چون دنسیتی دیتام خیلی بالاس ی ویژگی دیگه اضافه میکنم حالا بهتر شد توی فضای ۲بعدی باید ۱۰۰۰ تا دیتا رو از هم جدا کنم
و همینکارو ادامه میدم فضای ۳ بعدی ی مکعب رو در نظر بگیرید و این دیتا رو توش پراکنده کنید هربار که بُعدی رو اضافه میکنیم دنسیتی رو هم داریم کم میکنیم (شرایط بهتر شد و احتمالاْ میشه ی صفحه رسم کرد که دیتا رو بخوبی از هم جدا کنه )
حالا فرض کنید بجای ۱۰۰۰ تا دیتا فقط ۱۰ تا نمونه داده داریم میشه توی ۱ بعد دیتارو بخوبی پخش کرد و از هم جداکرد
توی ۲ بعد با چندین و چندخط میشه همینکارو کرد (هر خط یک مدل برای دستهبندی این دادههاس)
وقتی توی فضای ۳بعدی (دیتا با ۳ ویژگی) میریم ؛ دنسیتی بسیار پایین میاد و مدلهای خیلی خیلی زیادی برای جداسازی دیتا وجود خواهد داشت :
وقتی میگم مدلهای بسیار زیاد به این فکر کنید که چون دیتا کم هست و فضای مسئله بزرگ برای دسته بندی مدلها بسیاری از فضارو با حدس و گمان تقصیم میکنند؛ اگرچه عملکرد مدل روی دیتای آموزش خوبه اما هیچ تضمینی برای دیتای تست وجود نداره
👍2🔥2
با این حال خیلی وقتا میبینیم که زیاد کردن ویژگی بهتر عملکرد (با اینکه فضای مسئله بیخود بزرگتر شد و دنسیتی کمتر) دو حالت رو میشه در نظر گرفت :
۱- مثال اول جایی که دنسیتی خیلی بزرگ بود دیتا ۱۰۰۰ و فضای مسئله بردار ۰-۱
ولی حالت دوم که شاید چیزی ازش ندونیم نجات دهندهمون هست
۲- نعمت وجود ساختار :
همون ۱۰ تا دونه دیتا و فضای ۳ بعدی رو تصور کنید؛ نعمت وجود ساختار چیزیه که نمیذاره دیتای شما توی این فضای ۳بعدی پارکنده باشه و فرض کنید ۵ نمونه دسته منفی دقیقاْ کنار هم قرار بگیرند همین شرایط برای دسته مثبت هم هست
و همین شرایط باعث میشه به راحتی بشه دیتاهارو از هم جدا کرد علاوه براون نعمت وجود ساختار مارو بیمه هم میکنه و باعث میشه مدل در زمان تست هم عملکرد خوبی داشته باشه
چرا که احتمال زیاد دیتای تست هم جایی در نزدیکی دیتاهای ترین خواهد بود
اما چون همیشه اینطور نیست :
۱- دیتا رو خیلی خوب بشناسید
۲- ويژگی های اضافه رو حذف کنید
۳- زمان کمتری برای ترین کردن مدل هم صرف خواهید کرد
اگر علاقهایی به حذف ویژگیهای اضافه ندارید
سعی کنید دنسیتی رو بالا نگه دارید (دیتای بیشتر) تا شبکه برای تولید مدل نیاز به حدس و گمان بسیار نداشته باشه (شانسی نشه)
نفرین بعد بالا :
The curse of dimensionality
نعمت وجود ساختار :
Blessing of structure
دیدن این لینکها خالی از لطف نیست :
https://www.visiondummy.com/2014/04/curse-dimensionality-affect-classification/
https://hackernoon.com/what-killed-the-curse-of-dimensionality-8dbfad265bbe
۱- مثال اول جایی که دنسیتی خیلی بزرگ بود دیتا ۱۰۰۰ و فضای مسئله بردار ۰-۱
ولی حالت دوم که شاید چیزی ازش ندونیم نجات دهندهمون هست
۲- نعمت وجود ساختار :
همون ۱۰ تا دونه دیتا و فضای ۳ بعدی رو تصور کنید؛ نعمت وجود ساختار چیزیه که نمیذاره دیتای شما توی این فضای ۳بعدی پارکنده باشه و فرض کنید ۵ نمونه دسته منفی دقیقاْ کنار هم قرار بگیرند همین شرایط برای دسته مثبت هم هست
و همین شرایط باعث میشه به راحتی بشه دیتاهارو از هم جدا کرد علاوه براون نعمت وجود ساختار مارو بیمه هم میکنه و باعث میشه مدل در زمان تست هم عملکرد خوبی داشته باشه
چرا که احتمال زیاد دیتای تست هم جایی در نزدیکی دیتاهای ترین خواهد بود
اما چون همیشه اینطور نیست :
۱- دیتا رو خیلی خوب بشناسید
۲- ويژگی های اضافه رو حذف کنید
۳- زمان کمتری برای ترین کردن مدل هم صرف خواهید کرد
اگر علاقهایی به حذف ویژگیهای اضافه ندارید
سعی کنید دنسیتی رو بالا نگه دارید (دیتای بیشتر) تا شبکه برای تولید مدل نیاز به حدس و گمان بسیار نداشته باشه (شانسی نشه)
نفرین بعد بالا :
The curse of dimensionality
نعمت وجود ساختار :
Blessing of structure
دیدن این لینکها خالی از لطف نیست :
https://www.visiondummy.com/2014/04/curse-dimensionality-affect-classification/
https://hackernoon.com/what-killed-the-curse-of-dimensionality-8dbfad265bbe
Computer vision for dummies
The Curse of Dimensionality in Classification
In this article, we discuss the so called 'Curse of Dimensionality' and overfitting as a result, and explain why it is important when designing a classifier
این ویدئو کاری با دیپ لرنینگ نداره
فقط بخاطر جذابیت و کاربرد ایده به اشتراک گذاشته میشه
دیدنش خالی از لطف نیست
https://www.youtube.com/watch?v=eUzB0L0mSCI
فقط بخاطر جذابیت و کاربرد ایده به اشتراک گذاشته میشه
دیدنش خالی از لطف نیست
https://www.youtube.com/watch?v=eUzB0L0mSCI
YouTube
Can You Recover Sound From Images?
Is it possible to reconstruct sound from high-speed video images?
Part of this video was sponsored by LastPass: https://bit.ly/2SmRQkk
Special thanks to Dr. Abe Davis for revisiting his research with me: https://abedavis.com
This video was based on research…
Part of this video was sponsored by LastPass: https://bit.ly/2SmRQkk
Special thanks to Dr. Abe Davis for revisiting his research with me: https://abedavis.com
This video was based on research…
❤1