MatlabTips
891 subscribers
462 photos
72 videos
54 files
304 links
آموزش MATLAB با "استفاده از ویدئو و متن" در سطوح مبتدی تا پیشرفته
پاسخ به سوالات تخصصی:
@roholazandie
Download Telegram
کتاب Mirifici Logarithmorum Canonis Constructio به کوشش جان نپیر (John Napier) اسکاتلندی، سازنده ی لگاریتم در قرن ۱۶ میلادی. او تمام عمر خود را بر روی کامل کردن این کتاب صرف کرد تا آخرین روزی که از دنیا رفت. ادامه و تکمیل آن توسط هنری بریگز ادامه پیدا کرد.

تاثیر این کتاب بر پیشرفت تمدن غرب در فناوری، ابزار سازی، ناوبری دریایی و عصر اکتشاف غیر قابل انکار است!
(تصاویر از موزه ی تاریخ علم،‌ آکسفورد)
🔵نردبان شهود🔵


جمله ی مشهوری از آلفرد نورث وایتهد می‌گوید: «تمدن با گسترش تعداد عملیاتی که می‌توانیم بدون اندیشیدن دربارهٔ آن‌ها انجام دهیم، پیشرفت می‌کند.» در این زمینه، «عملیات» باید فراتر از محاسبات صرف تفسیر شود. توسعۀ ابزارهای ریاضی که به ما در اجتناب از وظایف تکراری کمک می‌کنند، نقطۀ آغاز این عملیات را در تاریخ رقم می‌زند.

برای مثال، ما در مدرسه با لگاریتم‌ها آشنا می‌شویم بی‌آنکه بدانیم در ابتدا چنین محاسباتی از نیازهای ناوبری دریانوردان سرچشمه گرفته‌ بودند. لگاریتم به آن‌ها امکان محاسبۀ سریع‌تر برای سفرهای طولانی را می‌داد. کتاب Mirifici Logarithmorum Canonis Descriptio نوشتۀ جان نَپیر درقرن ۱۶ میلادی محصول تلاش خستگی ناپذیر و مادام العمر او برای تهیۀ جداول لگاریتم بود. این جداول بعدها نه‌تنها توسط دریانوردان، بلکه در صنایع گوناگونی که به محاسبات سریع نیاز داشتند نیز به کار رفت. این جدول بزرگترین کامپیوتر زمان خود بود که راه تمدن غرب را برای ابزار سازی، سلاح و ناوبری دریایی و در نهایت عصر اکتشاف و چیرگی را فراهم کرد.

دنباله ی چنین ابزارهایی درنهایت با اختراع رایانه‌های دیجیتال، بشر را توانست بر سطح کرۀ ماه فرود آورد. اگرچه در اینجا چندان به تاریخ محاسبات نمی‌پردازیم، اما آشکار است که هر ابزار جدیدی که مجموعۀ خاصی از عملیات را بر عهده می‌گیرد، ما را از انجام دستی آن‌ها بی‌نیاز کرده و راه را برای پرداختن به اشکال پیچیده‌تر محاسبات هموار می‌کند.

پیشرفت محاسبات عددی زمینه را برای محاسبات ماتریسی فراهم ساخت و در پی آن موتورهای گرافیکی و محاسبات رده‌بالاتر ظهور یافتند. به‌عنوان نمونه، یکی از مهم‌ترین الگوریتم‌های عصر ما تبدیل فوریۀ سریع (FFT) است. گیلبرت استرنگ ریاضیدان نامی آمریکایی، FFT را مهم‌ترین الگوریتم عددی دوران ما می‌داند، چرا که این الگوریتم روش ذخیره‌سازی، انتقال و دستکاری داده‌ها — از موسیقی گرفته تا تصاویر و ویدیوها — را در بستر اینترنت و دستگاه‌های دیجیتال دگرگون کرد. امروزه، وقتی با موسیقی دیجیتال سر و کار داریم، در واقع مستقیماً با امواج صوتی خام مواجه نیستیم، بلکه با لایه‌ای از محاسبات پنهان روبرو هستیم که داده‌ها را برای ما پردازش و بهینه می‌کنند.

بیایید لحظه‌ای در تاریخ محاسبات تأمل کنیم. در هر مرحله، بشر ابزارهایی پدید آورده که عملیات را خودکار کرده و ما را از انجام دستی آن‌ها بی‌نیاز می‌کنند. این ابزارها همگی از اصلی بنیادین پیروی می‌کنند: آن‌ها داده‌ها را فشرده کرده و در قالبی متراکم‌تر نمایش می‌دهند. گزاف نیست اگر بگوییم تاریخ محاسبات انسانی، در اصل، تاریخ فشرده‌سازی است.

امروزه وارد دورانی شده‌ایم که عمدتاً تحت سیطرۀ چیزی موسوم به هوش مصنوعی (AI) قرار دارد. با این حال، ماهیت این جهش فناورانه اساساً با پیشرفت‌های پیشین تفاوت اساسی ندارد. مدل‌های هوش مصنوعی در ذات خود ابزارهای تازه‌ای هستند که داده‌ها را در ابعادی بی‌سابقه فشرده می‌کنند. به‌عنوان نمونه، FFT یک تصویر را با تحلیل مؤلفه‌های فرکانسی آن فشرده می‌کند. به همین ترتیب، مدل‌های مدرنِ گفتار و تصویر نیز این اصل را، نه‌تنها بر یک تصویر یا کلیپ صوتی تنها، بلکه بر مجموعه‌های عظیمی از دیتاست ها اعمال می‌کنند. در خصوص مدل‌های زبانی نیز همین امر صدق می‌کند؛ این مدل‌ها در واقع تمامی زبان انسانی را در یک مدل واحد فشرده می‌سازند. هرچند مقیاس و پیچیدگی بیشتر شده، اما اصل زیرساختی — یعنی تجزیۀ طیفی (spectral decomposition) — تغییری نکرده است.
توان محاسباتی این مدل‌ها چنان گسترده است که گاه به نظر می‌رسد کاری نیست که از عهدۀ آن‌ها برنیاید. آن‌ها شعر می‌سرایند، مقالات علمی را خلاصه می‌کنند، پرونده‌های حقوقی را تحلیل می‌کنند، مسائل ریاضی را حل می‌کنند، دستور پخت غذا می‌سازند، رمان می‌نویسند و غیره و غیره. ممکن است حس کنیم به «آخر بازی» رسیده‌ایم؛ جایی که ماشین‌ها همۀ وظایف فکری را بر عهده گرفته‌اند و دیگر جایی برای نقش‌آفرینی انسان نمانده است. اما آیا واقعاً چنین است؟ چگونه به‌عنوان یک تمدن می‌توانیم همچنان پیش برویم وقتی به نظر می‌رسد دیگر کاری برای ما باقی نمانده است و غائله را به مشتی سیلیکون باخته ایم؟

(ادامه دارد)
🔵نردبان شهود (ادامه)🔵

خبر خوب این است که چنین برداشتی درست نیست. برای درک دلیل آن، بیایید نگاهی دقیق‌تر به چگونگی عملکرد مدل‌های زبانی بیندازیم. یکی از بزرگ‌ترین چالش‌های این مدل‌ها، پدیدۀ «توهّم» (hallucination) است؛ یعنی زمانی که مدل، اطلاعاتی کاملاً نادرست تولید می‌کند. برای مثال، ممکن است یک مدل زبانی بگوید: «پایتخت فرانسه برلین است»، که آشکارا اشتباه است. در حالی که با آموزش بیشتر می‌توان این توهّم را کاهش داد، این کار عمدتاً با کاهش آنتروپی مدل انجام می‌شود.

در اینجا، آنتروپی نشان‌دهندۀ میزان تصادفی بودن یا انعطاف‌پذیری مدل در انتخاب واژۀ بعدی است. هرچه آنتروپی بالاتر باشد، مدل در گزینش کلمه آزادی بیشتری دارد. مدل‌های زبانی از طریق نمونه‌گیری از یک توزیع احتمالاتی، متن تولید می‌کنند؛ به این معنا که در پاسخ به یک پرسش یکسان (prompt)، ممکن است خروجی‌ هر بار اندکی متفاوت باشد. همین تنوع است که امکان تعمیم و بیان یک مفهوم را به شیوه‌های مختلف فراهم می‌کند. اما این امر به یک بده بستان (trade off) بنیادین منتهی می‌شود:

- آنتروپی پایین‌تر به مدل دقیق‌تری می‌انجامد، اما به بهای کاهش خلاقیت و اکتشاف.
- آنتروپی بالاتر خروجی‌های متنوع‌تر و خلاقانه‌تر تولید می‌کند، اما احتمال بروز اطلاعات غلط یا بی‌معنا نیز افزایش می‌یابد.

این موضوع پیوند شگفت‌انگیزی میان خلاقیت و تصادفی بودن را نشان می‌دهد — رابطه‌ای که در تفکر انسان نیز وجود دارد. اما واقعاً مدل‌های زبانی بزرگ (LLM) نظیر ChatGPT تا چه اندازه آنتروپی دارند؟ شگفت اینکه این مدل‌ها برای جلوگیری از تولید اطلاعات غلط آنقدر آموزش دیده‌اند که آنتروپی آن‌ها از گفتار طبیعی انسان کمتر شده است — و مسئله دقیقاً از همینجا ناشی می‌شود. (پژوهش های زیادی این واقعیت را نشان می دهند که در گفتار دیگری به آن ها میپردازیم.)
ما انسان‌ها در گفت‌وگو، آزادی عمل بیشتری در انتخاب کلمات داریم و در عین حال می‌توانیم خود را تصحیح کرده و از خطاهایی که چنین مدلهایی به سادگی مرتکب می شوند، بپرهیزیم. افزون بر این، برخلاف مدل‌های هوش مصنوعی، ما تنها به متن ها متکی نیستیم. انتخاب واژگان ما تحت تأثیر عوامل گوناگون بیرونی و درونی است.

برای نمونه، تصور کنید فردی وارد یک میکده ی آلمانی می‌شود. یافته‌های روان‌شناختی حاکی از آن است که انسان‌ها گفتار خود را با محیط پیرامون‌شان تطبیق می‌دهند. در چنین شرایطی، شاید ناخواسته واژگانی را به کار ببرند که بیشتر با فرهنگ آلمانی همخوانی دارد. ولی این تنوع زبانی بسی فراتر می‌رود؛ پیشینه، سن، جنسیت، احساسات، شرایط اجتماعی و حتی رژیم غذایی می‌تواند به‌شکلی نامحسوس بر شیوۀ بیان ما اثر بگذارد.
برخلاف ماشین‌ها، ما موجوداتی زیستی هستیم که پیوسته با شبکه‌ای پیچیده از ورودی‌های حسی، عواطف و تجربیات زیسته سازگار می‌شویم. این غنای ارتباط انسانی — ریشه‌گرفته از پیش‌بینی‌ناپذیری، بافت و سازگاری — چیزی است که هوش مصنوعی، با وجود تمام توانایی‌هایش، هنوز نتوانسته است به‌طور کامل بازتولید کند.

مدل‌های زبانی بزرگ عموماً بر دقت و آنتروپی پایین متمرکزند تا خروجی‌هایی قابل پیش‌بینی و قابل اتکا داشته باشند. همین نقصان فضایی گسترده برای خلاقیت انسانی باقی می‌گذارد که هنوز خارج از دسترس هر مدل زبانی بزرگی است. همان‌طور که یک ماشین‌حساب، معنای واقعی ریاضیات را درک نمی‌کند و تنها عملیات از پیش تعیین‌شده را اجرا می‌کند، مدل‌های زبانی بزرگ نیز فاقد شهود هستند و صرفاً در سازمان‌دهی و پردازش اطلاعات یاری می‌رسانند.
هنگامی که از شهود سخن می‌گوییم، به چیزی مرموز یا ناملموس اشاره نمی‌کنیم. شهود فرایندی واقعی و ملموس است که از تجربۀ کل‌نگر و درک جامع ما از جهان ناشی می‌شود. این فرایند به ما امکان می‌دهد مفاهیمی ظاهراً بی‌ارتباط را به هم ربط دهیم، حتی زمانی که به‌طور خودآگاه از این ارتباط‌ها باخبر نیستیم. برای نمونه، یک مدل زبانی بزرگ هرگز نمی‌تواند حقیقتاً به رابطۀ بین دو موضوع ظاهرا بی ربط مانند «تولیدمثل زیستی» و «توپولوژی ریاضی» پی ببرد؛ کاری که می کند اما تنها بازگویی شباهت‌های سطحی است. توانایی ایجاد بینش‌های عمیق میان‌رشته‌ای، نیازمند تجربه‌ای از جهان است که فراتر از متن، کتاب یا مقالۀ پژوهشی است. چنین توانایی‌ای از تصاویری ذهنی، درک حسی، عواطف، تجربیات زیسته و تفکر انتزاعی ما نشئت می‌گیرد — عناصری که هیچ‌یک حقیقتاً در دسترس مدل‌های زبانی بزرگ نیستند.
انسان‌ها توانایی منحصربه‌فردی برای «توهّم خلاقانه» (creative hallucination) دارند و می‌توانند وارد فضاهای مفهومی شوند که مرز میان «معنا» و «بی‌معنا» در آن‌ها محو می‌شود. درست در چنین حوزه‌های مبهم و نامطمئنی است که ایده‌ها، اکتشافات و پارادایم‌های تازه شکل می‌گیرند. بزرگ‌ترین جهش‌های علمی اغلب به‌صورت پرش‌هایی در ساحت شهود های عجیب آغاز می‌شوند که ممکن است ابتدا بی‌معنا به نظر برسند اما در نهایت حقایقی عمیق را آشکار می‌کنند. در مقابل، مدل‌های زبانی بزرگ فاقد ظرفیت چنان جهش‌هایی هستند و صرفاً می‌توانند الگوهای موجود را بر اساس داده‌های آموزشی خود تقویت کنند.

با این همه، نباید مدل‌های زبانی بزرگ را به چشم رقیبی برای شهود نگریست؛ بلکه باید آن‌ها را ابزاری دانست که شهود را تقویت می‌کنند. همان‌طور که وایتهد پیشرفت تمدن را ناشی از واگذاری عملیات سطح پایین به ماشین‌ها توصیف کرد، ما نیز می‌توانیم وظایف روزمرۀ شناختی را به مدل‌های زبانی بزرگ بسپاریم و در عوض بر استدلال‌های عمیق‌تر مبتنی بر شهود متمرکز شویم. در اصل، هر عملیاتی در ذهن که هنوز نیازمند تلاش آگاهانه (یا غیر آگاهانه) است، نوعی شهود محسوب می‌شود. با پیشرفت فناوری، بسیاری از شهودهای کنونی ما نیز خودکار خواهند شد و ما را مجبور می‌کنند از نردبان تفکر و شهود یک پله بالاتر صعود کنیم.

ازاین‌رو، به جای هراس از اینکه هوش مصنوعی جایگزین تفکر انسانی شود، باید دریابیم که این فناوری ما را وامی‌دارد معنای تفکر، آفرینش و کاوش را دوباره تعریف کنیم. مرز شهود انسانی همواره در حال گسترش خواهد ماند و یک گام از خودکارسازی جلوتر خواهد ایستاد، تا زمانی که به جست‌وجوی ناشناخته‌ها ادامه دهیم.

https://vrgl.ir/kWTml
سنگ نگاره ای اهورامزدا (پروردگار نکویی ها) در نقش رستم
🔵یک جهان از دل زمان (زُروان)🔵


همه ایده‌های بزرگ داستانی برای منشأ خود دارند! آن‌ها با پاسخ دادن به چند پرسش بنیادی آغاز می‌شوند. در سراسر جهان، این داستان‌های پیدایش متفاوت هستند. برای مثال، در باورهای کهن هندی، جهان بر پشت یک فیل استوار است. در میان این روایت‌های باستانی، کیهان‌شناسی زرتشتی به‌طور ویژه‌ای قابل توجه است. این روایت با زمان (زرون، زروان، و زمان در فارسی باستان) آغاز می‌شود، پدری که نظم و آشوب را در نبردی ابدی در برابر یکدیگر قرار می‌دهد. این روایت چنین می‌گوید:

در آغاز، خدای بزرگ زروان (ایزد) به‌تنهایی وجود داشت. او که آرزوی فرزندانی را داشت که "آسمان و دوزخ و هرآنچه در میان آن‌هاست" را خلق کنند، هزار سال قربانی کرد. در پایان این دوران، زروان دچار تردید شد و در لحظه‌ای از این تردید، اهورامزدا و اهریمن پدید آمدند: اهورامزدا از برای قربانی و اهریمن از برای تردید. هنگامی که زروان دریافت که دو فرزند دوقلو متولد خواهند شد، تصمیم گرفت که نخستین فرزند سلطه بر آفرینش را به دست آورد. اهورامزدا این تصمیم زروان را دریافت و آن را به برادر خود ابلاغ کرد. اهریمن که از این تصمیم آگاه شد، پیش از اهورامزدا رحم را درید و زودتر پا به جهان گذاشت. زروان که عهد خود را به یاد آورد، سلطنت را به اهریمن سپرد، اما آن را به دوره‌ای ۹۰۰۰ ساله محدود کرد؛ پس از آن، اهورامزدا برای همیشه فرمانروایی خواهد کرد.


بدون وجود اهریمن (آشوب)، هیچ شری که نیازمند آن باشد ما بر آن غلبه کنیم وجود نداشت، و در نتیجه هیچ بستری برای انتخاب اخلاقی و رشد مهیا نمی‌شد. وجود اهریمن همچنین به مفهوم نظم کیهانی (اشه) گره خورده است. نبرد میان اهورامزدا و اهریمن در نهایت به بازگرداندن و حفظ این نظم منجر می‌شود. تلاش‌های اهریمن برای برهم زدن اشه یا نظم، اعمال انسان‌هایی که برای حفظ آن می‌کوشند را معنادارتر می‌کند.

این تصور به صورتی بنیادی نشان می دهد که بر خلاف بسیاری از ادیان که نظم را برهانی از یک خدا می دانند در این جا نظم ناشی از بی نظمی است!‌ بستری که باعث می شود ما نظم را ببینیم!‌ در امر اخلاقی هم پیام زرتشت بازگشت به وجدان و توجه به کردار نیک پندار نیک و گفتار نیک است. نظم یا خیر در تقابل با بی نظمی و نابودی هستند و این چیزی است که اینجا بر آن تاکیید شده است. زمان مادر خیر و شر و تصمیم گیرنده ی نهایی این پیکار است:

اما داوری آن سوی در نشسته است، بی‌ردای شومِ قاضیان.
ذاتش درایت و انصاف
هیأتش زمان.
(شاملو)

الهام‌بخش است که بدانیم علم مدرن نیز، هرچند از روشی کاملاً متفاوت، به درکی بنیادین مشابه دست می‌یابد. در بخش بعدی، تمرکز ما بر روی ریاضیات توصیف‌کننده این تعامل پیچیده میان نظم و آشوب خواهد بود. با بررسی این اصول ریاضی، فرآیندهایی را کشف خواهیم کرد که دنیای همواره در تغییر ما را هدایت می‌کنند، دنیایی که در آن نظم و آشوب همزیستی دارند و واقعیت را شکل می‌دهند. علم جدید نشان می دهد که چگونه پیچیدگی و نظم از دل بی نظمی ایجاد شده و در خلاف جهت آن حرکت می کند! در این صورت انسان امروزی نیازمند آشتی دادن باورهای جهان شمولش در مورد هستی با علم جدید ندارد چون تناقصی بین آنها وجود ندارد!

یک جهان «شدن» (becoming)
اما جهانی که با زمان آغاز شده باشد چگونه خواهد بود؟ چنین جهانی یک «شدن» یا «فرآیندی» است که «واقعیت» را می سازد. در ابتدایی‌ترین شکل خود، این فرآیند می‌تواند به سادگی تولید دنباله‌ای از ۰ها و ۱ها در یک ماشین حالت باشد. اکنون پرسش این است که چگونه یک فرآیند ساده، مانند تولید تصادفی دنباله‌ای از ۰ها و ۱ها، می‌تواند به پیدایش «آشوب» (اهریمن) و «نظم» (اهورامزدا) منجر شود.

(ادامه دارد)
بیایید ابتدا ساده‌ترین گذار ممکن را که بین ۰ و ۱ رخ می‌دهد بررسی کنیم. این گذار می‌تواند به سادگی شامل خروجی دادن ۰ و ۱ در یک ماشین حالت ساده باشد، همان‌طور که در شکل نشان داده شده است.
خروجی این ماشین حالت چیزی جز یک دنباله‌ی ساده‌ی 01010101010101.... نخواهد بود. گام بعدی، معرفی نخستین نامتقارنی ممکن در این ماشین حالت است، به‌ویژه افزودن یک خود-گذار در ۰ (یا ۱). نتیجه‌ی این تغییر، رفتاری غیرمنتظره است. این ماشین حالت به نام جابجایی نسبت طلایی Golden Mean Shift شناخته می‌شود.
جابجایی‌ها X دسته‌ای از ماشین‌های حالت هستند که در هر مرحله یک قدم به جلو حرکت می‌کنند و دنباله را به سمت جلو "جابجا" می‌کنند، مشابه حرکت روی یک نوار از ۰ها و ۱ها. جابجایی نسبت طلایی، نوعی جابجایی است که ظهور دو عدد ۱ پیاپی را ممنوع می‌کند. این تغییر ظاهراً جزئی، باعث ایجاد رفتارهای چشمگیری در خروجی می‌شود. اکنون، ۰ها می‌توانند به‌طور دلخواه تکرار شوند و دنباله‌هایی با طول‌های متغیر ایجاد کنند که به شکل زیر ظاهر می‌شوند:

B_n(X) = {0, 1, 01, 10, 00, 10, 000, 001, 010, 100, 101, 0000 , ... }

هر یک از دنباله‌های بالا یک بلوک (Block) نامیده می‌شود. همان‌طور که مشاهده می‌شود، اگر دنباله‌ها B_n(X) با طول n را به‌صورت ترتیبی تولید کنیم، برخی از توالی‌ها هرگز ظاهر نمی‌شوند، مانند 110 یا 0110. این امر باعث ایجاد شکاف‌هایی در میان دنباله‌های ۰ و ۱ می‌شود. یکی از راه‌های درک اندازه‌ی این شکاف‌ها، مقایسه‌ی نرخ رشد دنباله با حالتی است که در آن هیچ شکافی وجود ندارد (که در آن تمام 2^n حالت ممکن ظاهر می‌شوند) هنگامی که اندازه‌ی بلوک n افزایش می‌یابد. این نسبت را می‌توان به‌صورت زیر نمایش داد:
در این رابطه، m تعداد دنباله‌های مجاز (یا به‌طور معادل، دنباله‌های بدون شکاف) و n طول بیت است.
برای اندازه‌گیری این نرخ، به‌جای مقادیر عددی، روی نما (یا طول کد) تمرکز می‌کنیم تا مقایسه‌ها ساده‌تر شوند. بنابراین، لگاریتم صورت و مخرج را محاسبه می‌کنیم:
مقدار h هنگامی که اندازه‌ی بلوک‌ها افزایش یابد، دقیق‌تر خواهد شد (اثبات این ادعا نیاز به بررسی ریاضی دارد که در اینجا از آن صرف‌نظر می‌کنیم). در نتیجه، می‌توان نوشت:
این نرخ (h(X، آنتروپی فضای جابجایی X است. این مقدار اساساً نشان می‌دهد که دنباله‌ها با چه سرعتی رشد می‌کنند (و چقدر توانایی تولید دنباله‌های تصادفی یکتا را دارند) نسبت به همه‌ی حالات ممکن. اگر این نرخ به اندازه‌ی کافی سریع با n افزایش نیابد، آنتروپی صفر خواهد بود. برای مثال، دنباله‌ی (01)∗ فقط می‌تواند دو بلوک را برای هر اندازه‌ی n ایجاد کند:

0, 1, 01, 10, 101, 010, 1010, 0101, 010101, 10101

با رشد دنباله، تعداد دنباله‌های یکتای ممکن نسبت به تمامی دنباله‌های ممکن کمتر و کمتر می‌شود. در حالت کاملاً تصادفی که تمامی دنباله‌های ممکن تولید می‌شوند، هیچ شکافی در دنباله وجود ندارد و آنتروپی به مقدار حداکثری ۱ می‌رسد. با این حال، حالت‌های میانی بسیار جالب هستند.

برای جابجایی نسبت طلایی (Golden Mean Shift)، می‌توان مقدار آنتروپی را به‌صورت تحلیلی محاسبه کرد. در اینجا وارد جزییات محاسبات نمی شویم ولی آنچه جالب است این است که مقدار آنتروپی این سیستم برابر با لگاریتم عدد طلایی است! این بدان معنی است که نرخ رشد فضای حالت های یک سیستم بسیار ساده با یک عدم تقارن می تواند متناظر با عددی باشد که نشانگر زیبایی در طبیعت است.
نمونه هایی از دنباله ی فیبوناچی در طبیعت
عدد طلایی که با دنباله ی فیبوناچی و نسبت های زیبا در طبیعت گره می خورد از یک برخورد نامتقارن بین دو عدد صفر و یک ایجاد می شود. ریاضیدان ها و فیزیکدان ها در مطالعه ی طبیعت در اساسی ترین سطوح به این نتیجه رسیده اند که جهان ما نتیجه ی مجموعه ای از نقض تقارن ها در طبیعت است. با اینکه طبیعت با تقارن آن می شناسیم عدم تقارن در آن حتی بسیار اساسی تر است!

یکی از این عدم تقارن های بسیار اساسی عدم تقارن در زمان است. گذشته از آینده متفاوت است. با این حال بیشتر قوانین فیزیکی که ما میشناسیم نسبت به زمان متقارن هستند. به طور مثال اگر شما از حرکت مجموعه ای از ذرات فیلم بگیرید و آن را برعکس کنید نتیجه نباید برای قوانین فرق داشته باشد! اما جهان ما اینگونه نیست. سرمنشا این عدم تقارن اما کجاست؟ فیزیک کوانتوم از دو طریق نشان می دهد که چگونه جهان می تواند دنباله هایی را تولید کند که مانند جابجایی نسبت طلایی یک جهت مشخص از افزایش را نشان دهند. یکی از این روش ها از طریق اصل عدم قطعیت هایزنبرگ است. در محاسبات کوانتومی می توان هر اندازه گیری مکان یا تکانه را به صورت یک عملگر (مانند and یا or) در نظر گرفت. یکی از ویژگی های جالب این عملیات این است که ترتیب اعمالشان نتایج متفاوتی را به دنبال دارد! به این ترتیب اگر شما اول مکان و بعد تکانه را اندازه گیری کنید نتیجه ی متفاوتی با زمانی دارد که اول تکانه و بعد مکان را اندازه گیری کنید. این واقعیت را می توان به صورت یک جابجایی (shift) مانند ماشین «جابجایی نسبت طلایی» نمایش داد. این عدم تقارن در اندازه گیری باعث می شود دنباله های ایجاد شده یک ترتیب مشخص در زمان را نشان دهند!

به این ترتیب میبینیم که چگونه عدم تقارن در شکل یک ماشین حالت (state machine) و مطابقتش با قوانین فیزیک در اساسی ترین سطح یک جهان پر از آنتروپی و الگو ایجاد می کند!

https://vrgl.ir/Z2d4L
This media is not supported in your browser
VIEW IN TELEGRAM
چگونگی یادگیری مدل انتشار با استفاده از مونت کارلو
بازی فکر بکر (mastermind) که در آن چهار میخ رنگی از سمت رمزگشا پنهان است. رمزگشا سعی میکند حدس هایش را که با استفاده از میخ های سفید و سیاه (به عنوان بازخورد از رمزگذار) اصلاح کند تا به جواب نهایی برسد!

دونالد کنوث ثابت کرد که همیشه یک روش بهینه برای یافتن جواب وجود دارد! رابطه ای این بازی با مدل های انتشار (diffusion model) در هوش مصنوعی چیست؟