MatlabTips
891 subscribers
462 photos
72 videos
54 files
304 links
آموزش MATLAB با "استفاده از ویدئو و متن" در سطوح مبتدی تا پیشرفته
پاسخ به سوالات تخصصی:
@roholazandie
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
انتشار ریچی نشان میدهد که چطور یک کره از یه شکل غیر کروی ساخته می شود
جاهایی که چروک ترند با سرعت بیشتری جمع می شوند!
🔵مدل های انتشار (diffusion models): موتور هوش مصنوعی مدرن! 🔵

تا به امروز حتما شما هم به یکی از کارهای شگفت انگیز تولید تصاویر بسیار با کیفیت توسط هوش مصنوعی برخورد کرده اید! تولید کردن تصاویر با چنین کیفیتی تا حتی چند سال پیش شبیه به رویا بود! اما دلیل این موفقیت شگرف از کجا می آید؟

یکی از مسیر های بسیار معمول مدل سازی های سنتی در هوش مصنوعی که در نهایت به تولد شبکه های عصبی منجر شد از قضا از ترمودینامیک شروع شد! بر خلاف بیشتر آنچه که می خوانید شبکه های عصبی شباهت کمتری به مغز و شباهت بیشتری به یک سیستم ترمودینامیکی مثل یک دسته از مولکول های یک گاز یا کریستال را دارند. در این سیستم ها آنچه بیش از همه اهمیت دارد «انرژی» و «آنتروپی» است. به این مفاهیم برمیگردیم اما قبل از آن باید به بخش جالبی از ترمودینامیک اشاره کنیم که بر اساس مدل سازی پدیده های تصادفی مثل حرکت تصادفی ذرات هوا بر میگردد. این مدل سازی با مقاله ی مهم آینشتین در مورد حرکت براونی در سال ۱۹۰۵ آغاز شد. مطالعات بسیار بر روی این حوزه منجر به ساخت «حساب» (calculus) های جدیدی شد که حرکت های تصادفی را توصیف می کردند. به طور مثال در یک گاز هر مولکول در اثر دو نیرو یعنی حرکت های تصادفی اطراف و حرکت کششی که ناشی از یک میدان خارجی مثل جاذبه است حرکت می کند. معادلاتی که چنین حالاتی را توصیف میکنند به معادلات فوکر پلانک شناخته می شوند. اگر شما یک قطره جوهر را در یک ظرف آب بریزید به مرور زمان منتشر شده و کامل یکنواخت می شود. نتیجه ی این دینامیک همیشه مشخص است: از بین رفتن کامل ساختار اولیه! گویی معادله ی انتشار (diffusion) هر آنچیزی که در طبیعت خراب می شود و از بین میرود را مدل سازی می کند! یک فرم دیگر انتشار معادله ی گرماست که در پست قبلی به آن اشاره کردیم. هر گونه الگوی اولیه در گرما بر روی یک فلز به تدریج یکسان شده و به تعادل می رسد!

این حساب ها به طور واضح فرآیند «از بین رفتن اطلاعات» را توصیف می کنند. در سال ۱۹۸۲ اندرسون در مقاله ای بسیار کلیدی سوال جالبی پرسید؟ اگر انتشار (دیفیوژن) فرآیند از بین رفتن اطلاعات را توصیف می کند و اساسا معادله ای برگشت ناپذیر (irreversible) است چه چیزی آن را برگشت پذیر (reversible) می کند؟

دقت کنید ساده ترین معادله ای برگشت ناپذیر دو حالت را به یک حالت میبرد. به طور مثال اگر من دو تاس را بندازم و عددهای هر دو را با هم جمع کنم و نتیجه را به شما بدهم شما به هیچ وجه نمی توانید عددهای اولیه را پیش بینی کنید. آنچه اما می توانید انجام دهید مجموعه ای از حدس هاست! معادله ی اندرسون به این ترتیب به این سوال پاسخ می دهد که احتمال هر حدس چیست. بعضی ترکیبات دارای احتمال بیشتر و بعضی کمتر هستند. به طور مثال اگر من به شما بگویم که نتیجه ‍۱۲ است شما براحتی می توانید حدس بزنید که دو مقدار اولیه ۶ بودند چون جمع دو تاس تنها در یک حالت می توانند ‍۱۲ باشد! اما این احتمال برای ۷ بسیار پخش تر است چون عدد های اولیه می تواند (۳و ۴) (۴و ۳) (۱و ۶) (۶و ۱) و (۲و ۴) و (۴و۲) باشد. اینجا حدس زدن مرحله ی پیش سخت تر می شود. اما معادله ی پخش این کار را یک بار بلکه بارها انجام میدهد. این من را به یاد بازی ای می اندازد که زمانی که بچه بودیم انجام میدادیم. یک نفر وارد اتاق شده و وسایل درونش را به هم میریزد. کسی که به اتاق بر میگردد باید بر اساس چیزی که یادش است حدس بزند که چی چیزی جابجا شده است! برای انجام این کار شما تنها به حافظه ی چند دقیقه ی پیش خود اکتفا نمیکنید بلکه به تمام حافظه های پیشین در مورد آن اتاق و حتی دانش عمومی در مورد یک اتاق مراجعه می کنید. مثلا به طور معمول لیوان بر روی استکان است و نه برعکس! این فرآیند معکوس اگر درست انجام شود به پیکربندی اصلی اتاق بر میگردد!
حالا بیایید کمی دقیق تر شویم. اگر شما یک نویز در تابع g و یک کشش (در شکل یک میدان) f داشته باشیم. و آن را بر یک عکس بارها و بارها اعمال کنیم به تدریج این عکس به نویز کامل تبدیل می شود. اما اگر بخواهیم این فرآیند را معکوس کنیم نیاز داریم در جهتی حرکت کنیم میزان شانس ما برای ساختن دوباره ی عکس را بیشتر کند! این جهت در مشتق جهتی (دلتا) مشخص می شود. دقت کنید که این جهت با توجه به قدم ما در فرآیند به سوی عکس تغییر می کند. اما منظور ما از شانس چیست؟ شانس همان احتمال تصویر اولیه است (یا همان حافظه ی ما از اتاق) اما ما با لگاریتم آن کار میکنیم. دلیل این کار این است که وقتی لگاریتم احتمال چیزی را حساب میکنیم در واقع «اندازه ی کد» (code length) لازم برای توصیف آن را محاسبه می کنیم. این «اندازه ی کد» در اصطلاح ترمودینامیکی به معنای «انرژی» هم هست. برای مثال در مورد دو تاس این اندازه ی کد همان تعداد حالات می شود! به صورت کلی ما احتمال یک پیکربندی (configuration) مورد نظر x را به صورت p(x) ~ exp(-E(x)) توصیف میکنیم. به این ترتیب می توان گفت ما در جهتی حرکت میکنیم که «اندازه کد» یا «انرژی» را به حداقل برساند.
متاسفانه هیچ راه حلی برای محاسبه ی سریع delta وجود نداشت تا اینکه شبکه های عصبی کنونی توانستند مدل هایی بسازند که این مقدار را «تخمین» بزند. به چنین روش های score based که تابعی از t و x هستند (s(x, t)) گفته می شود و تمام کار آن ها این است که این تابع را برای مجموعه ی زیادی از x ها از یک دیتاست حساب کنند. این کار تنها با چنین محاسبه ای در تمامی قدم ها امکان پذیر است. بعد از آنکه مدل توانست نویز های مختلف بر روی عکس های مختلف را در جهت مخالف حدس بزند (از طریق مقایسه با عکس اصلی) کار آموزش تمام و به این ترتیب مدل قادر به ایجاد عکس های جدید است!

ترکیب قدرت شبکه های عصبی مصنوعی با اصول بسیار با شکوه ترمودینامیک این امکان را ایجاد می کند که پیچیده ترین منیفلد های داده ای مثل عکس را با دقت بسیار شگفت انگیز تولید کنیم!

این اما تنها یک شاهکار مهندسی نیست بلکه نتیجه ی استفاده ی درست از قوانین فیزیک ترمودینامیک در یک چارچوب درست است که نشان از عمق آن در نظریه اطلاعات هم می دهد. اینجا یک سوال جدید ایجاد می شود: چرا انرژی باید چیزی شبیه به «طول کد» باشد؟ درکی که از ما از انرژی در فیزیک داریم با طول کد بسیار متفاوت به نظر می رسد. در قسمت های بعدی این موضوع را بیشتر کاوش میکنیم!
🔵نیوتون: آخرین جادوگر و اولین دانشمند!🔵

امروزه بسیار عادی است که فرض کنیم علم به ما امکاناتی میدهد که می توان با آن نه تنها جهان را درک کرد بلکه بر اساس آن ابزار هایی ساخت که بتوان محیط را کنترل کرد و شکل داد! اما این توانایی دستاوردی بسیار نوین است! در بیشتر تاریخ بشریت، انسان «ارباب طبیعت» نبود، بلکه قربانی آن به شمار می‌رفت. اتفاقات دنیای اطراف او یا نتیجه ی تصادفات یا مشیت الهی بودند! و انسان چاره ای جز پذیرش آن نداشت. امروزه قدرت ما در شکل دهی و پیش بینی محیط به حدی رسیده است که می توانیم طوفان ها را پیش بینی کنیم با عوامل بیماری که با چشم قابل دیدن نیستند وارد مبارزه هایی بسیار پیچیده شویم و حتی با فشار چند دکمه تمام حیات روی کره ی زمین را از بین ببریم!

پیشرفت های علمی بر خلاف باور عامه همیشه به صورت انباشتی اتفاق نمی افتد. آنچه رخ می دهد اما جهش های بسیار عظیمی است که نه تنها تمام جهان بینی ما بلکه شیوه های فکر کردن روزمره ی ما را هم تغییر می دهد! انقلاب علمی ای که با نیوتون آغاز شد نقطه ی شروع چنین تغییراتی بود. اهمیت کار نیوتون در این بود که برای نخستین بار بشریت به نظریه‌ای دست یافت که به‌راستی «کار می‌کرد». ممکن است صدای اعتراض برخیزد که پیش از نیوتون نیز دانشمندانی بودند که نظریات درستی درباره جهان ارائه کرده‌اند. اما باید توجه داشت که این نظریات غالباً پراکنده، ناپیوسته، و در بهترین حالت، محدود به موارد خاصی بودند—برای مثال، ساخت ساعت‌های دقیق، تنظیم تقویم‌ها، یا روش‌های تجربی ذوب فلزات.
آنچه نیوتون به ارمغان آورد، نه صرفاً یک نظریه، بلکه شیوه‌ای نوین از اندیشیدن بود که توانست علمی یکپارچه و جهان‌شمول ارائه دهد؛ شیوه‌ای که پایه و اساس انقلاب علمی مدرن شد و برای همیشه مسیر علم و تفکر بشری را تغییر داد.

نیوتون برای اولین بار دستگاهی را معرفی کرد که جامع و جهانی بود! این دستگاه نه تنها از ریاضیات دقیقی پیروی می کرد بلکه فرضیات کم و عمومیت بی انتهایی داشت. بی اغراق نیست که کشف نیوتون مانند زلزله ای نه تنها علم بلکه فلسفه و حتی سیاست را در اروپا تغییر داد. تغییراتی که چهره ی جهان ما را برای همیشه تغییر داد. در این باب الکساندر پوپ می نویسد: "طبیعت و قوانین طبیعت در تاریکی پنهان بودند: خدا گفت، نیوتن باشد! و همه‌جا روشن شد[1].

پیش از نیوتون مرز های دقیقی بین علم و فلسفه و حتی علوم خفیه (occult)، چیزی که امروزه به اسم شبه علم می شناسیم، وجود نداشت. تصور بسیاری این است که نیوتون روش علمی را به تاسی از گالیله پیش گرفت با این حال مرور زندگی نیوتون چیز دیگری را نشان می دهد. نیوتون برخلاف تقریبا تمام هم عصرانش به علوم خفیه باور داشت! موضوعی که بابت آن همیشه مورد سرزنش و تمسخر قرار می گرفت. با این حال او سالهای زیادی از عمر خود را بر روی موضوعاتی گذارند که باور آن برای بسیاری دشوار است. بسیاری تصور می کنند که کارهای علمی نیوتون را باید از کارهای غیر علمی اش جدا کرد. اما چنین فرضی خیلی هم صحیح نیست!

نیوتون زمان زیادی از عمر خود را صرف کیمیاگری و الهیات کرد. نیوتون باور داشت که درک جهان نیازمند درک قوانین الهی و بازخوانی دقیق انجیل است! برخلاف پیشینیانش نیوتون اعتقاد داشت که تمام جهان از مجموعه ی قوانین یکسانی پیروی می کند. امروزه چنین چیزی برای ما پیش فرض است اما پیش از او اعتقاد بر این بود که مکانیک سماوی (حرکت ستارگان و سیاره ها) از مکانیک زمینی متفاوت است! نظریه ی گرانش نیوتون این دو مکانیک را برای اولین بار متحد کرد. این تغییر ریشه در دیدگاه نیوتون داشت که جهان را همچون ساعتی می دید که توسط خدا (ساعت ساز) ساخته شده و به همین خاطر همه جای آن باید یکسان و باشکوه باشد.
اما جدای از دیدگاه های کلی که هر دانشمندی می تواند داشته باشد نیوتون در نظریه گرانش خود عنصری را وارد کرد که بسیار عجیب بود. او فرض گرفت که اجرام می توانند بدون تماس با همدیگر بر هم نیرو وارد کنند چیزی که به «عمل در فاصله» (action at distance) شناخته می شود. این فرض با دیدگاه های مکانیکی زمان که اثر نیرو را فقط در نتیجه ی یک مدیوم ممکن می دانست در تضاد بود. لایبنیتز در نامه ای به ساموئل کلارک در سال ۱۷۱۵ به شدت به نیوتون حمله کرده و او را متهم به وارد کردن «عملگر های خیالی» (imaginary operations) و «نیروهای خفیه» (occult forces) به فیزیک میکند. پاسخ نیوتون به اعتراضات معمولا با نادیده گرفتن و توضیحات حتی پیچیده تر همراه بود.
کار نیوتن مرز میان علم توصیفی و تبیینی را محو کرد. به عنوان مثال، او در کتاب «اصول ریاضی فلسفه طبیعی» (Principia) معروفاً نوشت: «Hypotheses non fingo» (به لاتین به معنی «فرضیه نمی‌بافم») تا نشان دهد که تمایلی به حدس زدن دربارهٔ مکانیزم گرانش ندارد. در حالی که این عبارت اغلب به‌عنوان رد کردن گمانه‌زنی تفسیر می‌شود، همچنین بر این باور او تأکید می‌کرد که علم باید بر توضیح نحوهٔ کارکرد چیزها (از طریق ریاضیات و مشاهده) متمرکز باشد، نه چرایی آن‌ها (از طریق توضیحات متافیزیکی). به این ترتیب دانشمند ناچار است عناصر توضیح ناپذیر همچون جادو را به نظریات خود اضافه کند!

کتاب «اصول ریاضی فلسفه طبیعی» نیوتن یک چارچوب ریاضی دقیق برای توصیف پدیده‌های طبیعی معرفی کرد. در حالی که این موضوع امروز بسیار مورد ستایش قرار می‌گیرد، در زمان خود بحث‌برانگیز بود، زیرا بسیاری از دانشمندان توضیحات کیفی یا مکانیکی را ترجیح می‌دادند. استفاده از ریاضیات انتزاعی برای توصیف حرکت، نیروها و گرانش برای برخی از هم‌عصران او بیش از حد انتزاعی و جدا از واقعیت فیزیکی به نظر می‌رسید. به عنوان مثال، فیزیک‌دانان دکارتی، بر مدل‌های مکانیکی تأکید داشتند که شامل تماس مستقیم ذرات بود. اتکای نیوتن به ریاضیات برای توصیف نیروهای «نامرئی» مانند گرانش، از دید آن‌ها شبیه نوعی عرفان پنهان بود. برای آنها کارهای نیوتون بیشتر شبیه به کار جادوگرانی است که چیزهایی بر روی کاغذ می نویسند و انتظار دارند که مسیر وقایع را تغییر دهند!

گذر زمان نشان داد که نیوتون تنها جادوگری بود که جادویش حقیقتا کار میکرد! روش بسیار انتزاعی ریاضی او ثابت کرد که می توان خطوطی در هم و برهم بر روی کاغذ کشید (ریاضیات!) که نه تنها طبیعت را توصیف که آن را پیش بینی هم می کند! گاه نیوتون را آخرین جادوگر و اولین دانشمند خطاب می کنند. روش عجیب نیوتون در انجام علم نشان داد که علم چیزی بیش از مجموعه ای حقایق و مشاهدات و در عمل «پرش های» گاه جسورانه ای در قلمرو فرضیات است که در نگاه نخست «غیر علمی»، «عجیب» و «جادویی» بنظر می آیند. امروزه ما به‌سادگی می‌پذیریم که بخش‌هایی از هر نظریه علمی، فراتر از توضیح فعلی هستند. اما این نه نقصی در علم، بلکه نویدی از آینده است، چرا که سرنوشت آن بخش‌های نامکشوف به دستان زمان و پیشرفت سپرده شده است.

روش نیوتون شالوده علم مدرن است؛ علمی که شاید در ظاهر دشمن جادو باشد، اما ریشه‌هایش با افسون و جادو درهم‌تنیده است، و تشخیص مرز میان آن دو، گاه دشوار و پیچیده. هیچ دانشمندی تنها به مشاهده و گردآوری حقایق جهان بسنده نمی‌کند؛ علم، همچون جادو، تلاشی است بی‌پایان برای کشف افسون جهان و غرقه شدن در شگفتی‌های آن.

هر راز که گشوده شود، صدها راز دیگر بر سر راه انسان پدیدار می‌گردد و این هزارتوی شگرف و بی‌انتها، دانشمند را مجذوب خویش می‌سازد. آنچه دانشمند را با شور و شیدایی به سوی اسرار جهان می‌کشاند، نه پاسخ‌ها، بلکه پرسش‌هایی است که همچون چراغی در تاریکی، مسیر او را روشن می‌کنند. علم، سفری است از حیرت به سوی حیرت، و این جذابیت بی‌پایان است که روح انسان را در خود غرق می‌کند.


[1] Nature and Nature's laws lay hid in night: God said, Let Newton be! and all was light!

https://vrgl.ir/3KFgC
🔵محاسبات معکوس پذیر:‌ آینده ی هوش مصنوعی؟🔵

بعضی وقتها که گوشی تان داغ میکند به این فکر میکنید که آیا در آینده گوشی ها یا کامپیوتر هایی می آیند که هیچوقت داغ نشوند؟ اصلا چرا یک وسیله ی محاسباتی باید داغ شود و گرما آزاد کند؟ امروزه یکی از چالش های عظیم هوش مصنوعی غلبه بر حجم محاسباتی بسیار عظیمی است که باعث آزاد شدن حجم زیادی از گرما می شود. در سال گذشته هوش مصنوعی بیشتر از کل کشور انگلستان انرژی مصرف کرده و در آموزش شبکه های عصبی از میزان عظیم کربن تولید شده در جو بحث می شود. به طور مثال آموزش مدل های زبانی عظیم GPT3 به اندازه ی ۱۰۰ کیلوگرم کربن به جو اضافه می کند! به این روند تازه آغاز شده است و در سالهای آینده به مشکل های بزرگتری منجر می شود. این از طرفی است که مغز انسان که می خواهیم آن را تقلید کنیم با تنها مصرف بیست وات کار میکند. اما قبل از پاسخ به این پرسش که منشا این همه تفاوت در کجاست باید سوال اساسی تری پرسید: اصلا چرا محاسبه باید گرما آزاد کند؟

اصل لانداوه )Landauer's principle) قانونی در ترمودینامیک است که هر عملیاتی غیر قابل معکوس که بر روی اطلاعات انجام می شود (مانند گیت های منطقی) منجر به آزاد کردن گرما می کند. میزان این گرما بزرگتر از k_B * T * Ln(2) است که در آن k_B ثابت بولتزمن و T دماست (در کلوین). دقت کنید که این میزان گرما بسیار بسیار پایین در حد ۲* ۱۰×-۲۱ ژول است. مقداری که گیت های امروزی فاصله ی زیادی با آن دارند (آن ها میلیاردها برابر بیشتر انرژی آزاد می کنند).

محاسبات معکوس ناپذیر شامل تمام مسیر های عملیاتی ای می شود که به صورت ادغام حداقل دو متغیر هستند. به طور مثال وقتی شما دو عدد را جمع می کنید نتیجه ی محاسبه عددی است که بر اساس آن نمی توان ورودی ها را تشخیص داد. اگر نتیجه ی عملیات جمع بین دو عدد صحیح ۴ باشد ورودی ها ممکن است ۱ و ۳ یا ۲ و ۲ یا ۳ و ۱ باشد (بدون در نظر گرفتن صفر). در پایه ای ترین سطح اصل لانداوه می گوید از دست رفتن اطلاعات (مثلا با یک محاسبه جمع یا پاک کردن حافظه) منجر به افزایش دما در محیط می شود چون اطلاعات از بین رفتنی نیست!

می توان چنین محاسباتی را در پایه ای ترین حالت خود یعنی به صورت گیت های منطقی بررسی کرد. به طور مثال تمامی گیت های منطقی به جز not معکوس ناپذیرند. از ریاضیات می دانیم تنها تابع هایی معکوس پذیر هستند که یک به یک باشند. وقتی این مسیر ها با هم ادغام (merge) می شوند این خاصیت از دست می رود. اما آیا می توان گیت ها رو طوری تغییر داد که محاسبه معکوس پذیر باشد. در نظریه این کار ممکن است. در رشته ی محاسبات معکوس پذیر تمرکز بر روی یافتن راه هایی است که چنین کاری را امکان پذیر می کند. به طور مثال می توان به جای خروجی دادن یه حالت برای عملگر xor آن را به صورت زیر داد:
(x, y) => (x, x xor y)
به این ترتیب می توان هر ورودی را بر اساس خروجی به درستی حدس زد! (خودتان امتحان کنید). دلیل این موضوع این است که این تابع یک به یک است. در سال ۱۹۶۳ Yves Lecerf ایده ی ماشین های تورینگ معکوس پذیر را مطرح کرد. با این حال او از اصل لانداوه بی خبر بود و به همین دلیل این ایده را دنبال نکرد. در سال ۱۹۷۳ چارلز بنت (Charles H. Bennett) که از پیشگامان محاسبات معکوس پذیر است نشان داد که ماشین تورینگ هم به صورت منطقی و هم به صورت ترمودینامیکی قابل معکوس کردن است!

بسیاری از پژوهشگران امروزه بر روی روش هایی کار میکنند که چنین محاسباتی را ممکن کند به طور مثال بسیاری بر روی گیت های Toffoli Gate (CCNOT) و Fredkin Gate (CSWAP) کار می کنند. گرچه این روش ها جالب هستند اما رسیدن به بالاترین سطح از معکوس پذیری به این ترتیب شاید دشوار بنماید. در عمل محاسباتی که در مغز یا هر سیستم زیست شناختی دیگری انجام می شود بر اساس گیت ها نیست. معکوس پذیری می تواند به داشتن «حافظه»‌از گذشته هم تعبیر شود. به عبارتی وقتی یک تابع معکوس پذیر تر است بیشتر می توان به گذشته ی آن نگاه کرد. در اینجا منظور از کم تر یا بیشتر معکوس پذیری باید به صورت خاص تری تعبیر شود. در یک دنباله ی محاسباتی هر قدر بیشتر بتوان مقادیری که در قدم های قبل تر انجام شده است به راحتی حدس زد نشان می دهند که سیستم «حافظه ی» بیشتری نسبت به گذشته ی خود دارد. این «حافظه» می تواند نه به صورت یک گیت معکوس پذیر بلکه ای حافظه ای باشد که در یک مجموعه از متغیر ها ثبت شده است. چیزی که به عنوان حافظه ی انجمنی associative memory می شناسیم. در اینجا وارد جزییات بیشتر نمی شویم اما خواننده را تشویق به فکر کردن در مورد چنین امکانی برای آینده ی هوش مصنوعی می کنیم!
🔵ریاضی و شعر🔵

هانری پوانکاره زمانی گفت:
«ما تازه از طریق یک مثال، اهمیت واژگان در ریاضیات را مشاهده کردیم، اما می‌توانم موارد بیشتری از آن ذکر کنم. آن‌گونه که ماخ گفته است، به‌سختی می‌توان باور کرد که انتخاب یک واژهٔ خوب تا چه اندازه می‌تواند در صرفه‌جوییِ اندیشه مؤثر باشد.
نمی‌دانم در جایی گفته‌ام یا نه که ریاضیات هنرِ یکسان‌نامیدنِ چیزهای متفاوت است. باید آن را این‌گونه فهمید. درست آن است که چیزهایی که از نظر جوهر متفاوتند اما از لحاظ صورت شبیه‌اند، به‌اصطلاح در یک قالب ریخته شوند. هنگامی که زبان ما به‌خوبی برگزیده شود، شگفت‌آور است که چگونه همهٔ برهان‌هایی که بر پایهٔ یک واقعیت شناخته‌شده ارائه شده‌اند، بی‌درنگ بر بسیاری از واقعیت‌های جدید قابل اطلاق می‌شوند. نیازی به هیچ تغییری نیست، حتی کلمات را هم تغییر نمی‌دهیم، زیرا در موارد تازه نام‌ها یکسان‌اند.»
آیندهٔ ریاضیات، ۱۹۰۸

آنچه ریاضیات را قدرتمند و زیبا می‌کند، دقیقاً همین تواناییِ یکپارچه‌سازی ایده‌هایی است که در ابتدا ظاهراً نامرتبط به‌نظر می‌رسند. ریاضیات با انتزاع می‌کوشد تعمیم دهد و یکپارچه سازد، و سیستم‌های پیچیده را به اصول و چارچوب‌های همگانی تقلیل دهد. هدف ریاضیات، شفافیت، سازواری و عمومیت است—یافتن ساختارهای مشترک در پدیده‌های ظاهراً جدا از هم. برای نمونه، ابزارهای ریاضی یکسان می‌توانند حرکت سیاره‌ها، مدارهای الکتریکی و حتی سامانه‌های اقتصادی را با یک فرمول توصیف کنند.

در مقابل، شعر حول این ایده می‌چرخد که به یک چیز نام‌های گوناگون بدهد؛ از هر ابزاری که شاعر دارد—از قیاس و استعاره و ایهام گرفته که به صنایع ادبی شناخته می شوند تا در سطحی بالاتر، احساس—بهره می‌برد. در شعر، «باد» یا حتی «بادی که امروز صبح حس کردم» می‌تواند بسیار فراتر از همان پدیدهٔ خاص باشد: همان باد می‌تواند نمایانگر گذر زمان، موی معشوق یا نجوای صبا باشد. ابهام در اینجا کلیدی است و اجازه می‌دهد یک مفهوم گسترش یابد و با ایده‌ها، احساسات و تصویرهای گوناگون پیوند بخورد. برای نمونه در شعر زیر از حافظ:
ز گریه مردم چشمم نشسته در خون است ببین که در طلبت حال مردمان چون است

معنی نزدیک مردم و مردمان در این بیت مردمک و مردمکان چشمان گریان و خونبار عاشق در برابر معشوق است، ولی، در معنایی دورتر و عمیق‌تر، با ظرافت و هنرمندی کم‌نظیری، حال و احوال تمامی مردمان عاشقی‌کشیده و خون‌گریسته را بر خاطر و روان خواننده می‌پاشاند. شعر بر خاص بودن و برداشت شخصی تجربه های ما تاکید می کند در حالی که ریاضیات به یکی ساختن تجربه های متفاوت!

در حالی که ریاضیات با انتزاع ساده‌سازی می‌کند، شعر از راه «شخصیت‌بخشی» و «گونه‌گونی» پیچیدگی می‌آفریند! شخصیت‌بخشی همان فرایند منشعب‌شدن معنا یا مراجع است، روندی کاملاً در تقابل با انتزاع در ریاضیات! در شعر می‌دانید از کجا شروع می‌کنید، اما هرگز نمی‌دانید به کجا خواهید رسید! در ریاضیات ابتدا نمی‌دانید کجا هستید اما سرانجام می‌دانید به کجا خواهید رسید! در شعر از یقین آغاز می‌کنید و آغوش به روی عدم قطعیت می‌گشایید، اما در ریاضیات، با عدم قطعیت ها و گونه گونی ها دست و پنجه نرم می کنید تا ناگاه همه‌چیز را در یک تصویر می بینید.
نتیجه آنکه، شعر ذاتاً تفسیر شخصی را میپذیرد. تجربهٔ هر فرد از یک شعر جوهرهٔ نهایی آن را شکل می‌دهد؛ در حالی که ریاضیات در پیِ درکی جمعی و جهانی است. در شعر، احساسات، شرایط و پیشینهٔ شخصیِ خواننده است که به اثر قدرت می‌بخشد؛ حال آنکه در ریاضیات، زاویهٔ دید فردی تقریباً بی‌اهمیت است. با این حال ضربه ی اولیه ی ریاضیات بر هر کس خاص اوست!

در ریاضیات، ناظر می‌کوشد خود را از میان بردارد؛ چراکه هدف، رسیدن به عینیتِ محض است. حقایق ریاضی مستقل از این که چه کسی و در چه زمانی آنها را کشف می‌کند، وجود دارند. در مقابل، در شعر، خود ناظر جایگاهی اساسی دارد؛ صدای شاعر، دیدگاه او و دریچهٔ منحصربه‌فردش، اثر را شکل می‌دهد و آن را ژرفاً فردی و ذهنی می‌سازد.

می‌توان دریافتِ ما از واقعیت و جهان را پیوستاری دانست میان ریاضیات و شعر. اگرچه این دو ظاهراً در دو قطب متفاوت قرار دارند، گاه هریک به قلمرو دیگری گام می‌گذارند. ریاضیات با وجود آنکه فراگیر و جمعی است، همچنان بر شهودی فردی—که خود تجربه‌ای ذهنی است و روند اکتشاف و بینش را راه می‌بخشد—تکیه دارد. از سوی دیگر، هرچند شعر اغلب بر فرد تمرکز دارد، درنهایت دربردارندهٔ رگه‌هایی است که همگی ما را به هم پیوند می‌دهد؛ شعر ایده‌های مشترک، اخلاقیات و احساساتی را منتقل می‌کند که گاه حتی خود شاعر را به شگفتی وا‌می‌دارد.
ریاضی‌سازی جهان مانند صعود به قلهٔ کوه است: فارغ از این که از کجا آغاز کنید، سرانجام به آن قلهٔ باشکوه خواهید رسید. اما شاعرانه‌کردن جهان مانند پایین آمدن از تپه است: از همان نقطه‌ای شروع می‌کنید که دیگران شروع کرده‌اند، اما در نهایت خودتان را در بی‌شمار جای منحصربه‌فرد می‌یابید.

اگرچه صعود به قله‌ای همگانی منتهی می‌شود، با این حال مسیرتان در طول راه کاملاً خاص شماست—شکل‌گرفته از شهوداتی که صرفاً متعلق به خودتان است. از سوی دیگر، پایین آمدن از تپه هرچند به فرودی ویژه می‌رود، اما غالباً با مسیرهایی تلاقی می‌کند که پیش‌تر شناخته شده‌اند—همان راه‌های اصلی در ایده‌های مشترک، ارزش‌ها و باورهای اخلاقی.

این دادوستد میان ریاضیات و شعر—میان جستجوی نامتعارف برای نظمی جهان‌شمول و توجه به تجربهٔ خاص انسانی—به «واژگان» جادویی یگانه و قدرتی شگفت می‌بخشد. هر دو فعالیت بنیاداً انسانی‌اند: آنها، هم جنبهٔ جمعی و فراگیر ما را بازمی‌تابانند و هم بُعد یگانه و گوهری هر کداممان را پاس می‌دارند.

https://vrgl.ir/4zTWp
🔵یک جهان چرخه ای🔵

جامی است که عقل آفرین می‌زندش،

صد بوسه زِ مِهْر بر جَبین می‌زندش؛

این کوزه‌گر دَهْر چنین جامِ لطیف

می‌سازد و باز بر زمین می‌زندش!


مفهوم یک جهان چرخه‌ای – جهانی که در یک سری بی‌پایان از تولدها و مرگ‌ها بدون آغاز یا پایان مشخص حرکت می‌کند – ریشه در بسیاری از فرهنگ‌ها و ادیان شرقی دارد. برای مثال، در بودیسم و هندوئیسم، مفهوم «سامسارا» – چرخه بی‌پایان تولد، مرگ و تناسخ – نه‌تنها برای ارواح فردی، بلکه برای کل جهان نیز به کار می‌رود. جهان به عنوان چرخه‌ای مداوم از آفرینش (برهما)، نگهداری (ویشنو) و ویرانی (شیوا) در نظر گرفته می‌شود که به طور کلی با نام «کالپاها» شناخته می‌شوند. ایده‌ای مشابه در سنت ایرانی زوروانیسم دیده می‌شود، جایی که زوروان (زمان) ابدی و چرخه‌ای است و شامل آفرینش، نگهداری و ویرانی می‌شود.

ما در جهان خود در سطوح مختلف چرخه‌هایی را مشاهده می‌کنیم – از تولد دوباره ی طبیعت در نوروز (ابتدای اعتدال بهاری) تا تناوب روز و شب، و حتی در خود زندگی. در حالی که این پدیده‌ها می‌توانند به عنوان صرفاً یک تصادف ناشی از موقعیت خاص ما نسبت به خورشید در منظومه شمسی در نظر گرفته شوند، این چرخه‌ها ریشه‌های عمیق‌تر و ذاتی‌تری تر دنیامیک سیستم ها دارند. ریاضی‌دان فرانسوی، هانری پوانکاره (۱۸۹۰)، سیستم‌های دینامیکی بسیار کلی را تحت فرضیات حداقلی بررسی کرد و به کشفی بسیار عمیق درباره آن‌ها رسید. پیش از آنکه به یافته‌های او بپردازیم، بیایید روشن کنیم که منظور ما از یک سیستم دینامیکی چیست و فرضیات مرتبط با آن را توضیح دهیم.


(نسخه ی انگلیسی)
https://hilbert-cantor.medium.com/a-cyclic-universe-53fbe5dbdfb0
سمت راست فضاپیمای «بوران» شوروی در برابر «شاتل» آمریکایی در سمت چپ. برنامه ای که توسط KGB دزدیده شد و آخرین میخ تابوت بر برنامه ی فضایی شوروی شد
🔵لحظه ی اسپوتنیک یا لحظه ی بوران؟🔵

ورود بازیگر تازه ی میدان هوش مصنوعی یعنی deepseek که ضربه ی بزرگی بر بسیاری از شرکت های تکنولوژی غربی وارد کرد شوک بزرگی برای همه بود. یک شرکت به ظاهر کوچک با سرمایه ای بسیار کمتر توانست همان کاری را بکند که شرکت های بزرگ غربی سالهاست بیلیون ها دلار در آن سرمایه گذاری میکنند! چگونه چنین چیزی ممکن است؟

این البته اولین بار نیست که شاهد چنین جهش های فناوری از سمت قدرت های سیاسی هستیم. در دروان مدرن فناوری و علم همیشه در جبهه نخست برتری بین چنین قدرت هایی بوده و آن ها برای نشان دادن برتری خود بدشان نمی آید که گه گاهی به هم فخر بفروشند. قابل تصور است که احساسات ملی گرایی در چین این روزها در اوج خود باشد. اما وقتی به تاریخ نگاه میکنیم چنین اتفاقی یکتا نیست. بسیاری چنین حرکتی را به «لحظه ی اسپوتنیک» (Sputnik moment) توصیف میکنند. در سال ۱۹۵۷ در میان اوج ناباوری همگانی اتحاد جماهیر شوروی از ماهواره ی اسپوتنیک رونمایی کرد. این در حالی بود که تصور بسیاری در آمریکا این بود که توان فناوری شوروی بسیار عقب تر است. آیزنهاور در خطابه ای ابراز کرد که ایالات متحده باید با سه واقعیت روبرو شود: اول اینکه شوروی از امریکا و بقیه «جهان آزاد» در زمینه ی فناوری و علمی جلوتر افتاده است. دوم اینکه اگر این وضعیت ادامه پیدا کند شوروی قادر خواهد بود که از آن بر علیه آمریکا استفاده کند و رهبری و حیثیت آن را به خطر بیندازد و در نهایت که چنین تفاوتی در نهایت به پیروزی نظامی آنها منجر خواهد شد. چنین زنگ خطری رقابت فضایی و عصر اکتشاف های شگرف علمی از هر دو سو را سبب شد.

با این حال چنین رقابت هایی همیشه سالم ترین رقابت ها نیستند. بعد از مدتی هر دو سو به انواع و اقسام برنامه های جاسوسی برای دست یافتن به رمز و رازهای علمی همدیگر دست زدند. با گذشت زمان و وخیم تر شدن اوضاع اقتصادی و سیاسی در بلوک شرق میزان این برنامه های جاسوسی از سمت شوروی افزایش پیدا کرد. یکی از مثال های آن در برنامه ی بوران است که بعد ها فاش شد تقریبا تمام دیتاشیت ها و جزییات آن از برنامه شاتل آمریکایی دزدیده شده است. شباهت تقریبا کاریکاتوری بوران با شاتل آمریکایی گواه سقوط سیستمی بود که زمانی پرچم دار خلاقیت های درجه ی یکی در علم و تکنولوژی بود.

وضعیت deepseek امروزه چیزی بیشتر شبیه به بوران و نه اسپوتنیک است. قبل از هر چیز باید دقت کرد که در طول بیست سال اخیر تقریبا هیچ کدام از مدل های اساسی از چین بیرون نیامده است. فضای اقتصادی و فناوری چین از ابتدا مشوق «کپی کاری» و تولید در حجم بالا (mass production) بوده که برای اقتصاد اساسی ولی برای برتری فناوری بسیار محدود کننده است. با این حال حتی چنین نیرویی بسیار قابل تقدیر است و قطعا موتور محرکه ی رقابت های بیشتر و فناوری های بهتر هم خواهد بود. چنین وضعیتی کنترل چند شرکت با اسم های جعلی ای مثل OpenAI که تقریبا هیچ چیزی در مورد آنها «باز» نیست را به چالش کشیده و تمام شالوده ی آنها را در طول زمان به از بین برده که چیزی جز سود برای مشتری ها نخواهد بود! فضایی که در بعضی از صنایع مانند غذا و دارو وجود ندارد. شرکت هایی که یک دارو را برای بیست سال تولید میکنند و تمامی رقابت ها را زیر چتر «حقوق معنوی» سرکوب می کنند. به همین دلیل تمام این اتفاقات را باید به فال نیک گرفت اما در مورد آن دچار توهم هم نشد.
کتاب Mirifici Logarithmorum Canonis Constructio به کوشش جان نپیر (John Napier) اسکاتلندی، سازنده ی لگاریتم در قرن ۱۶ میلادی. او تمام عمر خود را بر روی کامل کردن این کتاب صرف کرد تا آخرین روزی که از دنیا رفت. ادامه و تکمیل آن توسط هنری بریگز ادامه پیدا کرد.

تاثیر این کتاب بر پیشرفت تمدن غرب در فناوری، ابزار سازی، ناوبری دریایی و عصر اکتشاف غیر قابل انکار است!
(تصاویر از موزه ی تاریخ علم،‌ آکسفورد)
🔵نردبان شهود🔵


جمله ی مشهوری از آلفرد نورث وایتهد می‌گوید: «تمدن با گسترش تعداد عملیاتی که می‌توانیم بدون اندیشیدن دربارهٔ آن‌ها انجام دهیم، پیشرفت می‌کند.» در این زمینه، «عملیات» باید فراتر از محاسبات صرف تفسیر شود. توسعۀ ابزارهای ریاضی که به ما در اجتناب از وظایف تکراری کمک می‌کنند، نقطۀ آغاز این عملیات را در تاریخ رقم می‌زند.

برای مثال، ما در مدرسه با لگاریتم‌ها آشنا می‌شویم بی‌آنکه بدانیم در ابتدا چنین محاسباتی از نیازهای ناوبری دریانوردان سرچشمه گرفته‌ بودند. لگاریتم به آن‌ها امکان محاسبۀ سریع‌تر برای سفرهای طولانی را می‌داد. کتاب Mirifici Logarithmorum Canonis Descriptio نوشتۀ جان نَپیر درقرن ۱۶ میلادی محصول تلاش خستگی ناپذیر و مادام العمر او برای تهیۀ جداول لگاریتم بود. این جداول بعدها نه‌تنها توسط دریانوردان، بلکه در صنایع گوناگونی که به محاسبات سریع نیاز داشتند نیز به کار رفت. این جدول بزرگترین کامپیوتر زمان خود بود که راه تمدن غرب را برای ابزار سازی، سلاح و ناوبری دریایی و در نهایت عصر اکتشاف و چیرگی را فراهم کرد.

دنباله ی چنین ابزارهایی درنهایت با اختراع رایانه‌های دیجیتال، بشر را توانست بر سطح کرۀ ماه فرود آورد. اگرچه در اینجا چندان به تاریخ محاسبات نمی‌پردازیم، اما آشکار است که هر ابزار جدیدی که مجموعۀ خاصی از عملیات را بر عهده می‌گیرد، ما را از انجام دستی آن‌ها بی‌نیاز کرده و راه را برای پرداختن به اشکال پیچیده‌تر محاسبات هموار می‌کند.

پیشرفت محاسبات عددی زمینه را برای محاسبات ماتریسی فراهم ساخت و در پی آن موتورهای گرافیکی و محاسبات رده‌بالاتر ظهور یافتند. به‌عنوان نمونه، یکی از مهم‌ترین الگوریتم‌های عصر ما تبدیل فوریۀ سریع (FFT) است. گیلبرت استرنگ ریاضیدان نامی آمریکایی، FFT را مهم‌ترین الگوریتم عددی دوران ما می‌داند، چرا که این الگوریتم روش ذخیره‌سازی، انتقال و دستکاری داده‌ها — از موسیقی گرفته تا تصاویر و ویدیوها — را در بستر اینترنت و دستگاه‌های دیجیتال دگرگون کرد. امروزه، وقتی با موسیقی دیجیتال سر و کار داریم، در واقع مستقیماً با امواج صوتی خام مواجه نیستیم، بلکه با لایه‌ای از محاسبات پنهان روبرو هستیم که داده‌ها را برای ما پردازش و بهینه می‌کنند.

بیایید لحظه‌ای در تاریخ محاسبات تأمل کنیم. در هر مرحله، بشر ابزارهایی پدید آورده که عملیات را خودکار کرده و ما را از انجام دستی آن‌ها بی‌نیاز می‌کنند. این ابزارها همگی از اصلی بنیادین پیروی می‌کنند: آن‌ها داده‌ها را فشرده کرده و در قالبی متراکم‌تر نمایش می‌دهند. گزاف نیست اگر بگوییم تاریخ محاسبات انسانی، در اصل، تاریخ فشرده‌سازی است.

امروزه وارد دورانی شده‌ایم که عمدتاً تحت سیطرۀ چیزی موسوم به هوش مصنوعی (AI) قرار دارد. با این حال، ماهیت این جهش فناورانه اساساً با پیشرفت‌های پیشین تفاوت اساسی ندارد. مدل‌های هوش مصنوعی در ذات خود ابزارهای تازه‌ای هستند که داده‌ها را در ابعادی بی‌سابقه فشرده می‌کنند. به‌عنوان نمونه، FFT یک تصویر را با تحلیل مؤلفه‌های فرکانسی آن فشرده می‌کند. به همین ترتیب، مدل‌های مدرنِ گفتار و تصویر نیز این اصل را، نه‌تنها بر یک تصویر یا کلیپ صوتی تنها، بلکه بر مجموعه‌های عظیمی از دیتاست ها اعمال می‌کنند. در خصوص مدل‌های زبانی نیز همین امر صدق می‌کند؛ این مدل‌ها در واقع تمامی زبان انسانی را در یک مدل واحد فشرده می‌سازند. هرچند مقیاس و پیچیدگی بیشتر شده، اما اصل زیرساختی — یعنی تجزیۀ طیفی (spectral decomposition) — تغییری نکرده است.
توان محاسباتی این مدل‌ها چنان گسترده است که گاه به نظر می‌رسد کاری نیست که از عهدۀ آن‌ها برنیاید. آن‌ها شعر می‌سرایند، مقالات علمی را خلاصه می‌کنند، پرونده‌های حقوقی را تحلیل می‌کنند، مسائل ریاضی را حل می‌کنند، دستور پخت غذا می‌سازند، رمان می‌نویسند و غیره و غیره. ممکن است حس کنیم به «آخر بازی» رسیده‌ایم؛ جایی که ماشین‌ها همۀ وظایف فکری را بر عهده گرفته‌اند و دیگر جایی برای نقش‌آفرینی انسان نمانده است. اما آیا واقعاً چنین است؟ چگونه به‌عنوان یک تمدن می‌توانیم همچنان پیش برویم وقتی به نظر می‌رسد دیگر کاری برای ما باقی نمانده است و غائله را به مشتی سیلیکون باخته ایم؟

(ادامه دارد)
🔵نردبان شهود (ادامه)🔵

خبر خوب این است که چنین برداشتی درست نیست. برای درک دلیل آن، بیایید نگاهی دقیق‌تر به چگونگی عملکرد مدل‌های زبانی بیندازیم. یکی از بزرگ‌ترین چالش‌های این مدل‌ها، پدیدۀ «توهّم» (hallucination) است؛ یعنی زمانی که مدل، اطلاعاتی کاملاً نادرست تولید می‌کند. برای مثال، ممکن است یک مدل زبانی بگوید: «پایتخت فرانسه برلین است»، که آشکارا اشتباه است. در حالی که با آموزش بیشتر می‌توان این توهّم را کاهش داد، این کار عمدتاً با کاهش آنتروپی مدل انجام می‌شود.

در اینجا، آنتروپی نشان‌دهندۀ میزان تصادفی بودن یا انعطاف‌پذیری مدل در انتخاب واژۀ بعدی است. هرچه آنتروپی بالاتر باشد، مدل در گزینش کلمه آزادی بیشتری دارد. مدل‌های زبانی از طریق نمونه‌گیری از یک توزیع احتمالاتی، متن تولید می‌کنند؛ به این معنا که در پاسخ به یک پرسش یکسان (prompt)، ممکن است خروجی‌ هر بار اندکی متفاوت باشد. همین تنوع است که امکان تعمیم و بیان یک مفهوم را به شیوه‌های مختلف فراهم می‌کند. اما این امر به یک بده بستان (trade off) بنیادین منتهی می‌شود:

- آنتروپی پایین‌تر به مدل دقیق‌تری می‌انجامد، اما به بهای کاهش خلاقیت و اکتشاف.
- آنتروپی بالاتر خروجی‌های متنوع‌تر و خلاقانه‌تر تولید می‌کند، اما احتمال بروز اطلاعات غلط یا بی‌معنا نیز افزایش می‌یابد.

این موضوع پیوند شگفت‌انگیزی میان خلاقیت و تصادفی بودن را نشان می‌دهد — رابطه‌ای که در تفکر انسان نیز وجود دارد. اما واقعاً مدل‌های زبانی بزرگ (LLM) نظیر ChatGPT تا چه اندازه آنتروپی دارند؟ شگفت اینکه این مدل‌ها برای جلوگیری از تولید اطلاعات غلط آنقدر آموزش دیده‌اند که آنتروپی آن‌ها از گفتار طبیعی انسان کمتر شده است — و مسئله دقیقاً از همینجا ناشی می‌شود. (پژوهش های زیادی این واقعیت را نشان می دهند که در گفتار دیگری به آن ها میپردازیم.)
ما انسان‌ها در گفت‌وگو، آزادی عمل بیشتری در انتخاب کلمات داریم و در عین حال می‌توانیم خود را تصحیح کرده و از خطاهایی که چنین مدلهایی به سادگی مرتکب می شوند، بپرهیزیم. افزون بر این، برخلاف مدل‌های هوش مصنوعی، ما تنها به متن ها متکی نیستیم. انتخاب واژگان ما تحت تأثیر عوامل گوناگون بیرونی و درونی است.

برای نمونه، تصور کنید فردی وارد یک میکده ی آلمانی می‌شود. یافته‌های روان‌شناختی حاکی از آن است که انسان‌ها گفتار خود را با محیط پیرامون‌شان تطبیق می‌دهند. در چنین شرایطی، شاید ناخواسته واژگانی را به کار ببرند که بیشتر با فرهنگ آلمانی همخوانی دارد. ولی این تنوع زبانی بسی فراتر می‌رود؛ پیشینه، سن، جنسیت، احساسات، شرایط اجتماعی و حتی رژیم غذایی می‌تواند به‌شکلی نامحسوس بر شیوۀ بیان ما اثر بگذارد.
برخلاف ماشین‌ها، ما موجوداتی زیستی هستیم که پیوسته با شبکه‌ای پیچیده از ورودی‌های حسی، عواطف و تجربیات زیسته سازگار می‌شویم. این غنای ارتباط انسانی — ریشه‌گرفته از پیش‌بینی‌ناپذیری، بافت و سازگاری — چیزی است که هوش مصنوعی، با وجود تمام توانایی‌هایش، هنوز نتوانسته است به‌طور کامل بازتولید کند.

مدل‌های زبانی بزرگ عموماً بر دقت و آنتروپی پایین متمرکزند تا خروجی‌هایی قابل پیش‌بینی و قابل اتکا داشته باشند. همین نقصان فضایی گسترده برای خلاقیت انسانی باقی می‌گذارد که هنوز خارج از دسترس هر مدل زبانی بزرگی است. همان‌طور که یک ماشین‌حساب، معنای واقعی ریاضیات را درک نمی‌کند و تنها عملیات از پیش تعیین‌شده را اجرا می‌کند، مدل‌های زبانی بزرگ نیز فاقد شهود هستند و صرفاً در سازمان‌دهی و پردازش اطلاعات یاری می‌رسانند.
هنگامی که از شهود سخن می‌گوییم، به چیزی مرموز یا ناملموس اشاره نمی‌کنیم. شهود فرایندی واقعی و ملموس است که از تجربۀ کل‌نگر و درک جامع ما از جهان ناشی می‌شود. این فرایند به ما امکان می‌دهد مفاهیمی ظاهراً بی‌ارتباط را به هم ربط دهیم، حتی زمانی که به‌طور خودآگاه از این ارتباط‌ها باخبر نیستیم. برای نمونه، یک مدل زبانی بزرگ هرگز نمی‌تواند حقیقتاً به رابطۀ بین دو موضوع ظاهرا بی ربط مانند «تولیدمثل زیستی» و «توپولوژی ریاضی» پی ببرد؛ کاری که می کند اما تنها بازگویی شباهت‌های سطحی است. توانایی ایجاد بینش‌های عمیق میان‌رشته‌ای، نیازمند تجربه‌ای از جهان است که فراتر از متن، کتاب یا مقالۀ پژوهشی است. چنین توانایی‌ای از تصاویری ذهنی، درک حسی، عواطف، تجربیات زیسته و تفکر انتزاعی ما نشئت می‌گیرد — عناصری که هیچ‌یک حقیقتاً در دسترس مدل‌های زبانی بزرگ نیستند.
انسان‌ها توانایی منحصربه‌فردی برای «توهّم خلاقانه» (creative hallucination) دارند و می‌توانند وارد فضاهای مفهومی شوند که مرز میان «معنا» و «بی‌معنا» در آن‌ها محو می‌شود. درست در چنین حوزه‌های مبهم و نامطمئنی است که ایده‌ها، اکتشافات و پارادایم‌های تازه شکل می‌گیرند. بزرگ‌ترین جهش‌های علمی اغلب به‌صورت پرش‌هایی در ساحت شهود های عجیب آغاز می‌شوند که ممکن است ابتدا بی‌معنا به نظر برسند اما در نهایت حقایقی عمیق را آشکار می‌کنند. در مقابل، مدل‌های زبانی بزرگ فاقد ظرفیت چنان جهش‌هایی هستند و صرفاً می‌توانند الگوهای موجود را بر اساس داده‌های آموزشی خود تقویت کنند.

با این همه، نباید مدل‌های زبانی بزرگ را به چشم رقیبی برای شهود نگریست؛ بلکه باید آن‌ها را ابزاری دانست که شهود را تقویت می‌کنند. همان‌طور که وایتهد پیشرفت تمدن را ناشی از واگذاری عملیات سطح پایین به ماشین‌ها توصیف کرد، ما نیز می‌توانیم وظایف روزمرۀ شناختی را به مدل‌های زبانی بزرگ بسپاریم و در عوض بر استدلال‌های عمیق‌تر مبتنی بر شهود متمرکز شویم. در اصل، هر عملیاتی در ذهن که هنوز نیازمند تلاش آگاهانه (یا غیر آگاهانه) است، نوعی شهود محسوب می‌شود. با پیشرفت فناوری، بسیاری از شهودهای کنونی ما نیز خودکار خواهند شد و ما را مجبور می‌کنند از نردبان تفکر و شهود یک پله بالاتر صعود کنیم.

ازاین‌رو، به جای هراس از اینکه هوش مصنوعی جایگزین تفکر انسانی شود، باید دریابیم که این فناوری ما را وامی‌دارد معنای تفکر، آفرینش و کاوش را دوباره تعریف کنیم. مرز شهود انسانی همواره در حال گسترش خواهد ماند و یک گام از خودکارسازی جلوتر خواهد ایستاد، تا زمانی که به جست‌وجوی ناشناخته‌ها ادامه دهیم.

https://vrgl.ir/kWTml
سنگ نگاره ای اهورامزدا (پروردگار نکویی ها) در نقش رستم