This media is not supported in your browser
VIEW IN TELEGRAM
انتشار ریچی نشان میدهد که چطور یک کره از یه شکل غیر کروی ساخته می شود
🔵مدل های انتشار (diffusion models): موتور هوش مصنوعی مدرن! 🔵
تا به امروز حتما شما هم به یکی از کارهای شگفت انگیز تولید تصاویر بسیار با کیفیت توسط هوش مصنوعی برخورد کرده اید! تولید کردن تصاویر با چنین کیفیتی تا حتی چند سال پیش شبیه به رویا بود! اما دلیل این موفقیت شگرف از کجا می آید؟
یکی از مسیر های بسیار معمول مدل سازی های سنتی در هوش مصنوعی که در نهایت به تولد شبکه های عصبی منجر شد از قضا از ترمودینامیک شروع شد! بر خلاف بیشتر آنچه که می خوانید شبکه های عصبی شباهت کمتری به مغز و شباهت بیشتری به یک سیستم ترمودینامیکی مثل یک دسته از مولکول های یک گاز یا کریستال را دارند. در این سیستم ها آنچه بیش از همه اهمیت دارد «انرژی» و «آنتروپی» است. به این مفاهیم برمیگردیم اما قبل از آن باید به بخش جالبی از ترمودینامیک اشاره کنیم که بر اساس مدل سازی پدیده های تصادفی مثل حرکت تصادفی ذرات هوا بر میگردد. این مدل سازی با مقاله ی مهم آینشتین در مورد حرکت براونی در سال ۱۹۰۵ آغاز شد. مطالعات بسیار بر روی این حوزه منجر به ساخت «حساب» (calculus) های جدیدی شد که حرکت های تصادفی را توصیف می کردند. به طور مثال در یک گاز هر مولکول در اثر دو نیرو یعنی حرکت های تصادفی اطراف و حرکت کششی که ناشی از یک میدان خارجی مثل جاذبه است حرکت می کند. معادلاتی که چنین حالاتی را توصیف میکنند به معادلات فوکر پلانک شناخته می شوند. اگر شما یک قطره جوهر را در یک ظرف آب بریزید به مرور زمان منتشر شده و کامل یکنواخت می شود. نتیجه ی این دینامیک همیشه مشخص است: از بین رفتن کامل ساختار اولیه! گویی معادله ی انتشار (diffusion) هر آنچیزی که در طبیعت خراب می شود و از بین میرود را مدل سازی می کند! یک فرم دیگر انتشار معادله ی گرماست که در پست قبلی به آن اشاره کردیم. هر گونه الگوی اولیه در گرما بر روی یک فلز به تدریج یکسان شده و به تعادل می رسد!
این حساب ها به طور واضح فرآیند «از بین رفتن اطلاعات» را توصیف می کنند. در سال ۱۹۸۲ اندرسون در مقاله ای بسیار کلیدی سوال جالبی پرسید؟ اگر انتشار (دیفیوژن) فرآیند از بین رفتن اطلاعات را توصیف می کند و اساسا معادله ای برگشت ناپذیر (irreversible) است چه چیزی آن را برگشت پذیر (reversible) می کند؟
دقت کنید ساده ترین معادله ای برگشت ناپذیر دو حالت را به یک حالت میبرد. به طور مثال اگر من دو تاس را بندازم و عددهای هر دو را با هم جمع کنم و نتیجه را به شما بدهم شما به هیچ وجه نمی توانید عددهای اولیه را پیش بینی کنید. آنچه اما می توانید انجام دهید مجموعه ای از حدس هاست! معادله ی اندرسون به این ترتیب به این سوال پاسخ می دهد که احتمال هر حدس چیست. بعضی ترکیبات دارای احتمال بیشتر و بعضی کمتر هستند. به طور مثال اگر من به شما بگویم که نتیجه ۱۲ است شما براحتی می توانید حدس بزنید که دو مقدار اولیه ۶ بودند چون جمع دو تاس تنها در یک حالت می توانند ۱۲ باشد! اما این احتمال برای ۷ بسیار پخش تر است چون عدد های اولیه می تواند (۳و ۴) (۴و ۳) (۱و ۶) (۶و ۱) و (۲و ۴) و (۴و۲) باشد. اینجا حدس زدن مرحله ی پیش سخت تر می شود. اما معادله ی پخش این کار را یک بار بلکه بارها انجام میدهد. این من را به یاد بازی ای می اندازد که زمانی که بچه بودیم انجام میدادیم. یک نفر وارد اتاق شده و وسایل درونش را به هم میریزد. کسی که به اتاق بر میگردد باید بر اساس چیزی که یادش است حدس بزند که چی چیزی جابجا شده است! برای انجام این کار شما تنها به حافظه ی چند دقیقه ی پیش خود اکتفا نمیکنید بلکه به تمام حافظه های پیشین در مورد آن اتاق و حتی دانش عمومی در مورد یک اتاق مراجعه می کنید. مثلا به طور معمول لیوان بر روی استکان است و نه برعکس! این فرآیند معکوس اگر درست انجام شود به پیکربندی اصلی اتاق بر میگردد!
تا به امروز حتما شما هم به یکی از کارهای شگفت انگیز تولید تصاویر بسیار با کیفیت توسط هوش مصنوعی برخورد کرده اید! تولید کردن تصاویر با چنین کیفیتی تا حتی چند سال پیش شبیه به رویا بود! اما دلیل این موفقیت شگرف از کجا می آید؟
یکی از مسیر های بسیار معمول مدل سازی های سنتی در هوش مصنوعی که در نهایت به تولد شبکه های عصبی منجر شد از قضا از ترمودینامیک شروع شد! بر خلاف بیشتر آنچه که می خوانید شبکه های عصبی شباهت کمتری به مغز و شباهت بیشتری به یک سیستم ترمودینامیکی مثل یک دسته از مولکول های یک گاز یا کریستال را دارند. در این سیستم ها آنچه بیش از همه اهمیت دارد «انرژی» و «آنتروپی» است. به این مفاهیم برمیگردیم اما قبل از آن باید به بخش جالبی از ترمودینامیک اشاره کنیم که بر اساس مدل سازی پدیده های تصادفی مثل حرکت تصادفی ذرات هوا بر میگردد. این مدل سازی با مقاله ی مهم آینشتین در مورد حرکت براونی در سال ۱۹۰۵ آغاز شد. مطالعات بسیار بر روی این حوزه منجر به ساخت «حساب» (calculus) های جدیدی شد که حرکت های تصادفی را توصیف می کردند. به طور مثال در یک گاز هر مولکول در اثر دو نیرو یعنی حرکت های تصادفی اطراف و حرکت کششی که ناشی از یک میدان خارجی مثل جاذبه است حرکت می کند. معادلاتی که چنین حالاتی را توصیف میکنند به معادلات فوکر پلانک شناخته می شوند. اگر شما یک قطره جوهر را در یک ظرف آب بریزید به مرور زمان منتشر شده و کامل یکنواخت می شود. نتیجه ی این دینامیک همیشه مشخص است: از بین رفتن کامل ساختار اولیه! گویی معادله ی انتشار (diffusion) هر آنچیزی که در طبیعت خراب می شود و از بین میرود را مدل سازی می کند! یک فرم دیگر انتشار معادله ی گرماست که در پست قبلی به آن اشاره کردیم. هر گونه الگوی اولیه در گرما بر روی یک فلز به تدریج یکسان شده و به تعادل می رسد!
این حساب ها به طور واضح فرآیند «از بین رفتن اطلاعات» را توصیف می کنند. در سال ۱۹۸۲ اندرسون در مقاله ای بسیار کلیدی سوال جالبی پرسید؟ اگر انتشار (دیفیوژن) فرآیند از بین رفتن اطلاعات را توصیف می کند و اساسا معادله ای برگشت ناپذیر (irreversible) است چه چیزی آن را برگشت پذیر (reversible) می کند؟
دقت کنید ساده ترین معادله ای برگشت ناپذیر دو حالت را به یک حالت میبرد. به طور مثال اگر من دو تاس را بندازم و عددهای هر دو را با هم جمع کنم و نتیجه را به شما بدهم شما به هیچ وجه نمی توانید عددهای اولیه را پیش بینی کنید. آنچه اما می توانید انجام دهید مجموعه ای از حدس هاست! معادله ی اندرسون به این ترتیب به این سوال پاسخ می دهد که احتمال هر حدس چیست. بعضی ترکیبات دارای احتمال بیشتر و بعضی کمتر هستند. به طور مثال اگر من به شما بگویم که نتیجه ۱۲ است شما براحتی می توانید حدس بزنید که دو مقدار اولیه ۶ بودند چون جمع دو تاس تنها در یک حالت می توانند ۱۲ باشد! اما این احتمال برای ۷ بسیار پخش تر است چون عدد های اولیه می تواند (۳و ۴) (۴و ۳) (۱و ۶) (۶و ۱) و (۲و ۴) و (۴و۲) باشد. اینجا حدس زدن مرحله ی پیش سخت تر می شود. اما معادله ی پخش این کار را یک بار بلکه بارها انجام میدهد. این من را به یاد بازی ای می اندازد که زمانی که بچه بودیم انجام میدادیم. یک نفر وارد اتاق شده و وسایل درونش را به هم میریزد. کسی که به اتاق بر میگردد باید بر اساس چیزی که یادش است حدس بزند که چی چیزی جابجا شده است! برای انجام این کار شما تنها به حافظه ی چند دقیقه ی پیش خود اکتفا نمیکنید بلکه به تمام حافظه های پیشین در مورد آن اتاق و حتی دانش عمومی در مورد یک اتاق مراجعه می کنید. مثلا به طور معمول لیوان بر روی استکان است و نه برعکس! این فرآیند معکوس اگر درست انجام شود به پیکربندی اصلی اتاق بر میگردد!
حالا بیایید کمی دقیق تر شویم. اگر شما یک نویز در تابع g و یک کشش (در شکل یک میدان) f داشته باشیم. و آن را بر یک عکس بارها و بارها اعمال کنیم به تدریج این عکس به نویز کامل تبدیل می شود. اما اگر بخواهیم این فرآیند را معکوس کنیم نیاز داریم در جهتی حرکت کنیم میزان شانس ما برای ساختن دوباره ی عکس را بیشتر کند! این جهت در مشتق جهتی (دلتا) مشخص می شود. دقت کنید که این جهت با توجه به قدم ما در فرآیند به سوی عکس تغییر می کند. اما منظور ما از شانس چیست؟ شانس همان احتمال تصویر اولیه است (یا همان حافظه ی ما از اتاق) اما ما با لگاریتم آن کار میکنیم. دلیل این کار این است که وقتی لگاریتم احتمال چیزی را حساب میکنیم در واقع «اندازه ی کد» (code length) لازم برای توصیف آن را محاسبه می کنیم. این «اندازه ی کد» در اصطلاح ترمودینامیکی به معنای «انرژی» هم هست. برای مثال در مورد دو تاس این اندازه ی کد همان تعداد حالات می شود! به صورت کلی ما احتمال یک پیکربندی (configuration) مورد نظر x را به صورت p(x) ~ exp(-E(x)) توصیف میکنیم. به این ترتیب می توان گفت ما در جهتی حرکت میکنیم که «اندازه کد» یا «انرژی» را به حداقل برساند.
متاسفانه هیچ راه حلی برای محاسبه ی سریع delta وجود نداشت تا اینکه شبکه های عصبی کنونی توانستند مدل هایی بسازند که این مقدار را «تخمین» بزند. به چنین روش های score based که تابعی از t و x هستند (s(x, t)) گفته می شود و تمام کار آن ها این است که این تابع را برای مجموعه ی زیادی از x ها از یک دیتاست حساب کنند. این کار تنها با چنین محاسبه ای در تمامی قدم ها امکان پذیر است. بعد از آنکه مدل توانست نویز های مختلف بر روی عکس های مختلف را در جهت مخالف حدس بزند (از طریق مقایسه با عکس اصلی) کار آموزش تمام و به این ترتیب مدل قادر به ایجاد عکس های جدید است!
ترکیب قدرت شبکه های عصبی مصنوعی با اصول بسیار با شکوه ترمودینامیک این امکان را ایجاد می کند که پیچیده ترین منیفلد های داده ای مثل عکس را با دقت بسیار شگفت انگیز تولید کنیم!
این اما تنها یک شاهکار مهندسی نیست بلکه نتیجه ی استفاده ی درست از قوانین فیزیک ترمودینامیک در یک چارچوب درست است که نشان از عمق آن در نظریه اطلاعات هم می دهد. اینجا یک سوال جدید ایجاد می شود: چرا انرژی باید چیزی شبیه به «طول کد» باشد؟ درکی که از ما از انرژی در فیزیک داریم با طول کد بسیار متفاوت به نظر می رسد. در قسمت های بعدی این موضوع را بیشتر کاوش میکنیم!
ترکیب قدرت شبکه های عصبی مصنوعی با اصول بسیار با شکوه ترمودینامیک این امکان را ایجاد می کند که پیچیده ترین منیفلد های داده ای مثل عکس را با دقت بسیار شگفت انگیز تولید کنیم!
این اما تنها یک شاهکار مهندسی نیست بلکه نتیجه ی استفاده ی درست از قوانین فیزیک ترمودینامیک در یک چارچوب درست است که نشان از عمق آن در نظریه اطلاعات هم می دهد. اینجا یک سوال جدید ایجاد می شود: چرا انرژی باید چیزی شبیه به «طول کد» باشد؟ درکی که از ما از انرژی در فیزیک داریم با طول کد بسیار متفاوت به نظر می رسد. در قسمت های بعدی این موضوع را بیشتر کاوش میکنیم!
🔵نیوتون: آخرین جادوگر و اولین دانشمند!🔵
امروزه بسیار عادی است که فرض کنیم علم به ما امکاناتی میدهد که می توان با آن نه تنها جهان را درک کرد بلکه بر اساس آن ابزار هایی ساخت که بتوان محیط را کنترل کرد و شکل داد! اما این توانایی دستاوردی بسیار نوین است! در بیشتر تاریخ بشریت، انسان «ارباب طبیعت» نبود، بلکه قربانی آن به شمار میرفت. اتفاقات دنیای اطراف او یا نتیجه ی تصادفات یا مشیت الهی بودند! و انسان چاره ای جز پذیرش آن نداشت. امروزه قدرت ما در شکل دهی و پیش بینی محیط به حدی رسیده است که می توانیم طوفان ها را پیش بینی کنیم با عوامل بیماری که با چشم قابل دیدن نیستند وارد مبارزه هایی بسیار پیچیده شویم و حتی با فشار چند دکمه تمام حیات روی کره ی زمین را از بین ببریم!
پیشرفت های علمی بر خلاف باور عامه همیشه به صورت انباشتی اتفاق نمی افتد. آنچه رخ می دهد اما جهش های بسیار عظیمی است که نه تنها تمام جهان بینی ما بلکه شیوه های فکر کردن روزمره ی ما را هم تغییر می دهد! انقلاب علمی ای که با نیوتون آغاز شد نقطه ی شروع چنین تغییراتی بود. اهمیت کار نیوتون در این بود که برای نخستین بار بشریت به نظریهای دست یافت که بهراستی «کار میکرد». ممکن است صدای اعتراض برخیزد که پیش از نیوتون نیز دانشمندانی بودند که نظریات درستی درباره جهان ارائه کردهاند. اما باید توجه داشت که این نظریات غالباً پراکنده، ناپیوسته، و در بهترین حالت، محدود به موارد خاصی بودند—برای مثال، ساخت ساعتهای دقیق، تنظیم تقویمها، یا روشهای تجربی ذوب فلزات.
آنچه نیوتون به ارمغان آورد، نه صرفاً یک نظریه، بلکه شیوهای نوین از اندیشیدن بود که توانست علمی یکپارچه و جهانشمول ارائه دهد؛ شیوهای که پایه و اساس انقلاب علمی مدرن شد و برای همیشه مسیر علم و تفکر بشری را تغییر داد.
نیوتون برای اولین بار دستگاهی را معرفی کرد که جامع و جهانی بود! این دستگاه نه تنها از ریاضیات دقیقی پیروی می کرد بلکه فرضیات کم و عمومیت بی انتهایی داشت. بی اغراق نیست که کشف نیوتون مانند زلزله ای نه تنها علم بلکه فلسفه و حتی سیاست را در اروپا تغییر داد. تغییراتی که چهره ی جهان ما را برای همیشه تغییر داد. در این باب الکساندر پوپ می نویسد: "طبیعت و قوانین طبیعت در تاریکی پنهان بودند: خدا گفت، نیوتن باشد! و همهجا روشن شد[1].
پیش از نیوتون مرز های دقیقی بین علم و فلسفه و حتی علوم خفیه (occult)، چیزی که امروزه به اسم شبه علم می شناسیم، وجود نداشت. تصور بسیاری این است که نیوتون روش علمی را به تاسی از گالیله پیش گرفت با این حال مرور زندگی نیوتون چیز دیگری را نشان می دهد. نیوتون برخلاف تقریبا تمام هم عصرانش به علوم خفیه باور داشت! موضوعی که بابت آن همیشه مورد سرزنش و تمسخر قرار می گرفت. با این حال او سالهای زیادی از عمر خود را بر روی موضوعاتی گذارند که باور آن برای بسیاری دشوار است. بسیاری تصور می کنند که کارهای علمی نیوتون را باید از کارهای غیر علمی اش جدا کرد. اما چنین فرضی خیلی هم صحیح نیست!
نیوتون زمان زیادی از عمر خود را صرف کیمیاگری و الهیات کرد. نیوتون باور داشت که درک جهان نیازمند درک قوانین الهی و بازخوانی دقیق انجیل است! برخلاف پیشینیانش نیوتون اعتقاد داشت که تمام جهان از مجموعه ی قوانین یکسانی پیروی می کند. امروزه چنین چیزی برای ما پیش فرض است اما پیش از او اعتقاد بر این بود که مکانیک سماوی (حرکت ستارگان و سیاره ها) از مکانیک زمینی متفاوت است! نظریه ی گرانش نیوتون این دو مکانیک را برای اولین بار متحد کرد. این تغییر ریشه در دیدگاه نیوتون داشت که جهان را همچون ساعتی می دید که توسط خدا (ساعت ساز) ساخته شده و به همین خاطر همه جای آن باید یکسان و باشکوه باشد.
اما جدای از دیدگاه های کلی که هر دانشمندی می تواند داشته باشد نیوتون در نظریه گرانش خود عنصری را وارد کرد که بسیار عجیب بود. او فرض گرفت که اجرام می توانند بدون تماس با همدیگر بر هم نیرو وارد کنند چیزی که به «عمل در فاصله» (action at distance) شناخته می شود. این فرض با دیدگاه های مکانیکی زمان که اثر نیرو را فقط در نتیجه ی یک مدیوم ممکن می دانست در تضاد بود. لایبنیتز در نامه ای به ساموئل کلارک در سال ۱۷۱۵ به شدت به نیوتون حمله کرده و او را متهم به وارد کردن «عملگر های خیالی» (imaginary operations) و «نیروهای خفیه» (occult forces) به فیزیک میکند. پاسخ نیوتون به اعتراضات معمولا با نادیده گرفتن و توضیحات حتی پیچیده تر همراه بود.
امروزه بسیار عادی است که فرض کنیم علم به ما امکاناتی میدهد که می توان با آن نه تنها جهان را درک کرد بلکه بر اساس آن ابزار هایی ساخت که بتوان محیط را کنترل کرد و شکل داد! اما این توانایی دستاوردی بسیار نوین است! در بیشتر تاریخ بشریت، انسان «ارباب طبیعت» نبود، بلکه قربانی آن به شمار میرفت. اتفاقات دنیای اطراف او یا نتیجه ی تصادفات یا مشیت الهی بودند! و انسان چاره ای جز پذیرش آن نداشت. امروزه قدرت ما در شکل دهی و پیش بینی محیط به حدی رسیده است که می توانیم طوفان ها را پیش بینی کنیم با عوامل بیماری که با چشم قابل دیدن نیستند وارد مبارزه هایی بسیار پیچیده شویم و حتی با فشار چند دکمه تمام حیات روی کره ی زمین را از بین ببریم!
پیشرفت های علمی بر خلاف باور عامه همیشه به صورت انباشتی اتفاق نمی افتد. آنچه رخ می دهد اما جهش های بسیار عظیمی است که نه تنها تمام جهان بینی ما بلکه شیوه های فکر کردن روزمره ی ما را هم تغییر می دهد! انقلاب علمی ای که با نیوتون آغاز شد نقطه ی شروع چنین تغییراتی بود. اهمیت کار نیوتون در این بود که برای نخستین بار بشریت به نظریهای دست یافت که بهراستی «کار میکرد». ممکن است صدای اعتراض برخیزد که پیش از نیوتون نیز دانشمندانی بودند که نظریات درستی درباره جهان ارائه کردهاند. اما باید توجه داشت که این نظریات غالباً پراکنده، ناپیوسته، و در بهترین حالت، محدود به موارد خاصی بودند—برای مثال، ساخت ساعتهای دقیق، تنظیم تقویمها، یا روشهای تجربی ذوب فلزات.
آنچه نیوتون به ارمغان آورد، نه صرفاً یک نظریه، بلکه شیوهای نوین از اندیشیدن بود که توانست علمی یکپارچه و جهانشمول ارائه دهد؛ شیوهای که پایه و اساس انقلاب علمی مدرن شد و برای همیشه مسیر علم و تفکر بشری را تغییر داد.
نیوتون برای اولین بار دستگاهی را معرفی کرد که جامع و جهانی بود! این دستگاه نه تنها از ریاضیات دقیقی پیروی می کرد بلکه فرضیات کم و عمومیت بی انتهایی داشت. بی اغراق نیست که کشف نیوتون مانند زلزله ای نه تنها علم بلکه فلسفه و حتی سیاست را در اروپا تغییر داد. تغییراتی که چهره ی جهان ما را برای همیشه تغییر داد. در این باب الکساندر پوپ می نویسد: "طبیعت و قوانین طبیعت در تاریکی پنهان بودند: خدا گفت، نیوتن باشد! و همهجا روشن شد[1].
پیش از نیوتون مرز های دقیقی بین علم و فلسفه و حتی علوم خفیه (occult)، چیزی که امروزه به اسم شبه علم می شناسیم، وجود نداشت. تصور بسیاری این است که نیوتون روش علمی را به تاسی از گالیله پیش گرفت با این حال مرور زندگی نیوتون چیز دیگری را نشان می دهد. نیوتون برخلاف تقریبا تمام هم عصرانش به علوم خفیه باور داشت! موضوعی که بابت آن همیشه مورد سرزنش و تمسخر قرار می گرفت. با این حال او سالهای زیادی از عمر خود را بر روی موضوعاتی گذارند که باور آن برای بسیاری دشوار است. بسیاری تصور می کنند که کارهای علمی نیوتون را باید از کارهای غیر علمی اش جدا کرد. اما چنین فرضی خیلی هم صحیح نیست!
نیوتون زمان زیادی از عمر خود را صرف کیمیاگری و الهیات کرد. نیوتون باور داشت که درک جهان نیازمند درک قوانین الهی و بازخوانی دقیق انجیل است! برخلاف پیشینیانش نیوتون اعتقاد داشت که تمام جهان از مجموعه ی قوانین یکسانی پیروی می کند. امروزه چنین چیزی برای ما پیش فرض است اما پیش از او اعتقاد بر این بود که مکانیک سماوی (حرکت ستارگان و سیاره ها) از مکانیک زمینی متفاوت است! نظریه ی گرانش نیوتون این دو مکانیک را برای اولین بار متحد کرد. این تغییر ریشه در دیدگاه نیوتون داشت که جهان را همچون ساعتی می دید که توسط خدا (ساعت ساز) ساخته شده و به همین خاطر همه جای آن باید یکسان و باشکوه باشد.
اما جدای از دیدگاه های کلی که هر دانشمندی می تواند داشته باشد نیوتون در نظریه گرانش خود عنصری را وارد کرد که بسیار عجیب بود. او فرض گرفت که اجرام می توانند بدون تماس با همدیگر بر هم نیرو وارد کنند چیزی که به «عمل در فاصله» (action at distance) شناخته می شود. این فرض با دیدگاه های مکانیکی زمان که اثر نیرو را فقط در نتیجه ی یک مدیوم ممکن می دانست در تضاد بود. لایبنیتز در نامه ای به ساموئل کلارک در سال ۱۷۱۵ به شدت به نیوتون حمله کرده و او را متهم به وارد کردن «عملگر های خیالی» (imaginary operations) و «نیروهای خفیه» (occult forces) به فیزیک میکند. پاسخ نیوتون به اعتراضات معمولا با نادیده گرفتن و توضیحات حتی پیچیده تر همراه بود.
کار نیوتن مرز میان علم توصیفی و تبیینی را محو کرد. به عنوان مثال، او در کتاب «اصول ریاضی فلسفه طبیعی» (Principia) معروفاً نوشت: «Hypotheses non fingo» (به لاتین به معنی «فرضیه نمیبافم») تا نشان دهد که تمایلی به حدس زدن دربارهٔ مکانیزم گرانش ندارد. در حالی که این عبارت اغلب بهعنوان رد کردن گمانهزنی تفسیر میشود، همچنین بر این باور او تأکید میکرد که علم باید بر توضیح نحوهٔ کارکرد چیزها (از طریق ریاضیات و مشاهده) متمرکز باشد، نه چرایی آنها (از طریق توضیحات متافیزیکی). به این ترتیب دانشمند ناچار است عناصر توضیح ناپذیر همچون جادو را به نظریات خود اضافه کند!
کتاب «اصول ریاضی فلسفه طبیعی» نیوتن یک چارچوب ریاضی دقیق برای توصیف پدیدههای طبیعی معرفی کرد. در حالی که این موضوع امروز بسیار مورد ستایش قرار میگیرد، در زمان خود بحثبرانگیز بود، زیرا بسیاری از دانشمندان توضیحات کیفی یا مکانیکی را ترجیح میدادند. استفاده از ریاضیات انتزاعی برای توصیف حرکت، نیروها و گرانش برای برخی از همعصران او بیش از حد انتزاعی و جدا از واقعیت فیزیکی به نظر میرسید. به عنوان مثال، فیزیکدانان دکارتی، بر مدلهای مکانیکی تأکید داشتند که شامل تماس مستقیم ذرات بود. اتکای نیوتن به ریاضیات برای توصیف نیروهای «نامرئی» مانند گرانش، از دید آنها شبیه نوعی عرفان پنهان بود. برای آنها کارهای نیوتون بیشتر شبیه به کار جادوگرانی است که چیزهایی بر روی کاغذ می نویسند و انتظار دارند که مسیر وقایع را تغییر دهند!
گذر زمان نشان داد که نیوتون تنها جادوگری بود که جادویش حقیقتا کار میکرد! روش بسیار انتزاعی ریاضی او ثابت کرد که می توان خطوطی در هم و برهم بر روی کاغذ کشید (ریاضیات!) که نه تنها طبیعت را توصیف که آن را پیش بینی هم می کند! گاه نیوتون را آخرین جادوگر و اولین دانشمند خطاب می کنند. روش عجیب نیوتون در انجام علم نشان داد که علم چیزی بیش از مجموعه ای حقایق و مشاهدات و در عمل «پرش های» گاه جسورانه ای در قلمرو فرضیات است که در نگاه نخست «غیر علمی»، «عجیب» و «جادویی» بنظر می آیند. امروزه ما بهسادگی میپذیریم که بخشهایی از هر نظریه علمی، فراتر از توضیح فعلی هستند. اما این نه نقصی در علم، بلکه نویدی از آینده است، چرا که سرنوشت آن بخشهای نامکشوف به دستان زمان و پیشرفت سپرده شده است.
روش نیوتون شالوده علم مدرن است؛ علمی که شاید در ظاهر دشمن جادو باشد، اما ریشههایش با افسون و جادو درهمتنیده است، و تشخیص مرز میان آن دو، گاه دشوار و پیچیده. هیچ دانشمندی تنها به مشاهده و گردآوری حقایق جهان بسنده نمیکند؛ علم، همچون جادو، تلاشی است بیپایان برای کشف افسون جهان و غرقه شدن در شگفتیهای آن.
هر راز که گشوده شود، صدها راز دیگر بر سر راه انسان پدیدار میگردد و این هزارتوی شگرف و بیانتها، دانشمند را مجذوب خویش میسازد. آنچه دانشمند را با شور و شیدایی به سوی اسرار جهان میکشاند، نه پاسخها، بلکه پرسشهایی است که همچون چراغی در تاریکی، مسیر او را روشن میکنند. علم، سفری است از حیرت به سوی حیرت، و این جذابیت بیپایان است که روح انسان را در خود غرق میکند.
[1] Nature and Nature's laws lay hid in night: God said, Let Newton be! and all was light!
https://vrgl.ir/3KFgC
کتاب «اصول ریاضی فلسفه طبیعی» نیوتن یک چارچوب ریاضی دقیق برای توصیف پدیدههای طبیعی معرفی کرد. در حالی که این موضوع امروز بسیار مورد ستایش قرار میگیرد، در زمان خود بحثبرانگیز بود، زیرا بسیاری از دانشمندان توضیحات کیفی یا مکانیکی را ترجیح میدادند. استفاده از ریاضیات انتزاعی برای توصیف حرکت، نیروها و گرانش برای برخی از همعصران او بیش از حد انتزاعی و جدا از واقعیت فیزیکی به نظر میرسید. به عنوان مثال، فیزیکدانان دکارتی، بر مدلهای مکانیکی تأکید داشتند که شامل تماس مستقیم ذرات بود. اتکای نیوتن به ریاضیات برای توصیف نیروهای «نامرئی» مانند گرانش، از دید آنها شبیه نوعی عرفان پنهان بود. برای آنها کارهای نیوتون بیشتر شبیه به کار جادوگرانی است که چیزهایی بر روی کاغذ می نویسند و انتظار دارند که مسیر وقایع را تغییر دهند!
گذر زمان نشان داد که نیوتون تنها جادوگری بود که جادویش حقیقتا کار میکرد! روش بسیار انتزاعی ریاضی او ثابت کرد که می توان خطوطی در هم و برهم بر روی کاغذ کشید (ریاضیات!) که نه تنها طبیعت را توصیف که آن را پیش بینی هم می کند! گاه نیوتون را آخرین جادوگر و اولین دانشمند خطاب می کنند. روش عجیب نیوتون در انجام علم نشان داد که علم چیزی بیش از مجموعه ای حقایق و مشاهدات و در عمل «پرش های» گاه جسورانه ای در قلمرو فرضیات است که در نگاه نخست «غیر علمی»، «عجیب» و «جادویی» بنظر می آیند. امروزه ما بهسادگی میپذیریم که بخشهایی از هر نظریه علمی، فراتر از توضیح فعلی هستند. اما این نه نقصی در علم، بلکه نویدی از آینده است، چرا که سرنوشت آن بخشهای نامکشوف به دستان زمان و پیشرفت سپرده شده است.
روش نیوتون شالوده علم مدرن است؛ علمی که شاید در ظاهر دشمن جادو باشد، اما ریشههایش با افسون و جادو درهمتنیده است، و تشخیص مرز میان آن دو، گاه دشوار و پیچیده. هیچ دانشمندی تنها به مشاهده و گردآوری حقایق جهان بسنده نمیکند؛ علم، همچون جادو، تلاشی است بیپایان برای کشف افسون جهان و غرقه شدن در شگفتیهای آن.
هر راز که گشوده شود، صدها راز دیگر بر سر راه انسان پدیدار میگردد و این هزارتوی شگرف و بیانتها، دانشمند را مجذوب خویش میسازد. آنچه دانشمند را با شور و شیدایی به سوی اسرار جهان میکشاند، نه پاسخها، بلکه پرسشهایی است که همچون چراغی در تاریکی، مسیر او را روشن میکنند. علم، سفری است از حیرت به سوی حیرت، و این جذابیت بیپایان است که روح انسان را در خود غرق میکند.
[1] Nature and Nature's laws lay hid in night: God said, Let Newton be! and all was light!
https://vrgl.ir/3KFgC
ویرگول
نیوتون: آخرین جادوگر و اولین دانشمند! - ویرگول
امروزه بسیار عادی است که فرض کنیم علم به ما امکاناتی میدهد که می توان با آن نه تنها جهان را درک کرد بلکه بر اساس آن ابزار هایی ساخت که بتوا…
🔵محاسبات معکوس پذیر: آینده ی هوش مصنوعی؟🔵
بعضی وقتها که گوشی تان داغ میکند به این فکر میکنید که آیا در آینده گوشی ها یا کامپیوتر هایی می آیند که هیچوقت داغ نشوند؟ اصلا چرا یک وسیله ی محاسباتی باید داغ شود و گرما آزاد کند؟ امروزه یکی از چالش های عظیم هوش مصنوعی غلبه بر حجم محاسباتی بسیار عظیمی است که باعث آزاد شدن حجم زیادی از گرما می شود. در سال گذشته هوش مصنوعی بیشتر از کل کشور انگلستان انرژی مصرف کرده و در آموزش شبکه های عصبی از میزان عظیم کربن تولید شده در جو بحث می شود. به طور مثال آموزش مدل های زبانی عظیم GPT3 به اندازه ی ۱۰۰ کیلوگرم کربن به جو اضافه می کند! به این روند تازه آغاز شده است و در سالهای آینده به مشکل های بزرگتری منجر می شود. این از طرفی است که مغز انسان که می خواهیم آن را تقلید کنیم با تنها مصرف بیست وات کار میکند. اما قبل از پاسخ به این پرسش که منشا این همه تفاوت در کجاست باید سوال اساسی تری پرسید: اصلا چرا محاسبه باید گرما آزاد کند؟
اصل لانداوه )Landauer's principle) قانونی در ترمودینامیک است که هر عملیاتی غیر قابل معکوس که بر روی اطلاعات انجام می شود (مانند گیت های منطقی) منجر به آزاد کردن گرما می کند. میزان این گرما بزرگتر از k_B * T * Ln(2) است که در آن k_B ثابت بولتزمن و T دماست (در کلوین). دقت کنید که این میزان گرما بسیار بسیار پایین در حد ۲* ۱۰×-۲۱ ژول است. مقداری که گیت های امروزی فاصله ی زیادی با آن دارند (آن ها میلیاردها برابر بیشتر انرژی آزاد می کنند).
محاسبات معکوس ناپذیر شامل تمام مسیر های عملیاتی ای می شود که به صورت ادغام حداقل دو متغیر هستند. به طور مثال وقتی شما دو عدد را جمع می کنید نتیجه ی محاسبه عددی است که بر اساس آن نمی توان ورودی ها را تشخیص داد. اگر نتیجه ی عملیات جمع بین دو عدد صحیح ۴ باشد ورودی ها ممکن است ۱ و ۳ یا ۲ و ۲ یا ۳ و ۱ باشد (بدون در نظر گرفتن صفر). در پایه ای ترین سطح اصل لانداوه می گوید از دست رفتن اطلاعات (مثلا با یک محاسبه جمع یا پاک کردن حافظه) منجر به افزایش دما در محیط می شود چون اطلاعات از بین رفتنی نیست!
می توان چنین محاسباتی را در پایه ای ترین حالت خود یعنی به صورت گیت های منطقی بررسی کرد. به طور مثال تمامی گیت های منطقی به جز not معکوس ناپذیرند. از ریاضیات می دانیم تنها تابع هایی معکوس پذیر هستند که یک به یک باشند. وقتی این مسیر ها با هم ادغام (merge) می شوند این خاصیت از دست می رود. اما آیا می توان گیت ها رو طوری تغییر داد که محاسبه معکوس پذیر باشد. در نظریه این کار ممکن است. در رشته ی محاسبات معکوس پذیر تمرکز بر روی یافتن راه هایی است که چنین کاری را امکان پذیر می کند. به طور مثال می توان به جای خروجی دادن یه حالت برای عملگر xor آن را به صورت زیر داد:
(x, y) => (x, x xor y)
به این ترتیب می توان هر ورودی را بر اساس خروجی به درستی حدس زد! (خودتان امتحان کنید). دلیل این موضوع این است که این تابع یک به یک است. در سال ۱۹۶۳ Yves Lecerf ایده ی ماشین های تورینگ معکوس پذیر را مطرح کرد. با این حال او از اصل لانداوه بی خبر بود و به همین دلیل این ایده را دنبال نکرد. در سال ۱۹۷۳ چارلز بنت (Charles H. Bennett) که از پیشگامان محاسبات معکوس پذیر است نشان داد که ماشین تورینگ هم به صورت منطقی و هم به صورت ترمودینامیکی قابل معکوس کردن است!
بسیاری از پژوهشگران امروزه بر روی روش هایی کار میکنند که چنین محاسباتی را ممکن کند به طور مثال بسیاری بر روی گیت های Toffoli Gate (CCNOT) و Fredkin Gate (CSWAP) کار می کنند. گرچه این روش ها جالب هستند اما رسیدن به بالاترین سطح از معکوس پذیری به این ترتیب شاید دشوار بنماید. در عمل محاسباتی که در مغز یا هر سیستم زیست شناختی دیگری انجام می شود بر اساس گیت ها نیست. معکوس پذیری می تواند به داشتن «حافظه»از گذشته هم تعبیر شود. به عبارتی وقتی یک تابع معکوس پذیر تر است بیشتر می توان به گذشته ی آن نگاه کرد. در اینجا منظور از کم تر یا بیشتر معکوس پذیری باید به صورت خاص تری تعبیر شود. در یک دنباله ی محاسباتی هر قدر بیشتر بتوان مقادیری که در قدم های قبل تر انجام شده است به راحتی حدس زد نشان می دهند که سیستم «حافظه ی» بیشتری نسبت به گذشته ی خود دارد. این «حافظه» می تواند نه به صورت یک گیت معکوس پذیر بلکه ای حافظه ای باشد که در یک مجموعه از متغیر ها ثبت شده است. چیزی که به عنوان حافظه ی انجمنی associative memory می شناسیم. در اینجا وارد جزییات بیشتر نمی شویم اما خواننده را تشویق به فکر کردن در مورد چنین امکانی برای آینده ی هوش مصنوعی می کنیم!
بعضی وقتها که گوشی تان داغ میکند به این فکر میکنید که آیا در آینده گوشی ها یا کامپیوتر هایی می آیند که هیچوقت داغ نشوند؟ اصلا چرا یک وسیله ی محاسباتی باید داغ شود و گرما آزاد کند؟ امروزه یکی از چالش های عظیم هوش مصنوعی غلبه بر حجم محاسباتی بسیار عظیمی است که باعث آزاد شدن حجم زیادی از گرما می شود. در سال گذشته هوش مصنوعی بیشتر از کل کشور انگلستان انرژی مصرف کرده و در آموزش شبکه های عصبی از میزان عظیم کربن تولید شده در جو بحث می شود. به طور مثال آموزش مدل های زبانی عظیم GPT3 به اندازه ی ۱۰۰ کیلوگرم کربن به جو اضافه می کند! به این روند تازه آغاز شده است و در سالهای آینده به مشکل های بزرگتری منجر می شود. این از طرفی است که مغز انسان که می خواهیم آن را تقلید کنیم با تنها مصرف بیست وات کار میکند. اما قبل از پاسخ به این پرسش که منشا این همه تفاوت در کجاست باید سوال اساسی تری پرسید: اصلا چرا محاسبه باید گرما آزاد کند؟
اصل لانداوه )Landauer's principle) قانونی در ترمودینامیک است که هر عملیاتی غیر قابل معکوس که بر روی اطلاعات انجام می شود (مانند گیت های منطقی) منجر به آزاد کردن گرما می کند. میزان این گرما بزرگتر از k_B * T * Ln(2) است که در آن k_B ثابت بولتزمن و T دماست (در کلوین). دقت کنید که این میزان گرما بسیار بسیار پایین در حد ۲* ۱۰×-۲۱ ژول است. مقداری که گیت های امروزی فاصله ی زیادی با آن دارند (آن ها میلیاردها برابر بیشتر انرژی آزاد می کنند).
محاسبات معکوس ناپذیر شامل تمام مسیر های عملیاتی ای می شود که به صورت ادغام حداقل دو متغیر هستند. به طور مثال وقتی شما دو عدد را جمع می کنید نتیجه ی محاسبه عددی است که بر اساس آن نمی توان ورودی ها را تشخیص داد. اگر نتیجه ی عملیات جمع بین دو عدد صحیح ۴ باشد ورودی ها ممکن است ۱ و ۳ یا ۲ و ۲ یا ۳ و ۱ باشد (بدون در نظر گرفتن صفر). در پایه ای ترین سطح اصل لانداوه می گوید از دست رفتن اطلاعات (مثلا با یک محاسبه جمع یا پاک کردن حافظه) منجر به افزایش دما در محیط می شود چون اطلاعات از بین رفتنی نیست!
می توان چنین محاسباتی را در پایه ای ترین حالت خود یعنی به صورت گیت های منطقی بررسی کرد. به طور مثال تمامی گیت های منطقی به جز not معکوس ناپذیرند. از ریاضیات می دانیم تنها تابع هایی معکوس پذیر هستند که یک به یک باشند. وقتی این مسیر ها با هم ادغام (merge) می شوند این خاصیت از دست می رود. اما آیا می توان گیت ها رو طوری تغییر داد که محاسبه معکوس پذیر باشد. در نظریه این کار ممکن است. در رشته ی محاسبات معکوس پذیر تمرکز بر روی یافتن راه هایی است که چنین کاری را امکان پذیر می کند. به طور مثال می توان به جای خروجی دادن یه حالت برای عملگر xor آن را به صورت زیر داد:
(x, y) => (x, x xor y)
به این ترتیب می توان هر ورودی را بر اساس خروجی به درستی حدس زد! (خودتان امتحان کنید). دلیل این موضوع این است که این تابع یک به یک است. در سال ۱۹۶۳ Yves Lecerf ایده ی ماشین های تورینگ معکوس پذیر را مطرح کرد. با این حال او از اصل لانداوه بی خبر بود و به همین دلیل این ایده را دنبال نکرد. در سال ۱۹۷۳ چارلز بنت (Charles H. Bennett) که از پیشگامان محاسبات معکوس پذیر است نشان داد که ماشین تورینگ هم به صورت منطقی و هم به صورت ترمودینامیکی قابل معکوس کردن است!
بسیاری از پژوهشگران امروزه بر روی روش هایی کار میکنند که چنین محاسباتی را ممکن کند به طور مثال بسیاری بر روی گیت های Toffoli Gate (CCNOT) و Fredkin Gate (CSWAP) کار می کنند. گرچه این روش ها جالب هستند اما رسیدن به بالاترین سطح از معکوس پذیری به این ترتیب شاید دشوار بنماید. در عمل محاسباتی که در مغز یا هر سیستم زیست شناختی دیگری انجام می شود بر اساس گیت ها نیست. معکوس پذیری می تواند به داشتن «حافظه»از گذشته هم تعبیر شود. به عبارتی وقتی یک تابع معکوس پذیر تر است بیشتر می توان به گذشته ی آن نگاه کرد. در اینجا منظور از کم تر یا بیشتر معکوس پذیری باید به صورت خاص تری تعبیر شود. در یک دنباله ی محاسباتی هر قدر بیشتر بتوان مقادیری که در قدم های قبل تر انجام شده است به راحتی حدس زد نشان می دهند که سیستم «حافظه ی» بیشتری نسبت به گذشته ی خود دارد. این «حافظه» می تواند نه به صورت یک گیت معکوس پذیر بلکه ای حافظه ای باشد که در یک مجموعه از متغیر ها ثبت شده است. چیزی که به عنوان حافظه ی انجمنی associative memory می شناسیم. در اینجا وارد جزییات بیشتر نمی شویم اما خواننده را تشویق به فکر کردن در مورد چنین امکانی برای آینده ی هوش مصنوعی می کنیم!
🔵ریاضی و شعر🔵
هانری پوانکاره زمانی گفت:
«ما تازه از طریق یک مثال، اهمیت واژگان در ریاضیات را مشاهده کردیم، اما میتوانم موارد بیشتری از آن ذکر کنم. آنگونه که ماخ گفته است، بهسختی میتوان باور کرد که انتخاب یک واژهٔ خوب تا چه اندازه میتواند در صرفهجوییِ اندیشه مؤثر باشد.
نمیدانم در جایی گفتهام یا نه که ریاضیات هنرِ یکساننامیدنِ چیزهای متفاوت است. باید آن را اینگونه فهمید. درست آن است که چیزهایی که از نظر جوهر متفاوتند اما از لحاظ صورت شبیهاند، بهاصطلاح در یک قالب ریخته شوند. هنگامی که زبان ما بهخوبی برگزیده شود، شگفتآور است که چگونه همهٔ برهانهایی که بر پایهٔ یک واقعیت شناختهشده ارائه شدهاند، بیدرنگ بر بسیاری از واقعیتهای جدید قابل اطلاق میشوند. نیازی به هیچ تغییری نیست، حتی کلمات را هم تغییر نمیدهیم، زیرا در موارد تازه نامها یکساناند.»
آیندهٔ ریاضیات، ۱۹۰۸
آنچه ریاضیات را قدرتمند و زیبا میکند، دقیقاً همین تواناییِ یکپارچهسازی ایدههایی است که در ابتدا ظاهراً نامرتبط بهنظر میرسند. ریاضیات با انتزاع میکوشد تعمیم دهد و یکپارچه سازد، و سیستمهای پیچیده را به اصول و چارچوبهای همگانی تقلیل دهد. هدف ریاضیات، شفافیت، سازواری و عمومیت است—یافتن ساختارهای مشترک در پدیدههای ظاهراً جدا از هم. برای نمونه، ابزارهای ریاضی یکسان میتوانند حرکت سیارهها، مدارهای الکتریکی و حتی سامانههای اقتصادی را با یک فرمول توصیف کنند.
در مقابل، شعر حول این ایده میچرخد که به یک چیز نامهای گوناگون بدهد؛ از هر ابزاری که شاعر دارد—از قیاس و استعاره و ایهام گرفته که به صنایع ادبی شناخته می شوند تا در سطحی بالاتر، احساس—بهره میبرد. در شعر، «باد» یا حتی «بادی که امروز صبح حس کردم» میتواند بسیار فراتر از همان پدیدهٔ خاص باشد: همان باد میتواند نمایانگر گذر زمان، موی معشوق یا نجوای صبا باشد. ابهام در اینجا کلیدی است و اجازه میدهد یک مفهوم گسترش یابد و با ایدهها، احساسات و تصویرهای گوناگون پیوند بخورد. برای نمونه در شعر زیر از حافظ:
ز گریه مردم چشمم نشسته در خون است ببین که در طلبت حال مردمان چون است
معنی نزدیک مردم و مردمان در این بیت مردمک و مردمکان چشمان گریان و خونبار عاشق در برابر معشوق است، ولی، در معنایی دورتر و عمیقتر، با ظرافت و هنرمندی کمنظیری، حال و احوال تمامی مردمان عاشقیکشیده و خونگریسته را بر خاطر و روان خواننده میپاشاند. شعر بر خاص بودن و برداشت شخصی تجربه های ما تاکید می کند در حالی که ریاضیات به یکی ساختن تجربه های متفاوت!
در حالی که ریاضیات با انتزاع سادهسازی میکند، شعر از راه «شخصیتبخشی» و «گونهگونی» پیچیدگی میآفریند! شخصیتبخشی همان فرایند منشعبشدن معنا یا مراجع است، روندی کاملاً در تقابل با انتزاع در ریاضیات! در شعر میدانید از کجا شروع میکنید، اما هرگز نمیدانید به کجا خواهید رسید! در ریاضیات ابتدا نمیدانید کجا هستید اما سرانجام میدانید به کجا خواهید رسید! در شعر از یقین آغاز میکنید و آغوش به روی عدم قطعیت میگشایید، اما در ریاضیات، با عدم قطعیت ها و گونه گونی ها دست و پنجه نرم می کنید تا ناگاه همهچیز را در یک تصویر می بینید.
نتیجه آنکه، شعر ذاتاً تفسیر شخصی را میپذیرد. تجربهٔ هر فرد از یک شعر جوهرهٔ نهایی آن را شکل میدهد؛ در حالی که ریاضیات در پیِ درکی جمعی و جهانی است. در شعر، احساسات، شرایط و پیشینهٔ شخصیِ خواننده است که به اثر قدرت میبخشد؛ حال آنکه در ریاضیات، زاویهٔ دید فردی تقریباً بیاهمیت است. با این حال ضربه ی اولیه ی ریاضیات بر هر کس خاص اوست!
در ریاضیات، ناظر میکوشد خود را از میان بردارد؛ چراکه هدف، رسیدن به عینیتِ محض است. حقایق ریاضی مستقل از این که چه کسی و در چه زمانی آنها را کشف میکند، وجود دارند. در مقابل، در شعر، خود ناظر جایگاهی اساسی دارد؛ صدای شاعر، دیدگاه او و دریچهٔ منحصربهفردش، اثر را شکل میدهد و آن را ژرفاً فردی و ذهنی میسازد.
میتوان دریافتِ ما از واقعیت و جهان را پیوستاری دانست میان ریاضیات و شعر. اگرچه این دو ظاهراً در دو قطب متفاوت قرار دارند، گاه هریک به قلمرو دیگری گام میگذارند. ریاضیات با وجود آنکه فراگیر و جمعی است، همچنان بر شهودی فردی—که خود تجربهای ذهنی است و روند اکتشاف و بینش را راه میبخشد—تکیه دارد. از سوی دیگر، هرچند شعر اغلب بر فرد تمرکز دارد، درنهایت دربردارندهٔ رگههایی است که همگی ما را به هم پیوند میدهد؛ شعر ایدههای مشترک، اخلاقیات و احساساتی را منتقل میکند که گاه حتی خود شاعر را به شگفتی وامیدارد.
هانری پوانکاره زمانی گفت:
«ما تازه از طریق یک مثال، اهمیت واژگان در ریاضیات را مشاهده کردیم، اما میتوانم موارد بیشتری از آن ذکر کنم. آنگونه که ماخ گفته است، بهسختی میتوان باور کرد که انتخاب یک واژهٔ خوب تا چه اندازه میتواند در صرفهجوییِ اندیشه مؤثر باشد.
نمیدانم در جایی گفتهام یا نه که ریاضیات هنرِ یکساننامیدنِ چیزهای متفاوت است. باید آن را اینگونه فهمید. درست آن است که چیزهایی که از نظر جوهر متفاوتند اما از لحاظ صورت شبیهاند، بهاصطلاح در یک قالب ریخته شوند. هنگامی که زبان ما بهخوبی برگزیده شود، شگفتآور است که چگونه همهٔ برهانهایی که بر پایهٔ یک واقعیت شناختهشده ارائه شدهاند، بیدرنگ بر بسیاری از واقعیتهای جدید قابل اطلاق میشوند. نیازی به هیچ تغییری نیست، حتی کلمات را هم تغییر نمیدهیم، زیرا در موارد تازه نامها یکساناند.»
آیندهٔ ریاضیات، ۱۹۰۸
آنچه ریاضیات را قدرتمند و زیبا میکند، دقیقاً همین تواناییِ یکپارچهسازی ایدههایی است که در ابتدا ظاهراً نامرتبط بهنظر میرسند. ریاضیات با انتزاع میکوشد تعمیم دهد و یکپارچه سازد، و سیستمهای پیچیده را به اصول و چارچوبهای همگانی تقلیل دهد. هدف ریاضیات، شفافیت، سازواری و عمومیت است—یافتن ساختارهای مشترک در پدیدههای ظاهراً جدا از هم. برای نمونه، ابزارهای ریاضی یکسان میتوانند حرکت سیارهها، مدارهای الکتریکی و حتی سامانههای اقتصادی را با یک فرمول توصیف کنند.
در مقابل، شعر حول این ایده میچرخد که به یک چیز نامهای گوناگون بدهد؛ از هر ابزاری که شاعر دارد—از قیاس و استعاره و ایهام گرفته که به صنایع ادبی شناخته می شوند تا در سطحی بالاتر، احساس—بهره میبرد. در شعر، «باد» یا حتی «بادی که امروز صبح حس کردم» میتواند بسیار فراتر از همان پدیدهٔ خاص باشد: همان باد میتواند نمایانگر گذر زمان، موی معشوق یا نجوای صبا باشد. ابهام در اینجا کلیدی است و اجازه میدهد یک مفهوم گسترش یابد و با ایدهها، احساسات و تصویرهای گوناگون پیوند بخورد. برای نمونه در شعر زیر از حافظ:
ز گریه مردم چشمم نشسته در خون است ببین که در طلبت حال مردمان چون است
معنی نزدیک مردم و مردمان در این بیت مردمک و مردمکان چشمان گریان و خونبار عاشق در برابر معشوق است، ولی، در معنایی دورتر و عمیقتر، با ظرافت و هنرمندی کمنظیری، حال و احوال تمامی مردمان عاشقیکشیده و خونگریسته را بر خاطر و روان خواننده میپاشاند. شعر بر خاص بودن و برداشت شخصی تجربه های ما تاکید می کند در حالی که ریاضیات به یکی ساختن تجربه های متفاوت!
در حالی که ریاضیات با انتزاع سادهسازی میکند، شعر از راه «شخصیتبخشی» و «گونهگونی» پیچیدگی میآفریند! شخصیتبخشی همان فرایند منشعبشدن معنا یا مراجع است، روندی کاملاً در تقابل با انتزاع در ریاضیات! در شعر میدانید از کجا شروع میکنید، اما هرگز نمیدانید به کجا خواهید رسید! در ریاضیات ابتدا نمیدانید کجا هستید اما سرانجام میدانید به کجا خواهید رسید! در شعر از یقین آغاز میکنید و آغوش به روی عدم قطعیت میگشایید، اما در ریاضیات، با عدم قطعیت ها و گونه گونی ها دست و پنجه نرم می کنید تا ناگاه همهچیز را در یک تصویر می بینید.
نتیجه آنکه، شعر ذاتاً تفسیر شخصی را میپذیرد. تجربهٔ هر فرد از یک شعر جوهرهٔ نهایی آن را شکل میدهد؛ در حالی که ریاضیات در پیِ درکی جمعی و جهانی است. در شعر، احساسات، شرایط و پیشینهٔ شخصیِ خواننده است که به اثر قدرت میبخشد؛ حال آنکه در ریاضیات، زاویهٔ دید فردی تقریباً بیاهمیت است. با این حال ضربه ی اولیه ی ریاضیات بر هر کس خاص اوست!
در ریاضیات، ناظر میکوشد خود را از میان بردارد؛ چراکه هدف، رسیدن به عینیتِ محض است. حقایق ریاضی مستقل از این که چه کسی و در چه زمانی آنها را کشف میکند، وجود دارند. در مقابل، در شعر، خود ناظر جایگاهی اساسی دارد؛ صدای شاعر، دیدگاه او و دریچهٔ منحصربهفردش، اثر را شکل میدهد و آن را ژرفاً فردی و ذهنی میسازد.
میتوان دریافتِ ما از واقعیت و جهان را پیوستاری دانست میان ریاضیات و شعر. اگرچه این دو ظاهراً در دو قطب متفاوت قرار دارند، گاه هریک به قلمرو دیگری گام میگذارند. ریاضیات با وجود آنکه فراگیر و جمعی است، همچنان بر شهودی فردی—که خود تجربهای ذهنی است و روند اکتشاف و بینش را راه میبخشد—تکیه دارد. از سوی دیگر، هرچند شعر اغلب بر فرد تمرکز دارد، درنهایت دربردارندهٔ رگههایی است که همگی ما را به هم پیوند میدهد؛ شعر ایدههای مشترک، اخلاقیات و احساساتی را منتقل میکند که گاه حتی خود شاعر را به شگفتی وامیدارد.
ریاضیسازی جهان مانند صعود به قلهٔ کوه است: فارغ از این که از کجا آغاز کنید، سرانجام به آن قلهٔ باشکوه خواهید رسید. اما شاعرانهکردن جهان مانند پایین آمدن از تپه است: از همان نقطهای شروع میکنید که دیگران شروع کردهاند، اما در نهایت خودتان را در بیشمار جای منحصربهفرد مییابید.
اگرچه صعود به قلهای همگانی منتهی میشود، با این حال مسیرتان در طول راه کاملاً خاص شماست—شکلگرفته از شهوداتی که صرفاً متعلق به خودتان است. از سوی دیگر، پایین آمدن از تپه هرچند به فرودی ویژه میرود، اما غالباً با مسیرهایی تلاقی میکند که پیشتر شناخته شدهاند—همان راههای اصلی در ایدههای مشترک، ارزشها و باورهای اخلاقی.
این دادوستد میان ریاضیات و شعر—میان جستجوی نامتعارف برای نظمی جهانشمول و توجه به تجربهٔ خاص انسانی—به «واژگان» جادویی یگانه و قدرتی شگفت میبخشد. هر دو فعالیت بنیاداً انسانیاند: آنها، هم جنبهٔ جمعی و فراگیر ما را بازمیتابانند و هم بُعد یگانه و گوهری هر کداممان را پاس میدارند.
https://vrgl.ir/4zTWp
اگرچه صعود به قلهای همگانی منتهی میشود، با این حال مسیرتان در طول راه کاملاً خاص شماست—شکلگرفته از شهوداتی که صرفاً متعلق به خودتان است. از سوی دیگر، پایین آمدن از تپه هرچند به فرودی ویژه میرود، اما غالباً با مسیرهایی تلاقی میکند که پیشتر شناخته شدهاند—همان راههای اصلی در ایدههای مشترک، ارزشها و باورهای اخلاقی.
این دادوستد میان ریاضیات و شعر—میان جستجوی نامتعارف برای نظمی جهانشمول و توجه به تجربهٔ خاص انسانی—به «واژگان» جادویی یگانه و قدرتی شگفت میبخشد. هر دو فعالیت بنیاداً انسانیاند: آنها، هم جنبهٔ جمعی و فراگیر ما را بازمیتابانند و هم بُعد یگانه و گوهری هر کداممان را پاس میدارند.
https://vrgl.ir/4zTWp
ویرگول
ریاضی و شعر - ویرگول
هانری پوانکاره زمانی گفت:«ما تازه از طریق یک مثال، اهمیت واژگان در ریاضیات را مشاهده کردیم، اما میتوانم موارد بیشتری از آن ذکر کنم. آنگون…
🔵یک جهان چرخه ای🔵
جامی است که عقل آفرین میزندش،
صد بوسه زِ مِهْر بر جَبین میزندش؛
این کوزهگر دَهْر چنین جامِ لطیف
میسازد و باز بر زمین میزندش!
مفهوم یک جهان چرخهای – جهانی که در یک سری بیپایان از تولدها و مرگها بدون آغاز یا پایان مشخص حرکت میکند – ریشه در بسیاری از فرهنگها و ادیان شرقی دارد. برای مثال، در بودیسم و هندوئیسم، مفهوم «سامسارا» – چرخه بیپایان تولد، مرگ و تناسخ – نهتنها برای ارواح فردی، بلکه برای کل جهان نیز به کار میرود. جهان به عنوان چرخهای مداوم از آفرینش (برهما)، نگهداری (ویشنو) و ویرانی (شیوا) در نظر گرفته میشود که به طور کلی با نام «کالپاها» شناخته میشوند. ایدهای مشابه در سنت ایرانی زوروانیسم دیده میشود، جایی که زوروان (زمان) ابدی و چرخهای است و شامل آفرینش، نگهداری و ویرانی میشود.
ما در جهان خود در سطوح مختلف چرخههایی را مشاهده میکنیم – از تولد دوباره ی طبیعت در نوروز (ابتدای اعتدال بهاری) تا تناوب روز و شب، و حتی در خود زندگی. در حالی که این پدیدهها میتوانند به عنوان صرفاً یک تصادف ناشی از موقعیت خاص ما نسبت به خورشید در منظومه شمسی در نظر گرفته شوند، این چرخهها ریشههای عمیقتر و ذاتیتری تر دنیامیک سیستم ها دارند. ریاضیدان فرانسوی، هانری پوانکاره (۱۸۹۰)، سیستمهای دینامیکی بسیار کلی را تحت فرضیات حداقلی بررسی کرد و به کشفی بسیار عمیق درباره آنها رسید. پیش از آنکه به یافتههای او بپردازیم، بیایید روشن کنیم که منظور ما از یک سیستم دینامیکی چیست و فرضیات مرتبط با آن را توضیح دهیم.
(نسخه ی انگلیسی)
https://hilbert-cantor.medium.com/a-cyclic-universe-53fbe5dbdfb0
جامی است که عقل آفرین میزندش،
صد بوسه زِ مِهْر بر جَبین میزندش؛
این کوزهگر دَهْر چنین جامِ لطیف
میسازد و باز بر زمین میزندش!
مفهوم یک جهان چرخهای – جهانی که در یک سری بیپایان از تولدها و مرگها بدون آغاز یا پایان مشخص حرکت میکند – ریشه در بسیاری از فرهنگها و ادیان شرقی دارد. برای مثال، در بودیسم و هندوئیسم، مفهوم «سامسارا» – چرخه بیپایان تولد، مرگ و تناسخ – نهتنها برای ارواح فردی، بلکه برای کل جهان نیز به کار میرود. جهان به عنوان چرخهای مداوم از آفرینش (برهما)، نگهداری (ویشنو) و ویرانی (شیوا) در نظر گرفته میشود که به طور کلی با نام «کالپاها» شناخته میشوند. ایدهای مشابه در سنت ایرانی زوروانیسم دیده میشود، جایی که زوروان (زمان) ابدی و چرخهای است و شامل آفرینش، نگهداری و ویرانی میشود.
ما در جهان خود در سطوح مختلف چرخههایی را مشاهده میکنیم – از تولد دوباره ی طبیعت در نوروز (ابتدای اعتدال بهاری) تا تناوب روز و شب، و حتی در خود زندگی. در حالی که این پدیدهها میتوانند به عنوان صرفاً یک تصادف ناشی از موقعیت خاص ما نسبت به خورشید در منظومه شمسی در نظر گرفته شوند، این چرخهها ریشههای عمیقتر و ذاتیتری تر دنیامیک سیستم ها دارند. ریاضیدان فرانسوی، هانری پوانکاره (۱۸۹۰)، سیستمهای دینامیکی بسیار کلی را تحت فرضیات حداقلی بررسی کرد و به کشفی بسیار عمیق درباره آنها رسید. پیش از آنکه به یافتههای او بپردازیم، بیایید روشن کنیم که منظور ما از یک سیستم دینامیکی چیست و فرضیات مرتبط با آن را توضیح دهیم.
(نسخه ی انگلیسی)
https://hilbert-cantor.medium.com/a-cyclic-universe-53fbe5dbdfb0
Medium
A cyclic universe
A goblet, crafted by the creator of reason,
Adorned with a hundred kisses of affection on its brow.
This potter of time, shaping such a…
Adorned with a hundred kisses of affection on its brow.
This potter of time, shaping such a…
🔵لحظه ی اسپوتنیک یا لحظه ی بوران؟🔵
ورود بازیگر تازه ی میدان هوش مصنوعی یعنی deepseek که ضربه ی بزرگی بر بسیاری از شرکت های تکنولوژی غربی وارد کرد شوک بزرگی برای همه بود. یک شرکت به ظاهر کوچک با سرمایه ای بسیار کمتر توانست همان کاری را بکند که شرکت های بزرگ غربی سالهاست بیلیون ها دلار در آن سرمایه گذاری میکنند! چگونه چنین چیزی ممکن است؟
این البته اولین بار نیست که شاهد چنین جهش های فناوری از سمت قدرت های سیاسی هستیم. در دروان مدرن فناوری و علم همیشه در جبهه نخست برتری بین چنین قدرت هایی بوده و آن ها برای نشان دادن برتری خود بدشان نمی آید که گه گاهی به هم فخر بفروشند. قابل تصور است که احساسات ملی گرایی در چین این روزها در اوج خود باشد. اما وقتی به تاریخ نگاه میکنیم چنین اتفاقی یکتا نیست. بسیاری چنین حرکتی را به «لحظه ی اسپوتنیک» (Sputnik moment) توصیف میکنند. در سال ۱۹۵۷ در میان اوج ناباوری همگانی اتحاد جماهیر شوروی از ماهواره ی اسپوتنیک رونمایی کرد. این در حالی بود که تصور بسیاری در آمریکا این بود که توان فناوری شوروی بسیار عقب تر است. آیزنهاور در خطابه ای ابراز کرد که ایالات متحده باید با سه واقعیت روبرو شود: اول اینکه شوروی از امریکا و بقیه «جهان آزاد» در زمینه ی فناوری و علمی جلوتر افتاده است. دوم اینکه اگر این وضعیت ادامه پیدا کند شوروی قادر خواهد بود که از آن بر علیه آمریکا استفاده کند و رهبری و حیثیت آن را به خطر بیندازد و در نهایت که چنین تفاوتی در نهایت به پیروزی نظامی آنها منجر خواهد شد. چنین زنگ خطری رقابت فضایی و عصر اکتشاف های شگرف علمی از هر دو سو را سبب شد.
با این حال چنین رقابت هایی همیشه سالم ترین رقابت ها نیستند. بعد از مدتی هر دو سو به انواع و اقسام برنامه های جاسوسی برای دست یافتن به رمز و رازهای علمی همدیگر دست زدند. با گذشت زمان و وخیم تر شدن اوضاع اقتصادی و سیاسی در بلوک شرق میزان این برنامه های جاسوسی از سمت شوروی افزایش پیدا کرد. یکی از مثال های آن در برنامه ی بوران است که بعد ها فاش شد تقریبا تمام دیتاشیت ها و جزییات آن از برنامه شاتل آمریکایی دزدیده شده است. شباهت تقریبا کاریکاتوری بوران با شاتل آمریکایی گواه سقوط سیستمی بود که زمانی پرچم دار خلاقیت های درجه ی یکی در علم و تکنولوژی بود.
وضعیت deepseek امروزه چیزی بیشتر شبیه به بوران و نه اسپوتنیک است. قبل از هر چیز باید دقت کرد که در طول بیست سال اخیر تقریبا هیچ کدام از مدل های اساسی از چین بیرون نیامده است. فضای اقتصادی و فناوری چین از ابتدا مشوق «کپی کاری» و تولید در حجم بالا (mass production) بوده که برای اقتصاد اساسی ولی برای برتری فناوری بسیار محدود کننده است. با این حال حتی چنین نیرویی بسیار قابل تقدیر است و قطعا موتور محرکه ی رقابت های بیشتر و فناوری های بهتر هم خواهد بود. چنین وضعیتی کنترل چند شرکت با اسم های جعلی ای مثل OpenAI که تقریبا هیچ چیزی در مورد آنها «باز» نیست را به چالش کشیده و تمام شالوده ی آنها را در طول زمان به از بین برده که چیزی جز سود برای مشتری ها نخواهد بود! فضایی که در بعضی از صنایع مانند غذا و دارو وجود ندارد. شرکت هایی که یک دارو را برای بیست سال تولید میکنند و تمامی رقابت ها را زیر چتر «حقوق معنوی» سرکوب می کنند. به همین دلیل تمام این اتفاقات را باید به فال نیک گرفت اما در مورد آن دچار توهم هم نشد.
ورود بازیگر تازه ی میدان هوش مصنوعی یعنی deepseek که ضربه ی بزرگی بر بسیاری از شرکت های تکنولوژی غربی وارد کرد شوک بزرگی برای همه بود. یک شرکت به ظاهر کوچک با سرمایه ای بسیار کمتر توانست همان کاری را بکند که شرکت های بزرگ غربی سالهاست بیلیون ها دلار در آن سرمایه گذاری میکنند! چگونه چنین چیزی ممکن است؟
این البته اولین بار نیست که شاهد چنین جهش های فناوری از سمت قدرت های سیاسی هستیم. در دروان مدرن فناوری و علم همیشه در جبهه نخست برتری بین چنین قدرت هایی بوده و آن ها برای نشان دادن برتری خود بدشان نمی آید که گه گاهی به هم فخر بفروشند. قابل تصور است که احساسات ملی گرایی در چین این روزها در اوج خود باشد. اما وقتی به تاریخ نگاه میکنیم چنین اتفاقی یکتا نیست. بسیاری چنین حرکتی را به «لحظه ی اسپوتنیک» (Sputnik moment) توصیف میکنند. در سال ۱۹۵۷ در میان اوج ناباوری همگانی اتحاد جماهیر شوروی از ماهواره ی اسپوتنیک رونمایی کرد. این در حالی بود که تصور بسیاری در آمریکا این بود که توان فناوری شوروی بسیار عقب تر است. آیزنهاور در خطابه ای ابراز کرد که ایالات متحده باید با سه واقعیت روبرو شود: اول اینکه شوروی از امریکا و بقیه «جهان آزاد» در زمینه ی فناوری و علمی جلوتر افتاده است. دوم اینکه اگر این وضعیت ادامه پیدا کند شوروی قادر خواهد بود که از آن بر علیه آمریکا استفاده کند و رهبری و حیثیت آن را به خطر بیندازد و در نهایت که چنین تفاوتی در نهایت به پیروزی نظامی آنها منجر خواهد شد. چنین زنگ خطری رقابت فضایی و عصر اکتشاف های شگرف علمی از هر دو سو را سبب شد.
با این حال چنین رقابت هایی همیشه سالم ترین رقابت ها نیستند. بعد از مدتی هر دو سو به انواع و اقسام برنامه های جاسوسی برای دست یافتن به رمز و رازهای علمی همدیگر دست زدند. با گذشت زمان و وخیم تر شدن اوضاع اقتصادی و سیاسی در بلوک شرق میزان این برنامه های جاسوسی از سمت شوروی افزایش پیدا کرد. یکی از مثال های آن در برنامه ی بوران است که بعد ها فاش شد تقریبا تمام دیتاشیت ها و جزییات آن از برنامه شاتل آمریکایی دزدیده شده است. شباهت تقریبا کاریکاتوری بوران با شاتل آمریکایی گواه سقوط سیستمی بود که زمانی پرچم دار خلاقیت های درجه ی یکی در علم و تکنولوژی بود.
وضعیت deepseek امروزه چیزی بیشتر شبیه به بوران و نه اسپوتنیک است. قبل از هر چیز باید دقت کرد که در طول بیست سال اخیر تقریبا هیچ کدام از مدل های اساسی از چین بیرون نیامده است. فضای اقتصادی و فناوری چین از ابتدا مشوق «کپی کاری» و تولید در حجم بالا (mass production) بوده که برای اقتصاد اساسی ولی برای برتری فناوری بسیار محدود کننده است. با این حال حتی چنین نیرویی بسیار قابل تقدیر است و قطعا موتور محرکه ی رقابت های بیشتر و فناوری های بهتر هم خواهد بود. چنین وضعیتی کنترل چند شرکت با اسم های جعلی ای مثل OpenAI که تقریبا هیچ چیزی در مورد آنها «باز» نیست را به چالش کشیده و تمام شالوده ی آنها را در طول زمان به از بین برده که چیزی جز سود برای مشتری ها نخواهد بود! فضایی که در بعضی از صنایع مانند غذا و دارو وجود ندارد. شرکت هایی که یک دارو را برای بیست سال تولید میکنند و تمامی رقابت ها را زیر چتر «حقوق معنوی» سرکوب می کنند. به همین دلیل تمام این اتفاقات را باید به فال نیک گرفت اما در مورد آن دچار توهم هم نشد.
کتاب Mirifici Logarithmorum Canonis Constructio به کوشش جان نپیر (John Napier) اسکاتلندی، سازنده ی لگاریتم در قرن ۱۶ میلادی. او تمام عمر خود را بر روی کامل کردن این کتاب صرف کرد تا آخرین روزی که از دنیا رفت. ادامه و تکمیل آن توسط هنری بریگز ادامه پیدا کرد.
تاثیر این کتاب بر پیشرفت تمدن غرب در فناوری، ابزار سازی، ناوبری دریایی و عصر اکتشاف غیر قابل انکار است!
(تصاویر از موزه ی تاریخ علم، آکسفورد)
تاثیر این کتاب بر پیشرفت تمدن غرب در فناوری، ابزار سازی، ناوبری دریایی و عصر اکتشاف غیر قابل انکار است!
(تصاویر از موزه ی تاریخ علم، آکسفورد)
🔵نردبان شهود🔵
جمله ی مشهوری از آلفرد نورث وایتهد میگوید: «تمدن با گسترش تعداد عملیاتی که میتوانیم بدون اندیشیدن دربارهٔ آنها انجام دهیم، پیشرفت میکند.» در این زمینه، «عملیات» باید فراتر از محاسبات صرف تفسیر شود. توسعۀ ابزارهای ریاضی که به ما در اجتناب از وظایف تکراری کمک میکنند، نقطۀ آغاز این عملیات را در تاریخ رقم میزند.
برای مثال، ما در مدرسه با لگاریتمها آشنا میشویم بیآنکه بدانیم در ابتدا چنین محاسباتی از نیازهای ناوبری دریانوردان سرچشمه گرفته بودند. لگاریتم به آنها امکان محاسبۀ سریعتر برای سفرهای طولانی را میداد. کتاب Mirifici Logarithmorum Canonis Descriptio نوشتۀ جان نَپیر درقرن ۱۶ میلادی محصول تلاش خستگی ناپذیر و مادام العمر او برای تهیۀ جداول لگاریتم بود. این جداول بعدها نهتنها توسط دریانوردان، بلکه در صنایع گوناگونی که به محاسبات سریع نیاز داشتند نیز به کار رفت. این جدول بزرگترین کامپیوتر زمان خود بود که راه تمدن غرب را برای ابزار سازی، سلاح و ناوبری دریایی و در نهایت عصر اکتشاف و چیرگی را فراهم کرد.
دنباله ی چنین ابزارهایی درنهایت با اختراع رایانههای دیجیتال، بشر را توانست بر سطح کرۀ ماه فرود آورد. اگرچه در اینجا چندان به تاریخ محاسبات نمیپردازیم، اما آشکار است که هر ابزار جدیدی که مجموعۀ خاصی از عملیات را بر عهده میگیرد، ما را از انجام دستی آنها بینیاز کرده و راه را برای پرداختن به اشکال پیچیدهتر محاسبات هموار میکند.
پیشرفت محاسبات عددی زمینه را برای محاسبات ماتریسی فراهم ساخت و در پی آن موتورهای گرافیکی و محاسبات ردهبالاتر ظهور یافتند. بهعنوان نمونه، یکی از مهمترین الگوریتمهای عصر ما تبدیل فوریۀ سریع (FFT) است. گیلبرت استرنگ ریاضیدان نامی آمریکایی، FFT را مهمترین الگوریتم عددی دوران ما میداند، چرا که این الگوریتم روش ذخیرهسازی، انتقال و دستکاری دادهها — از موسیقی گرفته تا تصاویر و ویدیوها — را در بستر اینترنت و دستگاههای دیجیتال دگرگون کرد. امروزه، وقتی با موسیقی دیجیتال سر و کار داریم، در واقع مستقیماً با امواج صوتی خام مواجه نیستیم، بلکه با لایهای از محاسبات پنهان روبرو هستیم که دادهها را برای ما پردازش و بهینه میکنند.
بیایید لحظهای در تاریخ محاسبات تأمل کنیم. در هر مرحله، بشر ابزارهایی پدید آورده که عملیات را خودکار کرده و ما را از انجام دستی آنها بینیاز میکنند. این ابزارها همگی از اصلی بنیادین پیروی میکنند: آنها دادهها را فشرده کرده و در قالبی متراکمتر نمایش میدهند. گزاف نیست اگر بگوییم تاریخ محاسبات انسانی، در اصل، تاریخ فشردهسازی است.
امروزه وارد دورانی شدهایم که عمدتاً تحت سیطرۀ چیزی موسوم به هوش مصنوعی (AI) قرار دارد. با این حال، ماهیت این جهش فناورانه اساساً با پیشرفتهای پیشین تفاوت اساسی ندارد. مدلهای هوش مصنوعی در ذات خود ابزارهای تازهای هستند که دادهها را در ابعادی بیسابقه فشرده میکنند. بهعنوان نمونه، FFT یک تصویر را با تحلیل مؤلفههای فرکانسی آن فشرده میکند. به همین ترتیب، مدلهای مدرنِ گفتار و تصویر نیز این اصل را، نهتنها بر یک تصویر یا کلیپ صوتی تنها، بلکه بر مجموعههای عظیمی از دیتاست ها اعمال میکنند. در خصوص مدلهای زبانی نیز همین امر صدق میکند؛ این مدلها در واقع تمامی زبان انسانی را در یک مدل واحد فشرده میسازند. هرچند مقیاس و پیچیدگی بیشتر شده، اما اصل زیرساختی — یعنی تجزیۀ طیفی (spectral decomposition) — تغییری نکرده است.
توان محاسباتی این مدلها چنان گسترده است که گاه به نظر میرسد کاری نیست که از عهدۀ آنها برنیاید. آنها شعر میسرایند، مقالات علمی را خلاصه میکنند، پروندههای حقوقی را تحلیل میکنند، مسائل ریاضی را حل میکنند، دستور پخت غذا میسازند، رمان مینویسند و غیره و غیره. ممکن است حس کنیم به «آخر بازی» رسیدهایم؛ جایی که ماشینها همۀ وظایف فکری را بر عهده گرفتهاند و دیگر جایی برای نقشآفرینی انسان نمانده است. اما آیا واقعاً چنین است؟ چگونه بهعنوان یک تمدن میتوانیم همچنان پیش برویم وقتی به نظر میرسد دیگر کاری برای ما باقی نمانده است و غائله را به مشتی سیلیکون باخته ایم؟
(ادامه دارد)
جمله ی مشهوری از آلفرد نورث وایتهد میگوید: «تمدن با گسترش تعداد عملیاتی که میتوانیم بدون اندیشیدن دربارهٔ آنها انجام دهیم، پیشرفت میکند.» در این زمینه، «عملیات» باید فراتر از محاسبات صرف تفسیر شود. توسعۀ ابزارهای ریاضی که به ما در اجتناب از وظایف تکراری کمک میکنند، نقطۀ آغاز این عملیات را در تاریخ رقم میزند.
برای مثال، ما در مدرسه با لگاریتمها آشنا میشویم بیآنکه بدانیم در ابتدا چنین محاسباتی از نیازهای ناوبری دریانوردان سرچشمه گرفته بودند. لگاریتم به آنها امکان محاسبۀ سریعتر برای سفرهای طولانی را میداد. کتاب Mirifici Logarithmorum Canonis Descriptio نوشتۀ جان نَپیر درقرن ۱۶ میلادی محصول تلاش خستگی ناپذیر و مادام العمر او برای تهیۀ جداول لگاریتم بود. این جداول بعدها نهتنها توسط دریانوردان، بلکه در صنایع گوناگونی که به محاسبات سریع نیاز داشتند نیز به کار رفت. این جدول بزرگترین کامپیوتر زمان خود بود که راه تمدن غرب را برای ابزار سازی، سلاح و ناوبری دریایی و در نهایت عصر اکتشاف و چیرگی را فراهم کرد.
دنباله ی چنین ابزارهایی درنهایت با اختراع رایانههای دیجیتال، بشر را توانست بر سطح کرۀ ماه فرود آورد. اگرچه در اینجا چندان به تاریخ محاسبات نمیپردازیم، اما آشکار است که هر ابزار جدیدی که مجموعۀ خاصی از عملیات را بر عهده میگیرد، ما را از انجام دستی آنها بینیاز کرده و راه را برای پرداختن به اشکال پیچیدهتر محاسبات هموار میکند.
پیشرفت محاسبات عددی زمینه را برای محاسبات ماتریسی فراهم ساخت و در پی آن موتورهای گرافیکی و محاسبات ردهبالاتر ظهور یافتند. بهعنوان نمونه، یکی از مهمترین الگوریتمهای عصر ما تبدیل فوریۀ سریع (FFT) است. گیلبرت استرنگ ریاضیدان نامی آمریکایی، FFT را مهمترین الگوریتم عددی دوران ما میداند، چرا که این الگوریتم روش ذخیرهسازی، انتقال و دستکاری دادهها — از موسیقی گرفته تا تصاویر و ویدیوها — را در بستر اینترنت و دستگاههای دیجیتال دگرگون کرد. امروزه، وقتی با موسیقی دیجیتال سر و کار داریم، در واقع مستقیماً با امواج صوتی خام مواجه نیستیم، بلکه با لایهای از محاسبات پنهان روبرو هستیم که دادهها را برای ما پردازش و بهینه میکنند.
بیایید لحظهای در تاریخ محاسبات تأمل کنیم. در هر مرحله، بشر ابزارهایی پدید آورده که عملیات را خودکار کرده و ما را از انجام دستی آنها بینیاز میکنند. این ابزارها همگی از اصلی بنیادین پیروی میکنند: آنها دادهها را فشرده کرده و در قالبی متراکمتر نمایش میدهند. گزاف نیست اگر بگوییم تاریخ محاسبات انسانی، در اصل، تاریخ فشردهسازی است.
امروزه وارد دورانی شدهایم که عمدتاً تحت سیطرۀ چیزی موسوم به هوش مصنوعی (AI) قرار دارد. با این حال، ماهیت این جهش فناورانه اساساً با پیشرفتهای پیشین تفاوت اساسی ندارد. مدلهای هوش مصنوعی در ذات خود ابزارهای تازهای هستند که دادهها را در ابعادی بیسابقه فشرده میکنند. بهعنوان نمونه، FFT یک تصویر را با تحلیل مؤلفههای فرکانسی آن فشرده میکند. به همین ترتیب، مدلهای مدرنِ گفتار و تصویر نیز این اصل را، نهتنها بر یک تصویر یا کلیپ صوتی تنها، بلکه بر مجموعههای عظیمی از دیتاست ها اعمال میکنند. در خصوص مدلهای زبانی نیز همین امر صدق میکند؛ این مدلها در واقع تمامی زبان انسانی را در یک مدل واحد فشرده میسازند. هرچند مقیاس و پیچیدگی بیشتر شده، اما اصل زیرساختی — یعنی تجزیۀ طیفی (spectral decomposition) — تغییری نکرده است.
توان محاسباتی این مدلها چنان گسترده است که گاه به نظر میرسد کاری نیست که از عهدۀ آنها برنیاید. آنها شعر میسرایند، مقالات علمی را خلاصه میکنند، پروندههای حقوقی را تحلیل میکنند، مسائل ریاضی را حل میکنند، دستور پخت غذا میسازند، رمان مینویسند و غیره و غیره. ممکن است حس کنیم به «آخر بازی» رسیدهایم؛ جایی که ماشینها همۀ وظایف فکری را بر عهده گرفتهاند و دیگر جایی برای نقشآفرینی انسان نمانده است. اما آیا واقعاً چنین است؟ چگونه بهعنوان یک تمدن میتوانیم همچنان پیش برویم وقتی به نظر میرسد دیگر کاری برای ما باقی نمانده است و غائله را به مشتی سیلیکون باخته ایم؟
(ادامه دارد)
🔵نردبان شهود (ادامه)🔵
خبر خوب این است که چنین برداشتی درست نیست. برای درک دلیل آن، بیایید نگاهی دقیقتر به چگونگی عملکرد مدلهای زبانی بیندازیم. یکی از بزرگترین چالشهای این مدلها، پدیدۀ «توهّم» (hallucination) است؛ یعنی زمانی که مدل، اطلاعاتی کاملاً نادرست تولید میکند. برای مثال، ممکن است یک مدل زبانی بگوید: «پایتخت فرانسه برلین است»، که آشکارا اشتباه است. در حالی که با آموزش بیشتر میتوان این توهّم را کاهش داد، این کار عمدتاً با کاهش آنتروپی مدل انجام میشود.
در اینجا، آنتروپی نشاندهندۀ میزان تصادفی بودن یا انعطافپذیری مدل در انتخاب واژۀ بعدی است. هرچه آنتروپی بالاتر باشد، مدل در گزینش کلمه آزادی بیشتری دارد. مدلهای زبانی از طریق نمونهگیری از یک توزیع احتمالاتی، متن تولید میکنند؛ به این معنا که در پاسخ به یک پرسش یکسان (prompt)، ممکن است خروجی هر بار اندکی متفاوت باشد. همین تنوع است که امکان تعمیم و بیان یک مفهوم را به شیوههای مختلف فراهم میکند. اما این امر به یک بده بستان (trade off) بنیادین منتهی میشود:
- آنتروپی پایینتر به مدل دقیقتری میانجامد، اما به بهای کاهش خلاقیت و اکتشاف.
- آنتروپی بالاتر خروجیهای متنوعتر و خلاقانهتر تولید میکند، اما احتمال بروز اطلاعات غلط یا بیمعنا نیز افزایش مییابد.
این موضوع پیوند شگفتانگیزی میان خلاقیت و تصادفی بودن را نشان میدهد — رابطهای که در تفکر انسان نیز وجود دارد. اما واقعاً مدلهای زبانی بزرگ (LLM) نظیر ChatGPT تا چه اندازه آنتروپی دارند؟ شگفت اینکه این مدلها برای جلوگیری از تولید اطلاعات غلط آنقدر آموزش دیدهاند که آنتروپی آنها از گفتار طبیعی انسان کمتر شده است — و مسئله دقیقاً از همینجا ناشی میشود. (پژوهش های زیادی این واقعیت را نشان می دهند که در گفتار دیگری به آن ها میپردازیم.)
ما انسانها در گفتوگو، آزادی عمل بیشتری در انتخاب کلمات داریم و در عین حال میتوانیم خود را تصحیح کرده و از خطاهایی که چنین مدلهایی به سادگی مرتکب می شوند، بپرهیزیم. افزون بر این، برخلاف مدلهای هوش مصنوعی، ما تنها به متن ها متکی نیستیم. انتخاب واژگان ما تحت تأثیر عوامل گوناگون بیرونی و درونی است.
برای نمونه، تصور کنید فردی وارد یک میکده ی آلمانی میشود. یافتههای روانشناختی حاکی از آن است که انسانها گفتار خود را با محیط پیرامونشان تطبیق میدهند. در چنین شرایطی، شاید ناخواسته واژگانی را به کار ببرند که بیشتر با فرهنگ آلمانی همخوانی دارد. ولی این تنوع زبانی بسی فراتر میرود؛ پیشینه، سن، جنسیت، احساسات، شرایط اجتماعی و حتی رژیم غذایی میتواند بهشکلی نامحسوس بر شیوۀ بیان ما اثر بگذارد.
برخلاف ماشینها، ما موجوداتی زیستی هستیم که پیوسته با شبکهای پیچیده از ورودیهای حسی، عواطف و تجربیات زیسته سازگار میشویم. این غنای ارتباط انسانی — ریشهگرفته از پیشبینیناپذیری، بافت و سازگاری — چیزی است که هوش مصنوعی، با وجود تمام تواناییهایش، هنوز نتوانسته است بهطور کامل بازتولید کند.
مدلهای زبانی بزرگ عموماً بر دقت و آنتروپی پایین متمرکزند تا خروجیهایی قابل پیشبینی و قابل اتکا داشته باشند. همین نقصان فضایی گسترده برای خلاقیت انسانی باقی میگذارد که هنوز خارج از دسترس هر مدل زبانی بزرگی است. همانطور که یک ماشینحساب، معنای واقعی ریاضیات را درک نمیکند و تنها عملیات از پیش تعیینشده را اجرا میکند، مدلهای زبانی بزرگ نیز فاقد شهود هستند و صرفاً در سازماندهی و پردازش اطلاعات یاری میرسانند.
هنگامی که از شهود سخن میگوییم، به چیزی مرموز یا ناملموس اشاره نمیکنیم. شهود فرایندی واقعی و ملموس است که از تجربۀ کلنگر و درک جامع ما از جهان ناشی میشود. این فرایند به ما امکان میدهد مفاهیمی ظاهراً بیارتباط را به هم ربط دهیم، حتی زمانی که بهطور خودآگاه از این ارتباطها باخبر نیستیم. برای نمونه، یک مدل زبانی بزرگ هرگز نمیتواند حقیقتاً به رابطۀ بین دو موضوع ظاهرا بی ربط مانند «تولیدمثل زیستی» و «توپولوژی ریاضی» پی ببرد؛ کاری که می کند اما تنها بازگویی شباهتهای سطحی است. توانایی ایجاد بینشهای عمیق میانرشتهای، نیازمند تجربهای از جهان است که فراتر از متن، کتاب یا مقالۀ پژوهشی است. چنین تواناییای از تصاویری ذهنی، درک حسی، عواطف، تجربیات زیسته و تفکر انتزاعی ما نشئت میگیرد — عناصری که هیچیک حقیقتاً در دسترس مدلهای زبانی بزرگ نیستند.
خبر خوب این است که چنین برداشتی درست نیست. برای درک دلیل آن، بیایید نگاهی دقیقتر به چگونگی عملکرد مدلهای زبانی بیندازیم. یکی از بزرگترین چالشهای این مدلها، پدیدۀ «توهّم» (hallucination) است؛ یعنی زمانی که مدل، اطلاعاتی کاملاً نادرست تولید میکند. برای مثال، ممکن است یک مدل زبانی بگوید: «پایتخت فرانسه برلین است»، که آشکارا اشتباه است. در حالی که با آموزش بیشتر میتوان این توهّم را کاهش داد، این کار عمدتاً با کاهش آنتروپی مدل انجام میشود.
در اینجا، آنتروپی نشاندهندۀ میزان تصادفی بودن یا انعطافپذیری مدل در انتخاب واژۀ بعدی است. هرچه آنتروپی بالاتر باشد، مدل در گزینش کلمه آزادی بیشتری دارد. مدلهای زبانی از طریق نمونهگیری از یک توزیع احتمالاتی، متن تولید میکنند؛ به این معنا که در پاسخ به یک پرسش یکسان (prompt)، ممکن است خروجی هر بار اندکی متفاوت باشد. همین تنوع است که امکان تعمیم و بیان یک مفهوم را به شیوههای مختلف فراهم میکند. اما این امر به یک بده بستان (trade off) بنیادین منتهی میشود:
- آنتروپی پایینتر به مدل دقیقتری میانجامد، اما به بهای کاهش خلاقیت و اکتشاف.
- آنتروپی بالاتر خروجیهای متنوعتر و خلاقانهتر تولید میکند، اما احتمال بروز اطلاعات غلط یا بیمعنا نیز افزایش مییابد.
این موضوع پیوند شگفتانگیزی میان خلاقیت و تصادفی بودن را نشان میدهد — رابطهای که در تفکر انسان نیز وجود دارد. اما واقعاً مدلهای زبانی بزرگ (LLM) نظیر ChatGPT تا چه اندازه آنتروپی دارند؟ شگفت اینکه این مدلها برای جلوگیری از تولید اطلاعات غلط آنقدر آموزش دیدهاند که آنتروپی آنها از گفتار طبیعی انسان کمتر شده است — و مسئله دقیقاً از همینجا ناشی میشود. (پژوهش های زیادی این واقعیت را نشان می دهند که در گفتار دیگری به آن ها میپردازیم.)
ما انسانها در گفتوگو، آزادی عمل بیشتری در انتخاب کلمات داریم و در عین حال میتوانیم خود را تصحیح کرده و از خطاهایی که چنین مدلهایی به سادگی مرتکب می شوند، بپرهیزیم. افزون بر این، برخلاف مدلهای هوش مصنوعی، ما تنها به متن ها متکی نیستیم. انتخاب واژگان ما تحت تأثیر عوامل گوناگون بیرونی و درونی است.
برای نمونه، تصور کنید فردی وارد یک میکده ی آلمانی میشود. یافتههای روانشناختی حاکی از آن است که انسانها گفتار خود را با محیط پیرامونشان تطبیق میدهند. در چنین شرایطی، شاید ناخواسته واژگانی را به کار ببرند که بیشتر با فرهنگ آلمانی همخوانی دارد. ولی این تنوع زبانی بسی فراتر میرود؛ پیشینه، سن، جنسیت، احساسات، شرایط اجتماعی و حتی رژیم غذایی میتواند بهشکلی نامحسوس بر شیوۀ بیان ما اثر بگذارد.
برخلاف ماشینها، ما موجوداتی زیستی هستیم که پیوسته با شبکهای پیچیده از ورودیهای حسی، عواطف و تجربیات زیسته سازگار میشویم. این غنای ارتباط انسانی — ریشهگرفته از پیشبینیناپذیری، بافت و سازگاری — چیزی است که هوش مصنوعی، با وجود تمام تواناییهایش، هنوز نتوانسته است بهطور کامل بازتولید کند.
مدلهای زبانی بزرگ عموماً بر دقت و آنتروپی پایین متمرکزند تا خروجیهایی قابل پیشبینی و قابل اتکا داشته باشند. همین نقصان فضایی گسترده برای خلاقیت انسانی باقی میگذارد که هنوز خارج از دسترس هر مدل زبانی بزرگی است. همانطور که یک ماشینحساب، معنای واقعی ریاضیات را درک نمیکند و تنها عملیات از پیش تعیینشده را اجرا میکند، مدلهای زبانی بزرگ نیز فاقد شهود هستند و صرفاً در سازماندهی و پردازش اطلاعات یاری میرسانند.
هنگامی که از شهود سخن میگوییم، به چیزی مرموز یا ناملموس اشاره نمیکنیم. شهود فرایندی واقعی و ملموس است که از تجربۀ کلنگر و درک جامع ما از جهان ناشی میشود. این فرایند به ما امکان میدهد مفاهیمی ظاهراً بیارتباط را به هم ربط دهیم، حتی زمانی که بهطور خودآگاه از این ارتباطها باخبر نیستیم. برای نمونه، یک مدل زبانی بزرگ هرگز نمیتواند حقیقتاً به رابطۀ بین دو موضوع ظاهرا بی ربط مانند «تولیدمثل زیستی» و «توپولوژی ریاضی» پی ببرد؛ کاری که می کند اما تنها بازگویی شباهتهای سطحی است. توانایی ایجاد بینشهای عمیق میانرشتهای، نیازمند تجربهای از جهان است که فراتر از متن، کتاب یا مقالۀ پژوهشی است. چنین تواناییای از تصاویری ذهنی، درک حسی، عواطف، تجربیات زیسته و تفکر انتزاعی ما نشئت میگیرد — عناصری که هیچیک حقیقتاً در دسترس مدلهای زبانی بزرگ نیستند.
انسانها توانایی منحصربهفردی برای «توهّم خلاقانه» (creative hallucination) دارند و میتوانند وارد فضاهای مفهومی شوند که مرز میان «معنا» و «بیمعنا» در آنها محو میشود. درست در چنین حوزههای مبهم و نامطمئنی است که ایدهها، اکتشافات و پارادایمهای تازه شکل میگیرند. بزرگترین جهشهای علمی اغلب بهصورت پرشهایی در ساحت شهود های عجیب آغاز میشوند که ممکن است ابتدا بیمعنا به نظر برسند اما در نهایت حقایقی عمیق را آشکار میکنند. در مقابل، مدلهای زبانی بزرگ فاقد ظرفیت چنان جهشهایی هستند و صرفاً میتوانند الگوهای موجود را بر اساس دادههای آموزشی خود تقویت کنند.
با این همه، نباید مدلهای زبانی بزرگ را به چشم رقیبی برای شهود نگریست؛ بلکه باید آنها را ابزاری دانست که شهود را تقویت میکنند. همانطور که وایتهد پیشرفت تمدن را ناشی از واگذاری عملیات سطح پایین به ماشینها توصیف کرد، ما نیز میتوانیم وظایف روزمرۀ شناختی را به مدلهای زبانی بزرگ بسپاریم و در عوض بر استدلالهای عمیقتر مبتنی بر شهود متمرکز شویم. در اصل، هر عملیاتی در ذهن که هنوز نیازمند تلاش آگاهانه (یا غیر آگاهانه) است، نوعی شهود محسوب میشود. با پیشرفت فناوری، بسیاری از شهودهای کنونی ما نیز خودکار خواهند شد و ما را مجبور میکنند از نردبان تفکر و شهود یک پله بالاتر صعود کنیم.
ازاینرو، به جای هراس از اینکه هوش مصنوعی جایگزین تفکر انسانی شود، باید دریابیم که این فناوری ما را وامیدارد معنای تفکر، آفرینش و کاوش را دوباره تعریف کنیم. مرز شهود انسانی همواره در حال گسترش خواهد ماند و یک گام از خودکارسازی جلوتر خواهد ایستاد، تا زمانی که به جستوجوی ناشناختهها ادامه دهیم.
https://vrgl.ir/kWTml
با این همه، نباید مدلهای زبانی بزرگ را به چشم رقیبی برای شهود نگریست؛ بلکه باید آنها را ابزاری دانست که شهود را تقویت میکنند. همانطور که وایتهد پیشرفت تمدن را ناشی از واگذاری عملیات سطح پایین به ماشینها توصیف کرد، ما نیز میتوانیم وظایف روزمرۀ شناختی را به مدلهای زبانی بزرگ بسپاریم و در عوض بر استدلالهای عمیقتر مبتنی بر شهود متمرکز شویم. در اصل، هر عملیاتی در ذهن که هنوز نیازمند تلاش آگاهانه (یا غیر آگاهانه) است، نوعی شهود محسوب میشود. با پیشرفت فناوری، بسیاری از شهودهای کنونی ما نیز خودکار خواهند شد و ما را مجبور میکنند از نردبان تفکر و شهود یک پله بالاتر صعود کنیم.
ازاینرو، به جای هراس از اینکه هوش مصنوعی جایگزین تفکر انسانی شود، باید دریابیم که این فناوری ما را وامیدارد معنای تفکر، آفرینش و کاوش را دوباره تعریف کنیم. مرز شهود انسانی همواره در حال گسترش خواهد ماند و یک گام از خودکارسازی جلوتر خواهد ایستاد، تا زمانی که به جستوجوی ناشناختهها ادامه دهیم.
https://vrgl.ir/kWTml
ویرگول
نردبان شهود - ویرگول
جمله ی مشهوری از آلفرد نورث وایتهد میگوید: «تمدن با گسترش تعداد عملیاتی که میتوانیم بدون اندیشیدن دربارهٔ آنها انجام دهیم، پیشرفت میکند…