انگاره پیچیدگی عینک جدیدی برای مطالعه طبیعت به ما میدهد. سیستمهای پیچیده از تعداد زیادی اجزا تشکیل شدهاند و نوعی نظم یا تازگی نسبت به اجزایشان بر آنها حاکم است. این سیستمها در مقیاس ریز، اجزایشان برهمکنشهای موضعی دارند ولی در مقیاس درشت، رفتارهای «پدیداره» از خود نشان میدهند که شبیه به رفتار اجزای آن در مقیاس ریز نیست. پدیدارگی در مورد این جور پدیدههاست.
این ویدیو دعوتی است برای خواندن این مقاله مروری کوتاه:
The term emergence is increasingly used across scientific disciplines to describe phenomena that arise from interactions among a system’s components but cannot be readily inferred by examining those components in isolation. While often invoked to explain higher-level behaviors, such as flocking, synchronization, or collective intelligence, the term is frequently used without precision, sometimes giving rise to ambiguity or even mystique. In this perspective paper, we clarify the scientific meaning of emergence as a measurable, physically grounded phenomenon. Through concrete examples, such as temperature, magnetism, and herd immunity in social networks, we review how collective behavior can arise from local interactions that are constrained by global boundaries. By disentangling emergence from vague overuse, we emphasize its role as a rigorous tool for understanding complex systems. Our goal is to show that emergence, when properly framed, offers not mysticism but insight.
شرلوک هولمز در کتاب نشانهٔ چهار روشی را برای کشف حقیقت بهکار میبرد که میتوان اسمش را گذاشت روش حذف ناممکنها: وقتی همهٔ حالتهای ناممکن را کنار گذاشته باشی، آنچه باقی میماند، هرچهقدر هم نامحتمل، باید حقیقت باشد.
این روش، مثل بسیاری از روشهای دیگری که هولمز به کار میگیرد، جذاب و هیجانانگیز است ولی آیا در عمل و در شرایط واقعی هم میتوان چنین روشهایی را بههمان سادگی بهکار برد؟ واقعیت این است که در عمل ممکن است موانع فراوانی کاربردپذیری این روش را به چالش بکشد. در این یادداشت به دو مورد از این موانع نگاه دقیقتری میاندازیم. نخست این که تشخیص ناممکن بودن بعضی حالتها که در ابتدا محتمل بودهاند با چه دقتی انجام میشود؟ آیا ممکن نیست خطایی در این تشخیص وجود داشته باشد؟ مثلاً در همین مکالمه که از کتاب نشانهٔ چهار نقل شد هولمز به واتسن میگوید: «میدانیم که او از در یا از پنجره یا دودکش وارد نشده» این «میدانیم» چهقدر دقیق است؟ آیا ممکن است خطایی در مشاهده یا جمعآوری شواهد وجود داشته باشد که این نتیجهگیری را نادقیق کند؟ دوم این که آیا همهٔ حالتهای ممکن از ابتدا در نظر گرفته شدهاند؟ مثلاً آیا ممکن است که بهجز در، پنجره، دودکش و سوراخ سقف راه دیگری هم برای ورود به اتاق بوده باشد که از نظر کارآگاه دور مانده باشد؟ چنین اتفاقاتی تا چه اندازه میتواند اعتبار نتیجهگیری نهایی را به خطر بیندازد؟
هولمز در حالی که سرش را تکان میداد گفت: تو به توصیهٔ من عمل نمیکنی. چند بار به تو گفتهام که وقتی ناممکن را حذف کرده باشی، آنچه باقی میماند، هر قدر هم بعید، باید حقیقت باشد؟ میدانیم که او از در یا از پنجره یا دودکش وارد نشده. این را هم میدانیم که نمیتوانسته در اتاق پنهان شده باشد، چون مخفیگاهی وجود ندارد. پس از کجا آمده؟
– من فریاد زدم از سوراخ سقف آمده؟ – معلوم است که از آنجا آمده.
برای بررسی خطای آزمونهایی که حالتهای ناممکن را مشخص میکنند مثال سادهای در نظر میگیرم. فرض کنید $n+1$ جعبه داریم که در یکی از آنها یک توپ وجود دارد. جعبهها را با $1,2,\cdots, n , z$ برچسب میزنیم. هیچ اطلاعات اضافهٔ دیگری که بتواند راهنمایی برای تشخیص جعبهٔ محتوی توپ باشد نداریم، بنابراین فرض میکنیم که توپ میتواند با احتمال یکسان در هر یک از این $n+1$ جعبه باشد. (میتوان مسئله را به شکل عامتری هم طرح کرد، مثلاً میتوان فرض کرد که احتمال این که توپ در جعبهٔ شمارهٔ $i$ باشد $p_i$ است و $\sum_{i=1}^n p_i+p_z=1$.)
فرض کنید $A_i$ پیشامد قرار داشتن توپ در جعبهٔ شمارهٔ $i$ باشد. همچنین فرض کنید برای تشخیص این که یک جعبه توپی در درونش ندارد از آزمایشی مانند تکان دادن جعبه یا اسکن کردن آن با پرتو ایکس استفاده کنیم. پیشامدی را که در آن نتیجهٔ آزمایش روی جعبهٔ شمارهٔ $i$ خالی بودن آن را نشان میدهد $E_i$ مینامیم. این آزمایش ممکن است خطا داشته باشد، بهاین معنی که ممکن است توپ در جعبهٔ شمارهٔ $i$ باشد ولی نتیجهٔ آزمایش خلاف این را گزارش کند. احتمال چنین خطایی را با $r$ نشان میدهیم. به بیان ریاضی $P(E_i|A_i)=r$.
جعبههای شمارهٔ $1$ تا $n$ را آزمایش میکنیم و نتیجهٔ آزمایش این است که توپ در هیچ یک از این جعبهها نیست. طبق روش هولمز میتوانیم بگوییم که توپ قطعاً در جعبهٔ $z$ است. اما احتمال خطا در آزمایشهای ما وجود دارد و بنابراین ممکن است توپ در یکی از جعبههایی باشد که آزمایش خالی بودن آن را نشان داده. در چنین شرایطی نمیتوان گفت که توپ قطعاً در جعبهٔ $z$ است. سؤال درست این است که احتمال قرار داشتن توپ در جعبهٔ $z$ چهقدر است. چنین احتمالی با عبارت ریاضی زیر بیان میشود $$P(A_z|\bigcap_{i=1}^{n} E_i) = P(A_z|E_1\cap E_2\cap \cdots \cap E_n) = P(A_z \mid \mathcal{E}).$$ در اینجا $\mathcal{E} := \bigcap_{i=1}^{n} E_i$ اشتراک بین همه پیشامدهاست. با به کارگیری قاعدهٔ بیز: $$\begin{aligned} P(A_z \mid \mathcal{E}) = \frac{P(A_z \cap \mathcal{E})}{P(\mathcal{E})} \end{aligned}$$ و در نتیجه $$P(A_z \mid \mathcal{E})= \frac{P(\mathcal{E} \mid A_z)\, P(A_z)}{P(\mathcal{E} \mid A_z)\, P(A_z) + \sum_{i=1}^{n} P(\mathcal{E} \mid A_i)\, P(A_i)}$$
فرض میکنیم آزمایشهای جعبههای مختلف مستقل باشند یعنی آزمایش یک جعبه روی نتیجهٔ آزمایش یک جعبهٔ دیگر اثری نداشته باشد. در اینصورت خواهیم داشت $$P(\mathcal{E}|A_z)=(1-r)^n$$ زیرا اگر توپ در جعبهٔ شمارهٔ $z$ باشد یعنی همهٔ آزمایشها نتیجهٔ درست دادهاند و احتمال درست بودن نتیجهٔ هر آزمایش $1-r$ است. بههمین ترتیب بهسادگی میتوان دید که $$P(\mathcal{E}|A_i)=r(1-r)^{n-1}\,, i=1,2,\cdots , n$$ و بنابراین \begin{eqnarray} P & = & \frac{(1-r)P(A_z)}{r\left(1-P(A_z)\right)+(1-r)P(A_z)}\nonumber\ & = & \frac{1-r}{nr+1-r}\nonumber \end{eqnarray} که در آن از $P(A_z)=\frac{1}{n+1}$ استفاده کردهایم.
بیایید نگاهی به نتیجهٔ این رابطه برای یک حالت مشخص بیندازیم. فرض کنید ده جعبه داریم (یعنی $n=9 $) و آزمایش ما برای تشخیص خالی بودن جعبهها ده درصد خطا دارد (به این معنی که به طور میانگین از هر ده آزمایش یکی نتیجهٔ نادرست میدهد). در این صورت رابطهٔ بالا میگوید که $P=0.5$. یعنی احتمال این که توپ در جعبهٔ آخر (جعبهای که آزمایش نشده) باشد پنجاه درصد است. بهطور کلی اگر احتمال خطا در آزمایش تشخیص حالتهای ناممکن برابر با احتمال همان حالتی باشد که در آخر و پس از حذف ناممکنها قرار است بهعنوان «حقیقت» معرفی شود، خطای تشخیص حقیقت پنجاه درصد خواهد بود!
خطا در تعیین همهٔ حالتهای ممکن
ایراد دیگری که میتواند کارایی این روش را به چالش بکشد این است که از ابتدا همهٔ حالتهای ممکن را تشخیص نداده باشیم و بعضی از آنها از چشم ما دور مانده باشند. اگر به مثال بخش قبل برگردیم میتوانیم فرض کنیم که مثلاً یک جعبهٔ دیگر (جعبهٔ شمارهٔ $m$ وجود دارد) که در میان $n+1$ جعبهٔ موجود نیست و مثلاً پشت یک پرده مخفی شده است ولی توپ میتواند درون آن جعبه هم باشد. احتمال وجود توپ در آن جعبه را با $P(A_m)$ نشان میدهیم. بهعبارت دیگر اگرچه ما تصور میکنیم که حاصلجمع احتمالهای وجود توپ در $n+1$ جعبهٔ موجود برابر با یک است ولی درواقع این احتمال کوچکتر از یک است: $$\sum_{i=1}^n P(A_i)+P(A_z)=1-P(A_m)$$. بنابراین حتی اگر آزمایشهای ما بیخطا باشند و بگویند که توپ در جعبههای شمارهٔ $1$ تا $n$ نیست باز هم ممکن است جعبهٔ شمارهٔ $z$ را باز کنیم و ببینیم که خالی است. احتمال چنین نتیجهٔ ناگواری $P(A_m)$ است. برای اجتناب از مواجه شدن با چنین وضعیتی باید حداکثر تلاش را برای تشخیص و بهحسابآوردن همهٔ حالتهای ممکن به خرج داد.
بهعنوان آخرین مثال حالتی را در نظر میگیریم که هم آزمایشها احیاناً خطا داشته باشند و هم از ابتدا همهٔ حالتهای ممکن تعیین نشده باشند و مثلاً جعبهٔ شمارهٔ $m$ از قلم افتاده باشد. در این صورت بهسادگی میتوان دید که وقتی آزمایشها نشان میدهند که توپ در هیچ یک از جعبههای $1$ تا $n$ نیست، احتمال پیدا کردن توپ در جعبهٔ $z$ برابر است با $$P=\frac{(1-r)P(A_z)}{r(1-P(A_z)-P(A_m))+(1-r)(P(A_z)+P(A_m))}$$ و باز اگر همهٔ جعبهها را هماحتمال بگیریم، یعنی $$P(A_z)=P(A_m)=P(A_i)=\frac{1}{n+2}$$ خواهیم داشت $$P=\frac{1-r}{nr+2(1-r)}.$$ برای مقایسهٔ این نتیجه با نتیجهٔ بخش قبل فرض میکنیم تعداد همهٔ جعبههای در اختیار ما ده تاست (یعنی $n=9$) ولی تعداد کل جعبهها درواقع یازده تاست و احتمال وجود توپ در این یازده جعبه یکسان است ($\frac{1}{11}$). احتمال خطای آزمایش را هم مانند قبل ۰/۱ میگیریم. در اینصورت احتمال یافتن توپ در جعبهٔ $z$ برابر خواهد بود با $P=\frac{1}{3}$. بهعبارت دیگر آن حالتی را که با روش حذف ناممکنها حقیقت محض میدانیم فقط کمی بیش از سی درصد احتمال دارد که حقیقت باشد!
سخن پایانی
دنیای واقعی بر خلاف دنیای قصهها پر از عدم قطعیت، خطا و بیدقتی است. در چنین دنیایی دست یافتن به حقیقت به سادگی قصهها نیست. بنابراین برای پرهیز از نتیجهگیری نادرست یا پیشبینی نادرست بهتر است تا حد امکان نگاه همهجانبه به پدیدهها داشته باشیم و امکان بروز خطا در مشاهدهها و آزمایشها را نیز نادیده نگیریم.
در دو دهه گذشته، مدلسازی پخش بیماریهای عفونی در جوامع به کمک ابزارهای فیزیک آماری و علم شبکه گسترش فراوانی داشته. دوره دکتری من هم معطوف به مدلسازی پخش بیماریها و همهگیری در جوامع بود. پژوهش اصلی من پیرامون این ایده بود که ارتباطات افراد مختلف در یک جامعه چهطور بر شدت و حدت شیوع یک بیماری اثر میگذارند و بعد از آن چگونه میشود اثربخشی مداخلههایی مانند واکسیناسیون یا رهگیری تماس را بهینه کرد.
پایاننامه دکتری من علاوه بر مقالات پژوهشی شامل سه فصل آموزشی پیرامون علم شبکه و همهگیرشناسی محاسباتی است. در این اثر، به اثرات ویژگیهای شبکههای اجتماعی مانند ناهمگنیهای ارتباطی، هوموفیلی رفتاری، اندازه گروههای اجتماعی و تحولات زمانی شبکهها بر بهبودبخشی اثرات مداخلهها پرداخته شده.
نسخه الکتروینکی این اثر را در اینجا میتوانید ببینید.
علم شبکه و مدلسازی پخش بیماری در حضور مداخلهها
Consequences of Social Network Structure for Epidemic Interventions
برای یادگیری بیشتر به مطالب این نوشته یا این ویدیو نگاه کنید:
مقدمهای بر شبکههای پیچیده
سخنرانی آنلاین دانشگاه تهران به دنبال توجیه رفتارهای جمعی در سیستمهای فیزیکی و زیستی به اهمیت برهمکنشهای نابدیهی و شبکههای پیچیده میرسیم و به ویژگیهای این شبکهها و پدیدههای دینامیکی روی آنها میپردازیم. سرانجام در مورد مدلسازیهای انتشار ویروس کرونا صحبت خواهیم کرد!
انتروپی یکی از سهل ممتنعترین مفاهیم فیزیکه. همه فکر میکنند که میدونند چیه و همه همزمان درست نمیدونند که چیه! مسئله انتروپی و پیکان زمان هنوز جزو مسائل حل نشده در فیزیکه. قانون دوم ترمودینامیک ارتباط تنگاتنگی با این مفهوم داره و از قضا این قانون، جای پای خیلی محکمی توی فیزیک داره. برای همین انتظار میره که بدونیم انتروپی چیه، نه؟! بعضیها به اشتباه قانون دوم رو تفسیر به زیاد شدن بینظمی میکنن که لزوما درست نیست.
انتروپی یک کمیت قابل اندازهگیری و یک متغیر جفتشده (همیوغ) برای دما در ترمودینامیکه. از طرف دیگه، به واسطه توسعه مکانیک آماری، تعریفهای جدیدتر با فرمولبندیهایی بر اساس توزیعهای آماری برای بیان انتروپی یک سامانه بر اساس حالتهایی که میتونه داشته باشه ارائه شده. وصل کردن فیزیک آماری به نظریه اطلاعات معمولا با کارهای جینز شناخته میشه. اما از لحاظ مفهومی و فلسفه علمی، آزمایش فکریشیطانک مکسول برای اولین بار این درک رو ایجاد کرد که اطلاعات یک کمیت فیزیکیه.
Leonard Susskind
I will try to explain the second law to the best of my ability. There should be lots of questions which I will try to answer. I know a little bit about the second law; it may be two or three people in the world who know more, but I’ve never met any, so we’ll talk a little about the second law [and] what it means
Leonard Susskind, Statistical Mechanics (Spring, 2013), Lec. 7: Entropy vs. reversibility
دنبال کردن تغییرات انتروپی به صورت نظری یا تجربی در فیزیک تعادلی و غیرتعادلی متفاوته. برخلاف انتظار ما، اندازهگیری تغییرات انتروپی در تعادل میتونه کار خیلی سختی در آزمایشگاه باشه. در فیزیک دور از تعادل، روابط افتوخیز چارچوب به نسبت معقولی برای مطالعه انتروپی به ما میده.
انتروپی برای همگردی (ensemble) از چیزها معنی داره. انتروپی یک مولکول چندان چیز معنا داری نیست، بلکه انتروپیحالتهایی که یک مولکول میتونه داشته باشه عبارت معنی داریه. با نگاه کردن به فرمول شنون هم خیلی راحت میشه دید که برای یک توزیع خاص میشه انتروپی تعریف کرد. مثال دیگه، که یک مثال فیزیکی نیست، صحبت کردن در مورد انتروپی شبکههای پیچیده است. انتروپی یک شبکه میتونهمنجر به گمراهی مخاطب بشه. چون مشخص نیست که این انتروپی به توزیع درجه اون شبکه برمیگرده یا همگردی از گرافها یا چی!؟ مثلا قاعده انتروپی بیشینه برای همگردی از گرافها با چگالی یال ثابت منجر به مدل اردوش رنیی میشه. این مدل، شبکهای با توزیع درجه پواسونی میده که اون توزیع، توزیع بیشترین انتروپی نیست!
نکته بعدی اینه که انتروپی یک کمیت فردیه (subjective) به این معنا که ربطی به قوانین بنیادی طبیعت و برهمکنش ذرات با هم نداره. معمولا کسایی که بعد از گذروندن درس مکانیک کلاسیک وارد درس مکانیک آماری تعادلی میشن با این سوال رو به رو میشن که طبق تعریف، لگاریتم حجم فضای فاز (در یک انرژی خاص) برابر با انتروپیه. از طرف دیگه قضیه لیوویل میگه که برای یک سامانه طی زمان، هندسه فضای فاز عوض میشه ولی حجمش نه! پس یعنی انتروپی ثابت میمونه! آیا این مشکلی داره؟! اول اینکه قانون دوم ترمودینامیک میگه که انتروپی یک سامانه بسته در حد ترمودینامیکی تقریبا هیچموقع کم نمیشه، یعنی $\mathrm{d}s$ یا صفره یا مثبت. پس کی $\mathrm{d}s>0$ هست؟ ایده اصلی اینه که انتروپی یک کمیت وابسته به سامانه و ناظره. در واقع انتروپی رو طی فرایند درشت-دانهبندی اندازهگیری میکنیم و این ما (ناظر) هستیم که انتروپی رو زیاد میکنیم!
خلاصه خیلی مهمه که در چه شرایطی و برای چه سامانهای (اندازه و نوع برهمکنشها) داریم صحبت میکنیم. انتروپی میتونه خیلی خیلی موضوع ظریفی باشه خصوصا وقتی که دور از تعادل هستیم. در سامانههای کوچیک مثلا انتروپی میتونه کم یا زیاد بشه. برای دونستن بیشتر به اینجا و اینجا نگاه کنید.
مدل آیزینگ، به عنوان معرفترین مدل در فیزیک آماری، یک مدل ساده برای توصیف گذار فاز در مواد مغناطیسی است. این مدل از متغیرهای گسسته (اسپین) به روی یک گراف مشبکه (Lattice) تشکیل شده است.
سرخسها گیاهانی هستند که شکلی هندسی خاصی دارند. اگر قسمتی از آنها را جدا کنید، با کمی دوران و بزرگنمایی میتوانید قسمت دیگری را بازسازی کنید. این ویژگی هندسی فرکتالها است. در مورد هندسه فرکتالی و کاربرد آن در فیزیک نکات جالبی وجود دارد. مثلا به نوشتههای زیر سر بزنید:
تصویری از یک سرخس به عنوان موجودی با ساختار فرکتالی – نگاره از عباس ک. ریزی (ارسفیورد – نروژ)
به فیزیک چکه کردن آب از سقف خونه تاحالا فکر کردید؟! آب روی پشتبوم به خاطر جاذبه وارد سقف به عنوان یک محیط متخلخل میشه و بعد از طی کردن یک مسیر پر پیچ و خم ممکنه به پایین سقف برسه و در نهایت چکه کنه! این فرایند خیلی شبیه به سازوکار قهوه درست کردنه؛ اونجا آب یا بخار با فشار زیادی از محیطی به اسم پودر قهوه میگذره و در نهایت نوشیدنی قهوه ایجاد میشه. به این پدیده «تراوش» گفته میشه. اگر آب از پشت بوم به داخل اتاق نرسه یا وقتی نوشیدنی قهوه از قهوهساز خارج نشه اصطلاحا میگیم تراویدن موفقیتآمیز نبوده و تراوش انجام نشده. ساز و کار تراوش به عنوان یک مسئله گذارفاز پیوسته، از نظر فیزیک پدیدههای بحرانی خیلی جالبه. خصوصا وقتی که تراوش جهتدار باشه. مثلا اگه آب فقط بتونه از بالا به پایین بره، تراوش فقط در یک جهت خاص انجام میشه.
شبکه برهمکنشی در مدل آیزینگ – نگاره از مجله کوانتا
مدل تراوش جهتدار سادهترین مدلیه که گذار فاز پیوسته در شرایط دور از تعادل رو نشون میده.
با این که مدل تراوش جهتدار (directed percolation) خیلی ساده به نظر میرسه و بیشتر از ۶۰ سال از مطرح شدنش میگذره، اما این مسئله روی اکثر شبکهها حل تحلیلی نداره. همینطور تا امروز شواهد بسیار محدود در شرایط بسیار کنترل شدهی آزمایشگاهی برای این پدیده داشتیم. یعنی تا همین چندسال پیش تردید وجود داشت که آیا این مدل فقط یک مسئله انتزاعی ریاضیه یا اینکه واقعا در طبیعت تراوش جهتدار رخ میده؟! خلاصه کلی خون دل خورده شده برای قسمت تجربی ماجرا تا این چیزها رو مردم در آزمایشگاه هم ببینند! مثلا اخیرا یک گروه ژاپنی-فرانسوی این پدیده رو در بلورهای مایع (electrohydrodynamic convection of liquid crystal) مشاهده کردن.
ما در مقاله جدیدمون نشون دادیم که اتفاقا این پدیده زیاد در طبیعت رخ میده؛ فَارْجِعِ الْبَصَر! در واقع نشون دادیم که گذار فاز در مسئله دسترسی (reachability) در شبکههای زمانی، تحت شرایطی نگاشت میشه به مسئله تراوش جهتدار و گذار فاز دسترسی عضو کلاس عمومی تراوشجهتداره. میکّو جزئیات فنی بیشتری در این رشته توییت نوشته.
میتونید این مقاله از مجموعه کارهای ما روی پدیدههای بحرانی در شبکههای زمانی رو اینجا ببینید. همکار ما در این پروژه مارتن کارزای از CEU بود و آرش بدیع-مدیری زحمت اصلی این پروژه رو کشیده. این کار از جهتهای مختلف برای من هیجانانگیزه: هم فیزیک داره، هم ریاضی و هم شبیهسازیهای بسیار بسیار بزرگ! هم فاله و هم تماشا! از همه مهمتر اینکه هر کس که برای اولین بار به این مسئله فکر کنه ممکنه به این نتیجه برسه که خب این مسئله کاملا بدیهی به نظر میرسه! شما چیو نشون دادین پس؟! اما اولا اونقدرا که مردم تصور میکنن بدیهی نیست (همون طور که بحث کردیم در مقاله) و از اون مهمتر بالاخره بعد از مدتها حدس و گمان باید تکلیف این مسئله روشن میشد و گروهی نشون میدادن که وضعیت آگاهی ما از این مسئله در شرایط و تنظیمات مختلف چیه.
این ویدیو در مورد کار پژوهشی من یعنی پدیدههای بحرانی و شبکههای پیچیده است. اینجا میگم که چی شد که به این موضوع علاقهمند شدم و الان مشغول چه کاری هستم: