رفتن به نوشته‌ها

دسته: مکانیک آماری

ﺣﺬﻑ ﻧﺎﻣﻤﮑﻦ ﻫﺎ: ﺍز قصه ﺗﺎ ﻭﺍﻗﻌﯿﺖ

شرلوک هولمز در کتاب نشانهٔ چهار روشی را برای کشف حقیقت به‌کار می‌برد که می‌توان اسمش را گذاشت روش حذف ناممکن‌ها: وقتی همهٔ حالت‌های ناممکن را کنار گذاشته باشی، آنچه باقی می‌ماند، هرچه‌قدر هم نامحتمل، باید حقیقت باشد.

این روش، مثل بسیاری از روش‌های دیگری که هولمز به کار می‌گیرد، جذاب و هیجان‌انگیز است ولی آیا در عمل و در شرایط واقعی هم می‌توان چنین روش‌هایی را به‌همان سادگی به‌کار برد؟ واقعیت این است که در عمل ممکن است موانع فراوانی کاربردپذیری این روش را به چالش بکشد. در این یادداشت به دو مورد از این موانع نگاه دقیق‌تری می‌اندازیم. نخست این که تشخیص ناممکن بودن بعضی حالت‌ها که در ابتدا محتمل بوده‌اند با چه دقتی انجام می‌شود؟ آیا ممکن نیست خطایی در این تشخیص وجود داشته باشد؟ مثلاً در همین مکالمه‌ که از کتاب نشانهٔ چهار نقل شد هولمز به واتسن می‌گوید: «می‌دانیم که او از در یا از پنجره یا دودکش وارد نشده» این «می‌دانیم» چه‌قدر دقیق است؟ آیا ممکن است خطایی در مشاهده یا جمع‌آوری شواهد وجود داشته باشد که این نتیجه‌گیری را نادقیق کند؟ دوم این که آیا همهٔ حالت‌های ممکن از ابتدا در نظر گرفته‌ شده‌اند؟ مثلاً آیا ممکن است که به‌جز در، پنجره، دودکش و سوراخ سقف راه دیگری هم برای ورود به اتاق بوده باشد که از نظر کارآگاه دور مانده باشد؟ چنین اتفاقاتی تا چه اندازه می‌تواند اعتبار نتیجه‌گیری نهایی را به‌ خطر بیندازد؟

هولمز در حالی‌ که سرش را تکان می‌داد گفت: تو به توصیهٔ من عمل نمی‌کنی. چند بار به تو گفته‌ام که وقتی ناممکن را حذف کرده باشی، آنچه باقی می‌ماند، هر قدر هم بعید، باید حقیقت باشد؟ می‌دانیم که او از در یا از پنجره یا دودکش وارد نشده. این را هم می‌دانیم که نمی‌توانسته در اتاق پنهان شده باشد، چون مخفیگاهی وجود ندارد. پس از کجا آمده؟

– من فریاد زدم از سوراخ سقف آمده؟
– معلوم است که از آنجا آمده.

نشانهٔ چهار، آرتور کانن دویل، ترجمهٔ مژده دقیقی، (انتشارات هرمس ۱۳۷۸).

خطا در تشخیص ناممکن بودن حالت‌ها

برای بررسی خطای آزمون‌هایی که حالت‌های ناممکن را مشخص می‌کنند مثال ساده‌ای در نظر می‌گیرم. فرض کنید $n+1$ جعبه داریم که در یکی از آن‌ها یک توپ وجود دارد. جعبه‌ها را با
$1,2,\cdots, n , z$ برچسب می‌زنیم. هیچ اطلاعات اضافهٔ دیگری که بتواند راهنمایی برای تشخیص جعبهٔ محتوی توپ باشد نداریم، بنابراین فرض می‌کنیم که توپ می‌تواند با احتمال یکسان در هر یک از این $n+1$ جعبه باشد. (می‌توان مسئله را به شکل عام‌تری هم طرح کرد، مثلاً می‌توان فرض کرد که احتمال این که توپ در جعبهٔ شمارهٔ $i$ باشد $p_i$ است و $\sum_{i=1}^n p_i+p_z=1$.)

فرض کنید $A_i$ پیشامد قرار داشتن توپ در جعبهٔ شمارهٔ $i$ باشد. همچنین فرض کنید برای تشخیص این که یک جعبه توپی در درونش ندارد از آزمایشی مانند تکان دادن جعبه یا اسکن کردن آن با پرتو ایکس استفاده کنیم. پیشامدی را که در آن نتیجهٔ آزمایش روی جعبهٔ شمارهٔ $i$ خالی بودن آن را نشان می‌دهد $E_i$ می‌نامیم. این آزمایش ممکن است خطا داشته باشد، به‌این معنی که ممکن است توپ در جعبهٔ شمارهٔ $i$ باشد ولی نتیجهٔ آزمایش خلاف این را گزارش کند. احتمال چنین خطایی را با $r$ نشان می‌دهیم. به بیان ریاضی $P(E_i|A_i)=r$.

جعبه‌های شمارهٔ $1$ تا $n$ را آزمایش می‌کنیم و نتیجهٔ آزمایش این است که توپ در هیچ‌ یک از این جعبه‌ها نیست. طبق روش هولمز می‌توانیم بگوییم که توپ قطعاً در جعبهٔ $z$ است. اما احتمال خطا در آزمایش‌های ما وجود دارد و بنابراین ممکن است توپ در یکی از جعبه‌هایی باشد که آزمایش خالی بودن آن را نشان داده. در چنین شرایطی نمی‌توان گفت که توپ قطعاً در جعبهٔ $z$ است. سؤال درست این است که احتمال قرار داشتن توپ در جعبهٔ $z$ چه‌قدر است. چنین احتمالی با عبارت ریاضی زیر بیان می‌شود
$$P(A_z|\bigcap_{i=1}^{n} E_i) = P(A_z|E_1\cap E_2\cap \cdots \cap E_n) = P(A_z \mid \mathcal{E}).$$ در اینجا $\mathcal{E} := \bigcap_{i=1}^{n} E_i$ اشتراک بین همه پیشامدهاست. با به کارگیری قاعدهٔ بیز: $$\begin{aligned}
P(A_z \mid \mathcal{E}) = \frac{P(A_z \cap \mathcal{E})}{P(\mathcal{E})}
\end{aligned}$$ و در نتیجه $$P(A_z \mid \mathcal{E})= \frac{P(\mathcal{E} \mid A_z)\, P(A_z)}{P(\mathcal{E} \mid A_z)\, P(A_z) + \sum_{i=1}^{n} P(\mathcal{E} \mid A_i)\, P(A_i)}$$

فرض می‌کنیم آزمایش‌های جعبه‌های مختلف مستقل باشند یعنی آزمایش یک جعبه روی نتیجهٔ آزمایش یک جعبهٔ دیگر اثری نداشته باشد. در این‌صورت خواهیم داشت $$P(\mathcal{E}|A_z)=(1-r)^n$$
زیرا اگر توپ در جعبهٔ شمارهٔ $z$ باشد یعنی همهٔ آزمایش‌ها نتیجهٔ درست داده‌اند و احتمال درست بودن نتیجهٔ هر آزمایش $1-r$ است. به‌همین ترتیب به‌سادگی می‌توان دید که
$$P(\mathcal{E}|A_i)=r(1-r)^{n-1}\,, i=1,2,\cdots , n$$ و بنابراین
\begin{eqnarray}
P & = & \frac{(1-r)P(A_z)}{r\left(1-P(A_z)\right)+(1-r)P(A_z)}\nonumber\
& = & \frac{1-r}{nr+1-r}\nonumber
\end{eqnarray} که در آن از $P(A_z)=\frac{1}{n+1}$ استفاده کرده‌ایم.

بیایید نگاهی به نتیجهٔ این رابطه برای یک حالت مشخص بیندازیم. فرض کنید ده جعبه داریم (یعنی $n=9
$) و آزمایش ما برای تشخیص خالی بودن جعبه‌ها ده درصد خطا دارد (به‌ این معنی که به طور میانگین از هر ده آزمایش یکی نتیجهٔ نادرست می‌دهد). در این صورت رابطهٔ بالا می‌گوید که $P=0.5$. یعنی احتمال این که توپ در جعبهٔ آخر (جعبه‌ای که آزمایش نشده) باشد پنجاه درصد است. به‌طور کلی اگر احتمال خطا در آزمایش تشخیص حالت‌های ناممکن برابر با احتمال همان حالتی باشد که در آخر و پس از حذف ناممکن‌ها قرار است به‌عنوان «حقیقت» معرفی شود، خطای تشخیص حقیقت پنجاه درصد خواهد بود!

خطا در تعیین همهٔ حالت‌های ممکن

ایراد دیگری که می‌تواند کارایی این روش را به‌ چالش بکشد این است که از ابتدا همهٔ حالت‌های ممکن را تشخیص نداده باشیم و بعضی از آن‌ها از چشم ما دور مانده باشند. اگر به مثال بخش قبل برگردیم می‌توانیم فرض کنیم که مثلاً یک جعبهٔ دیگر (جعبهٔ شمارهٔ $m$ وجود دارد) که در میان $n+1$ جعبهٔ موجود نیست و مثلاً پشت یک پرده مخفی شده است ولی توپ می‌تواند درون آن جعبه هم باشد. احتمال وجود توپ در آن جعبه را با $P(A_m)$ نشان می‌دهیم. به‌عبارت دیگر اگرچه ما تصور می‌کنیم که حاصل‌جمع احتمال‌های وجود توپ در $n+1$ جعبهٔ موجود برابر با یک است ولی درواقع این احتمال کوچک‌تر از یک است:
$$\sum_{i=1}^n P(A_i)+P(A_z)=1-P(A_m)$$. بنابراین حتی اگر آزمایش‌های ما بی‌خطا باشند و بگویند که توپ در جعبه‌های شمارهٔ $1$ تا $n$ نیست باز هم ممکن است جعبهٔ شمارهٔ $z$ ‌را باز کنیم و ببینیم که خالی است. احتمال چنین نتیجهٔ ناگواری $P(A_m)$ است. برای اجتناب از مواجه شدن با چنین وضعیتی باید حداکثر تلاش را برای تشخیص و به‌حساب‌آوردن همهٔ حالت‌های ممکن به خرج داد.

به‌عنوان آخرین مثال حالتی را در نظر می‌گیریم که هم آزمایش‌ها احیاناً خطا داشته باشند و هم از ابتدا همهٔ حالت‌های ممکن تعیین نشده‌ باشند و مثلاً جعبهٔ شمارهٔ $m$ از قلم افتاده باشد. در این صورت به‌سادگی می‌توان دید که وقتی آزمایش‌ها نشان می‌دهند که توپ در هیچ‌ یک از جعبه‌های $1$ تا $n$ نیست، احتمال پیدا کردن توپ در جعبهٔ $z$ برابر است با
$$P=\frac{(1-r)P(A_z)}{r(1-P(A_z)-P(A_m))+(1-r)(P(A_z)+P(A_m))}$$
و باز اگر همهٔ جعبه‌ها را هم‌احتمال بگیریم، یعنی
$$P(A_z)=P(A_m)=P(A_i)=\frac{1}{n+2}$$ خواهیم داشت $$P=\frac{1-r}{nr+2(1-r)}.$$
برای مقایسهٔ این نتیجه با نتیجه‌ٔ بخش قبل فرض می‌کنیم تعداد همهٔ جعبه‌های در اختیار ما ده تاست (یعنی $n=9$) ولی تعداد کل جعبه‌ها درواقع یازده تاست و احتمال وجود توپ در این یازده جعبه یکسان است ($\frac{1}{11}$).
احتمال خطای آزمایش را هم مانند قبل ۰/۱ می‌گیریم. در این‌صورت احتمال یافتن توپ در جعبهٔ $z$ برابر خواهد بود با $P=\frac{1}{3}$. به‌عبارت دیگر آن حالتی را که با روش حذف ناممکن‌ها حقیقت محض می‌دانیم فقط کمی بیش از سی درصد احتمال دارد که حقیقت باشد!

سخن پایانی

دنیای واقعی بر خلاف دنیای قصه‌ها پر از عدم قطعیت، خطا و بی‌دقتی است. در چنین دنیایی دست یافتن به حقیقت به سادگی قصه‌ها نیست. بنابراین برای پرهیز از نتیجه‌گیری نادرست یا پیش‌بینی نادرست بهتر است تا حد امکان نگاه همه‌جانبه به پدیده‌ها داشته باشیم و امکان بروز خطا در مشاهده‌ها و آزمایش‌ها را نیز نادیده نگیریم.

نقش شبکه‌های اجتماعی در همه‌گیری‌ها و اثربخشی مداخله‌ها

Spreading and Epidemic Interventions

Effects of Network

Structure and Dynamics

علم شبکه و مدل‌سازی پخش بیماری‌ در حضور مداخله‌‌ها

Consequences of Social Network Structure for Epidemic Interventions

برای یادگیری بیشتر به مطالب این نوشته یا این ویدیو نگاه کنید:

مقدمه‌ای بر شبکه‌های پیچیده

سخنرانی آنلاین دانشگاه تهران
به دنبال توجیه رفتارهای جمعی در سیستم‌های فیزیکی و زیستی به اهمیت برهمکنش‌های نابدیهی و شبکه‌های پیچیده می‌رسیم و به ویژگی‌‌های این شبکه‌ها و پدیده‌های دینامیکی روی آن‌ها می‌پردازیم. سرانجام در مورد مدل‌سازی‌های انتشار ویروس کرونا صحبت خواهیم کرد!

انتروپی

انتروپی یکی از سهل ممتنع‌ترین مفاهیم فیزیکه. همه فکر می‌کنند که می‌دونند چیه و همه هم‌زمان درست نمی‌دونند که چیه! مسئله انتروپی و پیکان زمان هنوز جزو مسائل حل نشده در فیزیکه. قانون دوم ترمودینامیک ارتباط تنگاتنگی با این مفهوم داره و از قضا این قانون، جای پای خیلی محکمی توی فیزیک داره. برای همین انتظار می‌ره که بدونیم انتروپی چیه، نه؟! بعضی‌ها به اشتباه قانون دوم رو تفسیر به زیاد شدن بی‌نظمی می‌کنن که لزوما درست نیست.

انتروپی یک کمیت قابل اندازه‌گیری و یک متغیر جفت‌شده (همیوغ) برای دما در ترمودینامیکه. از طرف دیگه، به واسطه توسعه مکانیک آماری، تعریف‌های جدیدتر با فرمول‌بندی‌هایی بر اساس توزیع‌های آماری برای بیان انتروپی یک سامانه بر اساس حالت‌هایی که می‌تونه داشته باشه ارائه شده. وصل کردن فیزیک آماری به نظریه اطلاعات معمولا با کارهای جینز شناخته میشه. اما از لحاظ مفهومی و فلسفه علمی، آزمایش فکری شیطانک مکسول برای اولین بار این درک رو ایجاد کرد که اطلاعات یک کمیت فیزیکیه.

Leonard Susskind, Statistical Mechanics (Spring, 2013), Lec. 7: Entropy vs. reversibility
Leonard Susskind

I will try to explain the second law to the best of my ability. There should be lots of questions which I will try to answer. I know a little bit about the second law; it may be two or three people in the world who know more, but I’ve never met any, so we’ll talk a little about the second law [and] what it means

Leonard Susskind, Statistical Mechanics (Spring, 2013), Lec. 7: Entropy vs. reversibility

دنبال کردن تغییرات انتروپی به صورت نظری یا تجربی در فیزیک تعادلی و غیرتعادلی متفاوته. برخلاف انتظار ما، اندازه‌گیری تغییرات انتروپی در تعادل می‌تونه کار خیلی سختی در آزمایشگاه باشه. در فیزیک دور از تعادل، روابط افت‌وخیز چارچوب به نسبت معقولی برای مطالعه انتروپی به ما میده.

انتروپی برای همگردی (ensemble) از چیزها معنی داره. انتروپی یک مولکول چندان چیز معنا داری نیست، بلکه انتروپی‌حالت‌هایی که یک مولکول می‌تونه داشته باشه عبارت معنی داریه. با نگاه کردن به فرمول شنون هم خیلی راحت میشه دید که برای یک توزیع خاص میشه انتروپی تعریف کرد. مثال دیگه، که یک مثال فیزیکی نیست، صحبت کردن در مورد انتروپی شبکه‌های پیچیده است. انتروپی یک شبکه می‌تونه منجر به گمراهی مخاطب بشه. چون مشخص نیست که این انتروپی به توزیع درجه اون شبکه برمی‌گرده یا همگردی از گراف‌ها یا چی!؟ مثلا قاعده انتروپی بیشینه برای همگردی از گراف‌ها با چگالی یال ثابت منجر به مدل اردوش رنیی میشه. این مدل، شبکه‌ای با توزیع درجه پواسونی میده که اون توزیع، توزیع بیشترین انتروپی نیست!

نکته بعدی اینه که انتروپی یک کمیت فردیه (subjective) به این معنا که ربطی به قوانین بنیادی طبیعت و برهمکنش ذرات با هم نداره. معمولا کسایی که بعد از گذروندن درس مکانیک کلاسیک وارد درس مکانیک آماری تعادلی میشن با این سوال رو به رو میشن که طبق تعریف، لگاریتم حجم فضای فاز (در یک انرژی خاص) برابر با انتروپیه. از طرف دیگه قضیه لیوویل می‌گه که برای یک سامانه طی زمان، هندسه فضای فاز عوض میشه ولی حجمش نه! پس یعنی انتروپی ثابت می‌مونه! آیا این مشکلی داره؟! اول اینکه قانون دوم ترمودینامیک میگه که انتروپی یک سامانه بسته در حد ترمودینامیکی تقریبا هیچ‌موقع کم نمیشه، یعنی $\mathrm{d}s$ یا صفره یا مثبت. پس کی $\mathrm{d}s>0$ هست؟ ایده اصلی اینه که انتروپی یک کمیت وابسته به سامانه و ناظره. در واقع انتروپی رو طی فرایند درشت‌-دانه‌‌بندی اندازه‌گیری می‌کنیم و این ما (ناظر) هستیم که انتروپی رو زیاد می‌کنیم!

خلاصه خیلی مهمه که در چه شرایطی و برای چه سامانه‌ای (اندازه و نوع برهمکنش‌ها) داریم صحبت می‌کنیم. انتروپی می‌تونه خیلی خیلی موضوع ظریفی باشه خصوصا وقتی که دور از تعادل هستیم. در سامانه‌های کوچیک مثلا انتروپی می‌تونه کم یا زیاد بشه. برای دونستن بیشتر به اینجا و اینجا نگاه کنید.

برای مطالعه بیشتر:

چرا مدل آیزینگ اینقدر برای فیریکدونا جذابه؟ چرا اینقدر کاربردیه حتی بیرون فیزیک؟!

مدل آیزینگ، به عنوان معرف‌ترین مدل در فیزیک آماری، یک مدل ساده برای توصیف گذار فاز در مواد مغناطیسی است. این مدل از متغیرهای گسسته (اسپین) به روی یک گراف مشبکه (Lattice) تشکیل شده است.

ویدیو در یوتیوب

ویدیو در اینستاگرام

برای بیشتر عمیق شدن

شبیه‌سازی مدل آیزینگ

فرکتال‌ها، قوانین توانی، توزیع‌های دم‌کلفت و پدیده‌های بحرانی

سرخس‌ها گیاهانی هستند که شکلی هندسی خاصی دارند. اگر قسمتی از آن‌ها را جدا کنید، با کمی دوران و بزرگ‌نمایی می‌توانید قسمت دیگری را بازسازی کنید. این ویژگی هندسی فرکتال‌ها است. در مورد هندسه فرکتالی و کاربرد آن در فیزیک نکات جالبی وجود دارد. مثلا به نوشته‌های زیر سر بزنید:

تصویری از یک سرخس به عنوان موجودی با ساختار فرکتالی – نگاره از عباس ک. ریزی (ارسفیورد – نروژ)

برای آشنایی با هندسه فرکتالی:

مطالب کمی‌ پیشرفته‌تر:

ویدیو در یوتیوب

ویدیو در اینستاگرام

تراوش جهت‌دار در شبکه‌های زمانی

به فیزیک چکه کردن آب از سقف خونه تاحالا فکر کردید؟! آب روی پشت‌بوم به خاطر جاذبه وارد سقف به عنوان یک محیط متخلخل میشه و بعد از طی کردن یک مسیر پر پیچ و خم ممکنه به پایین سقف برسه و در نهایت چکه کنه! این فرایند خیلی شبیه به سازوکار قهوه درست کردنه؛ اونجا آب یا بخار با فشار زیادی از محیطی به اسم پودر قهوه می‌گذره و در نهایت نوشیدنی قهوه ایجاد میشه. به این پدیده «تراوش» گفته میشه. اگر آب از پشت بوم به داخل اتاق نرسه یا وقتی نوشیدنی قهوه از قهوه‌ساز خارج نشه اصطلاحا می‌گیم تراویدن موفقیت‌آمیز نبوده و تراوش انجام نشده. ساز و کار تراوش به عنوان یک مسئله گذارفاز پیوسته، از نظر فیزیک پدیده‌های بحرانی خیلی جالبه. خصوصا وقتی که تراوش جهت‌دار باشه. مثلا اگه آب فقط بتونه از بالا به پایین بره، تراوش فقط در یک جهت خاص انجام میشه.

شبکه برهمکنشی در مدل آیزینگ – نگاره از مجله کوانتا

مدل آیزینگ ساده‌ترین مدلی هست که گذار فاز پیوسته در شرایط تعادل رو نشون میده.

مسئله دسترسی و مدل تراوش – ویدیو از مجله کوانتا

مدل تراوش جهت‌دار ساده‌ترین مدلیه که گذار فاز پیوسته در شرایط دور از تعادل رو نشون میده.

با این که مدل تراوش جهت‌دار (directed percolation) خیلی ساده‌ به نظر می‌رسه و بیشتر از ۶۰ سال از مطرح شدنش می‌گذره، اما این مسئله روی اکثر شبکه‌ها حل تحلیلی نداره. همین‌طور تا امروز شواهد بسیار محدود در شرایط بسیار کنترل شده‌ی آزمایشگاهی برای این پدیده داشتیم. یعنی تا همین چندسال پیش تردید وجود داشت که آیا این مدل فقط یک مسئله انتزاعی ریاضیه یا این‌که واقعا در طبیعت تراوش جهت‌دار رخ می‌ده؟! خلاصه کلی خون دل خورده شده برای قسمت تجربی ماجرا تا این چیزها رو مردم در آزمایشگاه هم ببینند! مثلا اخیرا یک گروه ژاپنی-فرانسوی این پدیده رو در بلورهای مایع (electrohydrodynamic convection of liquid crystal) مشاهده کردن.

ما در مقاله جدیدمون نشون دادیم که اتفاقا این پدیده زیاد در طبیعت رخ می‌ده؛ فَارْجِعِ الْبَصَر! در واقع نشون دادیم که گذار فاز در مسئله دسترسی (reachability) در شبکه‌های زمانی، تحت شرایطی نگاشت میشه به مسئله تراوش جهت‌دار و گذار فاز دسترسی عضو کلاس عمومی تراوش‌جهت‌داره. میکّو جزئیات فنی‌ بیشتری در این رشته توییت نوشته.

https://twitter.com/bolozna/status/1413046032666177538

می‌تونید این مقاله از مجموعه کارهای ما روی پدیده‌های بحرانی در شبکه‌های زمانی رو اینجا ببینید. همکار ما در این پروژه مارتن کارزای از CEU بود و آرش بدیع‌-مدیری زحمت اصلی این پروژه رو کشیده. این کار از جهت‌های مختلف برای من هیجان‌انگیزه: هم فیزیک داره، هم ریاضی و هم شبیه‌سازی‌های بسیار بسیار بزرگ! هم فاله و هم تماشا! از همه مهم‌تر این‌که هر کس که برای اولین بار به این مسئله فکر کنه ممکنه به این نتیجه برسه که خب این مسئله کاملا بدیهی به نظر می‌رسه! شما چیو نشون دادین پس؟! اما اولا اونقدرا که مردم تصور می‌کنن بدیهی نیست (همون طور که بحث کردیم در مقاله) و از اون مهم‌تر بالاخره بعد از مدت‌ها حدس و گمان باید تکلیف این مسئله روشن می‌شد و گروهی نشون میدادن که وضعیت آگاهی ما از این مسئله در شرایط و تنظیمات مختلف چیه.

2107.015101

پدیده‌های بحرانی و علم شبکه

این ویدیو در مورد کار پژوهشی من یعنی پدیده‌های بحرانی و شبکه‌های پیچیده است. اینجا میگم که چی شد که به این موضوع علاقه‌مند شدم و الان مشغول چه کاری هستم:

منابعی برای یادگیری

یادگیری آمار به صورت آدمیزادی!

کتاب «استنباط آماری در عصر کامپیوترها» نوشته بردلی افرون و ترور هستی یک کتاب مدرنِ عمیق در مورد الگوریتم‌ها، ماشین لرنینگ و علم داده است. کتاب برای دانشجویان تحصیلات تکمیلی رشته آمار و هر کسی که دانش کافی و علاقه وافی برای خوندنش داشته باشه طبیعتا مناسبه!

Computer Age Statistical Inference
Algorithms, Evidence, and Data Science
Bradley Efron Trevor Hastie

این کتاب به شما کمک می‌کنه تا هم یادبگیرین از الگوریتم‌ها استفاده کنید و هم بفهمین که چرا این کارو انجام می‌دین! کتاب با پرداختن به استنباط آماری کلاسیک شروع می‌کنه، سراغ مکاتب فراوانی‌گرایانه (frequentism) و مکتب بیزی (bayesian) و در بخش دومش به الگوریتم‌ها روش‌های جدید کامپیوتری می‌پردازه. آخر سر هم میره سراغ مباحث روز مثل لاسو، جنگل تصادفی، بوستینگ، شبکه‌های عصبی و یادگیری عمیق!

🎞 در یوتیوب ببینید.

این کتاب توسط دکتر میرصادقی در دانشکده ریاضی شریف تدریس شده و ویدیو کلاس‌هاش موجوده.

📱در اینستاگرام ببینید