معنی فارسی markov chain

B1

زنجیره مارکوف، یک مدل ریاضی است که به وسیله آن می‌توان فرآیندهای تصادفی را توصیف کرد که در آن احتمال انتقال به حالت‌های آینده تنها به حالت فعلی بستگی دارد.

A stochastic model that describes a sequence of possible events in which the probability of each event depends only on the state attained in the previous event.

example
معنی(example):

زنجیره مارکوف یک سیستم ریاضی است که از یک حالت به حالت دیگر منتقل می‌شود.

مثال:

A Markov chain is a mathematical system that undergoes transitions from one state to another.

معنی(example):

زنجیره‌های مارکوف در زمینه‌های مختلفی از جمله مالی و ژنتیک استفاده می‌شوند.

مثال:

Markov chains are used in various fields, including finance and genetics.

معنی فارسی کلمه markov chain

: معنی markov chain به فارسی

زنجیره مارکوف، یک مدل ریاضی است که به وسیله آن می‌توان فرآیندهای تصادفی را توصیف کرد که در آن احتمال انتقال به حالت‌های آینده تنها به حالت فعلی بستگی دارد.