Теория вероятностей.
Логика естествознания
Но в действительности дело обстоит как раз наоборот. Возможно, например, так точно выточить кость или отчеканить монету, что преимущество той или другой стороны будет совершенно ничтожно. Убедиться в том, что здесь имеет место не полная симметрия и некоторое ничтожное преимущество орла или решетки, или какой-либо грани кости, и найти поправку к априорной вероятности возможно только после такого… Читать ещё >
Теория вероятностей. Логика естествознания (реферат, курсовая, диплом, контрольная)
В математической теории вероятностей понятие «вероятность» имеет двоякое значение. Во-первых, оно выражает отношение числа случаев, благоприятствующих какому-либо событию, к числу всех возможных случаев. Во-вторых, «вероятность» означает ту степень уверенности в наступлении события, на какую нам дает право указанное отношение. В этом втором смысле вероятность, равная или же близкая к 1, означает достоверность наступления события; вероятность, близкая к 0, означает достоверность ненаступления события; вероятности, близкие к ½ означают полную неопределенность; прочие значения, причиняемые вероятностью, дают право на ожидание одного предпочтительно перед другим, однако с большим или меньшим риском обмануться.
Отсюда следует, что если для изучения каких-либо объектов применяется теория вероятностей, то научное значение имеют только вероятности, весьма близкие к 0 и 1. В самом деле, тот, кто принимает какую-либо гипотезу, похож на игрока, который ставит все свое достояние на одну карту: он не может застраховать гипотезу, не может разделить риск на части; он может только или принять гипотезу в целом, или отвергнуть. Поэтому необходимо, чтобы такая игра велась наверняка, чтобы гипотеза была близка к достоверности.
Теория вероятностей в своем развитии начала с изучения азартных игр, стремясь вычислить, сколько шансов за и против имеет игрок в том или ином отдельном случае. Но она давно переросла подобные вопросы. Применение теории вероятностей к отдельным испытаниям не имеет в настоящее время никакого самостоятельного значения и служит только для выяснения основных понятий этой науки, а также в качестве примеров для упражнений. Действительная область применения теории вероятностей, это — массовые испытания, — та область, где может быть применен закон больших чисел. Исчисление вероятности для какого-либо отдельного случая имеет совершенно ничтожное значение. Пусть, например, две игральных кости бросаются три раза. Вероятность выпадения дублета (одинаковое число очков на обеих костях) равняется 0,421 296. Выпадет дублет или нет? Можно ожидать и того и другого. Вероятность несколько менее половины. Что означает этот длинный хвост десятичных знаков? В данном случае он имеет одно значение горькой насмешки над нашим почти полным незнанием. Но ту же самую дробь мы можем рассматривать как точный закон, если испытание будет повторено большое число раз. Пятый и шестой десятичные знаки будут иметь тогда значение и ценность.
Таким образом истинной задачей теории вероятностей является исследование тех условий, при которых вероятность стремится к 0 и 1, т. е. при которых она обращается в достоверность.
Теперь рассмотрим важнейшие понятия и метод теории вероятностей.
Теория вероятностей исчисляет различные случаи, к которым приводит какое-либо явление. Все эти случаи, или статочности, делятся на классы. Когда какой-либо случай включается в определенный класс, то говорят, что случай благоприятствует некоторому событию. Когда в результате испытания один из случаев, входящих в данный класс, становится достоверным, — говорят, что данное событие осуществилось. Каждому классу соответствует событие, и наоборот. Класс, отвечающий какому-либо событию, может обнимать собою один или несколько случаев. Наступление двух и более событий или повторение того же события может рассматриваться как сложное событие; сложному событию благоприятствуют классы более сложных случаев. Вероятностью события называется отношение числа случаев, входящих в соответствующий класс, ко всем возможным случаям.
Теория требует, чтобы все случаи, или статочности, были всевозможные, несовместимые, равновозможные. Случаи называются всевозможными, если известно, что при некоторых условиях один из случаев должен непременно наступить или стать достоверным. Несовместимость случаев достигается правильным делением на классы. Элементарные случаи, неразложимые далее, собственно могут быть или тождественны, или несовместимы; условие же несовместимости событий заключается в том, чтобы различные классы не имели общих членов.
Но основное значение для теории имеет вопрос о равновозможности случаев. Какие-либо расчеты вероятности возможны только тогда, если все случаи, к которым сведены ожидаемые события, являются равновозможными. В чем же заключается эта равновозможность? Лаплас определяет равновозможные случаи как такие, существование которых для нас было бы одинаково неопределенно[1]. Таким образом, равновозможность случаев, согласно Лапласу, есть признак всецело субъективный. Случаи равновозможны для нас, поскольку мы не имеем основания ожидать наступления одного случая преимущественно перед другими. Иными словами: равновозможные случаи представляют собою не что иное, как гипотезы, в равной степени для нас проблематичные. Теория вероятностей, следовательно, сводится к подсчету гипотез, к определению отношения числа гипотез, благоприятствующих некоторому событию, к общему числу одинаково проблематичных гипотез. Например, в урне содержится пять белых и пять черных шаров; возможно сделать 10 гипотез о выходе того или иного шара, из которых пять гипотез благоприятствуют появлению белого шара. Отсюда вероятность этого события равна 5/10 = ½.
Д. С. Милль вслед за Лапласом высказывается таким образом о вероятности: «Мы должны помнить, что вероятность того или другого события не есть качество самого этого события, а лишь название для той степени основательности, с какой мы или кто-нибудь другой можем его ожидать. Вероятность данного события, как она представляется одному лицу, отлична от вероятности того же самого события Для другого лица или даже для того же самого лица, раз оно получит новые данные относительно этого события»[2].
Эмпиризм Лапласа и Милля приводит к совершенно неудовлетворительному решению. Несостоятельность взглядов Лапласа и Милля в данном вопросе легко обнаруживается при ближайшем рассмотрении теории вероятностей.
В математической теории рассматриваются два рода испытаний: зависимые и независимые от исхода предшествовавших испытаний. Представим себе опять урну с шарами. Пусть нам известно, что урна содержит черные и белые шары, но количество тех и других неизвестно. Испытания состоят в том, что из урны берется наудачу шар, замечается его цвет, после чего шар возвращается в урну, содержимое которой перемешивается. Вероятность выхода белого и черного шаров одинакова, так как оба случая равно неопределенны для нас до выяснения обстоятельств; по выяснении же обстоятельств вероятность принимает значение, отличное от прежнего. При повторении испытаний исход предшествовавших опытов всегда является некоторым указанием, которое содействует выяснению обстоятельств, а потому влечет за собою составление новых гипотез и изменяет вероятность прежних. Таким образом, вероятность при каждом испытании зависит от исхода предшествовавших испытаний. Такая вероятность называется в математической теории вероятностью гипотез; к ней вполне подходят указанные определения Лапласа и Милля, но такого рода испытания имеют второстепенное значение.
Другого рода испытания имеют место, когда бросается монета или кость, или если известно количество шаров того и другого цвета в урне. Здесь испытания независимы, так как все устойчивые обстоятельства выяснены; предшествующие события не могут влиять на вероятность последующих, и вероятность при повторении испытаний не меняется. При бросании кости равновозможность вскрытия каждого из шести очков не может быть сведена к равной неопределенности в представлении субъекта, но основывается на вполне объективном качестве: на симметрии кости. Из симметрии граней кости вытекает строго одинаковое отношение к внешним влияниям. Положим, что при бросании кости вскрылось одно очко. Но если бы в бросающей руке расположение первой грани занимала какая-либо другая грань, то вскрылась бы эта последняя. Таким образом, одно и то же движение руки может привести к шести различным исходам, в зависимости от шести возможных вполне эквивалентных и друг друга заметающих начальных положений кости в руке. Отсюда следует также, что исследование внешних влияний излишне; все дело в неустойчивом расположении кости по отношению к внешним влияниям и в симметрии самой кости. Если все шары в урне одинакового размера и веса, то они также вполне симметричны в отношении к внешним влияниям, и каждое движенце руки может извлечь из урны любой шар, в зависимости от расположения последних.
Но только вероятность, основанная на симметрии, имеет значение при массовых испытаниях. Если симметричная кость бросается 6000 раз, то можно быть уверенным, что число выпадений одного очка будет близко к 1000. Если 10 000 раз вынимается шар из урны, содержащей 5 белых и 5 черных шаров, то белый шар будет извлечен около 5000 раз. Если же число белых и черных шаров в урне неизвестно, то хотя вероятность и равна опять половине, но ожидать выхода белого шара около 5000 раз при 10 000 испытаний нет никаких оснований.
Таким образом, понятие вероятности, которое дают Лаплас и Милль, вовсе неприменимо к массовым испытаниям, а относится только к единичным испытаниям и является пережитком младенческого периода теории вероятностей, когда ее предметом было исследование шансов в азартных играх.
Теорема Бернулли и все другие теоремы, на которых основывается закон больших чисел, в своем условии требуют ряда независимых испытаний. Но субъективная вероятность не может дать независимых испытаний. Следовательно, закон больших чисел основывается не на субъективной вероятности, а на объективных свойствах вещей.
В теории вероятностей имеет важное значение различие вероятности a priori и вероятности a posteriori. Вероятность при независимых испытаниях называется также вероятностью a priori. Если мы не знаем свойств объекта, над которым производятся испытания, то мы можем получить приближенное значение истинной вероятности a posteriori после большого количества испытаний. Так, если 1000 раз вынимался шар из урны, при чем белый шар появился 296 раз, то мы можем заключить, что отношение числа белых шаров в урне к общему количеству шаров равно 3/10 и, следовательно, такова будет объективная вероятность выхода белого шара.
Рассуждая отвлеченно, казалось бы, что вероятность a posteriori имеет преимущество перед вероятностью a priori: мы не можем знать с полной точностью всех свойств объектов, над которыми производятся испытания, не можем иметь абсолютно симметричной кости или монеты, а следовательно, не можем вполне точно a priori определить вероятность. После весьма большого количества испытаний мы можем определить вероятность весьма точно. Следовательно, вероятность a posteriori имеет преимущество.
Но в действительности дело обстоит как раз наоборот. Возможно, например, так точно выточить кость или отчеканить монету, что преимущество той или другой стороны будет совершенно ничтожно. Убедиться в том, что здесь имеет место не полная симметрия и некоторое ничтожное преимущество орла или решетки, или какой-либо грани кости, и найти поправку к априорной вероятности возможно только после такого колоссального количества испытаний, какое вовсе недоступно для эксперимента, для которого не хватило бы многих человеческих жизней. Таким образом, есть много случаев, где априорная вероятность имеет определенное преимущество. В нашем распоряжении имеется ограниченное количество испытаний; поэтому статистические выводы не бывают строго точными.
Указанное различие очень важно, так как именно на нем основывается различие методов статистической механики и статистики. Статистическая механика применяет вероятность a priori, статистика — вероятность a posteriori.