успешного обнаружения искомого предмета) Следовательно, вероятность dP прямо пропорциональна dV и связана с ней следующим соотношением:
dP =|ψ |2 dV
Коэффициент пропорциональности в этой формуле |ψ |2 – это квадрат амплитуды волновой функции.
Волновая функция - это величина, которая в квантовой механике полностью описывает состояние микрообъекта (электрона, протона, атома и т.п.) и вообще любой квантовой системы.
Исторически название "волновой" эта функция получила потому, что уравнение, определяющее эту функцию (уравнение Шрёдингера, о котором речь пойдет далее), внешне похоже на уравнение, описывающее волновые процессы (функция типа Sin, Cos или, в общем виде, экспонента). Но на самом деле мы не можем ассоциировать волновую функцию микрочастицы с какой-то физической реальностью, как в случае звуковых или морских волн. Волновая функция – понятие чисто математическое, и имеет вероятностный смысл.
Для того, чтобы обеспечить понимание волновой функции, нам необходимо познакомиться с основными положениями теории вероятностей. Эта тема, как правило, не входит в обычный школьный курс математики, хотя на самом деле здесь нет ничего сложного.
Основные положения теории вероятностей
Окружающий нас мир полон случайностей. Номера выигрышных билетов в лотерее, количество солнечных дней в году, результаты спортивных состязаний, выпадение "решки" при подбрасывании монеты, неожиданная случайная встреча, кардинально переворачивающая судьбу – все это примеры случайных событий, происходящих с нами в повседневной жизни и влияющих на наши решения и поступки. Философу Леониду Ионину принадлежат замечательная фраза: "Биография человека определяется тысячью случайностей: случайностью места и времени рождения, случайностью родителей, случайностью школы, вуза, места работы. Выбор профессии всегда случаен… тысячи случайностей определяют течение жизни".
Теория вероятностей не занимается предсказанием того, произойдет или не произойдет какое-то реальное событие. Она предлагает математический аппарат для анализа и прогнозирования вероятности его появления. Предмет изучения теории вероятностей – это объективные вероятностные закономерности случайных событий, существующие объективно, то есть вне зависимости от наших желаний и предпочтений.
Исторически зарождение теории вероятностей связано с поиском закономерностей в азартных играх, таких как карты и кости. Именно тогда были предприняты первые попытки математического прогнозирования и
количественного определения шансов на успех. Так, исходными понятиями здесь являются понятия "случайное событие" и "испытание" (опыт, эксперимент).
Случайное событие – это явление, или процесс, или факт, которое при одних и тех же условиях может или произойти, или не произойти. Обычно обозначаются прописными латинскими буквами – А, B, C,D и т.д.
Испытание – это создание и осуществление этих неопределенных условий. Любое испытание приводит к результату или исходу, который заранее невозможно точно предсказать.
Такие случайные события происходят повсеместно – в природе, науке, технике, экономике, военном деле и т.д. Приведем простейшие примеры испытаний и соответствующих им случайных событий.
№ |
Испытание |
События |
1 |
Бросание монеты |
Выпадение "орла" или "решки" |
2 |
Бросание игральной кости |
Выпадение 1,2,3,4,5 или 6 |
3 |
Выстрел по цели |
Попадание в цель или промах |
4 |
Извлечение карты из |
Извлечение карты одного |
|
колоды |
цвета, масти или достоинства |
Говоря об испытании, в теории вероятностей обычно подразумевается не какой-то реальный опыт, а мысленный эксперимент, то есть мысленной моделирование той или иной ситуации.
Случайные события могут быть:
а) достоверными или невозможными;
Достоверным называется событие, которое в данных условиях всегда происходит, невозможным – если оно никогда не может быть результатом данного испытания.
Например при бросании монеты событие
А – "Выпадение какой-либо стороны монеты" будет достоверным, а B – "Одновременное выпадение "решки" и "орла"" – невозможным.
б) зависимыми или независимыми;
Если появление одного события влечет за собой появление другого, то говорят, что второе событие зависит от первого.
в) равновероятными или неравновероятными;
Например, в случае бросания игральной кости, события выпадения каждой цифры равновероятны (если, конечно, это "честная" кость, без смещенного центра тяжести).
А вот вероятности события "В полдень в Москве выпадет снег", будут сильно различаться в зависимости от времени года, соответствующего данному испытанию.
К определению самого понятия вероятности существует несколько различных подходов. В рамках данного курса мы рассмотрим лишь те из них, которые необходимы нам для понимания изучаемых квантовых явлений, а именно
– классический и статистический подходы.
Классическое определение вероятности исторически сложилось первым.
Оно имеет место в случаях, когда случайные события являются равновероятными. Для начала рассмотрим пример: предположим, в корзине лежат 10 шаров одинакового размера, из которых 6 – красных, 3 – зеленых и 1 – желтый. Все шары хорошо перемешаны, а опыт состоит в том, что мы наудачу вытаскиваем один шар из корзины.
Результатом этого опыта будет служить одно из следующих случайных
событий ω1, ω2, … , ω10, где ω1, ω2, ω3, ω4, ω5, ω6 – выпадение красного шара ω7, ω8, ω9 – выпадение зеленого шара
ω10 – выпадение желтого шара
Интуитивно понятно, что вероятность выпадения красного шара выше, чем остальных, поскольку среди всех возможных исходов количество возможных благоприятных исходов, соответствующих этому событию выше.
Таким образом, вероятность – это отношение числа благоприятных событию исходов m к общему числу всех равновозможных исходов n. Обычно вероятность обозначают буквой P (от англ. "probability" - вероятность). Вероятность в данном случае понимается как количественная мера объективной возможности появления случайного события А и определяется формулой
P(A) = mn
В нашем примере событиям выпадения красного, зеленого и желтого шара будут соответствовать вероятности: 6/10, 3/10 и 1/10.
Функция вероятности обладает некоторыми специальными свойствами.
1. 0 ≤ P ≤1, так как количество благоприятных событию исходов не может быть больше их общего числа.
2.Вероятность достоверного события = 1
3.Вероятность невозможного события = 0
Статистическое определение вероятности
Классическим подходом к вероятности удобно пользоваться, когда количество всех равновозможных исходов в опыте ограничено и не слишком
велико. Однако эти условия не всегда могут быть реализованы на практике: иногда приходится решать задачи, в которых число исходов постоянно меняется или бесконечно велико. Кроме того, далеко не всегда события могут быть равновероятными.
Практика показывает, что массовые случайные явления обладают одним уникальным свойством: с увеличением числа испытаний повышается устойчивость их появления. Например, если повторить опыт бросания монетки 100 раз, то, очевидно, что примерно в 50% испытаний выпадет "орел", а в 50% - "решка". Если увеличить число испытаний до 1000 раз, это в конце-концов приведет к еще большей устойчивости частоты полученных значений, а это уже определенная закономерность.
При статистическом подходе нас интересует не исход отдельно взятого испытания, а то, что получается в результате его многократного повторения, то есть в качестве статистической вероятности события принимают число, примерно равное частоте появления того или иного события при неограниченном увеличении числа испытаний.
Например, если в результате достаточно большого числа испытаний оказалось, что относительная частота весьма близка к числу 0,4, то это число можно принять за статистическую вероятность события.
Статистический вероятностный подход используется повсеместно для анализа и прогнозирования событий, процессов, явлений. На его основе построены некоторые научные теории физики, квантовой механики, эволюции, генетики, информатики и др. Вероятностно-статистические методы широко применяются в промышленности для контроля качества продукции, технической диагностики оборудования, организации массового обслуживания, астрономических наблюдений и т.д.
В рамках статистического подхода вводится понятия функции плотности распределения вероятности р(х) вид которой определяет закон распределения случайных величин. Существуют самые разные законы распределения – равномерное распределение, распределение Пуассона, распределение Бернулли и др., но наиболее распространено в природе так называемое нормальное распределение, или распределение Гаусса. На рисунке представлен вид функции такого нормального распределения, а смысл его заключается в том, что в результате большого числа испытаний относительная частота появления какогото события группируется вокруг некоторого среднего числа, которое и можно принять за значение статистической вероятности:
Рис 7. График функции плотности вероятности при нормальном распределении
Следующий пример наглядно иллюстрирует данный закон распределения: предположим, мы высыпаем мешок гороха на пол, держа его в одном и том же вертикальном положении. В принципе, после этого существуют некоторая вероятность обнаружить какую-нибудь горошину в любом месте комнаты, закатись она даже в самый дальний угол. Однако, вероятность обнаружения горошины в самом центре образовавшейся на полу "кучки" гораздо выше. Значение вероятности, соответствующее координате центра кучки мы и принимаем за статистическую вероятность.
Другой пример: пусть производится серия выстрелов по цели. Если учесть, что стреляющие стреляют не просто так, наобум, а прилагая все усилия, чтобы попасть в "яблочко", то вероятность обнаружения следа от пули будет возрастать с приближением к центру мишени.
Но "вернемся к нашим баранам". Мы остановились на том, что решаем задачу нахождения микрочастицы в некотором объеме dV, например, ищем местоположение электрона в атоме. Как мы уже знаем, из-за несовершенства измерительных приборов мы не можем точно указать его местоположение, а можем лишь указать вероятность dP его местонахождения в той или иной части объема dV.
Кроме того, мы знаем, что эта вероятность dP прямо пропорциональна dV и связана с ней следующим соотношением:
dP =|ψ |2 dV
где |ψ |2 – это квадрат амплитуды волновой функции, математический смысл которой соответствует как раз функции плотности распределения вероятностей.
Перепишем данное уравнение в виде:
|ψ |2 = dVdP