Закон больших чисел
Содержание:
- Элементарная теория чисел
- Сущность закона больших чисел и его примеры
- Относительная частота
- Бизнес и финансы
- Варианты
- Доказательство слабого закона
- Справочная информация
- Дополнительные статьи
- История возникновения статистики
- Литература
- Высшая математика мини-справочник для ВУЗов
- Закон больших чисел — ТЕОРИЯ ВЕРОЯТНОСТЕЙ
- Примеры
- Геометрия чисел.
- Ограничение
- Частота
Элементарная теория чисел
В элементарной теории чисел целые числа изучаются без использования методов других разделов математики. Среди основных тематических направлений элементарной теории чисел можно выделить следующие.
- Теория делимости целых чисел.
- Алгоритм Евклида для вычисления наибольшего общего делителя и наименьшего общего кратного.
- Разложение числа на простые множители и основная теорема арифметики.
- Теория сравнений по модулю.
- Цепные дроби.
- Диофантовы уравнения, то есть решение неопределённых уравнений в целых числах.
- Изучение некоторых классов целых чисел — совершенные числа, числа Фибоначчи и др.
- Малая теорема Ферма и её обобщение: теорема Эйлера.
- Нахождение пифагоровых троек, задача о четырёх кубах.
- Занимательная математика — например, построение магических квадратов
Сущность закона больших чисел и его примеры
Закон больших чисел выражает наиболее общие закономерности случайного и необходимого. Когда случайные отклонения «гасят» друг друга, средние показатели, определенные для одной и той же структуры, приобретают форму типичных. Они отражают действия существенных и постоянных фактов в конкретных условиях времени и места.
Определенные посредством закона больших чисел закономерности сильны только тогда, когда представляют массовые тенденции, и они не могут быть законами для отдельных случаев. Так, вступает в силу принцип математической статистики, говорящий, что комплексное действие ряда случайных факторов способно стать причиной неслучайного результата. И наиболее яркий пример действия данного принципа – это сближение частоты наступления случайного события и его вероятности, когда возрастает количество испытаний.
Давайте вспомним обычное бросание монетки. Теоретически орел и решка могут выпасть с одной и той же вероятностью. Это означает, что если, к примеру, бросить монетку 10 раз, 5 из них должна выпасть решка и 5 – орел. Но каждый знает, что так не происходит практически никогда, ведь соотношение частоты выпадения орла и решки может быть и 4 к 6, и 9 к 1, и 2 к 8 и т.д. Однако с увеличением количества подбрасываний монетки, например, до 100, вероятность того, что выпадет орел или решка, достигает 50%. Если же теоретически проводить бесконечное количество подобных опытов, вероятность выпадения монетки обеими сторонами всегда будет стремиться к 50%.
На то, как именно упадет монетка, влияет огромное число случайных факторов. Это и положение монетки на ладони, и сила, с которой совершается бросок, и высота падения, и его скорость и т.д. Но если опытов много, вне зависимости от того, как воздействуют факторы, всегда можно утверждать, что практическая вероятность близка к вероятности теоретической.
А вот еще один пример, который поможет понять сущность закона больших чисел: предположим, что нам нужно оценить уровень заработка людей в каком-то регионе. Если мы будем рассматривать 10 наблюдений, где 9 человек получают 20 тыс. рублей, а 1 человек – 500 тыс. рублей, среднее арифметическое составит 68 тыс. рублей, что, естественно, маловероятно. Но если мы возьмем в расчет 100 наблюдений, где 99 человек получают 20 тыс. рублей, а 1 человек – 500 тыс. рублей, то при расчете среднего арифметического получим 24,8 тыс. рублей, что уже ближе к реальному положению дел. Увеличивая число наблюдений, мы будем заставлять среднее значение стремиться к истинному показателю.
Именно по этой причине для применения закона больших чисел в первую очередь необходимо набрать статистический материал, чтобы получать правдивые результаты, изучая большое число наблюдений. Потому-то и удобно использовать этот закон, опять же, в статистике или социальной экономике.
Относительная частота
Относительная частота это в принципе та же самая частота, которая была рассмотрена ранее, но только выраженная в процентах.
Относительная частота равна отношению частоты на общее число элементов выборки.
Вернемся к нашей таблице:
Пять подтягиваний выполнили 4 человека из 36. Шесть подтягиваний выполнили 5 человек из 36. Восемь подтягиваний выполнили 10 человек из 36 и так далее. Давайте заполним таблицу с помощью таких отношений:
Выполним деление в этих дробях:
Выразим эти частоты в процентах. Для этого умножим их на 100. Умножение на 100 удобно выполнить передвижением запятой на две цифры вправо:
Теперь можно сказать, что пять подтягиваний выполнили 11% участников, 6 подтягиваний выполнили 14% участников, 8 подтягиваний выполнили 28% участников и так далее.
Понравился урок? Вступай в нашу новую группу Вконтакте и начни получать уведомления о новых уроках
Бизнес и финансы
БанкиБогатство и благосостояниеКоррупция(Преступность)МаркетингМенеджментИнвестицииЦенные бумагиУправлениеОткрытые акционерные обществаПроектыДокументыЦенные бумаги — контрольЦенные бумаги — оценкиОблигацииДолгиВалютаНедвижимость(Аренда)ПрофессииРаботаТорговляУслугиФинансыСтрахованиеБюджетФинансовые услугиКредитыКомпанииГосударственные предприятияЭкономикаМакроэкономикаМикроэкономикаНалогиАудитМеталлургияНефтьСельское хозяйствоЭнергетикаАрхитектураИнтерьерПолы и перекрытияПроцесс строительстваСтроительные материалыТеплоизоляцияЭкстерьерОрганизация и управление производством
Варианты
Доказательство слабого закона
Рассмотрим бесконечную последовательность X1,X2,…{\displaystyle X_{1},X_{2},…} независимых и одинаково распределенных случайных величин с конечным математическим ожиданием E(X1)=E(X2)=…=μ<∞{\displaystyle E(X_{1})=E(X_{2})=…=\mu <\infty }, нас интересует сходимость по вероятности
X¯n=1n(X1+⋯+Xn).{\displaystyle {\overline {X}}_{n}={\tfrac {1}{n}}(X_{1}+\cdots +X_{n}).}
Теорема: X¯n →P μ{\displaystyle {\overline {X}}_{n}\ {\xrightarrow {P}}\ \mu }, при n→∞{\displaystyle n\rightarrow \infty }
Предположение о конечной дисперсии D(X1)=D(X2)=…=σ2<∞{\displaystyle D(X_{1})=D(X_{2})=…=\sigma ^{2}<\infty } не является обязательным. Большая или бесконечная дисперсия замедляет сходимость, но ЗБЧ выполняется в любом случае.
Это доказательство использует предположение о конечной дисперсии D(Xi)=σ2{\displaystyle \operatorname {D} (X_{i})=\sigma ^{2}} (для всех i{\displaystyle i}). Независимость случайных величин не предполагает корреляции между ними, мы имеем
D(X¯n)=D(1n(X1+⋯+Xn))=1n2D(X1+⋯+Xn)=nσ2n2=σ2n.{\displaystyle \operatorname {D} ({\overline {X}}_{n})=\operatorname {D} ({\tfrac {1}{n}}(X_{1}+\cdots +X_{n}))={\frac {1}{n^{2}}}\operatorname {D} (X_{1}+\cdots +X_{n})={\frac {n\sigma ^{2}}{n^{2}}}={\frac {\sigma ^{2}}{n}}.}
Математическое ожидание последовательности μ{\displaystyle \mu } представляет собой среднее значение выборочного среднего:
E(X¯n)=μ.{\displaystyle E({\overline {X}}_{n})=\mu .}
Используя неравенство Чебышева для X¯n{\displaystyle {\overline {X}}_{n}}, получаем
P(|X¯n−μ|≥ε)≤σ2nε2.{\displaystyle \operatorname {P} (\left|{\overline {X}}_{n}-\mu \right|\geq \varepsilon )\leq {\frac {\sigma ^{2}}{n\varepsilon ^{2}}}.}
Это неравенство используем для получения следующего:
P(|X¯n−μ|<ε)=1−P(|X¯n−μ|≥ε)≥1−σ2nε2,{\displaystyle \operatorname {P} (\left|{\overline {X}}_{n}-\mu \right|<\varepsilon )=1-\operatorname {P} (\left|{\overline {X}}_{n}-\mu \right|\geq \varepsilon )\geq 1-{\frac {\sigma ^{2}}{n\varepsilon ^{2}}},}
при n→∞{\displaystyle n\rightarrow \infty }, выражение стремится к 1{\displaystyle {\mathit {1}}},
теперь по определению сходимости по вероятности мы получим:
X¯n →P μ{\displaystyle {\overline {X}}_{n}\ {\xrightarrow {P}}\ \mu }, при n→∞{\displaystyle n\rightarrow \infty }.
Доказательство с использованием сходимости характеристических функций
По теореме Тейлора для комплексных функций, характеристическая функция любой случайной величины X{\displaystyle X} с конечным средним μ{\displaystyle \mu } может быть записана как
φX(t)=1+itμ+o(t),t→{\displaystyle \varphi _{X}(t)=1+it\mu +o(t),\quad t\rightarrow 0.}
Все X1,X2,…{\displaystyle X_{1},X_{2},…} имеют одну и ту же характеристическую функцию, обозначим её как φX{\displaystyle \varphi _{X}}.
Среди основных свойств характеристических функций выделим два свойства
φ1nX(t)=φX(tn){\displaystyle \varphi _{{\frac {1}{n}}X}(t)=\varphi _{X}({\tfrac {t}{n}})} и φX+Y(t)=φX(t)φY(t){\displaystyle \varphi _{X+Y}(t)=\varphi _{X}(t)\varphi _{Y}(t)}, X{\displaystyle X} и Y{\displaystyle Y}независимы
Эти правила могут быть использованы для вычисления характеристической функции X¯n{\displaystyle {\overline {X}}_{n}} в терминах φX{\displaystyle \varphi _{X}}
φX¯n(t)=φX(tn)n=1+iμtn+o(tn)n→eitμ,{\displaystyle \varphi _{{\overline {X}}_{n}}(t)=\left^{n}=\left^{n}\,\rightarrow \,e^{it\mu },} при n→∞.{\displaystyle n\rightarrow \infty .}
Предел eitμ{\displaystyle e^{it\mu }}является характеристической функцией непрерывной случайной величины μ{\displaystyle \mu } и, следовательно, по теореме непрерывности Леви, X¯n{\displaystyle {\overline {X}}_{n}}сходится по распределению к μ{\displaystyle \mu }:
X¯n→Dμ{\displaystyle {\overline {X}}_{n}\,{\xrightarrow {\mathcal {D}}}\,\mu }, при n→∞.{\displaystyle n\to \infty .}
Поскольку μ{\displaystyle \mu }- константа, то отсюда следует, что сходимость по распределению к μ{\displaystyle \mu } и сходимость по вероятности к μ{\displaystyle \mu } эквивалентны. Поэтому,
X¯n→Pμ{\displaystyle {\overline {X}}_{n}\,{\xrightarrow {\mathcal {P}}}\,\mu }, при n→∞.{\displaystyle n\to \infty .}
Это показывает, что среднее значение выборки по вероятности сходится к производной характеристической функции в начале координат, если она существует.
Справочная информация
ДокументыЗаконыИзвещенияУтверждения документовДоговораЗапросы предложенийТехнические заданияПланы развитияДокументоведениеАналитикаМероприятияКонкурсыИтогиАдминистрации городовПриказыКонтрактыВыполнение работПротоколы рассмотрения заявокАукционыПроектыПротоколыБюджетные организацииМуниципалитетыРайоныОбразованияПрограммыОтчетыпо упоминаниямДокументная базаЦенные бумагиПоложенияФинансовые документыПостановленияРубрикатор по темамФинансыгорода Российской Федерациирегионыпо точным датамРегламентыТерминыНаучная терминологияФинансоваяЭкономическаяВремяДаты2015 год2016 годДокументы в финансовой сферев инвестиционной
Дополнительные статьи
История возникновения статистики
Статистика – самостоятельная общественная
наука, имеющая свой предмет и метод
исследования. Возникла она из практических
потребностей общественной жизни. Уже
в древнем мире появилась потребность
подсчитать численность жителей
государства, учитывать людей, пригодных
к военному делу, определять количество
скота, размеры земельных угодий и другого
имущества. Информация такого рода была
необходима для сбора налогов, ведения
войн и т.п. В дальнейшем, по мере развития
общественной жизни, круг учитываемых
явлений постепенно расширяется.
Особенно возрос объём собираемой
информации с развитием капитализма и
мировых хозяйственных связей. Потребности
этого периода вынуждали органы
государственного управления и
капиталистические предприятия собирать
для практических нужд обширную и
разнообразную информацию о рынках труда
и сбыта товаров, сырьевых ресурсов.
В середине XVII-го века в
Англии возникло научное направление,
получившее название «политические
арифметики». Начало этому направлению
положили Вильям Пети (1623-1687) и Джон Граунт
(1620-1674). «Политические арифметики» на
основе изучения информации о массовых
общественных явлениях стремились
открыть закономерности общественно
жизни и, таким образом, отметить на
вопросы, возникавшие в связи с развитием
капитализма.
Наряду со школой «политических
арифметиков» в Англии, в Германии
развивалась школа описательной статистики
или «государствоведения». Возникновение
этой науки относится к 1660 г.
Развитие политической арифметики и
государствоведения привело к появлению
науки статистики.
Понятие «статистика» происходит от
латинского слова «status»,
которое в переводе означает положение,
состояние, порядок явлений.
В научный оборот термин «статистика»
ввел профессор Геттингенского университета
Готфрид Ахенваль (1719-1772).
В зависимости от объекта изучения
статистика как наука подразделяется
на социальную, демографическую,
экономическую, промышленную, торговую,
банковскую, финансовую, медицинскую и
т.д. Общие свойства статистических
данных, независимо от их природы и методы
их анализа рассматриваются математической
статистикой и общей теорией статистики.
Литература
-
Ширяев А. Н.
Вероятность, — М
.: Наука. 1989. -
Чистяков В. П.
Курс теории вероятностей, — М
., 1982.
Wikimedia Foundation
.
2010
.
- Кинематограф России
- Громека, Михаил Степанович
Смотреть что такое «Закон больших чисел» в других словарях:
ЗАКОН БОЛЬШИХ ЧИСЕЛ
— (law of large numbers) В том случае, когда поведение отдельных представителей населения отличается большим своеобразием, поведение группы в среднем более предсказуемо, чем поведение любого ее члена. Тенденция, в соответствии с которой группы… … Экономический словарь
ЗАКОН БОЛЬШИХ ЧИСЕЛ
— см. БОЛЬШИХ ЧИСЕЛ ЗАКОН. Antinazi. Энциклопедия социологии, 2009 … Энциклопедия социологии
Закон Больших Чисел
— принцип, согласно которому количественные закономерности, присущие массовым общественным явлениям, наиболее явным образом проявляются при достаточно большом числе наблюдений. Единичные явления в большей степени подвержены воздействию случайных и… … Словарь бизнес-терминов
ЗАКОН БОЛЬШИХ ЧИСЕЛ
— утверждает, что с вероятностью, близкой к единице, среднее арифметическое большого числа случайных величин примерно одного порядка будет мало отличаться от константы, равной среднему арифметическому из математических ожиданий этих величин. Разл.… … Геологическая энциклопедия
закон больших чисел
— — Тематики электротехника, основные понятия EN law of averageslaw of large numbers … Справочник технического переводчика
закон больших чисел
— didžiųjų skaičių dėsnis statusas T sritis fizika atitikmenys: angl. law of large numbers vok. Gesetz der großen Zahlen, n rus. закон больших чисел, m pranc. loi des grands nombres, f … Fizikos terminų žodynas
ЗАКОН БОЛЬШИХ ЧИСЕЛ
— общий принцип, в силу к рого совместное действие случайных факторов приводит при нек рых весьма общих условиях к рез ту, почти не зависящему от случая. Сближение частоты наступления случайного события с его вероятностью при возрастании числа… … Российская социологическая энциклопедия
Закон больших чисел
— закон, гласящий, что совокупное действие большого числа случайных факторов приводит, при некоторых весьма общих условиях, к результату, почти не зависящему от случая … Социология: словарь
ЗАКОН БОЛЬШИХ ЧИСЕЛ
— статистический закон, выражающий связь статистических показателей (параметров) выборочной и генеральной совокупности. Фактические значения статистических показателей, полученные по некоторой выборке, всегда отличаются от т.н. теоретических… … Социология: Энциклопедия
ЗАКОН БОЛЬШИХ ЧИСЕЛ
— принцип, по которому частота финансовых потерь определенного вида может быть предсказана с высокой точностью тогда, когда есть большое количество потерь аналогичных видов … Энциклопедический словарь экономики и права
Книги
Комплект таблиц. Математика. Теория вероятностей и математическая статистика. 6 таблиц + методика , . Таблицы отпечатаны на плотном полиграфическом картоне размером 680 х 980 мм. В комплект входит брошюра с методическими рекомендациями для учителя. Учебный альбом из 6 листов. Случайные…
Высшая математика мини-справочник для ВУЗов
Закон больших чисел — ТЕОРИЯ ВЕРОЯТНОСТЕЙ
Закон больших чисел — это совокупность предложений, в которых утверждается, что с вероятностью сколь угодно близкой к единице отклонение средней арифметической достаточно большого числа случайных величин от постоянной величины, равной средней арифметической их математических ожиданий, не превзойдет заданного сколь угодно малого числа ε > 0.
Неравенство Маркова. Если случайная величина X не принимает отрицательных значений и δ — произвольная положительная величина, то вероятность того, что значения случайной величины X не превзойдут величины δ, не превысит 1 – a/δ, где а есть математическое ожидание X
Неравенство Чебышева. Вероятность того, что отклонение случайной величины от ее математического ожидания превзойдет по модулю положительное число 5, не больше дроби, числитель которой есть дисперсия случайной величины, а знаменатель — квадрат δ:
Теорема Чебышева. Если дисперсия попарно независимых случайных величин не превосходит заданного положительного числа С, то вероятность того, что абсолютное отклонение средней арифметической таких величин от средней арифметической их математических ожиданий меньше некоторого числа е, с возрастанием количества случайных величин становится сколь угодно близкой к единице
где X1, Х2, …, Xn — случайные величины, a1, a2, …, an — их математические ожидания, ε > 0, δ > 0.
Следствие из теоремы Чебышева. Если независимые случайные величины имеют одинаковые равные а математические ожидания, дисперсии их ограничены одной и той же постоянной С, а их число достаточно велико, то, как бы ни было мало данное число ε > 0, вероятность того, что отклонение средней арифметической этих случайных величин от а не превысит по абсолютной величине ε, сколь угодно близка к единице
Теорема Пуассона. Если вероятность рi наступления события А в i-м испытании (i = 1, 2, …, n) не меняется, когда становится известным исход предыдущих испытаний, а число испытанийn достаточно велико, то вероятность того, что относительная частота события А будет сколь угодно мало отличаться от средней арифметической вероятностей pi, сколь угодно мала.
Теорема Бернулли. Если вероятность p наступления события А в каждом из n независимых испытаний постоянна, а число испытаний достаточно велико, то вероятность того, что относительная частота события А будет сколь угодно мало отличаться от его вероятности, сколь угодно близка к единице.
Теорема Ляпунова. Если имеется п независимых случайных величин X1, Х2, …, Хn с математическими ожиданиями a1, а2, …, аn и с дисперсиями D(X1), D(X2), …, D(Xn), причем отклонения всех случайных величин от их математических ожиданий не превышают по абсолютной величине одного и того же числа ε > 0:
|Xi – ai| ≤ ε,
а все дисперсии ограничены одним и тем же числом С:
D(Хi) ≤ С,
то при достаточно большом п сумма случайных величин X1, Х2, …, Хn будет подчинена закону распределения, как угодно близкому к закону нормального распределения.
Предыдущая
Следующая
Примеры
Например, один бросок правильной шестигранной кости дает одно из чисел 1, 2, 3, 4, 5 или 6, каждое с равной вероятностью . Таким образом, ожидаемое значение среднего бросков составляет:
- 1+2+3+4+5+66знак равно3.5{\ displaystyle {\ frac {1 + 2 + 3 + 4 + 5 + 6} {6}} = 3,5}
Согласно закону больших чисел, если бросается большое количество шестигранных игральных костей, среднее из их значений (иногда называемое выборочным средним ), вероятно, будет близко к 3,5, причем точность возрастает по мере того, как бросается больше кубиков.
Из закона больших чисел следует, что эмпирическая вероятность успеха в серии испытаний Бернулли будет сходиться с теоретической вероятностью. Для случайной величины Бернулли ожидаемое значение — это теоретическая вероятность успеха, а среднее значение n таких переменных (при условии, что они независимы и одинаково распределены (iid) ) — это именно относительная частота.
Например, справедливое подбрасывание монеты — это испытание Бернулли. Когда справедливая монета переворачивается раз, теоретическая вероятность того, что результат будет головки равен 1 / 2 . Таким образом, в соответствии с законом больших чисел, доля голов в «большом» количестве бросков монеты «должно быть» примерно 1 / 2 . В частности, доля головок после п переворачивает будет почти наверняка сходится к 1 / 2 , как п стремится к бесконечности.
Хотя пропорция орла (и решки) приближается к 1/2, почти наверняка абсолютная разница в количестве орлов и решек станет большой по мере того, как количество флипов становится большим. То есть вероятность того, что абсолютная разница является малым числом, приближается к нулю, когда количество переворотов становится большим. Кроме того, почти наверняка отношение абсолютной разницы к количеству флипов будет приближаться к нулю. Интуитивно ожидаемая разница растет, но медленнее, чем количество переворотов.
Еще один хороший пример LLN — метод Монте-Карло . Эти методы представляют собой широкий класс вычислительных алгоритмов, которые полагаются на повторную случайную выборку для получения численных результатов. Чем больше количество повторений, тем лучше приближение. Причина, по которой этот метод важен, в основном состоит в том, что иногда трудно или невозможно использовать другие подходы.
Геометрия чисел.
В общих чертах можно сказать, что геометрия чисел включает в себя все приложения геометрических понятий и методов к теоретико-числовым проблемам. Отдельные соображения такого рода появились в 19 в. в работах Гаусса, П.Дирихле, Ш.Эрмита и Г.Минковского, в которых для решения некоторых неравенств или систем неравенств в целых числах использовались их геометрические интерпретации. Минковский (1864–1909) систематизировал и унифицировал все, сделанное в этой области до него, и нашел новые важные приложения, особенно в теории линейных и квадратичных форм. Он рассматривал n неизвестных как координаты в n-мерном пространстве. Множество точек с целыми координатами получило название решетки. Все точки с координатами, удовлетворяющими требуемым неравенствам, Минковский интерпретировал как внутренность некоторого «тела», и задача состояла в том, чтобы определить, содержит ли данное тело какие-либо точки решетки. Фундаментальная теорема Минковского утверждает, что если тело выпукло и симметрично относительно начала координат, то оно содержит хотя бы одну точку решетки, отличную от начала координат, при условии, что n-мерный объем тела (при n = 2 это площадь) больше, чем 2n.
Многие вопросы естественно приводят к теории выпуклых тел, и именно эта теория была развита Минковским наиболее полно. Затем на долгое время опять наступил застой, но с 1940, в основном благодаря работам английских математиков, наметился прогресс в развитии теории невыпуклых тел.
Ограничение
Среднее значение результатов, полученных в результате большого количества испытаний, в некоторых случаях может не совпадать. Например, среднее значение n результатов, взятых из распределения Коши или некоторых распределений Парето (α <1), не будет сходиться при увеличении n ; Причина — тяжелые хвосты . Распределение Коши и распределение Парето представляют два случая: распределение Коши не имеет математического ожидания, тогда как математическое ожидание распределения Парето (α <1) бесконечно. Другой пример: случайные числа равны касательной к углу, равномерно распределенному между -90 ° и + 90 °. Медиана равна нулю, но ожидаемое значение не существует, и на самом деле среднее значение п такие переменные имеют такое же распределение , как одной такой переменной. Оно не сходится по вероятности к нулю (или любому другому значению), когда n стремится к бесконечности.
Частота
Частота это число, которое показывает сколько раз в выборке встречается тот или иной элемент.
Предположим, что в школе проходят соревнования по подтягиваниям. В соревнованиях участвует 36 школьников. Составим таблицу в которую будем заносить число подтягиваний, а также число участников, которые выполнили столько подтягиваний.
По таблице можно узнать сколько человек выполнило 5, 10 или 15 подтягиваний. Так, 5 подтягиваний выполнили четыре человека, 10 подтягиваний выполнили восемь человек, 15 подтягиваний выполнили три человека.
Количество человек, повторяющих одно и то же число подтягиваний в данном случае являются частотой. Поэтому вторую строку таблицы переименуем в название «частота»:
Такие таблицы называют таблицами частот.
Частота обладает следующим свойством: сумма частот равна общему числу данных в выборке.
Это означает, что сумма частот равна общему числу школьников, участвующих в соревнованиях, то есть тридцати шести. Проверим так ли это. Сложим частоты, приведенные в таблице:
4 + 5 + 10 + 8 + 6 + 3 = 36