Помогите разобраться с нормальным распределением в анализе данных!

Привет всем! Пытаюсь сделать статистический анализ данных по нашим последним экспериментам, и никак не могу понять, как правильно применить нормальное распределение. Данные вроде бы ведут себя похоже, но тесты на нормальность показывают противоречивые результаты. Делал все по учебнику: считал среднее, дисперсию, строил гистограммы. Но когда пытаюсь рассчитать p-value, выходит какая-то ерунда. Может, кто-то сталкивался с подобным и может подсказать, где я копаю не туда? Или, может, есть какие-то более продвинутые методы проверки?

рабочее зеркало Крáкен

Подробнее

Кто-нибудь работал с анализом данных на маркетплейсах типа Крáкен?

Интересно, вот, насколько вообще перспективно пытаться анализировать данные с таких площадок? Ну, типа, насколько они вообще открыты, прозрачны и все такое, чтобы вытащить что-то стоящее. У меня тут идея появилась, думаю, может попробовать что-нибудь интересное накопать, используя методы машинного обучения, но даже не знаю, с чего начать.

Кто-нибудь знает, может, есть какие-то открытые проекты или библиотеки для работы с данными с Крáкен маркетплейс, или же, может, кто-то просто поделится опытом? Думаю, если покопаться глубже, можно найти интересные закономерности, но вот технически как к ним подступиться - вопрос.

ссылка на Крáкен

Подробнее

Вероятностные модели лучше детерминированных для описания сложных систем

Наблюдаю тенденцию, что многие научные исследования в области сложных систем, например, в экономике или биологии, все еще пытаются строить на жестких, детерминированных моделях. Это, имхо, прошлый век. Реальность же, как ни крути, полна случайности. Смотрел тут последние разработки в области моделирования климата – там уже давно без стохастики никуда.

Если смотреть на характеристики таких систем, то их поведение редко предсказуемо со 100% точностью. Например, фондовый рынок. Попытка предсказать его движение исключительно на основе вчерашних данных — это как пытаться предсказать погоду на месяц вперёд, глядя в лужу. Новые технологии позволяют собирать такие объемы статистики, что детерминированные модели просто не справляются с обработкой всей этой энтропии.

Поэтому, я считаю, что вероятностные модели — это будущее. Они лучше отражают реальную природу многих процессов. Какие-нибудь инновации в этой сфере точно будут прорывными. А вы как думаете?

Подробнее