Chodziło o samą definicję prawdopodobieństwa, która mówi (przynajmniej w ujęciu von Misesa), że z liczbą powtórzeń częstość (vel częstotliwość) występowania pewnego zdarzenia zbliża się do prawdopodobieństwa jego wystąpienia.
W tym ujęciu - ekspert podaje stricte częstość i tylko to. Ale rzeczywiście sorry - to już teoretyzowanie, a przy jednej próbie zostawmy rozkład Bernoulliego.
Manipulowanie losowością wyobrażam sobie tak:
1. piszę kod silnika - próbuję ustawić różne współczynniki (powiedzmy liniowe) na obliczenie różnych prawdopodobieństw, przykładowo:
- siła drużyny za każdy poziom ważności rośnie o 7,6%
- za grę w domu doliczam 10%+1*centrum prasowe
- za grę strefą przeciw MO dodaję 2% szansy na win w danej kwarcie
- za grę ZO przeciw strefie dodaję 3% jw.
- za grę wyższym centrem niż przeciwnik dodaję większą szansę na bloki i zbiórki
itd. itd. - losuję zgodnie z wyliczonymi w ten sposób prawdopodobieństwami funkcją random - punkty i inne zdarzenia - rozkładam na zawodników wg jakichś współczynników itp.
2. gdyby na tym się skończyło - wyniki w różnych ujęciach byłyby zgodne z rozkładem normalnym, czyli "spodziewalne" mniej więcej zgodnie z naszą intuicją, poza rzadkimi niespodziankami.
3. tymczasem odnoszę wrażenie, że są dodane specjalne mechanizmy, które rozwalają taką "normalną" losowość - część wyników lecimy poza mechanizmem silnika - dając rozkłady z kosmosu.