Спасает только статус абитуриента.
Если мы обращаемся к Шенноновской теории информации (она по-моему самая простая для краткого изложения) то у нас есть мера неупорядоченности системы называемая энтропией.
Здесь соответственно стоит произведение вероятности на двоичный логарифм этой самой вероятности (можно не обязательно двоичный, кстати). Что характеризует вероятность? Это вероятность нахождения системы в том или ином (i-ом по счету, состояния пронумерованы) состоянии.
Например для системы вида "ящик с молекулой внутри" можно выделить два состояния - молекула в левой и правой половинах ящиках. Для случайного движения вероятности равны, а вот если у нас вместо молекулы ион и внутри ящика есть электрическое поле... или ящик поставлен на попа в гравитационном поле... тогда вероятности уже разные. Система упорядочена.
Соотвественно количество информации в сообщениях определяется через изменение вероятностей того, что система находится в определенном состоянии.
А что Вы имели в виду под "невозможно установить никаких закономерностей" и почему система была замкнута? Для случайно рассыпанных по полу горошин мы вполне можем установить закономерности вида "среднее число горошин на квадратный метр такое-то, дисперсия такая-то" - тем не менее это будет вполне себе хаотическая система.