That's the region where entropy is low. |
Это участок, где энтропия низкая. |
Other available filter metrics include: Class separability Error probability Inter-class distance Probabilistic distance Entropy Consistency-based feature selection Correlation-based feature selection The choice of optimality criteria is difficult as there are multiple objectives in a feature selection task. |
Другие возможные метрики фильтров: Отделимость классов Вероятность ошибки Межклассовое расстояние Вероятностное расстояние Энтропия Выбор признаков на основе непротиворечивости Выбор признаков на основе корреляции Выбор критерия оптимальности сложен, так как имеется несколько целей в задаче отбора признаков. |
From an information-theoretic point of view, the amount of randomness, the entropy that can be generated, is equal to the entropy provided by the system. |
С точки зрения теории информации количество случайности - энтропия, которая может быть получена, равна энтропии, предоставляемой системой. |
That's the region where entropy is low. |
Это участок, где энтропия низкая. |
So it's not that entropy must always increase - you can get fluctuations into lower entropy, more organized situations. |
Так что энтропия не должна всегда увеличиваться - могут быть флуктуации в более низкую энтропию, в более организованные ситуации. |