The fact that the entropy of the universe was low was a reflection of the fact that the early universe was very, very smooth. |
Тот факт, что энтропия вселенной была низкой, было отражением факта, что ранняя вселенная была очень и очень однородной. |
The two broadest definitions of independence for ICA are Minimization of mutual information Maximization of non-Gaussianity The Minimization-of-Mutual information (MMI) family of ICA algorithms uses measures like Kullback-Leibler Divergence and maximum entropy. |
Два наиболее широких определения независимости АНК: Минимизация взаимной информации Максимизация негауссовости Семейство алгоритмов АНК с минимизацией взаимной информации (англ. Minimization-of-Mutual information, MMI) использует такие меры, как расхождение Кульбака - Лейблера и максимальная энтропия. |
Other available filter metrics include: Class separability Error probability Inter-class distance Probabilistic distance Entropy Consistency-based feature selection Correlation-based feature selection The choice of optimality criteria is difficult as there are multiple objectives in a feature selection task. |
Другие возможные метрики фильтров: Отделимость классов Вероятность ошибки Межклассовое расстояние Вероятностное расстояние Энтропия Выбор признаков на основе непротиворечивости Выбор признаков на основе корреляции Выбор критерия оптимальности сложен, так как имеется несколько целей в задаче отбора признаков. |
For instance, the word entropy (about 10 bits per word) is similar to that of English or Latin texts. |
Например, повторяемость слов соответствует закону Ципфа, а информационная энтропия (около десяти битов на слово) такая же, как у латинского и английского языков. |
Now, from our earlier discussions, we know that entropy is a measure of what? |
Так, теперь вспомните наши прошлые занятия, показателем чего является энтропия? |