Английский - русский
Перевод слова Divergence
Вариант перевода Лейблера

Примеры в контексте "Divergence - Лейблера"

Примеры: Divergence - Лейблера
Many of the other quantities of information theory can be interpreted as applications of the Kullback-Leibler divergence to specific cases. Многие другие величины информационной теории могут быть интерпретированы как применение расстояния Кульбака - Лейблера к частным случаям.
If the actual message probabilities are q(i) and Kullback-Leibler divergence DKL(q||p) is minimized by the code with l(i), then the optimal Huffman code for that set of messages will be equivalent to that code. Если фактические вероятности сообщения - q(i) и расстояние Кульбака - Лейблера DKL(q||p) минимизирует код с l(i), затем оптимальный код Хаффмана для этого множества сообщений будет эквивалентен к этому коду.
The Kullback-Leibler divergence remains well-defined for continuous distributions, and furthermore is invariant under parameter transformations. Расстояние Кульбака - Лейблера остается строго определенным для непрерывных распределений, и кроме того инвариантно относительно замены переменных.
When the error function to be used is Kullback-Leibler divergence, NMF is identical to the Probabilistic latent semantic analysis, a popular document clustering method. Если в качестве функции ошибки используется расстояние Кульбака - Лейблера, НМР идентично вероятностному латентно-семантическому анализу, популярному методу кластеризации документов.
Arthur Hobson proved that the Kullback-Leibler divergence is the only measure of difference between probability distributions that satisfies some desired properties, which are the canonical extension to those appearing in a commonly used characterization of entropy. Артур Хобсон доказал, что расстояние Кульбака - Лейблера - это единственная мера разницы между вероятностными распределениями, которая удовлетворяют некоторым желательным свойствам, являющимся каноническими расширениями для появляющихся в часто используемых характеризациях энтропии.
When NMF is obtained by minimizing the Kullback-Leibler divergence, it is in fact equivalent to another instance of multinomial PCA, probabilistic latent semantic analysis, trained by maximum likelihood estimation. Если НМР получено путём минимизации расстояния Кульбака - Лейблера, это, фактически, эквивалентно другому экземпляру мультиномильной МГК, вероятностному латентно-семантическому анализу, настроенному с помощью оценки максимального правдоподобия.
The Kullback-Leibler divergence is a special case of a broader class of divergences called f-divergences as well as the class of Bregman divergences. Расстояние Кульбака - Лейблера - это частный случай более общего класса расхождений, которые называются f-расхождения, а также частный случай класса расхождений Брегмана.
Use of a logarithmic score function for example, leads to the expected utility taking the form of the Kullback-Leibler divergence. Использование логарифмического правила подсчёта, например, приводит к ожидаемой полезности, принимающей форму расхождение Кульбака - Лейблера.
The two broadest definitions of independence for ICA are Minimization of mutual information Maximization of non-Gaussianity The Minimization-of-Mutual information (MMI) family of ICA algorithms uses measures like Kullback-Leibler Divergence and maximum entropy. Два наиболее широких определения независимости АНК: Минимизация взаимной информации Максимизация негауссовости Семейство алгоритмов АНК с минимизацией взаимной информации (англ. Minimization-of-Mutual information, MMI) использует такие меры, как расхождение Кульбака - Лейблера и максимальная энтропия.