Английский - русский
Перевод слова Entropy
Вариант перевода Энтропия

Примеры в контексте "Entropy - Энтропия"

Все варианты переводов "Entropy":
Примеры: Entropy - Энтропия
What he didn't explain was why the entropy was ever low in the first place. Но он не объяснил, почему энтропия изначально была низкой.
I mean, the TARDIS could get in there, all right, but entropy would bleed her power sources, you see? ТАРДИС с лёгкостью может туда попасть, но энтропия разрядит её источники энергии, понимаешь?
Entropy is defined in the context of a probabilistic model. Энтропия является количеством, определённым в контексте вероятностной модели для источника данных.
The entropy would drain the energy from my heart. Энтропия выжмет энергию из моего сердца
At the microscopic level, this transfer of energy results in increasing molecular agitation, which we call entropy. На микроскопическом уровне, это выделение энергии является результатом возрастающего малекулярного возмущения, который называется "энтропия".
So, the lesson from physics is that entropy will always increase; it's a fundamental law. Таким образом, из физики этого процесса следует вот что: Энтропия системы растет - это фундаментальный закон.
The reason why entropy increases is simply because there are many more ways to be high entropy than to be low entropy. Энтропия увеличивается просто потому, что есть гораздо больше способов быть в состоянии высокой энтропии, чем низкой.
So it's not that entropy must always increase - you can get fluctuations into lower entropy, more organized situations. Так что энтропия не должна всегда увеличиваться - могут быть флуктуации в более низкую энтропию, в более организованные ситуации.
In particular, it is the natural extension of the principle of maximum entropy from discrete to continuous distributions, for which Shannon entropy ceases to be so useful (see differential entropy), but the Kullback-Leibler divergence continues to be just as relevant. В частности, это естественное расширение принципа максимума энтропии из дискретного до непрерывного распределения, для которого энтропия Шеннона прекращается, чтобы быть очень удобной (см. дифференциальная энтропия), но РКЛ продолжает быть столь же актуальной.
From an information-theoretic point of view, the amount of randomness, the entropy that can be generated, is equal to the entropy provided by the system. С точки зрения теории информации количество случайности - энтропия, которая может быть получена, равна энтропии, предоставляемой системой.
However, this flatness depends on how well-approximated the calculated entropy is to the exact entropy, which naturally depends on the value of f. Хотя, эта равномерность зависит от того, насколько посчитанная энтропия близка к точной энтропии, что зависит от f {\displaystyle f}.
Why did the universe have such low entropy in the past, and time correlates with the universal (but not local) increase in entropy, from the past and to the future, according to the second law of thermodynamics? Почему у Вселенной была такая низкая энтропия в прошлом, и почему время соотносится с универсальным (а не локальным) увеличением энтропии из прошлого в будущее согласно второму закону термодинамики?
So he says - I'm not going to do the accent - he says, "For some reason, the universe, at one time, had a very low entropy for its energy content, and since then the entropy has increased. И он говорит - я не буду имитировать акцент - он говорит, "По какой-то причине вселенная когда-то имела слишком низкую энтропию для той энергии, которую она содержала, и с того момента энтропия увеличивалась.
In 1905, Einstein noted that the entropy of the quantized electromagnetic field oscillators in a box is, for short wavelength, equal to the entropy of a gas of point particles in the same box. В 1905 году Эйнштейн заметил, что энтропия электромагнитного поля в ящике, которое по Планку изображается квантованными гармоническими осцилляторами, для случая коротких волн равна энтропии газа точечных частиц в таком же самом ящике, причём количество частиц равно количеству квантов.
A universal code is asymptotically optimal if the ratio between actual and optimal expected lengths is bounded by a function of the information entropy of the code that, in addition to being bounded, approaches 1 as entropy approaches infinity. Универсальный код асимптотически оптимален, если коэффициент между фактическими и оптимальными ожидаемыми длинами связывает функция информационной энтропии кода, которая приближается к 1, так как энтропия приближается к бесконечности.
The entropy you released is eroding your systems, too. Энтропия, которую ты вызвал, разрушает и твои устройства.
For instance, the word entropy (about 10 bits per word) is similar to that of English or Latin texts. Например, повторяемость слов соответствует закону Ципфа, а информационная энтропия (около десяти битов на слово) такая же, как у латинского и английского языков.
It makes this distribution of energy a democratizing force, which is ultimately good for your brand. So, the lesson from physics is that entropy will always increase; it's a fundamental law. Таким образом, из физики этого процесса следует вот что: Энтропия системы растет - это фундаментальный закон.
A high entropy arrangement is one that there are many arrangements that look is a crucially important insight because it helps us explain the second law of thermodynamics - the law that says that entropy increases in the universe, or in some isolated bit of the universe. Это критично важное понятие, потому что оно помогает нам объяснить второй закон термодинамики - он гласит, что энтропия увеличивается во вселенной и в каждой отдельной части вселенной.
Now, from our earlier discussions, we know that entropy is a measure of what? Так, теперь вспомните наши прошлые занятия, показателем чего является энтропия?
The entropy would drain the energy from my heart. Энтропия разрядит моё сердце.
The immersive ugliness of our everyday environments in America is entropy made visible. Всепоглощающая уродливость нашего повседневного окружения в Америке - это энтропия налицо.
That's the region where entropy is low. Это участок, где энтропия низкая.
What he didn't explain was why the entropy was ever low in the first place. Но он не объяснил, почему энтропия изначально была низкой.
The fact that the entropy of the universe was low was a reflection of the fact that the early universe was very, very smooth. Тот факт, что энтропия вселенной была низкой, было отражением факта, что ранняя вселенная была очень и очень однородной.