Публикации по теме 'entropy'


Почему распределение Гаусса - «естественный» выбор (часть 1)
Прекратите отвечать, используя центральную предельную теорему Общим для всех научных теорий является стремление получить наблюдаемые величины, исходя из некоторой абстрактной модели. Обычно предполагается, что параметры теории известны, например, на основе первых принципов, прямого измерения или чего-то более сложного, например соображений симметрии. С другой стороны, в эпоху больших данных все больший интерес вызывает обратный путь от наблюдения к оценке параметров. В такой..

Понимание индекса Джини и получения информации в деревьях принятия решений
Начиная с интеллектуального анализа данных , недавно усовершенствованного универсального подхода, который будет успешно применяться при прогнозировании данных, это благоприятный метод, используемый для анализа данных для выявления тенденций и взаимосвязей. в данных, которые могут вызвать серьезные помехи. Некоторые популярные инструменты, используемые в интеллектуальном анализе данных: искусственные нейронные сети (ИНС) , логистическая регрессия, дискриминантный анализ и..

Может ли модель выбрать обучающий набор?
В области науки о данных и машинного обучения есть известный девиз: « Мусор на входе, мусор на выходе » Это означает, что независимо от того, насколько сложен и сложен ваш современный алгоритм, если данные, которые вы используете для обучения, зашумлены, неинформативны и выбраны без каких-либо критериев, результат будет плохим. Действительно, хорошо известно, что в реальной жизни, когда вы решаете проблему науки о данных, на первых этапах требуется, чтобы вы собирали данные,..

Вопросы по теме 'entropy'

Пожалуйста, исправьте мой код энтропии
Я пишу код для вычисления энтропии строки с энтропией Шеннона. Dim entropytext As String = Result.Text Dim theresult = entropytext.GroupBy(Function(o) o) _ .Select(Function(o) New With {.Count = o.Count(), .Character = o.Key}) _...
396 просмотров
schedule 06.01.2024

Почему эти изображения имеют одинаковую энтропию?
Почему эти два изображения имеют одинаковую энтропию? Эти изображения создаются в MATLAB следующим образом: N = 50; Z1 = randi([0 1],N); Z2 = zeros(N); Z2(1:2:N,1:2:N) = 1; Z2(2:2:N,2:2:N) = 1; subplot(1,2,1)...
657 просмотров
schedule 05.01.2024

Совместная энтропия аудиофайлов
Итак, попробовав тяжелую циклическую функцию для вычисления совместной энтропии двух источников информации, я нашел эту полезную функцию MATLAB, accumarray , и попробовал следующий код: function e = jointEntropy(fonte1, fonte2) i =...
223 просмотров
schedule 27.10.2022

Есть ли в TensorFlow встроенная функция потери расхождения KL?
У меня есть два тензора prob_a и prob_b с формой [None, 1000] , и я хочу вычислить расхождение KL от prob_a до prob_b . Есть ли в TensorFlow для этого встроенная функция? Я пробовал использовать tf.contrib.distributions.kl(prob_a, prob_b) ,...
15581 просмотров
schedule 16.03.2024

Перекрестная потеря энтропии в pytorch nn.CrossEntropyLoss ()
может быть, кто-нибудь сможет мне здесь помочь. Я пытаюсь вычислить потерю кросс-энтропии для данного выхода моей сети. print output Variable containing: 1.00000e-02 * -2.2739 2.9964 -7.8353 7.4667 4.6921 0.1391 0.6118 5.2227 6.2540...
12161 просмотров
schedule 24.04.2024

Какова энтропия байтов XORed CSPRNG с хэшем с низкой энтропией?
Допустим, я беру 256 бит из CSPRNG и предполагаю, что это идеальные 256 бит энтропии. Назовите это рандом. Допустим, я беру sha256 текста ASCII «пароль». Назовите этот хэш. Теперь мы XOR rand и hash. Назовите это смешанным. Энтропия смеси...
57 просмотров
schedule 07.01.2024