- Qual é o significado da informação mútua?
- Como as informações mútuas são calculadas?
- O que significa a pontuação de informação mútua?
- O que isso significa quando informações mútuas são 0?
Qual é o significado da informação mútua?
Informação mútua é uma quantidade que mede uma relação entre duas variáveis aleatórias que são amostradas simultaneamente. Em particular, ele mede quanta informação é comunicada, em média, em uma variável aleatória sobre outra.
Como as informações mútuas são calculadas?
A informação mútua também pode ser calculada como a divergência de KL entre a distribuição de probabilidade articular e o produto das probabilidades marginais para cada variável. - Página 57, Reconhecimento de padrões e aprendizado de máquina, 2006. Isso pode ser declarado formalmente da seguinte forma: i (x; y) = kl (p (x, y) || p (x) * p (y))
O que significa a pontuação de informação mútua?
A pontuação de informação mútua expressa até que ponto a frequência observada de co-ocorrência difere do que esperaríamos (estatisticamente falando). Em termos estatisticamente puros, essa é uma medida da força da associação entre as palavras x e y.
O que isso significa quando informações mútuas são 0?
Se a informação mútua for zero, isso significa que as duas variáveis aleatórias são independentes.