Lingua :
SWEWE Membro :Entra |Registrazione
Cerca
Comunità Encyclopedia |Enciclopedia Risposte |Invia domanda |Conoscenza Vocabolario |Carica conoscenza
Precedente 1 Successivo Selezionare Pagine

Entropia codifica

L'entropia di codifica è l'entropia processo di codifica premendo la codifica senza perdere alcuna informazione. Informazioni fonte entropia di entropia (una misura di incertezza). Codifica entropica comuni sono: la codifica LZW, Shannon (Shannon) codifica, Huffman (Huffman), la codifica e la codifica aritmetica (codifica aritmetica). In codifica video, codifica entropica del numero di elementi utilizzati per rappresentare la sequenza video in un simbolo usato per trasmettere o memorizzare il flusso di codice compresso. Simbolo di ingresso può comprendere i coefficienti quantizzati trasformare, vettori di movimento, le informazioni di intestazione (l'intestazione macro-blocco, testata immagine, la classe di sequenza) e informazioni aggiuntive (per i marcatori informazioni correttamente decodificati sono importanti).Breve introduzione

Tecnologia di compressione dei dati è la base teorica della teoria dell'informazione. Teoria dell'informazione, codifica di sorgente teoria per risolvere i problemi principali: (1) limite teorico compressione di dati, (2) il modo di base di compressione dei dati. Secondo i principi della teoria dell'informazione, e trovare il miglior metodo di codifica dei dati di compressione, la compressione dei dati è l'informazione limite teorico entropia. Se l'importo richiesto di informazioni non viene persa durante la codifica, che richiede la conservazione di entropia dell'informazione, che codifica le informazioni di chiamata codifica dell'entropia è basata sul messaggio di caratteristiche di distribuzione della probabilità di accadimento dei ricorrenti, la compressione senza perdita di dati. [1]

Codifica entropica di codifica

Integer bit Francia

Stringhe di bit di lunghezza diversa utilizzando le lettere codificano determinate difficoltà. In particolare, quasi tutta probabilità l'entropia è un numero razionale.

Proposto un Huffman codifica dei bit (bit) algoritmo intero binario, ma in alcuni casi l'algoritmo non può ottenere i migliori risultati. Questo doveva essere migliorato per fornire il miglior numero intero di bit. Questo algoritmo utilizza albero binario per stabilire un codice. I nodi terminali rappresentano binaria lettera codificato rappresenta il nodo radice di bit utilizzati.

In aggiunta ai dati da codificare per ogni generazione di una forma particolare di metodi ed usando un tavoli codifica fissi. Ad esempio aggiungendo i simboli di dati da codificare in conformità con una certa probabilità di apparire, allora la regola può utilizzare una speciale codifica a lunghezza variabile tabelle. Appare tale tabella di codifica con un certo fattore che rende la possibilità di adattarsi alla effettiva lettera.

Migliorare

Il metodo di utilizzo di un numero intero calcoli entropia bit sono spesso in grado di ottenere il numero di bit utilizzati, quindi la compressione non è necessariamente la migliore.

Ad esempio, la lettera fila da due lettere diverse, di cui la possibilità di una lettera p (A) = 0.75, un'altra possibilità è che la lettera p (B) = 0.25. Questi algoritmi risultato è che ogni lettera dovrebbe essere utilizzato per rappresentare un bit, per cui il numero di bit dei loro risultati con lo stesso numero di lettere.

Tuttavia, le estensioni possono essere un po 'per compensare i difetti di campionamento: il caso del p (AA) = 0.5625, p (AB) = 0.1875, p (BA) = 0.1875, p (BB) = 0,0625, Huffman algoritmo di codifica per ottenere Risultati: in media ogni due lettere (1 0,1875 * 0,5625 * 0,1875 * 2 3 0,0625 * 3) = 1,6875 bit, o una media di ogni lettera 0,84,375 mila bit per rappresentare, al meglio entropia passo è un passo più vicino.

Miglior encoder entropia deve essere usato per la prima lettera - log2 (0,75) ≈ 0.41 bit per la seconda lettera utilizzando - log2 (0.25) = 2 byte, così l'intero risultato è che ogni lettera media - 0.75 * log2 (0.75) - 0.25 * log2 (0,25) ≈ 0,81 bit.

Usando codifica aritmetica può migliorare i risultati, sfruttando al meglio delle informazioni originali in conformità con l'entropia codificato. [2]

Modalità di codifica dell'entropia

Contorno

Per determinare il numero di bit per lettera algoritmo deve conoscere il più precisamente possibile la probabilità di comparsa di ogni lettera. Missione modelli è di fornire questi dati. Previsioni dei modelli migliori risultati di compressione, meglio è. Inoltre, il modello deve fare la stessa compressione e recupero dei dati. Storicamente ci sono molti modelli differenti.

Modello statico

Modello statico di tutto il testo prima della compressione da analizzare e calcolare la probabilità di ogni lettera. I risultati del calcolo per l'intero testo.

Vantaggi:

Tabella di codice può essere calcolata una volta, quindi la codifica ad alta velocità, in aggiunta alla probabilità di decodificare il valore del risultato è certamente migliore rispetto alla lunghezza originale del esterno.

Svantaggi:

Calcolare la probabilità deve essere allegata al testo codificato, il che rende l'intero risultato allungato.

Calcolare la probabilità che la probabilità di tutto il testo, per cui le parti non può essere ordinata ottimizzazione sequenza.

Modello dinamico

In questo modello, la probabilità di cambiare con il processo di codifica. Varietà di algoritmi in grado di raggiungere questo scopo:

Forward dinamico: probabilità è stato codificato secondo le lettere calcolati da codifica ogni volta che una lettera probabilità di sua aumentata.

Inverso Nome: calcolato per ogni lettera prima di codifica non codificato nella porzione restante della probabilità. Come sempre più codificata lettera appaiono durare più a lungo, e la loro probabilità di 0, e aumenta la probabilità di lettere rimanenti, il numero di bit codificati per la loro riduzione. Cattiva condotta aumentato rapporto di compressione, in modo che l'ultima lettera di 0 bit per codificare solo.

Vantaggi:

Modello secondo le diverse parti della particolarità di ottimizzazione.


Precedente 1 Successivo Selezionare Pagine
Utente Recensione
Ancora nessun commento
Io voglio commentare [Visitatore (3.141.*.*) | Entra ]

Lingua :
| Controllare il codice :


Cerca

版权申明 | 隐私权政策 | Diritto d'autore @2018 Mondo conoscenza enciclopedica