Μετάβαση στο περιεχόμενο

Απόκλιση Kullback–Leibler

Από τη Βικιπαίδεια, την ελεύθερη εγκυκλοπαίδεια

Στην θεωρία πληροφορίας, η απόκλιση Kullback-Leibler (KL)σχετική εντροπία) μεταξύ δύο κατανομών πιθανότητας και ορίζεται ως[1]:19

Για διακριτές τυχαίες μεταβλητές με πεδίο ορισμού , αυτή η ποσότητα είναι ίση με

και για συνεχείς τυχαίες μεταβλητές είναι ίση με

Η ποσότητα αυτή μπορεί να ερμηνευτεί ως η αναμενόμενη τιμή της έξτρα πληροφορίας που χρειάζεται για να κωδικοποιήσουμε την τυχαία μεταβλητή με κατανομή υποθέτοντας ότι στην πραγματικότητα έχει κατανομή .

Η συνάρτηση είναι απόκλιση και όχι μετρική απόσταση καθώς δεν ικανοποιεί την τριγωνική ανισότητα ούτε είναι συμμετρική.[2]

Οι κατανομές πιθανότητας και .

Για τις κατανομές και , η απόκλιση KL δίνεται από

και

Από αυτό το παράδειγμα φαίνεται ότι η απόκλιση δεν είναι συμμετρική.

  • (Μη-μηδενικότητα) Για οποιεσδήποτε δύο κατανομές και , ισχύει ότι
  • (Κυρτότητα) Η απόκλιση Kullback-Leibler είναι κυρτή συνάρτηση στα ζεύγη των κατανομών , δηλαδή για κάθε ζεύγη κατανομών και και για κάθε πραγματικό αριθμό , ισχύει ότι[3]
  • (Ανεξάρτητες μεταβλητές) Η απόκλιση Kullback-Leibler είναι αθροιστική για τις ανεξάρτητες τυχαίες μεταβλητές και , δηλαδή με και ,[4]
  1. Cover, T. M. (2006). Elements of information theory (2η έκδοση). Hoboken, N.J.: Wiley-Interscience. ISBN 9780471241959. 
  2. Αντωνίου, Ιωάννης. «Εξαρτηση από εντροπία» (PDF). Θεωρία πληροφορίας, εντροπία, πολυπλοκότητα. Τμήμα Μαθηματικών, ΑΠΘ. Ανακτήθηκε στις 9 Μαΐου 2023. 
  3. «Proof: Convexity of the Kullback-Leibler divergence». The Book of Statistical Proofs. Ανακτήθηκε στις 9 Μαΐου 2023. 
  4. «Proof: Additivity of the Kullback-Leibler divergence for independent distributions». The Book of Statistical Proofs. Ανακτήθηκε στις 9 Μαΐου 2023.