본문 바로가기 메뉴 바로가기

공부방

프로필사진
  • 글쓰기
  • 관리
  • 태그
  • 방명록
  • RSS

공부방

검색하기 폼
  • 분류 전체보기 (21)
    • 독서 (1)
    • 알고리즘 (7)
    • 수학 (3)
    • 개발용 정리 (1)
    • 논문 리뷰 (7)
    • AI (1)
      • pytorch (1)
  • 방명록

KL_Divergence (1)
KL Divergence 유도 과정 진짜 쉽게 알아보기

KL Divergence는 서로 다른 두 확률 분포간의 차이를 계산하기 위해 사용된다. 서로 다른 두 분포 P와 Q에 대해서 KL Divergence는 다음과 같은 식으로 계산된다. 그렇다면, 왜 이러한 식을 사용해서 두 분포간의 차이를 계산할 수 있다는 것일까? 먼저 우리가 차이를 구하고자 하는 두 분포를 정의해보자. True Coin의 분포가 P 분포이고 Coin2의 분포가 Q 분포이다. 우리가 어떤 코인으로 던졌는지 모르고 있는 상태로, 동전의 앞/뒷면이 나온 결과가 주어졌다고 가정하자. 이러한 결과가 주어졌을 때, 1) True Coin일 경우 우리가 얻은 결과가 나올 확률, 2) Coin2일 경우 우리가 얻은 결과가 나올 확률 을 조건부 확률을 이용해서 계산할 수 있다. (위 식에서 앞면이 나온..

수학 2022. 11. 21. 23:11
이전 1 다음
이전 다음
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
TAG
  • 베르누이분포
  • 확률과통계
  • #BOJ #그리디알고리즘
  • DECI
  • NAACL21
  • 파이토치
  • emnlp
  • #브루트포스
  • CoT
  • sliding window
  • #information_retrieval
  • 이산확률분포
  • LeetCode
  • #BOJ
  • Rag
  • 인과관계추론
  • #1405번
  • #BOJ #2467번 #투포인터알고리즘
  • iclr
  • llm agent
  • two-pointers
  • 조건부확률
  • KL_Divergence
  • 이항분포
  • #BOJ #알고리즘 #1034번
  • GCN
  • PyTorch
  • LLM
  • emnlp2024
  • #BOJ #유클리드호제법
more
«   2025/07   »
일 월 화 수 목 금 토
1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30 31
글 보관함

Blog is powered by Tistory / Designed by Tistory

티스토리툴바