recall precision 예제

리콜은 참 긍정 수와 거짓 부정의 합계로 나눈 값의 비율로 계산됩니다. 리콜은 민감도와 동일합니다. 정보 검색 분야에서 정밀도는 쿼리와 관련된 검색된 문서의 일부입니다. 좋은 게시물. 제이슨 감사합니다. 하나의 쿼리. PR 곡선 아래의 면적과 평균 정밀도 점수의 차이는 무엇입니까? 둘 다 비슷한 정의를 가지고 있다고 생각합니다. 예를 들어 실제로 화재가 없을 때 화재 경보가 꺼지는 경우를 들 수 있습니다. 이런 종류의 오류는 “거짓말을 믿는” 또는 “거짓 경보”와 동의어입니다.

이제 정밀도와 리콜에 발을 젖어 버렸으니 좀 더 자세히 살펴보겠습니다. IR(정보 검색) 시나리오에서 인스턴스는 문서이며 작업은 검색어가 지정된 관련 문서 집합을 반환하는 것입니다. 또는 이에 따라 각 문서를 “관련” 및 “관련이 없는” 두 가지 범주 중 하나에 할당합니다. 이 경우 “관련” 문서는 단순히 “관련” 범주에 속하는 문서입니다. 리콜은 검색에서 검색한 관련 문서수를 기존 관련 문서의 총 수로 나눈 값으로 정의하고, 정밀도는 검색에서 검색한 관련 문서의 수를 총 문서 수로 나눈 값으로 정의됩니다. 검색할 수 있습니다. 간단히 말해서, 높은 정밀도는 알고리즘이 관련이 없는 결과보다 실질적으로 더 관련성이 높은 결과를 반환한다는 것을 의미하며, 높은 리콜은 알고리즘이 관련 결과의 대부분을 반환한다는 것을 의미합니다. 정밀도와 리콜은 때때로 서로의 동의어로 혼동되지만, 그렇지 않습니다.

정밀도와 리콜은 어떤 문서 또는 정보 집합이 제시되었는지, 그리고 질문되는 질문에 실제로 유용한 문서의 수를 이해하는 데 매우 유용합니다. 데이터 집합은 많은 예제 또는 데이터 행으로 구성되며 일부는 클래스 0에 속하고 일부는 클래스 1에 속합니다. kNN에서 3개의 샘플을 살펴보고 새 예제의 클래스를 선택합니다. 정밀도와 리콜을 결합하는 측정은 정밀도와 리콜의 고조파 평균, 전통적인 F-측정 또는 균형 잡힌 F 점수입니다: F-측정은 반 Rijsbergen (1979)에 의해 파생되어 F β {디스플레이 스타일 F_{beta}} “의 효과를 측정합니다. β {displaystyle beta }를 연결하는 사용자에 대한 검색은 정밀도로 기억하는 데 많은 중요성을 부여합니다.” α 는 van Rijsbergen의 효과 측정 E α = 1 ~ 1 α P + 1 ~ α R {p스타일 E_{{alpha }=1{p}{{{\\\\R}}},두 번째 용어는 가중치가중치를 가중으로 하는 가중치를 기준으로 합니다. , 1 – α) {디스플레이 스타일 (알파, 1-알파)} . 그들의 관계는 F β = 1 – E α {디스플레이 스타일 F_{베타 }=1-E_{alpha }} 여기서 α = 1 1 + β 2 {pstyle 알파 ={frac {1}{1+beta ^{2}}} } } } 정밀도와 리콜을 생각하는 또 다른 방법은 분류 작업에서 클래스의 정밀도는 진정한 긍정 수(예: 양수 클래스에 속하는 것으로 올바르게 레이블이 지정된 항목 수)를 레이블이 지정된 총 요소 수로 나눈 값입니다. 양수 클래스에 속합니다(즉, 클래스에 속하는 것으로 잘못 표시된 항목인 참 긍정과 거짓 긍정의 합계). 이 컨텍스트에서 리콜은 실제로 양수 클래스에 속하는 요소의 총 수로 나눈 참 긍정 의 수로 정의됩니다( 예: