4장. 모니터링 모델 거부
데이터 파우더로서 머신러닝 모델을 모니터링해야 할 수 있습니다. 즉, 모델이 생성하는 결과 또는 결정에 영향을 미칠 수 있는 알고리즘적 결함에 대한 모니터링이 이루어집니다. 중요하게, 이러한 유형의 모니터링은 모델이 특정 보호 그룹 또는 기능에 대해 반대되지 않도록하는 데 도움이 됩니다.
Red Hat OpenShift AI는 모델을 모니터링하는 데 도움이 되는 일련의 메트릭을 제공합니다. OpenShift AI 인터페이스를 사용하여 사용 가능한 메트릭을 선택한 다음 보호된 속성, 권한이 부여된 그룹, 권한이 없는 그룹, 모니터링하려는 결과, 준비 임계값과 같은 모델별 세부 정보를 구성할 수 있습니다. 그런 다음 지정된 수의 모델 유추에 대해 계산된 값의 차트가 표시됩니다.
특정 비관적 지표에 대한 자세한 내용은 지원 대상 메트릭을 참조하십시오.
4.1. 유도 메트릭 생성 링크 복사링크가 클립보드에 복사되었습니다!
배포된 모델을 모니터링하려면 먼저 조정 메트릭을 생성해야 합니다. 의도적 지표를 생성할 때 보호되는 속성, 권한 및 권한이 없는 그룹, 모델 결과 및 모니터링하려는 값과 같은 모델 관련 세부 정보, 준비에 대한 허용 가능한 임계값을 지정합니다.
특정 비관적 지표에 대한 자세한 내용은 지원 대상 메트릭을 참조하십시오.
TrustyAI 메트릭의 전체 목록은 TrustyAI 서비스 API 를 참조하십시오.
OpenShift AI 대시보드를 사용하거나 OpenShift CLI(명령줄 인터페이스)를 사용하여 모델에 대한 무분별 메트릭을 생성할 수 있습니다.
4.1.1. 대시보드를 사용하여 유도 메트릭 생성 링크 복사링크가 클립보드에 복사되었습니다!
OpenShift AI 대시보드를 사용하여 모델에 대한 거부 메트릭을 생성할 수 있습니다.
사전 요구 사항
- OpenShift AI가 지원하는 모호한 지표 와 해석 방법에 대해 잘 알고 있습니다.
- 특정 데이터 세트 스키마에 익숙하고 입력 및 출력의 이름과 의미를 이해하고 있습니다.
- OpenShift 클러스터 관리자는 OpenShift 클러스터에 사용자로 사용자를 추가하고 배포된 모델이 포함된 데이터 사이언스 프로젝트에 대한 TrustyAI 서비스를 설치했습니다.
- 프로젝트에 대한 TrustyAI 설정에 설명된 대로 데이터 사이언스 프로젝트에 대한 TrustyAI를 설정합니다.
프로세스
선택 사항:
TRUSTY_ROUTE변수를 설정하려면 다음 단계를 따르십시오.터미널 창에서 OpenShift AI가 배포된 OpenShift 클러스터에 로그인합니다.
oc login
oc loginCopy to Clipboard Copied! Toggle word wrap Toggle overflow TRUSTY_ROUTE변수를 TrustyAI 서비스 pod의 외부 경로로 설정합니다.TRUSTY_ROUTE=https://$(oc get route/trustyai-service --template={{.spec.host}})TRUSTY_ROUTE=https://$(oc get route/trustyai-service --template={{.spec.host}})Copy to Clipboard Copied! Toggle word wrap Toggle overflow
- OpenShift AI 대시보드의 왼쪽 메뉴에서 Model Serving 을 클릭합니다.
- 배포 모델 페이지의 드롭다운 목록에서 프로젝트를 선택합니다.
- 무분별 메트릭을 구성할 모델의 이름을 클릭합니다.
- 모델의 메트릭 페이지에서 모델 편향 탭을 클릭합니다.
- 구성 을 클릭합니다.
Configure density metrics dialog 에서 다음 단계를 완료하여 조정 메트릭을 구성합니다.
- Metric 이름 필드에 조정 메트릭에 대한 고유한 이름을 입력합니다. 나중에 이 메트릭의 이름을 변경할 수 없습니다.
- Metric 유형 목록에서 OpenShift AI에서 사용할 수 있는 지표 유형 중 하나를 선택합니다.
protected 특성 필드에 무차별을 모니터링하려는 모델의 특성 이름을 입력합니다.In the Cryostated attribute field, type the name of an attribute in your model that you want to monitor for density.
작은 정보curl명령을 사용하여 메타데이터 엔드포인트를 쿼리하고 입력 특성 이름과 값을 볼 수 있습니다. 예:curl -H "Authorization: Bearer $TOKEN" $TRUSTY_ROUTE/info | jq ".[0].inputSchema"- Privileged value 필드에 사용자가 지정한 보호된 속성의 권한 있는 그룹의 이름을 입력합니다.
- Unprivileged value 필드에 사용자가 지정한 보호된 속성의 권한이 없는 그룹의 이름을 입력합니다.
출력 필드에 편향을 모니터링할 모델 결과의 이름을 입력합니다.
작은 정보curl명령을 사용하여 메타데이터 엔드포인트를 쿼리하고 출력 특성 이름과 값을 볼 수 있습니다. 예:curl -H "Authorization: Bearer $TOKEN" $TRUSTY_ROUTE/info | jq ".[0].outputSchema"- 출력 값 필드에 편향을 모니터링할 결과의 값을 입력합니다.
- Violation threshold 필드에 선택한 메트릭 유형에 대한 가정 임계값을 입력합니다. 이 임계값 값은 모델이 의도하지 않은 것으로 간주되기 전에 지정된 메트릭이 메트릭의 공정값에서 얼마나 멀리 떨어져 있는지 정의합니다.
- Metric 배치 크기 필드에 OpenShift AI가 메트릭을 계산할 때마다 모델 유추 수를 입력합니다.
입력한 값이 올바른지 확인합니다.
참고모델 편향 메트릭 구성을 생성한 후에는 편집할 수 없습니다. 대신 지표를 복제한 다음 편집(구성)할 수 있지만 원래 메트릭의 기록은 복사에 적용되지 않습니다.
- 구성 을 클릭합니다.
검증
- Bias 지표 구성 페이지에는 모델에 대해 구성한 평가 지표가 표시됩니다.
다음 단계
메트릭을 보려면 오른쪽 상단에 있는 지표 보기를 클릭합니다.
4.1.2. CLI를 사용하여 유도 메트릭 생성 링크 복사링크가 클립보드에 복사되었습니다!
OpenShift CLI(명령줄 인터페이스)를 사용하여 모델에 대한 조정 메트릭을 생성할 수 있습니다.
사전 요구 사항
- OpenShift AI가 지원하는 모호한 지표 와 해석 방법에 대해 잘 알고 있습니다.
- 특정 데이터 세트 스키마에 익숙하고 입력 및 출력의 이름과 의미를 이해하고 있습니다.
- OpenShift 클러스터 관리자는 OpenShift 클러스터에 사용자로 사용자를 추가하고 배포된 모델이 포함된 데이터 사이언스 프로젝트에 대한 TrustyAI 서비스를 설치했습니다.
- 프로젝트에 대한 TrustyAI 설정에 설명된 대로 데이터 사이언스 프로젝트에 대한 TrustyAI를 설정합니다.
프로세스
터미널 창에서 OpenShift AI가 배포된 OpenShift 클러스터에 로그인합니다.
oc login
oc loginCopy to Clipboard Copied! Toggle word wrap Toggle overflow TRUSTY_ROUTE변수를 TrustyAI 서비스 pod의 외부 경로로 설정합니다.TRUSTY_ROUTE=https://$(oc get route/trustyai-service --template={{.spec.host}})TRUSTY_ROUTE=https://$(oc get route/trustyai-service --template={{.spec.host}})Copy to Clipboard Copied! Toggle word wrap Toggle overflow 선택적으로 TrustyAI 서비스 엔드 포인트 및 페이로드의 전체 목록을 가져옵니다.
curl -H "Authorization: Bearer $TOKEN" --location $TRUSTY_ROUTE/q/openapi
curl -H "Authorization: Bearer $TOKEN" --location $TRUSTY_ROUTE/q/openapiCopy to Clipboard Copied! Toggle word wrap Toggle overflow POST /metrics/group/fairness/spd/request를 사용하여 다음 구문 및 페이로드 구조를 사용하여 반복 반복적 모니터링 메트릭을 예약합니다.구문:
curl -sk -H "Authorization: Bearer $TOKEN" -X POST --location $TRUSTY_ROUTE/metrics/spd/request \ --header 'Content-Type: application/json' \ --data <payload>
curl -sk -H "Authorization: Bearer $TOKEN" -X POST --location $TRUSTY_ROUTE/metrics/spd/request \ --header 'Content-Type: application/json' \ --data <payload>Copy to Clipboard Copied! Toggle word wrap Toggle overflow 페이로드 구조:
modelId- 쿼리할 모델의 이름입니다.
protectedAttribute- 공정성을 확인하는 그룹을 구분하는 기능의 이름입니다.
privilegedAttribute- 의심되는 호의는 (아마도 반대되는) 클래스입니다.
unprivilegedAttribute- 의심되는 unfavored (negatively actsed) 클래스입니다.
outcomeName- 공정성을 검사하는 출력을 제공하는 출력의 이름입니다.
favorableOutcome-
바람직한 모델 예측 또는 원하는 모델 예측을 설명하는
outcomeName출력의 값입니다. batchSize- 계산에 포함할 이전 유추 수입니다.
예를 들면 다음과 같습니다.
검증
유도 메트릭 요청은 다음과 유사한 출력을 반환해야 합니다.
특정Definition 필드는 이러한 메트릭 값의 실제 해석을 이해하는 데 도움이 됩니다. 이 예에서 이 모델은 Is Male-Identifying? 필드에 공정하며 양의 결과는 약 -0.3%에 따라 다릅니다.
4.1.3. 무감각 메트릭 중복 링크 복사링크가 클립보드에 복사되었습니다!
기존 지표를 편집하려면 OpenShift AI 인터페이스에서 복제(복사)한 다음 복사본의 값을 편집할 수 있습니다. 그러나 원래 지표의 기록은 복사에 적용되지 않습니다.
사전 요구 사항
- OpenShift AI가 지원하는 모호한 지표 와 해석 방법에 대해 잘 알고 있습니다.
- 특정 데이터 세트 스키마에 익숙하고 입력 및 출력의 이름과 의미를 이해하고 있습니다.
- 복제하려는 기존의 무분별 메트릭이 있습니다.
프로세스
- OpenShift AI 대시보드의 왼쪽 메뉴에서 Model Serving 을 클릭합니다.
- 배포 모델 페이지에서 복제하려는 조정 메트릭이 있는 모델의 이름을 클릭합니다.
- 모델의 메트릭 페이지에서 모델 편향 탭을 클릭합니다.
- 구성 을 클릭합니다.
- Bias 지표 구성 페이지에서 복사할 메트릭 옆에 있는 작업 메뉴( Cryostat)를 클릭한 다음 중복 을 클릭합니다.
조정 메트릭 구성 대화 상자에서 다음 단계를 따르십시오.
- Metric 이름 필드에 조정 메트릭에 대한 고유한 이름을 입력합니다. 나중에 이 메트릭의 이름을 변경할 수 없습니다.
- 필요에 따라 필드의 값을 변경합니다. 이러한 필드에 대한 설명은 대시보드를 사용하여 감시 메트릭 생성을 참조하십시오.
- 입력한 값이 올바른지 확인한 다음 Configure 를 클릭합니다.
검증
- Bias 지표 구성 페이지에는 모델에 대해 구성한 평가 지표가 표시됩니다.
다음 단계
메트릭을 보려면 오른쪽 상단에 있는 지표 보기를 클릭합니다.