본문 바로가기

인공지능(AI)

인공지능 알고리즘의 편향성과 공정성 (4)

반응형

기계 학습을 더 공정하게 만드는 방법

- 다양하고 고품질의 교육 데이터를 모델에 사용할 수 있도록 보장합니다.
- 공용 데이터 세트의 취약성을 식별합니다. 이 취약성은 잘못된 정렬 및 레이블이 지정된 데이터 세트와 일관성 없는 벤치마킹과 같은 품질이 낮은 데이터 세트로 인해 발생할 수 있습니다.
- 모델 교육 과정에서 덜 민감한 정보를 사용하여 개인 정보 문제를 방지합니다.
- IBM의 AI 공정성 360, Google의 What-If Tool, Model Cards, Toolkit, Microsoft의 fairlearn.py 및 Deon과 같은 기계 학습의 편향을 방지하고 제거하는 데 도움이 되는 도구를 활용합니다.

 

- IBM의 AI 공정성 360은 사용자가 공정성 메트릭을 통해 기술 솔루션에 집중하고 기계 학습 모델의 차별 편향을 평가, 보고 및 완화할 수 있도록 돕는 파이썬 툴킷입니다.

- Google의 What-If Tool은 기회의 평등과 같은 공정성 제약에 대한 미리 정의된 평가를 통해 데이터 세트에 대한 모델의 성능을 탐색하는 시각화 도구입니다.

- Microsoft의 fairlearn.py 은 사용자가 공정성과 모델 성능 간의 상충 관계를 분석하는 데 도움이 되는 대화형 시각화 대시보드와 불공정성 완화 알고리즘을 갖춘 오픈 소스 Python 툴킷입니다.

- Deon은 데이터 수집의 초기 단계부터 구현에 이르기까지 잠재적인 윤리적 영향을 미치는 애플리케이션을 평가하고 검토하는 윤리 체크리스트입니다.

 기계 학습을 더 공정하게 만들기 위해 새로운 도구들도 개발되고 있습니다. 예를 들어, 페이스북은 인공지능 모델에서 편견을 감지하기 위해 공정성 흐름이라고 불리는 내부 도구에 공을 들이고 있습니다. 동시에, 마이크로소프트는 알고리즘적인 편견을 확인하기 위해 FATE (공정성, 책임성, 투명성, 윤리) 그룹이라고 불리는 내부 도구를 만들었습니다. 구글도 PAIR (People + AI Research)라고 불리는 그만의 공정성 프로젝트를 2년 동안 운영하고 있습니다.

 

결론

 기계 학습 모델에 편향성이 존재한다는 것은 모델이 불공정하다는 것을 나타냅니다. 결과적으로, 인공지능 알고리즘은 의료, 전자 상거래, 사이버 보안, 은행 및 금융을 포함한 다양한 산업에 걸쳐 불리한 그룹을 차별할 수 있습니다.
 이러한 함정을 피하기 위해, 데이터 과학자들과 기계 학습 전문가들은 잠재적인 편향을 제거하고 공정성을 보장하기 위해 알고리즘 모델을 검토하고 수정해야 합니다. 알고리즘을 테스트하고 기계 학습 알고리즘에 의해 생성된 결과물을 사용자가 이해하고 신뢰하도록 도울 수 있는 설명 가능한 인공지능 도구를 사용하는 것과 같이, 당신의 인공지능 모델에 편향을 도입하는 위험을 줄이기 위해 일부 기술적 해결책들이 구현될 수 있습니다.

반응형