pymetrics/audit-ai는 판다스와 sklearn 기반의 파이썬 라이브러리로, 공정성 인지 기계 학습 알고리즘을 구현합니다. 이 도구는 사회적으로 민감한 의사결정 과정에 사용되는 기계 학습 알고리즘의 훈련 데이터와 예측에서 차별적인 패턴의 영향을 측정하고 완화하는 데 사용됩니다. 이 연구의 전반적인 목표는 기계 학습 알고리즘을 더욱 공정하게 만드는 합리적인 방법을 찾는 것입니다. 훈련 데이터 세트와 이를 기반으로 훈련된 기계 학습 알고리즘에서 잠재적인 편견을 식별하는 것은 차별 문제를 해결하는 데 충분하지 않지만, 점점 더 많은 결정이 인공 지능에 의해 자동화되는 세계에서 알고리즘이 얼마나 공정하거나 편향되어 있는지를 이해하고 식별하는 우리의 능력은 올바른 방향으로 나아가는 한 걸음입니다. 또한, 이 도구는 규제 준수와 실제 및 통계적 편향에 대한 검사를 제공합니다. 예를 들어, 다양한 인구 집단(예: 다양한 성별과 인종의 신용 정보)에서 데이터를 가져와 문제가 되는 모델을 통해 실행합니다. 가장 높은 합격률을 가진 인구 집단과 가장 낮은 합격률을 가진 인구 집단의 비율을 비교합니다. 이 비율은 편향 비율로 알려져 있습니다. audit-ai는 이를 통해 통계적 유의성(p <.05)과 실제적 유의성(차이가 실질적으로 중요한 정도)에 따라 그룹이 다른지 여부를 결정합니다. 이 라이브러리는 분류 작업과 회귀 작업을 위한 다양한 편향 테스트 및 알고리즘 감사 기술을 제공합니다. 설치는 GitHub에서 소스 코드를 가져오거나 pip를 사용하여 최신 버전을 설치할 수 있습니다. 사용 방법은 구현 제안 문서에서 확인할 수 있습니다.
pymetrics/audit의 대체 도구
pymetrics/audit
pymetrics/audit-ai는 편견 인지를 측정하고 완화하는 AI 도구
Convercent
Convercent는 윤리 및 컴플라이언스 클라우드를 강화하며 신뢰 문화를 조성합니다.
Holistic AI
Holistic AI는 AI 거버넌스를 위한 강력한 플랫폼으로 사용자를 돕습니다
AI Now Institute
AI Now Institute는 인공지능에 대한 진단 및 실행 가능한 정책 연구를 생산합니다.
Sourcer AI
Sourcer AI는 AI 기반의 실시간 소스 신뢰도 및 편향성 평가를 제공하여 온라인 정보의 오류를 줄이는 데 도움을 줍니다.
Credo AI
Credo AI는 기업의 빠르고 안전한 AI 도입을 위한 AI 거버넌스, 리스크 관리 및 규정 준수 플랫폼을 제공합니다.
Ethically Aligned AI
Ethically Aligned AI는 AI 윤리에 대한 마이크로 크리덴셜 프로그램을 제공하여 디지털 기술 작업자에게 필수적인 윤리적 개발 기술을 가르칩니다.
AI Incident Database
AI Incident Database는 인공지능 시스템의 실제 배포로 인해 발생한 피해 또는 근접 피해의 역사를 기록하는 데 전념합니다.
Frontier Model Forum
Frontier Model Forum은 AI 안전 연구를 진척시키고 사회의 가장 시급한 요구를 충족시키기 위한 AI 애플리케이션 개발을 지원합니다.
Skeptic Reader
Skeptic Reader는 웹 플러그인으로, 편견과 논리적 오류를 탐지하여 사용자가 정보를 비판적으로 분석할 수 있도록 돕습니다.
brainwashd
brainwashd는 실시간으로 트윗과 뉴스를 분석하여 오보와 편향을 줄이는 AI 도구입니다.
Naaia
Naaia는 유럽 최초의 AIMS® 및 AI 관리 솔루션 리더로서 규제 의무를 실질적인 행동으로 전환하고 원활한 AI 규정 준수 및 위험 관리를 가능하게 합니다.
Aithenticate
Aithenticate는 AI 사용을 투명하게 공개하여 규정 준수와 사용자 신뢰를 강화하는 플러그인입니다.
Responsible AI Institute
Responsible AI Institute은 조직들이 AI 거버넌스 및 규정 준수를 위한 도구를 제공하여 신뢰할 수 있는 AI 시스템을 구축할 수 있도록 돕는 글로벌 비영리 단체입니다.
AI Badge
AI Badge는 AI로 생성된 이미지를 명확히 표시할 수 있는 자유 라이선스 배지입니다.
InclusivitEasy
InclusivitEasy는 AI 기반의 포괄적 언어 플랫폼으로, 팀과 기업이 포용성을 구축하고 격차를 줄이며 모두가 소속감을 느끼는 문화를 창출할 수 있도록 돕습니다.
AI ETHICS LAB
AI ETHICS LAB은 AI 기술의 윤리적 위험과 기회를 식별하고 해결하여 기술을 향상시키는 연구 및 컨설팅을 제공합니다.
AI Ethics Impact Group
AI Ethics Impact Group는 AI 윤리를 원칙에서 실천으로 옮기기 위해 VDE와 Bertelsmann Stiftung이 주도하는 학제간 컨소시엄입니다.
Responsible AI Licenses (RAIL)
RAIL은 AI의 부정적인 결과와 오용 위험을 줄이기 위한 행동 기반 라이선스 모델을 제공합니다.
Moral Machine
Moral Machine은 AI 기반 플랫폼으로, 자율주행차의 도덕적 딜레마를 판단하는 재미있는 경험을 제공합니다.
Partnership on AI
AI 파트너십은 더 나은 미래를 위한 AI 정책과 윤리를 다루는 협력 플랫폼입니다.