「audit-AI:機械学習モデルの公平性確保」

pymetrics/audit

audit-AI は機械学習の公平性を追求し、訓練データと予測のバイアスを検出・緩和します。GitHub で公開され、pip でインストール可能です。

「audit-AI:機械学習モデルの公平性確保」

audit-AI は pandas と sklearn の上に構築された Python ライブラリで、公平性を意識した機械学習アルゴリズムを実装しています。このツールは、訓練データと機械学習アルゴリズムの予測における差別的パターンの影響を測定および緩和するためのものです。この研究の全体的な目標は、機械学習アルゴリズムをより公平にするための合理的な方法を考え出すことです。訓練データセットとそれに基づいて訓練された機械学習アルゴリズムにおける潜在的なバイアスを特定することは、差別問題を解決するための十分条件ではありませんが、人工知能によってより多くの意思決定が自動化される世界では、アルゴリズムがどの程度公平またはバイアスがあるかを理解し、特定する能力は正しい方向への一歩です。

audit-AI は、すべての評価ツールがすべての保護グループに対して公平な待遇基準に従うべきであるという Uniform Guidelines on Employee Selection Procedures (UGESP; EEOC ら, 1978) を機械学習方法に拡張しています。たとえば、人々に関する予測を行うモデルを構築するとします。このモデルは理論的には何でもかまいません。クレジットスコアの予測、刑務所再犯の可能性、住宅ローンのコストなどが考えられます。audit-AI は、既知の人口(たとえば、複数の性別と民族のクレジット情報)からデータを取得し、問題のモデルに通します。各人口統計学的カテゴリ(性別と民族)について、最も高い合格者グループの比例合格率と最も低い合格者グループの比例合格率を比較します。この比率はバイアス比と呼ばれます。audit-AI は、統計的有意性(p <.05 などの基準内)または実用的有意性(差が実際的に重要なレベルに達するかどうか)の基準に従ってグループが異なるかどうかを判定します。

このライブラリでは、分類タスクと回帰タスクにおけるいくつかのバイアステストとアルゴリズム監査技術を実装しています。また、ソースコードは GitHub でホストされており、pip を使用して最新バージョンをインストールできます。インストールには scikit-learn、numpy、pandas などのライブラリが必要です。パッケージの使用方法については、実装提案のドキュメントを参照できます。

pymetrics/auditの代替ツール

pymetrics/audit

pymetrics/audit

audit-AI は機械学習の公平性を確保するツール

Convercent

Convercent

Convercentは信頼文化の構築を支援するソリューションです

Holistic AI

Holistic AI

Holistic AI は AI ガバナンスプラットフォームで、企業の AI 導入と拡大を支援します

AI Now Institute

AI Now Institute

AI Now Instituteは、人工知能に関する診断と実行可能な政策研究を提供します。

Sourcer AI

Sourcer AI

Sourcer AIは、AIを活用したリアルタイムの情報源の信頼性とバイアス評価ツールで、オンラインの誤情報に終止符を打ちます。

Credo AI

Credo AI

Credo AIは、AIガバナンス、リスク管理、コンプライアンスを簡素化し、ビジネス全体での迅速かつ安全なAI導入を支援するプラットフォームです。

Ethically Aligned AI

Ethically Aligned AI

Ethically Aligned AIは、AI倫理に関するマイクロクレデンシャル認定を提供し、デジタル技術の倫理的開発に必要な基礎スキルを提供します。

AI Incident Database

AI Incident Database

AI Incident Databaseは、人工知能システムの展開によって現実世界で発生した害やその可能性を記録するためのプラットフォームです。

Frontier Model Forum

Frontier Model Forum

Frontier Model Forumは、AIの安全性研究を進め、社会の最も緊急なニーズに対応するAIアプリケーションの開発を支援するために設立されました。

Skeptic Reader

Skeptic Reader

Skeptic Readerは、ウェブ上のバイアスや論理的誤謬を検出するAI搭載のプラグインで、ユーザーが情報を批判的に分析するのを支援します。

brainwashd

brainwashd

brainwashdは、リアルタイムでツイートやニュースを分析し、誤情報を無効化するAIツールです。

Naaia

Naaia

Naaiaは、AIコンプライアンスとリスク管理をシームレスに実現する、ヨーロッパ初のAIMS®リーダーです。

Aithenticate

Aithenticate

Aithenticateは、AIの使用を開示し、規制への準拠とユーザーに対する透明性を高めるためのプラグインです。

Responsible AI Institute

Responsible AI Institute

Responsible AI Instituteは、AIガバナンスとコンプライアンスのためのツールを提供し、信頼できるAIシステムの作成と展開を支援する非営利団体です。

AI Badge

AI Badgeは、AIによって生成された画像を明確に示すための自由に利用可能なバッジを提供します。

InclusivitEasy

InclusivitEasy

InclusivitEasyは、AIを活用した包括的な言語チェックプラットフォームで、ビジネス文書やウェブサイトの言語を包括的で歓迎すべきものにするお手伝いをします。

AI ETHICS LAB

AI ETHICS LAB

AI ETHICS LABは、AI技術の倫理的リスクと機会を特定し、解決するための研究とコンサルティングを提供します。

AI Ethics Impact Group

AI Ethics Impact Group

AI Ethics Impact Groupは、AI倫理を原則から実践へと移すための学際的なコンソーシアムです。

Responsible AI Licenses (RAIL)

Responsible AI Licenses (RAIL)

RAILは、AIの誤用や負の結果のリスクを減らすための行動ベースのライセンスモデルを提供します。

Partnership on AI

Partnership on AI

AIの未来に関する重要な問題に取り組む非営利団体。

Monitaur

Monitaur

Monitaurは、企業向けのAIガバナンスソフトウェアです。

注目のAIツール

InclusivitEasy

InclusivitEasy

InclusivitEasyは、AIを活用した包括的な言語チェックプラットフォームで、ビジネス文書やウェブサイトの言語を包括的で歓迎すべきものにするお手伝いをします。

詳細を見る
AI ETHICS LAB

AI ETHICS LAB

AI ETHICS LABは、AI技術の倫理的リスクと機会を特定し、解決するための研究とコンサルティングを提供します。

詳細を見る
pymetrics/audit

pymetrics/audit

audit-AI は機械学習の公平性を確保するツール

詳細を見る
AI Ethics Impact Group

AI Ethics Impact Group

AI Ethics Impact Groupは、AI倫理を原則から実践へと移すための学際的なコンソーシアムです。

詳細を見る
RagaAI

RagaAI

RagaAIはAgentic AIワークフローを評価し、信頼性高く展開する

詳細を見る
Monitaur

Monitaur

Monitaurは、企業向けのAIガバナンスソフトウェアです。

詳細を見る
Naaia

Naaia

Naaiaは、AIコンプライアンスとリスク管理をシームレスに実現する、ヨーロッパ初のAIMS®リーダーです。

詳細を見る
Convercent

Convercent

Convercentは信頼文化の構築を支援するソリューションです

詳細を見る