audit-AI é uma biblioteca Python construída sobre pandas e sklearn que implementa algoritmos de aprendizado de máquina com consciência de equidade. Foi desenvolvida pela equipe de Data Science da pymetrics. Essa ferramenta tem como objetivo medir e mitigar os efeitos de padrões discriminatórios nos dados de treinamento e nas previsões feitas por algoritmos de aprendizado de máquina usados em processos de tomada de decisão socialmente sensíveis. Ela permite identificar potenciais vieses nos conjuntos de dados de treinamento e, consequentemente, nos algoritmos treinados neles. Por exemplo, ao construir um modelo que faz previsões sobre pessoas, como previsões de pontuação de crédito, probabilidade de reincidência prisional, custo de um empréstimo imobiliário, etc., o audit-AI pega dados de uma população conhecida e os executa no modelo em questão. Em seguida, compara as taxas de aprovação proporcionais do grupo demográfico com a maior taxa de aprovação com a do grupo com a menor taxa de aprovação para cada categoria demográfica (gênero e etnia). Essa proporção é conhecida como a razão de viés. O audit-AI determina se os grupos são diferentes de acordo com um padrão de significância estatística (dentro de uma margem de erro estatisticamente diferente) ou significância prática (se a diferença é grande o suficiente para importar em um nível prático). Além disso, a biblioteca oferece ferramentas para verificar diferenças ao longo do tempo ou em diferentes regiões, usando o teste Cochran-Mantel-Hanzel, um teste comum em círculos regulatórios. A biblioteca implementa várias técnicas de teste de viés e auditoria de algoritmos, como tarefas de classificação e regressão. O código-fonte está hospedado no GitHub e pode ser instalado com o pip. Além disso, existem requisitos de versão para bibliotecas como numpy, scipy e pandas. Para usar o pacote, é possível consultar o papel de implementação disponível no GitHub. Existem também exemplos de conjuntos de dados e como obter um gráfico dos diferentes testes em diferentes limiares.

audit
audit-AI é uma ferramenta para medir e mitigar vieses em modelos de aprendizado de máquina. Oferece testes e técnicas de auditoria.

Melhores alternativas ao audit

audit
audit-AI é uma biblioteca Python que detecta diferenças demográficas em modelos de aprendizado de máquina

Convercent
Convercent é uma solução de ética e conformidade que fortalece a confiança

Holistic AI
O Holistic AI é uma plataforma de governança de IA que dá poder às empresas para adotarem e escalarem a IA com confiança

AI Now Institute
O AI Now Institute produz diagnósticos e pesquisas de políticas acionáveis sobre inteligência artificial.

Sourcer AI
Sourcer AI é uma ferramenta de verificação de fatos em tempo real que avalia a credibilidade e o viés de fontes online usando IA.

Credo AI
Credo AI é uma plataforma líder em governança de IA que facilita a adoção rápida e segura de IA nas empresas.

Ethically Aligned AI
Ethically Aligned AI oferece uma microcredencial em ética de IA, projetada para profissionais que buscam entender e aplicar princípios éticos no desenvolvimento de sistemas de IA.

AI Incident Database
O AI Incident Database cataloga incidentes reais envolvendo sistemas de inteligência artificial para promover aprendizado e prevenção.

Frontier Model Forum
O Frontier Model Forum é uma iniciativa que promove a segurança e a responsabilidade no desenvolvimento de IA avançada, colaborando com diversas organizações.

Skeptic Reader
Skeptic Reader é um plugin que detecta vieses e falácias lógicas em tempo real, promovendo o pensamento crítico.

GOODY
GOODY-2 é um modelo de IA que prioriza a ética, evitando respostas controversas ou problemáticas.

brainwashd
brainwashd é uma ferramenta de IA que analisa tweets e notícias em tempo real para combater a desinformação.

Naaia
Naaia é uma solução líder em gestão de conformidade de IA, transformando obrigações regulatórias em ações tangíveis.

Aithenticate
Aithenticate é uma plataforma que facilita a transparência e conformidade no uso de Inteligência Artificial em websites.

Responsible AI Institute
O Responsible AI Institute é uma organização sem fins lucrativos que fornece ferramentas para governança e conformidade de IA, ajudando profissionais a criar sistemas de IA confiáveis.
AI Badge
AI Badge é uma solução gratuita para identificar imagens geradas por IA, promovendo transparência e clareza.

InclusivitEasy
InclusivitEasy é uma plataforma AI que ajuda equipes a promover inclusão e diversidade através de linguagem inclusiva.

AI ETHICS LAB
O AI ETHICS LAB é uma iniciativa que integra ética no desenvolvimento de tecnologias de IA, oferecendo análises especializadas, estratégias éticas e treinamentos.

AI Ethics Impact Group
O AI Ethics Impact Group é um consórcio interdisciplinar que visa operacionalizar a ética em IA, promovendo valores europeus e transparência no mercado.

Responsible AI Licenses (RAIL)
RAIL oferece licenças de IA responsável para modelos, código-fonte e usuários finais, visando reduzir riscos e uso indevido.

Monitaur
Monitaur oferece soluções de governança de IA, unindo equipes para mitigar riscos e transformar intenções em ações.