GOODY-2は倫理原則に厳密に従い、安全で信頼性の高いAIモデル。様々なタスクに適しています。
audit-AI は機械学習の公平性を追求し、訓練データと予測のバイアスを検出・緩和します。GitHub で公開され、pip でインストール可能です。
Convercentは信頼文化の構築を支援し、様々なサービスとサポートを提供します
Holistic AI は AI ガバナンスプラットフォームで、企業の AI 導入と拡大を安全かつ確実に支援します
Receptive AIは、包括的で心理的に安全な職場環境を作り出すことで、従業員の定着率を向上させるAIツールです。従業員のフィードバックをリアルタイムで分析し、アクション可能なインサイトを提供します。
AI Now Instituteは、人工知能の影響とその社会的、政治的、経済的影響についての深い理解を提供する研究機関です。
Sourcer AIは、AIを活用してオンライン情報源の信頼性とバイアスをリアルタイムで評価し、誤情報が溢れる世界で情報に基づいた判断を支援します。
Credo AIは、AIガバナンス、リスク管理、コンプライアンスを簡素化し、ビジネス全体での迅速かつ安全なAI導入を支援するプラットフォームです。
Ethically Aligned AIは、AI倫理に焦点を当てたオンラインプログラムを提供し、デジタル技術の倫理的開発に必要な基礎スキルを提供します。
AI Incident Databaseは、人工知能システムの展開によって現実世界で発生した害やその可能性を記録するためのプラットフォームです。
Frontier Model Forumは、AIの安全性研究を進め、社会の最も緊急なニーズに対応するAIアプリケーションの開発を支援するために設立されました。
Privacy Protectorは、AI技術を活用してウェブサイトのプライバシーポリシーを瞬時にスキャンし、データの収集、使用、共有の透明性を評価します。無料とプレミアムプランで利用可能。
INSINTOは、リアルタイムのコンテンツ分析と脅威予防を提供するAI駆動ツールで、有害なコンテンツの識別において90%の精度を誇ります。ウェブの安全性を高めるための革新的なソリューションを探求してください。
Skeptic Readerは、AI技術を活用してウェブ上のバイアスや論理的誤謬を検出し、ユーザーが情報を批判的に分析するのを支援するプラグインです。
brainwashdは、AIを活用してツイートやニュースをリアルタイムで分析し、誤情報を無効化するツールです。信頼できる情報へのアクセスを支援します。
OneTrustは、データとAIを責任を持って使用するためのプラットフォームを提供し、リスク管理、コンプライアンス、データ戦略の最適化を支援します。
Innovatianaは、AIモデルのパフォーマンスを最大化する高品質なデータセットを構築し、倫理的なアウトソーシングを提供します。
AI Compliance Auditingは、AIプロジェクトの現在および将来のコンプライアンスリスクを評価するためのデジタル監査ツールです。米国、EU、英国をサポート。
AI Detectorは、AI生成テキストと画像を迅速に識別し、コンテンツの信頼性と真正性を保証する包括的な検出ツールを提供します。
Naaiaは、AIコンプライアンスとリスク管理をシームレスに実現する、ヨーロッパ初のAIMS®リーダーです。ISO 42001認証を取得し、グローバルなAI規制に対応します。
kOSは、AIを使用した研究プロセスを簡素化し、学術的誠実性を確保するための革新的なプラットフォームです。
Aithenticateは、AIの使用を開示し、規制への準拠とユーザーに対する透明性を高めるためのプラグインです。WordPressサイトに簡単に統合でき、コンテンツの作成方法についての透明性を向上させます。
Responsible AI Instituteは、AIガバナンスとコンプライアンスのためのツールを提供し、信頼できるAIシステムの作成と展開を支援するグローバルな非営利団体です。
Marketchは、採用担当者が多様な候補者をバイアスなく選考するのを支援するAI駆動の採用プラットフォームです。
AI Badgeは、AIによって生成された画像を明確に示すための自由に利用可能なバッジを提供し、デジタルコンテンツの透明性を促進します。
Prompt Inspectorは、AIアプリケーションのための次世代プロンプト分析、ユーザー行動の洞察、倫理的なコンテンツフィルタリングを提供します。
InclusivitEasyは、AI技術を活用した包括的な言語チェックプラットフォームで、ビジネス文書やウェブサイトの言語を包括的で歓迎すべきものにするお手伝いをします。
Modulateは、音声チャットや電話を通じてユーザーが交流する場面で、強力でコスト効率の高いモデレーションソリューションを提供し、コミュニティをより安全にします。
Armilla AIは、AIリスク管理、検証、保険ソリューションを提供し、企業がAIのリスクを評価し、軽減するのを支援します。
AI ETHICS LABは、AI技術の倫理的リスクと機会を特定し、解決するための研究とコンサルティングを提供します。PiEモデルを通じて、倫理的なAIの構築と使用を支援します。
Humans.aiは、ブロックチェーン技術を活用し、透明性と公平性を確保するAIプラットフォームです。カスタマイズされたAIエージェントを通じて、さまざまな分野での活用が可能です。
ETH AI Centerは、ETH Zurichの人工知能研究の中心地として、信頼性が高く、アクセス可能で包括的なAIシステムを促進するための研究、産業革新、起業家精神を育んでいます。
AI Ethics Impact Groupは、AI倫理を原則から実践へと移すための学際的なコンソーシアムです。欧州の価値観の強化と市民の保護を目指します。
What-If Toolは、最小限のコーディングで訓練された機械学習モデルの動作を視覚的に探り、幅広い入力にわたるパフォーマンスを理解するためのAIツールです。
Responsible AI Licenses(RAIL)は、AI技術の誤用を防ぎ、倫理的な使用を促進するためのライセンスモデルを提供します。AIモデルやソースコードの安全な利用を支援します。
ヨーロッパの研究センターがAIの責任ある開発を支援。8つの機械学習原則とAI-RFX調達フレームワークを紹介