Frontier Model Forumは、AIの安全性と責任ある開発を推進するために設立された組織です。このフォーラムは、そのメンバー企業の技術的および運営的専門知識を活用し、AIエコシステム全体に利益をもたらすことを目指しています。先進的なAIは世界に多大な利益をもたらす可能性がありますが、リスクを軽減するための適切なガードレールが必要です。米国や英国政府、欧州連合、OECD、G7(広島AIプロセスを通じて)などがこれらの取り組みに重要な貢献をしてきました。これらの努力を基に、フロンティアAIモデルが責任を持って開発および展開されるようにするため、安全性基準と評価に関するさらなる作業が必要です。FMFは、AIの安全性と責任に関する組織間の議論と行動のための一つの手段です。
AmazonとMetaがFrontier Model Forumに参加し、Anthropic、Google、Microsoft、OpenAIとともにAIの安全性について協力することになりました。このフォーラムの核心的な目標は、ビジョンを行動に移すことです。私たちは、安全で責任あるAI開発の重要性を認識し、それを実現するためにここにいます。フロンティアモデルの責任ある開発を促進し、リスクを最小限に抑え、能力と安全性の独立した標準化された評価を可能にするための研究を進めます。また、フロンティアモデルの責任ある開発と展開のためのベストプラクティスを特定し、技術の性質、能力、限界、および影響を一般の人々が理解するのを助けることも重要です。政策立案者、学者、市民社会、企業が協力し、信頼と安全性のリスクについて知識を共有する必要があります。気候変動の緩和と適応、早期がん検出と予防、サイバー脅威の対策などの問題に対処するためのアプリケーションの開発を支援する取り組みを支援します。これらの目標を現実のものとするために、私たちと一緒にAIの未来を形作りましょう。