Googleは、AIの責任ある展開に関するビジョンと、政府が業界をどのように規制し、奨励すべきかについての提案をまとめたAIポリシーアジェンダを発表しました。
GoogleのAIポリシーアジェンダ Googleは、責任あるAI開発と規制の提案を含むAI政策アジェンダの発表を発表しました。
このアジェンダは、世界中で独自に形成されている政府のAI政策について指摘し、有害な結果を防ぎながら、同時に革新の進行を妨げないような一貫したAIアジェンダを求めています。
Googleは次のように書いています。 「AIの革新を成功させるには、責任を確保し、信頼を可能にする政策枠組みが必要です。
私たちが必要としているのは、次の3つに焦点を当てた全体的なAI戦略です:
イノベーションと包括的な経済成長を通じた機会の創出 責任の確保と信頼の可能性 グローバルセキュリティの保護 一貫したAIアジェンダは、これら3つの目標すべてを前進させる必要があります。一つだけを他の犠牲にしてはいけません。」
GoogleのAIポリシーアジェンダは3つの主要な目標を持っています:
機会 責任 セキュリティ 機会 この部分では、政府が以下に投資することでAIの開発を奨励するよう求めています: 研究開発 AI開発を制限しない法的環境の創出 AI対応の労働力を育成するための教育サポートの計画 要するに、このアジェンダは、政府にAIを助けるようにするよう求めています。
Googleは、企業の透明性が革新を阻害する可能性があるとし、規制はより少ないほうが良いとの立場を明らかにしています。
その推奨事項は次の通りです: 「最高リスクのアプリケーションに規制を集中させると、AIが最も大きな利益を提供できる最高価値のアプリケーションでのイノベーションを妨げる可能性があります。
透明性は、説明責任と公平性を支えることができますが、正確さ、セキュリティ、プライバシーの面でコストがかかる場合があります。
民主主義は、適切なバランスをどのようにとるべきかを慎重に評価する必要があります。
” その後、効率と生産性を考慮に入れることを推奨しています: 「規制機関には、効率と生産性の向上、透明性、公正性、プライバシー、セキュリティ、そしてレジリエンスを含む異なる政策目標間のトレードオフを考慮することを求めます。
“ 常に企業体が監督に抵抗し、政府の規制者が公衆を保護しようとする引きずり合いがあります。
AIは人類が直面する最も困難な問題を解決し、前例のない利益を提供することができます。
Googleは公衆と企業の利益の間にバランスを見つけるべきだと言っています。
賢明な提案 このドキュメントには、既存の規制機関がAIに特化したガイドラインを開発し、現在開発中の新しいISO規格の採用を検討することなど、賢明な提案が含まれています。
ポリシーアジェンダは次のように推奨します: 「a) 各分野の規制者に対し、既存の監督と執行体制をAIシステムに適用するように更新するよう指示する。
これには、既存の権限がAIの使用にどのように適用され、AIシステムが既存の規制にどのように準拠するかを示すための国際的な合意を得た多角的な基準、例えばISO 42001シリーズを使用する方法が含まれます。 b) 規制機関に定期的な報告を発行させ、規制順守と効果的な監督の実施が難しい容量のギャップを特定するよう指示する。
” AIとセキュリティ これは、誤情報と偽情報の作成やサイバーベースの被害など、悪意をもって使用される危険性が提示されている部分です。 Googleは挑戦を次のように述べています: 「私たちの課題は、AIの潜在的な利益をグローバルな安全と安定のために最大限に活用し、同時に脅威の主体がこの技術を悪用することを防ぐことです。」
そして、次のような解決策を提供します: 「政府は、R&Dへの投資と公的および民間のAIの採用を加速させると同時に、悪意のある行為者による乱用が可能なツールの拡散を制御する必要があります。」 AIに基づく脅威に対抗するための政府の推奨策としては、以下のようなものがあります: 選挙干渉を特定し防止する方法の開発 セキュリティの脆弱性についての情報共有 グローバルなセキュリティを脅かすAIの研究開発を行っているエンティティを対象とした国際的な貿易管理枠組みの開発。 官僚主義を減らし、AIの政府による採用を増やす 次に、政府によるAIの採用を効率化し、それにより投資を増やすことを主張しています。
「世界をリードするAIを利用し、育てるために、政府の調達ポリシーを改革します… 政府がデータの隔離を解消し、AIの全力を引き出すための最先端のデータガバナンスを採用することを妨げる制度的な障壁と官僚主義を見直します。
人間と機械のチームによるデータの洞察を最大限に活用し、コンピュータ科学の学位が必要なくなったAIシステムを迅速に構築/適応/活用する能力を持つ敏捷なチームを形成します…” GoogleのAIポリシーアジェンダ このポリシーアジェンダは、AIの使用に関連する規制を策定する際に、世界中の政府が考慮するための思慮深い提案を提供しています。
AIは科学や医学における多くのポジティブなブレイクスルーを可能にし、これらは気候変動への解決策を提供したり、病気を治したり、人間の寿命を延ばすことができます。
恐らく初めて世界に公開されるAI製品が、比較的些細で、人類にあまり利益をもたらさないChatGPTやDall-Eのアプリケーションであることは、少し残念なことです。
政府はAIとその規制方法を理解しようとしています。これらの技術が世界中で採用されています。 興味深いことに、オープンソースAI、それは最も重要なバージョンは、一度しか言及されていません。
オープンソースが取り上げられる唯一の文脈は、AIの誤用に関する推奨事項です: 「一般的な目的と特殊なAIシステム(必要に応じてオープンソースシステムを含む)の誤用/乱用に対する潜在的な責任を明確にする。
これには、研究者や作者、制作者、実装者、エンドユーザーなど、さまざまな参加者が含まれます。” GoogleがオープンソースAIを恐れ、すでに敗北しているとされていることを考えると、オープンソースAIが技術の誤用の文脈でしか言及されないことは興味深いことです。 GoogleのAIポリシーアジェンダは、過剰な規制と世界中で課される不一致なルールに対する合法的な懸念を反映しています。
しかし、ポリシーアジェンダが業界標準と規制の開発を支援していると引用する組織は、シリコンバレーのインサイダーでいっぱいです。
これは、標準と規制がどのような利益を反映しているのかについて疑問を投げかけます。 ポリシーアジェンダは、有害な結果を防ぎながら、有益な革新を前進させるための意義深い、公正な規制を開発するための必要性と緊急性を効果的に伝えています。
Googleのポリシーアジェンダについての記事を読んでください: 責任あるAI進歩のためのポリシーアジェンダ:機会、責任、安全 AIポリシーアジェンダ自体を読む(PDF) 責任ある人工知能進歩のためのポリシーアジェンダ この記事は、GoogleがAIの適切な使用と規制についての願望を明らかにしたものです。Googleは、AIが世界にもたらす可能性を最大限に活用しつつ、誤用から私たちを守るために、政府がどのように行動すべきかを提案しています。
このアジェンダは、「チャンス、責任、安全」という3つの主要な目標を掲げています。AIの発展を後押しするために、政府が研究や開発に投資し、AIの発展を妨げない法的環境を作り、AIの仕事に対する教育支援を計画することを求めています。 さらに、Googleは、AIの責任ある展開は政府の法律、企業の自主規制、そして非政府組織の意見に依存すると主張しています。
AIの誤用を防ぐためには、さまざまな関係者が責任を持つことが重要だと指摘しています。 また、Googleは、AIがもたらす脅威から世界を守るために、安全性にも取り組んでいます。悪意ある人々がAI技術を悪用しないようにするための解決策として、政府が研究と開発に投資しながら、同時に悪用可能なツールの拡散を抑制することが必要だと述べています。
このポリシーアジェンダは、AIが科学や医学で数多くの前向きな突破を可能にすると同時に、気候変動への解決策を提供し、病気を治し、人間の寿命を延ばすことができると指摘しています。 GoogleのAIポリシーアジェンダは、適切な規制を開発し、有益な革新を推進しながら有害な結果を防ぐための必要性と緊急性を効果的に伝えています。
これは、AIの使用に関連する規制を策定する際に、世界中の政府が考慮すべき重要な提案を提供しています。
他の人はこちらも読んでいます。