高まる「AI規制」を求める声

しかし、現在の不安定な地政学的環境では、ある国のAIの休止は、別の国の躍進のチャンスとなる。

Stan Karanasios, Olga Kokshagina and Pauline C Reinecke
Asia Times
April 5, 2023

先週、人工知能のパイオニアや専門家は、主要なAI研究所に対し、GPT-4より強力なAIシステムの訓練を少なくとも6カ月間、直ちに一時停止するよう促した。

Future of Life Instituteが執筆した公開書簡では、「人間並みの知能」を持つAIシステムが人類にとって大きな脅威となる可能性があると警告している。そのリスクの中には、AIが人間を凌駕し、我々を時代遅れにし、文明を支配する可能性も含まれている。

この書簡では、AIの開発と配備を管理するための包括的なプロトコルを開発する必要性が強調されている。それにはこう書かれている:

これらのプロトコルは、それを遵守するシステムが合理的な疑いを超えて安全であることを保証するものでなければならない。これは、AI開発全般を一時停止することを意味するものではなく、出現する能力を持つ予測不可能なブラックボックスモデルをより大きくする危険な競争から一歩後退させることを意味する。

通常、規制をめぐる戦いは、政府と大手テクノロジー企業が互いに対立する形で行われてきた。しかし、最近の公開書簡には、TwitterやTeslaのCEOイーロン・マスク、Appleの共同創業者スティーブ・ウォズニアック、OpenAIの科学者ヨナス・カッサなど、これまでに5000人以上が署名しており、ようやく多くの当事者が一方の側に収斂してきたことを示唆しているかのようである。

AI規制のための合理的でグローバルな枠組みは、本当に実現できるのだろうか?もしそうだとしたら、それはどのようなものなのだろうか?
すでにどのような規制があるのだろうか?

オーストラリアでは、政府がAIとデジタルのエコシステムの開発を支援するため、National AI Centreを設立した。この傘下には、責任ある実践を推進し、法律や基準に関するリーダーシップを提供することを目的とした「責任あるAIネットワーク」がある。

しかし、現在、AIとアルゴリズムによる意思決定に関する具体的な規制は整備されていない。政府は、責任あるAIの概念を広く受け入れつつも、それを確実に達成するためのパラメータを設定するには至らない、軽いタッチのアプローチをとっている。

同様に、米国も手を出さない戦略をとっている。議員たちは、AIを規制する試みに緊急性を示さず、その使用を規制するために既存の法律に依存してきた。米国商工会議所は最近、AIが成長を阻害したり、国家安全保障上のリスクになったりしないよう、AI規制を呼びかけたが、まだ何のアクションも起こしていない。

AI規制の先頭を走るのは、人工知能法の制定を目指す欧州連合(EU)である。この法律案では、AIに関連する3つのリスクカテゴリーが設定される:

  • 「 許容できないリスク」をもたらすアプリケーションやシステムは禁止される。例えば、中国で使用されている政府運営のソーシャルスコアリングなどである。
  • 求職者をランク付けする履歴書スキャンツールなど、「高リスク」と見なされるアプリケーションは、特定の法的要件の対象となる。
  • その他のアプリケーションは、ほとんど規制されない。

EUのアプローチはイノベーションを阻害すると主張する団体もあるが、予測可能性を提供することとAIの発展に歩調を合わせることのバランスが取れているため、オーストラリアが注視すべきアプローチのひとつである。

中国のAIに対するアプローチは、特定のアルゴリズムのアプリケーションを対象とし、例えば有害な情報を生成するアルゴリズムなど、特定の文脈での展開に対処する規制を作成することに重点を置いている。このアプローチは具体性をもたらす一方で、急速に進化するテクノロジーに遅れをとるルールを持つことになる危険性がある。

長所と短所

AIを制御するために注意を促すことを認めることには、賛否両論がある。

一方では、AIはあらゆる種類のコンテンツを生成し、平凡な仕事を処理し、癌を検出することができるなど、称賛されている。その一方で、欺いたり、偏見を蔓延させたり、盗作したり、そして-もちろん-人類の集団的な未来を心配する専門家もいる。OpenAIのCTOであるMira Muratiでさえ、AIを規制する動きがあるべきと示唆している。

一部の学者は、過度な規制はAIの可能性を最大限に妨げ、「創造的破壊」(イノベーションを繁栄させるためには、長年の規範や慣習を引き離す必要があるとする理論)を妨害する恐れがあると主張している。

同様に、企業団体は長年にわたり、競争を阻害しないよう、柔軟で対象用途を限定した規制を推進してきた。また、業界団体は、規制ではなく、倫理的な「ガイダンス」を求めている。AIの開発は動きが速く、オープンエンドなため、適切な規制を行うことができないと主張している。

しかし、市民はより多くの監視を提唱しているようである。BristowsとKPMGの報告によると、オーストラリアとイギリスの人々の約3分の2は、AI産業は規制され、責任を負うべきだと考えている。

次のステップはどうなるのか?

先進的なAIシステムの開発を6カ月間停止することは、一向に収束しないAI軍拡競争からの解放をもたらすかもしれない。しかし、これまでのところ、AIを有意義に規制するための効果的なグローバルな取り組みは行われていない。世界中の取り組みが分断され、遅れ、全体的にいい加減なものになっている。

世界的なモラトリアムは実施するのが難しいが、不可能ではない。この公開書簡は、極めて高性能なAIツールの潜在的な害について、これまでほとんど沈黙を守ってきた政府の役割に疑問を投げかけている。

もし何かを変えようとするならば、政府や国や超国家的な規制機関が、説明責任と安全性を確保するために主導権を握る必要がある。書簡が主張するように、社会レベルでのAIに関する決定は、「選挙で選ばれていない技術指導者」の手に委ねられるべきではnあいありません。

したがって、各国政府は産業界と協力して、AI開発を管理する包括的なルールを定めたグローバルな枠組みを共同開発する必要がある。これが、有害な影響から保護し、底辺への競争を回避する最善の方法である。また、政府とハイテク企業がAIの未来をめぐって覇権を争うという好ましくない状況も避けられる。

Stan Karanasiosはクイーンズランド大学准教授、Olga KokshaginaはEDHECビジネススクール准教授-イノベーション&アントレプレナーシップ、Pauline C. Reineckeはハンブルク大学アシスタントリサーチャー

asiatimes.com