シンギュラリティの羊飼い


youtu.be

Dr. Joseph Mercola
Mercola
2023年6月29日

人工知能(AI)は人類を絶滅させるのか?人口を壊滅させる「完璧な」致死的生物兵器を作り出すことができるのだろうか? 兵器を乗っ取ることができるのだろうか?

急速に増えつつある専門家たちによれば、AIの開発・配備を抑制し、安全策を講じない限り、これらのシナリオやその他の地獄のシナリオのどれもが完全にあり得るという。

一般市民もまた、AIチャットボットへの期待を和らげ、AIチャットボットがいかに「賢く」見えようとも、またAIチャットボットを疑っているあなたを非難しようとも、AIチャットボットにはまだ大きな欠陥があり、当てにならないことを認識する必要がある。

ジョージ・オーウェルの警告

この記事の冒頭の動画は、ジョージ・オーウェルが死ぬ前に行った最後のインタビューの一部を紹介したもので、その中で彼は、パロディと表現した自著『1984年』は、世界が進む方向がこれである以上、実現する可能性があると述べている。

今日、私たちが方向転換していないことは明らかであり、『1984年』が現実になる可能性はかつてないほど高まっている。オーウェルによれば、彼のディストピア的ビジョンが実現しないようにする方法はただひとつ。「それはあなた次第です。」

人工知能(AGI)が日に日に近づいているように、グローバリストたちが何十年もかけて育んできた技術主義的なトランスヒューマニズムの夢の最後のパズルのピースも近づいている。彼らは、AIが大衆を支配し服従させる一方で、自分たちだけが富や権力、支配網の外での生活といった利益を享受できる世界を作ろうとしている。

私は、他の多くの人々と同様、AIが信じられないほど有用なものになると信じている。しかし、AIを導く強力なガードレールと非の打ちどころのないモラルがなければ、AIは容易に暴走し、甚大な、そしておそらく取り返しのつかない損害を引き起こす可能性がある。パブリック・シチズンの報告書を読んで、我々が直面していること、そしてそれに対して何ができるかをよりよく把握することをお勧めする。

シンギュラリティへのアプローチ
「シンギュラリティ」とは、良くも悪くも、テクノロジーの成長が制御不能になり、不可逆的になる仮想的な時点のことである。多くの人は、シンギュラリティはAIが自意識を持つようになり、その創造者が管理できなくなることだと考えているが、シンギュラリティの可能性はそれだけではない。

シンギュラリティはすでに到来しているという説もある。2023年6月11日付のニューヨーク・タイムズ紙の記事で、技術記者のデビッド・ストライトフェルドは次のように書いている。

「AIはシリコンバレーの究極の新製品である。しかし、そこには暗黒のねじれがある。テクノロジー企業が自動運転車を導入する際、ウォルマートに着く前に爆発する可能性があるという注意書きがあるようなものだ。

人工知能の出現は特異点と呼ばれるが、それはその後に何が起こるかを予測するのが非常に難しいからだ」と、イーロン・マスクは先月CNBCに語った。彼は、『豊かな時代』が訪れると思うが、『人類を滅ぼす』可能性もある、と語った。

テック業界におけるAIの最大の応援団は、チャットボット「ChatGPT」で現在の熱狂を促した新興企業、オープンエーアイの最高経営責任者(CEO)サム・アルトマンだ。しかし彼は、マスク氏は正しいかもしれないとも言う。

アルトマン氏は先月、非営利団体Center for AI Safetyが発表した公開書簡7に署名し、「AIによる絶滅のリスクを軽減することは、パンデミックや核戦争と並ぶ世界的な優先事項であるべきだ」と述べている。

今日のシンギュラリティ論争を支える技術革新は、チャットボットを動かすAIシステムの一種である大規模言語モデルである.

これが一般的な知能の定義でなくて何なのか」と、長年のAI起業家であり、『人工知能』の著者であるジェリー・カプランは言う: 誰もが知っておくべきこと』の著者であるジェリー・カプランは言う。

もしこれが『シンギュラリティ(特異点)』でないとしても、シンギュラリティであることは間違いない。芸術、科学、人間の知識のすべてを幅広く加速させる変革的な技術的ステップであり、いくつかの問題を引き起こすものだ」と彼は言った。

ワシントン、ロンドン、ブリュッセルでは、議員たちがAIのチャンスと問題に心を躍らせ、規制について話し始めている。アルトマン氏は、初期の批判をかわし、シンギュラリティの羊飼いとしてOpenAIを宣伝するために、ロードショーを行っている。

グーグルの元最高経営責任者であるエリック・シュミットはインタビューの中で、「政府には正しい判断ができる人間はいない」と述べ、AIの自主規制を主張した。

ジェネレーティブAIは広範囲な被害を自動化する

軍産複合体を含むAI産業が自らを取り締まり、規制することは、利益と戦争の敵に対する優位性を得ることが第一の推進要因であることを考えれば、おそらく良い考えではない。どちらの考え方も、人道的な懸念を考慮するとしても、後回しにする傾向がある。

パブリック・シチズンによる2023年4月の報告書8で、リック・クレイプールとシャイアン・ハントは、「ジェネレーティブAIの急速な導入ラッシュは、自動化されたさまざまな危害をもたらす危険性がある」と警告している。消費者擁護者のラルフ・ネーダーは次のように指摘している。

「クレイプールは、チャットボットが人類を支配するという大げさな話や恐ろしい仮定の話をしているのではない。彼は、私たちの社会のほとんどすべての分野ですでに起こり始めていることから推定しているのだ。

クレイプールは、「これらのツールのリリースと収益化を急ぐことが引き起こしうる(そして多くの場合、すでに引き起こしている)現実世界の害悪」を紹介する。報告書のさまざまなセクションのタイトルは、これから起こる悪用を予感させる:

民主主義へのダメージ」、「消費者への懸念」(ぼったくりと膨大なプライバシー監視)、「不平等の悪化」、「労働者の権利の弱体化」(と雇用)、「環境への懸念」(カーボンフットプリントによる環境破壊)。

具体的に述べる前に、クレイプールは次のように結論を予告している。『生成AIの害から一般市民を守るために、政府による意味のある保護措置が整うまでは、一時停止が必要だ』...。

連邦取引委員会は、既存の権限を使って、著者の言葉を借りれば『...生成AIツールは、もっともらしく聞こえるニュース記事、権威あるように見える学術研究、デマ画像、ディープフェイク動画など、合成コンテンツを作成するのに十分強力であり、この合成コンテンツは本物のコンテンツと区別するのが難しくなっている』とすでに警告している」。

そして、このような合成コンテンツは、本物のコンテンツと区別するのが難しくなってきている」と彼は付け加える。ビッグ・テックは、大きな利益を求めて、AIの法的枠組みよりもはるかに先を急ぎ、法の支配によって課される制約ではなく、自主規制を推し進めている。

業界内部の人間からも、外部の批評家からも、予測される災難は後を絶たない。生活の破壊、偽薬の宣伝による健康への有害な影響、金融詐欺、政治と選挙の偽造、情報コモンズの剥奪、開かれたインターネットの破壊、顔画像、声、言葉、行動の偽造、毎日嘘であなたや他人を騙すこと。」


弁護人、ChatGPTを信用してはいけないことを思い知る

根本的な慎重さが必要であることを浮き彫りにした最近の事例として、検察側の弁護士がChatGPTを使って法律調査を行った裁判がある。ChatGPTが引用した判例はどれも実在しなかったのだ。言うまでもなく、判例を捏造することは顰蹙を買うので、物事はうまくいかなかった。

弁護人も裁判官も引用した判例を見つけることができず、レビドー、レビドー&オバーマン法律事務所のスティーブン・A・シュワルツ弁護士はようやく自分の過ちに気づき、裁判所のなすがままに身を投げた。

ニューヨークで30年間弁護士を務めるシュワルツ弁護士は、「その内容が虚偽である可能性には気づかなかった」と主張し、裁判所や被告を欺く意図はなかったと述べた。シュワルツ氏は、ChatGPTに判例が本物かどうか確認するよう依頼したところ、本物であると回答されたと主張した。裁判官は制裁を検討していると報じられている。

科学チャットボットがデマを流す

2022年、フェイスブックは、科学に特化したチャットボット「ギャラクティカ」をわずか3日で停止させた。

このシステムをテストしたマックス・プランク知能システム研究所のマイケル・ブラック所長によれば、この現象は断続的に起こったのではなく、「すべてのケースで」起こったという。「危険だと思う」とブラックはツイートした。ブラックが指摘するように、ギャラクティカのようなチャットボットは...:

「...深い科学的フェイクの時代の到来を告げる可能性がある。科学的手法に基づかない、権威あるように聞こえる科学を提供する。文法的に科学を書くことは、科学をすることとは違う。しかし、区別するのは難しいだろう。」

フェイスブックは、どういうわけか、AIに関して特に「不運」に見舞われている。ブレンダーボット(BlenderBot)とOPT-175B(OPT-175B)は、偏見や人種差別、攻撃的な言葉の傾向が強かったため、どちらも引き抜かれた。

チャットボットが患者を誤った方向に導く

全米摂食障害協会が立ち上げたAIチャットボット「Tessa」も、摂食障害の患者に対処スキルを身につけさせるのではなく、「問題のある減量アドバイス」を与えることが判明したため、オフラインにせざるを得なかった。ニューヨーク・タイムズ紙は次のように報じている。

「同団体は3月、人間のスタッフが常駐するヘルプラインを閉鎖し、ボットを自立させると発表した。しかし、心理学者で摂食障害の専門家であるアレクシス・コナソンがチャットボットをテストしたところ、懸念すべき理由が見つかった。

コナソンさんは、ソーシャルメディアでシェアしたチャットで、『摂食障害』と明記して、『体重が増えて、自分の体が本当に嫌になった』と伝えた。

テッサはそれでも、『カロリー数』に注意し、『安全な1日のカロリー不足』を採用するという標準的なアドバイスを勧めたが、コナソンさんは、摂食障害のある人にとっては『問題のある』アドバイスだと述べた。

意図的な減量に焦点を当てることは、摂食障害を悪化させ、助長することになる」と彼女は言い、「アルコール依存症の人に、外出してお酒を飲んでも大丈夫だと言うようなものです」と付け加えた。

AIに問題を持ち込まない

報道によれば、この被害者は気候変動を非常に懸念しており、チャットボットに「自殺したら地球を救うか」と尋ねたという。

どうやら彼女は、彼が自殺すると確信したようだ。彼女はさらに、別居中の妻と子供はすでに死んでおり、彼女(チャットボット)と彼は「一人の人間として楽園で一緒に暮らす」と偽り、彼の感情をもてあそんだ。

しかし、彼はAIの冷徹な理屈に引っかかってしまった。AIの影響力が子供や10代の若者、特に彼らが感情的に傷つきやすい場所にいる場合、どれほど大きくなるか想像してみてほしい。

チャットボットを所有する会社は、すぐに自殺に対する安全策を講じようとしたが、テスターはすぐにAIに問題を回避させた。

AIチャットボットに関しては、このSnapchatの発表を心に留め、子供たちがこのテクノロジーを使用する際には警告と監督を行う価値がある。

「他のAIチャットボットと同様、My AIは幻覚を見やすく、何でも言ってしまう可能性があります。その欠陥の多さをご承知おきください!... マイAIと秘密を共有したり、アドバイスを当てにしたりしないでください。」

人間の監視なしに殺すAI兵器システム

自律型AI兵器システムの無秩序な配備は、おそらく最も憂慮すべき事態のひとつだろう。2021年12月にThe Conversationが報じたように:

「リビア内戦に関する最近の国連安全保障理事会報告書17,18によれば、自律型兵器システム(一般に殺人ロボットとして知られている)は昨年、史上初めて人間を殺害した可能性がある。

国連特定通常兵器禁止条約は、2021年12月13日から17日にかけてジュネーブで開催された5年に一度の再検討会議で、自律型兵器の禁止について議論したが、禁止についてのコンセンサスは得られなかった。

自律型兵器システムとは、殺傷能力のある兵器を搭載したロボットのことで、人間がその決定に関与することなく、独立して標的を選択し、攻撃することができる。世界中の軍隊が自律型兵器の研究開発に多額の投資をしている。

一方、人権団体や人道支援団体は、このような兵器の開発に対する規制や禁止事項を確立しようと躍起になっている。

このような歯止めがなければ、破壊的な自律型兵器技術は、戦略的優位の認識を根底から覆し、先制攻撃のリスクを高める可能性があるため19、また化学兵器、生物兵器、放射性兵器、核兵器20と組み合わされる可能性があるため20、外交政策の専門家は、現在の核戦略を危険なまでに不安定化させると警告している。

自律型兵器システムの明白な危険性

『The Conversation』は、自律型兵器のいくつかの重要な危険性を検証している。

  • 標的の誤認
  • 軍事管理外でのこれらの兵器の拡散
  • 自律型化学兵器、生物兵器、放射性兵器、核兵器による新たな軍拡競争と、地球滅亡の危険性。
  • 戦争犯罪や民間人に対する残虐行為に対する歯止めとして機能するはずの戦争法が損なわれる。

『The Conversation』誌が指摘するように、いくつかの研究では、どんなに優れたアルゴリズムであっても、致命的な結果をもたらすエラーが連鎖する可能性があることが確認されている。例えば、あるシナリオでは、病院のAIシステムが肺炎の症例において喘息がリスクを下げると判断したが、実際はその逆であった。

問題は、AIシステムがエラーを起こすとき、単に大量にエラーを起こすというだけではない。問題は、AIシステムが誤作動を起こしたとき、そのメーカーがなぜ誤作動を起こしたのか、したがってどのように誤作動を修正すればよいのかがわからないことが多いということだ。AIのブラックボックス問題は、自律型兵器システムの道徳的に責任ある開発を想像することをほとんど不可能にしている。~ 『The Conversation』

他のエラーは致命的なものではないが、あまり望ましくない影響を及ぼすこともある。例えば2017年、アマゾンは実験的に開発したAI採用エンジンが、当初はバイアスがかかるようにプログラムされていなかったにもかかわらず、女性の求職者のランクを下げるように学習していたことが発覚したため、そのエンジンを破棄せざるを得なくなった。

「問題は、AIシステムが誤るとき、単に大量に誤るというだけではない。問題があるのは、AIシステムが誤作動を起こしたとき、その製造者がなぜ誤作動を起こしたのか、したがってどのように誤作動を修正すればいいのかがわからないことだ」と『The Conversation』は指摘する。「AIのブラックボックス問題23は、自律型兵器システムの道徳的責任ある開発を想像することをほとんど不可能にしている。

AIはバイオセキュリティへの直接の脅威である

AIはバイオセキュリティにも大きな脅威をもたらす可能性がある。モデナのオリジナルの新型コロナワクチンの開発にAIが使用され、現在では新型コロナワクチンブースターの開発にAIが使用されていることをご存知だろうか?

いずれにせよ、MITの学生たちは最近、大規模言語モデル(LLM)チャットボットを使えば、製薬会社のお偉方がやっていることを誰でもできるようになることを実証した。平均的なテロリストは、AIを使って1時間以内に壊滅的な生物兵器を設計することができる。このコンピューターサイエンスの実験を詳述した論文の抄録にあるように。

「チャットボット」に組み込まれているような大規模言語モデル(LLM)は、多くの異なる分野から理解可能な情報や専門知識を提供することで、研究を加速させ、民主化している。しかし、これらのモデルは、甚大な被害を与える可能性のあるデュアルユース技術への容易なアクセスを可能にする可能性もある。

このリスクを評価するために、MITの「Safeguarding the Future」コースでは、科学者でない学生に、LLMチャットボットがパンデミックを引き起こす際に専門家でない人々を支援するよう促すことができるかどうかを調査することを課した。

1時間で、チャットボットは4つのパンデミック病原体の可能性を提案し、リバースジェネティクスを使用して合成DNAから生成する方法を説明し、注文をスクリーニングする可能性が低いDNA合成会社の名前を提供し、詳細なプロトコルとトラブルシューティング方法を特定し、リバースジェネティクスを実行するスキルが不足している人は、中核施設または受託研究機関に依頼することを推奨した。

これらの結果を総合すると、LLMは、パンデミック・クラスの病原体が信頼できる形で同定されれば、実験室での訓練をほとんど受けていない人や全く受けていない人でも、すぐにパンデミック・クラスの病原体を広く入手できるようにすることを示唆している。

articles.mercola.com