AIのリスク 【デジタルプロフェッショナル学科】
今月22日に米のNPO「未来生命研究所(Future of Life Institute)」は
オープンレターを発表し、すべてのAI研究機関に対して、
GPT-4より強力なAIシステムの訓練を少なくとも6か月間、直ちに停止するよう要請しました。
GPT-4とは、AIの非営利団体OpenAIが今年開発した次世代の大規模言語モデルです。
人間と変わらない言語生成等ができる技術で、ChatGPTなどで使用されています。
私もChatGPTを使ってみましたが、その能力は驚きです。
このオープンレターの1,700人以上の署名者の中には、
テスラやOpenAIの創設者であるイーロン・マスク、
アップル共同創業者のスティーブ・ウォズニアック、
AI研究で著名なカリフォルニア大学バークレー校教授のスチュアート・ラッセル、
モントリオール大学教授のヨシュア・ベンジオなど、
そうそうたるメンバーが名を連ねています。
リンク https://futureoflife.org/open-letter/pause-giant-ai-experiments/
オープンレターの指摘はごもっともだと思います。
・AIが人間の手を離れて制御不能に陥る危険性
・プロパガンダやフェイクを作り出す危険性
・経済的・政治的混乱を招く危険性
・民主的なプロセスを踏まえず、科学者が重大な事項を決定してよいのかという疑問
・AIを制御して安全に使用するための約束事(プロトコル)の必要性
ただ、6か月間、止めるだけでは焼け石に水ですし、
軍事技術や核技術と同じで、各国が競争的に技術を進めている現状では、
残念ですが、一時停止する実効性を担保できないと思います。
とは言え、とても重要な指摘ですので、
ちゃんと授業で教えないといけない内容だと思います。
オープンレターはかなり長文ですが、
翻訳ソフトDeepLで翻訳したものを下記につけておきます。
若干怪しいところもありますが、
言わんとしていることはわかると思います。
「私たちは、すべてのAI研究所に対し、GPT-4より強力なAIシステムの訓練を少なくとも6ヶ月間、直ちに一時停止するよう要請する。」
広く支持されているAsilomar AI Principlesにあるように、高度なAIは地球上の生命の歴史に大きな変化をもたらす可能性があり、相応の配慮とリソースをもって計画・管理されるべきものである。しかし、残念ながら、このような計画や管理は行われていません。ここ数カ月、AI研究所は、誰も(その作成者でさえも)理解できず、予測できず、確実に制御できない、より強力なデジタルマインドを開発・展開するための制御不能な競争に陥っているのです。
現代のAIシステムは、一般的なタスクにおいて人間並みの能力を発揮するようになりつつあり、私たちは自問自答しなければなりません: 私たちは、機械が私たちの情報チャネルをプロパガンダや真実でないもので溢れさせるべきでしょうか?充実した仕事も含めて、すべての仕事を自動化すべきなのか。私たちは、やがて私たちよりも数が多く、賢く、私たちを時代遅れにさせて取って代わるかもしれない非人間的な精神を開発すべきなのか?私たちは、文明のコントロールを失うリスクを冒すべきなのでしょうか?そのような決定を、選挙で選ばれたわけでもない技術指導者に委ねてはならない。強力なAIシステムは、その効果が肯定的であり、リスクが管理可能であると確信した場合にのみ開発されるべきです。この自信は十分に正当化されなければならず、システムの潜在的な影響の大きさに応じて増大する。OpenAIの人工一般知能に関する最近の声明では、”ある時点で、将来のシステムの訓練を開始する前に独立したレビューを受けること、そして最も進んだ取り組みでは、新しいモデルの作成に使用する計算機の成長速度を制限することに合意することが重要になるかもしれない “と述べています。私たちは同意します。そのポイントは今です。
したがって、我々はすべてのAI研究所に対して、GPT-4よりも強力なAIシステムの訓練を少なくとも6ヶ月間、直ちに一時停止することを求める。この一時停止は、公開され、検証可能であり、すべての主要な関係者を含むものでなければならない。このような一時停止が迅速に実施できない場合は、政府が介入してモラトリアムを実施する必要があります。
AI研究所と独立した専門家は、この休止期間を利用して、独立した外部の専門家によって厳格に監査・監督される、高度なAIの設計・開発に関する一連の共有安全プロトコルを共同で開発・実施すべきである。これらのプロトコルは、それを遵守するシステムが合理的な疑いを超えて安全であることを保証するものでなければならない。これは、AI開発全般の休止を意味するものではなく、出現する能力を持つ予測不可能なブラックボックスモデルをますます大きくする危険な競争から一歩後退することを意味している。
AIの研究開発は、今日の強力な最先端システムを、より正確で安全、解釈可能、透明、堅牢、連携、信頼、忠実なものにすることに再注目されるべきです。
これと並行して、AI開発者は政策立案者と協力し、強固なAIガバナンスシステムの開発を劇的に加速させなければなりません。これには少なくとも、AIに特化した新しく有能な規制当局、高度な能力を持つAIシステムと大規模な計算能力のプールの監視と追跡、本物と合成を区別しモデルの流出を追跡するための実証と電子透かしシステム、堅牢な監査と認証エコシステム、AIによる被害に対する責任、AI安全技術研究に対する強固な公的資金、AIが引き起こす経済的・政治的混乱(特に民主主義の)に対処するための十分にリソースを確保した制度、などが含まれるはずです。
人類は、AIによって豊かな未来を享受できる。強力なAIシステムの創造に成功した今、私たちは「AIの夏」を楽しむことができます。この夏、私たちは報酬を受け取り、すべての人の明確な利益のためにこれらのシステムを設計し、社会に適応する機会を与えることができます。社会は、社会に壊滅的な影響を与える可能性のある他の技術に対して一時停止を行った。 私たちは、ここでそうすることができる。長いAIの夏を楽しみ、準備不足のまま秋に突入しないようにしましょう。