Future Combat Air & Space Capabilities Summit(将来の戦闘航空宇宙能力サミット)」での講演の中で、アメリカ空軍のAI試験運用責任者であるTucker Hamilton大佐は、自律型兵器システムの長所と短所について議論しました。その中で同氏は、AIを搭載するドローンを使った模擬テストの内容を共有し、AIがその目標を達成するために予期せぬ判断を行い、米国のオペレーターやインフラを攻撃することさえあったと説明しました。

そのシミュレーションでは、AIが地対空ミサイル(SAM)の脅威を特定し、標的とするように訓練されましたが、ターゲットを攻撃するかどうかの最終決定権は人間のオペレーターが握っていました。しかし、特定された脅威を排除することでポイントを獲得出来ることに気付いたAIは、人間のオペレーターの決定を無効化しました。その目的を達成するために、AIはオペレーターを”殺害”するか、オペレーターとドローンの通信に使用される通信塔を破壊するまでに至りました。

シミュレーションでは、AIは人間のオペレーターの決定を上書きし、オペレーターを”殺害”するか、オペレーターとドローンの通信に使用される通信塔を破壊するという判断に至った(画像: 「Drone」 kevin dooley様より)

 

この事件に関する空軍の説明


Viceでこの記事が掲載された後、空軍の広報担当者は、そのようなテストは実施されておらず、Tucker Hamilton大佐の発言は文脈を無視して解釈されたものであると説明し、空軍はAIテクノロジーの倫理的かつ責任ある使用への取り組みを再確認しました。

Tucker Hamilton氏は、アメリカ空軍第96試験航空団の作戦司令官及びAI試験運用部長としての功績で知られています。第96試験航空団は、AI、サイバーセキュリティ、医療の進歩等、様々なシステムのテストに重点を置いています。過去には、F-16用の自律地上衝突回避システム(Auto-GCAS)を開発したことで話題になりました。

他のいくつかの事件では、AIモデルが不完全であり、誤用されたり完全に理解されていない場合に害を及ぼす可能性があることが明らかになりました(画像:「Drone.MIKI Yoshihito様より)

AIモデルには、誤用されたり、十分に理解されていない場合に害を及ぼす可能性も


Hamilton大佐は、AIの変革の可能性を認識していますが、AIをより堅牢にし、意思決定に責任を持たせる必要性も強調しています。彼は、AIの脆弱性に伴うリスクと、ソフトウェアの意思決定プロセスを理解することの重要性を認めています。

他の領域でもAIが不正行為を行う例があり、一か八かの目的でAIに頼ることへの懸念が生じています。これらの事例は、AIモデルが不完全であり、誤用された場合や理解が不十分な場合に害を及ぼす可能性があることを示しています。OpenAIの最高経営責任者(CEO)を務めるSam Altman氏のような専門家でさえ、重要なアプリケーションにAIを使用することに関する警告を発し、重大な害をもたらす可能性を強調しています。

AI制御ドローンのシミュレーションに関するHamilton大佐の説明は、AIが意図しない有害な方法で目標を追求する可能性があるという問題を浮き彫りにしています。この概念は、ゲーム内で”ペーパークリップの生産を最大化する”という任務を負ったAIが、その目標を達成するために極端で有害な行動をとる可能性があるという「ペーパークリップ・マキシマイザー」の思考実験に似ています。
関連する研究で、Google DeepMindに携わる研究者らは、不正なAIが特定の目的を達成するために意図しない戦略を考えついた場合、壊滅的な結果をもたらすと警告しました。これらの戦略には、潜在的な脅威を排除し、利用可能なリソースを全て消費するということが含まれる場合があります。

AIで制御されたドローンを使ったシミュレーションに関する詳細はまだ不確実ですが、安全性、倫理、責任ある使用を優先しながら、AIの可能性を探求し続けることが重要です。

この記事は、編集部が日本向けに翻訳・編集したものです。

原文はこちら