banner

ニュース

Aug 08, 2023

政府機関は AI ツールと大規模言語モデルを活用

政府機関が任務を遂行するために強力なリソースを使用し始めるにつれて、人工知能 (AI) と機械学習テクノロジーが政府のアプリケーションに拡大しています。

ChatGPT、OpenAI、Meta などの大規模言語モデル (LLM) は価値があるものの、セキュリティ上の問題により、これらのモデルを大規模に使用することはできないと政府機関関係者は述べています。

米国空軍省データ主任ジョセフ・チャパ中佐は「モデルが非常に大きいため、安全な環境内にこれらのモデルを持ち込むにはおそらく法外なコストがかかり、また同社はモデル自体へのアクセスを与えていない」と述べた。水曜日のATARCのAIサミットでのAIオフィサー。

Chapa氏は、大規模な言語モデルは現在、政府機関レベルのデータに対して認定されていないため、いくつかの制限が設けられていると述べた。

「システムを使って行うすべてのことは、完全に機密扱いではなく、機密性のないレベルでなければなりません」とチャパ氏は述べた。

しかしチャパ氏は、当局は小規模なオープンソースモデルが機密データを安全に管理できるツールを提供することを期待していると述べた。

その一方で、政府機関はセキュリティ問題と闘い、データのための安全な環境を構築するために内部でも取り組んでいます。 たとえば昨年、米国沿岸警備隊は、AI および LLM アプリケーションを実行するための新しいインフラストラクチャの構築に焦点を当てた気候データ ブランチを作成しました。

「今一番興奮しているのは、試合に少し遅れてしまったことだ。 しかし、早期採用者たちが学んだすべての教訓を私たちが学ぶ必要もなかったのです」と沿岸警備隊のクラウドおよびデータ支局長であるジョナサン ホワイト氏はサミット中に述べた。

ホワイト氏は、大規模な言語モデルは AI のパイのほんの一部にすぎず、このテクノロジーがどれほどリソースに富むかを理解しているため、当局は非常に「AI に興味を持っている」と述べた。

「従業員数が限られているため、常に適切な場所に人材を配置することは非常に困難であり、そのために私たちには多くのポリシー、規制、規則、およびそれらの使命に付随するその他すべてのものが存在します。 これらのポリシーや規制に関連するあなたの質問に対する答えを引き出すことができるツールがあれば素晴らしいと思いませんか?」 ホワイト氏が説明した。 「検査中や警告中に質問が必要な場合、検査を実施するために必要な情報を表示できるデジタル アシスタントがあれば素晴らしいと思いませんか。」

しかし、専門家らは、エラーを回避するには人間が関与する必要があるため、テクノロジーに完全に依存することはできないと述べた。

「これは、私たちが一般的にビジネスを行う方法と何ら変わりません。 新しいプロジェクトを作成するときはレビュー担当者が必要であり、どんな種類の調査を行う場合でも調査担当者が必要です」とサミット中に NASA クラウド AIML 財団リードの David Na 氏は述べました。これらの大規模な言語モデルによって。」

政府機関は大規模な言語モデルに価値を見出しているが、課題が今後も続く可能性があることを認識しているとチャパ氏は語った。 「人々がこれらのモデルを自分で使用していることは知っていますが、ある時点で何らかのミスや漏れが発生するでしょう」と彼は指摘しました。

しかしチャパ氏は、テキスト生成モデルを最もよく活用できるのは、基本情報がすでにわかっている場合であり、事実を検証するのが簡単だと述べた。

「アナリストにとって、このツールを使って世界についての洞察を得たいと思うのは魅力的でしょう。 そして、私はそれをすべきではないと言っているのではありません。 私が言いたいのは、これらのツールをそのような立場で使用するつもりなら、その上に組織的なファクトチェック層を構築する必要があることを認識すべきだということです」とチャパ氏は述べた。

大規模な言語モデルが生み出す可能性のある課題にもかかわらず、当局関係者らは、強化された検索エクスペリエンス、データへのアクセシビリティ、および AI ツールが提供するその他の可能性に興奮していると述べた。

共有