サービスに関するお問い合わせ

緊急対応 専用窓口

セキュリティの緊急事態が発生したらご遠慮なくお問い合わせください。ご相談は無料です。

セキュリティの
学び場

OWASP Top10 for LLMsを解説

OWASP Top10 for LLMsを解説
目次
  • LLMと生成AI
  • OWASP Top 10 for LLMs とは
  • OWASP Top 10 for LLMs の構成
  • 生成AIの未来とセキュリティ

近年、AI技術は目覚ましい進化を遂げ、その中でも生成AIは、文章や画像、音楽など様々なコンテンツを自動生成する技術として注目を集めています。中でも生成AIの代表的な技術の一つであるLLM(大規模言語モデル)は、膨大なテキストデータを学習することで、人間のような文章生成や質問への回答を実現します。

一方で、LLM技術の発展に伴い、新たなセキュリティリスクも浮上しています。OWASP Top 10 for LLMs は、LLMアプリケーション開発における主要なリスクを10項目にまとめ、開発者やユーザーが安全なLLMアプリケーション開発・利用を実現するための指針を提供します。

LLMと生成AI

LLMは生成AIを実現するための代表的な技術のひとつで、大量のテキストデータを学習することで、人間のような文章生成や質問への回答を実現します。 近年は生成AIを活用したWebサービスや業務システムの開発が注目を集めています。 一方で、LLMによる生成AIは以下のように従来のシステム開発と大きく異なる性質を持ちます。

このような性質から、生成AIを活用したシステム開発においては、それに合わせたセキュリティリスクへの対処が必要となります。

OWASP Top 10 for LLMs とは

OWASP Top 10 for LLMs は、LLMによる生成AIを活用した開発における主要なセキュリティリスクを10項目にまとめたものです。OWASPは、Webアプリケーションのセキュリティに関する国際的なプロジェクト団体であり、OWASP Top 10は、Webアプリケーション開発における最も重要な10のリスクをまとめたリストとして広く知られています。

生成AIを活用したシステムの開発者やユーザーは、OWASP Top 10 for LLMs を参照することで、以下のメリットを得ることができます。

OWASP Top 10 for LLMs の構成

OWASP Top 10 for LLMs は、以下の10項目から構成されています。

OWASP Top 10 for LLMs 10項目
  • 1)プロンプトインジェクション; Prompt Injection
  • 2)安全でない出力処理; Insecure Output Handling
  • 3)トレーニングデータの汚染; Training Data Poisoning
  • 4)モデルへのDoS攻撃; Model Denial of Service
  • 5)サプライチェーンの脆弱性; Supply Chain Vulnerabilities
  • 6)機密情報の開示; Sensitive Information Disclosure
  • 7)安全でないプラグインの設計; Insecure Plugin Design
  • 8)過剰なエージェンシー; Excessive Agency
  • 9)過度の信頼; Overreliance
  • 10)モデルの盗難; Model Theft

従来のデータベースでは「SQLインジェクション」や「NoSQLインジェクション」等の攻撃が知られていますが、生成AIでも「プロンプトインジェクション」という攻撃が想定されます。プロンプトインジェクションでは自然言語による生成AIへの問い合わせ(プロンプト)に攻撃者由来の文字列が不適切に混入することで、意図しない問い合わせが生じます。

また、従来のプログラムと異なり、完全な制御が困難であることから「安全でない出力処理」や「過剰なエージェンシー(権限の委譲など)」や「過度の信頼」等が問題になります。同様に、出力が学習データに依存することから「トレーニングデータの汚染」や「機密情報の開示」等が問題になります。現状の生成AIは「間違える」事が多々あるため、「間違えることを前提とした仕組み」と共に、間違えを誘発しようとする攻撃者の影響抑止が重要となります。

それ以外にも、クラウド上の生成AIサービス利用にはコストがかかるため、「モデルへのDoS攻撃」を受けた際には想定外の費用が生じる場合もあります。 また、「サプライチェーンの脆弱性」や「安全でないプラグインの設計」のように従来からある問題への対処も必要とされます。

「モデルの盗難」もシステム内データへのアクセス制御という従来の問題であると同時に、「プロンプトエンジニアリング」と呼ばれる技術によりモデルパラメタ等を推測する攻撃も知られています。

注意が必要な点として、これらはあくまでも「LLMを含む生成AIを扱う上でのリスク」であることが挙げられます。 実際に生成AI活用システムをWeb上に構築する際には、従来のWebアプリケーション、クラウド基盤などのセキュリティリスクへの対応も必要です。

生成AIの未来とセキュリティ

生成AIは私たちの生活を様々な形で豊かにしてくれる可能性を秘めており、LLMを含むAI技術は今後も更なる進化が期待されています。一方で OWASP Top 10 for LLMs は、生成AI技術の発展に伴う新たなセキュリティリスクも示唆しています。生成AIを活用したシステム開発を検討する際には、Top10 等の情報源を活用して新たなセキュリティリスクに備えましょう。

この記事の著者 中村 丈洋

形式手法および高信頼ソフトウェアの研究に従事、博士号(工学博士)を取得。2013年より株式会社SHIFTにてソフトウェアテスト支援ツール開発および非機能テストに従事。SHIFT SECURITY の設立に携わる。同社では脆弱性診断手法とツール開発、およびセキュリティコンサルティング業務に従事。2018年よりSHIFT SECURITY 執行役員に就任。現在に至る。

\ 記事をシェアする /

サービスに関するお問い合わせ