Report

Large Language Model Threat: What CISOs Should Know About the World of ChatGPT (JP)

大規模言語モデルの脅威:ChatGPT 時代にサイバーセキュリティ責任者が認識すべきこと
ハッカーは、ChatGPT を活用してマルウエアを作成したり完成度の高いフィッシング・メールを送付できるようになる。
/

March 14, 2023 – 大規模言語モデル(Large Language Models:LLM)は、膨大なデータから学習した知識に基づき、コンテンツを認識/要約/翻訳/予測/生成するディープ・ラーニング・アルゴリズムだ。これは、もし犯罪者がサイバー攻撃に関する大量のデータを人工知能を学習させると、強力な武器となる可能性を意味する。次世代のハッカーは、LLMを活用しマルウエアのコーディングやフィッシング・メールの表現、攻撃目標の設定などの精度を高めるだろう。

本レポートでは、これまであまり意識されていなかった大規模言語モデル(LLM)を活用した新しい形態の脅威をご紹介する。BlackBerry IT部門責任者1500人に対して実施したアンケート調査でも、ChatGPT を活用した新たな脅威が1年以内に現実になるとの意見が多数を占めた。

弊社 Cybersecurity service をご契約のお客様は、本レポートをダウンロード頂けます。

本稿では、BlackBerry, Check Point Research, Council of the EU, DeepMind, European Parliament, George Mason University, Google, Microsoft, OpenAI, Perplexity AI, Replika, WithSecure, Writesonic Inc. に言及しています。

Related Content

CIO/CTO Checklist: Explaining AI and ML Algorithm Outcomes to Regulators

CIOs, CTOs, and heads of architecture must embrace best practices that support AI explainability.  

Get Summary Report

"*" indicates required fields

Name*
This field is for validation purposes and should be left unchanged.