Large Language Model Threat: What CISOs Should Know About the World of ChatGPT

Report Summary

Large Language Model Threat: What CISOs Should Know About the World of ChatGPT

大規模言語モデルの脅威:ChatGPT 時代にサイバーセキュリティ責任者が認識すべきこと

ハッカーは、ChatGPT を活用してマルウエアを作成したり完成度の高いフィッシング・メールを送付できるようになる。

Tari Schreider
Strategic Advisor

March 14, 2023 – 大規模言語モデル(Large Language ModelsLLM)は、膨大なデータから学習した知識に基づき、コンテンツを認識/要約/翻訳/予測/生成するディープ・ラーニング・アルゴリズムだ。これは、もし犯罪者がサイバー攻撃に関する大量のデータを人工知能を学習させると、強力な武器となる可能性を意味する。次世代のハッカーは、LLMを活用しマルウエアのコーディングやフィッシング・メールの表現、攻撃目標の設定などの精度を高めるだろう。

本レポートでは、これまであまり意識されていなかった大規模言語モデル(LLM)を活用した新しい形態の脅威をご紹介する。BlackBerry IT部門責任者1500人に対して実施したアンケート調査でも、ChatGPT を活用した新たな脅威が1年以内に現実になるとの意見が多数を占めた。

弊社 Cybersecurity service をご契約のお客様は、本レポートをダウンロード頂けます。

本稿では、BlackBerry, Check Point Research, Council of the EU, DeepMind, European Parliament, George Mason University, Google, Microsoft, OpenAI, Perplexity AI, Replika, WithSecure, Writesonic Inc. に言及しています。

How can we help?

If you have a question specific to your industry, speak with an expert.  Call us today to learn about the benefits of becoming a client.

Talk to an Expert

Receive email updates relevant to you.  Subscribe to entire practices or to selected topics within
practices.

Get Email Updates