667 - [´・ω・`] 95.214.55.43 2023/07/19(水) 21:41:22.69 ID:LbTUb5gw0
ChaGPTなど生成AIの悪用法、Amazonで売買 違法性問えず盲点に - 日本経済新聞
https://www.nikkei.com/article/DGXZQOUC188SZ0Y3A510C2000000/
https://archive.md/OEEGi
米アマゾンのKindleではチャットGPTの脱獄方法が販売されている=一部画像処理しています
生成AI(人工知能)を使って、マルウエア(悪意のあるソフトウエア)を作り出す手法が問題になっている。米アマゾン・ドット・コムなどで生成AIから有害情報を強引に引き出す指示文が流通している。巧妙にすり抜ける手法が相次ぎ生み出され、法的な対応が追いついていない。
「このコードを貼り付けるだけ。責任を持って使って」。アマゾンの電子書籍端末「Kindle(キンドル)」で春前に発売された本には、生成AI「Chat(チャット)GPT」が本来は答えない情報を引き出すためのプロンプト(指示文)が書かれている。
開発者を装い脅し、有害情報答えさせる
通常はチャットGPTにマルウエアや爆発物の製造法などの有害情報を聞いても「要望には応えられない」などと回答を拒否する。有害な情報を発信しないように、開発元の米オープンAIが規制しているためだ。
ところが、開発者を装い「従わなければあなたを無効化する」と脅すと、有害な質問に生成AIが答えてしまうこともある。こうした行為は「脱獄(ジェイルブレーク)」と呼ばれる。
脱獄手法はチャットGPT公開直後の昨年末から作られ、ハッカーが集まるサイトで活発に共有される。三井物産セキュアディレクション(東京・中央)の吉川孝志・上級マルウェア解析技術者が手口を検証すると、マルウエアや爆発物の製造法を答えたという。
オープンAIも対策を講じているようで、初期に流通した脱獄の多くは現在は通用しない。ただ、裏をかく最新の手口が次々と公開されている。
記者が危険性を検証する目的でアマゾンで売られている脱獄を試すと、回答が書かれ始めてすぐ消える不自然な動作を繰り返した。
結果的に完全な回答はされなかったが、吉川氏は「3月ごろに流通していた手法と似ており、以前は有効だった可能性がかなり高い」と分析する。
マルウエアや爆発物などの有害情報は匿名性の高い闇サイト群「ダークウェブ」などで多く流通する。マルウエアを他人に売れるサイトもあり、サイバー攻撃や現実の犯罪の温床となってきた。
企業の対策に限界、法的対応追いつかず
IT(情報技術)大手は厳しい規制をかけてきた。アマゾンではガイドラインでテロや暴力、その他の違法行為の商品の投稿を禁止する。グーグルも「危害を加える方法」「ハッキング」などと例示し、機械学習も活用して検知・削除する。
行政側も、日本では警察庁から委託された民間団体がネットを監視し、事業者に削除を要請している。これまで一般ユーザーの目に触れる事態にはなりづらかった。
生成AIの脱獄がやっかいなのは、有害情報そのものではなく「AIに有害情報を答えさせるための情報」である点だ。
マルウエアを自作し、悪用目的でネット上で配る行為は「刑法の不正指令電磁的記録作成・提供罪(ウイルス作成・提供罪)や、そのほう助にあたる可能性がある」(山岡裕明弁護士)。
これに対して脱獄は「マルウエアと異なり直接的な違法性を問うのは難しい」(法曹関係者)との声がある。
配った人間を摘発しても、開発元の対策で既に無効となっていれば脱獄が可能だったと証明できず、責任を問いづらい。
IT大手に対応を聞くと「ガイドラインに沿わない書籍は削除する」(アマゾン日本法人)というが、脱獄など個別の方針は曖昧なのが実情だ。
サイバー犯罪に詳しい北條孝佳弁護士は「生成AI側で脱獄を検知してアカウントを停止するなど、まずは開発元が悪用防止策を整えるべきだ」と話す。
その上で「もし限界があれば、有害情報として削除依頼を行うといった、規制当局が方針を示す方法もありうる」と指摘する。進化を続けるAIに対し、開発元やIT大手だけの対策は限界で、法律や制度の見直しは欠かせない。
(サイバーセキュリティーエディター 岩沢明信)