2030年の台湾有事の認知戦シミュレーション(第3回)

社会の不安定化と影響力工作が進展する我が国

■日本社会の分断化が進展する

最近では、誤った集団心理によっていじめや極端な暴行が増加していると言われています。ある権威者によれば、「一人ではあまり過激な思想を持っていない人でも、大勢が集まると次第に思考が過激化していき、特定の誰かを攻撃する」といった事件が増えており、これを「集団極性化」と呼んでいます。

特にインターネットの世界では、思想の似通っている者同士が簡単に集団を形成しやすくなっており、「集団極小化」が起こりやすい状況です。

例として、2020年前後に猛威を振るった新型コロナ禍の中で発生した「コロナ自警団」は、その顕著な事例と言えます。ソーシャルメディアを通じて知り合った個人による連帯集団が、ウイルスの感染者が発生した大学に対して脅迫電話をかけたり、県外ナンバーの車に傷をつけたり、「感染リスクが高い」とされる職業に従事する親を持つ子どもを学校から排除しようとしたりしました。更には感染者の個人情報を無許可で公開し、集団で誹謗中傷やブラックメールを送りつけたことで、情報モラルの違反や他者への人権損害が生じました。

事件発生当時、政府の自粛要請を受け入れない「不届き者」を制裁しようとする一団が、正義の使者を装い、制裁行為をエスカレートさせました。彼らは政府に従うことで自らも小さな権威者となり、自らを正当化し、感染者を村八分にするかのような犯罪行為に手を染めたのです。

さらに、2022年からのウクライナ戦争では、「集団極小化」が一層進んでいます。一部の政治家や地域専門家が「NATO不拡大約束(1990年2月9日)」や「ミンスク合意(2014年9月5日)」などを根拠に、「欧米にも戦争責任がある」といった意見を主張すると、たちまちソーシャルメディアやマスメディアで叩かれる事態が起こりました。ロシア側の視点に立って「戦争の原因が2015年のミンスク合意を欧米が破ったことにある」と述べようものならば、「ロシアに味方するのか!」「侵略したロシアが悪いことに決まっている!」との怒号を浴びた。

2030年現在、個人が身勝手な思い込みや政府方針、有力集団の主張を盾に自己満足のために他者の人権を侵害するケースがますます増えています。

難民受け入れ問題、LGBT法案、防衛問題、宗教対策、教育保障、環境問題、デジタル化問題、年金と税金をめぐる問題は、社会を分断させる問題だと認識されています。

国民のインテリジェンス・リテラシーの低下や判断することの回避、選挙や政府の法案決定などの際に起きる集団極小化と情報モラルの違反、政府のデジタル化政策の推進と情報管理体制の杜撰さから起こる個人情報の漏洩などのデジタル社会の暗部が露呈されてきました。

多くの見識者は、このような状況が続けば、結果として社会全体の一体感や調和を揺るがすことになると指摘しています。

戦後、外部からもたらされたとはいえ民主主義を謳歌してきた日本が、それを守るために民主主義にメスを入れるのか、それとも民主主義の精神を尊重し、規制を自粛するのか岐路に立っています。

■権威主義国家がますます優位に立つ

わが国をはじめ、欧米諸国はAIが社会を分断化させることを危惧し、AIの不適切な利用を制限するため、基準を設けようとしていますが、自由・民主主義を盾にした反対勢力により、その施策は停滞しています。

一方で、権威主義国家は、自国に都合のよい法律と解釈を用いて、AIの技術開発で優位に立とうとしています。

わが国の隣国である中国は、中国共産党の許可を得た組織や個人だけが国家目的に限ってAIを利用できると定めた法律を制定しました。国民が共産党の許可なくAIを利用することを禁止したのです。

これらの措置が奏功したのか、中国国内の民主化デモは国民の「ガス抜き」程度にとどまっていると考えられています。

最近、世界では「AIと調和して発展する中国」「無秩序なAIの発展が社会を混乱させる」など、中国を賞賛し、欧米のAI政策を批判する論説が増加しています。

AIを使ったソーシャルメディア上の巧妙な偽情報により、民主主義国家のリーダーや国民が徐々にその影響を受け、無意識のうちに権威主義的な価値観に傾斜していくことが懸念されています。

わが国のソーシャルメディアでは、政権与党の批判や政府高官のスキャンダル暴露が盛んに行われ、国民の政権批判と政治離れが顕著になっています。

一方で、かつて米国にトランプ政権が誕生したように、最近の国政・地方選挙では、自主国防、米軍撤退、核兵器保有、移民反対などの右傾的な政府公約を掲げる候補が当選するケースが増えています。

こうした情勢を見て、不安定化と影響力の行使を目標とする某国の認知戦が行なわれていると警告する声も出ています。

わが国では厳しい銃規制にもかかわらず、インターネット上の知識と3Dプリンターを使って模造銃を製造するケースが後を絶ちません。

2022年には元総理大臣が銃殺される事件が発生しましたが、ソーシャルメディアはその犯人を称賛したり、刑の軽減を求める声を拡散させたりしました。

この事件では第三国による犯罪者のマインドコントロールも警戒すべきとの声が起こりましたが、わが国の国民が第三国による影響工作のターゲットになりやすい側面があるのは否定できません。

(次回に続く)

2030年の台湾有事の認知戦シミュレーション(第2回)

社会の不安定化と影響力工作が進展する我が国

■インテリジェンス・リテラシーを失う国民

2030年現在、国民は大人から子供まで生成AIに依存しています。ChatGPTが登場した当初、教育や学業に様々な影響が及ぶと見られ、国内の大学では、利用の基準を示したり、注意喚起を行ったりするところもありました。しかし、生成AIがビジネス界に広まると、デジタル弱者になることへの恐れから、誰もが最新式の生成AIに飛びついている状況です。教育界などの注意喚起は社会になかなか浸透せず、政府も形式的な注意喚起は行っていますが、規制などの具体的な措置は取っておらず、基本的には野放し状態です。

すでに生成AIを巡るさまざまな問題が表面化していますが、表に現れていない重大な問題は、情報のリテラシーとモラルの問題です。人間は言葉を覚え、自ら「文章を書く」ことで思考力や想像力を養成してきました。生成AIに依存することで情報を使って思考し、判断する必要がないため、インテリジェンス・リテラシーが低下しています。情報の収集の指向性、適切性、妥当性の評価ができなくなり、状況判断や意思決定を誤ることになるとの警告も出ています。

一方で、情報モラルは倫理的な視点や責任感を持って情報を利用することです。インテリジェンス・リテラシーが低下すれば、情報モラルも低下します。最近の個人のプライバシーの暴露、著作権侵害を巡る裁判沙汰の増加は、生成AIが人々の情報のリテラシーとモラルの低下が原因であると指摘されています。特に隆盛を続けているソーシャルメディアの世界では、情報のリテラシーを欠き、モラルに違反する事例が増加しています。

ソーシャルメディアは趣味や価値観を共有する特定グループを形成することで飛躍的に発展しました。その結果、特定グループ内では他人の行動や信念を模倣し、肯定し、異なる意見や視点が排除されるようになりました。この状況は「エコーチェンバー」効果と呼ばれる現象であり、かねてから問題視されてきましたが、2030年現在はそのような傾向が顕著となっています。

現在は、ソーシャルメディアの世界では、偽情報や誤解が蔓延し、「高速思考」(反射的で感情的な思考)が一般化し、「低速思考」(合理的で慎重な思考)が排除される傾向を強くしています。さらに憂慮すべきことに、ソーシャルメディアの中で横行する偽情報を基づいて、リアル社会での暴力事件が発生している事例も確認されています。銃規制のない米国では、以前からこのような事件が起きていました。

今日の日本でも同様の事件が起きています。いくら銃の規制を厳しくしても、インターネットから爆発物や銃を製造する知識は得られ、生成AIも少し遠回しの質問をすれば、このような情報要求に応じてくれます。政府はインターネット上の監視の強化を求めていますが、通信の自由を妨害するとか個人のプライバシーを侵害するといった理由から、国家論議はいつも紛糾しています。

言論の自由を尊重する日本では、ソーシャルメディアは〝無法地帯〟と言えるでしょう。その世界では、偽情報の拡散力が強いです。政府が若者を苦しめる悪法を制定するなどのデマが流れ、一部の若者は反社会的な行動に走るケースも散見されます。 インテリジェンス・リテラシーやモラルを失った人々が反社会的な発言や行動を広め、それが拡散していく様子が見受けられます。このような社会の流れを抑える具体策はまだ提案されていません。

■信頼を喪失するマスメディア

新聞や雑誌などの伝統的なマスメディアは、デジタル・ソーシャルメディアの台頭とともに発行部数を減少させ、収益性が低下しています。これは今に始まったことではなく、インターネットやスマートフォンが登場して以来の問題ですが、最近ではその傾向が一層強くなっています。国民の新聞購読数は激減し、テレビよりもユーチューブなどの動画サイトを好むようになりました。いつ誰が作成したかわからないユーチューブ報道を見て、現在進行しているリアル社会であると錯覚する人も多いです。

生成AIが書いた小説がインターネットで話題になるなど、書籍はますます売れなくなりました。生成AI以前に人気を博した執筆者はかろうじてその権威を保っていますが、新たな執筆者は表舞台に登場しなくなり、出版業はますます斜陽化しています。

デジタル・ソーシャルメディアに対抗するため、すでに一部のメディアは視聴者が好む情報を流すようになったとの批判があります。つまり、視聴率や閲覧数を増加させることに躍起になっているのでしょう。社会的な混乱や政治的な対立が高まる局面では、報道倫理を無視し、情報の真偽を見極めることなしに、人々の興味ある情報を流す傾向が強まっているようです。10年前はマスメディアに対し「情報源として信頼できる」と回答した者は六割を超えていましたが、最近は四割程度となり、国民の多くからマスメディアは信頼を失ったとされています。

一部のマスメディアは娯楽番組や過去の特集に力を入れており、多くのマスメディアは収益性が低下したため独自取材には力を入れられず、政府発表に追随している状況です。もはや「政治権力の監視」というかつての看板はすっかり色あせたようです。一部の見識者は、多くの国民が正しい情報を入手する手段を失えば、判断すること自体が面倒であると指摘しています。

(次回に続く)

2030年の台湾有事の認知戦シミュレーション(第1回)

このシナリオは台湾有事と題していますが、中国と台湾で起きる物事に焦点を当ててはいません。台湾有事が発生する前の、平時からグレーゾーン段階での日本の沖縄本島を含む南西諸島を中心とした日本で起きる情報戦や認知戦に関するシナリオです。

社会の不安定化と影響力工作が進展する我が国

■AI技術がもたらすデジタル社会の混迷

2030年現在、我が国におけるAIは急速に発展中であり、AIがけん引する高度なデジタル社会からはもはや後戻りできない段階に達している。インターネットを通じて世界中の情報に瞬時にアクセスすることは、仕事やビジネスの効率化やイノベーションのために不可欠となっている。また、インターネット上で様々なサービスを享受することで生活の利便性が向上し、我が国の少子高齢化対策においてもAIは欠かせない存在となってきた。

しかしながら、同時に多くの国民がAIによるネガティブな側面に気づき始めている。サイバー空間ではディープフェイクによる偽情報の生成、自動化されたフィッシングメール攻撃、自動プログラミングによるマルウェアの生成など、AIの悪用事例が様々な形で確認されている。すでに多くの分野でAIが人間の業務を代行し、人間の職を奪うなどの影響も現れ始めている。

さらに、AIはデジタル格差、情報格差、世代間格差を生み出している。デジタル技術の普及に伴い、多くの情報やサービスの受け渡しはオンラインで行われるようになった。デジタル社会はリテラシーに優れた若者にとっては利便性が高い一方で、そうでない者には住みにくい社会となっている。

特にデジタルリテラシーが低い高齢者は、オンラインシステムからの個人情報や銀行口座の流出などを心配し、疑心暗鬼になっている。どこに電話をかけてもオンラインメッセージであり、市役所の資料請求に出かけても丁寧に案内してくれる受付人がいない現実に直面している。警察や自治体からの詐欺に関する注意喚起も頻繁に行われ、人手不足の中で情報格差と世代間格差が進んでいるのが現在の社会の実態である。

こうした状況は社会の分断化を招くものとして多くの専門家が警告している。政府はデジタル社会の発展と利便性を維持するためには、社会、組織における情報管理の徹底と、個人の情報リテラシーやモラルが重要であると啓発している。

政府内にはAIを規制する動きもあるが、自由・民主主義を奉ずる勢力の反対によってこれらの動きは打ち消され、結果的にAIは制約なく発展している状況である。一方で、暗号通貨やAIを積極的に利用する層は海外資金を運用し、国内では脱税の手段を模索している。

最先端技術に追いつけない高齢者などは国家のデジタル化に反対の立場をとりがちである。高齢者たちは社会の端に置かれがちであるが、彼らは強力な権力である選挙権を持っている。このため、政治家たちは高齢者層の投票に期待し、国家のデジタル化があまり進展していない。

一方で、隣国の中国はますますデジタル大国となり、現在では貿易もデジタル人民元での決済が一般的になっている。政府の中にはAIを規制する動きもあるが、自由・民主主義を唱える勢力の反対圧力で打ち消され、結果的にAIは野放しの状態である。中国と日本との国際競争力の差が広がっており、この状況が進行している。

■偽情報を拡散する生成型AI

2020年代初頭に登場した「ChatGPT」とそれに触発され、対抗する対話式(生成型AI)が相次いで誕生し、市場シェアを急速に拡大している。これらの技術の最大の魅力は、文書の作成能力において「人間よりも人間らしい」とされる点である。パラメータの急激な増加により、これらの技術は自然で幅広い範囲の言語生成が可能となり、多くのビジネスパーソンを引き付けている。

しかし、ChatGPTにはGPT-3の開発段階から懸念されていたリスクが存在している。ChatGPTの開発元であるOpenAIの研究者は、世界有数のサイバーセキュリティイベント「Black Hat USA 2021」で、ChatGPT3が悪用された場合のリスクについて警告していた。残念なことに2030年現在、この警告は現実のものとなりつつある。現在、生成型AIは悪用者によって大量の偽情報や有害情報を生成するツールとしても機能している。

最新式の生成型AIはビッグデータから学習を深化させ、人間の個々のユーザーに合わせた大量の情報を、人間をはるかに超える速度で生成している。このような情報は受け手にとって魅力的で説得力があり、仲間内でシェアされ、情報は加速的に拡散しているようだ。しかし、その中には他者を誹謗・中傷する、社会を偽情報によって貶める類のものも多く見受けられている。

生成型AIはボットと一体となり、24時間稼働で偽情報が拡散されるため、政府が推奨するファクト・チェックも追いつかない状態である。サイバー空間では悪意ある者による偽のプロフィール、コメント、画像が大量に流通している。また、生成型AIは誤植が多いことが問題となっており、そのなめらかな文体からくる信頼性の低下も懸念されている。たとえば、「ウィキペディア」の記事も生成型AIが書いているのか、以前よりも正確性が低下したとの指摘がある。

「Web」上の誤った情報に基づくEコマース上のトラブル、プライバシーの暴露、著作権侵害を巡る裁判沙汰などが急増している。また、倫理的な判断を伴う社会問題への投稿においては、生成型AIを使って書かれたものにより、殺伐とした、弱者を軽視するコメントが増えているとの指摘もある。

生成型AIが人間の意識に悪影響を与える可能性を懸念する声がある中、一部の者は政府が抜本的な規制をかけるべきだと主張しているが、現在までに具体的な動きは見られていない。

(次回に続く)