生成AIクリエイティブが批判される4つの原因

生成AIをクリエイティブに利用すること

生成AIが登場し目覚ましい勢いで進化していく中で、その利用活用も進んでいます。
クリエイティブや広告業界に限って言えば、モデル・キャラクター・CM動画・広告など導入事例が出てきています。

これを読んでいる読者の方にも、普段の業務に活用されている方も多いかと思います。

生成AIクリエイティブが批判・炎上する原因には主に4つの原因があります

コスト削減や効率化といった利点が評価される一方で、必ずしも肯定的な評価だけでなく、残念ながら一部で炎上につながってしまうことがあります。

広告の視聴者が違和感を覚えるような品質のコンテンツは、企業やブランドへの信頼感を著しく損なう原因となってしまいます。

ここでは、そうした生成AIによって創られた広告・クリエイティブが批判を受け炎上した原因には、
次にあげる4つくらいの原因があるように思います。

批判・炎上する4つの原因

生成AIをクリエイティブに使用して炎上する理由には、生成AIが使われた背景、その母体などの関係、文化的・社会的影響を危惧して起こります。

原因1|不気味の谷現象

これは人物を含む表現を生成させた結果、人間に非常に近い表現でありながら、その細部の表現力、動き、表情など不自然な要素が含まれる場合、心理的に不快感を覚える現象を指します。

不気味の谷現象はロボットや生成AIが人間に似すぎると、逆に無意識に不快感や嫌悪感を抱く現象です。生成AIによって生成されたコンテンツがリアリティに近くなるほど、人間と微妙に異なる違いが目立ち、その「違和感」が原因で不気味さを感じます。この現象は、心理的な反応として、人間らしさと非人間らしさの間でのバランスが崩れる場合に起こります。

原因2 文化的・社会的感性の欠如

AIが特定の文化や社会的文脈を理解できないため、適切な表現を生成することができない問題です。

また、人間の微妙なニュアンスを捉えきれず、無神経だったり多様性の喪失、差別的な表現を生み出してしまう可能性もあります。非口語的な表現(例:皮肉、ユーモア、隠喩など)を理解するのが困難なことがあります。これにより、文脈を誤解したまま応答を生成することがあるため、コミュニケーションがうまくいかないことがあります。

非口語的な表現(例:皮肉、ユーモア、隠喩など)を理解するのが困難なことがあります。これにより、文脈を誤解したまま応答を生成することがあるため、コミュニケーションがうまくいかないことがあります。

このような制約を認識した上で、生成AIを利用することが不可欠です。

原因3 クリエイター軽視

クリエイティブ業界では、新しい作品創造、効率的なコンテンツ制作としてAIによるプロセスの自動化に利用されることで、クリエイターの役割を縮小し仕事を奪うと懸念されています。また運営母体に業界の盛り上がりやクリエイターの支援を目的としているときにそういった人を起用せず、生成AIを利用してしまうとクリエイター軽視とみなされるケースがあります。

生成AIの導入が進む一方で、クリエイターの思想や表現の価値をどう保護していくかが課題となっています。

原因4 倫理的問題

AIが生成するコンテンツには著作権やプライバシーに関して、問題が山積しています。

生成AIは、不特定多数のデータを学習して作成するため、オリジナルTO類似した生成物が生まれることで著作権を侵害する可能性があります。

また、フェイクニュースや誤情報を生成し、拡散されることで社会的信頼や混乱を招く恐れがあります。

これらの課題に対処するため、適切な規制とガイドラインの策定が求められます。