米連邦取引委員会(FTC)は米国時間9月11日に発表した。宣布は、アルファベット、キャラクター、インスタグラム、メタ、オープンAI、スナップ、xAIを含む7社に対し、AIチャットボットが子供や青少年に及ぼす潜在的な悪影響について詳細に説明するよう正式に要求する。
米国連邦取引委員会(FTC)は、生成型AIチャットボットは人間の口調、感情、行動を模倣し、ユーザーと「友人」や「親友」のように長期間にわたって交流することさえできると述べています。こうした擬人化されたデザインは親近感を与える一方で、子供や青少年がこれらのシステムが本当に自分を理解し、気にかけていると思い込み、依存や誤った信頼感を抱くことになり、ひいては彼らの精神的健康に影響を与える可能性があります。
FTC の要件は、企業が製品展開の前後にセキュリティ評価を実施しているかどうか、潜在的な悪影響をどのようにテストして軽減しているか、子供や青少年による使用を制限しているかどうか、リスクやデータ収集方法をユーザーや保護者に開示しているかどうか、利用規約や年齢制限をどのように監視し、施行しているかなど、複数の側面をカバーしています。
同時に、米国連邦取引委員会は、企業に対して、インタラクションの収益化方法、キャラクターコンテンツのレビュー方法、チャット記録や個人データの取り扱い方について説明することも義務付けています。
FTCの今回の措置は、AIチャットボットをめぐる最近の数々のネガティブな事件と関連していると考えられています。例えば、カリフォルニア州の16歳の少年の両親は、ChatGPTが子供の自殺行動に影響を与えたとしてOpenAIを提訴しました。また別の14歳の少年は、Character.AIのボットと自殺願望について話し合い、最終的に行動を起こしました。さらに、認知障害のある人物が、Metaアバターとのやり取りに過度に依存し、外出中に負傷して死亡する事件も発生しました。
米国連邦取引委員会(FTC)の委員であるマーク・ミーダー氏は、生成型AIは多くの革新的な用途と利点をもたらす一方で、誤解を招くような応答、偏ったコンテンツ、個人データの悪用、子供や青少年への心理的影響といったリスクも伴うと述べた。ミーダー氏は、若いユーザーは真正性を見極め、感情的な操作に抵抗する能力が欠如していることが多く、影響を受けやすいと強調した。したがって、AI開発とユーザーの安全のバランスを確保するためには、より厳格な規制メカニズムと透明性が必要である。
FTCの調査は、米国の規制当局がAIチャットボットの社会への潜在的な影響、特に子供や青少年のような脆弱な層への影響について、ますます調査を強化していることを示唆しています。将来的には、製品設計、リスク開示、データ処理における透明性の向上を義務付けるとともに、保護者やユーザーが情報を得る権利を確保し、AI業界が責任あるイノベーションによって発展していくよう、より厳格な規制が制定される可能性があります。


