
Xは、生成AI「Grok」を悪用した違法コンテンツの作成や拡散について、公式に注意喚起を行いました。違法画像の生成を促す行為も、投稿と同様に厳しい措置の対象になるとしています。

Xの日本公式アカウントは、Grokを使った違法コンテンツの作成や、それを促す指示行為に対して、強制的な対応を取る方針を明確にしました。対象には、児童性的虐待素材(CSAM)を含む違法コンテンツが含まれ、投稿の削除やアカウントの永久凍結に加え、行政機関や法執行機関と連携する可能性もあるとしています。
Xでは、違法コンテンツ(児童性的虐待素材(CSAM)を含む)が含まれる投稿に対して、投稿の削除、アカウントの永久凍結などを含む対応を行うことに加え、行政や法執行機関と協力するなどの措置をとります。… https://t.co/EZRQ4TE1Dw
— X Corp. Japan (@XcorpJP) January 6, 2026
背景には、X上に投稿された実在の女性の写真をもとに、Grokへ「ビキニ姿にする」といった指示を出し、性的な画像を生成させる行為が世界的に拡大している状況があります。こうした動きは日本でも問題視されており、個人の尊厳やプライバシー侵害につながるとして批判が強まっていました。
Xは、Grokを利用して違法コンテンツを作成した場合だけでなく、違法な生成を促すプロンプトを入力する行為も、違反として扱うと説明しています。これらは、従来の違法投稿と同等に処分されるとしています。
Xの安全性とセキュリティに関する情報を公式に発信しているアカウント(@Safety)も1月4日、同様の内容を投稿しています。その際、Xのオーナーであるイーロン・マスク氏の「Grokを使って違法なコンテンツを作成する人は、違法なコンテンツをアップロードした場合と同様の結果を被ることになります」と警告している投稿を引用していました。
We take action against illegal content on X, including Child Sexual Abuse Material (CSAM), by removing it, permanently suspending accounts, and working with local governments and law enforcement as necessary.
— Safety (@Safety) January 4, 2026
Anyone using or prompting Grok to make illegal content will suffer the… https://t.co/93kiIBTCYO