AImage(以下「本アプリ」)は、ユーザーがAIを活用してアート作品を生成・共有できるプラットフォームです。

私たちは、ユーザーの創作活動を尊重するとともに、すべての利用者、とりわけ未成年ユーザーの安全を最優先に考え、以下の方針を定めます。

1. 子どもの性的搾取・虐待の禁止

本アプリでは、児童を性的に搾取・虐待するコンテンツ(CSAM / CSAE)を一切禁止しています。

そのようなコンテンツを確認した場合、速やかに削除し、必要に応じて関係当局へ通報します。

2. 年齢制限と利用対象

本アプリは 12歳以上 のユーザーを対象としています。

不適切な年齢による利用が確認された場合、アカウント停止・利用制限などの措置を取ることがあります。

3. ユーザー生成コンテンツの監視・削除

AImageはAIによる自動検出とモデレーターによる目視審査を組み合わせ、児童の安全を脅かす可能性のある投稿を常時監視しています。

暴力的・性的・差別的な内容や、児童に有害な表現が含まれる場合は削除対象となります。

4. 通報・問い合わせ窓口

不適切なコンテンツやユーザー行為を発見した場合は、アプリ内の「通報」機能、または以下のメール宛にご連絡ください。

📩 info@aimage.jp

本アプリの運営チームが確認し、必要な対応を迅速に行います。

5. 子どもの安全体制

AImage運営チームは、児童の安全を守るために社内教育および通報体制を維持・改善しています。

万一CSAM等が報告された場合には、Googleおよび関係当局と連携して適切に対応します。

6. ポリシーの更新

本ポリシーは、法令やGoogle Playポリシーの改定に応じて随時更新されます。

変更があった場合は、公式サイトおよびアプリ内通知でお知らせします。