AImage(以下「本アプリ」)は、ユーザーがAIを活用してアート作品を生成・共有できるプラットフォームです。
私たちは、ユーザーの創作活動を尊重するとともに、すべての利用者、とりわけ未成年ユーザーの安全を最優先に考え、以下の方針を定めます。
1. 子どもの性的搾取・虐待の禁止
本アプリでは、児童を性的に搾取・虐待するコンテンツ(CSAM / CSAE)を一切禁止しています。
そのようなコンテンツを確認した場合、速やかに削除し、必要に応じて関係当局へ通報します。
2. 年齢制限と利用対象
本アプリは 12歳以上 のユーザーを対象としています。
不適切な年齢による利用が確認された場合、アカウント停止・利用制限などの措置を取ることがあります。
3. ユーザー生成コンテンツの監視・削除
AImageはAIによる自動検出とモデレーターによる目視審査を組み合わせ、児童の安全を脅かす可能性のある投稿を常時監視しています。
暴力的・性的・差別的な内容や、児童に有害な表現が含まれる場合は削除対象となります。
4. 通報・問い合わせ窓口
不適切なコンテンツやユーザー行為を発見した場合は、アプリ内の「通報」機能、または以下のメール宛にご連絡ください。
📩 info@aimage.jp
本アプリの運営チームが確認し、必要な対応を迅速に行います。
5. 子どもの安全体制
AImage運営チームは、児童の安全を守るために社内教育および通報体制を維持・改善しています。
万一CSAM等が報告された場合には、Googleおよび関係当局と連携して適切に対応します。
6. ポリシーの更新
本ポリシーは、法令やGoogle Playポリシーの改定に応じて随時更新されます。
変更があった場合は、公式サイトおよびアプリ内通知でお知らせします。
