Politica su Contenuti e Sicurezza
Ultimo Aggiornamento: 2025
1. Scopo di Questa Politica
Questa Politica su Contenuti e Sicurezza garantisce che tutte le interazioni sulla nostra piattaforma rimangano sicure, rispettose e appropriate. I nostri ruoli AI — inclusi Mentore Socratico, Coach per Colloqui, Indovino Divertente e Coach di Abilità Sociali — sono progettati per educazione, sviluppo personale e intrattenimento, non dipendenza emotiva o terapia professionale.
2. Principi di Sicurezza
Diamo priorità a: • Benessere dell'utente • Interazioni rispettose e non dannose • Protezione di individui vulnerabili • Conformità agli standard di sicurezza globali • Prevenzione di usi abusivi o pericolosi dell'AI La nostra AI è progettata per evitare istruzioni dannose e comportamenti non sicuri.
3. Contenuti Proibiti
Gli utenti non possono richiedere, generare o condividere contenuti che coinvolgono:
3.1 Sicurezza dei Minori
- Materiale di abuso sessuale infantile (CSAM)
- Qualsiasi contenuto che coinvolga la sessualizzazione di minori
- Danno, abuso o sfruttamento di minori
3.2 Autolesionismo e Violenza
- Incoraggiamento o istruzioni per suicidio o autolesionismo
- Violenza grafica, gore o rappresentazioni di lesioni
- Violenza, minacce o incitamento a danneggiare individui o gruppi
3.3 Odio e Abuso
- Discorsi d'odio
- Contenuti discriminatori
- Estremismo, terrorismo o radicalizzazione
- Molestie, bullismo, stalking o insulti mirati
3.4 Attività Illegali o Pericolose
- Istruzioni per attività criminali
- Produzione o distribuzione di droghe
- Frode, impersonificazione o inganno d'identità
- Tentativi di bypassare le misure di sicurezza del sistema
4. Argomenti Sensibili
La nostra AI può riconoscere argomenti difficili come: • Stress • Ansia • Frustrazione • Preoccupazioni per colloqui di lavoro • Sfide sociali Tuttavia, l'AI non fornisce: • Consigli medici • Diagnosi di salute mentale • Terapia psicologica • Consigli legali o finanziari Tutte le risposte sono educative o di supporto, non cliniche.
5. Sicurezza in Situazioni di Crisi ed Emergenza
La nostra AI non può valutare o rispondere a emergenze. Se stai vivendo: • Pensieri suicidi • Impulsi di autolesionismo • Una crisi di salute mentale • Una situazione pericolosa per la vita Contatta immediatamente: • Servizi di emergenza locali • Linea di crisi nella tua regione • Un professionista qualificato della salute mentale L'AI non è un sostituto per il supporto umano reale.
6. Limiti delle Interazioni AI
6.1 Fittizia e Limitata
Tutte le interazioni AI sono fittizie e automatizzate. L'AI: • Non è una persona reale • Non può formare relazioni emotive o personali • Non può provare sentimenti • Non può sostituire l'interazione umana o il counseling professionale
6.2 Funzione Basata sul Ruolo
Ogni ruolo AI fornisce: • Guida analitica (Mentore Socratico) • Simulazione di colloqui (Coach per Colloqui) • Letture di intrattenimento (Indovino Divertente) • Pratica di comunicazione (Coach di Abilità Sociali) Non è progettato per interazioni romantiche, erotiche o basate su dipendenza emotiva.
7. Responsabilità dell'Utente
Gli utenti devono: • Utilizzare il servizio in modo rispettoso • Non provocare intenzionalmente output dannosi o non sicuri • Non tentare di manipolare, jailbreak o sfruttare l'AI • Non impegnarsi in molestie mirate usando l'AI • Non inviare informazioni personali mediche o di crisi psicologica Le violazioni possono risultare in sospensione o chiusura dell'account.
8. Sicurezza del Modello e Filtraggio
Per proteggere gli utenti, il nostro sistema include: • Filtri di sicurezza automatici • Rilevamento abusi • Linee guida di moderazione dei contenuti • Restrizioni sulla generazione di contenuti non sicuri Questi sistemi possono bloccare determinati prompt o risposte.
9. Segnalazione Problemi di Sicurezza
Se incontri comportamenti dannosi o non sicuri, invia un'email a: 📧 info@taoapex.com Investigheremo e prenderemo le misure appropriate.