La tredicenne chiedeva a ChatGPT come riconoscere un amore tossico. Quelle domande sono diventate prove schiaccianti in tribunale.
Bologna – Nelle motivazioni della condanna a 17 anni emessa dal Tribunale per i minorenni di Bologna nei confronti del fidanzato di Aurora Tila, la tredicenne precipitata dal settimo piano di un palazzo a Piacenza il 25 ottobre 2024, emerge un elemento inedito: le conversazioni della ragazza con ChatGPT.
Aurora cercava risposte che non riusciva a chiedere a nessuno. Nelle sue sessioni con l’intelligenza artificiale domandava come riconoscere una relazione tossica, se fosse giusto lasciare un fidanzato possessivo, come difendersi da comportamenti ossessivi. Per i giudici, quelle domande non sono dettagli marginali: sono la fotografia di una situazione “soffocante” e confermano l’attendibilità della vittima, che descriveva all’IA, con franchezza, le minacce e la gelosia del ragazzo.
Aurora non andò a quell’ultimo appuntamento per ingenuità. Secondo la ricostruzione dei magistrati, sperava di allentare la tensione, di evitare una rottura violenta. Un tentativo disperato, destinato a fallire: il giudice ritiene che l’allora quindicenne avesse già deciso di ucciderla. L’ipotesi difensiva del suicidio o della caduta accidentale è stata definita dalla sentenza “assolutamente implausibile”.
Il ragazzo, oggi sedicenne, è stato condannato per omicidio aggravato dallo stalking, con ulteriori aggravanti legate all’età della vittima e al legame affettivo tra i due.