Από ό,τι φαίνεται το υπερσύγχρονο εργαλείο τεχνητής νοημοσύνης Αl, ονόματι StableDiffusion, χρησιμοποιείται από παιδόφιλους προκειμένου να δημιουργούν και να πωλούν ρεαλιστικό υλικό σεξουαλικής κακοποίησης παιδιών. Πολλοί αποκτούν πρόσβαση κάνοντας συνδρομές σε λογαριασμούς σε mainstream πλατφόρμες διαμοιρασμού περιεχομένου όπως είναι το Patreon- το οποίο τόνισε ότι έχει μηδενική ανοχή σε τέτοιες εικόνες.
Το λογισμικό αυτό δημιουργήθηκε για να παράγει εικόνες προς χρήση στην τέχνη και στο graphic design. Έτσι δέχεται οδηγίες και περιγραφές από τους χρήστες και παράγει τις εικόνες που του ζητούν. Έτσι οι παιδόφιλοι εκμεταλλεύονται τις ικανότητες του Stable Diffusion για να δημιουργήσουν αληθοφανείς εικόνες παιδικής πορνογραφίας και κακοποίησης ανηλίκων. Όπως αναφέρει το BBC, έχουν βρεθεί μέχρι και εικόνες βιασμών μωρών.
Όπως αναφέρει η βρετανική αστυνομία, μία ψεύτικη εικόνα (pseudo image) που έχει παραχθεί από υπολογιστή και απεικονίζει σεξουαλική κακοποίηση παιδιών αντιμετωπίζεται με την ίδια σοβαρότητα που αντιμετωπίζεται μια πραγματική και είναι παράνομη η κατοχή, δημοσιοποίηση ή μεταβίβασή της στο Ηνωμένο Βασίλειο.
Ο Ίαν Κρίτσλεϊ της NPCC (National Police Chiefs’ Council) τόνισε ότι θα ήταν λάθος να πει κανείς πως, εφόσον δεν απεικονίζονται πραγματικά παιδιά σε τέτοιου είδους «συνθετικές» εικόνες, δεν παθαίνει κανείς τίποτα. Ο ίδιος προειδοποίησε πως ένας παιδόφιλος θα μπορούσε να κινηθεί σε αυτή την κλίμακα από τη σκέψη στις συνθετικές εικόνες και μετά στην κακοποίηση ενός αληθινού παιδιού.
Σύμφωνα με πληροφορίες του BBC έρευνες δείχνουν ότι η παραγωγή εικόνων κακοποίησης παιδιών φαινόταν να γίνεται σε βιομηχανική κλίμακα. «Ο όγκος είναι τόσο τεράστιος, που κάποιοι (δημιουργοί) θα πούνε “σκοπεύουμε να φτιάχνουμε τουλάχιστον 1.000 εικόνες τον μήνα» σημείωσε.
Ανατριχιαστικά σχόλια από χρήστες σε εικόνες στο Pixiv φανερώνουν ξεκάθαρα πως υπάρχει σεξουαλικό ενδιαφέρον για παιδιά, με κάποιους χρήστες να προσφέρονται ακόμα και να παρέχουν εικόνες και βίντεο κακοποιήσεων που δεν δημιουργήθηκαν μέσω ΑΙ.