Έκθεση-σοκ: Προγράμματα παραγωγής ΑΙ φωτογραφιών εκπαιδεύονται και παράγουν υλικό παιδικής πορνογραφίας

Advertisement

Αμέτρητες φωτογραφίες παιδικού πορνογραφικού περιεχομένου υπάρχουν αυτή τη στιγμή σε διάφορα προγράμματα δημιουργίας φωτογραφιών (image generators) που χρησιμοποιούν ΑΙ.

Παρά το πρωταρχικό τους προγραμματισμό για αθώες φωτογραφίες, τοπίων και φανταστικών εικόνων, δεκάδες image generators προγράμματα έχουν επαναπρογραμματιστεί ή δεν έχουν προγραμματιστεί με αυστηρούς κανόνες, συλλέγουν από το διαδίκτυο διάσπαρτες φωτογραφίες παιδιών και παράγουν υλικό παιδικής πορνογραφίας

Σύμφωνα με έκθεση του Παρατηρητηρίου Διαδικτύου του Στάνφορντ, περισσότερες από 3.200 εικόνες ύποπτης σεξουαλικής κακοποίησης παιδιών εντοπίστηκαν στη γιγάντια βάση δεδομένων AI LAION, ένα ευρετήριο διαδικτυακών εικόνων που έχει χρησιμοποιηθεί για την εκπαίδευση κορυφαίων κατασκευαστών εικόνων AI, όπως το Stable Diffusion.

Η ομάδα παρακολούθησης που εδρεύει στο Πανεπιστήμιο του Στάνφορντ συνεργάστηκε με το Καναδικό Κέντρο για την προστασία των Παιδιών και άλλες φιλανθρωπικές οργανώσεις κατά της κακοποίησης για να εντοπίσουν το παράνομο υλικό και να καταγγείλουν στις αρχές τους αρχικούς συνδέσμους φωτογραφιών.

Η AI LAION δήλωσε ότι δεν θα δείξει καμιά ανοχή σε αυτούς που χρησιμοποιούν την τεχνολογία της για να δημιουργήσουν κάθε είδους πορνογραφικού υλικού και ότι θα προσπαθήσει να εξαλείψει κάθε είδος αυτών από το λογισμικό της.

Το Παρατηρητήριο Διαδικτύου του Στάνφορντ παρότρυνε όλες τις μεγάλες εταιρίες που ασχολούνται με την δημιουργία φωτογραφιών και βίντεο με AI, να είναι περισσότερο προσεκτικές και να αρχίσουν να προγραμματίζουν τα λογισμικά τους με αυστηρούς κανόνες κατά της παιδικής εκμετάλλευσης στο ίντερνετ.

«Δεν είναι εύκολο να επιλυθεί το πρόβλημα. Προσπαθούμε να βρούμε ίχνη σε πολλά προγράμματα τεχνητής νοημοσύνης που κατέκλυσαν την αγορά και έγιναν ευρέως ελεύθερα, επειδή το πεδίο είναι τόσο ανταγωνιστικό», δήλωσε ο επικεφαλής τεχνολόγος του Παρατηρητηρίου Διαδικτύου του Στάνφορντ David Thiel, ο οποίος συνέταξε την έκθεση.

Πολλές εταιρίες προγραμματισμού, τεχνολογίας και κολοσσοί διαδικτυακών δεδομένων έχουν ήδη προγραμματίσει λογισμικά που εντοπίζουν παράνομες ενέργειες πορνογραφικού υλικού και άλλων κακόβουλων ενεργειών. Μια τέτοια ενεργεία θα μπορούσε να γίνει κάλλιστα και για τα image generators προγράμματα στο μέλλον για τη σωστή αντιμετώπιση των ειδεχθών αυτών πράξεων.

Πηγή: FOXreport.gr

Advertisement

Δείτε επίσης

Advertisement

ADVERTISEMENT​

Advertisement

Advertisement