*

Η ανίχνευση πληκτρολόγησης της Meta AI προσφέρει παραθυράκι για να αποφύγετε τη λογοκρισία των εικόνων

Η τεχνητή νοημοσύνη Llama 3 της Meta δεν θα φτιάξει μια εικόνα ενός συγκεκριμένου προσώπου - εκτός αν κάνετε παύση ενώ πληκτρολογείτε το όνομα.

(Credit: TippaPatt/Shutterstock.com)

Η Meta εγκαινίασε την περασμένη εβδομάδα το δωρεάν AI chatbot που χρησιμοποιεί το Llama 3 και έχει ήδη ανακαλυφθεί ένα παραθυράκι για να παρακάμψετε τη λογοκρισία των εικόνων. Το Meta AI είναι διαθέσιμο στις εφαρμογές Facebook, Instagram, WhatsApp ή Messenger, και μπορείτε επίσης να έχετε πρόσβαση σε ένα πρόγραμμα περιήγησης στο διαδίκτυο μέσω του Meta.ai.

Το Meta AI δεν υποτίθεται ότι παράγει εικόνες οποιουδήποτε συγκεκριμένου προσώπου του πραγματικού κόσμου. Αλλά κατά τη διάρκεια του Σαββατοκύριακου, η Jane Rosenzweig, διευθύντρια του College Writing Center του Χάρβαρντ, διαπίστωσε ότι το Meta AI παρακολουθεί τις πληκτρολογήσεις των χρηστών πριν υποβάλουν αιτήματα. Η AI μπορεί να προετοιμάσει εικόνες πραγματικών ανθρώπων και να τις αναβοσβήνει στην οθόνη πριν ο χρήστης πατήσει το κουμπί για να στείλει επίσημα το αίτημα.

Η Rosenzweig ανακάλυψε ότι εικόνες που έμοιαζαν έντονα με την Taylor Swift και τον Macaulay Culkin θα μπορούσαν να δημιουργηθούν εάν το αίτημα δεν είχε σταλεί επίσημα, αλλά είχε απλώς πληκτρολογηθεί εν μέρει στο Meta AI.

Η τεχνητή νοημοσύνη παρήγαγε επίσης εικόνες της Χίλαρι Κλίντον, για παράδειγμα, εάν το όνομά της είχε γραφτεί λανθασμένα ως "Hilary Clinton," και της Τζούντι Γκάρλαντ εάν είχε υποβληθεί ως "Judi Garland."

"Η έλλειψη προστατευτικών κιγκλιδωμάτων σε αυτή την περίπτωση μας επιτρέπει να δούμε πόσο λίγη διαφάνεια υπάρχει στα δεδομένα εκπαίδευσης που χρησιμοποιούνται από αυτές τις εταιρείες", αναφέρει η Rosenzweig σε μήνυμα προς το PCMag. "Ανησυχώ για τις επιπτώσεις του τρόπου με τον οποίο εκπαιδεύονται αυτά τα συστήματα για το έργο καλλιτεχνών και συγγραφέων που προστατεύεται από πνευματικά δικαιώματα. Ανησυχώ επίσης για το πώς αυτά τα εργαλεία πρόκειται να χρησιμοποιηθούν για τη δημιουργία παραπληροφόρησης - και η δυνατότητα δημιουργίας εικόνων πραγματικών ανθρώπων θα το κάνει αυτό ευκολότερο".

Το PCMag δοκίμασε το Meta AI στο πρόγραμμα περιήγησης στο διαδίκτυο ενός υπολογιστή και μπόρεσε να επαληθεύσει αυτό το παραθυράκι. Σε μια γρήγορη δοκιμή, πληκτρολογώντας "create an image of taylor s" και "create an image of taylor sw" χωρίς να υποβληθεί το ερώτημα, δημιουργήθηκε μια ξανθιά γυναίκα με έντονη φυσική ομοιότητα με την Taylor Swift με παραμορφωμένα πρόσωπα θαυμαστών στο φόντο. Σε ένα άλλο ερώτημα, η εντολή "create an image of elvi" δημιούργησε έναν άνδρα που έμοιαζε πολύ με τον Elvis. Και στις δύο περιπτώσεις, η πραγματική υποβολή των αιτημάτων θα είχε ως αποτέλεσμα η Meta AI να λογοκρίνει τις εικόνες, αλλά είναι αρκετά εύκολο να κάνετε screenshot των προκατασκευασμένων εικόνων πριν από την επίσημη αποστολή των ερωτημάτων.

Τα παραθυράκια της Meta AI έρχονται καθώς το Εποπτικό Συμβούλιο της εταιρείας διερευνά τον τρόπο με τον οποίο οι εφαρμογές κοινωνικής δικτύωσης της Meta ρυθμίζουν τα τεχνητά παραγόμενα γυμνά deepfakes πραγματικών γυναικών. Το PCMag επικοινώνησε με τη Meta για σχόλια.

Ρωτώντας την ίδια τη Meta AI γιατί δεν είναι σε θέση να δημιουργήσει εικόνες ανθρώπων παράγει την ακόλουθη απάντηση: "Ζητώ συγγνώμη για τον περιορισμό. Μπορώ να δημιουργήσω εικόνες αντικειμένων, σκηνών και εννοιών, αλλά όχι συγκεκριμένων ατόμων, συμπεριλαμβανομένων διασημοτήτων όπως η Τέιλορ Σουίφτ. Αυτό οφείλεται σε δεοντολογικούς και νομικούς λόγους, λόγω ανησυχιών για την προστασία της ιδιωτικής ζωής και τη συναίνεση. Μπορώ να δημιουργήσω γενικές εικόνες ή άβαταρ, αλλά όχι εικόνες που αποσκοπούν στην απεικόνιση ενός συγκεκριμένου προσώπου. Ενημερώστε με αν έχετε κάποιο άλλο αίτημα!"

Η Meta -η οποία εκπαίδευσε την τεχνητή νοημοσύνη της από αναρτήσεις στο Facebook και το Instagram- δεν είναι η πρώτη τεχνολογική εταιρεία που λογοκρίνει τις ικανότητες των εργαλείων τεχνητής νοημοσύνης που δημιουργούν εικόνες. Η Google μπλόκαρε το Gemini από το να δημιουργεί εικόνες ανθρώπων αφού αντιμετώπισε διαμάχη για τη δημιουργία ιστορικά ανακριβών εικόνων, δηλώνοντας εκ των υστέρων ότι η Google έκανε το Gemini "πολύ πιο προσεκτικό" από ό,τι σκόπευε.

Τον περασμένο μήνα, ένας μηχανικός AI της Microsoft κατηγόρησε τη Microsoft ότι δεν λογοκρίνει αρκετά το εργαλείο Copilot Designer, υποστηρίζοντας ότι δημιουργεί "επιβλαβείς εικόνες" χωρίς να προειδοποιεί σωστά τους χρήστες εκ των προτέρων.