ενημέρωση 12:40, 29 May, 2024

Επισήμανση εικόνων που δημιουργούνται από AI σε Facebook, Instagram και Threads

  • Συνεργαζόμαστε με συνεργάτες του κλάδου για κοινά τεχνικά πρότυπα για τον εντοπισμό περιεχομένου τεχνητής νοημοσύνης, συμπεριλαμβανομένων βίντεο και ήχου.
  • Τους επόμενους μήνες, θα επισημάνουμε ετικέτες στις εικόνες που δημοσιεύουν οι χρήστες στο Facebook, το Instagram και τα Threads, όταν μπορούμε να εντοπίσουμε τυπικούς δείκτες του κλάδου ότι έχουν δημιουργηθεί από AI. 
  • Έχουμε επισημάνει φωτορεαλιστικές εικόνες που δημιουργήθηκαν με χρήση Meta AI από τότε που κυκλοφόρησε, έτσι ώστε οι άνθρωποι να γνωρίζουν ότι είναι "Imagined with AI".

Ως εταιρεία που βρίσκεται στην αιχμή της ανάπτυξης της τεχνητής νοημοσύνης για περισσότερο από μια δεκαετία, είναι εξαιρετικά ενθαρρυντικό να παρακολουθούμε την έκρηξη της δημιουργικότητας από ανθρώπους που χρησιμοποιούν τα νέα μας παραγωγικά εργαλεία τεχνητής νοημοσύνης, όπως η γεννήτρια εικόνας Meta AI που βοηθά τους ανθρώπους να δημιουργούν εικόνες με απλές προτροπές κειμένου.

Καθώς η διαφορά μεταξύ ανθρώπινου και συνθετικού περιεχομένου γίνεται θολή, οι άνθρωποι θέλουν να γνωρίζουν πού βρίσκονται τα όρια. Οι άνθρωποι συχνά συναντούν περιεχόμενο που δημιουργείται από AI για πρώτη φορά και οι χρήστες μας έχουν πει ότι εκτιμούν τη διαφάνεια γύρω από αυτήν τη νέα τεχνολογία. Επομένως, είναι σημαντικό να βοηθήσουμε τους ανθρώπους να γνωρίζουν πότε έχει δημιουργηθεί φωτορεαλιστικό περιεχόμενο που βλέπουν με χρήση τεχνητής νοημοσύνης. Αυτό το κάνουμε εφαρμόζοντας ετικέτες "Imagined with AI" σε φωτορεαλιστικές εικόνες που δημιουργούνται χρησιμοποιώντας τη δυνατότητα Meta AI, αλλά θέλουμε να μπορούμε να το κάνουμε και με περιεχόμενο που δημιουργήθηκε με εργαλεία άλλων εταιρειών. 

Γι' αυτό εργαζόμαστε με συνεργάτες του κλάδου για να ευθυγραμμίσουμε με κοινά τεχνικά πρότυπα που σηματοδοτούν πότε ένα κομμάτι περιεχομένου έχει δημιουργηθεί με χρήση τεχνητής νοημοσύνης. Η δυνατότητα ανίχνευσης αυτών των σημάτων θα μας επιτρέψει να επισημάνουμε ετικέτες που δημιουργούνται από AI που οι χρήστες δημοσιεύουν στο Facebook, το Instagram και τα Threads. Χτίζουμε αυτήν τη δυνατότητα τώρα και τους επόμενους μήνες θα αρχίσουμε να εφαρμόζουμε ετικέτες σε όλες τις γλώσσες που υποστηρίζονται από κάθε εφαρμογή. Ακολουθούμε αυτήν την προσέγγιση μέχρι το επόμενο έτος, κατά το οποίο διεξάγονται πολλές σημαντικές εκλογές σε όλο τον κόσμο. Κατά τη διάρκεια αυτής της περιόδου, αναμένουμε να μάθουμε πολύ περισσότερα για το πώς οι άνθρωποι δημιουργούν και μοιράζονται περιεχόμενο τεχνητής νοημοσύνης, τι είδους διαφάνεια θεωρούν πιο πολύτιμο οι άνθρωποι και πώς εξελίσσονται αυτές οι τεχνολογίες. Αυτά που μαθαίνουμε θα ενημερώσουν τις βέλτιστες πρακτικές του κλάδου και τη δική μας προσέγγιση στο μέλλον.

Μια νέα προσέγγιση για τον εντοπισμό και την επισήμανση περιεχομένου που δημιουργείται από AI

Όταν δημιουργούνται φωτορεαλιστικές εικόνες χρησιμοποιώντας τη δυνατότητα Meta AI, κάνουμε πολλά πράγματα για να βεβαιωθούμε ότι οι άνθρωποι γνωρίζουν ότι εμπλέκεται η τεχνητή νοημοσύνη, συμπεριλαμβανομένης της τοποθέτησης ορατών δεικτών που μπορείτε να δείτε στις εικόνες και τόσο αόρατων υδατογραφημάτων όσο και μεταδεδομένων ενσωματωμένα σε αρχεία εικόνας. Η χρήση τόσο της αόρατης υδατοσήμανσης όσο και των μεταδεδομένων με αυτόν τον τρόπο βελτιώνει τόσο την ευρωστία αυτών των αόρατων δεικτών όσο και βοηθά άλλες πλατφόρμες να τους αναγνωρίζουν. Αυτό είναι ένα σημαντικό μέρος της υπεύθυνης προσέγγισης που ακολουθούμε για τη δημιουργία παραγωγικών δυνατοτήτων AI . 

Εφόσον το περιεχόμενο που δημιουργείται από τεχνητή νοημοσύνη εμφανίζεται στο Διαδίκτυο, συνεργαζόμαστε με άλλες εταιρείες του κλάδου μας για να αναπτύξουμε κοινά πρότυπα για την αναγνώρισή του μέσω φόρουμ όπως το Partnership on AI (PAI). Οι αόρατοι δείκτες που χρησιμοποιούμε για εικόνες Meta AI – μεταδεδομένα IPTC και αόρατα υδατογραφήματα – συνάδουν με τις βέλτιστες πρακτικές του PAI .

Κατασκευάζουμε κορυφαία στον κλάδο εργαλεία που μπορούν να αναγνωρίσουν αόρατους δείκτες σε κλίμακα – συγκεκριμένα, τις πληροφορίες που δημιουργούνται από AI στα τεχνικά πρότυπα C2PA και IPTC – ώστε να μπορούμε να επισημαίνουμε εικόνες από τις Google, OpenAI, Microsoft, Adobe, Midjourney και Shutterstock καθώς υλοποιούν τα σχέδιά τους για την προσθήκη μεταδεδομένων σε εικόνες που δημιουργούνται από τα εργαλεία τους. 

Ενώ οι εταιρείες αρχίζουν να συμπεριλαμβάνουν σήματα στις γεννήτριες εικόνων τους, δεν έχουν αρχίσει να τα συμπεριλαμβάνουν σε εργαλεία τεχνητής νοημοσύνης που παράγουν ήχο και βίντεο στην ίδια κλίμακα, επομένως δεν μπορούμε ακόμη να εντοπίσουμε αυτά τα σήματα και να επισημάνουμε αυτό το περιεχόμενο από άλλες εταιρείες. Ενώ ο κλάδος εργάζεται για αυτήν τη δυνατότητα, προσθέτουμε μια δυνατότητα που οι άνθρωποι μπορούν να αποκαλύπτουν όταν μοιράζονται βίντεο ή ήχο που δημιουργείται από AI, ώστε να μπορούμε να προσθέσουμε μια ετικέτα σε αυτό. Θα απαιτήσουμε από τους χρήστες να χρησιμοποιούν αυτό το εργαλείο αποκάλυψης και ετικέτας όταν δημοσιεύουν οργανικό περιεχόμενο με φωτορεαλιστικό βίντεο ή ήχο ρεαλιστικού ήχου που δημιουργήθηκε ή τροποποιήθηκε ψηφιακά και ενδέχεται να επιβάλλουμε κυρώσεις εάν δεν το κάνουν. Εάν προσδιορίσουμε ότι το ψηφιακά δημιουργημένο ή τροποποιημένο περιεχόμενο εικόνας, βίντεο ή ήχου δημιουργεί έναν ιδιαίτερα υψηλό κίνδυνο εξαπάτησης υλικών του κοινού για ένα σημαντικό θέμα, ενδέχεται να προσθέσουμε μια πιο εμφανή ετικέτα εάν χρειάζεται, ώστε οι άνθρωποι να έχουν περισσότερες πληροφορίες και περιβάλλον.

Αυτή η προσέγγιση αντιπροσωπεύει την αιχμή του τι είναι τεχνικά εφικτό αυτή τη στιγμή. Αλλά δεν είναι ακόμη δυνατό να προσδιοριστεί όλο το περιεχόμενο που δημιουργείται από AI και υπάρχουν τρόποι με τους οποίους οι άνθρωποι μπορούν να αφαιρέσουν τους αόρατους δείκτες. Επομένως, επιδιώκουμε μια σειρά επιλογών. Εργαζόμαστε σκληρά για να αναπτύξουμε ταξινομητές που μπορούν να μας βοηθήσουν να ανιχνεύουμε αυτόματα περιεχόμενο που δημιουργείται από τεχνητή νοημοσύνη, ακόμα κι αν το περιεχόμενο δεν διαθέτει αόρατους δείκτες. Ταυτόχρονα, αναζητούμε τρόπους για να κάνουμε πιο δύσκολη την αφαίρεση ή την αλλαγή αόρατων υδατογραφημάτων. Για παράδειγμα, το ερευνητικό εργαστήριο AI της Meta FAIR μοιράστηκε πρόσφατα έρευνα σχετικά με μια αόρατη τεχνολογία υδατογράφησης που αναπτύσσουμε και ονομάζεται Stable Signature . Αυτό ενσωματώνει τον μηχανισμό υδατογράφησης απευθείας στη διαδικασία δημιουργίας εικόνας για ορισμένους τύπους γεννητριών εικόνων, κάτι που θα μπορούσε να είναι πολύτιμο για μοντέλα ανοιχτού κώδικα, επομένως η υδατογράφηση δεν μπορεί να απενεργοποιηθεί. 

Αυτό το έργο είναι ιδιαίτερα σημαντικό καθώς είναι πιθανό να γίνει ένας ολοένα και πιο ανταγωνιστικός χώρος τα επόμενα χρόνια. Άτομα και οργανισμοί που θέλουν ενεργά να εξαπατήσουν άτομα με περιεχόμενο που δημιουργείται από την τεχνητή νοημοσύνη θα αναζητήσουν τρόπους να παρακάμψουν τις διασφαλίσεις που έχουν τεθεί σε εφαρμογή για τον εντοπισμό του. Σε ολόκληρο τον κλάδο και την κοινωνία μας γενικότερα, θα πρέπει να συνεχίσουμε να αναζητούμε τρόπους για να παραμείνουμε ένα βήμα μπροστά. 

Στο μεταξύ, είναι σημαντικό οι άνθρωποι να λαμβάνουν υπόψη πολλά πράγματα όταν προσδιορίζουν εάν το περιεχόμενο έχει δημιουργηθεί από AI, όπως να ελέγξουν εάν ο λογαριασμός που μοιράζεται το περιεχόμενο είναι αξιόπιστος ή να αναζητήσουν λεπτομέρειες που μπορεί να φαίνονται ή να ακούγονται αφύσικές. 

Αυτές είναι οι πρώτες μέρες για τη διάδοση του περιεχομένου που δημιουργείται από AI. Καθώς γίνεται πιο συνηθισμένο τα επόμενα χρόνια, θα υπάρξουν συζητήσεις σε όλη την κοινωνία σχετικά με το τι πρέπει και τι δεν πρέπει να γίνει για τον προσδιορισμό τόσο του συνθετικού όσο και του μη συνθετικού περιεχομένου. Ο κλάδος και οι ρυθμιστικές αρχές ενδέχεται να κινηθούν προς τρόπους ελέγχου ταυτότητας περιεχομένου που δεν έχει δημιουργηθεί με χρήση τεχνητής νοημοσύνης καθώς και περιεχομένου που έχει δημιουργηθεί. Αυτό που παρουσιάζουμε σήμερα είναι τα βήματα που πιστεύουμε ότι είναι κατάλληλα για περιεχόμενο που μοιράζεται στις πλατφόρμες μας αυτήν τη στιγμή. Αλλά θα συνεχίσουμε να παρακολουθούμε και να μαθαίνουμε, και θα διατηρήσουμε την προσέγγισή μας υπό έλεγχο όπως κάνουμε. Θα συνεχίσουμε να συνεργαζόμαστε με τους συναδέλφους μας στον κλάδο. Και θα παραμείνουμε σε διάλογο με τις κυβερνήσεις και την κοινωνία των πολιτών. 

Το AI είναι και σπαθί και ασπίδα

Τα κοινοτικά μας πρότυπα ισχύουν για όλο το περιεχόμενο που δημοσιεύεται στις πλατφόρμες μας, ανεξάρτητα από τον τρόπο δημιουργίας του. Όταν πρόκειται για επιβλαβές περιεχόμενο, το πιο σημαντικό είναι ότι μπορούμε να το συλλάβουμε και να αναλάβουμε δράση ανεξάρτητα από το αν έχει δημιουργηθεί ή όχι με χρήση τεχνητής νοημοσύνης. Και η χρήση της τεχνητής νοημοσύνης στα συστήματα ακεραιότητάς μας είναι ένα μεγάλο μέρος αυτού που μας επιτρέπει να το πιάσουμε.  

Έχουμε χρησιμοποιήσει συστήματα AI για να βοηθήσουμε στην προστασία των χρηστών μας εδώ και πολλά χρόνια. Για παράδειγμα, χρησιμοποιούμε την τεχνητή νοημοσύνη για να μας βοηθήσει να εντοπίσουμε και να αντιμετωπίσουμε τη ρητορική μίσους και άλλο περιεχόμενο που παραβιάζει τις πολιτικές μας. Αυτός είναι ένας μεγάλος λόγος για τον οποίο καταφέραμε να μειώσουμε την επικράτηση της ρητορικής μίσους στο Facebook σε μόλις 0,01-0,02% (από το τρίτο τρίμηνο του 2023). Με άλλα λόγια, για κάθε 10.000 προβολές περιεχομένου, υπολογίζουμε ότι μόνο μία ή δύο θα περιέχουν ρητορική μίσους.

Ενώ χρησιμοποιούμε την τεχνολογία AI για να βοηθήσουμε στην επιβολή των πολιτικών μας, η χρήση εργαλείων παραγωγής τεχνητής νοημοσύνης για αυτόν τον σκοπό έχει περιοριστεί. Ωστόσο, είμαστε αισιόδοξοι ότι η γενετική τεχνητή νοημοσύνη θα μπορούσε να μας βοηθήσει να αφαιρέσουμε το επιβλαβές περιεχόμενο πιο γρήγορα και με μεγαλύτερη ακρίβεια. Θα μπορούσε επίσης να είναι χρήσιμο για την επιβολή των πολιτικών μας σε στιγμές αυξημένου κινδύνου, όπως οι εκλογές. Ξεκινήσαμε να δοκιμάζουμε Μεγάλα Μοντέλα Γλωσσών (LLM) εκπαιδεύοντάς τα σχετικά με τα Πρότυπα της Κοινότητας μας για να βοηθήσουμε να προσδιορίσουμε εάν ένα τμήμα περιεχομένου παραβαίνει τις πολιτικές μας. Αυτές οι αρχικές δοκιμές υποδηλώνουν ότι τα LLM μπορούν να έχουν καλύτερη απόδοση από τα υπάρχοντα μοντέλα μηχανικής εκμάθησης. Χρησιμοποιούμε επίσης LLM για να αφαιρέσουμε περιεχόμενο από τις ουρές ελέγχου σε ορισμένες περιπτώσεις, όταν είμαστε πολύ βέβαιοι ότι δεν παραβιάζει τις πολιτικές μας. Αυτό ελευθερώνει τη δυνατότητα στους αναθεωρητές μας να επικεντρωθούν σε περιεχόμενο που είναι πιο πιθανό να παραβιάσει τους κανόνες μας.

Το περιεχόμενο που δημιουργείται από την τεχνητή νοημοσύνη είναι επίσης κατάλληλο για έλεγχο στοιχείων από τους ανεξάρτητους συνεργάτες μας για τον έλεγχο στοιχείων και επισημαίνουμε το απομυθοποιημένο περιεχόμενο, ώστε οι άνθρωποι να έχουν ακριβείς πληροφορίες όταν συναντούν παρόμοιο περιεχόμενο στο διαδίκτυο.

Η Meta είναι πρωτοπόρος στην ανάπτυξη AI για περισσότερο από μια δεκαετία. Γνωρίζουμε ότι η πρόοδος και η ευθύνη μπορούν και πρέπει να συμβαδίζουν. Τα εργαλεία παραγωγής τεχνητής νοημοσύνης προσφέρουν τεράστιες ευκαιρίες και πιστεύουμε ότι είναι δυνατό και απαραίτητο αυτές οι τεχνολογίες να αναπτυχθούν με διαφανή και υπεύθυνο τρόπο. Γι' αυτό θέλουμε να βοηθήσουμε τους ανθρώπους να γνωρίζουν πότε έχουν δημιουργηθεί φωτορεαλιστικές εικόνες με χρήση τεχνητής νοημοσύνης και γιατί είμαστε ανοιχτοί σχετικά με τα όρια του δυνατού. Θα συνεχίσουμε να μαθαίνουμε από το πώς οι άνθρωποι χρησιμοποιούν τα εργαλεία μας για να τα βελτιώσουμε. Και θα συνεχίσουμε να συνεργαζόμαστε με άλλους μέσω φόρουμ όπως το PAI για την ανάπτυξη κοινών προτύπων και προστατευτικών κιγκλιδωμάτων. 

Πηγή: RΤ-Meta

Τελευταία τροποποίηση στιςΣάββατο, 06 Απριλίου 2024 05:57

Προσθήκη σχολίου

Βεβαιωθείτε ότι εισάγετε τις (*) απαιτούμενες πληροφορίες, όπου ενδείκνυται. Ο κώδικας HTML δεν επιτρέπεται.