Τεχνολογικοί κολοσσοί στη μάχη καταπολέμησης των deepfakes ενόψει εκλογικών αναμετρήσεων

Μια ομάδα 20 κορυφαίων εταιρειών τεχνολογίας δεσμεύτηκαν με συμφωνία για την καταπολέμηση της παραπληροφόρησης μέσω τεχνητής νοημοσύνης

Μια ομάδα 20 κορυφαίων εταιρειών τεχνολογίας δεσμεύτηκαν με συμφωνία για την καταπολέμηση της παραπληροφόρησης μέσω τεχνητής νοημοσύνης στις εκλογές του 2024. Η βιομηχανία στοχεύει συγκεκριμένα τα deepfakes, τα οποία χρησιμοποιούν παραπλανητικό ήχο, βίντεο και εικόνες για να μιμηθούν πολιτικά πρόσωπα σε εκλογές ή για να παρέχουν ψευδείς πληροφορίες ψηφοφορίας.

Microsoft, Μέτα, Google, Amazon, ΙBM, Adobe. Οι startups τεχνητής νοημοσύνης OpenAI, Anthropic και Stability AI προστέθηκαν επίσης στον όμιλο, μαζί με εταιρείες κοινωνικών μέσων όπως η Snap, το TikTok και το X.

Οι τεχνολογικές πλατφόρμες προετοιμάζονται για μια τεράστια χρονιά εκλογών σε όλο τον κόσμο που επηρεάζουν πάνω από τέσσερα δισεκατομμύρια ανθρώπους σε περισσότερες από 40 χώρες. Η άνοδος του περιεχομένου που δημιουργείται από την τεχνητή νοημοσύνη έχει οδηγήσει σε σοβαρές ανησυχίες σχετικά με την παραπληροφόρηση που σχετίζονται με τις εκλογές, με τον αριθμό των deepfakes που έχουν δημιουργηθεί να αυξάνεται κατά 900% κάθε χρόνο, σύμφωνα με στοιχεία από την Clarity, μια εταιρεία μηχανικής εκμάθησης.

Εν τω μεταξύ, οι τεχνολογίες ανίχνευσης και υδατογραφήματος που χρησιμοποιούνται για τον εντοπισμό των deepfakes δεν έχουν προχωρήσει αρκετά γρήγορα ώστε να συμβαδίζουν.

Τα νέα της συμφωνίας έρχονται μια ημέρα αφότου ο δημιουργός του ChatGPT OpenAI ανακοίνωσε το Sora , τη νέα του πλατφόρμα για παραγωγή βίντεο που δημιουργείται από AI. Το Sora λειτουργεί παρόμοια με το εργαλείο τεχνητής νοημοσύνης δημιουργίας εικόνων του OpenAI, DALL-E. Ένας χρήστης πληκτρολογεί μια επιθυμητή σκηνή και ο Sora θα επιστρέψει ένα βίντεο κλιπ υψηλής ευκρίνειας. Το Sora μπορεί επίσης να δημιουργήσει βίντεο κλιπ εμπνευσμένα από στατικές εικόνες και να επεκτείνει τα υπάρχοντα βίντεο ή να συμπληρώσει καρέ που λείπουν.

Οι συμμετέχουσες εταιρείες στη συμφωνία συμφώνησαν σε οκτώ δεσμεύσεις υψηλού επιπέδου, συμπεριλαμβανομένης της αξιολόγησης των κινδύνων του μοντέλου, της «επιδίωξης» και της αντιμετώπισης της διανομής τέτοιου περιεχομένου στις πλατφόρμες τους και της παροχής διαφάνειας σε αυτές τις διαδικασίες στο κοινό. Όπως συμβαίνει με τις περισσότερες εθελοντικές δεσμεύσεις στον κλάδο της τεχνολογίας και πέραν αυτής, η ανακοίνωση διευκρίνισε ότι οι δεσμεύσεις ισχύουν μόνο «όπου σχετίζονται με τις υπηρεσίες που παρέχει κάθε εταιρεία».

«Η δημοκρατία βασίζεται σε ασφαλείς και ασφαλείς εκλογές», δήλωσε ο Κεντ Γουόκερ, πρόεδρος παγκόσμιων υποθέσεων της Google, σε μια ανακοίνωση. Η συμφωνία αντικατοπτρίζει την προσπάθεια του κλάδου να αντιμετωπίσει την «εκλογική παραπληροφόρηση που δημιουργείται από την τεχνητή νοημοσύνη που διαβρώνει την εμπιστοσύνη», είπε.

Η Christina Montgomery, επικεφαλής της ιδιωτικής ζωής και της εμπιστοσύνης της IBM, δήλωσε στην ανακοίνωση ότι σε αυτό το βασικό εκλογικό έτος, «απαιτούνται συγκεκριμένα, συνεργατικά μέτρα για την προστασία των ανθρώπων και των κοινωνιών από τους ενισχυμένους κινδύνους παραπλανητικού περιεχομένου που δημιουργείται από την τεχνητή νοημοσύνη».

Τι αναφέρει η συμφωνία

Οι 20 εταιρείες τεχνολογίας που υπέγραψαν τη συμφωνία της Παρασκευής δήλωσαν ότι θα συνεργαστούν για την εξάλειψη της εξάπλωσης επιβλαβούς περιεχομένου τεχνητής νοημοσύνης που σχετίζεται με τις εκλογές στις πλατφόρμες τους και θα αναλάβουν δράση με «ταχείς και αναλογικούς» τρόπους.

Οι εταιρείες δεσμεύτηκαν επίσης να είναι διαφανείς σχετικά με τον τρόπο με τον οποίο αντιμετωπίζουν τέτοιο παραπλανητικό περιεχόμενο και δεσμεύτηκαν ότι θα αξιολογήσουν τα παραγωγικά μοντέλα τεχνητής νοημοσύνης τους – όπως αυτά πίσω από το chatbot ChatGPT του OpenAI – για να κατανοήσουν καλύτερα τους κινδύνους που σχετίζονται με τις εκλογές.

Η συμφωνία είναι η πιο πρόσφατη σε μια σειρά εθελοντικών δεσμεύσεων γύρω από την τεχνητή νοημοσύνη που έχουν αναλάβει οι Big Tech εταιρείες τους τελευταίους μήνες. Πέρυσι, ομάδες συμπεριλαμβανομένων των OpenAI, Google DeepMind και Meta συμφώνησαν να ανοίξουν τα παραγωγικά μοντέλα τεχνητής νοημοσύνης τους για έλεγχο από το Ινστιτούτο Ασφάλειας AI της Βρετανίας.

Αυτόν τον μήνα, ως μέρος της βιομηχανικής πρωτοβουλίας του Coalition for Content Provenance and Authenticity, η Google δήλωσε ότι «διερευνά ενεργά» εάν θα μπορούσε να αναπτύξει εργαλεία υδατογράφησης που έδειχναν πώς δημιουργήθηκε μια εικόνα.

Η Meta είπε επίσης τον Φεβρουάριο ότι θα αρχίσει να επισημαίνει τις εικόνες που δημιουργούνται από AI που δημοσιεύουν οι χρήστες στο Facebook, το Instagram και το Threads «τους επόμενους μήνες».

Καμία δημοσίευση για προβολή