«Καμπανάκι κινδύνου» από τους ιδρυτές της OpenAΙ: «Να ελέγξουμε την τεχνητή νοημοσύνη αλλιώς θα καταστρέψει την ανθρωπότητα»

Η τεχνητή νοημοσύνη θα επηρεάσει σχεδόν το 40% όλων των θέσεων εργασίας, σύμφωνα με νέα ανάλυση του Διεθνούς Νομισματικού Ταμείου (ΔΝΤ).

Μπορείτε να φανταστείτε ένα πρόγραμμα τεχνητής νοημοσύνης να αποκτήσει πρόσβαση σε κωδικούς πυρηνικών κάποιας χώρας; Οι συνιδρυτές της ΟpenAI που έχει φτιάξει το δημοφιλές ChatGPT το φαντάστηκαν και για αυτόν τον λόγο ζητούν να υπάρξει μια διεθνής ρυθμιστική αρχή κατά τα πρότυπα του Διεθνούς Οργανισμού Ατομικής Ενέργειας για την προστασία της ανθρωπότητας από τον κίνδυνο να πάει κάτι λάθος με την τεχνητή νοημοσύνη και να αποκτήσει τέτοια δύναμη που να μας καταστρέψει.

Σε ένα σύντομο σημείωμα που δημοσιεύτηκε στον ιστότοπο της εταιρείας, οι συνιδρυτές Greg Brockman και Ilya Sutskever και ο διευθύνων σύμβουλος, Sam Altman, ζητούν από μια διεθνή ρυθμιστική αρχή να αρχίσει να εργάζεται σχετικά με τον τρόπο «επιθεώρησης συστημάτων, απαιτήσεων ελέγχων, δοκιμής συμμόρφωσης με τα πρότυπα ασφαλείας , [και] να θέσει περιορισμούς στους βαθμούς ανάπτυξης και στα επίπεδα ασφάλειας» προκειμένου να μειωθεί ο «υπαρξιακός κίνδυνος» που θα μπορούσαν να δημιουργήσουν τέτοια συστήματα.

«Είναι κατανοητό ότι μέσα στα επόμενα 10 χρόνια, τα συστήματα τεχνητής νοημοσύνης θα ξεπεράσουν το επίπεδο δεξιοτήτων των ειδικών στους περισσότερους τομείς και θα ασκούν τόση παραγωγική δραστηριότητα όσο μία από τις μεγαλύτερες εταιρείες του σήμερα», γράφουν. «Όσον αφορά τόσο τα πιθανά θετικά όσο και τα αρνητικά, η υπερευφυΐα θα είναι πιο ισχυρή από άλλες τεχνολογίες με τις οποίες ήρθε αντιμέτωπη η ανθρωπότητα στο παρελθόν. Μπορούμε να έχουμε ένα πολύ καλύτερο μέλλον αλλά πρέπει να διαχειριστούμε τον κίνδυνο για να φτάσουμε εκεί. Δεδομένης της πιθανότητας υπαρξιακού κινδύνου, δεν μπορούμε παρά να αντιδράσουμε».

Βραχυπρόθεσμα, οι τρεις συνιδρυτές ζητούν «κάποιο βαθμό συντονισμού» μεταξύ των εταιρειών που εργάζονται στην έρευνα αιχμής της τεχνητής νοημοσύνης, προκειμένου να διασφαλιστεί ότι η ανάπτυξη ολοένα πιο ισχυρών μοντέλων ενσωματώνεται ομαλά στην κοινωνία, δίνοντας προτεραιότητα στην ασφάλεια. Αυτός ο συντονισμός θα μπορούσε να γίνει μέσω ενός κυβερνητικού έργου, για παράδειγμα, ή μέσω μιας συλλογικής σύμβασης για τον περιορισμό της ανάπτυξης της ικανότητας τεχνητής νοημοσύνης.

Τι τους φοβίζει

Οι ερευνητές έχουν προειδοποιήσει για τους πιθανούς κινδύνους της υπερευφυΐας εδώ και δεκαετίες, αλλά καθώς η ανάπτυξη της τεχνητής νοημοσύνης επιταχύνθηκε, αυτοί οι κίνδυνοι έγιναν πιο συγκεκριμένοι. Το Κέντρο για την Ασφάλεια της Τεχνητής Νοημοσύνης (CAIS) που εδρεύει στις ΗΠΑ, το οποίο εργάζεται για τη «μείωση των κινδύνων κοινωνικής κλίμακας από την τεχνητή νοημοσύνη», περιγράφει οκτώ κατηγορίες «καταστροφικών» και «υπαρξιακών» κινδύνων που θα μπορούσε να θέσει η ανάπτυξη της τεχνητής νοημοσύνης.

Οι περισσότεροι ανησυχούν πως μια ισχυρή τεχνητή νοημοσύνη, θα καταστρέψει εντελώς την ανθρωπότητα από λάθος ή επίτηδες, το CAIS περιγράφει ακόμα πιο ολέθριες καταστροφές. Ένας κόσμος όπου τα συστήματα τεχνητής νοημοσύνης παραδίδονται εθελοντικά όλο και περισσότερο εργατικό δυναμικό θα μπορούσε να οδηγήσει στην απώλεια της ικανότητας της ανθρωπότητας να αυτοκυβερνηθεί και να εξαρτάται πλήρως από τις μηχανές, κάτι που περιγράφεται ως «αδυναμία». Και μια μικρή ομάδα ανθρώπων που ελέγχουν ισχυρά συστήματα θα μπορούσαν να «μετατρέψουν την τεχνητή νοημοσύνη σε μια συγκεντρωτική δύναμη», οδηγώντας σε ένα αξιακό κενό, δημιουργώντας ένα αιώνιο σύστημα κάστας μεταξύ των κυβερνώμενων και των κυβερνώντων.

Οι κατασκευαστές του OpenAI λένε ότι αυτοί οι κίνδυνοι σημαίνουν ότι «οι άνθρωποι σε όλο τον κόσμο θα πρέπει να αποφασίζουν δημοκρατικά για τα όρια και τις προεπιλογές για τα συστήματα AI», αλλά παραδέχονται ότι «δεν ξέρουμε ακόμη πώς να σχεδιάσουμε έναν τέτοιο μηχανισμό».

Ωστόσο, όπως λένε αξίζει το ρίσκο και εξηγούν:

«Πιστεύουμε ότι θα οδηγήσει σε έναν κόσμο πολύ καλύτερο από αυτό που μπορούμε να φανταστούμε σήμερα (βλέπουμε ήδη πρώιμα παραδείγματα αυτού σε τομείς όπως η εκπαίδευση, η δημιουργική εργασία και η προσωπική παραγωγικότητα)», γράφουν. Προειδοποιούν ότι θα μπορούσε επίσης να είναι επικίνδυνο να σταματήσει η ανάπτυξη. «Επειδή τα πλεονεκτήματα είναι τόσο τεράστια, το κόστος κατασκευής του οτιδήποτε μειώνεται κάθε χρόνο, ο αριθμός των παραγόντων που το κατασκευάζουν αυξάνεται ραγδαία και είναι εγγενώς μέρος της τεχνολογικής πορείας που βαδίζουμε. Η διακοπή του θα απαιτούσε κάτι σαν ένα παγκόσμιο καθεστώς επιτήρησης, και ακόμη και αυτό δεν είναι εγγυημένο ότι θα λειτουργήσει. Πρέπει λοιπόν να το κάνουμε σωστά».

Πηγή: The Guardian

 

Καμία δημοσίευση για προβολή