Τράπεζα της Αγγλίας: Η τεχνητή νοημοσύνη απειλεί τη χρηματοπιστωτική σταθερότητα του Ηνωμένου Βασιλείου

Τράπεζα της Αγγλίας: Ο τομέας της τεχνητής νοημοσύνης απειλεί τη χρηματοπιστωτική σταθερότητα του ΗΒ

Η Τράπεζα της Αγγλίας προειδοποίησε ότι οι ραγδαίες εξελίξεις στον τομέα της τεχνητής νοημοσύνης και της μηχανικής μάθησης θα μπορούσαν να θέσουν σε κίνδυνο τη χρηματοπιστωτική σταθερότητα του Ηνωμένου Βασιλείου, προκαλώντας νέα επανεξέταση της χρήσης τους σε όλο το City.

Η τεχνητή νοημοσύνη και η μηχανική μάθηση χρησιμοποιούνται από τις χρηματοπιστωτικές επιχειρήσεις εδώ και τουλάχιστον μια δεκαετία, για παράδειγμα, για να βοηθήσουν στον εντοπισμό απάτης και ξεπλύματος χρήματος. Ωστόσο, η πρόσφατη αύξηση των τεχνολογικών εξελίξεων και των διαθέσιμων δεδομένων, καθώς και η μείωση του κόστους της υπολογιστικής ισχύος, έχουν τροφοδοτήσει “σημαντικό ενδιαφέρον” και ευρύτερη χρήση σε ολόκληρο τον τομέα, δήλωσε η επιτροπή χρηματοοικονομικής πολιτικής (FPC) της Τράπεζας.

“Κίνδυνοι σε συστημικό επίπεδο”

Ενώ οι περισσότερες εταιρείες πρότειναν ότι ο τρόπος με τον οποίο χρησιμοποιούν την τεχνολογία ήταν “σχετικά χαμηλού κινδύνου”, η FPC προειδοποίησε ότι η ευρύτερη υιοθέτηση “θα μπορούσε να δημιουργήσει κινδύνους χρηματοπιστωτικής σταθερότητας σε επίπεδο συστήματος”. Αυτό θα μπορούσε να σημαίνει μεγαλύτερη “συμπεριφορά κοπαδιού”, όπου υπάρχει συγκέντρωση επιχειρήσεων που λαμβάνουν παρόμοιες οικονομικές αποφάσεις, οι οποίες στη συνέχεια στρεβλώνουν τις αγορές, και αύξηση των κινδύνων στον κυβερνοχώρο.

Ο διοικητής της Τράπεζας, Andrew Bailey, δήλωσε ότι είναι σημαντικό να αναγνωριστεί ότι οι εξελίξεις στον τομέα της τεχνητής νοημοσύνης έχουν τη δυνατότητα να ενισχύσουν την οικονομική ανάπτυξη και την παραγωγικότητα. Ωστόσο, προειδοποίησε ότι “πρέπει να την αγκαλιάσουμε με τα μάτια ανοιχτά”.

Λίγοι άνθρωποι κατανοούν πώς λειτουργεί η τεχνητή νοημοσύνη

Υπάρχουν ανησυχίες ότι λίγοι άνθρωποι κατανοούν πώς λειτουργεί ο τομέας της τεχνητής νοημοσύνης, γεγονός που καθιστά δυσκολότερο για τις ρυθμιστικές αρχές να καταστήσουν τους ανθρώπους υπόλογους για τις αποφάσεις που λαμβάνονται ή τις ενέργειες που αναλαμβάνονται ως αποτέλεσμα.

Ο Bailey είπε ότι είναι παρόμοιο με το αλγοριθμικό trading, όπου ισχυροί υπολογιστές αναλύουν τις αγορές για να αγοράσουν ή να πουλήσουν μετοχές μέσα σε δευτερόλεπτα. “Δεν μπορείτε να έχετε ανθρώπους που χρησιμοποιούν αλγοριθμικές συναλλαγές χωρίς να κατανοούν πώς λειτουργούν. Επειδή είναι μια συνταγή για προβλήματα”.

Ωστόσο, “δεν είναι εκτός ελέγχου με όρους του 2001: Οδύσσεια του Διαστήματος“, δήλωσε ο Bailey, αναφερόμενος στην ταινία επιστημονικής φαντασίας του 1968, όπου ο υπολογιστής του πλοίου στρέφεται εναντίον του πληρώματος. “Στην πραγματικότητα είναι ότι το πράγμα είναι τόσο περίπλοκο.

“Όλοι όσοι το έχουμε χρησιμοποιήσει, είχαμε την εμπειρία ενός είδους παραίσθησης και κατά κάποιο τρόπο προκύπτει κάτι που σκέφτεσαι: “Πώς στο καλό προέκυψε αυτό;”.

“Αν πρόκειται να το χρησιμοποιήσετε για τον πραγματικό κόσμο και τις πραγματικές χρηματοπιστωτικές υπηρεσίες, δεν μπορεί να συμβαίνει κάτι τέτοιο. Προφανώς πρέπει να έχεις ελέγχους και κατανόηση του πώς λειτουργεί αυτό το πράγμα, και υπάρχουν πολλά που πρέπει να κάνεις εκεί.

Πολλοί μπορούν να εμπλακούν στις χρηματοπιστωτικές αγορές

Εν τω μεταξύ, οι νέοι πάροχοι τεχνητής νοημοσύνης και δεδομένων θα μπορούσαν επίσης να καταλήξουν να γίνουν σημαντικοί συμμετέχοντες στις χρηματοπιστωτικές αγορές και ενδέχεται να απαιτούν στενότερη εποπτεία. Η Τράπεζα, ο ρυθμιστικός της βραχίονας, η Αρχή Προληπτικής Ρύθμισης, καθώς και ο εποπτικός φορέας της πόλης, η Αρχή Χρηματοοικονομικής Συμπεριφοράς, θα ξεκινήσουν μια διαδικασία διαβούλευσης σχετικά με αυτά τα “κρίσιμα τρίτα μέρη” αργότερα αυτόν τον μήνα.

Η FPC δήλωσε ότι “θα εξετάσει τους κινδύνους χρηματοπιστωτικής σταθερότητας της τεχνητής νοημοσύνης και της μηχανικής μάθησης το 2024 και, συνεργαζόμενη με άλλες σχετικές αρχές, θα επιδιώξει να διασφαλίσει ότι το χρηματοπιστωτικό σύστημα του Ηνωμένου Βασιλείου είναι ανθεκτικό στους κινδύνους που μπορεί να προκύψουν από την ευρεία υιοθέτηση”.

Ο υποδιοικητής Sam Woods, ο οποίος είναι επίσης ο διευθύνων σύμβουλος της Αρχής Προληπτικής Ρύθμισης, δήλωσε ότι δεν είναι ακόμη σαφές εάν η επανεξέταση ή η διαβούλευση θα οδηγήσει σε ρύθμιση ειδικά για την τεχνητή νοημοσύνη.

Η ρυθμιστική αρχή, πρόσθεσε μπορεί να διερευνήσει τα “βήματα που πρέπει να λάβει ένας ανώτερος διευθυντής για να βεβαιωθεί ότι αυτό που βγαίνει από το μαύρο κουτί της τεχνητής νοημοσύνης είναι πραγματικά λογικό … οπότε υπάρχουν πράγματα που ίσως χρειαστεί να προσθέσουμε”.

Καμία δημοσίευση για προβολή