Έκκληση των ηγετών της OpenAI: Ρυθμίστε την τεχνητή νοημοσύνη για να προστατέψουμε την ανθρωπότητα
- 28/05/2023, 17:00
- SHARE
Οι επικεφαλής της εταιρείας ανάπτυξης του ChatGPT, OpenAI, ζήτησαν τη ρύθμιση της “υπερ-ευφυούς” τεχνητής νοημοσύνης. Συγκεκριμένα, όπως αναφέρει ο Guardian, υποστήριξαν ότι απαιτείται ένα όργανο αντίστοιχο με τη Διεθνή Υπηρεσία Ατομικής Ενέργειας για την προστασία της ανθρωπότητας από τον κίνδυνο να δημιουργηθεί κατά λάθος κάτι που θα έχει τη δύναμη να την καταστρέψει.
Σε ένα σύντομο σημείωμα που δημοσιεύθηκε στον ιστότοπο της εταιρείας, οι συνιδρυτές Γκρεκ Μπρόκμαν και Ίλια Σούτσκεβερ και ο διευθύνων σύμβουλος Σαμ Άλτμαν, ζητούν να υπάρξει μια διεθνής ρυθμιστική αρχή που θα ξεκινήσει την προεργασία ως προς το πώς «θα επιθεωρεί τα συστήματα, θα απαιτεί ελέγχους, θα ελέγχει τη συμμόρφωση με τα πρότυπα ασφαλείας και θα θέτει περιορισμούς στους βαθμούς ανάπτυξης και στα επίπεδα ασφάλειας», προκειμένου να μειωθεί ο «υπαρξιακός κίνδυνος» που θα μπορούσαν να προκαλέσουν τέτοια συστήματα.
«Είναι πιθανό ότι μέσα στα επόμενα 10 χρόνια, τα συστήματα τεχνητής νοημοσύνης θα υπερβαίνουν το επίπεδο δεξιοτήτων των εμπειρογνωμόνων στους περισσότερους τομείς και θα εκτελούν τόση παραγωγική δραστηριότητα όσο μία από τις μεγαλύτερες σημερινές εταιρείες», γράφουν. «Η υπερ-νοημοσύνη θα είναι πιο ισχυρή από άλλες τεχνολογίες τις οποίες η ανθρωπότητα είχε να αντιμετωπίσει στο παρελθόν. Μπορούμε να έχουμε ένα δραματικά καλύτερο μέλλον, αλλά πρέπει να διαχειριστούμε τον κίνδυνο για να φτάσουμε εκεί. Δεδομένου του ενδεχόμενου υπαρξιακού κινδύνου, δεν μπορούμε απλώς να λειτουργούμε αντιδραστικά».
Βραχυπρόθεσμα, οι τρεις επιχειρηματικοί ηγέτες ζητούν «κάποιο βαθμό συντονισμού» μεταξύ των εταιρειών που εργάζονται στην έρευνα αιχμής για την τεχνητή νοημοσύνη, προκειμένου να διασφαλιστεί ότι η ανάπτυξη όλο και πιο ισχυρών μοντέλων θα ενσωματωθεί ομαλά στην κοινωνία, ενώ παράλληλα θα δοθεί προτεραιότητα στην ασφάλεια. Αυτός ο συντονισμός θα μπορούσε να γίνει μέσω ενός κυβερνητικού πρότζεκτ, για παράδειγμα, ή μέσω μιας συλλογικής συμφωνίας για τον περιορισμό της αύξησης των δυνατοτήτων της τεχνητής νοημοσύνης.
Οι ερευνητές προειδοποιούν εδώ και δεκαετίες για τους πιθανούς κινδύνους της υπερ-νοημοσύνης, αλλά καθώς η ανάπτυξη της τεχνητής νοημοσύνης έχει επιταχυνθεί, οι κίνδυνοι αυτοί έχουν γίνει πιο συγκεκριμένοι. Το Κέντρο για την Ασφάλεια της Τεχνητής Νοημοσύνης με έδρα τις ΗΠΑ, το οποίο εργάζεται για τη «μείωση των κοινωνικών κινδύνων από την τεχνητή νοημοσύνη», περιγράφει οκτώ κατηγορίες «καταστροφικών» και «υπαρξιακών» κινδύνων που θα μπορούσε να προκαλέσει η ανάπτυξη της Τεχνητής Νοημοσύνης.
Ενώ κάποιοι ανησυχούν για την πλήρη καταστροφή της ανθρωπότητας από μια ισχυρή τεχνητή νοημοσύνη, τυχαία ή σκόπιμα, το Κέντρο περιγράφει άλλες πιο ολέθριες βλάβες. Ένας κόσμος όπου τα συστήματα τεχνητής νοημοσύνης αναλαμβάνουν εθελοντικά όλο και περισσότερη εργασία θα μπορούσε να οδηγήσει την ανθρωπότητα «να χάσει την ικανότητα αυτοδιοίκησης και να γίνει πλήρως εξαρτημένη από τις μηχανές», ή μια μικρή ομάδα ανθρώπων που ελέγχει ισχυρά συστήματα θα μπορούσε να «καταστήσει την τεχνητή νοημοσύνη μια συγκεντρωτική δύναμη», οδηγώντας σε «εγκλωβισμό αξιών», ένα αιώνιο σύστημα κάστας μεταξύ κυβερνώντων και κυβερνώντων.