Το ChatGPT αναζωογόνησε το ενδιαφέρον για την ηθική (αλλά των μηχανών)

Το ChatGPT αναζωογόνησε το ενδιαφέρον για την ηθική (αλλά των μηχανών)
OpenAI displayed on a smartphone with ChatGPT 4 seen in the background, in this photo illustration, in Brussels, Belgium, on September 20, 2023 (Photo by Jonathan Raa/NurPhoto) (Photo by Jonathan Raa / NurPhoto / NurPhoto via AFP) Photo: AFP
Η ειρωνεία είναι ότι δεν εφαρμόζουμε τα ίδια ηθικά πρότυπα για τους ανθρώπους.

Δεν χωράει αμφιβολία ότι η τεχνητή νοημοσύνη έφερε στο προσκήνιο την ηθική και μαζί της, την ευθύνη της ηγεσίας.

Κατά ειρωνικό τρόπο, για ένα μεγάλο χρονικό διάστημα οι άνθρωποι δεν ενδιαφέρονταν τόσο πολύ να μιλήσουν για την ηθική των ανθρώπων, αλλά σίγουρα ενδιαφέρονται τώρα να συζητήσουν για την ηθική των μηχανών. Αυτό δεν σημαίνει ότι το λανσάρισμα του ChatGPT από μόνο του έβαλε την ηθική στην ατζέντα της τεχνητής νοημοσύνης. Η δουλειά πάνω στην ηθική της τεχνητής νοημοσύνης γίνεται τα τελευταία χρόνια μέσα στις εταιρείες και σε πολλές οργανώσεις της κοινωνίας των πολιτών που έχουν υιοθετήσει την ηθική της τεχνητής νοημοσύνης ή έχουν αρχίσει να την προωθούν. Αλλά το ChatGPT έκανε τα φώτα της δημοσιότητας πιο φωτεινά – και ισχυρότερη την ώθηση για τη δημιουργία προτύπων για τον κλάδο.

Τόσο οι μηχανικοί όσο και τα στελέχη έχουν ασχοληθεί με το θέμα της ευθυγράμμισης – της δημιουργίας τεχνητής νοημοσύνης που όχι μόνο ανταποκρίνεται σε ερωτήματα όπως θα απαντούσε ένας άνθρωπος, αλλά και ευθυγραμμίζεται με τις ηθικές αξίες των δημιουργών της. Ένα σύνολο βέλτιστων πρακτικών άρχισαν να εμφανίζονται ακόμη και πριν από τη θέσπιση της νομοθεσίας, και ο ρυθμός της ρυθμιστικής ανάπτυξης επιταχύνεται.

Μεταξύ αυτών των βέλτιστων πρακτικών περιλαμβάνονται έννοιες όπως η ιδέα ότι οι αποφάσεις που λαμβάνονται από την τεχνητή νοημοσύνη πρέπει να είναι εξηγήσιμες. Σε μια εταιρική συνεδρία για την ηθική της τεχνητής νοημοσύνης όπου συμμετείχαμε πρόσφατα, ένα μέλος παρατήρησε ότι οι άνθρωποι θέτουν πλέον υψηλότερα πρότυπα για το τι περιμένουν από τις μηχανές σε σχέση με το τι περιμένουν από τους ανθρώπους – πολλοί από τους οποίους δεν δίνουν ποτέ εξηγήσεις για το πώς, ας πούμε, λαμβάνεται μια απόφαση πρόσληψης, και ούτε καν τους ζητείται να το κάνουν.

ΔΙΑΒΑΣΤΕ ΑΚΟΜΑ

Αυτό συμβαίνει επειδή υπάρχει ένα κενό λογοδοσίας στην τεχνητή νοημοσύνη που κάνει τους ανθρώπους να νιώθουν άβολα. Εάν ένας άνθρωπος κάνει κάτι απαίσιο, υπάρχουν συνήθως συνέπειες και ένα κράτος δικαίου που διέπει την ελάχιστη αποδεκτή συμπεριφορά από τους ανθρώπους. Πώς όμως κάνουμε τις μηχανές να λογοδοτήσουν;

Η απάντηση, μέχρι στιγμής; Να βρίσκουμε ανθρώπους να λογοδοτούν όταν οι μηχανές κάνουν κάτι που θεωρούμε εγγενώς απωθητικό.

Εν μέσω του πρόσφατου δράματος στην OpenAI που φαίνεται να έχει συνδεθεί με ζητήματα ασφάλειας τεχνητής νοημοσύνης, ένας άλλος οραματιστής ηγέτης της Silicon Valley, ο Kurt Vogt, παραιτήθηκε από τον ρόλο του στην εταιρεία αυτόνομων αυτοκινήτων Cruise, που ίδρυσε πριν από 10 χρόνια. Ο Vogt παραιτήθηκε λιγότερο από ένα μήνα αφότου η Cruise ανέστειλε όλες τις λειτουργίες της αυτόνομης οδήγησης λόγω μιας σειράς τροχαίων ατυχημάτων.

Αφότου δώδεκα αυτοκίνητα ενεπλάκησαν σε τροχαία περιστατικά σε σύντομο χρονικό διάστημα, οι δραστηριότητες μιας εταιρείας σταμάτησαν και ο Διευθύνων Σύμβουλός της παραιτήθηκε. Αυτός είναι ένας σχετικά χαμηλός αριθμός περιστατικών που προκαλούν τέτοιες δραματικές αντιδράσεις και υποδηλώνει ότι ένα πολύ αυστηρό βιομηχανικό πρότυπο αναδύεται στον χώρο των αυτο-οδηγούμενων οχημάτων – ένα πολύ πιο αυστηρό πρότυπο σε σχέση με την κανονική αυτοκινητοβιομηχανία.

Οι εταιρικοί ηγέτες πρέπει να συμβιβαστούν με μια απαίτηση αυξημένης λογοδοσίας για να αντισταθμίσουν την αβεβαιότητα που συνοδεύει νέες τεχνολογίες τόσο ισχυρές –και δυνητικά θανατηφόρες– όπως η τεχνητή νοημοσύνη. Πλέον λειτουργούμε σε μια εποχή όπου η ηθική είναι μέρος της συζήτησης και ορισμένα λάθη που σχετίζονται με την τεχνητή νοημοσύνη δεν θα γίνουν ανεκτά.

ΔΙΑΒΑΣΤΕ ΠΕΡΙΣΣΟΤΕΡΕΣ ΕΙΔΗΣΕΙΣ:

Πηγή: fortune.com