Προ των πυλών κώδικας δεοντολογίας για τις εταιρείες τεχνητής νοημοσύνης, με την υπογραφή της G7 – Πού αποσκοπεί

Προ των πυλών κώδικας δεοντολογίας για τις εταιρείες τεχνητής νοημοσύνης, με την υπογραφή της G7 – Πού αποσκοπεί
Photo: pixabay.com
«Σκοπός του είναι να βοηθήσει στην αξιοποίηση των πλεονεκτημάτων και στην αντιμετώπιση των κινδύνων και των προκλήσεων που φέρνουν αυτές οι τεχνολογίες».

Η G7 αναμένεται να συμφωνήσει τη Δευτέρα έναν κώδικα δεοντολογίας για τις εταιρείες που αναπτύσσουν προηγμένα συστήματα τεχνητής νοημοσύνης, όπως προκύπτει από σχετικό έγγραφο, καθώς οι κυβερνήσεις προσπαθούν να μετριάσουν τους κινδύνους και την πιθανή κατάχρηση της τεχνολογίας.

Ο εθελοντικός κώδικας δεοντολογίας θα αποτελέσει ορόσημο για τον τρόπο, με τον οποίο οι μεγάλες χώρες ρυθμίζουν την τεχνητή νοημοσύνη, εν μέσω ανησυχιών για την προστασία της ιδιωτικής ζωής και των κινδύνων για την ασφάλεια, έδειξε το έγγραφο, σύμφωνα με το Reuters.

Οι ηγέτες της G7 που αποτελείται από τον Καναδά, τη Γαλλία, τη Γερμανία, την Ιταλία, την Ιαπωνία, τη Βρετανία και τις Ηνωμένες Πολιτείες, καθώς και την Ευρωπαϊκή Ένωση, ξεκίνησαν τη διαδικασία τον Μάιο σε ένα υπουργικό φόρουμ που ονομάστηκε «Hiroshima AI process».

ΔΙΑΒΑΣΤΕ ΑΚΟΜΑ

Ο κώδικας 11 σημείων «αποσκοπεί στην προώθηση της ασφαλούς, προστατευμένης και αξιόπιστης τεχνητής νοημοσύνης παγκοσμίως και θα παρέχει εθελοντική καθοδήγηση για τις δράσεις των οργανισμών που αναπτύσσουν τα πιο προηγμένα συστήματα τεχνητής νοημοσύνης, συμπεριλαμβανομένων των πιο προηγμένων συστημάτων γενετικής τεχνητής νοημοσύνης», αναφέρεται στο έγγραφο.

«Σκοπός του είναι να βοηθήσει στην αξιοποίηση των πλεονεκτημάτων και στην αντιμετώπιση των κινδύνων και των προκλήσεων που φέρνουν αυτές οι τεχνολογίες».

Ο κώδικας προτρέπει τις εταιρείες να λάβουν τα κατάλληλα μέτρα για τον εντοπισμό, την αξιολόγηση και τον μετριασμό των κινδύνων σε ολόκληρο τον κύκλο ζωής της τεχνητής νοημοσύνης, καθώς και για την αντιμετώπιση περιστατικών και προτύπων κακής χρήσης μετά τη διάθεση των προϊόντων στην αγορά.

Οι εταιρείες θα πρέπει να δημοσιεύουν δημόσιες εκθέσεις σχετικά με τις δυνατότητες, τους περιορισμούς και τη χρήση και την κατάχρηση των AI συστημάτων, καθώς και να επενδύουν σε ισχυρούς ελέγχους ασφαλείας.

ΔΙΑΒΑΣΤΕ ΠΕΡΙΣΣΟΤΕΡΕΣ ΕΙΔΗΣΕΙΣ: