«Πρέπει να δαπανήσετε περισσότερα για την ασφάλεια της τεχνητής νοημοσύνης» – Κορυφαίοι αναλυτές προειδοποιούν κυβερνήσεις και επιχειρήσεις
- 24/10/2023, 18:02
- SHARE
Οι εταιρείες τεχνητής νοημοσύνης και οι κυβερνήσεις θα πρέπει να διαθέσουν τουλάχιστον το ένα τρίτο της χρηματοδότησης της έρευνας και ανάπτυξης της τεχνητής νοημοσύνης για τη διασφάλιση της ασφάλειας και της ηθικής χρήσης των συστημάτων, ανέφεραν κορυφαίοι ερευνητές της τεχνητής νοημοσύνης σε επιστολή τους την Τρίτη.
Η επιστολή, που εκδόθηκε μια εβδομάδα πριν από τη διεθνή διάσκεψη κορυφής για την ασφάλεια της τεχνητής νοημοσύνης στο Λονδίνο, απαριθμεί μέτρα που θα πρέπει να λάβουν οι κυβερνήσεις και οι εταιρείες για την αντιμετώπιση των κινδύνων της τεχνητής νοημοσύνης.
«Οι κυβερνήσεις θα πρέπει επίσης να δώσουν εντολή ώστε οι εταιρείες να είναι νομικά υπεύθυνες για τις βλάβες από τα AI συστήματα των ορίων τους που μπορούν εύλογα να προβλεφθούν και να προληφθούν», σύμφωνα με την επιστολή, η οποία υπογράφεται από τρεις νικητές του βραβείου Turing, έναν νομπελίστα και περισσότερους από δώδεκα κορυφαίους ακαδημαϊκούς της τεχνητής νοημοσύνης.
Επί του παρόντος δεν υπάρχουν κανονισμοί ευρείας βάσης που να εστιάζουν στην ασφάλειά της και η πρώτη σειρά νομοθετικών ρυθμίσεων από την Ευρωπαϊκή Ένωση δεν έχει γίνει ακόμη νόμος, καθώς οι νομοθέτες δεν έχουν ακόμη συμφωνήσει σε διάφορα ζητήματα.
«Τα πρόσφατα σύγχρονα μοντέλα τεχνητής νοημοσύνης είναι πολύ ισχυρά και πολύ σημαντικά για να τα αφήσουμε να αναπτυχθούν χωρίς δημοκρατική εποπτεία», δήλωσε ο Yoshua Bengio, ένας από τους τρεις ανθρώπους που είναι γνωστοί ως «νονοί» της τεχνητής νοημοσύνης.
«Αυτό (οι επενδύσεις στην ασφάλειά της) πρέπει να γίνει γρήγορα, επειδή η τεχνητή νοημοσύνη εξελίσσεται πολύ πιο γρήγορα από τις προφυλάξεις που λαμβάνονται», δήλωσε.
Οι υπογράφοντες την επιστολή περιλαμβάνουν τους Geoffrey Hinton, Andrew Yao, Daniel Kahneman, Dawn Song και Yuval Noah Harari.
Από την έναρξη της λειτουργίας των μοντέλων γενετικής τεχνητής νοημοσύνης της OpenAI, κορυφαίοι ακαδημαϊκοί και εξέχοντες διευθύνοντες σύμβουλοι, όπως ο Έλον Μασκ, έχουν προειδοποιήσει για τους κινδύνους της τεχνητής νοημοσύνης, ζητώντας μεταξύ άλλων εξάμηνη παύση στην ανάπτυξη ισχυρών συστημάτων τεχνητής νοημοσύνης.
Ορισμένες εταιρείες έχουν αντιταχθεί σε αυτό, λέγοντας ότι θα αντιμετωπίσουν υψηλό κόστος συμμόρφωσης και δυσανάλογους κινδύνους ευθύνης.
«Οι εταιρείες θα διαμαρτύρονται ότι είναι πολύ δύσκολο να ικανοποιήσουν τους κανονισμούς – ότι “οι κανονισμοί καταπνίγουν την καινοτομία – αυτό είναι γελοίο», δήλωσε ο Βρετανός επιστήμονας πληροφορικής Stuart Russel.
«Υπάρχουν περισσότεροι κανονισμοί για τα καταστήματα σάντουιτς από ό,τι για τις εταιρείες τεχνητής νοημοσύνης».