Helena Malikova: «Η κακή χρήση της τεχνητής νοημοσύνης μπορεί να υπονομεύσει τις εκλογές στην Ευρώπη»

Helena Malikova: «Η κακή χρήση της τεχνητής νοημοσύνης μπορεί να υπονομεύσει τις εκλογές στην Ευρώπη»
Η Υπεύθυνη διαχείρισης υποθέσεων στην Task Force του ΕΚ για τις επιδοτήσεις ευρωπαϊκών εταιρειών μιλά στο Fortune.

Έχοντας ξεκινήσει την καριέρα της στην επενδυτική τραπεζική, πέρασε σύντομα στην αντίπερα όχθη των ρυθμιστικών αρχών. Μάλιστα ήταν μεταξύ των ανθρώπων που δούλεψαν για την υπόθεση της Apple όπου, με εντολή της Ευρωπαϊκής Ένωσης, ζητήθηκε από τον πολυεθνικό κολοσσό να πληρώσει 13 δις ευρώ σε αναδρομικούς φόρους στην Ιρλανδία. Αν και μειονότητα σε έναν ανδροκρατούμενο κλάδο, η ίδια έχει καταφέρει να κερδίσει το σεβασμό των συναδέλφων της αναλαμβάνοντας θέσεις ευθύνης στους κόλπους της ΕΕ.

Ο λόγος για την Helena Malikova, Υπεύθυνη Διαχείρισης υποθέσεων στην Task Force για τις επιδοτήσεις ευρωπαϊκών εταιρειών και τέως Financial Analysis Project Manager with Chief Economist Team, η οποία, σε αποκλειστική συνέντευξη στο Fortune, μιλά για το πώς η τεχνητή νοημοσύνη επηρεάζει τον χρηματοπιστωτικό κλάδο, τους κινδύνους που εγκυμονεί σε κοινωνικό και πολιτικό επίπεδο, αλλά και για το νομοθετικό πλαίσιο που επεξεργάζεται το Ευρωπαϊκό Κοινοβούλιο προκειμένου να μιλάμε για ηθικό ΑΙ!

Κα Malikova, πώς λειτουργεί η νομοθεσία της ΕΕ για την ανθρωποκεντρική τεχνητή νοημοσύνη;

Η ΕΕ έχει αναλάβει ηγετικό ρόλο στη ρύθμιση της τεχνητής νοημοσύνης. Σημαντικά ορόσημα περιλαμβάνουν το DSA και το DMA. Το τελευταίο είναι ο ίδιος ο νόμος AI. Ο νόμος AI έχει συμφωνηθεί από το Ευρωπαϊκό Συμβούλιο και το Κοινοβούλιο. Είναι έτοιμος ώστε να γίνει ο πρώτος νόμος για τη ρύθμιση της τεχνητής νοημοσύνης παγκοσμίως. Και είναι δίκαιος δεδομένου ότι η ΕΕ εργάστηκε για μια ανθρωποκεντρική τεχνητή νοημοσύνη με την εν λόγω νομοθεσία να διευκρινίζει ότι οι άνθρωποι θα επιβλέπουν εφαρμογές τεχνητής νοημοσύνης που συνεπάγονται σημαντικούς κινδύνους για τους ανθρώπους.

Λαμβάνοντας υπόψη τη δεοντολογία, τι είδους μέτρα έχει λάβει η ΕΕ σε νομοθετικό επίπεδο;

Η ηθική μπορεί να σημαίνει διαφορετικά πράγματα για διαφορετικούς ανθρώπους. Όσον αφορά τη ρύθμιση, η διαφάνεια και η λογοδοσία αποτελούν το θεμέλιο της ηθικής.

Καθώς η τεχνητή νοημοσύνη αναδυόταν στην επιφάνεια, συχνά περιγραφόταν ως «μαύρο κουτί», ως αχαρτογράφητα νερά. Η υπέρβαση αυτής της αδιαφάνειας ήταν μια από τις μεγάλες προκλήσεις για τις ρυθμιστικές αρχές. Πρέπει να είμαστε σε θέση να εντοπίσουμε τουλάχιστον τις ανθρώπινες αποφάσεις στη διαδικασία σχεδιασμού και χρήσης ενός συστήματος AI. Διαφορετικά είναι αδύνατο να μιλήσουμε για ανθρωποκεντρική τεχνητή νοημοσύνη.

Μπορούμε όμως να μιλήσουμε για υπεύθυνη τεχνητή νοημοσύνη;

Η απόφαση για την προσέγγιση στη διακυβέρνηση της τεχνητής νοημοσύνης πήρε χρόνο. Αρχικά, το πλαίσιο ήταν αυτό της “εμπιστοσύνης” – όπως στην αξιόπιστη τεχνητή νοημοσύνη. Αλλά η εμπιστοσύνη μπορεί να δημιουργηθεί μόνο μεταξύ των ανθρώπων, και η εμπιστοσύνη σε μια μηχανή είναι μια μάταιη επιδίωξη. Αυτό γίνεται σταδιακά κατανοητό και πλέον μιλάμε για ανάθεση ευθύνης, όχι στην ίδια την τεχνητή νοημοσύνη, αλλά στους ανθρώπους που σχεδιάζουν τα συστήματα ή σε αυτούς που τα χρησιμοποιούν. Για να ανατεθεί αυτή η ευθύνη, αυτό που απαιτεί η νομοθεσία της ΕΕ είναι η διαφάνεια και η λογοδοσία.

Ποιες είναι οι κύριες προκλήσεις που θα αντιμετωπίσουμε στο άμεσο μέλλον, όσον αφορά τον ψηφιακό μετασχηματισμό;

Μερικοί άνθρωποι ανησυχούν ότι η τεχνητή νοημοσύνη θα υποκαταστήσει το ανθρώπινο στοιχείο. Προσωπικά, θα αφήσω τέτοιες συζητήσεις για βιβλία επιστημονικής φαντασίας.

Στην πραγματική ζωή πιστεύω ότι πρέπει να σκεφτόμαστε το μέλλον της εργασίας. Η τεχνητή νοημοσύνη θα αλλάξει τη φύση των εργασιών που εκτελούν οι άνθρωποι για να ζήσουν. Έρευνες δείχνουν ότι δεν πρέπει να περιμένουμε ότι η τεχνητή νοημοσύνη θα αντικαταστήσει τους ανθρώπους στο χώρο εργασίας, αλλά ότι θα διαταράξει τον εργασιακό περιβάλλον, ως προς τις διαδικασίες και τα έργα που θα εκτελούν οι άνθρωποι στο μέλλον.

Με άλλα λόγια, οι θέσεις εργασίας δεν θα εξαφανιστούν, αλλά οι περιγραφές και κατ’ επέκταση οι απαιτήσεις, των θέσεων εργασίας θα αλλάξουν. Ακόμα κι έτσι, αυτό θα μπορούσε να έχει δραματικό αντίκτυπο και ελλείψει επαρκούς συνοδευτικού μηχανισμού, μια διαταραχή που προκαλείται από την τεχνητή νοημοσύνη θα μπορούσε να οδηγήσει σε αύξηση των ανισοτήτων που με τη σειρά της οδηγεί στην πολιτική πόλωση.

Βρισκόμαστε ήδη σε μια μορφή κούρσας εξοπλισμών μεταξύ των παικτών της τεχνητής νοημοσύνης που μπορεί να επιδιώξουν να υπονομεύσουν τις εκλογές και τις κυβερνήσεις και εκείνων που έχουν επίγνωση της ανάγκης διατήρησης και ακόμη και ενίσχυσης της δημοκρατίας. Αυτή είναι η διάγνωση της συνεργάτιδάς μου καθηγήτριας Joanna Bryson. Το 2024 θα διεξαχθεί ένας μεγάλος αριθμός εκλογών, συμπεριλαμβανομένων των εκλογών για ένα νέο Ευρωπαϊκό Κοινοβούλιο και οι χρήσεις της τεχνητής νοημοσύνης θα χρειαστούν έλεγχο.

Οποιαδήποτε ανθεκτική λύση θα απαιτήσει παγκόσμια συνεργασία, επειδή τα συστήματα τεχνητής νοημοσύνης δεν γνωρίζουν σύνορα.

Ποιο θα λέγατε ότι είναι το “Next Big Thing” μετά το GenAi και πόσο προστατευμένοι είμαστε όσον αφορά την ασφάλεια στον κυβερνοχώρο;

Μένει ακόμα να δούμε πόσο μεγάλο πράγμα είναι το GenAI. Ναι, έχει εξάψει τη συλλογική φαντασία. Αλλά μέχρι στιγμής οι περισσότερες περιπτώσεις χρήσης τεχνητής νοημοσύνης δεν βασίζονται στο GenAI.

Η κυβερνοασφάλεια είναι απολύτως κρίσιμη για όλες τις εφαρμογές τεχνητής νοημοσύνης. Δεν μπορούμε να βασιστούμε στην τεχνητή νοημοσύνη για να σταματήσει η ίδια η παραβίαση. Η ευθύνη πρέπει να μείνει στους πολίτες. Αυτό αντικατοπτρίζεται τώρα στην οδηγία για την ευθύνη για τα προϊόντα, η οποία έχει τροποποιηθεί για να συμπεριλάβει την τεχνητή νοημοσύνη. Ειδική νομοθεσία θα αντιμετωπίσει τις απειλές για την ασφάλεια στον κυβερνοχώρο, η πιο πρόσφατη είναι ο νόμος για την ανθεκτικότητα στον κυβερνοχώρο, ο οποίος θέτει την ευθύνη για ευάλωτους σε κυβερνοεπιθέσεις στο λογισμικό.

Χρειαζόμαστε εταιρείες τεχνητής νοημοσύνης που να είναι υπεύθυνες σε περίπτωση που κάτι πάει στραβά. Η τεχνητή νοημοσύνη δεν θα πρέπει να είναι ένα νέο παράθυρο ευκαιριών για αποφυγή ευθύνης. Εάν ένα σύστημα τεχνητής νοημοσύνης παραβιάζει το νόμο και βλάπτει τους ανθρώπους, είναι ευθύνη, είτε του χρήστη, είτε του προγραμματιστή.

Ποιες είναι οι κύριες αρμοδιότητές σας ως υπεύθυνη διαχείρισης υποθέσεων στην Task Force για τις ξένες επιδοτήσεις;

Είμαι χρηματοοικονομική και οικονομική αναλύτρια και ο ρόλος μου με την ειδική ομάδα ξένων επιδοτήσεων είναι να διασφαλίσω ότι οι πολιτικές και οι αποφάσεις μας βασίζονται στην οικονομική πραγματικότητα και σε αξιόπιστα δεδομένα. Αυτό περιλαμβάνει τη συλλογή πληροφοριών της αγοράς και τη χαρτογράφηση των θεμάτων σε όλες τις περιπτώσεις.

Ποια κριτήρια είναι υψίστης σημασίας για να δοθεί μια επιχορήγηση;

Έχουμε σαφείς κανόνες στην ΕΕ για να δίνουμε επιχορηγήσεις σε εταιρείες. Οι κυβερνήσεις μπορούν να υποστηρίξουν τις εταιρείες για να βοηθήσουν στην έρευνά τους, για την περιφερειακή ανάπτυξη, για την αντιμετώπιση της σοβαρής υποαπασχόλησης, για να αναφέρουμε μόνο μερικούς θεμιτούς στόχους. Όλες αυτές οι επιχορηγήσεις πρέπει να εγκρίνονται από τις Βρυξέλλες για να διασφαλιστεί ότι αυτό που συμβαίνει ανταποκρίνεται στην πραγματικότητα, ώστε να μην στρεβλωθεί η ευρωπαϊκή αγορά. Το θέμα είναι ότι τέτοιοι κανόνες προηγουμένως δεν ίσχυαν για ξένες επιδοτήσεις. Ως εκ τούτου, οι εταιρείες θα μπορούσαν να λαμβάνουν ξένες επιδοτήσεις χωρίς επίβλεψη και στη συνέχεια να ανταγωνίζονται αθέμιτα τις εταιρείες στην Ευρώπη που δεν λαμβάνουν ξένες επιδοτήσεις. Ο νέος κανονισμός για τις ξένες επιδοτήσεις αποσκοπεί στη διόρθωση αυτής της ανισορροπίας.

Για πολλούς το Ευρωκοινοβούλιο έχει «διακοσμητικό» ρόλο και με δεδομένη την πολυφωνία που το χαρακτηρίζει, αργεί να λάβει δραστικές αποφάσεις σε κρίσιμα ζητήματα. Ποιο είναι η δική σας αίσθηση; Πού υστερεί και πού έχει σημειώσει πρόοδο;

Για να είμαι ειλικρινής, σκέφτηκα και εγώ στην αρχή ότι το Κοινοβούλιο δεν είναι τόσο χρήσιμο. Αλλά άλλαξα όμως γνώμη τα 15 χρόνια που ήμουν στην Επιτροπή. Το Κοινοβούλιο έχει καταφέρει πολλά παραπάνω από το να κερδίσει απλά το όνομά του. Πρώτον, έχει ασκήσει αποτελεσματική εποπτεία σε ορισμένες κρίσιμες αποφάσεις, όπως ο διορισμός επιτρόπων, αλλά και ο διορισμός του επικεφαλής οικονομολόγου για τον ανταγωνισμό. Σας προσκαλώ να ακούσετε μερικές από τις συζητήσεις στον ιστότοπο του Κοινοβουλίου. Υπάρχουν τόσοι καταπληκτικοί πολιτικοί που κάθονται στα έδρανα της Βουλής.

Στο Κοινοβούλιο ακούω πάθος, που συνήθως δεν ευνοείται στους γραφειοκρατικούς διαδρόμους της Επιτροπής, όπου οι συζητήσεις γίνονται μεταξύ τεχνοκρατών. Αλλά όταν ακούω το Ευρωπαϊκό Κοινοβούλιο, υπενθυμίζω ότι η Ευρώπη είναι κάτι περισσότερο από μια βιβλιοθήκη νόμων και κανονισμών.

Είμαστε τυχεροί που ένα από τα θεσμικά όργανα της ΕΕ αντικατοπτρίζει ορισμένα τμήματα της ευρωπαϊκής κοινωνίας ευρύτερα. Αλλά όπως και στην κοινωνία, αυτό σημαίνει επίσης ότι δεν είναι όλοι στο Κοινοβούλιο καλοί άνθρωποι. Πράγματι, πρέπει να κρατάμε τα μέλη του Κοινοβουλίου σε πολύ υψηλά πρότυπα ηθικής. Αυτό είναι έργο σε εξέλιξη και πρέπει να συνεχιστεί.

ΔΙΑΒΑΣΤΕ ΠΕΡΙΣΣΟΤΕΡΕΣ ΕΙΔΗΣΕΙΣ: