Άποψη: Γιατί πρέπει να φοβόμαστε την τεχνητή νοημοσύνη
- 22/08/2017, 12:07
- SHARE
Όπως τη φοβάται ο Έλον Μασκ.
του Στίβεν Φίνλεϊ*
Ο Έλον Μασκ ανέφερε πρόσφατα σε «τιτίβισμά» του ότι η τεχνητή νοημοσύνη (artificial intelligence – AI) είναι πιο επικίνδυνη από τη Βόρεια Κορέα.
Δεν είναι η πρώτη φορά που ο γνωστός επιχειρηματίας προειδοποιεί για τους κινδύνους της τεχνητής νοημοσύνης. Πρέπει να τη φοβόμαστε, όπως αυτός. Μπορεί η τεχνητή νοημοσύνη να οδηγήσει σε μια τεράστια καταστροφή ή σε μια ανταρσία των ρομπότ που θα καταστρέψει την ανθρωπότητα;
Ας είμαστε ξεκάθαροι: μια πυρηνική σύγκρουση μεταξύ Βόρειας Κορέας και ΗΠΑ θα οδηγήσει στο θάνατο εκατομμυρίων ανθρώπων. Βραχυπρόθεσμα, η τεχνητή νοημοσύνη αποκλείεται να προκαλέσει κάτι χειρότερο απ’ αυτό. Οι τεχνολογίες τεχνητής νοημοσύνης δεν είναι αρκετά ανεπτυγμένες ούτε έχουν ενσωματωθεί αρκετά στην κοινωνία μας για να συμβεί κάτι τέτοιο.
Αλλά μακροπρόθεσμα η προοπτική είναι λιγότερο ξεκάθαρη. Οι τεχνολογίες τεχνητής νοημοσύνης αναπτύσσονται ταχύτατα και μαζί τους αναπτύσσονται και οι κίνδυνοι που τις συνοδεύουν.
Η εφαρμογή της τεχνητής νοημοσύνης στον πόλεμο και την αστυνόμευση είναι οπωσδήποτε μια πηγή ανησυχίας. Αυτόνομα οπλισμένα ρομπότ που θα μπορούν να εντοπίζουν και να στοχεύουν συγκεκριμένα άτομα βάσει λογισμικού αναγνώρισης προσώπου δεν βρίσκονται και τόσο μακριά μας. Τέτοιες μηχανές, εάν αποκτήσουν αυτονομία έναντι του ανθρώπινου ελέγχου, θα μπορούσαν να συνεχίζουν να σκοτώνουν μέχρι να ξεμείνουν από πυρομαχικά.
Το πρόβλημα που δεν πρέπει να ξεχνάμε είναι ότι η τεχνητή νοημοσύνη δεν έχει κοινωνική ενσυναίσθηση ή συνείδηση ή αισθήματα οίκτου ή μεταμέλειας. Απλώς κάνει αυτό που έχει «εκπαιδευτεί» να κάνει.
Το «Σενάριο Terminator» είναι ένα πραγματικό ενδεχόμενο – το οποίο όμως μπορούμε εύκολα να αποτρέψουμε μέσω μέτρων σε επίπεδο νομοθεσίας αλλά και μέσα από το πώς σχεδιάζουμε τη νοημοσύνη των ρομπότ.
Η μεγάλη απειλή από την τεχνητή νοημοσύνη προέρχεται από την ανάπτυξη μηχανών που είναι καλύτερες στη λήψη αποφάσεων από τον ίδιο τον άνθρωπο. Η συνέπεια μιας τέτοιας εξέλιξης θα είναι να γίνουμε σκλάβοι των αυτοματοποιημένων φορέων λήψης αποφάσεων – και εκείνων που θα τους ελέγχουν.
Αυτό μπορεί να φαίνεται σαν ένα φουτουριστικό σενάριο, αλλά στην πραγματικότητα είναι μια διαδικασία που ήδη αρχίζει να εξελίσσεται. Συστήματα βασισμένα στην τεχνητή νοημοσύνη έχουν αρχίσει να αντικαθιστούν ή να υποβοηθούν τους ανθρώπους σε πολλές εξειδικευμένες δουλειές.
Ο λόγος; Η τεχνητή νοημοσύνη μπορεί να ερμηνεύσει καταστάσεις καλύτερα από τους ανθρώπους. Για παράδειγμα, τα μηχανήματα τεχνητής νοημοσύνης είναι καλύτερα στον εντοπισμό ενδείξεων καρκίνου σε μια τομογραφία απ’ ό,τι ο καλύτερος ακτινολόγος.
Πολλές από τις επιλογές μας στα κοινωνικά μέσα και στις ιστοσελίδες αγορών επηρεάζονται από την τεχνητή νοημοσύνη. Οι αλγόριθμοι καθορίζουν τι περιεχόμενο βλέπουμε στο News Feed μας και μας συστήνουν άτομα με τα οποία θα μπορούσαμε να βγούμε ραντεβού. Αν δεν μπορείτε να πάρετε δάνειο, είναι επειδή κάποιο σύστημα βασισμένο στην τεχνητή νοημοσύνη το αρνήθηκε. Πολλές εταιρείες χρησιμοποιούν τεχνητή νοημοσύνη για να αξιολογήσουν υποψήφιους για μια θέση εργασίας. Σε μερικές δεκαετίες, ίσως οι ζωές μας να ελέγχονται τόσο από την τεχνητή νοημοσύνη ώστε να μην μπορούμε να παρεκκλίνουμε από το δρόμο που θα έχει αποφασίσει και ορίσει η τεχνητή νοημοσύνη. Θα είμαστε σκλάβοι σ’ ένα μέλλον προκαθορισμένο από τις μηχανές.
Αυτό που καθιστά ένα τέτοιο σενάριο τόσο επικίνδυνο είναι ότι δεν έχει σχεδιαστεί από κάποια υπέρτερη δύναμη ευφυΐας κλπ. Εμείς οι ίδιοι δημιουργούμε την τεχνολογία που μπορεί να μας οδηγήσει στην καταστροφή. Κι αυτό καθιστά δύσκολο τον έλεγχο της τεχνητής νοημοσύνης ή την προστασία απ’ αυτήν.
Είτε έρθει τώρα, είτε σε μερικές δεκαετίες, η απειλή της τεχνητής νοημοσύνης είναι υπαρκτή.
* Ο Στίβεν Φίνλεϊ είναι συγγραφέας του Artificial Intelligence and Machine Learning for Business: A No-Nonsense Guide to Data Driven Technologies.