Η τεχνητή νοημοσύνη αποσαθρώνει την εμπιστοσύνη. Να πώς οι εταιρείες μπορούν να την κερδίσουν πίσω
- 02/03/2024, 10:19
- SHARE
Του Nick Rockel
Τεχνητή νοημοσύνη. Το όνομα δεν …φωνάζει ακριβώς «εμπιστοσύνη», σωστά;
Ως καταναλωτές, έχουμε συνηθίσει να εκτιμούμε το …real deal, το γνήσιο προϊόν. Προφανώς, αυτό έρχεται σε αντίθεση με την παραγωγική τεχνητή νοημοσύνη, μια τεχνολογία που είναι διαβόητη για την επινόηση πραγμάτων. Αλλά τα λάθη της τεχνητής νοημοσύνης, όπως το να ντύνεις έγχρωμους ανθρώπους με ναζιστικές στολές, είναι μόνο ένας από τους πολλούς λόγους για να είναι κανείς δύσπιστος.
Ακόμη και οι άνθρωποι που αναπτύσσουν την τεχνητή νοημοσύνη δεν ξέρουν πώς λειτουργεί. Προωθεί επιβλαβή στερεότυπα και οι ίδιοι οι δημιουργοί της ανησυχούν για μια ενδεχόμενη εξαφάνιση των ανθρώπων λόγω της τεχνητής νοημοσύνης.
Δεν είναι περίεργο που σχεδόν 8 στους 10 Αμερικανούς δεν εμπιστεύονται τις επιχειρήσεις για την υπεύθυνη χρήση της τεχνητής νοημοσύνης. Τόσο για τα αφεντικά όσο και για τους εργαζόμενους, υπάρχει ένα χάσμα εμπιστοσύνης στην τεχνητή νοημοσύνη.
Αναφορικά με την εμπιστοσύνη στο brand, η τεχνητή νοημοσύνη εισάγει μια εντελώς νέα κατηγορία κινδύνου, λέει η Beena Ammanath, επικεφαλής ηθικής της τεχνολογικής εμπιστοσύνης στη Deloitte. Αλλά ο μεγαλύτερος κίνδυνος είναι η μη χρήση της τεχνητής νοημοσύνης, προειδοποιεί η Ammanath. «Αν δεν τη χρησιμοποιήσετε, θα χάσετε το ανταγωνιστικό σας πλεονέκτημα».
Από πού λοιπόν πρέπει να ξεκινήσετε την οικοδόμηση εμπιστοσύνης; Ο Philipp Herzig, επικεφαλής ΤΝ του γίγαντα του λογισμικού SAP, λέει στους πελάτες που χρησιμοποιούν τεχνητή νοημοσύνη να ξεκινήσουν να στοχάζονται πάνω στις βασικές τους πεποιθήσεις και το τι είναι σημαντικό γι’ αυτούς. «Η τεχνολογία κινείται εξαιρετικά γρήγορα», λέει ο Herzig, η εταιρεία του οποίου δημοσίευσε μια ολοκληρωμένη πολιτική ηθικής της ΤΝ το 2018. «Αλλά οι αξίες δεν πρέπει να κινούνται γρήγορα».
Το να βιώνεις αυτές τις αξίες σημαίνει να δίνεις στους ανθρώπους τον τελικό λόγο. «Η τεχνητή νοημοσύνη είναι ένα πολύ, πολύ χρήσιμο εργαλείο», τονίζει ο Herzig. «Αλλά εν τέλει, η λήψη αποφάσεων πρέπει να γίνεται από έναν άνθρωπο».
Η Deloitte προσδιορίζει έξι διαστάσεις αξιόπιστης παραγωγικής τεχνητής νοημοσύνης. Θα πρέπει να είναι δίκαιη και αμερόληπτη, διαφανής και εξηγήσιμη, ασφαλής και προστατευμένη, υπεύθυνη, με λογοδοσία, και να σέβεται την ιδιωτικότητα.
Το να καταστεί η τεχνητή νοημοσύνη διαφανής και εξηγήσιμη απαιτεί ισχυρή επικοινωνία, τόσο εντός όσο και εκτός της εταιρείας. Πρώτον, βεβαιωθείτε ότι όλοι στην ομάδα γνωρίζουν αρκετά για την τεχνητή νοημοσύνη ώστε να κάνουν τις σωστές ερωτήσεις και να επισημαίνουν πιθανά προβλήματα, λέει η Ammanath. «Η δημιουργία αυτού του βασικού επιπέδου γνώσης της τεχνητής νοημοσύνης για τους υπαλλήλους σας είναι κάτι που βλέπω να συμβαίνει σε όλες τις επιχειρήσεις σήμερα».
Δεύτερον, να είστε ειλικρινείς με το κοινό. Για παράδειγμα, μια εταιρεία θα πρέπει να επισημαίνει σαφώς το περιεχόμενο που παράγεται με τεχνητή νοημοσύνη ή να αποκαλύπτει σε απλή γλώσσα πώς χρησιμοποιεί τα δεδομένα που συλλέγονται από το σύστημα υποστήριξης πελατών με τεχνητή νοημοσύνη. «Δεν αφορά πλέον απλώς τη δημοσίευση πολύπλοκων νομικών εγγράφων, αλλά την επεξήγησή τους σε μια γλώσσα που μπορεί να καταλάβει ο πελάτης σας», εξηγεί η Ammanath.
Μια επιχείρηση πρέπει επίσης να καθορίσει ποιος είναι υπεύθυνος όταν η τεχνητή νοημοσύνη παράγει ανακριβή αποτελέσματα ή όταν γίνεται ρατσιστική ή μισογυνική.
ΔΙΑΒΑΣΤΕ ΠΕΡΙΣΣΟΤΕΡΕΣ ΕΙΔΗΣΕΙΣ:
- Η τεχνητή νοημοσύνη στη μάχη κατά του καρκίνου του προστάτη
- Δικηγόροι ζητούν από τον Έλον Μασκ αποζημίωση 6 δισ. δολαρίων για υπόθεση της Tesla
Πηγή: fortune.com