Η αγορά ενός σπιτιού ή αυτοκινήτου είναι μια συναρπαστική στιγμή στη ζωή ενός ανθρώπου. Οι καταναλωτές μπορεί να αισθάνονται άνετα και ακόμη και να εκτιμούν τις συστάσεις που έρχονται από δεδομένα που έχουν συλλεχθεί στη διαδικασία αναζήτησης, για παράδειγμα, από ιστότοπους που προτείνουν σπίτια με βάση ιδιότητες που έχουν οι ίδιοι αναζητήσει προηγουμένως. Αλλά τι γίνεται αν η απόφαση χορήγησης υποθήκης ή δανείου γίνεται με machine-learning αλγόριθμο;
Και τι γίνεται αν η λογική πίσω από την απόφαση του αλγορίθμου, ειδικά αν απορρίψει την εφαρμογή, είναι ασαφής; Είναι αρκετά δύσκολο η απόρριψη σε κάποιον για ένα δάνειο μετά από την παραδοσιακή διαδικασία, αλλά το να απορρίπτεται από ένα σύστημα τεχνητής νοημοσύνης (AI) που δεν μπορεί να εξηγηθεί ο λόγος, είναι πολύ χειρότερο. Οι καταναλωτές δεν έχουν κανένα στοιχείο για να ξέρουν πώς να βελτιώσουν τις πιθανότητες επιτυχίας τους στο μέλλον.
Σε γενικές γραμμές, για να βρίσκουν τα μυστικά της AI και να διευκολύνουν την εμπιστοσύνη, οι εταιρείες πρέπει να αναπτύξουν συστήματα AI που να λειτουργούν αξιόπιστα – δηλαδή, να λαμβάνουν τις σωστές αποφάσεις – κάθε φορά. Τα μοντέλα machine-learning στα οποία βασίζονται τα συστήματα πρέπει επίσης να είναι διαφανή, να εξηγούνται και να είναι ικανά να επιτύχουν επαναλαμβανόμενα αποτελέσματα. Ονομάζουμε αυτόν τον συνδυασμό χαρακτηριστικών μια “ερμηνεία” του μοντέλου ΑΙ.
Είναι σημαντικό να σημειωθεί ότι μπορεί να υπάρξει αντιστάθμιση μεταξύ απόδοσης και ερμηνείας. Για παράδειγμα, ένα απλούστερο μοντέλο μπορεί να είναι πιο κατανοητό, αλλά δεν θα είναι σε θέση να επεξεργάζεται πολύπλοκα δεδομένα ή σχέσεις. Η απόκτηση αυτού του δικαιώματος αντιστάθμισης είναι κατά κύριο λόγο ο τομέας των προγραμματιστών και των αναλυτών. Αλλά οι ηγέτες των επιχειρήσεων θα πρέπει να έχουν μια βασική κατανόηση στο τι καθορίζει εάν ένα μοντέλο μπορεί να ερμηνευτεί, καθώς αυτός είναι ένας βασικός παράγοντας για τον προσδιορισμό της νομιμότητας ενός συστήματος AI στα μάτια των εργαζομένων και των πελατών της επιχείρησης.
Η ακεραιότητα των δεδομένων και η πιθανότητα ακούσιας μεροληψίας αποτελούν επίσης ανησυχίες κατά την ενσωμάτωση της ΑI. Σε έρευνα της Pulse CEO Pulse του 2017, το 76% των ερωτηθέντων δήλωσε ότι η δυνατότητα πρόληψης και έλλειψης διαφάνειας εμπόδισαν την υιοθέτηση της AI στην επιχείρησή τους. Το 73% δήλωσε το ίδιο σχετικά με την ανάγκη εξασφάλισης διακυβέρνησης και κανόνων για τον έλεγχο της ΑΙ. Σκεφτείτε το παράδειγμα του συστήματος αξιολόγησης αιτήσεων για στεγαστικά δάνεια με τεχνολογία AI.
Τι θα συμβεί εάν άρχιζαν να αρνούνται τις αιτήσεις από μια συγκεκριμένη δημογραφική ομάδα λόγω ανθρώπινων ή συστηματικών προκαταλήψεων στα δεδομένα; Ή εάν το πρόγραμμα AI ενός συστήματος ασφαλείας του αεροδρομίου ξεχώρισε ορισμένα άτομα για πρόσθετο έλεγχο ασφαλείας στο αεροδρόμιο με βάση τη φυλή ή την εθνότητα τους.
Οι ηγέτες των επιχειρήσεων που αντιμετωπίζουν την εξασφάλιση της “ερμηνείας”, της σταθερής απόδοσης και της ακεραιότητας των δεδομένων θα πρέπει να συνεργάζονται στενά με τους προγραμματιστές και τους αναλυτές του οργανισμού τους. Οι προγραμματιστές είναι υπεύθυνοι για την κατασκευή του μοντέλου μηχανικής μάθησης machine-learning, την επιλογή των αλγορίθμων που χρησιμοποιούνται για την εφαρμογή AI και την επαλήθευση ότι η AI έχει κατασκευαστεί σωστά και συνεχίζει να λειτουργεί όπως αναμένεται.
Οι αναλυτές είναι υπεύθυνοι για την επικύρωση του μοντέλου AI που δημιουργήθηκε από τους προγραμματιστές για να βεβαιωθούν ότι το μοντέλο καλύπτει τις ανάγκες των επιχειρήσεων. Τέλος, η διοίκηση είναι υπεύθυνη για την απόφαση να αναπτύξει το σύστημα και πρέπει να είναι έτοιμη να αναλάβει την ευθύνη για τις επιπτώσεις των επιχειρήσεων.
Για κάθε οργανισμό που θέλει να αποκομίσει το καλύτερο από τη χρήση AI, είναι σημαντικό για τους ανθρώπους να κατανοούν και να τηρούν με σαφήνεια αυτούς τους ρόλους και τις ευθύνες. Τελικά, ο στόχος είναι να σχεδιαστεί ένα μοντέλο μηχανικής μάθησης για μια συγκεκριμένη εφαρμογή AI, έτσι ώστε η εταιρεία να μπορεί να μεγιστοποιήσει τις επιδόσεις, ενώ αντιμετωπίζει διεξοδικά κάθε επιχειρησιακή ανησυχία.
Οι ηγέτες θα πρέπει επίσης να ακολουθήσουν το εξελισσόμενο ρυθμιστικό περιβάλλον της ΑΙ. Αυτές οι κανονιστικές απαιτήσεις δεν είναι σε μέγιστο σημείο τώρα, αλλά πιθανόν να προκύψουν περισσότερες με την πάροδο του χρόνου. Στην Ευρώπη, για παράδειγμα, ο Γενικός Κανονισμός Προστασίας Δεδομένων (GDPR) τέθηκε σε ισχύ στις 25 Μαΐου 2018 και απαιτεί από εταιρείες – συμπεριλαμβανομένων των αμερικανικών εταιρειών που δραστηριοποιούνται στην Ευρώπη – να λάβουν μέτρα για την προστασία της ιδιωτικής ζωής των πελατών και αλγορίθμους που επηρεάζουν τους καταναλωτές.
Τέλος, τα στελέχη πρέπει να έχουν κατά νου ότι κάθε εφαρμογή AI θα διαφέρει ως προς το βαθμό στον οποίο υπάρχει κίνδυνος για την ανθρώπινη ασφάλεια. Εάν ο κίνδυνος είναι μεγάλος και ο ρόλος του ανθρώπινου λάθους μειωθεί σημαντικά, τότε η ανάγκη για το μοντέλο AI να είναι αξιόπιστο, να εξηγείται εύκολα και να γίνεται σαφώς κατανοητό, είναι υψηλή. Άλλες εφαρμογές AI δεν θα θέσουν σε κίνδυνο την υγεία ή τη ζωή των ανθρώπων – για παράδειγμα, η AI που προβάλλει αιτήσεις υποθηκών ή που εκτελεί εκστρατεία μάρκετινγκ.
Ωστόσο, λόγω της πιθανότητας μεροληπτικών δεδομένων ή αποτελεσμάτων, απαιτείται ένα λογικό επίπεδο “ερμηνείας”. Τελικά, η εταιρεία πρέπει να είναι άνετη και να μπορεί να εξηγεί στους πελάτες τους λόγους για τους οποίους το σύστημα ενέκρινε μία εφαρμογή έναντι μίας άλλης ή στόχευσε σε μια συγκεκριμένη ομάδα καταναλωτών σε κάποια συγκεκριμένη εκστρατεία.
Το άνοιγμα του “μαύρου κουτιού” στο οποίο έχουν λειτουργήσει προηγουμένως ορισμένα σύνθετα μοντέλα AI θα απαιτήσει από τις εταιρείες να διασφαλίσουν ότι για οποιοδήποτε σύστημα AI το μοντέλο μηχανικής μάθησης ανταποκρίνεται στα πρότυπα που απαιτεί η επιχείρηση και ότι οι ηγέτες των επιχειρήσεων μπορούν να δικαιολογήσουν τα αποτελέσματα. Εκείνοι που θα βοηθήσουν να μειώσουν τους κινδύνους και να δημιουργήσουν την εμπιστοσύνη που απαιτείται για την AI, ώστε να γίνει ένα πραγματικά αποδεκτό μέσο ώθησης της καινοτομίας και επίτευξη επιχειρηματικών στόχων – πολλά από τα οποία δεν μπορούμε ακόμα να φανταστούμε.
ή αποκτήστε ετήσια συνδρομή εδώ.