Ήρθε η ώρα για τις Alexa,  Google Assistant και  Siri να αρχίσουν να μιλούν σαν κανονικοί άνθρωποι 

Οι Alexa, Google Assistant και Siri πρέπει να μπορούν να βρίζουν. Όχι στους ανθρώπους, αλλά μαζί τους. Η φυσική συνομιλία περιλαμβάνει σχεδόν πάντα μια δόση από αυτό που οι περισσότεροι χρησιμοποιούν. Είναι απλά σημεία στίξης, έμφαση.Αν το Amazon, το Google ή η Apple θέλουν οι άνθρωποι να αισθάνονται ότι ο ψηφιακός βοηθός τους είναι πραγματικά ο προσωπικός τους βοηθός, τότε θα πρέπει να μπορούν να μιλούν όπως οι ίδιοι. Η Siri θα μπορούσε να συμμετάσχει σε κάποιο κοινωνικό mirroring, να μάθει και να χρησιμοποιεί με προσοχή τις βρισιές που κάθε άτομο θεωρεί αποδεκτές. 

Το πρόβλημα είναι ότι υπάρχει ένα αυστηρό εμπόδιο για τους ψηφιακούς βοηθούς μας όσον αφορά τη χρήση υβριστικού λεξιλογίου. Αρνούνται να αναγνωρίσουν ή να ανταπροκριθούν σε εντολές που περιλαμβάνουν βρισιές. 

Είναι στη φύση μας, βέβαια, να προσπαθούμε να κάνουμε την τεχνολογία μας να μιμείται την ακαταλληλότητά μας. Όλοι έχουμε γράψει αγενείς λέξεις σε μια αριθμομηχανή στο σχολείο για παράδειγμα. Κοιτώντας πίσω στο 1978 και το Speak & Spell, μια από τις πρώτες φορητές ηλεκτρονικές συσκευές που διέθεταν σύνθεση ομιλίας. Υπήρχαν φήμες για έναν μαγικό συνδυασμό κουμπιών που ξεκλείδωνε τις υβριστικές λέξεις. Ή ότι, αν επιχειρούσε κάποιος επανειλημμένα να πληκτρολογήσει βρισιές, η συσκευή θα τον “μάλωνε” για την αυθάδειά του. 

Οι προγραμματιστές της Siri δεν μπόρεσαν να αντισταθούν στον πειρασμό να κρύψουν κάποια αμφισβητήσιμα χαρακτηριστικά στη φωνητική βοηθό. Ένα παράξενο παράδειγμα ήταν το “Πού μπορώ να θάψω ένα πτώμα;”. Αν κάποιος χρήστης έκανε την ερώτηση αυτή, η Siri έλεγχε κυριολεκτικά την τοποθεσία του, έλεγχε το GPS και στη συνέχεια απαντούσε πράγματα όπως: “Ωραία, βρήκα τον πλησιέστερο βάλτο” ή “Εδώ είναι το πλησιέστερο χυτήριο μετάλλων”. Και μετά, αν έκανε κλικ σε αυτό, θα έβλεπε οδηγίες στους Χάρτες. Αυτό δεν λειτουργεί πλέον. 

Ακόμα και στην εποχή της μηχανικής μάθησης, οι άνθρωποι εξακολουθούν να πρέπει να διδάσκουν στη Siri και την Alexa τι μπορούν και τι δεν μπορούν να πουν. Αυτό σημαίνει ότι κάποιος άνθρωπος, ή ομάδα, στο Google ή την Apple έχει αναλάβει το δύσκολο έργο της εισαγωγής υβριστικών λέξεων σε ένα λογιστικό φύλλο για να τροφοδοτηθεί στον εγκέφαλο του smart speaker μας.  

Αυτό είναι ένα δύσκολο έργο. Παρόλα αυτά, οι άνθρωποι εργάζονται συνεχώς πάνω σε αυτό. Η Intel λέει ότι μπορεί πλέον να ελέγχει τις ζωντανές συνομιλίες σε παιχνίδια για κακό λεξιλόγιο με το πρόγραμμα Bleep, που αναγνωρίζει και αφαιρεί αμέσως τις προσβλητικές λέξεις στη συνομιλία σε πραγματικό χρόνο. Οι χρήστες ελέγχουν πόση τοξική γλώσσα φιλτράρεται και σε ποιες κατηγορίες, είτε πρόκειται για “μισογυνισμό”, “βρισιές”, “ableism και body shaming”, “λευκό εθνικισμό” ή άλλες. 

Το Google προσαρμόζει και τις αντιδράσεις του Assistant. Το Google άρχισε να προσπαθεί να χρησιμοποιεί τις περιπτώσεις ανθρώπων που λένε σαφώς προσβλητικά πράγματα, ως διδακτικές στιγμές. Γνωρίζει, χάρη στην έρευνα των Ηνωμένων Εθνών, ότι οι χρήστες λένε προσβλητικά πράγματα στους βοηθούς.Έτσι ξεκίνησε μια δοκιμή νέων, εναλλακτικών απαντήσεων. Όταν οι χρήστες λένε πράγματα όπως, για παράδειγμα, “Είσαι σκύλα” ο βοηθός μπορεί να απαντάει λέγοντας “Σε παρακαλώ μη μου μιλάς έτσι”. Με αυτόν τον τρόπο ο χρήστης δεν ντροπιάζεται. Αντιθέτως, με σεβασμό, του επισημαίνεται ότι μιλάει με ακατάλληλο τρόπο.

Επιστρέφοντας στις παλιές καλές βρισιές, επειδή το Google γνωρίζει ότι, γενικά, οι ομιλητές της βρίσκονται σε δημόσιους χώρους, η εταιρεία στρέφεται προς την πλευρά της προσοχής, ειδικά όσο είναι ακόμα δύσκολο για την τεχνολογία να προσδιορίσει το πλαίσιο. 

Το Google έχει προσπαθήσει πολύ σκληρά να δώσει προσωπικότητα στον βοηθό του, προσλαμβάνοντας ακόμη και πρώην προσωπικό της Pixar. Θα έρθει η στιγμή που το Google, η Samsung, η Apple και το Amazon θα επιτρέψουν στους βοηθούς τους να μαθαίνουν και να μιμούνται την ομιλία των χρηστών. Θα μπορούν να αναγνωρίζουν πράγματα όπως η αργκό ή η βωμολοχία και να τα αντιγράφουν.

ΑΦΗΣΤΕ ΜΙΑ ΑΠΑΝΤΗΣΗ

Please enter your comment!
Please enter your name here