14 Δεκ 2024
READING

Η περηφάνια της Google παρουσιάζοντας τα μοντέλα AI που διαβάζουν ανθρώπινα συναισθήματα

5 MIN READ

Η περηφάνια της Google παρουσιάζοντας τα μοντέλα AI που διαβάζουν ανθρώπινα συναισθήματα

Η περηφάνια της Google παρουσιάζοντας τα μοντέλα AI που διαβάζουν ανθρώπινα συναισθήματα

Τα μοντέλα AI, PaliGema 2 της Google, μπορούν λέει, να διακρίνουν στα ανθρώπινα πρόσωπα τα συναισθήματα τους! Ο γίγαντας της τεχνολογίας, θριαμβολογώντας, για άλλη μια πρόκληση που κατακτήθηκε, πριν λίγες μέρες,  ανακοίνωσε πως το καινούργιο αυτό μοντέλο, «πηγαίνοντας πέρα από την απλή αναγνώριση αντικειμένων, μπορεί να περιγράψει ενέργειες, συναισθήματα και το γενικότερο πλαίσιο της σκηνής». Κοίτα, φίλε! Οι ίδιοι οι άνθρωποι δεν μπορούμε να ανιχνεύσουμε και να ορίσουμε τα συναισθήματα των άλλων και κάποτε, να ορίσουμε τα ίδια τα δικά μας, αλλά τα καινούργια μποτ, το χουν τόσο εύκολο!

Η Google στην ιστοσελίδα σελίδα TechCrunch σημείωσε πως  η λειτουργία αναγνώρισης συναισθημάτων δεν είναι ενεργοποιημένη εξ αρχής στο PaliGema 2, αλλά το πρόγραμμα πρέπει να ρυθμιστεί λεπτομερώς για να το κάνει. Πόσα συναισθήματα νιώθει ένας άνθρωπος και άραγε είναι η ίδια η αίσθηση για όλους μας και με ποια ένταση και ποιες διάφορες ανεπαίσθητες ίσως και κάποτε πιο λεπτόρρευστες ή ντελικάτες; Ο ψυχολόγος Πολ Εκμαν θεωρούσε ότι όλοι οι άνθρωποι έχουν έξι κοινά θεμελιώδη συναισθήματα: Θυμό, έκπληξη, αηδία, απόλαυση, φόβο και θλίψη. Μεταγενέστεροι του, επιστήμονες έκαναν λόγο για 10 συναισθηματικές κατηγορίες διαφορετικών χροιών και πρόσφατα το Μπέρκλεϊ στην Καλιφόρνια, τις ανέβασε στις 27. Δέος και γαλήνη, φρίκη και θλίψη, θυμηδία ή λατρεία, ευτυχία και θυμός ή οργή, μα έκπληξη ή φόβος ή λαχτάρα και αηδία και νοσταλγία ή θαυμασμός! Τόσες αποχρώσεις, διαστάσεις, διάφορες, εντάσεις, αποκλίσεις, διακυμάνσεις μέσα στο καθένα από μας, που είναι διαφορετικός απ οποιοδήποτε άλλον! Και πως ένα PaliGema 2, σαν ευκολάκι, θα ονομάσει τι νιώθει ένα ενήλικας όταν βλέπει μια φωτογραφία της νεκρής του μητέρας να τον κρατάει απ το παιδικό χεράκι, μια ηλιόλουστη μέρα, που γελάει η άνοιξη και που αυτός μωρό, είναι με προσοχή φροντισμένος απ τη μαμά, που δεν θα υπάρξει ποτέ; Πως το λένε αυτό το συναίσθημα; Και το νιώθει και τ αδέλφι του ενήλικα έτσι σε αντίστοιχη στιγμή;

Η Σάντρα Γουότσερ, καθηγήτρια σε θέματα ηθικής των δεδομένων και της τεχνητής νοημοσύνης στο Internet Institute του πανεπιστημίου της Οξφόρδης έγραψε αμέσως πως είναι προβληματικό να υποθέτουμε ότι μπορούμε να ”διαβάσουμε” τα συναισθήματα των ανθρώπων και πως «είναι σαν να ζητάμε συμβουλές από μια κρυστάλλινη μπάλα». Οι εταιρείες τεχνολογία για ποικίλους λόγους, επιθυμούν να δημιουργήσουν μποτς που να ανιχνεύουν συναισθήματα. Το θέλουν για να εκπαιδεύονται καλοί πωλητές, να προλαμβάνονται ατυχήματα, να ορίζονται τα ψέματα σε μαρτυρίες, να γίνονται ερωτικά ταιριάσματα, για υπηρεσίες κατασκοπείας ή οι σκοπούς εταιρειών μάρκετινγκ και ποιος άλλος ξέρει για τι.

Κάνουμε τους άνετους, μα είναι άγνωστες ή δεν έχουν φανερωθεί ακόμα όλες οι πτυχές του τεχνοπολιτισμού μας, στον 21ου αιώνα. Ξαφνικά τίποτα δεν είναι εκτός πραγματικότητας και όλα φαντάζουν υπερβολικά οικεία, ίσως και εύκολα. Η όποια μετατόπιση χρήσης ή λειτουργίας των ψηφιακών εργαλείων αναδεικνύει μια νέας πραγματικότητας ικανή να μας  αναστατώσει ή να σηκώσουμε αδιάφορα τους ώμους! Το παρών είναι ανοιχτό και υποκειμενικό, όσο τα συναισθήματα μας, ή όχι και μόλις πάει αυτό και θα μπορεί να δέχεται λεζάντα από κάθε μποτ, τύπου «νιώθεις θλίψη» τόσο πολύ, που στο τέλος να την αισθανόμαστε, στα αλήθεια! «Η ανίχνευση συναισθημάτων δεν είναι δυνατή σε μεγάλη κλίμακα, επειδή τα ανθρώπινα όντα βιώνουν τα συναισθήματα με πολύπλοκους τρόπους», λέει, αυτό που και χωρίς ακαδημαϊκές γνώσεις, σκεφτήκαμε όλοι, ο Μάικ Κουκ, ερευνητής στο Πανεπιστήμιο Queen Mary, με ειδίκευση στην τεχνητή νοημοσύνη. Οι περισσότεροι επιστήμονες τάχθηκαν εύκολα και σύντομα με το ότι τα μποτ «ανιχνευτές συναισθημάτων» μοιάζουν αναξιόπιστα, με προκαταλήψεις όμοιες των δημιουργών τους. Μελέτη του MIT απ την Βοστώνη, ορίζει πως τα AI μοντέλα ανάλυσης προσώπου αναπτύσσουν προσκλήσεις σε αντιλήψεις και προτιμήσεις, όπως για παράδειγμα το χαμόγελο. Και αν η ανθρωπότητα, από το 1519, ψάχνει να ερμηνεύσει μαγεμένα τι να σημαίνει το ζωγραφιστό από τον Λεονάρντο Ντα Βίντσι, σε ξύλο λευκής, χαμόγελο της Τζιοκόντα, της Μόνα Λίζας, ή Λίζα  Γκεραρντίνι, τα PaliGema 2, το έχουνε λυμένο. Και αν εμείς χαρακτηρίζουμε ένα χαμόγελο, επικίνδυνο, δολοφονικό, δαιμονιακό, σαρκαστικό, βίαιο, βεβιασμένο, ερωτικό, θλιμμένο, παραπλανητικό, αφημένο, πικρό, ειρωνικό, συγκαταβατικό και πάλι, τα PaliGema 2 το θεωρούν καλό και σημάδι ευτυχίας και τέρμα! Πρόσφατη μελέτη του ΜΙΤ, πάλι, έδειξε πως τα μοντέλα ΑΙ συναισθηματικής ανάλυσης αποδίδουν περισσότερα αρνητικά συναισθήματα στα πρόσωπα των μαύρων από ό,τι στα πρόσωπα των λευκών! Γνωρίζοντας όλα αυτά, φυσικά η Google αναφέρει ότι διεξήγαγε «εκτεταμένες δοκιμές» για την αξιολόγηση των δημογραφικών προκαταλήψεων στο PaliGemma 2 και διαπίστωσε «χαμηλά επίπεδα τοξικότητας και βωμολοχίας» σε σύγκριση με τα πρότυπα της βιομηχανίας! Και; Με βάση πάλι ποιων κριτηρίων και με τι δείγμα δοκιμών. Ο Χέιντι Κχαλάαφ, επικεφαλής επιστήμονας τεχνητής νοημοσύνης στο AI Now Institute, το τελειώνει, λέγοντας πως «αν τα μοντέλα ανίχνευσης συναισθημάτων μπορούσαν να «διαβάσουν» με ακρίβεια τις εκφράσεις του προσώπου μας, αυτό και πάλι δεν θα ήταν αρκετό. Άσχετα με την τεχνητή νοημοσύνη, η επιστημονική έρευνα μας έχει δείξει ότι έχει δείξει ότι δεν μπορούμε να συμπεράνουμε συναισθήματα μόνο από τα χαρακτηριστικά του προσώπου».

Η Ευρωπαϊκή Νομοθεσία για την Τεχνητή Νοημοσύνη απαγορεύει στα σχολεία και τους εργοδότες να αναπτύσσουν ανιχνευτές συναισθημάτων, αλλά αυτός ο περιορισμός δεν ισχύει για τις αστυνομικές αρχές. Το PaliGema 2, είναι ανοικτά διαθέσιμο σε διάφορες πλατφόρμες στο διαδίκτυο και η κάθε κατάχρηση της λεγόμενης συναισθηματικής αναγνώρισης θα μπορεί να έχει επιπτώσεις σε διακρίσεις σε βάρος ολοκλήρων ομάδων πληθυσμού του πλανήτη. Ο Χέιντι Κχαλάαφ λέει αλλοίμονο αν η χρήση αυτής της τεχνολογίας αρχίσει και είναι βάσιμη απ την αστυνομία ή από τις υπηρεσίες μετανάστευσης! Η Σάντρα Γουότσερ που ήδη αναφέραμε, ψέγει την Google για το συγκεκριμένο μοντέλο, λέγοντας πως «υπεύθυνη καινοτομία σημαίνει ότι σκέφτεσαι τις συνέπειες από την πρώτη μέρα που μπαίνεις στο εργαστήριό σου και συνεχίζεις να το κάνεις καθ’ όλη τη διάρκεια του κύκλου ζωής ενός προϊόντος. Μπορώ να σκεφτώ μυριάδες πιθανά ζητήματα με μοντέλα όπως το PaliGemma 2, που μπορούν να οδηγήσουν σε ένα δυστοπικό μέλλον, όπου τα συναισθήματά σας θα καθορίζουν αν θα πάρετε μία δουλειά, αν θα σας δοθεί ένα δάνειο και αν θα γίνετε δεκτός στο πανεπιστήμιο».

Και να λοιπόν, που μιλάμε τόσο κανονικά για θέματα, πέρα από μας, από έναν κόσμο δυστοπικό τύπου Black Mirror.  Άλλωστε «The future is broken, the future is now», όπως έλεγε σε κάθε επεισόδιο η σειρά που μας σημάδεψε.

Συνδεθείτε παρακάτω
ή αποκτήστε ετήσια συνδρομή εδώ.