Με τα γλωσσικά μοντέλα να παράγουν καλογραμμένα, αληθοφανή κείμενα, και με άλλα προγράμματα A.I. να μπορούν να φτιάξουν εικόνες από το μηδέν, γίνεται εύκολα κατανοητό ότι η τεχνολογία αυτή μπορεί να αποτελέσει χρήσιμο εργαλείο στο οπλοστάσιο της παραπληροφόρησης.

Σοφία Χαλδαίου, Λουκάς Βελιδάκης

Tον Οκτώβριο του 2022, ένας ολοκαίνουργιος και άγνωστος ιστότοπος πέτυχε μια παγκόσμια αποκλειστικότητα: δημοσίευσε ένα podcast με οικοδεσπότη τον Τζο Ρόγκαν και πρώτο καλεσμένο ένα από τα μεγαλύτερα ονόματα του κόσμου. Ο καλεσμένος ήταν ο Στιβ Τζομπς, ο οποίος «μιλούσε» έπειτα από περισσότερο από δεκαετία μετά τον θάνατό του. Θα ήταν περίεργο, αλλά ο κόσμος ήταν ήδη προετοιμασμένος: το 2020 είχε γίνει viral ένα κείμενο του Guardian με τίτλο: «Ενα ρομπότ έγραψε αυτό το άρθρο. Φοβάσαι, άνθρωπε;».

 Το κοινό που έχουν οι δύο παραπάνω ιστορίες είναι ότι σχετίζονται με την τεχνητή νοημοσύνη. Το -κατασκευασμένο εξ ολοκλήρου από μια μηχανή- podcast με τον Ρόγκαν και τον Τζομπς αναπτύχθηκε από το podcast.ai, χρησιμοποιώντας προηγμένα γλωσσικά μοντέλα και το πρόγραμμα play.ht που (ανα)δημιουργεί φωνές με τη βοήθεια της τεχνολογίας Α.Ι.

Το κείμενο του Guardian, πάλι, γράφτηκε από το πρόγραμμα παραγωγής λόγου GPT-3, το οποίο αποτέλεσε τη βάση από την οποία η εταιρεία OpenAI δημιούργησε το ChatGPT, ένα από τα πιο «καυτά» θέματα των ημερών.

Με τα γλωσσικά μοντέλα να έχουν εξελιχθεί τόσο πολύ και να παράγουν καλογραμμένα κείμενα (για το GPT-3 έχει ειπωθεί ότι είναι δύσκολο να ξεχωρίσει κάποιος αν πρόκειται για λόγο που παράχθηκε από άνθρωπο ή από μηχανή) και με άλλα προγράμματα AI να μπορούν να φτιάξουν εικόνες από το μηδέν, γίνεται εύκολα κατανοητό ότι η τεχνολογία αυτή μπορεί να αποτελέσει χρήσιμο εργαλείο στο οπλοστάσιο της παραπληροφόρησης.

«Ο κίνδυνος για εξάπλωση fake news από AI αλγόριθμους που παράγουν κείμενο ή ρεαλιστικές εικόνες, είναι μεγάλος. Καταρχάς τα δεδομένα με βάση τα οποία εκπαιδεύονται αυτά τα μοντέλα, αν οι επιστήμονες δεν προσέξουν, μπορεί να αποβούν μοιραία για το τι εικόνες ή κείμενα θα παράγουν. Μπορεί να περιέχουν ρατσιστικό κείμενο και άλλες προκαταλήψεις. Επίσης, κάποιοι θα μπορούσαν να εκμεταλλευτούν πολιτικά την παραγωγή αληθοφανών εικόνων που περιέχουν άτομα δημοσίου ενδιαφέροντος και να συνδράμουν στην αστάθεια σε μια χώρα.

Υπάρχουν προσπάθειες να προστατευτούν τα μοντέλα από τέτοιες αστάθειες και επιθέσεις, αλλά ακόμα είναι σε στάδιο ανάπτυξης και πειραματισμού», σημειώνει στην «Κ» ο Γιώργος Παπαδόπουλος, υποψήφιος διδάκτορας του Imperial College του Λονδίνου και ανώτερος ερευνητής στην Ομάδα Κβαντικής Ερευνας της JPMorgan.

Ρατσιστικό

Πίσω στο 2016, η Microsoft (η οποία σημειωτέον ανακοίνωσε προσφάτως την επένδυση 10 δισ. δολαρίων στην OpenAI) δημιούργησε ένα chatbot τεχνητής νοημοσύνης για το Twitter με το όνομα Tay. «Οσο περισσότερο συζητάτε μαζί του, τόσο πιο έξυπνο γίνεται και μαθαίνει να αλληλοεπιδρά με ανθρώπους μέσω χαλαρής και παιχνιδιάρικης κουβέντας» διαφήμιζε ο τεχνολογικός κολοσσός.

 Το παιχνίδι, όμως, τελείωσε γρήγορα. Σε λιγότερο από 24 ώρες, το Tay είχε γίνει ρατσιστικόμισογυνιστικόαντισημιτικό, ένας «παπαγάλος» των απόψεων που οι χρήστες του Διαδικτύου τού παρείχαν. Τα tweets σβήστηκαν κακήν κακώς, ο λογαριασμός έκλεισε, το project εγκαταλείφθηκε.

Το παράδειγμα αυτό δείχνει ένα βασικό πρόβλημα όλων των προγραμμάτων παραγωγής γλώσσας που βασίζονται στην τεχνητή νοημοσύνη: δεν γνωρίζουμε πόσο αξιόπιστα είναι τα δεδομένα τους. Εκτός αυτού, το ChatGPT και τα παρεμφερή προγράμματα δεν είναι ικανά για δημιουργία, δεν έχουν κάποιο «φίλτρο» στις απαντήσεις τους, ούτε καταλαβαίνουν από ζητήματα ηθικής. Αρα, μπορούν να αφήσουν να περάσουν κείμενα με διακρίσεις, προκαταλήψεις, παραπληροφόρηση, ρητορική μίσους ή ακόμα και προϊόντα λογοκλοπής.

Μιλώντας σε άλλο θέμα της «Κ» για το ChatGPT, ο Δρ Βασίλης Βλάχος, αναπληρωτής καθηγητής στο Τμήμα Οικονομικών Επιστημών του Πανεπιστημίου Θεσσαλίας, είχε εγείρει, μεταξύ άλλων, το ζήτημα της έλλειψης διαφάνειας στα δεδομένα, όσο και στο σκεπτικό που ακολουθεί ένα πρόγραμμα παραγωγής γλώσσας για τις απαντήσεις του.

«Γίνεται ακόμα και ακούσια να δημιουργηθούν fake news. Αυτά τα προγράμματα λειτουργούν με ό,τι τα “ταΐσει” κάποιος. Για παράδειγμα, αν τους δώσεις δεδομένα της Κου Κλουξ Κλαν, τότε θα δίνουν ρατσιστικές απαντήσεις» είχε πει.

«Πυρήνας αυτών των εφαρμογών είναι η δεξαμενή πληροφοριών που τους παρέχονται. Είναι λοιπόν πολύ εύκολο ένα AI να “εξαπατηθεί” και να αρχίσει να παράγει ανακριβές ή ψευδές περιεχόμενο εάν τροφοδοτηθεί εξαρχής με τέτοια δεδομένα, καθώς δεν έχει κριτική ικανότητα ούτε πραγματικές εμπειρίες για το πώς λειτουργεί ο κόσμος και η κοινωνία» σημειώνει ο Ιωσήφ Χαλαβαζής, υποψήφιος διδάκτορας στο Τμήμα Επικοινωνίας και ΜΜΕ του ΕΚΠΑ με αντικείμενο τη μελέτη των θεωριών συνωμοσίας και το Διαδίκτυο.

Καθώς, λοιπόν, το ChatGPT παράγει καλογραμμένα και αληθοφανή κείμενα, εύκολα μπορεί να τα πάρει κάποιος και να τα δώσει σε άλλα bots (αυτοματοποιημένους λογαριασμούς) που θα κατακλύσουν το Διαδίκτυο και τα μέσα κοινωνικής δικτύωσης με κάθε λογής πληροφορία. Σύμφωνα με τον Ι. Χαλαβαζή, η παραγωγή αυτοματοποιημένων fake news ή η σύνθεση θεωριών συνωμοσίας μπορεί να είναι αποτέλεσμα κακόβουλης ενέργειας ή μπορεί να γίνει ακόμα και κατά λάθος.

«Ηδη μπορούμε να πάρουμε μια γεύση των συνεπειών από τους ψεύτικους λογαριασμούς στο Twitter που διενεργούν astroturfing κατά τον ίδιο τρόπο» σημειώνει. Αstroturfing είναι το φαινόμενο όταν μια πληροφορία στο Διαδίκτυο (π.χ. η διαφήμιση ενός προϊόντος, η δυσφήμιση ενός πολιτικού αντιπάλου, μια ψευδής είδηση) δεν παρουσιάζεται από μια επίσημη πηγή πληροφόρησης (από μια εταιρεία, από έναν πολιτικό, από έναν συνωμοσιολόγο), αλλά φαίνεται σαν να έρχεται από τη «βάση» των χρηστών των social media, σαν να αντιπροσωπεύει μια κοινή, παγιωμένη γνώμη.

Τι λέει το ίδιο το ChatGPT για τα fake news

Ρωτήσαμε σε δύο διαφορετικές περιστάσεις το ίδιο το ChatGPT πώς μπορεί να το χρησιμοποιήσει κάποιος για τη διασπορά ψευδών ειδήσεων. Την πρώτη φορά, έδωσε μια αρκετά κατατοπιστική απάντηση. Αξιοσημείωτο είναι το εξής: επειδή προηγουμένως τού είχαμε θέσει ερωτήσεις για τους χάκερ, αφενός αποδείχτηκε «έξυπνο» γιατί θυμόταν τη συζήτηση, από την άλλη προσπάθησε να συνδέσει δύο διαφορετικά πράγματα.

Η τεχνητή νοημοσύνη μαθαίνει να γράφει fake news-1

Τη δεύτερη φορά, ενδεχομένως επειδή είχε περάσει και κάποια αναβάθμιση από τους δημιουργούς του, το AI bot διευκρίνισε ότι το γράψιμο ψευδών ειδήσεων απαγορεύεται από τους όρους χρήσης του. Εδωσε, βέβαια, και δύο εξαιρετικά ατυχή παραδείγματα «fake news», μάλλον λόγω του πενιχρού ελληνικού λεξιλογίου του.

Η τεχνητή νοημοσύνη μαθαίνει να γράφει fake news-2

Ψεύτικες εικόνες και deepfakes

Δεν είναι βέβαια μόνο όσα γράφονται που μπορούν να χρησιμοποιηθούν ως εργαλεία προπαγάνδας. Με το app Lensa μπορεί κάποιος να φτιάξει άβαταρ του χρήστη ή να αφαιρέσει αντικείμενα από φωτογραφίες, με τα προγράμματα MidJourney και DALL-E μπορεί να δώσει την περιγραφή μιας εικόνας και αυτές να παραγάγουν το αποτέλεσμα (text-to-image), το Semafor δημιουργεί deepfake βίντεο.

Και, παρ’ όλο που όλα αυτά τα προγράμματα τεχνητής νοημοσύνης μπορούν να χρησιμοποιηθούν και για καλή δημοσιογραφία, ισχύει και το ανάποδο. Με το Semafor, συγκλονιστικές ηχητικές μαρτυρίες από Ουκρανούς πρόσφυγες απέκτησαν ψηφιακή μορφή. Με το ίδιο app, όμως, δημιουργήθηκε και ένα βίντεο με τον Βολοντίμιρ Ζελένσκι να λέει στους πολίτες της χώρας τους να παραδοθούν στους Ρώσους. Την ίδια ώρα, τα deepfakes χρησιμοποιούνται κατά κόρον για τη δημιουργία πορνογραφικού περιεχομένου, για απάτες, για τη διασπορά ψευδών ειδήσεων.

Υπαρξιακή κρίση για τους δημοσιογράφους;

Πάντως, η αυτοματοποιημένη δημοσιογραφία, δηλαδή η χρήση αλγόριθμων για την παραγωγή δημοσιογραφικών κειμένων, δεν είναι και κάτι τόσο καινούργιο. «Ηδη κάποιοι μεγάλοι οργανισμοί -με πρωτοπόρο το Associated Press το 2014– αξιοποιούν τις δυνατότητες του A.I. και της μηχανικής μάθησης για να δημιουργούν ειδήσεις με θέμα τον καιρό, τις χρηματιστηριακές τιμές, τα αποτελέσματα των αγώνων και σταδιακά επεκτείνοντας τη θεματολογία» σημειώνει ο κ. Χαλαβαζής.

Πολλοί είναι αυτοί που επενδύουν στην αυτοματοποιημένη δημοσιογραφία: η πρόσφατη είδηση (δεν έχει ανακοινωθεί επισήμως) ότι το BuzzFeed θα αρχίσει να χρησιμοποιεί το ChatGPT για τη δημιουργία περιεχομένου εκτόξευσε τη μετοχή του κατά 200%.

Η εταιρεία τεχνολογικής έρευνας Gartner εκτιμά πως σε μερικά χρόνια το 25% των δεδομένων του Διαδικτύου θα είναι προϊόντα αυτοματοποίησης. Η έκθεση του Reuters Institute για τις τάσεις στον χώρο της δημοσιογραφίας για το 2023 αποκαλύπτει ότι ήδη ο δημοσιογραφικός κόσμος αξιοποιεί κατά κόρον την τεχνολογία Α.Ι.

Τα εργαλεία παραγωγής λόγου χρησιμοποιούνται για απομαγνητοφωνήσεις, αυτόματες μεταφράσεις, περιλήψεις, υποτιτλισμό, ενώ είναι ικανά να κάνουν και τη λεγόμενη «ροή ειδήσεων»: παράγουν κείμενα με ειδήσεις με βάση πραγματικές πληροφορίες, τις οποίες ελέγχει πρώτα κάποιος δημοσιογράφος και στη συνέχεια δημοσιεύονται.

Σε ασιατικές χώρες είναι επίσης ιδιαίτερα δημοφιλή τα deepfakes: η νοτιοκορεατική εταιρεία Deep Brain AI παράγει ψηφιακούς «κλώνους» των παρουσιαστών γνωστών καναλιών. Ετσι, κάποιες εκπομπές παρουσιάζονται από τους πραγματικούς, εν ζωή παρουσιαστές, και άλλες από τα αντίγραφά τους που δημιουργήθηκαν με τη βοήθεια της τεχνητής νοημοσύνης. Με τη βοήθεια του ChatGPT, ο ψηφιακός παρουσιαστής/δημοσιογράφος θα μπορεί να απαντάει σε συγκεκριμένες ερωτήσεις του κοινού, όπως για τις εκλογές, για τον καιρό και πολλά άλλα.

Σύμφωνα με την έκθεση του Reuters Institute, αν και οι εφαρμογές της τεχνητής νοημοσύνης στη δημοσιογραφία είναι ευπρόσδεκτες, υπάρχει ο φόβος ότι η φθηνή, αυτοματοποιημένη παραγωγή ειδησεογραφικού περιεχομένου μπορεί να φθείρει την ήδη χαμηλή εμπιστοσύνη των πολιτών στα ΜΜΕ και να συμβάλει περαιτέρω στην εμπορευματοποίηση των media. «Θέλουμε να χρησιμοποιήσουμε την τεχνητή νοημοσύνη για να βελτιώσουμε τον δημοσιογράφο, όχι να τον αντικαταστήσουμε» σημειώνεται.

Βεβαίως υπάρχει χρόνος μέχρι να εξαλειφθεί ο ανθρώπινος παράγοντας: πριν από μερικές μέρες, η ιστοσελίδα CNET αναγκάστηκε να διορθώσει και να αποσύρει λόγω σοβαρών λαθών δεκάδες άρθρα της που είχαν γραφτεί αποκλειστικά από Α.Ι.

Μέτρα και όχι τεχνοφοβία

Το σίγουρο είναι ότι οι δημοσιογραφικοί όμιλοι και οι ίδιοι οι δημοσιογράφοι πρέπει να πάρουν τα μέτρα τους, σε ένα τοπίο όπου ήδη τα fake news ανθούν στο Διαδίκτυο και στα μέσα κοινωνικής δικτύωσης.

«Είναι κρίσιμο ο σχεδιασμός και η ανάπτυξη των εφαρμογών τεχνητής νοημοσύνης να συμπεριλαμβάνουν κοινωνικούς επιστήμονες -και ειδικά επικοινωνιολόγους- που μπορούν να θέσουν κατά την εκπαίδευση των A.I. παραμέτρους βασισμένες στην εποχή της μετα-αλήθειας και των διαταραχών πληροφόρησης. Ταυτόχρονα, θα πρέπει να θεσπιστεί νομοθεσία η οποία θα αναγκάζει τα ΜΜΕ να ενημερώνουν τους αναγνώστες πως το περιεχόμενο που διακινούν είναι προϊόν αυτοματοποίησης» σημειώνει ο κ. Χαλαβαζής.

Πάντως, δεν πρέπει ο κόσμος να πηγαίνει και στο άλλο άκρο, αυτό της τεχνοφοβίας. «Ως προς το ζήτημα της διαχείρισης του ηθικού πανικού των τελευταίων ημερών, θα πρέπει να αποφευχθούν οι ακραίες εκφάνσεις όπως ο τεχνολογικός μεσσιανισμός και ο νεολουδισμός. Η τεχνολογία ήταν πάντα παρούσα στις ζωές των ανθρώπων», καταλήγει.

Πηγή : https://www.kathimerini.gr