Η βιβλιογραφία των τελευταίων ετών προσφέρει ένα συνεκτικό πρίσμα για να κατανοήσουμε πώς η λογοκρισία μετεξελίσσεται στο διαδίκτυο. Πανεπιστήμια, δεξαμενές σκέψης και οργανώσεις δικαιωμάτων χαρτογραφούν τα εργαλεία, τα κίνητρα και τα όρια της καταστολής του λόγου στο ψηφιακό περιβάλλον, φωτίζοντας τόσο τις κρατικές πρακτικές όσο και τον ρόλο των ιδιωτικών πλατφορμών.
Ψηφιακός αυταρχισμός
Στην πολιτική επιστήμη έχει κυριαρχήσει ο όρος «ψηφιακός αυταρχισμός» για να περιγράψει την αξιοποίηση των τεχνολογιών πληροφορικής από ανελεύθερα καθεστώτα με σκοπό την εδραίωση του ελέγχου τους. Ο όρος κέρδισε δημοφιλία μετά από προειδοποιήσεις, όπως την έκθεση Freedom House 2018 («The Rise of Digital Authoritarianism»), ότι ολοκληρωτικά μοντέλα από χώρες σαν την Κίνα και τη Ρωσία εξάγονται και μιμούνται αλλού. Το μοντέλο αυτό συνδυάζει μαζική παρακολούθηση, αλγοριθμική λογοκρισία, χειραγώγηση μεθόδων ΑΙ και βιομετρική επιτήρηση (π.χ. αναγνώριση προσώπου) για την καταστολή της διαφωνίας.
Ερευνητικές ομάδες του Stanford και του Brookings έχουν τεκμηριώσει πώς αυταρχικά καθεστώτα προωθούν τεχνολογίες φιλτραρίσματος, πρότυπα «ψηφιακού κοινωνικού ελέγχου» και ρυθμιστικά σχήματα που νομιμοποιούν τη λογοκρισία πέρα από τα σύνορά τους. Ο «ψηφιακός αυταρχισμός» δεν είναι απλώς σύνολο εργαλείων· είναι εξαγώγιμο πολιτικό προϊόν με σαφείς συνέπειες στα ανθρώπινα δικαιώματα στο διαδίκτυο.
Επιχειρηματολογία υπέρ/κατά της ιδιωτικής ρύθμισης
Μεγάλο μέρος της συζήτησης εστιάζει στο αν οι αποφάσεις των πλατφορμών να αφαιρούν ή να υποβαθμίζουν περιεχόμενο συνιστούν ουσιαστικά λογοκρισία. Νομικοί και επικοινωνιολόγοι όπως ο Pavel Slutskiy (2020) υποστηρίζουν πως η ιδιωτική λογοκρισία δεν είναι πραγματική λογοκρισία αλλά άσκηση δικαιώματος ιδιοκτησίας, υπογραμμίζοντας τη διάκριση ανάμεσα στο δημόσιο και ιδιωτικό πεδίο -εταιρείες καθορίζουν τι φιλοξενούν στους διακομιστές τους και αυτό διαφέρει ριζικά από κρατική απαγόρευση.
Στον αντίποδα, μελέτες στον χώρο της πολιτικής επικοινωνίας τονίζουν ότι ο συγκεντρωμένος έλεγχος των κοινωνικών δικτύων μπορεί να αλλοιώσει την πολιτική συμμετοχή. Εργασία του 2024 που ανέλυσε 360 περιστατικά λογοκρισίας σε μέσα κοινωνικής δικτύωσεις σε 76 χώρες συμπεραίνει ότι ακόμη και οι δημοκρατίες δεν είναι απρόσβλητες -όταν θεωρούν ότι διακυβεύονται θέματα «ασφάλειας» ή «προστασίας πολιτών», μπορεί να επιβάλουν λογοκρισία με πολιτικά κίνητρα.
Συχνά επικαλούνται την εθνική ασφάλεια ή την καταπολέμηση μίσους, αλλά πίσω από αυτά τα προσχήματα μπορεί να κρύβεται πρόθεση φίμωσης αντιπολιτευτικών φωνών. Η έρευνα αυτή ενισχύει την άποψη ότι απαιτούνται σαφέστερα πλαίσια και έλεγχοι στην ιδιωτική ρύθμιση περιεχομένου, ώστε να μην γίνεται εργαλείο κατάχρησης ακόμη και σε δημοκρατικά καθεστώτα.
Τεχνητή νοημοσύνη και λογοκρισία
Πρόσφατες αναλύσεις επισημαίνουν ότι η πρόοδος στην ΑΙ λειτουργεί ως πολλαπλασιαστής της ψηφιακής καταστολής. Οι αλγόριθμοι «μηχανικής μάθησης» καθιστούν τη λογοκρισία, την παρακολούθηση και τη διασπορά προπαγάνδας πιο εύκολες, γρήγορες, φθηνές και αποτελεσματικές για αυταρχικές κυβερνήσεις. Εφαρμογές συνομιλίας (chatbot) στην Κίνα, για παράδειγμα, έχουν ενσωματωμένα φίλτρα -αρνούνται να απαντήσουν σε «ευαίσθητες» ερωτήσεις (π.χ. για την Τιενανμέν, Φάλουν Γκονγκ) και αναμασούν την κομματική γραμμή σε θέματα όπως η Ταϊβάν. Η Cyberspace Administration of China έχει θεσπίσει κανόνες που απαιτούν κάθε νέα γενετική AI εφαρμογή να προάγει τις σοσιαλιστικές αξίες και να αποκλείει ανεπιθύμητο περιεχόμενο πριν καν κυκλοφορήσει.

Αντίστοιχα, και οι δημοκρατικές κοινωνίες προβληματίζονται. Η ΕΕ επεξεργάζεται την Πράξη για την Τεχνητή Νοημοσύνη που, μεταξύ άλλων, βάζει φρένο σε εξαιρετικά επεμβατικές τεχνολογίες -κοινωνική βαθμολόγηση τύπου Κίνας, προληπτική αστυνόμευση, κτλ. Οι ακαδημαϊκοί καλούν σε παγκόσμιους κανόνες που θα αποτρέψουν τη χρήση του AI ως εργαλείου φίμωσης, αλλά προειδοποιούν ότι χωρίς διαφάνεια και δημοκρατικό έλεγχο, οι κυβερνήσεις μπορούν να χειραγωγήσουν τους αλγόριθμους για να «εξαφανίζουν» λόγο και αλήθειες.

