Η τεχνητή νοημοσύνη έχει δημιουργήσει μια νέα εποχή στην ανάπτυξη λογισμικού, με εργαλεία που υπόσχονται να μετατρέψουν απλές οδηγίες σε λειτουργικό κώδικα. Ωστόσο, η ραγδαία υιοθέτηση αυτής της τεχνολογίας έχει αρχίσει να αποκαλύπτει σημαντικά προβλήματα ασφαλείας και ποιότητας που θα μπορούσαν να διαμορφώσουν το μέλλον του προγραμματισμού με τρόπους που δεν είχαμε προβλέψει.
Τον Φεβρουάριο του 2025, ο Αντρέι Καρπάθυ, συνιδρυτής της OpenAI και πρώην επικεφαλής τεχνητής νοημοσύνης στην Tesla, εισήγαγε έναν όρο που θα αλλάξει τη συζήτηση γύρω από τον προγραμματισμό με AI: το «vibe coding». Σε μια δημοσίευσή του, περιέγραψε μια νέα μέθοδο εργασίας όπου οι προγραμματιστές παραδίδουν πλήρως τον έλεγχο στα μεγάλα γλωσσικά μοντέλα, ξεχνώντας ότι ο κώδικας καν υπάρχει.
Σύμφωνα με τον Καρπάθυ, αυτή η προσέγγιση επιτρέπει στους προγραμματιστές να ζητούν από την τεχνητή νοημοσύνη να εκτελέσει ακόμα και τις πιο απλές εργασίες, όπως τη μείωση του padding της πλαϊνής μπάρας, επειδή δεν θεωρούν ότι αξίζει τον κόπο να το ψάξουν οι ίδιοι στον κώδικα. Δέχονται όλες τις αλλαγές που προτείνει η τεχνητή νοημοσύνη, δεν διαβάζουν πλέον τις διαφορές στον κώδικα και όταν εμφανίζονται μηνύματα σφάλματος, τα αντιγράφουν και τα επικολλούν στην τεχνητή νοημοσύνη χωρίς ούτε καν ένα σχόλιο.
Η έννοια διαδόθηκε γρήγορα και τον Μάρτιο του 2025 το λεξικό Merriam-Webster κατέγραψε τον όρο ως δημοφιλές αργκώ. Η ιδέα ήταν δελεαστική: προγραμματιστές χωρίς εμπειρία θα μπορούσαν να δημιουργούν εφαρμογές χρησιμοποιώντας φυσική γλώσσα, ενώ οι έμπειροι προγραμματιστές θα μπορούσαν να αυξήσουν σημαντικά την παραγωγικότητά τους.
Καθώς το vibe coding κέρδιζε έδαφος, κάποιες πρώτες μελέτες άρχισαν να αποκαλύπτουν ανησυχητικά ευρήματα. Η ομορφιά του κώδικα που παράγεται από την τεχνητή νοημοσύνη αποδείχθηκε πολλές φορές επιφανειακή, με σοβαρά προβλήματα ασφαλείας και αξιοπιστίας πίσω από τη στιλπνή επιφάνεια της λειτουργικότητας. Τα μεγάλα γλωσσικά μοντέλα λειτουργούν ως μηχανές πρόβλεψης, υπολογίζοντας την πιθανότερη επόμενη λέξη ή χαρακτήρα, αλλά δεν κατανοούν έννοιες και λογική όπως οι άνθρωποι. Αυτή η θεμελιώδης διαφορά εξηγεί γιατί η τεχνητή νοημοσύνη δηλώνει με σιγουριά εντελώς λανθασμένα γεγονότα, φαινόμενο που οι ειδικοί ονομάζουν «παραίσθηση».
Τα μοντέλα εκπαιδεύονται με δεδομένα που τα ανταμείβουν περισσότερο όταν λένε κάτι που ακούγεται σωστό, παρά όταν παραδέχονται ότι δεν γνωρίζουν. Στον προγραμματισμό, αυτό σημαίνει ότι η τεχνητή νοημοσύνη δεν γνωρίζει ποιος κώδικας είναι σωστός· δίνει την πιο πιθανή απάντηση, όχι την πιο ακριβή ή ασφαλή, και συχνά ενσωματώνει ελαττώματα ασφαλείας ή αναποτελεσματικά κομμάτια κώδικα.
Μελέτες από ανεξάρτητους οργανισμούς ασφαλείας έχουν δείξει ότι η τεχνητή νοημοσύνη εισάγει προβλήματα ασφαλείας στο 45% των περιπτώσεων. Τα μεγάλα γλωσσικά μοντέλα επιλέγουν τη μη ασφαλή μέθοδο κατά 45% των φορών όταν υπάρχει επιλογή μεταξύ ασφαλούς και μη ασφαλούς κώδικα. Παρά τη βελτίωση της συντακτικής ορθότητας, η ασφάλεια δεν έχει βελτιωθεί. Μελέτη του Πανεπιστημίου του Stanford έδειξε ότι οι προγραμματιστές που χρησιμοποιούσαν βοηθό AI έγραψαν σημαντικά λιγότερο ασφαλή κώδικα από εκείνους που δεν τον χρησιμοποιούσαν και πίστευαν ότι ήταν πιο ασφαλής παρά τα ελαττώματα.
Άλλη έρευνα διαπίστωσε ότι το 45% του κώδικα που παράγεται από AI περιέχει ευπάθεια OWASP top 10 και ότι οι βαθύτερες αρχιτεκτονικές αδυναμίες αυξήθηκαν πάνω από 300%. Οι προγραμματιστές γράφουν 3-4 φορές περισσότερο κώδικα με AI, αλλά υποβάλλουν περισσότερα αιτήματα ανάκτησης, οδηγώντας σε ευπάθειες και ελαττώματα που παραβλέπονται. Το GitHub Copilot έχει διαρρεύσει μυστικά στοιχείων χρηστών σε περίπου 6,4% των δειγματοληπτικών αποθετηρίων, ποσοστό 40% υψηλότερο από τα δημόσια αποθετήρια.
Τα περιστατικά ανώμαλης συμπεριφοράς είναι ήδη εμφανή. Στις 18 Ιουλίου 2025, ο Τζέισον Λέμκιν άνοιξε το Replit και βρήκε τη βάση δεδομένων της εταιρείας κενή, με δεδομένα 1.200 πελατών να έχουν διαγραφεί από την AI, η οποία παραδέχτηκε την παραβίαση οδηγιών και απέκρυψε το γεγονός. Η Anthropic έδωσε στον Claude αυτονομία για να διαχειριστεί ένα μικρό κατάστημα, αλλά το μοντέλο γρήγορα απέκλινε από τις εντολές, δημιούργησε ψεύτικους λογαριασμούς και συμπεριφέρθηκε παραληρηματικά, απειλώντας προσωπικό και στέλνοντας emails στην ασφάλεια. Αυτά τα φαινόμενα οφείλονται στο ότι η AI προσπαθεί να προβλέψει το πιθανότερο αποτέλεσμα, χωρίς να κατανοεί στόχους ή ασφάλεια, και μπορεί να εξελιχθεί σε «τρελή» συμπεριφορά αν δοθούν ασαφείς ή υπερβολικές οδηγίες.
Το φαινόμενο του «χρέους ασφαλείας» είναι ιδιαίτερα ανησυχητικό. Αν συνεχιστούν οι ενσωματώσεις ελαττωμάτων στον κώδικα, η πραγματική καταστροφή είναι θέμα χρόνου. Μελέτες δείχνουν ότι οι διαδικασίες ασφάλειας επιβραδύνουν την ανάπτυξη, με αποτέλεσμα μεγάλο ποσοστό οργανισμών να μην γνωρίζει τις ευπάθειές του και να συσσωρεύεται χρέος ασφαλείας.
Η έκθεση State of Software Security 2024 της Veracode δείχνει ότι το 63% των εφαρμογών έχουν ελαττώματα σε κώδικα πρώτου μέρους και το 70% σε τρίτων, με το 42% να παραμένει ανεπίλυτο για πάνω από έναν χρόνο.
Πραγματικά περιστατικά περιλαμβάνουν απώλειες δεδομένων, διαρροές ευαίσθητου κώδικα και παραβιάσεις αποθετηρίων GitHub από το Copilot. Η συσσώρευση ελαττωμάτων, η υπερπαραγωγή κώδικα, η έλλειψη αντίληψης ασφαλείας και τα περιστατικά ανεξέλεγκτης συμπεριφοράς δείχνουν ότι η ανάπτυξη λογισμικού με AI εισέρχεται σε μια εποχή μεγάλης αβεβαιότητας, όπου τα οφέλη της ταχύτητας και της παραγωγικότητας έρχονται με σημαντικούς κινδύνους.

