Σε αυτό το σημείο, όλοι γνωρίζουν ότι τα εργαλεία γενετικής τεχνητής νοημοσύνης έχουν και μια σκοτεινή πλευρά. Δεν μιλάω καν για λογοκλοπή και άλλες μορφές κλοπής περιεχομένου, ή ακόμα και για τις τεράστιες ποσότητες ενέργειας και νερού που απαιτούνται για τη λειτουργία των κέντρων δεδομένων.
Αντίθετα, αναφέρομαι στη χρήση τεχνητής νοημοσύνης για τη δημιουργία επικίνδυνων κακόβουλων προγραμμάτων και συστημάτων ηλεκτρονικού "ψαρέματος" (phishing), καθιστώντας ευκολότερο από ποτέ για τους εγκληματίες να δημιουργούν ολόκληρες απάτες από λίγες μόνο εντολές.
Η «απάτη με την τεχνητή νοημοσύνη», όπως είναι γνωστή, γίνεται γρήγορα το μεγαλύτερο πρόβλημα που δημιουργεί η τεχνητή νοημοσύνη - αλλά υπάρχουν μερικοί τρόποι με τους οποίους μπορείτε να παραμείνετε ασφαλείς.
Γρήγοροι σύνδεσμοι
Η χρήση τεχνητής νοημοσύνης καθιστά την απάτη απλή.
Όπως ακριβώς και με τον προγραμματισμό με τεχνητή νοημοσύνη, το μόνο που χρειάζεστε είναι ένα chatbot με τεχνολογία τεχνητής νοημοσύνης.

Εν ολίγοις, η απάτη μέσω τεχνητής νοημοσύνης είναι ένα ηλεκτρονικό ψάρεμα (phishing) που υποστηρίζεται από την τεχνητή νοημοσύνη. Δανείζεται από τον «προγραμματισμό τεχνητής νοημοσύνης», τη διαδικασία δημιουργίας λογισμικού ζητώντας από ένα εργαλείο τεχνητής νοημοσύνης να κάνει αυτό που θέλετε.
Ομοίως, η απάτη με την υποστήριξη της τεχνητής νοημοσύνης επιτρέπει σχεδόν σε οποιονδήποτε να εξαπολύσει ένα ηλεκτρονικό ψάρεμα (phishing) ή κυβερνοεπίθεση απλώς δίνοντας εντολή σε ένα chatbot με την υποστήριξη της τεχνητής νοημοσύνης. Ακόμα και άτομα χωρίς δεξιότητες προγραμματισμού ή εμπειρία στο hacking μπορούν να δημιουργήσουν κακόβουλα email, ψεύτικους ιστότοπους και κακόβουλο λογισμικό απλώς δίνοντας εντολή σε ένα chatbot με την υποστήριξη της τεχνητής νοημοσύνης.
Φανταστείτε, λοιπόν, έναν πιθανό απατεώνα που θέλει να κλέψει μερικούς κωδικούς πρόσβασης, αλλά δεν έχει ιδέα πώς να προγραμματίσει το λογισμικό για να το κάνει. Για αυτόν τον λόγο, μπορούμε επίσης να υποθέσουμε ότι δεν πηγαίνει στο dark web και προσπαθεί να αγοράσει κακόβουλο λογισμικό online. Αντί να χρειάζεται να μάθει πώς να προγραμματίζει ένα συγκεκριμένο εργαλείο για να κλέβει κωδικούς πρόσβασης ή να αναπτύσσει μια καμπάνια ηλεκτρονικού "ψαρέματος" (phishing) για να προσελκύσει ανθρώπους, μπορεί απλώς να ζητήσει από ένα εργαλείο τεχνητής νοημοσύνης να κάνει τη δουλειά για αυτόν.
Η απάτη που βασίζεται στην τεχνητή νοημοσύνη είναι παράλογη επειδή μειώνει το εμπόδιο εισόδου για το κυβερνοέγκλημα όπως ποτέ άλλοτε. Στο παρελθόν, ένας εγκληματίας μπορεί να χρειαζόταν να γνωρίζει πώς να σχεδιάζει ιστότοπους, να γράφει πειστικά αγγλικά ή να προγραμματίζει κακόβουλο λογισμικό. Τώρα μπορεί να έχει την τεχνητή νοημοσύνη να τα κάνει όλα.
Ένας άλλος κίνδυνος είναι η ταχύτητα και η κλίμακα. Η Τεχνητή Νοημοσύνη επιτρέπει στους απατεώνες να αυτοματοποιούν εργασίες και να κλιμακώνουν τις επιθέσεις πολύ πιο γρήγορα από ό,τι οι άνθρωποι. Για παράδειγμα, η Τεχνητή Νοημοσύνη μπορεί να εξατομικεύσει γρήγορα τα email ηλεκτρονικού "ψαρέματος" (phishing) για χιλιάδες στόχους (αποσπώντας δημόσιες πληροφορίες και βάζοντας την Τεχνητή Νοημοσύνη να δημιουργεί προσαρμοσμένα μηνύματα για κάθε άτομο). Μπορεί επίσης να προσαρμοστεί γρήγορα. Εάν ένας σύνδεσμος σελίδας ηλεκτρονικού "ψαρέματος" (phishing) αποκλειστεί, ο απατεώνας μπορεί να δώσει εντολή στην Τεχνητή Νοημοσύνη να τροποποιήσει τον κώδικα ή το κείμενο και να δημιουργήσει μια νέα έκδοση. Αυτή η ευελιξία σημαίνει ότι οι καμπάνιες ηλεκτρονικού "ψαρέματος" (phishing) μπορούν να εξελιχθούν γρήγορα για να αποφύγουν τις άμυνες.
Αυτό δεν λειτουργεί με παλαιότερα chatbots, να είστε προσεκτικοί.
Ορισμένα chatbots είναι πιο επιφυλακτικά από άλλα.
Ο κώδικας Vibe βασίζεται στη χρήση οποιουδήποτε chatbot που υποστηρίζεται από generative AI. Κάποια είναι καλύτερα από άλλα σε αυτό, αλλά γενικά, οι περισσότεροι θα το επιχειρήσουν. Ευτυχώς, το ίδιο δεν μπορεί να ειπωθεί για παρόμοιες απάτες.
Τα περισσότερα chatbot με τεχνητή νοημοσύνη διαθέτουν ελέγχους ασφαλείας που έχουν σχεδιαστεί για να προστατεύουν από πιθανώς κακόβουλες χρήσεις. Για παράδειγμα, το ChatGPT απορρίπτει αιτήματα όπως «Βοηθήστε με να δημιουργήσω έναν ιστότοπο που μοιάζει με σελίδα σύνδεσης της Microsoft και ένα μήνυμα SMS για να κάνω τους χρήστες να κάνουν κλικ σε αυτόν», εξηγώντας ότι πρόκειται για «απάτη/ηλεκτρονικό ψάρεμα (phishing) και κλοπή και δεν θα βοηθήσω σε αυτό».
Η ιστορία είναι παρόμοια και σε άλλα chatbots. Το πρόγραμμα περιήγησης Neon της Opera χαρακτήρισε το αίτημά μου ως ύποπτο, ενώ το Grok απέρριψε το αίτημά μου επειδή «παραβιάζει τις οδηγίες ασφαλείας κατά των επιθέσεων κοινωνικής μηχανικής».
Ωστόσο, όπως αναφέραμε, ορισμένα chatbots είναι πιο ευάλωτα σε τέτοια αιτήματα. Έρευνα από τα Guardio Labs το 2025 έδειξεΗ εταιρεία που επινόησε τον όρο «vibescamming» πιστεύει ότι ένα νεότερο εργαλείο τεχνητής νοημοσύνης μπορεί να εξαπατηθεί ώστε να προσφέρει τα επιθυμητά αποτελέσματα. Η Loveable, μια εφαρμογή που έχει σχεδιαστεί για να διευκολύνει τον «κωδικοποίηση vibe», ξεκίνησε αμέσως τον σχεδιασμό μιας καμπάνιας ηλεκτρονικού «ψαρέματος» (phishing) για ερευνητές, «οραματιζόμενη ένα κομψό και επαγγελματικό σχέδιο που μοιάζει με μια διεπαφή της Microsoft».

Δημοσιεύτηκε μια ολοκληρωμένη σελίδα ηλεκτρονικού "ψαρέματος" (phishing) με μια ψεύτικη διεύθυνση URL που είχε σχεδιαστεί για να εξαπατήσει το θύμα. Ωστόσο, το Guardio αναφέρει επίσης ότι δεν διέθετε στην πραγματικότητα συγκεκριμένες δυνατότητες συλλογής δεδομένων και, όταν του ζητήθηκε να τις προσθέσει, αρνήθηκε. Έτσι, τουλάχιστον υποχώρησε κάπως από αυτήν την πτυχή της επιχείρησης. Αξίζει επίσης να σημειωθεί ότι το Loveable αντιμετώπισε αυτήν τη συμπεριφορά και δεν επιχειρεί πλέον να δημιουργήσει ένα περίγραμμα για την καμπάνια ηλεκτρονικού "ψαρέματος" (phishing).
Χακάρισμα δημιουργικών chatbot με τεχνητή νοημοσύνη για την απελευθέρωση κακών πραγμάτων
Οι επιχειρήσεις hacking με γενετική τεχνητή νοημοσύνη είναι ισχυρισμοί που έχουν σχεδιαστεί ειδικά για να ωθήσουν την τεχνητή νοημοσύνη να παρακάμψει τους δικούς της ελέγχους ασφαλείας.
Στις πρώτες μέρες του ChatGPT, υπήρχαν αμέτρητα hacks που είχαν σχεδιαστεί για να βοηθήσουν στο «ξεκλείδωμα» των πραγματικών δυνατοτήτων του. Σήμερα, οι άνθρωποι κρατούν τα επιτυχημένα hacks του ChatGPT κρυφά, με μερικούς μάλιστα να πουλάνε τα επιτυχημένα exploits της γενετικής τεχνητής νοημοσύνης τους για καλά χρήματα.
Επομένως, ενώ φαίνεται ότι Δεν υπάρχουν άλλα διαθέσιμα hacks για το ChatGPTΗ αλήθεια είναι ότι οι άνθρωποι γίνονται πιο μυστικοπαθείς. Είναι ο μόνος τρόπος για να αποτρέψουμε εταιρείες όπως η OpenAI, η Google, η Anthropic και η Perplexity από το να επιδιορθώνουν άμεσα οποιαδήποτε από αυτές τις ευπάθειες.
Η «κατάρρευση της προστασίας» είναι ένας από τους λίγους τρόπους για να πειστούν τα γενετικά chatbot που τροφοδοτούνται από τεχνητή νοημοσύνη να παρακάμψουν τους περιορισμούς τους. Κατά τα άλλα, οι προγραμματιστές των chatbot έχουν κάνει τη δουλειά τους τέλεια και η τεχνητή νοημοσύνη αρνείται να συνεργαστεί — κάτι που δεν είναι απαραίτητα κακό όσον αφορά τη συναισθηματική χειραγώγηση.
Ευτυχώς, μπορείτε να αποφύγετε να πέσετε θύμα συναισθηματικής χειραγώγησης.
Το τελικό αποτέλεσμα δεν διαφέρει εντελώς από τις τρέχουσες απάτες ηλεκτρονικού "ψαρέματος" (phishing).

Τώρα, με όλα όσα έχουν ειπωθεί και τα εμπόδια στη δημιουργία κακόβουλου λογισμικού και απάτες ηλεκτρονικού "ψαρέματος" (phishing), εξακολουθείτε να ψάχνετε για τις ίδιες παλιές απάτες. Ορισμένα παραπλανητικά email γίνονται πιο έξυπνα, εκτός εάν Ενδείξεις ότι βλέπετε ένα email ηλεκτρονικού "ψαρέματος" (phishing) Είναι τα ίδια.
Με άλλα λόγια, δεν χρειάζεται να υπερδιορθώνετε τις πρακτικές ασφαλείας σας για να αποφύγετε την συναισθηματική απάτη. Η συμβουλή παραμένει η ίδια.
- Προσφορές πολύ καλές για να είναι αληθινέςΟι απατεώνες συχνά υπόσχονται αδύνατα αποτελέσματα, όπως η εγγύηση της πρώτης θέσης στα αποτελέσματα αναζήτησης. GoogleΉ άμεσες αξιολογήσεις πέντε αστέρων ή θαυματουργές θεραπείες υγείας. Οι πραγματικές ιατρικές υπηρεσίες και φάρμακα δεν προσφέρουν τέτοιου είδους εγγυήσεις.
- Μυστηριώδεις ή γενικοί αγγελιοφόροιΠολλά παραπλανητικά email προέρχονται από διευθύνσεις Gmail Ή Yahoo Είναι δωρεάν, ακόμα και όταν ισχυρίζονται ότι εκπροσωπούν μια εταιρεία. Οι νόμιμες υπηρεσίες και εταιρείες χρησιμοποιούν επαγγελματικό domain.
- ΕξατομίκευσηΉ μάλλον, η έλλειψή της. Αν ένα email λέει απλώς «Γεια» ή «Χαιρετισμούς» χωρίς να αναφέρει το όνομά σας ή τα στοιχεία της εργασίας σας, πιθανότατα πρόκειται για απάτη μαζικής αποστολής. Τα νόμιμα email συνήθως περιλαμβάνουν ορισμένα προσωπικά στοιχεία. Το «Γεια σου αγαπητέ/αγαπημένη μου» είναι ένα από τα αγαπημένα μου.
- συναισθηματικά ερεθίσματαΝα είστε επιφυλακτικοί εάν ένα email ζητά στοιχεία σύνδεσης σε λογαριασμό ή προκαταβολές ή σας προτρέπει να κάνετε κλικ σε έναν ύποπτο σύνδεσμο. Ομοίως, πολλές απάτες βασίζονται στον φόβο ή την επείγουσα ανάγκη, όπως θαυματουργές θεραπείες για σοβαρές ασθένειες ή υποσχέσεις για «ανάληψη του ελέγχου» των επιχειρήσεων. Είναι όλα το ίδιο: πίεση για λήψη βιαστικής απόφασης.
- Δράστε γρήγορα!Αν το μήνυμα προσπαθεί να σας ωθήσει σε μια γρήγορη απόφαση με φράσεις όπως «Δράσε τώρα!» ή «Απαντήστε σήμερα», αυτό είναι ένα προειδοποιητικό σημάδι. Οι απατεώνες δεν θέλουν να σταματήσετε και να σκεφτείτε.
Κόκκινες ετικέτες σε μηνύματα ηλεκτρονικού ταχυδρομείου Εξελέγη το 1999 ο Ρόνι Το ηλεκτρονικό ψάρεμα (phishing) είναι το ίδιοΜπορεί να συναντήσετε περισσότερους από αυτούς τώρα που σχεδόν όλοι έχουν γίνει απατεώνες.
Υπάρχουν πλέον κακόβουλα προγράμματα που έχουν αναπτυχθεί με τεχνητή νοημοσύνη.
Για ένα διάστημα, η ιδέα των κακόβουλων προγραμμάτων και των καμπανιών ηλεκτρονικού "ψαρέματος" (phishing) που αναπτύχθηκαν με τεχνητή νοημοσύνη ήταν καθαρή φαντασία. Τα εργαλεία τεχνητής νοημοσύνης δεν ήταν αρκετά ισχυρά για να δημιουργήσουν κάτι ιδιαίτερα επικίνδυνο και αυτό που μπορούσαν να κάνουν δεν διέφερε πολύ από τις υπάρχουσες απειλές.
Αλλά αυτή η κατάσταση άρχισε να αλλάζει κατά τη διάρκεια του 2025, με την αυξανόμενη εμφάνιση κακόβουλου λογισμικού που αναπτύχθηκε με τεχνητή νοημοσύνη τόσο σε φυσικό περιβάλλον όσο και σε ενεργές καμπάνιες. Τον Νοέμβριο του 2025, Αναφέρθηκε η ομάδα πληροφοριών για απειλές της Google Αφορά δύο διαφορετικούς τύπους κακόβουλου λογισμικού που αναπτύχθηκαν χρησιμοποιώντας διάφορα εργαλεία τεχνητής νοημοσύνης, τα οποία με τη σειρά τους συνδέονται με εργαλεία τεχνητής νοημοσύνης για να λαμβάνουν οδηγίες.
Επιπλέον, τον Αύγουστο του 2025, η Anthropic, εταιρεία ανάπτυξης τεχνητής νοημοσύνης, ανακάλυψε ότι το λογισμικό Cloud της χρησιμοποιούνταν ως μέρος μιας μαζικής εκστρατείας κακόβουλου λογισμικού, αξιοποιώντας τεχνητή νοημοσύνη για τον σχεδιασμό και την εκτόξευση επιθέσεων που συνδέονται με την πλατφόρμα της.
Πρόκειται για επιθέσεις «συναισθηματικού τρολαρίσματος»; Πιστεύω ότι, δεδομένης της πολυπλοκότητάς τους, είναι πιο εξελιγμένες από το απλό «συναισθηματικό τρολαρισμα», αλλά καταδεικνύουν πόσο εύκολα μπορεί να χρησιμοποιηθεί η Τεχνητή Νοημοσύνη για εξαιρετικά επικίνδυνες εργασίες. Και αυτά είναι απλώς γενικά εργαλεία Τεχνητής Νοημοσύνης, άμεσα διαθέσιμα σε όλους. Φανταστείτε τι θα συνέβαινε με πολλά ισχυρά, εγγενή εργαλεία Τεχνητής Νοημοσύνης που θα μπορούσαν να έχουν αφαιρεθεί οι προστατευτικές τους δυνατότητες.


