Skip to main content
24 April 2023 06:52

Η WatchGuard προειδοποιεί: Κυβερνοέγκλημα και ChatGPT 

Το ChatGPT, το δημόσιο γεννητικό AI που κυκλοφόρησε τον Νοέμβριο του 2022, έχει προκαλέσει σημαντική ανησυχία σχετικά με τη δυνατότητα ενίσχυσης της σοβαρότητας και της πολυπλοκότητας των κυβερνοαπειλών. Πράγματι, αμέσως μετά την ανακοίνωση της κυκλοφορίας από την OpenAI, πολλοί ήταν οι ειδικοί ασφαλείας που προέβλεψαν ότι είναι θέμα χρόνου να χρησιμοποιηθεί το AI chatbot από επιτιθέμενους για τη δημιουργία malware ή ακόμα και για ενίσχυση των επιθέσεων phishing. 

Οι υποψίες επιβεβαιώθηκαν γρήγορα, καθώς ανακαλύφθηκε ότι οι κυβερνοεγκληματίες έχουν ήδη αρχίσει να χρησιμοποιούν αυτό το εργαλείο με βάση το μοντέλο γλώσσας AI GPT-3 για την αναπαραγωγή τύπων κακόβουλου λογισμικού και τη διάπραξη διαφορετικών τύπων επιθέσεων. Οι κυβερνοεγκληματίες χρειάζεται απλώς να έχουν έναν λογαριασμό OpenAI, τον οποίο μπορούν να δημιουργήσουν δωρεάν από τον ιστότοπό τους, και στη συνέχεια, να θέσουν ένα ερώτημα. 

Όπως περιγράφεται σε ενημερωτικό άρθρο της WatchGuard, oι επιτιθέμενοι μπορούν να εκμεταλλευτούν την γεννητική τεχνητή νοημοσύνη του ChatGPT για να δημιουργήσουν κακόβουλη δραστηριότητα, συμπεριλαμβανομένων: 
 
Απάτες phishing 
Οι απειλητικοί παράγοντες μπορούν να χρησιμοποιήσουν το μεγάλο μοντέλο γλώσσας- Large Language Model (LLM) του συστήματος ChatGPT για να απομακρυνθούν από τα καθολικά φορμάτ και να αυτοματοποιήσουν τη δημιουργία μοναδικών emails phishing ή spoofing, γραμμένων με τέλεια γραμματική και φυσικά μοτίβα λόγου που προσαρμόζονται σε κάθε στόχο. Αυτό σημαίνει ότι επιθέσεις email που δημιουργήθηκαν με τη βοήθεια της συγκεκριμένης τεχνολογίας δείχνουν πολύ πιο πειστικές, καθιστώντας πιο δύσκολο για τους αποδέκτες να τις ανιχνεύσουν και να αποφύγουν το κλικ που οδηγεί σε κακόβουλους συνδέσμους και ενδέχεται να περιέχουν malware. 
 
Κλοπή ταυτότητας 
Εκτός από το phishing, κακόβουλοι δράστες μπορούν να χρησιμοποιήσουν το ChatGPT για να προσποιηθούν μια αξιόπιστη οντότητα, χάρη στη δυνατότητα της τεχνολογίας να αναπαράγει τον επιχειρησιακό τόνο και τον τρόπο επικοινωνίας με μία τράπεζα ή ενός φορέα και στη συνέχεια να εκμεταλλευτούν αυτά τα μηνύματα στα μέσα κοινωνικής δικτύωσης, σε SMS ή μέσω ηλεκτρονικού ταχυδρομείου για να αποκτήσουν πρόσβαση σε προσωπικές και χρηματοοικονομικές πληροφορίες των ανθρώπων. Κακόβουλοι δράστες μπορούν, επίσης, να γράψουν αναρτήσεις στα μέσα κοινωνικής δικτύωσης προσποιούμενοι διάσημους αξιοποιώντας αυτήν τη δυνατότητα. 
 
Άλλες επιθέσεις κοινωνικής μηχανικής 
Οι επιθέσεις κοινωνικής μηχανικής μπορούν επίσης να πραγματοποιηθούν κάθε φορά που οι δράστες χρησιμοποιούν το μοντέλο για τη δημιουργία ψεύτικων προφίλ στα κοινωνικά μέσα, καθιστώντας τα πολύ ρεαλιστικά, και στη συνέχεια να απατούν τους ανθρώπους, ώστε να κάνουν κλικ σε κακόβουλους συνδέσμους ή να τους πείσουν να μοιραστούν προσωπικές πληροφορίες. 
 
Δημιουργία κακόβουλων bots 
Το ChatGPT μπορεί να χρησιμοποιηθεί για τη δημιουργία chatbots, καθώς διαθέτει ένα API που μπορεί να τροφοδοτήσει άλλες συνομιλίες. Το φιλικό προς τον χρήστη περιβάλλον του, σχεδιασμένο για επωφελείς χρήσεις, μπορεί να χρησιμοποιηθεί για να εξαπατήσει ανθρώπους και να εκτελέσει πειστικές απάτες, καθώς και για να εξαπλωθεί ανεπιθύμητη αλληλογραφία ή να εκτελέσει επιθέσεις phishing. 
 
Κακόβουλο Λογισμικό 
Το ChatGPT μπορεί να βοηθήσει στην εκτέλεση μιας εργασίας που συνήθως απαιτεί δεξιότητες υψηλού επιπέδου προγραμματισμού, όπως τη δημιουργία κώδικα σε διάφορες γλώσσες προγραμματισμού. Το μοντέλο επιτρέπει στους κακόβουλους χρήστες με περιορισμένες ή και καθόλου δεξιότητες προγραμματισμού, να αναπτύξουν κακόβουλο λογισμικό. Αυτό μπορεί να γίνει καθώς το ChatGPT έχει τη δυνατότητα να συντάξει τον κώδικα, γνωρίζοντας απλά ποια λειτουργικότητα θα πρέπει να έχει το κακόβουλο λογισμικό. 

Αντίστοιχα, οι προηγμένοι κυβερνοεγκληματίες μπορούν να χρησιμοποιήσουν αυτήν την τεχνολογία για να καταστήσουν τις απειλές τους πιο αποτελεσματικές ή να θέσουν εκτός λειτουργίας υπάρχοντα παραθυράκια ασφαλείας. Σε ένα περιστατικό που μοιράστηκε ένας εγκληματίας σε ένα φόρουμ, το ChatGPT χρησιμοποιήθηκε για να δημιουργήσει malware χρησιμοποιώντας έναν κώδικα βασισμένο σε Python που μπορεί να αναζητά, αντιγράφει και εξαγάγει 12 κοινούς τύπους αρχείων, όπως έγγραφα Office, PDF και εικόνες από ένα μολυσμένο σύστημα. Με άλλα λόγια, αν εντοπίσει ένα αρχείο που παρουσιάζει ενδιαφέρον, το malware το αντιγράφει σε έναν προσωρινό φάκελο, το συμπιέζει και το στέλνει μέσω web. Ο ίδιος «συντάκτης» malware έδειξε, επίσης, πώς χρησιμοποίησε το ChatGPT για να γράψει κώδικα Java, ώστε να κατεβάσει τον client PuTTY SSH και το telnet, αλλά και να το τρέξει στο σύστημα μέσω του PowerShell. 
 
Προηγμένες απειλές απαιτούν προηγμένες λύσεις 
Οι προηγμένες κυβερνοαπειλές πρέπει να αντιμετωπίζονται με λύσεις που να είναι αντάξιες της πρόκλησης. Το WatchGuard EPDR συνδυάζει δυνατότητες προστασίας (EPP), ανίχνευσης και απόκρισης (EDR) σε μια μόνο λύση. Χάρη στα νέα και αναδυόμενα μοντέλα τεχνητής νοημοσύνης, μηχανικής μάθησης και βαθιάς γνώσης, το WatchGuard EPDR προστατεύει από προηγμένες απειλές, επίμονες προηγμένες απειλές (APTs), κακόβουλο λογισμικό zero day, κρυπτογραφημένο κακόβουλο λογισμικό, ψεύτικα email (phishing), rootkits, ευπάθειες μνήμης και επιθέσεις χωρίς κακόβουλο λογισμικό, ενώ παρέχει πλήρη ορατότητα και παρακολούθηση των συστημάτων και των δραστηριοτήτων, ανιχνεύοντας κακόβουλη δραστηριότητα που μπορεί να ξεγλιστρήσει από τις περισσότερες παραδοσιακές λύσεις antivirus. 

Επίσης, παρακολουθεί συνεχώς όλες τις εφαρμογές και ανιχνεύει κακόβουλη συμπεριφορά, ακόμα και αν προέρχεται από νόμιμες εφαρμογές. Είναι, ακόμη, ικανό να οργανώνει μια αυτοματοποιημένη αντίδραση και, ανταλλάζοντας πληροφορίες μέσω δεικτών προηγούμενης επίθεσης, να επιτρέπει την πλήρη έρευνα κάθε προσπάθειας επίθεσης μέσω προηγμένων δεικτών επίθεσης (IoA). 

Τεύχος 270

ΑΛΛΑ ΑΡΘΡΑ ΣΕ ΑΥΤΗ ΤΗΝ ΚΑΤΗΓΟΡΙΑ