Skip to main content
6 October 2023 05:55

ESET: Τι πρέπει να γνωρίζετε πριν συνομιλήσετε με το ChatGPT

Τα εργαλεία τεχνητής νοημοσύνης μπορεί να μας βοηθήσουν να αναπτύξουμε ιδέες, να συνοψίσουμε ή να επαναδιατυπώσουμε κομμάτια κειμένου, ή ακόμη και να δημιουργήσουμε μια βάση για μια επιχειρηματική στρατηγική ή να βρούμε ένα σφάλμα σε έναν κώδικα, εξηγεί η ESET. Όμως, όσο χρησιμοποιούμε την τεχνητή νοημοσύνη, πρέπει να θυμόμαστε ότι τα δεδομένα που εισάγουμε στα εργαλεία παύουν να μας ανήκουν μόλις πατήσουμε το κουμπί αποστολής.

Όταν γράφουμε μια εντολή για ένα chatbot, τα δεδομένα που εισάγουμε γίνονται δημόσια. Αυτό δεν σημαίνει ότι τα chatbots θα χρησιμοποιήσουν αμέσως αυτές τις πληροφορίες ως βάση για απαντήσεις σε άλλους χρήστες. Αλλά ο πάροχος LLM ή οι συνεργάτες του μπορεί να έχουν πρόσβαση σε αυτά τα ερωτήματα και θα μπορούσαν να τα ενσωματώσουν σε μελλοντικές εκδόσεις της τεχνολογίας.

Πώς μπορείτε λοιπόν να διασφαλίσετε ότι οι υπάλληλοι της εταιρείας σας χρησιμοποιούν πλατφόρμες, όπως το ChatGPT, με ασφάλεια; Οι ειδικοί της παγκόσμιας εταιρείας κυβερνοασφάλειας ESET προειδοποιούν για ορισμένα λάθη που κάνουν συχνά οι εργαζόμενοι και συμβουλεύουν πώς να τα αποφύγουμε.

Χρήση δεδομένων του πελάτη: Το πρώτο κοινό λάθος που κάνουν οι εργαζόμενοι όταν χρησιμοποιούν LLMs είναι να μοιράζονται χωρίς να το συνειδητοποιούν ευαίσθητες πληροφορίες σχετικά με τους πελάτες της εταιρείας τους. Φανταστείτε, για παράδειγμα, γιατρούς να υποβάλλουν τα ονόματα και τα ιατρικά αρχεία των ασθενών τους και να ζητούν από το εργαλείο LLM να γράψει επιστολές στις ασφαλιστικές εταιρείες των ασθενών. Ή εταιρείες να ανεβάζουν δεδομένα πελατών από τα συστήματα CRM τους και να προτρέπουν το εργαλείο να συντάξει στοχευμένα ενημερωτικά δελτία.

Εκπαιδεύστε τους υπαλλήλους να εισάγουν ανώνυμα τα ερωτήματά τους στα chatbots. Για την προστασία της ιδιωτικής ζωής των πελατών, ενθαρρύνετέ τους να αναθεωρούν και να αφαιρούν προσεκτικά ευαίσθητα στοιχεία, όπως ονόματα, διευθύνσεις ή αριθμούς λογαριασμών. Η καλύτερη πρακτική είναι να αποφεύγετε εξαρχής τη χρήση προσωπικών πληροφοριών και να βασίζεστε σε γενικές ερωτήσεις ή ερωτήματα.

Εισαγωγή εμπιστευτικών εγγράφων σε chatbots: Τα chatbots μπορούν να αποτελέσουν πολύτιμα εργαλεία για τη γρήγορη περίληψη μεγάλου όγκου δεδομένων και τη δημιουργία σχεδίων, παρουσιάσεων ή εκθέσεων. Παρόλα αυτά, η μεταφόρτωση εγγράφων σε εργαλεία, όπως το ChatGPT, μπορεί να σημαίνει ότι είναι εκτεθειμένα τα δεδομένα της εταιρείας ή των πελατών που είναι αποθηκευμένα σε αυτά. Αν και μπορεί να είναι δελεαστικό να αντιγράψετε έγγραφα και να ζητήσετε από το εργαλείο να δημιουργήσει περιλήψεις ή προτάσεις για διαφάνειες παρουσιάσεων, δεν είναι ένας ασφαλής τρόπος για την ασφάλεια των δεδομένων.

Αυτό ισχύει για σημαντικά έγγραφα, όπως οι στρατηγικές ανάπτυξης, αλλά και για λιγότερο σημαντικά έγγραφα, όπως οι σημειώσεις από μια συνάντηση, που μπορεί να οδηγήσουν τους υπαλλήλους στην αποκάλυψη της πολύτιμης τεχνογνωσίας της εταιρείας τους.

Για να μετριάσετε αυτόν τον κίνδυνο, καθιερώστε αυστηρές πολιτικές για τον χειρισμό ευαίσθητων εγγράφων και περιορίστε την πρόσβαση σε τέτοια αρχεία με μια πολιτική περιορισμένης πρόσβασης σε πληροφορίες (need to know). Οι εργαζόμενοι πρέπει να εξετάζουν τα έγγραφα προτού ζητήσουν περίληψη ή βοήθεια από το chatbot. Έτσι διασφαλίζεται ότι οι ευαίσθητες πληροφορίες, όπως ονόματα, στοιχεία επικοινωνίας, στοιχεία πωλήσεων ή ταμειακής ροής, διαγράφονται ή γίνονται ανώνυμα.

Αποκαλύπτοντας δεδομένα της εταιρείας σε εντολές: Φανταστείτε ότι προσπαθείτε να βελτιώσετε ορισμένες από τις πρακτικές και τις ροές εργασίας της εταιρείας σας. Ζητάτε από το ChatGPT να σας βοηθήσει με τη διαχείριση του χρόνου ή με τη διάρθρωση των εργασιών και εισάγετε πολύτιμη τεχνογνωσία και άλλα δεδομένα στην εντολή για να βοηθήσετε το chatbot να αναπτύξει μια λύση. Ακριβώς όπως η εισαγωγή ευαίσθητων εγγράφων ή δεδομένων πελατών σε chatbots, η συμπερίληψη ευαίσθητων δεδομένων της εταιρείας στην εντολή είναι μια κοινή, αλλά δυνητικά επιζήμια πρακτική που μπορεί να οδηγήσει σε μη εξουσιοδοτημένη πρόσβαση ή διαρροή εμπιστευτικών πληροφοριών.

Τεύχος 365

ΑΛΛΑ ΑΡΘΡΑ ΣΕ ΑΥΤΗ ΤΗΝ ΚΑΤΗΓΟΡΙΑ