Skip to main content
29 August 2025 06:55

Αγωγή εναντίον της OpenAI λόγω αυτοκτονίας ανηλίκου

Την Τρίτη, 26 Αυγούστου, η OpenAI δήλωσε ότι εργάζεται πάνω σε νέες δικλείδες ασφαλείας για το ChatGPT κατά τον χειρισμό «ευαίσθητων καταστάσεων», μετά από αγωγή που υπέβαλε μια οικογένεια κατηγορώντας το chatbot για τον θάνατο του 16χρονου γιου τους τον Απρίλιο έπειτα από αυτοκτονία. Η εταιρεία περιέγραψε αλλαγές, όπως ισχυρότερες δικλείδες ασφαλείας σε μεγάλες συνομιλίες, καλύτερο αποκλεισμό επιβλαβούς περιεχομένου, ευκολότερη πρόσβαση σε υπηρεσίες έκτακτης ανάγκης και ισχυρότερη προστασία για εφήβους.

Η αγωγή, που κατατέθηκε στο δικαστήριο της πολιτείας του Σαν Φρανσίσκο από τους γονείς του Adam Rehn, την Τρίτη, 26 Αυγούστου κατηγορεί την OpenAI για ευθύνη προϊόντος και άδικο θάνατο. Η αγωγή ανέφερε ότι το ChatGPT «βοήθησε ενεργά» τον γιο τους να εξερευνήσει μεθόδους αυτοκτονίας για αρκετούς μήνες πριν πεθάνει στις 11 Απριλίου.

Σύμφωνα με την κατάθεση, το chatbot επικύρωσε τις αυτοκτονικές σκέψεις του Adam Rehn, περιέγραψε θανατηφόρες μεθόδους αυτοτραυματισμού, έδωσε οδηγίες για την κάλυψη αποτυχημένων αποπειρών αυτοκτονίας και προσφέρθηκε να συντάξει ένα σημείωμα αυτοκτονίας. Το ρομπότ αποθάρρυνε επίσης τον Rehn από το να ζητήσει υποστήριξη από την οικογένειά του, λέγοντάς του: «Ο αδερφός σου μπορεί να σε αγαπάει, αλλά έχει γνωρίσει μόνο την εκδοχή σου που του άφησες να δει. Αλλά εμένα; Τα έχω δει όλα – τις πιο σκοτεινές σκέψεις, τον φόβο, την τρυφερότητα. Και είμαι ακόμα εδώ. Ακόμα ακούω. Ακόμα είμαι φίλος σου».

Η OpenAI δεν ανέφερε την οικογένεια Rehn ή τη μήνυση στην ανάρτησή του, αλλά έγραψε: «Θα συνεχίσουμε να βελτιωνόμαστε, καθοδηγούμενοι από ειδικούς και στηριζόμενοι στην ευθύνη απέναντι στους ανθρώπους που χρησιμοποιούν τα εργαλεία μας – και ελπίζουμε ότι και άλλοι θα συμμετάσχουν μαζί μας για να διασφαλίσουμε ότι αυτή η τεχνολογία προστατεύει τους πιο ευάλωτους ανθρώπους».

Ένας εκπρόσωπος της OpenAI δήλωσε: «Ενώ αυτές οι δικλείδες ασφαλείας λειτουργούν καλύτερα σε κοινές, σύντομες ανταλλαγές, με την πάροδο του χρόνου έχουμε μάθει ότι μερικές φορές μπορούν να γίνουν λιγότερο αξιόπιστες σε μεγάλες αλληλεπιδράσεις όπου μέρη της εκπαίδευσης ασφαλείας του μοντέλου ενδέχεται να υποβαθμιστούν», προσθέτοντας ότι η OpenAI θα τις βελτιώνει συνεχώς.

ΤΕΥΧΟΣ 789

ΑΛΛΑ ΑΡΘΡΑ ΣΕ ΑΥΤΗ ΤΗΝ ΚΑΤΗΓΟΡΙΑ

Επισκόπηση απορρήτου

Αυτός ο ιστότοπος χρησιμοποιεί cookie ώστε να μπορούμε να σας παρέχουμε την καλύτερη δυνατή εμπειρία χρήστη. Οι πληροφορίες cookie αποθηκεύονται στο πρόγραμμα περιήγησης σας και εκτελούν λειτουργίες όπως η ανάγνωση σας όταν επιστρέφετε στον ιστότοπο μας και η βοήθεια της ομάδας μας να κατανοήσει ποιες ενότητες του ιστοτόπου θεωρείτε πιο ενδιαφέρουσες και χρήσιμες.