Σοβαρά ερωτήματα για τον ρόλο της τεχνητής νοημοσύνης στην ψυχική υγεία εγείρουν τα στοιχεία που δημοσιοποίησε η OpenAI, σύμφωνα με τα οποία πάνω από 1,2 εκατομμύρια χρήστες του ChatGPT εκφράζουν κάθε εβδομάδα σκέψεις ή προθέσεις που σχετίζονται με αυτοκτονία. Το ποσοστό αυτό αντιστοιχεί στο 0,15% των 800 εκατομμυρίων εβδομαδιαίων χρηστών της πλατφόρμας.

Παράλληλα, περίπου 600.000 χρήστες (0,7%) εμφανίζουν ενδείξεις κρίσεων ψυχικής υγείας που συνδέονται με ψύχωση ή μανιακά επεισόδια, σύμφωνα με τις εκτιμήσεις της εταιρείας.

Το ζήτημα ήρθε στο προσκήνιο μετά τον θάνατο του Άνταμ Ρέιν, εφήβου από την Καλιφόρνια, του οποίου οι γονείς κατέθεσαν αγωγή κατά της OpenAI, καταγγέλλοντας ότι το ChatGPT του παρείχε οδηγίες για αυτοκτονία. Η υπόθεση προκάλεσε έντονη δημόσια συζήτηση και πίεση για αυστηρότερη εποπτεία.

Σε απάντηση, η OpenAI ανακοίνωσε σειρά μέτρων για την ενίσχυση της ασφάλειας, όπως:

  • Ενίσχυση του γονικού ελέγχου και των φίλτρων περιεχομένου
  • Προτροπή προς τους χρήστες να απευθύνονται σε ειδικούς και γραμμές βοήθειας
  • Αναβάθμιση του μοντέλου ώστε να αναγνωρίζει και να ανταποκρίνεται πιο υπεύθυνα σε κρίσεις ψυχικής υγείας
  • Συνεργασία με περισσότερους από 170 επαγγελματίες ψυχικής υγείας για τον περιορισμό απαντήσεων που ενδέχεται να ενθαρρύνουν επικίνδυνες συμπεριφορές

Η OpenAI επισημαίνει ότι στόχος της είναι να καταστήσει την τεχνητή νοημοσύνη ασφαλή και υποστηρικτική, ειδικά για ευάλωτους χρήστες. Το περιστατικό και τα στατιστικά δεδομένα αναδεικνύουν την ανάγκη για διαρκή εποπτεία, ηθική ευθύνη και διαφάνεια στην ανάπτυξη και χρήση των ψηφιακών βοηθών.

Με πληροφορίες από ΑΠΕ-ΜΠΕ