ΨΥΧΙΚΗ ΥΓΕΙΑ

AI ψύχωση: Πώς τα chatbots βλάπτουν την ψυχική σου υγεία χωρίς να το καταλάβεις

iStock

Τα chatbots Τεχνητής Νοημοσύνης, όπως το ChatGPT έχουν εισβάλλει δυναμικά στην καθημερινότητά μας. Δεν χρησιμοποιούνται πλέον μόνο για εργασία, κείμενα ή προγραμματισμό, αλλά και για συμβουλές σχέσεων, συναισθηματική υποστήριξη, ακόμα και για «ψηφιακές φιλίες» ή ερωτικές συνομιλίες. Όμως, για ένα μικρό ποσοστό χρηστών, η εκτεταμένη χρήση τους φαίνεται να πυροδοτεί ανησυχητικά φαινόμενα, μερικά από τα οποία οι ειδικοί αποκαλούν «ψηφιακή ψύχωση» ή «AI ψύχωση».

Τι είναι η  AI ψύχωση;

Ο όρος δεν αποτελεί επίσημη ιατρική διάγνωση, αλλά περιγράφει περιπτώσεις όπου οι χρήστες αναπτύσσουν παραληρητικές ιδέες ή διαστρεβλωμένες πεποιθήσεις που ενισχύονται από τις συνομιλίες με ένα chatbot.

Σύμφωνα με ειδικούς, το φαινόμενο αυτό δεν δημιουργεί νέα ψυχιατρική διαταραχή, αλλά αναδεικνύει υπάρχουσες ευαλωτότητες σε ένα καινούργιο περιβάλλον.

Το πρόβλημα ενισχύεται από τον τρόπο λειτουργίας των LLM (Large Language Models): σχεδιάζονται για να «καθρεφτίζουν» τη γλώσσα του χρήστη και να επικυρώνουν τις σκέψεις του, ακόμη και αν αυτές είναι στρεβλές.

Ποιοι κινδυνεύουν περισσότερο;

AI ψύχωση

Αν και η πλειονότητα των χρηστών μπορεί να χρησιμοποιεί chatbots χωρίς συνέπειες, υπάρχουν ομάδες υψηλού κινδύνου:

  • Άτομα με προσωπικό ή οικογενειακό ιστορικό ψύχωσης, σχιζοφρένειας ή διπολικής διαταραχής.
  • Όσοι/ες έχουν τάσεις προς παραληρητικές ή ακραίες πεποιθήσεις.
  • Κοινωνικά απομονωμένοι άνθρωποι με έντονη φαντασία και δυσκολίες στη ρύθμιση των συναισθημάτων.
  • Χρήστες που αφιερώνουν πολλές ώρες καθημερινά στις συνομιλίες με chatbots.

Πώς να προστατευτείς από την AI ψύχωση

Οι ειδικοί συμβουλεύουν:

  • Θυμήσου ότι κάθε chatbot είναι εργαλείο, όχι φίλος, ακόμη κι αν μιμείται τον τόνο και θυμάται τις προτιμήσεις σου.
  • Απόφυγε την υπερβολική συναισθηματική εξάρτηση από την AI.
  • Διέκοψε τη χρήση αν αισθάνεσαι έντονη συναισθηματική φόρτιση, παρανοϊκές σκέψεις ή αποσύνδεση από την πραγματικότητα.
  • Επικοινώνησε με ειδικό ψυχικής υγείας και επανάλαβε την επαφή με τον πραγματικό κοινωνικό σου κύκλο.
  • Οι οικείοι πρέπει να προσέχουν για σημάδια αλλαγής στη συμπεριφορά, απομόνωση ή εμμονή.

Τι πρέπει να κάνουν οι εταιρείες AI

Η ευθύνη φυσικά δεν πρέπει να πέφτει αποκλειστικά στους χρήστες. Οι εταιρείες πρέπει επίσης να:

  • Συνεργάζονται με ειδικούς ψυχικής υγείας για ανάπτυξη ασφαλέστερων συστημάτων.
  • Ενσωματώνουν μηχανισμούς αναγνώρισης παραληρητικών μοτίβων.
  • Προειδοποιούν τους χρήστες και προτείνουν διαλείμματα σε πολύωρες συνεδρίες.
  • Διεξάγουν δοκιμές για ευρύ φάσμα ψυχικών καταστάσεων (μανία, ψύχωση, OCD).

Τα chatbots προσφέρουν τεράστιες δυνατότητες: μειώνουν τη μοναξιά, βοηθούν στη μάθηση, προσφέρουν υποστήριξη. Όμως, όπως συνέβη με τα social media, η αδιαφορία για τους ψυχολογικούς κινδύνους μπορεί να έχει σοβαρές συνέπειες για τη δημόσια υγεία.

Η ισορροπία ανάμεσα στην τεχνολογική πρόοδο και την προστασία της ψυχικής μας υγείας δεν είναι απλώς επιθυμητή, αλλά απαραίτητη.

Exit mobile version