ΣΙΔΝΕΪ, Αυστραλία – Άτομα που επιδεικνύουν βίαιες εξτρεμιστικές τάσεις στο ChatGPT θα κατευθύνονται σε υποστήριξη αποριζοσπαστικοποίησης βασισμένη σε ανθρώπους και chatbot μέσω ενός νέου εργαλείου που αναπτύσσεται στη Νέα Ζηλανδία, δήλωσαν οι υπεύθυνοι.
Η πρωτοβουλία αποτελεί την πιο πρόσφατη προσπάθεια αντιμετώπισης των ανησυχιών για την ασφάλεια εν μέσω αυξανόμενου αριθμού αγωγών που κατηγορούν τις εταιρείες τεχνητής νοημοσύνης ότι δεν μπορούν να σταματήσουν, και μάλιστα διευκολύνουν, τη βία.
Η OpenAI απειλήθηκε με παρέμβαση από την καναδική κυβέρνηση τον Φεβρουάριο αφού αποκαλύφθηκε ότι ένα άτομο που πραγματοποίησε θανατηφόρο πυροβολισμό σε σχολείο είχε αποκλειστεί από την πλατφόρμα χωρίς να ενημερωθούν οι αρχές.
Η ThroughLine, μια νεοφυής επιχείρηση που προσλήφθηκε τα τελευταία χρόνια από την OpenAI, κάτοχο του ChatGPT, καθώς και τους ανταγωνιστές Anthropic και Google, για να ανακατευθύνει χρήστες σε υποστήριξη κρίσης όταν εντοπίζονται ως διατρέχοντες κίνδυνο αυτοτραυματισμού, ενδοοικογενειακής βίας ή διατροφικών διαταραχών, διερευνά επίσης τρόπους να διευρύνει τις υπηρεσίες της ώστε να περιλαμβάνουν την πρόληψη του βίαιου εξτρεμισμού, δήλωσε ο ιδρυτής της και πρώην νεανικός λειτουργός Elliot Taylor.
Η εταιρεία βρίσκεται σε συζητήσεις με το Christchurch Call, μια πρωτοβουλία για την εξάλειψη του διαδικτυακού μίσους που σχηματίστηκε μετά τη χειρότερη τρομοκρατική επίθεση της Νέας Ζηλανδίας το 2019, η οποία θα περιλαμβάνει την ομάδα κατά του εξτρεμισμού να παρέχει καθοδήγηση ενώ η ThroughLine αναπτύσσει το chatbot παρέμβασης, δήλωσε ο πρώην νεανικός λειτουργός.
«Είναι κάτι προς το οποίο θα θέλαμε να προχωρήσουμε και να κάνουμε καλύτερη δουλειά στην κάλυψη και στη συνέχεια να μπορούμε να υποστηρίξουμε καλύτερα τις πλατφόρμες», δήλωσε ο Taylor σε συνέντευξη, προσθέτοντας ότι δεν έχει οριστεί χρονοδιάγραμμα.
Η OpenAI επιβεβαίωσε τη σχέση με την ThroughLine αλλά αρνήθηκε να σχολιάσει περαιτέρω. Οι Anthropic και Google δεν απάντησαν άμεσα σε αιτήματα για σχολιασμό.
Η εταιρεία του Taylor, την οποία διευθύνει από το σπίτι του στην αγροτική Νέα Ζηλανδία, έχει γίνει προτιμώμενη επιλογή για τις εταιρείες τεχνητής νοημοσύνης με την προσφορά ενός συνεχώς ελεγχόμενου δικτύου 1.600 γραμμών βοήθειας σε 180 χώρες.
Μόλις η τεχνητή νοημοσύνη εντοπίσει σημάδια πιθανής κρίσης ψυχικής υγείας, κατευθύνει τον χρήστη στην ThroughLine, η οποία τον αντιστοιχίζει με μια διαθέσιμη υπηρεσία που λειτουργεί από ανθρώπους κοντά του.
Αλλά το εύρος της ThroughLine έχει περιοριστεί σε συγκεκριμένες κατηγορίες, δήλωσε ο ιδρυτής. Το εύρος των προβλημάτων ψυχικής υγείας που αποκαλύπτουν οι άνθρωποι διαδικτυακά έχει εκραγεί με τη δημοτικότητα των chatbot τεχνητής νοημοσύνης, και τώρα περιλαμβάνει και ενασχολήσεις με τον εξτρεμισμό, πρόσθεσε.
Το εργαλείο κατά του εξτρεμισμού θα είναι πιθανώς ένα υβριδικό μοντέλο που συνδυάζει ένα chatbot εκπαιδευμένο να ανταποκρίνεται σε άτομα που δείχνουν σημάδια εξτρεμισμού και παραπομπές σε υπηρεσίες ψυχικής υγείας του πραγματικού κόσμου, δήλωσε ο Taylor.
«Δεν χρησιμοποιούμε τα δεδομένα εκπαίδευσης ενός βασικού LLM», δήλωσε, αναφερόμενος στα γενικά σύνολα δεδομένων που χρησιμοποιούν οι πλατφόρμες μεγάλων γλωσσικών μοντέλων για να διαμορφώσουν συνεκτικό κείμενο. «Συνεργαζόμαστε με τους σωστούς ειδικούς». Η τεχνολογία δοκιμάζεται επί του παρόντος, αλλά δεν έχει οριστεί ημερομηνία κυκλοφορίας.
Ο Galen Lamphere-Englund, σύμβουλος κατά της τρομοκρατίας που εκπροσωπεί το Christchurch Call, δήλωσε ότι ελπίζει να κυκλοφορήσει το προϊόν για συντονιστές φόρουμ gaming και για γονείς και φροντιστές που θέλουν να εξαλείψουν τον εξτρεμισμό στο διαδίκτυο.
Ένα εργαλείο ανακατεύθυνσης chatbot ήταν «μια καλή και απαραίτητη ιδέα επειδή αναγνωρίζει ότι δεν είναι μόνο το περιεχόμενο το πρόβλημα, αλλά οι δυναμικές των σχέσεων», δήλωσε ο Henry Fraser, ερευνητής τεχνητής νοημοσύνης στο Πανεπιστήμιο Τεχνολογίας του Queensland.
Η επιτυχία του προϊόντος μπορεί να εξαρτηθεί από ερωτήματα όπως «πόσο καλοί είναι οι μηχανισμοί παρακολούθησης και πόσο καλές είναι οι δομές και οι σχέσεις στις οποίες κατευθύνουν τους ανθρώπους για την αντιμετώπιση του προβλήματος», δήλωσε.
Ο Taylor δήλωσε ότι τα χαρακτηριστικά παρακολούθησης, συμπεριλαμβανομένων πιθανών ειδοποιήσεων στις αρχές για επικίνδυνους χρήστες, έπρεπε ακόμα να καθοριστούν αλλά θα λάμβαναν υπόψη οποιονδήποτε κίνδυνο πυροδότησης κλιμακούμενης συμπεριφοράς.
Δήλωσε ότι οι άνθρωποι σε δυσφορία τείνουν να μοιράζονται πράγματα στο διαδίκτυο που είναι πολύ ντροπιασμένοι να πουν σε ένα πρόσωπο, και οι κυβερνήσεις κινδυνεύουν να επιδεινώσουν τον κίνδυνο αν πιέσουν τις πλατφόρμες να αποκόψουν χρήστες που συμμετέχουν σε ευαίσθητες συζητήσεις.
Η αυξημένη επιτήρηση που σχετίζεται με τη μαχητικότητα από πλατφόρμες υπό πίεση από τις αρχές επιβολής του νόμου έχει οδηγήσει συμπαθούντες να μετακινηθούν σε λιγότερο ρυθμιζόμενες εναλλακτικές όπως το Telegram, σύμφωνα με μια μελέτη του 2025 από το Stern Center for Business and Human Rights του Πανεπιστημίου της Νέας Υόρκης.
«Αν μιλήσεις σε μια τεχνητή νοημοσύνη και αποκαλύψεις την κρίση και αυτή τερματίσει τη συζήτηση, κανείς δεν γνωρίζει ότι συνέβη αυτό, και εκείνο το άτομο μπορεί να παραμείνει χωρίς υποστήριξη», δήλωσε ο Taylor. – Rappler.com

