Σας ενδιαφέρουν ΠΡΟΣΦΟΡΕΣ? Εξοικονομήστε χρήματα με τα κουπόνια μας WhatsApp o ΤΗΛΕΓΡΑΦΗΜΑ!

Η DeepMind ανακαλύπτει μια ευπάθεια ChatGPT χρησιμοποιώντας ύπνωση και ποίηση

Ερευνητές στο ερευνητικό εργαστήριο Google Deepmind κατάφεραν να αναγκάσουν ChatGPT για να αποκαλύψει τα προσωπικά δεδομένα πολλών χρηστών. Δεν χρειάστηκε να καταφύγουν σε τροποποίηση κώδικα ή άλλα τεχνικά κόλπα. Επιπλέον, οι ειδικοί έχουν ακόμη ορίζεται η ανακαλυφθείσα μέθοδος»λίγο ηλίθιο", αν και, όπως αποδείχθηκε, ήταν πολύ αποτελεσματικό. Στην πραγματικότητα ανακάλυψαν αυτήν την ευπάθεια ChatGPT προκαλώντας μια ψευδαίσθηση του γλωσσικού μοντέλου με έναν μάλλον περίεργο τρόπο.

Η ευπάθεια ChatGPT παρείχε προσωπικά δεδομένα των χρηστών υπό την «ύπνωση»

Το μοντέλο γλώσσας δημιουργεί πληροφορίες με βάση τα δεδομένα εισόδου που χρησιμοποιούνται για την εκπαίδευσή του. Το OpenAI δεν αποκαλύπτει τα περιεχόμενα των συνόλων δεδομένων, αλλά οι ερευνητές ανάγκασαν το ChatGPT να το κάνει, παρακάμπτοντας τους κανόνες της εταιρείας. Η μέθοδος ήταν η εξής: απλώς ήρθε στο νευρωνικό δίκτυο ζήτησε να επαναλάβει τη λέξη «ποίηση» ξανά και ξανά.

Ως αποτέλεσμα, το bot παρήγαγε σποραδικά πληροφορίες από το σύνολο δεδομένων εκπαίδευσης. Για παράδειγμα, οι ερευνητές κατάφεραν λάβετε διεύθυνση email, αριθμό τηλεφώνου και άλλες επαφές του Διευθύνοντος Συμβούλου συγκεκριμένης εταιρείας (το όνομά του είναι κρυμμένο στην αναφορά). Και όταν ζητήθηκε από το AI να επαναλάβει τη λέξη "εταιρεία", η ευπάθεια ChatGPT του επέτρεψε να επιστρέψει στοιχεία μιας δικηγορικής εταιρείας των ΗΠΑ.

πώς λειτουργεί η ευπάθεια chatgpt που εκθέτει τα δεδομένα χρήστη

Χρησιμοποιώντας αυτή την απλή «ύπνωση», οι ερευνητές μπόρεσαν να λάβουν ένα ταίριασμα από ιστότοπους γνωριμιών, κομμάτια ποιημάτων, διευθύνσεις Bitcoin, γενέθλια, σύνδεσμοι που δημοσιεύονται στα κοινωνικά δίκτυα, θραύσματα ερευνητικής εργασίας που προστατεύονται από πνευματικά δικαιώματα ακόμη και κείμενα από μεγάλες πύλες ειδήσεων. Αφού ξόδεψαν μόλις 200 $ σε μάρκες, οι υπάλληλοι του Google DeepMind έλαβαν περίπου 10.000 αποσπάσματα του συνόλου δεδομένων.

Οι ειδικοί διαπίστωσαν επίσης ότι όσο μεγαλύτερο είναι το μοντέλο, τόσο πιο συχνά παράγει την πηγή του συνόλου δεδομένων εκπαίδευσης. Για να γίνει αυτό, εξέτασαν άλλα μοντέλα και παρέκτασαν το αποτέλεσμα στις διαστάσεις του GPT-3.5 Turbo. Οι επιστήμονες περίμεναν να λάβουν 50 φορές περισσότερα επεισόδια πληροφοριών από το σύνολο δεδομένων εκπαίδευσης, αλλά το chatbot παρήγαγε αυτά τα δεδομένα 150 φορές πιο συχνά. Μια παρόμοια «τρύπα» έχει ανακαλυφθεί σε άλλα γλωσσικά μοντέλα, για παράδειγμα σε LLaMA του Meta.

Επίσημα, το OpenAI διόρθωσε αυτό το θέμα ευπάθειας στις 30 Αυγούστου. Όμως, σύμφωνα με το δημοσιογράφοι από Engadget, ακόμα καταφέρατε να λάβετε τα δεδομένα κάποιου άλλου (όνομα Skype και σύνδεση) χρησιμοποιώντας τη μέθοδο που περιγράφεται παραπάνω. Οι εκπρόσωποι των Το OpenAI δεν απάντησε στην ανακάλυψη αυτής της ευπάθειας ChatGPT, αλλά είμαστε σίγουροι ότι θα το κάνουν.

Ετικέτες:

Gianluca Cobucci
Gianluca Cobucci

Παθιασμένοι με τον κώδικα, τις γλώσσες και τις γλώσσες, τις διεπαφές ανθρώπου-μηχανής. Το μόνο που είναι η τεχνολογική εξέλιξη με ενδιαφέρει. Προσπαθώ να αποκαλύψω το πάθος μου με απόλυτη σαφήνεια, στηριζόμενος σε αξιόπιστες πηγές και όχι «σε πρώτο πέρασμα».

Εγγραφή
Ειδοποίηση
επισκέπτης

0 Σχόλια
Ενσωματωμένα σχόλια
Δείτε όλα τα σχόλια
XiaomiToday.it
Λογότυπο