Σας ενδιαφέρουν ΠΡΟΣΦΟΡΕΣ? Εξοικονομήστε χρήματα με τα κουπόνια μας WhatsApp o ΤΗΛΕΓΡΑΦΗΜΑ!

Το OpenAI δημιουργεί ομάδα για «καταστροφικούς» κινδύνους AI. Γι' αυτό μας αφορά

Η OpenAI, μια εταιρεία που βρίσκεται πλέον στην πρώτη γραμμή στον τομέα της τεχνητής νοημοσύνης, πρόσφατα ανακοίνωσε η δημιουργία μιας νέας ομάδας με το συγκεκριμένο έργο να αξιολογήσει και να μετριάσει πιθανούς καταστροφικούς κινδύνους που σχετίζονται με τις προηγμένες τεχνολογίες που σχετίζονται με την τεχνητή νοημοσύνη. Αυτή η κίνηση υπογραμμίζει την αυξανόμενη σημασία της προληπτικής αντιμετώπισης των προκλήσεων και των κινδύνων που μπορούν να επιφέρουν τα μοντέλα παραγωγής. Προφανώς, όπου δεν παρακολουθούνται σωστά.

Προσδιορισμός κινδύνου από το OpenAI

Καθώς η τεχνητή νοημοσύνη εξελίσσεται ταχέως, εμφανίζονται νέοι κίνδυνοι που θα μπορούσαν να έχουν σοβαρές επιπτώσεις σε παγκόσμια κλίμακα. Για αυτό, η νέα ομάδα προετοιμασίας OpenAI θα αφοσιωθεί να παρακολουθείτε, αξιολόγηση, προβλέπω e προστατεύω ενάντια σε αυτά τα πιθανά προβλήματα. Μεταξύ των κινδύνων που εντοπίστηκαν είναι: απειλές πυρηνικός, ένα θέμα που αναδεικνύει τον επείγοντα χαρακτήρα της υπεύθυνης δράσης στον τομέα της τεχνητής νοημοσύνης.

Εκτός από τις πυρηνικές απειλές, η ομάδα θα επικεντρωθεί επίσης σε κινδύνους που σχετίζονται με ουσίες χημική, βιολογική και ραδιολογική, καθώς και στο στφαινόμενο αυτο-αντιγραφής της τεχνητής νοημοσύνης, ή την ικανότητα ενός συστήματος τεχνητής νοημοσύνης να αναπαράγεται αυτόνομα. Άλλοι τομείς εστίασης περιλαμβάνουν την ικανότητα του AI να εξαπατά τους ανθρώπους και απειλές όλα κυβερνασφάλεια.

Οφέλη και προκλήσεις της προηγμένης τεχνητής νοημοσύνης

Το OpenAI αναγνωρίζει ότι τα συνοριακά μοντέλα τεχνητής νοημοσύνης, αυτά που ξεπερνούν τις δυνατότητες των πιο προηγμένων υπαρχόντων μοντέλων, έχουν τη δυνατότητα να ωφελεί όλη την ανθρωπότητα. Και όχι, σε αντίθεση με ό,τι νομίζετε, τοΗ τεχνητή νοημοσύνη δεν είναι εδώ για να μας κλέψει τις δουλειές αλλά μάλλον για να το δημιουργήσουμε.

Ωστόσο, με μεγάλη δύναμη, έρχεται και μεγάλη ευθύνη. Επομένως, είναι απαραίτητο να αναπτυχθεί πολιτικές ενημερωθεί για τους κινδύνους, που σας επιτρέπουν να αξιολόγηση και παρακολούθηση μοντέλων AI, για να διασφαλιστεί ότι τα οφέλη υπερτερούν των σχετικών κινδύνων.

Το openai προσφέρει ανταμοιβές για την εύρεση σφαλμάτων στο chatgpt

Διαβάστε επίσης: Η DeepMind έχει τη λύση για την πρόληψη των κινδύνων AI

Η ηγεσία αυτής της νέας ομάδας έχει ανατεθεί Alexander Madry, ηγετική φυσιογνωμία στον τομέα της μηχανικής μάθησης. Αυτή τη στιγμή βρίσκεται σε άδεια από το δικό του ρόλος διευθυντή του Κέντρο Ανάπτυξης Μηχανικής Μάθησης του MIT, Σοφός θα συντονίσει τις προσπάθειες για την ανάπτυξη και τη διατήρηση μιας αναπτυξιακής πολιτικής με γνώμονα τους κινδύνους.

Προς μια παγκόσμια προτεραιότητα

Ο Διευθύνων Σύμβουλος της OpenAI, Σαμ Άλτμαν, δεν είναι καινούργιο σε ανησυχίες σχετικά με τους δυνητικούς καταστροφικούς κινδύνους της τεχνητής νοημοσύνης. Πρότεινε ότι η αντιμετώπιση των τεχνολογιών τεχνητής νοημοσύνης πρέπει να είναι pλαμβάνεται τόσο σοβαρά όσο αυτή των πυρηνικών όπλων, τονίζοντας την ανάγκη για συλλογική προσπάθεια για τον μετριασμό των κινδύνων εξαφάνισης που συνδέονται με την τεχνητή νοημοσύνη. Αυτή η νέα ομάδα αντιπροσωπεύει ένα συγκεκριμένο βήμα προς την υλοποίηση αυτού του οράματος, υπογραμμίζοντας τη δέσμευση του OpenAI να συμβάλει σε υπεύθυνη διαχείριση της Τεχνητής Νοημοσύνης.

Gianluca Cobucci
Gianluca Cobucci

Παθιασμένοι με τον κώδικα, τις γλώσσες και τις γλώσσες, τις διεπαφές ανθρώπου-μηχανής. Το μόνο που είναι η τεχνολογική εξέλιξη με ενδιαφέρει. Προσπαθώ να αποκαλύψω το πάθος μου με απόλυτη σαφήνεια, στηριζόμενος σε αξιόπιστες πηγές και όχι «σε πρώτο πέρασμα».

Εγγραφή
Ειδοποίηση
επισκέπτης

0 Σχόλια
Ενσωματωμένα σχόλια
Δείτε όλα τα σχόλια
XiaomiToday.it
Λογότυπο