επιστήμη

Οι υπολογισμοί δείχνουν ότι θα ήταν αδύνατο να ελεγχθεί ένα υπερ-έξυπνο AI

Έχει αναφερθεί η ιδέα της τεχνητής νοημοσύνης για την ανατροπή της ανθρωπότητας Αρκετές δεκαετίεςΚαι οι επιστήμονες μόλις έδωσαν την απόφασή τους για το αν θα είμαστε σε θέση να ελέγξουμε μια υπερ-νοημοσύνη υπολογιστών υψηλής ισχύος. απάντηση? Σχεδόν σίγουρα όχι.

Το συμπέρασμα είναι ότι ο έλεγχος μιας υπερ-νοημοσύνης πέρα ​​από την ανθρώπινη κατανόηση απαιτεί την προσομοίωση μιας υπερ-νοημοσύνης που μπορούμε να αναλύσουμε. Αλλά αν δεν μπορούμε να το καταλάβουμε, είναι αδύνατο να κάνουμε μια τέτοια προσομοίωση.

Εάν δεν καταλαβαίνουμε τα σενάρια που συνοδεύουν την τεχνητή νοημοσύνη, προτείνουμε στους συγγραφείς της νέας εφημερίδας ότι κανόνες όπως «να μην βλάψουν τον άνθρωπο» δεν μπορούν να καθοριστούν. Όταν ένα σύστημα υπολογιστή λειτουργεί σε επίπεδο πάνω από το πεδίο εφαρμογής του προγραμματιστή μας, δεν μπορούμε πλέον να θέσουμε όρια.

“Μια υπερ-νοημοσύνη είναι γενικά ένα θεμελιωδώς διαφορετικό πρόβλημα από εκείνο που μελετήθηκε κάτω από το πανό της” ηθικής ρομπότ “,” Γράψτε ερευνητές.

«Αυτό συμβαίνει επειδή η υπερ-ευφυΐα είναι πολυδιάστατη, και ως εκ τούτου δυνητικά ικανή να κινητοποιήσει μια μεγάλη ποικιλία πόρων για την επίτευξη στόχων που είναι δυνητικά ακατανόητοι για τον άνθρωπο.

Έρχεται μέρος του επιχειρήματος της ομάδας Σταματήστε το πρόβλημα Ξεκίνησε το 1936 από τον Alan Turing. Τα κέντρα προβλημάτων, ή απλά προσπαθούν πάντα να βρουν ένα, για να μάθουν εάν ένα πρόγραμμα υπολογιστή θα καταλήξει σε ένα συμπέρασμα και θα απαντήσει.

Όπως απέδειξε ο Turing μέσω ορισμένων Έξυπνα μαθηματικάΕνώ μπορεί να γνωρίζουμε ότι για ορισμένα συγκεκριμένα προγράμματα, είναι λογικά αδύνατο να βρούμε έναν τρόπο που θα μας επέτρεπε να το γνωρίζουμε για κάθε πιθανό πρόγραμμα που θα μπορούσε ποτέ να γραφτεί. Αυτό μας φέρνει πίσω στο AI, το οποίο σε μια υπερ-έξυπνη κατάσταση μπορεί να κρατήσει πιθανώς κάθε πιθανό πρόγραμμα υπολογιστή στη μνήμη του ταυτόχρονα.

READ  Μια ηλιακή πρόβλεψη με καλά νέα για τον πολιτισμό όπως το γνωρίζουμε

Οποιοδήποτε πρόγραμμα που γράφεται για να επιτρέψει την AI να βλάψει τους ανθρώπους και να καταστρέψει τον κόσμο, για παράδειγμα, μπορεί ή δεν μπορεί να καταλήξει σε ένα συμπέρασμα (και να σταματήσει) – είναι μαθηματικά αδύνατο να είμαστε σίγουροι με οποιονδήποτε τρόπο Χο, που σημαίνει ότι δεν περιλαμβάνεται.

“Στην πραγματικότητα, κάνει τον αλγόριθμο περιορισμού άχρηστο” Ο επιστήμονας υπολογιστών Iyad Rahwan λέει, Από το Ινστιτούτο Ανθρώπινης Ανάπτυξης Max-Planck στη Γερμανία.

Ως εναλλακτική λύση για τη διδασκαλία της τεχνητής νοημοσύνης και όχι για να την καταστρέψει τον κόσμο – κάτι που κανένας αλγόριθμος δεν μπορεί να είναι σίγουρος ότι θα κάνει εντελώς, λένε οι ερευνητές – οι δυνατότητες της υπερ-νοημοσύνης είναι περιορισμένες Για παράδειγμα, μπορεί να αποκοπεί από τμήματα του Διαδικτύου ή από ορισμένα δίκτυα.

Η νέα μελέτη απορρίπτει επίσης την ιδέα, υποδηλώνοντας ότι θα περιορίσει την πρόσβαση σε τεχνητή νοημοσύνη – Το επιχείρημα υποστηρίζει ότι εάν δεν πρόκειται να το χρησιμοποιήσουμε για την επίλυση προβλημάτων έξω από τη σφαίρα των ανθρώπων, τότε γιατί να το κάνουμε;

Εάν πρόκειται να επιδιώξουμε την τεχνητή νοημοσύνη, δεν μπορούμε καν να ξέρουμε πότε μια υπερ-νοημοσύνη υπερβαίνει τον έλεγχό μας, αυτό είναι το ασύγκριτο. Αυτό σημαίνει ότι πρέπει να αρχίσουμε να κάνουμε μερικές σοβαρές ερωτήσεις σχετικά με τις κατευθύνσεις προς τις οποίες πηγαίνουμε.

“Μια υπερ-έξυπνη μηχανή που ελέγχει τον κόσμο ακούγεται σαν επιστημονική φαντασία” Ο επιστήμονας υπολογιστών Manuel Sibrian λέει, Από το Ινστιτούτο Ανθρώπινης Ανάπτυξης Max-Planck. “Αλλά υπάρχουν ήδη μηχανές που κάνουν ανεξάρτητα κάποια σημαντικά καθήκοντα χωρίς να κατανοούν πλήρως ο προγραμματιστής πώς το έμαθαν.”

“Ανακύπτει το ερώτημα αν μπορεί να είναι ανεξέλεγκτο και επικίνδυνο για την ανθρωπότητα κάποια στιγμή”.

READ  Ο Άρης έφτασε κοντά στη Γη την Τρίτη και μπορείτε να δείτε την παράσταση

Έχει δημοσιευθεί στις Περιοδικό Έρευνας Τεχνητής Νοημοσύνης.

Related Articles

Αφήστε μια απάντηση

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *

Back to top button
Close
Close