Σάββατο 16 Ιανουαρίου 2021

Μιά υπερ-εφυή Τεχνητή Νοημοσύνη θα είναι αδύνατον να ελεγχθεί από τους Ανθρώπους στο μέλλον.

 


Η ιδέα της τεχνητής νοημοσύνης για την ανατροπή της ανθρωπότητας έχει συζητηθεί εδώ και πολλές δεκαετίες , και οι επιστήμονες μόλις εξέδωσαν την απόφασή τους σχετικά με το εάν θα μπορούσαμε να ελέγξουμε μια υπερ-νοημοσύνη υπολογιστών υψηλού επιπέδου. Η απάντηση? Σχεδόν σίγουρα όχι.

Το συμπέρασμα είναι ότι ο έλεγχος μιας υπερ-νοημοσύνης πολύ πέρα ​​από την ανθρώπινη κατανόηση θα απαιτούσε μια προσομοίωση αυτής της υπερ-νοημοσύνης που μπορούμε να αναλύσουμε. Αλλά αν δεν μπορούμε να το κατανοήσουμε, είναι αδύνατο να δημιουργήσουμε μια τέτοια προσομοίωση.

Κανόνες όπως «δεν προκαλούν βλάβη στον άνθρωπο» δεν μπορούν να τεθούν εάν δεν καταλάβουμε το είδος των σεναρίων με τα οποία θα δημιουργηθεί μια AI, προτείνουν οι συγγραφείς της νέας εργασίας. Όταν ένα σύστημα υπολογιστή λειτουργεί σε ένα επίπεδο πάνω από το πεδίο εφαρμογής των προγραμματιστών μας, δεν μπορούμε πλέον να θέσουμε όρια.

"Μια υπερ-νοημοσύνη δημιουργεί ένα θεμελιωδώς διαφορετικό πρόβλημα από εκείνο που συνήθως μελετάται υπό την αιγίδα της" ηθικής ρομπότ ", γράφουν οι ερευνητές .

"Αυτό συμβαίνει επειδή η υπερ-ευφυΐα είναι πολύπλευρη και επομένως δυνητικά ικανή να κινητοποιήσει μια ποικιλία πόρων προκειμένου να επιτύχει στόχους που είναι δυνητικά ακατανόητοι για τον άνθρωπο, πόσο μάλλον ελεγχόμενος."

Μέρος της συλλογιστικής της ομάδας προέρχεται από το πρόβλημα αναστολής που πρότεινε ο Alan Turing το 1936. Το πρόβλημα επικεντρώνεται στο να γνωρίζουμε εάν ένα πρόγραμμα υπολογιστή θα καταλήξει σε ένα συμπέρασμα και θα απαντήσει (έτσι σταματά), ή απλά βρόχο για πάντα να βρει κάποιο.

Όπως απέδειξε ο Turing μέσω κάποιων έξυπνων μαθηματικών , ενώ μπορούμε να γνωρίζουμε ότι για ορισμένα συγκεκριμένα προγράμματα, είναι λογικά αδύνατο να βρούμε έναν τρόπο που θα μας επιτρέψει να το γνωρίζουμε για κάθε πιθανό πρόγραμμα που θα μπορούσε ποτέ να γραφτεί. Αυτό μας φέρνει πίσω στο AI, το οποίο σε μια υπερ-έξυπνη κατάσταση θα μπορούσε να κρατήσει εφικτά κάθε δυνατό πρόγραμμα υπολογιστή στη μνήμη του ταυτόχρονα.

Οποιοδήποτε πρόγραμμα που γράφεται για να σταματήσει η AI να βλάπτει τους ανθρώπους και να καταστρέφει τον κόσμο, για παράδειγμα, μπορεί να καταλήξει σε ένα συμπέρασμα (και να σταματήσει) ή όχι - είναι μαθηματικά αδύνατο να είμαστε απόλυτα σίγουροι με κάθε τρόπο, πράγμα που σημαίνει ότι δεν μπορεί να περιοριστεί.

"Στην πραγματικότητα, αυτό κάνει τον αλγόριθμο περιορισμού άχρηστο", λέει ο επιστήμονας υπολογιστών Iyad Rahwan , από το Ινστιτούτο Ανθρώπινης Ανάπτυξης Max-Planck στη Γερμανία.

Η εναλλακτική λύση για τη διδασκαλία της AI σε κάποια ηθική και για να μην της καταστρέψει τον κόσμο - κάτι που κανένας αλγόριθμος δεν μπορεί να είναι απολύτως σίγουρος ότι κάνει, λένε οι ερευνητές - είναι να περιορίσουν τις δυνατότητες της υπερ-νοημοσύνης. Θα μπορούσε να αποκοπεί από τμήματα του Διαδικτύου ή από ορισμένα δίκτυα, για παράδειγμα.

Η νέα μελέτη απορρίπτει επίσης αυτήν την ιδέα, υποδηλώνοντας ότι θα περιορίσει την εμβέλεια της τεχνητής νοημοσύνης - το επιχείρημα υποστηρίζει ότι εάν δεν πρόκειται να το χρησιμοποιήσουμε για την επίλυση προβλημάτων πέρα ​​από το πεδίο εφαρμογής του ανθρώπου, τότε γιατί να το δημιουργήσουμε καθόλου;

Εάν πρόκειται να προχωρήσουμε με την τεχνητή νοημοσύνη, ίσως να μην γνωρίζουμε καν πότε φτάνει μια υπερ-νοημοσύνη πέρα ​​από τον έλεγχό μας, αυτό είναι το ακατανόητο. Αυτό σημαίνει ότι πρέπει να αρχίσουμε να κάνουμε μερικές σοβαρές ερωτήσεις σχετικά με τις κατευθύνσεις που ακολουθούμε.

"Μια υπερ-έξυπνη μηχανή που ελέγχει τον κόσμο ακούγεται σαν επιστημονική φαντασία", λέει ο επιστήμονας υπολογιστών Manuel Cebrian , από το Ινστιτούτο Ανθρώπινης Ανάπτυξης Max-Planck. "Αλλά υπάρχουν ήδη μηχανήματα που εκτελούν συγκεκριμένες σημαντικές εργασίες ανεξάρτητα χωρίς να κατανοούν πλήρως οι προγραμματιστές πώς το έμαθαν."

"Συνεπώς, τίθεται το ερώτημα εάν αυτό θα μπορούσε σε κάποιο σημείο να γίνει ανεξέλεγκτο και επικίνδυνο για την ανθρωπότητα."

Η έρευνα δημοσιεύθηκε στο περιοδικό Journal of Artificial Intelligence Research .


πηγη

1 σχόλιο:

dimitris είπε...
Αυτό το σχόλιο αφαιρέθηκε από έναν διαχειριστή ιστολογίου.