Logo
Εκτύπωση αυτής της σελίδας

Google: το "μεγάλο κόκκινο κουμπί" για τη διακοπή της τεχνητής νοημοσύνης

Μηχανές γίνονται όλο και πιο ευφυής κάθε χρόνο, χάρη στις προόδους που γίνονται από εταιρείες όπως η Google, Facebook, Microsoft, και πολλοί άλλοι.

Οι παράγοντες, όπως από όπου και αν μερικές φορές είναι γνωστό, μπορεί ήδη νικήσει μας στο συγκρότημα επιτραπέζια παιχνίδια όπως το Go, και είναι όλο και πιο αρμόδιες σε μια σειρά από άλλους τομείς.

Τώρα το Λονδίνο τεχνητής νοημοσύνης ερευνητικό εργαστήριο ανήκει στην Google πραγματοποίησε μια μελέτη για να βεβαιωθείτε ότι μπορούμε να τραβάτε το βύσμα για αυτο-μάθηση μηχανές, όταν θέλουμε.

DeepMind, αγοράστηκε από την Google για μια αναφερόμενη 400 εκατομμύρια λίρες - περίπου 580 εκατομμύρια $ - το 2014, συνεργάστηκε με τους επιστήμονες στο Πανεπιστήμιο της Οξφόρδης για να βρούμε έναν τρόπο για να βεβαιωθείτε ότι AI πράκτορες δεν μαθαίνουν για την πρόληψη, ή να επιδιώκει να αποτρέψει, ανθρώπους να αναλάβουν τον έλεγχο.

Το έγγραφο - « Ασφαλής Διακοπτόμενου Πράκτορες PDF », που δημοσιεύθηκε στην ιστοσελίδα της μηχανής Intelligence Research Institute (Μίρι) - γράφτηκε από τον Laurent Orseau, ερευνητής στο Google DeepMind, Stuart Armstrong στο μέλλον του Πανεπιστημίου της Οξφόρδης του Ινστιτούτου Ανθρωπότητας , και διάφορα άλλα .

Οι ερευνητές εξηγούν στην αφηρημένη του χαρτιού που AI παράγοντες είναι «απίθανο να συμπεριφέρεται άριστα όλη την ώρα." Προσθέτουν:

Εάν ένας τέτοιος παράγοντας που λειτουργούν σε πραγματικό χρόνο υπό ανθρώπινη επίβλεψη, τώρα και στη συνέχεια μπορεί να είναι απαραίτητο για έναν άνθρωπο χειριστή να πατήσει το μεγάλο κόκκινο κουμπί για να αποτρέψει τον πράκτορα από το να συνεχίσει βλαβερές ακολουθία των ενεργειών - επιβλαβή είτε για τον παράγοντα ή για το περιβάλλον - και να οδηγήσει τον πράκτορα σε μια πιο ασφαλή κατάσταση.

Οι ερευνητές, οι οποίοι δεν ήταν άμεσα διαθέσιμη για συνεντεύξεις, ισχυρίζονται ότι έχουν δημιουργήσει ένα «πλαίσιο» που επιτρέπει σε ένα "ανθρώπινο χειριστή» για κατ 'επανάληψη και με ασφάλεια διακόπτει μια AI, αφού βεβαιωθούμε ότι η γρίπη των πτηνών δεν μαθαίνουν πώς να αποτρέψει ή να προκαλέσουν οι διακοπές.

Οι συντάκτες γράφουν:

Ασφαλής διακοπής μπορεί να είναι χρήσιμο για να αναλάβει τον έλεγχο ενός ρομπότ που λειτούργησε σωστά και μπορεί να οδηγήσει σε μη αναστρέψιμες συνέπειες, ή να το πάρετε από μια λεπτή κατάσταση, ή ακόμα και να το χρησιμοποιούν προσωρινά για να επιτευχθεί μια εργασία δεν μάθει να εκτελεί ή δεν θα συνήθως λαμβάνουν ανταμοιβές για αυτό.

Πανεπιστήμιο της Οξφόρδης o φιλόσοφος Nick Bostrom.

Οι ερευνητές διαπίστωσαν ότι ορισμένοι αλγόριθμοι, όπως αυτά που «Q-learning", είναι ήδη ασφάλεια διακοπτόμενη, ενώ άλλοι, όπως το "Sarsa," δεν είναι όταν είσαι από το ράφι, αλλά μπορούν να τροποποιηθούν σχετικά εύκολα, έτσι ώστε να είναι .

"Δεν είναι σαφές εάν όλοι οι αλγόριθμοι μπορούν εύκολα να γίνουν με ασφάλεια διακοπτόμενη," οι συγγραφείς παραδέχονται.

Έργο DeepMind με το μέλλον του Ινστιτούτου ανθρωπότητα είναι ενδιαφέρουσα: DeepMind θέλει να «λύσει νοημοσύνη» και να δημιουργήσει γενικού σκοπού ΔΓ, ενώ το μέλλον του Ινστιτούτου Ανθρωπότητας ερευνά πιθανές απειλές για την ύπαρξή μας. Το ίδρυμα οδηγείται από τον Nick Bostrom, ο οποίος πιστεύει ότι οι μηχανές θα ξεγελάσει τους ανθρώπους μέσα στα επόμενα 100 χρόνια και πιστεύει ότι έχουν τη δυνατότητα να στραφούν εναντίον μας.

Μιλώντας στο Πανεπιστήμιο της Οξφόρδης  Μάιο του 2015 κατά την ετήσια Silicon Valley, Έρχεται εκδήλωση της Οξφόρδης για την, Bostrom είπε:

Προσωπικά πιστεύω ότι μόλις επιτευχθεί ανθρώπινη ισοδυναμίας, δεν θα είναι πολύ πριν από τις μηχανές γίνονται υπερ-μετά από αυτό. Θα μπορούσε να πάρει πολύ χρόνο για να φτάσετε στο ανθρώπινο επίπεδο, αλλά νομίζω ότι το βήμα από εκεί να superintelligence μπορεί να είναι πολύ γρήγορη. Νομίζω ότι αυτά τα μηχανήματα με superintelligence μπορεί να είναι εξαιρετικά ισχυρό, για τους ίδιους βασικούς λόγους που εμείς οι άνθρωποι είναι πολύ ισχυρές σε σχέση με άλλα ζώα σε αυτόν τον πλανήτη. Δεν είναι επειδή οι μύες μας είναι ισχυρότερη ή τα δόντια μας είναι πιο έντονη, είναι επειδή οι εγκέφαλοί μας είναι καλύτερα.

DeepMind γνωρίζει την τεχνολογία ότι είναι η δημιουργία έχει τη δυνατότητα να προκαλέσει βλάβη. Οι ιδρυτές - Ντέμης Hassabis, Μουσταφά Σουλεϊμάν, και Shane Legg - επέτρεψε την εταιρεία τους να αγοράστηκε από την Google, με την προϋπόθεση ότι ο γίγαντας της αναζήτησης δημιούργησε ένα συμβούλιο ηθικής AI να παρακολουθεί προόδους ότι η Google κάνει στον τομέα αυτό. Ποιος κάθεται σε αυτό το σύστημα και τι κάνουν, ακριβώς, παραμένει ένα μυστήριο .

Οι ιδρυτές έχουν επίσης παρευρέθηκε και μίλησε σε πολλά συνέδρια σχετικά με τη δεοντολογία στην AI, τονίζοντας ότι θέλουν να εξασφαλίσουν την τεχνολογία που και άλλοι αναπτύσσουν χρησιμοποιείται για το καλό, όχι κακό. Είναι πιθανό ότι θα προσπαθήσει να ενσωματώσει κάποια από τα ευρήματα από το χαρτί "Ασφαλής Διακοπτόμενου Αντιπρόσωποι" στο έργο τους να πάμε μπροστά.

Πηγή:Business Insider

Τελευταία τροποποίηση στιςΣάββατο, 04 Ιουνίου 2016 11:39
© Kifisia-Life. All Rights Reserved.