Μια ομάδα Αμερικανών ερευνητών κατάφερε να κάνει πραγματικότητα αυτό που είχε προβλέψει ο Ισαάκ Ασίμοφ: μηχανές ικανές να παραπλανούν όταν το κρίνουν απαραίτητο. Στην ερώτηση γιατί προτιμά τα ρομπότ από τους ανθρώπους, η δρ. Κάλβιν, μια από τις ηρωίδες του πατέρα της επιστημονικής φαντασίας, απαντούσε: «μα γιατί τα ρομπότ είναι έντιμα». Δυο ερευνητές του Τεχνολογικού Ινστιτούτου της Ατλάντα στις ΗΠΑ φαίνεται ότι διαψεύδουν την δρ. Κάλβιν. Μελετώντας το φαινόμενο του ψεύδους στη Φύση, οι δυο ερευνητές μπόρεσαν να δημιουργήσουν έναν αλγόριθμο που επιτρέπει στα ρομπότ να λένε ψέματα.
Σε μια από τις ιστορίες που περιλαμβάνονται στην ανθολογία «Εγώ, το ρομπότ» του Ασίμοφ, πρωταγωνιστής είναι ο RB-34, γνωστός και ως Χέρμπι, ένα ρομπότ που από κάποιο κατασκευαστικό λάθος μπορεί να διαβάσει τη σκέψη των άλλων. Παρά την ιδιαιτερότητά του, ο Χέρμπι είναι πιστός στον πρώτο νόμο της Ρομποτικής, όπως τον έχει διατυπώσει ο Ασίμοφ: «Ένα ρομπότ δεν μπορεί να βλάψει ένα ανθρώπινο ον, ούτε μπορεί να επιτρέψει να υποστεί κάποια βλάβη ένα ανθρώπινο ον εξαιτίας της απουσίας της δικής του παρέμβασης». Με βάση αυτή την αρχή, ο Χέρμπι ψεύδεται για «καλό σκοπό».
Στη μελέτη τους, η οποία δημοσιεύθηκε στην επιθεώρηση International Journal of Social Robotics, οι Αμερικανοί ερευνητές σημειώνουν ότι αυτό που τους ενδιέφερε ήταν να εισάγουν στη λογική των ρομπότ το «καλόπιστο ψέμα», δηλαδή στις περιπτώσεις εκείνες που οι μηχανές παρέχουν βοήθεια σε ανθρώπους που υποφέρουν, για παράδειγμα, από εκφυλιστική άνοια. Οι μηχανές που κατασκεύασαν οι Αλαν Ρ. Βάγκνερ και Ρόναλντ Κ. Αρκιν, ερευνητές του Ινστιτούτου της Ατλάντα δεν διαθέτουν τόσο σύνθετη σκέψη σαν αυτή που διαθέτει ο Χέρμπι. «Η ικανότητα να παραπλανείς - εξηγεί ο Αλαν Βάγκνερ - προκύπτει από τη δυνατότητά σου να υποθέτεις τι σκέφτονται οι άλλοι». Επομένως, μια μηχανή που ψεύδεται δεν πρέπει μόνο να ξέρει πώς να το κάνει αλλά και να διαθέτει μια σχετική γνώση γύρω από τον παραλήπτη του ψέματος όπως και να αντιλαμβάνεται πότε πρέπει να καταφεύγει στο ψεύδος. «Ο αλγόριθμός μας - διευκρινίζει ο Βάγκνερ - βασίζεται σε δυο συνθήκες: η πρώτη είναι ότι το υποκείμενο θέτει σε εφαρμογή την παραπλάνηση μέσω μιας ψευδούς επικοινωνίας. Στη συνέχεια φτιάχνει μια ιδέα αυτού που θα ήθελε να κάνει τον άλλον να πιστέψει». Τέλος, επιλέγει την πιο κατάλληλη «παγίδα».
Το μοντέλο που κατασκεύασαν οι δυο ερευνητές βασίζεται σε ένα συγκεκριμένο σενάριο. Φαινομενικά, πρόκειται για δυο ρομποτάκια που παίζουν κρυφτό. Αυτό όμως που είχαν στο μυαλό τους οι Βάγκνερ και Αρκιν ήταν μια στρατιωτική εφαρμογή: μια βάση δέχεται επίθεση και μια μηχανή αναλαμβάνει να προστατεύσει σημαντικές πληροφορίες και λογισμικά. «Το ρομπότ πρέπει να κρυφτεί και να επιλέξει μια στρατηγική παραπλάνησης ώστε να μειώσει τις πιθανότητες να το ανακαλύψει ο εχθρός», εξηγεί ο δρ. Αρκιν.
Στο πείραμα χρησιμοποιήθηκαν δυο μηχανές. Η μία είχε το ρόλο του φυγά και η άλλη το ρόλο του διώκτη. Το ρομπότ - φυγάς έπρεπε να επιλέξει ανάμεσα σε διάφορες κρυψώνες. Σε κάθε κρυψώνα είχαν τοποθετηθεί ένας ορθοστάτης, η ανατροπή του οποίου είναι μια σαφής ένδειξη ότι από εκείνο το σημείο είχε περάσει κάποιος. Χάρις στον αλγόριθμο, το ρομπότ - φυγάς μπορούσε να ψεύδεται ρίχνοντας τα εμπόδια για να παραπλανήσει τον διώκτη του κι επιλέγοντας τελικά να κρυφτεί σε μια άλλη κρυψώνα.
«Οσο και αν φαίνεται απλό, πρόκειται για ένα μεγάλο βήμα στη ρομποτική», σημειώνουν οι δυο ερευνητές στη μελέτη τους. Πριν από τους Αμερικανούς ερευνητές, Ελβετοί συνάδελφοί τους στην Πολυτεχνική Σχολή της Λοζάνης είχαν παρατηρήσει ότι, υπό ορισμένες προϋποθέσεις, τα ρομπότ που έχουν προγραμματιστεί να αποκτούν εμπειρική γνώση αναπτύσσουν αυθόρμητα τέτοιες συμπεριφορές ώστε να αποκτούν ένα πλεονέκτημα «φυσικής επιλογής» σε σχέση με τα άλλα. Στη διάρκεια της μελέτης, η οποία είχε δημοσιευθεί το 2007 στην επιθεώρηση Current Biology, είχε αναλυθεί η εξέλιξη περισσότερων από 500 γενιών σε εκατό αποικίες ρομπότ, τα οποία ήταν εφοδιασμένα με διαφορετικά τεχνητά γονιδιώματα. Από τα αποτελέσματα της μελέτης είχε προκύψει ότι οι πιο εξελιγμένες μηχανές τείνουν να παραπλανούν τα μέλη των άλλων αποικιών προκειμένου να αποκτούν εν δυνάμει πλεονεκτήματα και να εξασφαλίζουν την επιτυχία του «είδους» τους.
«Το ψεύδος είναι πανταχού παρόν στη Φύση», υποστηρίζουν σήμερα οι δυο Αμερικανοί ερευνητές. «Από το καμουφλάζ των ακρίδων έως τις πιο σύνθετες στρατηγικές που χρησιμοποιεί ο άνθρωπος, η παραπλάνηση είναι ένα πεδίο έρευνας που δεν μπορεί να αφήσει αδιάφορη τη ρομποτική», προσθέτουν. Πάντως, το ενδεχόμενο να ανακαλύψει κάποιος έναν αλγόριθμο για να κάνει τις μηχανές να ψεύδονται με σκοπό την απάτη, δεν μπορεί να αποκλεισθεί. Ακριβώς γι' αυτόν το λόγο, το Τεχνολογικό Ινστιτούτο της Ατλάντα υπογραμμίζει την ανάγκη να συνταχθεί ένας κώδικας που θα εφαρμόζεται πιστά απ' όσους σχεδιάζουν ρομπότ σαν το Χέρμπι του Ισαάκ Ασίμοφ.
Πως γίνεται όμως να τεθεί ένα σαφές όριο ανάμεσα στην θετική και την αρνητική χρήση του ψέματος; Κάποιοι επισημαίνουν ότι η ημέρα που τα ρομπότ θα μας κοροϊδεύουν δεν είναι καθόλου μακρινή.
πηγή: ana-mpa.gr
Δεν θέλω να γίνω μάντης κακών, αλλά εάν δε φροντίσουν οι αρμόδιοι εντολείς σχεδίασης Ρομπότ για την έγκαιρη σύνταξη Συνθήκης που θα διέπει την κατασκευή και λειτουργία των πολύπλοκων μεταλλικών μας βοηθών, τότε οι μελλοντικές γενιές ίσως ζήσουν τον εφιάλτη της οποιασδήποτε υποδούλωσης-εξάρτησης τους από τα ευφυή Ρομπότ. Είναι πολύ ωραία τα καλούδια της νέας τεχνολογίας, όταν όμως εμπλέκονται θέματα στρατιωτικής χρήσης –γιατί από αυτόν τον τομέα ξεκινούν οι περισσότερες έρευνες- τότε τα αποτελέσματα δεν είναι καθόλου ευχάριστα για τους απλούς πολίτες.
ΑπάντησηΔιαγραφή