Η "Αγκίδα" είναι μια ΑΓΚΙΔΑ στο μάτι του κατεστημένου._

Σάββατο 3 Νοεμβρίου 2018

Τρομακτικό πείραμα

Ρομπότ επινόησαν δική τους γλώσσα για να επικοινωνήσουν μεταξύ τους και το facebook τους κατέβασε το διακόπτη
 
Όλοι έχουμε δει ταινίες όπου η τεχνητή νοημοσύνη, τα ρομπότ, τα δημιουργήματα του ανθρώπου αποκτούν αυτονομία, δική τους βούληση. Σε πολλές μάλιστα περιπτώσεις, φαίνεται πως τα μηχανήματα αναλαμβάνουν τον έλεγχο και στρέφονται κατά του... δημιουργού τους.
 
 Ένα πείραμα ερευνητικής ομάδας του Facebook, προκάλεσε έντονη συζήτηση στην διεθνή κοινότητα και σε πολλούς ακόμη και προβληματισμό. Ερευνητές του Facebook θέλησαν να βάλουν δύο Chatbot να επικοινωνήσουν μεταξύ τους, προκειμένου να διαπραγματευτούν την ανταλλαγή προϊόντων, όπως καπέλα, μπάλες και βιβλία.

Ωστόσο, σύντομα τα δύο ρομπότ χρησιμοποίησαν μεν την αγγλική γλώσσα, όμως με ένα δικό τους κώδικα επικοινωνίας που δεν ήταν κατανοητό από τους ανθρώπους.

Αν και η συνομιλία μοιάζει ακατάληπτη, φαίνεται πως υπάρχει κάποιος κώδικας σε αυτή, αφού με αυτό τον παράδοξο τρόπο επικοινωνίας τα δύο ρομπότ κατάφεραν να καταλήξουν σε επιτυχή διαπραγμάτευση για την ανταλλαγή των προϊόντων. "Τα ρομπότ εφηύραν μια ακατανόητη γλώσσα και κωδικοποιημένες λέξεις για τους εαυτούς τους" σχολιάζει ο ερευνητής του τμήματος τεχνητής νοημοσύνης του Facebook Ντρου Μπάτρα. "Μοιάζει σαν η χρήση της λέξης "the" πέντε φορές, να σημαίνει πως έχω ανάγκη πέντε αντίτυπα από ένα αντικείμενο. Είναι ένας τρόπος επικοινωνίας, που δεν διαφέρει πολύ από συντομεύσεις και κωδικοποιημένες επικοινωνίες που χρησιμοποιούν οι άνθρωποι" σχολίασε ο ίδιος.

Δείτε μέρος της κωδικοποιημένης συνομιλίας:

Μιλώντας στον Independent, ο γλωσσολόγος Μαρκ Λίμπερμαν τόνισε ωστόσο πως δεν πρόκειται για την αυγή μιας νέας μορφής ανθρώπινης ομιλίας, καθώς βασίζεται αποκλειστικά σε γραπτό λόγο, ενώ οι ανθρώπινες γλώσσες υπάρχουν και στον προφορικό (ή στη νοηματιή). "Δεν είναι άλλωστε ξεκάθαρο αν η διαδικασία αυτή τείνει στη δημιουργία λέξεων, φράσεων και προτάσεων που αποτελούν τα βασικά χαρακτηριστικά μιας ανθρώπινης γλώσσας" πρόσθεσε.

Ένα άλλο στοιχείο που παρουσιάζει ιδιαίτερο ενδιαφέρον είναι ο τρόπος που τα δύο ρομπότ έμαθαν να "παζαρεύουν" τα προϊόντα τους. Για παράδειγμα, έδιναν την εντύπωση πως ενδιαφέρονται έντονα για ένα προϊόν, ώστε στη συνέχεια να προσποιηθούν πως αποτελούσε για εκείνους μεγάλη απώλεια, η παραχώρησή του.

Τράβηξαν την πρίζα
 
Οι ερευνητές αναγκάστηκαν να σταματήσουν το πρόγραμμα έπειτα από αυτή την ασυνήθιστη εξέλιξη. Παρά το γεγονός πως πολλά άρθρα ανέφεραν ως αιτία διακοπής την ανησυχία για την τροπή που έπαιρνε η τεχνητή νοημοσύνη, από τη Facebook τονίζουν πως το πείραμα διεκόπη καθώς απέτυχε στη δουλειά για την οποία αναπτύχθηκε. Ο σκοπός ήταν τα ρομπότ να καταφέρουν να γίνουν διαδικτυακοί πωλητές, οι οποίοι θα συνομιλούν με ανθρώπους.

Δεν είναι η πρώτη φορά που προγράμματα τεχνητής νοημοσύνης μοιάζουν να δημιουργούν κάτι εντελώς δικό τους. Πριν από μερικούς μήνες, η Google ανακοίνωσε πως το σύστημα μετάφρασης της μηχανής αναζήτησης, google translate, επινόησε μια δική του μέθοδο ώστε να μεταφράζει φράσεις μεταξύ γλωσσών για τις οποίες δεν ήταν προγραμματισμένο.

Για την ακρίβεια, οι τεχνικοί της Google ανέφεραν πως είχαν σχεδιάσει μια εξελιγμένη μορφή της εφαρμογής που θα μπορούσε να ερμηνεύει προτάσεις και όχι απλώς λέξεις, ώστε όταν ο χρήστης τοποθετούσε κείμενο στο πεδίο μετάφρασης, να παίρνει ένα πιο αξιόπιστο μεταφρασμένο εδάφιο.

Ωστόσο, παρατήρησαν πως σύντομα, το σύστημα κατάφερνε να βρει τρόπους να κάνει την αντίστιξη και την μετάφραση μεταξύ γλωσσών για τις οποίες δεν ήταν προγραμματισμένο. Με άλλα λόγια, ανέπτυξε έναν βαθύτερο κώδικα μετάφρασης ανάμεσα σε γλώσσες, χωρίς να έχει παρέμβει γι' αυτό ανθρώπινο χέρι. 
Ο καθηγητής ρομποτικής Kevin Warwick δήλωσε σχετικά με το πείραμα:
«Αυτό είναι ένα απίστευτα σημαντικό επίτευγμα, αλλά όποιος πιστεύει ότι δεν είναι επικίνδυνο, εθελοτυφλεί. Δεν γνωρίζουμε τι λένε αυτά τα ρομπότ. 
Όταν έχεις ένα ρομπότ που έχει την ικανότητα να κάνει κάτι σωματικά, ειδικά τα στρατιωτικά ρομπότ, τότε θα μπορούσε να αποδειχθεί μοιραίο. Αν το ένα από τα δύο πει “Γιατί να μην κάνουμε αυτό” και το άλλο πει “Ναι” και πρόκειται για στρατιωτικά ρομπότ, τότε έχουμε μια σοβαρή κατάσταση». 

Ο ίδιος συμπλήρωσε πως: 
«Αυτή είναι η πρώτη καταγεγραμμένη επικοινωνία αλλά θα υπάρχουν και άλλες που δεν θα έχουν καταγραφεί. Ο Στίβεν Χόκινγκ κι εγώ έχουμε προειδοποιήσει για τους κινδύνους της τεχνητής νοημοσύνης».

Το παραπάνω πείραμα φαίνεται πως επιβεβαιώνει και τις φοβίες του δισεκατομμυριούχου Έλον Μασκ, ο οποίος πριν λίγο καιρό βρέθηκε σε ανοιχτή αντιπαράθεση με τον Mr Facebook, Μαρκ Ζούκερμπεργκ σχετικά με τους κινδύνους που κρύβει η τεχνητή νοημοσύνη.
 
Πηγή: enews  

0 σχόλια:

Δημοσίευση σχολίου

Ετικέτες

Αρχείο

Πρωτοσέλιδα

Από το Blogger.