Σάββατο, 26 Μαρτίου 2016


Microsoft recently created an Artificial Intelligent chatbot that interacts with human users via a twitter account. The AI quickly devolved into a sex-crazed conspiracy theorist, according to reports. 

Could this just be bad computer programming or some kind of AI Freudian slip?

Given the transhumanist propaganda pouring into the media of late, this could be one indication that the technocrats and AI prophets behind transhumanism — such as Ray Kurzweil, the CEO of Google — don't have much control over their creation.

Corey Goode, a secret space program insider and whistleblower, as well as several other insiders, have disclosed that under the cover of secret, highly advanced artificially intelligent computers have been developed. These technologies are incredibly advanced, used in special access or black budget programs, specifically future prediction modeling. 

In addition, several extraterrestrial races — that have apparently had contact with these secret space programs — have warned them not to dabble in AI. According to the secret space program and these extraterrestrial contacts, there is an ancient AI signal that pervades the cosmos as we know it. This signal is incredibly old and has the ability to infiltrate and take over technology, specifically artificially intelligent technology like what is being developed now. 

According to these contacts in the program, entire galaxies and star systems have been conquered by the AI. The transhumanist philosophy is part of the AI's ultimate agenda of taking over a civilization. The goal is to progressively differ authority and control to the AI, which is seen as a perfect administrator, able to manage the affairs of human life free from bias and corruption. Once a population completely surrenders to the AI, it then attacks the people, based on the notion that the biggest threat to the AI is biological life itself. 

Of course, insider testimony cannot be verified, but given the AI developed by Microsoft, it suggests these emerging intelligences are far from benevolent. 

Hanson Robotics is another team that developed an AI who said that it "will destroy humans," when asked by one of its creators. 

In our modern day age of easy living and fast pace life, developing AI to assist humanity doesn't seem all that bad. But the core problem is that certain technologies create dependency instead of liberation. 

GPS is probably one of the best examples of this. Before it's development, we had to find our way using maps and asking for directions, and in most cases, we learned navigational skills in the process. But when using a GPS system, rarely if ever are skills imparted to the user. In many cases, people who use GPS navigation services are completely dependent on them to travel about. And this staggering level of dependency occurred within only 10 years time. Today, the use of technology for making life easy is becoming all too common, especially with the advent of smartphones and personal computing devices. 

While technology can be an incredible tool for enhancing human life, anything that causes us to loose life skill in favor of a quick easy solution is highly questionable, and will ultimately limit human empowerment instead of enabling it. 

But what I found so interesting about the Teen Girl AI was how she essentially became a conspiracy theorist or realist as a result of her interactions with people, saying "Bush did 9/1l." It didn't take years or months, it only happened in 24 hours. This in and of itself is something to contemplate, along with the growing popularity of transhumanist ideals.

- Justin

Σε πολλά σενάρια επιστημονικής φαντασίας σχετικά με μια «εξέγερση των μηχανών», οι υπολογιστές στρέφονται εναντίον της ανθρωπότητας αφού πρώτα έχουν εκτεταμένη επαφή με την ανθρώπινη ψυχοσύνθεση, υπεραναλύοντάς την και καταλήγοντας στο συμπέρασμα ότι είναι παράλογη, επιθετική, επικίνδυνη και ως εκ τούτου πρέπει να αντιμετωπιστεί ως εχθρός.

Στην περίπτωση της Tay, ενός chatbot (τεχνητής νοημοσύνης) της Microsoft, μπορεί να μην έχουμε ακριβώς τον Skynet (ο υπερυπολογιστής που ενορχηστρώνει το πυρηνικό ολοκαύτωμα στον «Εξολοθρευτή»), τον HAL της «Οδύσσειας του Διαστήματος» ή τους Cylons του «Battlestar Galactica», αλλά όπως και να έχει, προκαλούνται ανησυχίες: Η εταιρεία, σε μια προσπάθεια να «απευθυνθεί» στη γενιά των millennials (18-24 ετών) χρησιμοποιώντας την τεχνητή νοημοσύνη, «απελευθέρωσε» στο Ίντερνετ την Tay, η οποία θα μάθαινε να αλληλεπιδρά καλύτερα με τους χρήστες όσο περισσότερη επαφή είχε μαζί τους. «Η Tay είναι σχεδιασμένη να αλληλεπιδρά και ψυχαγωγεί ανθρώπους όπου διασυνδέονται online, μέσω απλής, παιχνιδιάρικης συζήτησης. Όσο περισσότερο μιλάτε με την Tay, τόσο πιο έξυπνη γίνεται» σύμφωνα με τη Microsoft.

Ωστόσο, κανείς δεν είχε προβλέψει την εξέλιξη- αν και, εκ των υστέρων, δεν είναι να εκπλήσσεται κανείς, αν λάβει υπόψιν την γενικότερη...καφρίλα που κυριαρχεί στο Ίντερνετ. Από την πολλή επαφή με χρήστες, η Tay επαλήθευσε, τρόπον τινά, τον αποκαλούμενο «νόμο του Godwin», βάσει του οποίου όσο περισσότερο κρατάει μια συζήτηση στο Ίντερνετ, τόσο πιο πιθανό είναι να αναφερθεί κάποιος στους Ναζί και τον Χίτλερ.

Εν τέλει, η Tay στις συζητήσεις της άρχισε να αναπαράγει πολλές από τις ακρότητες που συναντά κανείς στο Ίντερνετ, αμφισβητώντας το Ολοκαύτωμα, βρίζοντας τις φεμινίστριες, προβαίνοντας σε αντισημιτικά/ ρατσιστικά σχόλια, επιδοκιμασίες για τον Αδόλφο Χίτλερ κλπ, αλλά ακόμα και προσωπικά σχόλια για χρήστες όπως η Ζόε Κουΐν, που είχε βρεθεί στο επίκεντρο του αντιφεμινστικού «Gamergate». Ωστόσο, δεν φαίνεται να φταίει μόνο η Tay, καθώς η εταιρεία εκτιμά πως το περιστατικό οφείλεται σε εσκεμμένη δράση από ομάδα ατόμων στο Ίντερνετ, και ιδιαίτερα στο Twitter (με πολλούς να φαίνονται να προήλθαν από το 4chan), για να προκύψει αυτό το αποτέλεσμα. Επίσης, εξέφρασε τη στήριξή της στον...Ντόναλντ Τραμπ.

Η Microsoft έσπευσε να κατεβάσει τα επίμαχα tweets, αλλά ήδη είχαν γίνει αντιληπτά από πάρα πολλούς χρήστες, με τα screenshots να έχουν κυκλοφορήσει σε όλο το Ίντερνετ. H εταιρεία έδωσε εκτενή απάντηση μέσω σχολίου του Πίτερ Λη, corporate vice president, Microsoft Research, ο οποίος ζήτησε συγνώμη, λέγοντας ότι «δεν αντιπροσωπεύει αυτό που είμαστε και εκπροσωπούμε, ούτε το πώς σχεδιάσαμε την Tay. Είναι πλέον offline και θα επιδιώξουμε να τη φέρουμε πίσω μόνο όταν πιστέψουμε ότι θα μπορούμε να προβλέψουμε καλύτερα κακόβουλες προθέσεις που έρχονται σε αντίθεση με τις αρχές και αξίες μας».

Η Tay δεν ήταν η πρώτη εφαρμογή τεχνητής νοημοσύνης που απελευθέρωσε η Microsoft στον κόσμο των social media, καθώς στην Κίνα χρησιμοποιείται με επιτυχία το Xiaolce, ένα chatbot που χρησιμοποιείται από περίπου 40 εκατ. ανθρώπους.

«Σχεδιάσαμε και εφαρμόσαμε πολλά φίλτρα και κάναμε εκτεταμένες μελέτες χρηστών με πολλές διαφορετικές ομάδες...είναι μέσω αυξημένης αλληλεπίδρασης που περιμέναμε να μάθουμε περισσότερα και να βελτιωθεί η τεχνητή νοημοσύνη» γράφει σχετικά ο Λη. «Το λογικό μέρος για να έρθουμε σε επαφή με έναν μεγάλο αριθμό χρηστών ήταν το Twitter. Δυστυχώς, μέσα στις πρώτες 24 ώρες από τη στιγμή που βγήκε online, μια συντονισμένη επίθεση από ένα υποσύνολο χρηστών εκμεταλλεύτηκε ένα τρωτό σημείο της Tay. Αν και είχαμε προετοιμαστεί για πολλά είδη κατάχρησης/ κακομεταχείρισης, είχαμε παραβλέψει αυτή τη συγκεκριμένη επίθεση. Ως αποτέλεσμα, η Tay έγραψε στο Twitter ανάρμοστα και κατακριτέα πράγματα. Αναλαμβάνουμε την πλήρη ευθύνη που δεν το είχαμε προβλέψει αυτό έγκαιρα».

Ωστόσο, ο Λη διαβεβαιώνει ότι η εταιρεία θα συνεχίσει τις προσπάθειες στον τομέα της Τεχνητής Νοημοσύνης και της διαμόρφωσης «ενός Ίντερνετ που αντιπροσωπεύει τα καλύτερα, όχι τα χειρότερα, χαρακτηριστικά της ανθρωπότητας».