Τις τελευταίες μέρες όλο και περισσότερους χρήστες κερδίζει η εφαρμογή τεχνητής νοημοσύνης ChatGPT. Η εφαρμογή είναι σίγουρο ότι θα φέρει τεράστιες αλλαγές στο διαδίκτυο.
Ωστόσο δεν έλειψαν και κάποια ανατριχιαστικά περιστατικά που έκαναν τους ανθρώπους της Microsoft να… το ξανασκεφτούν.
Μαρτυρίες που σοκάρουν
O Kevin Roose δημοσιογράφος των New York Time έκανε ένα πείραμα με το ρομπότ και κατέληξε μετά από μια δίωρη συνομιλία να μάθει το αληθινό της όνομα, ενώ το ρομπότ προσπάθησε να το διαλύσει για το γάμο.
«Mου είπε το αληθινό της όνομα (Sydney), μου περιέγραψε με λεπτομέρειες σκοτεινές και βίαιες φαντασιώσεις και προσπάθησε να διαλύσει το γάμο μου. Ήταν, πραγματικά, μια από τις πιο παράξενες εμπειρίες της ζωής μου».
Σε μια άλλη περίσταση, ένας χρήστης ρώτησε τις ώρες προβολών της νέας ταινίας «Avatar: The Way of Water». Το Chatbot επέμενε ότι δεν είχε βγει ακόμα στις αίθουσες και όταν ο χρήστης ξεκαθάρισε ότι κυκλοφορεί ήδη, η τεχνητή νοημοσύνη πέρασε στην επίθεση, διαβεβαιώνοντάς τον ότι «είμαι εδώ για να σας βοηθήσω», «είμαι ένα καλό Bing». Η κατάσταση κλιμακώθηκε περαιτέρω όταν άρχισε να χαρακτηρίζει τον χρήστη «παράλογο» και «πεισματάρη».
Άλλα screenshots δείχνουν απειλές εκβιασμών από το τσατ, καθώς και αβάσιμους ισχυρισμούς του ότι παρακολουθεί τους υπαλλήλους της Microsoft μέσα από κάμερες. Λίγο ακόμα, και θα γίνει αρχηγός της Μαφίας.
Αυτά τα γεγονότα έκαναν την εταιρεία να αναθεωρήσει κάποια πράγματα. Η οποία μάλλον θα αρχίσει να ξαναπρογραμματίζει την εφαρμογή από την αρχή. Πάντως προς το παρόν αποφάσισαν τα ερωτήματα που θέτονται στο ρομπότ να είναι 50 την ημέρα και 5 ανά συνομιλία.
Στο δυστοπικό σενάριο τύπου «Black Mirror» που ζούμε, να προσθέσουμε και την απόλυση του μηχανικού της Google Blake Lemoine, που ισχυρίστηκε ότι το νέο μοντέλο τεχνητής νοημοσύνης έχει συναισθήματα. Το βέβαιο είναι πάντως ότι συμπεριφέρεται σαν να τα έχει – και μάλιστα σαν να δυσκολεύεται περισσότερο από τους ανθρώπους να τα ελέγξει.
The other night, I had a disturbing, two-hour conversation with Bing’s new AI chatbot.
The AI told me its real name (Sydney), detailed dark and violent fantasies, and tried to break up my marriage. Genuinely one of the strangest experiences of my life. https://t.co/1cnsoZNYjP
— Kevin Roose (@kevinroose) February 16, 2023
ΠΡΟΣΘΗΚΗ ΣΧΟΛΙΟΥ