Παραιτήθηκε από την Google, ο θεωρούμενος ευρέως ως ο «νονός της τεχνητής νοημοσύνης», Dr. Geoffrey Hinton, επικαλούμενος την έντονη ανησυχία του σχετικά με τους αυξανόμενους κινδύνους της τεχνολογίας τεχνητής νοημοσύνης (AI).
Από το 2013 ως το 2023, ο Hinton εργαζόταν τόσο για την Google (Google Brain), όσο και για το Πανεπιστήμιο του Τορόντο, προτού ανακοινώσει δημόσια την αποχώρησή του από την Google.
Μετά την αποχώρησή του, επαίνεσε την Google που «ενήργησε πολύ υπεύθυνα» κατά την ανάπτυξη της τεχνητής νοημοσύνης της, όμως άλλαξε, όταν η Microsoft άρχισε να ενσωματώνει ένα chatbot στη μηχανή αναζήτησής της, Bing, και η εταιρεία άρχισε να ανησυχεί για τον κίνδυνο της μηχανής αναζήτησής της.
Ο 75χρονος επιστήμονας, μιλώντας στους New York Times, είπε πως λυπάται για τη δουλειά που έκανε και συνέβαλε στην ανάπτυξη αυτού του τομέα.
«Παρηγορώ τον εαυτό μου με την κλασική δικαιολογία: Αν δεν το είχα κάνει εγώ, κάποιος άλλος θα το έκανε».
Η πρωτοποριακή έρευνα του Dr. Hinton για τα νευρωνικά δίκτυα (neural networks) και τη βαθιά μάθηση (deep learning) άνοιξε το δρόμο για τα τρέχοντα συστήματα AI, όπως το ChatGPT.
Στην τεχνητή νοημοσύνη, τα νευρωνικά δίκτυα είναι συστήματα που μοιάζουν με τον ανθρώπινο εγκέφαλο στον τρόπο, με τον οποίο μαθαίνουν και επεξεργάζονται πληροφορίες. Δίνουν τη δυνατότητα στους AI να μάθουν από την εμπειρία, όπως θα έκανε ένα άτομο. Αυτό ονομάζεται βαθιά μάθηση (deep learning).
Ο Βρετανο-Καναδός γνωστικός ψυχολόγος και επιστήμονας υπολογιστών είπε στο BBC ότι τα chatbots θα μπορούσαν σύντομα να ξεπεράσουν το επίπεδο πληροφοριών που κατέχει ένας ανθρώπινος εγκέφαλος.
«Αυτή τη στιγμή, αυτό που βλέπουμε, είναι πράγματα, όπως το GPT-4, που επισκιάζει κατά πολύ ένα άτομο στο βαθμό των γενικών γνώσεων που έχει. Από άποψη συλλογισμού, δεν είναι τόσο καλό, αλλά χρησιμοποιεί ήδη απλή λογική», είπε.
«Και δεδομένου του ρυθμού προόδου, αναμένουμε ότι τα πράγματα θα βελτιωθούν αρκετά γρήγορα. Επομένως, πρέπει να ανησυχούμε για αυτό».
Μάλιστα, βραχυπρόθεσμα φοβάται ότι η τεχνολογία θα σημαίνει ότι «οι άνθρωποι δεν θα μπορούν πλέον να γνωρίζουν τι είναι αλήθεια, λόγω του πολλαπλασιασμού των ψεύτικων εικόνων, βίντεο και κειμένων»!
«Στο μέλλον, τα συστήματα τεχνητής νοημοσύνης θα μπορούσαν τελικά να αποκτήσουν απροσδόκητη, επικίνδυνη συμπεριφορά και να καταλήξουν σε ρομπότ δολοφόνους», τόνισε.
Προειδοποίησε επίσης ότι «η τεχνολογία ΑΙ θα μπορούσε να προκαλέσει επιβλαβείς διαταραχές στην αγορά εργασίας».
Κάλεσε, μάλιστα, να δημιουργηθεί μια ρύθμιση για να διασφαλιστεί ότι εταιρείες, όπως η Google και η Microsoft δεν θα κινηθούν σε επικίνδυνα μονοπάτια.
«Αυτές οι εταιρείες μπορεί ήδη να εργάζονται σε επικίνδυνα συστήματα κρυφά», είπε ο Hinton.
Όπως και πολλοί άλλοι, ο Hinton ανέφερε ότι έχει ανησυχήσει περισσότερο για τους κινδύνους της τεχνολογίας τον τελευταίο χρόνο, με την ανάπτυξη τεχνολογιών, όπως το ChatGPT της OpenAI και το Bard της Google.
ΠΡΟΣΘΗΚΗ ΣΧΟΛΙΟΥ