Στίβεν Χόκινγκ: Η τελευταία προειδοποίηση για την ανθρωπότητα πριν πεθάνει… ανατριχιάζει
Το ChatGPT και άλλα εργαλεία κάνουν την τεχνητή νοημοσύνη μέρος της καθημερινότητάς μας.
Τώρα, αρχίζουμε να είμαστε όλο και πιο νευρικοί σχετικά με την άνοδο της τεχνητής νοημοσύνης - τι μπορεί να σημαίνει για θέσεις εργασίας, για την διάδοση παραπληροφόρησης και πολλά άλλα - αλλά ο Χόκινγκ ήταν πολύ μπροστά από την εποχή που ζούμε.
Σε μια συνέντευξη στο BBC το 2014, ο Χόκινγκ είπε: «Η ανάπτυξη της πλήρους τεχνητής νοημοσύνης θα μπορούσε να σημάνει το τέλος της ανθρώπινης φυλής».
Η τεχνητή νοημοσύνη ήταν στα σπάργανά της τότε, αλλά ο Χόκινγκ μπορούσε ήδη να δει τη δύναμη που θα μπορούσε να έχει - ιδιαίτερα αν ήταν σε θέση να ματσάρει ή να ξεπεράσει την ανθρώπινη νοημοσύνη.
«Θα απογειωνόταν από μόνο της και θα επανασχεδιαζόταν με ολοένα αυξανόμενο ρυθμό», είχε πει στο BBC.
Ο Χόκινγκ συνέχισε: «Οι άνθρωποι, περιορίζονται από την αργή βιολογική εξέλιξη, δεν μπορούν να ανταγωνιστούν να ανταγωνιστούν την τεχνητή νοημοσύνη και θα αντικατασταθούν».
Ο Χόκινγκ, ο οποίος έγινε διάσημος για τη θεωρητική του εργασία γύρω από τις μαύρες τρύπες, προφανώς κατάλαβε από νωρίς πόσο σημαντική επρόκειτο να γίνει η τεχνητή νοημοσύνη.
Το 2015, ήταν ένας από τους 100 εμπειρογνώμονες που υπέγραψαν μια ανοιχτή επιστολή προς τα Ηνωμένα Έθνη το 2015, προειδοποιώντας για τους κινδύνους της ανεξέλεγκτης ανάπτυξης της τεχνητής νοημοσύνης.
Το 2017 - το έτος πριν πεθάνει - εξέδωσε μια αυστηρή προειδοποίηση, λέγοντας στο περιοδικό Wired: «Φοβάμαι ότι η τεχνητή νοημοσύνη μπορεί να αντικαταστήσει εντελώς τους ανθρώπους».
Στο βιβλίο του Brief Answers to the Big Questions, που δημοσιεύτηκε λίγους μήνες μετά τον θάνατό του, ο Χόκινγκ συνέχισε στο ίδιο θέμα, γράφοντας: «Μπορεί να αντιμετωπίσουμε μια έκρηξη νοημοσύνης που τελικά καταλήγει σε μηχανές των οποίων η νοημοσύνη υπερβαίνει τη δική μας κατά περισσότερο από τη δική μας αυτή των σαλιγκαριών».
Και πρόσθεσε: «Είναι δελεαστικό να απορρίψουμε την έννοια των εξαιρετικά ευφυών μηχανών ως απλή επιστημονική φαντασία, αλλά αυτό θα ήταν ένα λάθος - και ενδεχομένως το χειρότερο λάθος μας».