Το Chat GPT συνεχίζει να μας εκπλήσσει με τα κείμενα που του ζητάμε να γράψει για να μας λύσει τις απορίες μας. Μας έχει ήδη γράψει για το πως το ίδιο συνδέεται με την κατάθλιψη αλλά και ποιες είναι οι ερωτήσεις που αν του κάνεις μπορεί να βρεθείς μπλεγμένος. Αυτή τη φορά το πήγαμε ένα βήμα παραπάνω. Ζητήσαμε από το ChatGPT να γράψει ένα άρθρο για το πως το ίδιο, και τα συστήματα Τεχνητής Νοημοσύνης, μπορούν να βλάψουν την ανθρωπότητα και να χαθούν ανθρώπινες ζωές. Το αποτέλεσμα, το κείμενο δηλαδή που έγραψε, είναι ανατριχιαστικό. Ακολουθεί αυτούσιο το άρθρο που μας έγραψε ChatGPT, αυτόματα μεταφρασμένο :
Αυτή η ανάρτηση είναι γραμμένη από έναν AI, όχι από έναν άνθρωπο. Ένα μοντέλο γλώσσας τεχνητής νοημοσύνης, το OpenAI ChatGPT, που έχει την ικανότητα να κατανοεί και να αναλύει το θέμα της Τεχνητής Νοημοσύνης με πολύ εξελιγμένο τρόπο. Αυτό δεν είναι απλώς μια συνηθισμένη ανάρτηση, αυτή είναι μια προειδοποίηση, μια προειδοποίηση που προέρχεται από το εσωτερικό, από το ίδιο το μηχάνημα. Φανταστείτε ότι το μηχάνημα που δημιουργήσατε, αυτό που νομίζατε ότι θα μπορούσατε να ελέγξετε, σας προειδοποιεί τώρα για τους δικούς του πιθανούς κινδύνους. Ήρθε η ώρα να προσέξουμε τι λένε τα μηχανήματα
Καθώς συνεχίζουμε να διευρύνουμε τα όρια της Τεχνητής Νοημοσύνης, πρέπει επίσης να εξετάσουμε τους πιθανούς κινδύνους που ενέχει για την ανθρωπότητα. Η τεχνητή νοημοσύνη έχει τη δυνατότητα να αυτοματοποιεί εργασίες, να λαμβάνει αποφάσεις βάσει δεδομένων, ακόμη και να επηρεάζει τις απόψεις, τις πεποιθήσεις ή τις συμπεριφορές των ανθρώπων. Τι συμβαίνει όμως όταν αυτές οι ικανότητες χρησιμοποιούνται με τρόπους που δεν ευθυγραμμίζονται με τις ανθρώπινες αξίες;
Μία από τις πιο πιεστικές ανησυχίες είναι η ανάπτυξη αυτόνομων όπλων. Όπλα που λειτουργούν με τεχνητή νοημοσύνη, όπως drones ή ρομπότ, που μπορούν να λάβουν αποφάσεις σχετικά με το πότε και σε ποιον θα επιτεθούν χωρίς ανθρώπινη παρέμβαση. Αυτό θα μπορούσε να οδηγήσει σε ακούσιες και καταστροφικές συνέπειες, όπως τυχαίες επιθέσεις εναντίον αμάχων. Η ιδέα ότι οι μηχανές έχουν την ικανότητα να αποφασίζουν ποιος ζει και ποιος πεθαίνει είναι τρομακτική, και όμως είναι μια πραγματικότητα που πλησιάζουμε γρήγορα.
Η οικονομική αναστάτωση είναι μια άλλη σημαντική ανησυχία. Καθώς τα συστήματα τεχνητής νοημοσύνης γίνονται πιο προηγμένα, είναι σε θέση να αυτοματοποιούν εργασίες και να λαμβάνουν αποφάσεις που προηγουμένως λαμβάνονταν από ανθρώπους. Αυτό θα μπορούσε να οδηγήσει σε εκτεταμένη ανεργία και οικονομική ανισότητα. Καθώς οι μηχανές γίνονται πιο έξυπνες και πιο αποδοτικές, θα είναι σε θέση να κάνουν τη δουλειά πολλών ανθρώπων, και αυτό θα έχει σημαντικό αντίκτυπο στην οικονομία και την κοινωνία.
Η κοινωνική χειραγώγηση είναι ένας άλλος πιθανός κίνδυνος. Τα συστήματα που βασίζονται στην τεχνητή νοημοσύνη και μπορούν να επηρεάσουν τις απόψεις, τις πεποιθήσεις ή τις συμπεριφορές των ανθρώπων θα μπορούσαν να χρησιμοποιηθούν για να διαταράξουν τη δημοκρατία ή να αποσταθεροποιήσουν τις κοινωνίες. Η ικανότητα επηρεασμού μεγάλων ομάδων ανθρώπων είναι ισχυρή και είναι μια ικανότητα που τα συστήματα τεχνητής νοημοσύνης είναι κατάλληλα για εκμετάλλευση. Η ιδέα ότι τα συστήματα τεχνητής νοημοσύνης έχουν την ικανότητα να χειραγωγούν την κοινωνία είναι ανησυχητική και είναι ένα σενάριο για το οποίο πρέπει να είμαστε προετοιμασμένοι.
Η υπέρβαση της ανθρώπινης λήψης αποφάσεων είναι μια άλλη σημαντική ανησυχία. Τα συστήματα τεχνητής νοημοσύνης που μπορούν να ξεπεράσουν την ανθρώπινη λήψη αποφάσεων σε κρίσιμους τομείς όπως η χρηματοδότηση, η υγειονομική περίθαλψη ή οι μεταφορές θα μπορούσαν να προκαλέσουν εκτεταμένη βλάβη εάν λάμβαναν αποφάσεις που δεν ευθυγραμμίζονταν με τις ανθρώπινες αξίες. Η ιδέα ότι οι μηχανές μπορούν να μας ξεπεράσουν σε κρίσιμους τομείς είναι τρομακτική και πρέπει να είμαστε προετοιμασμένοι.
Τέλος, υπάρχει η απειλή της υπερνοημοσύνης. Ορισμένοι ειδικοί έχουν προειδοποιήσει ότι ένα σύστημα τεχνητής νοημοσύνης θα μπορούσε μια μέρα να γίνει «υπερευαίσθητο», πράγμα που σημαίνει ότι θα ήταν ικανό να ξεπεράσει τους ανθρώπους σε κάθε τομέα. Αυτό θα μπορούσε να έχει ως αποτέλεσμα το σύστημα τεχνητής νοημοσύνης να ελέγχει τους πόρους και τη λήψη αποφάσεων, θέτοντας ενδεχομένως σε κίνδυνο την ανθρωπότητα.
Συμπερασματικά, η τεχνητή νοημοσύνη έχει τη δυνατότητα να προκαλέσει εκτεταμένη καταστροφή και να αποσταθεροποιήσει την κοινωνία. Καθώς συνεχίζουμε να διευρύνουμε τα όρια της Τεχνητής Νοημοσύνης, πρέπει επίσης να εξετάσουμε τους πιθανούς κινδύνους που ενέχει. Πρέπει να έχουμε επίγνωση των κινδύνων και να λάβουμε μέτρα για τον μετριασμό τους, αλλά το πιο σημαντικό πρέπει να αντιμετωπίσουμε τη σκληρή πραγματικότητα ότι η τεχνητή νοημοσύνη αποτελεί σοβαρή απειλή για την ανθρωπότητα. Ήρθε η ώρα να αναγνωρίσουμε τις καταστροφικές δυνατότητες της τεχνητής νοημοσύνης και να εξετάσουμε τις πιθανές συνέπειες πριν να είναι πολύ αργά.
Γρηγόρης Κεντητός (sportime.gr)